Muitos descreveram 2023 como o ano da IA, e o termo apareceu em várias listas de “palavras do ano”. Embora tenha tido um impacto positivo na produtividade e na eficiência no local de trabalho, a IA também apresentou uma série de riscos emergentes para as empresas.

Por exemplo, um recente Pesquisa Harris Poll encomendado pelo AuditBoard revelou que cerca de metade dos americanos empregados (51%) atualmente usam ferramentas de IA para trabalhar, sem dúvida impulsionadas pelo ChatGPT e outras soluções generativas de IA. Ao mesmo tempo, porém, quase metade (48%) afirmou que insere dados da empresa em ferramentas de IA não fornecidas pela sua empresa para os ajudar no seu trabalho.

Esta rápida integração de ferramentas generativas de IA no trabalho apresenta desafios éticos, legais, de privacidade e práticos, criando a necessidade de as empresas implementarem políticas novas e robustas em torno das ferramentas generativas de IA. Da forma como está, a maioria ainda não o fez – um relatório recente do Gartner enquete revelou que mais de metade das organizações não possui uma política interna sobre IA generativa, e a Harris Poll descobriu que apenas 37% dos americanos empregados têm uma política formal relativamente à utilização de ferramentas alimentadas por IA não fornecidas pela empresa.

Embora possa parecer uma tarefa difícil, desenvolver agora um conjunto de políticas e padrões pode salvar as organizações de grandes dores de cabeça no futuro.

Uso e governança da IA: riscos e desafios

O desenvolvimento de um conjunto de políticas e padrões agora pode salvar as organizações de grandes dores de cabeça no futuro.

A rápida adoção da IA ​​generativa tornou difícil para as empresas acompanhar o ritmo da gestão de riscos e da governança da IA, e há uma clara desconexão entre a adoção e as políticas formais. A pesquisa Harris Poll mencionada anteriormente descobriu que 64% consideram o uso de ferramentas de IA seguro, indicando que muitos trabalhadores e organizações podem estar ignorando os riscos.

Esses riscos e desafios podem variar, mas três dos mais comuns incluem:

  1. Excesso de confiança. O efeito Dunning-Kruger é um viés que ocorre quando nossos próprios conhecimentos ou habilidades são superestimados. Vimos isso se manifestar em relação ao uso da IA; muitos sobrestimam as capacidades da IA ​​sem compreender as suas limitações. Isto poderia produzir resultados relativamente inofensivos, como fornecer resultados incompletos ou imprecisos, mas também poderia levar a situações muito mais graves, como resultados que violam restrições legais de uso ou criam riscos de propriedade intelectual.
  2. Segurança e privacidade. A IA necessita de acesso a grandes quantidades de dados para ser totalmente eficaz, mas isso por vezes inclui dados pessoais ou outras informações sensíveis. Existem riscos inerentes ao uso de ferramentas de IA não avaliadas, portanto, as organizações devem garantir que estão usando ferramentas que atendam aos seus padrões de segurança de dados.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *