O que são e por que acontecem

Parece que uma nova IA generativa surge onde quer que você olhe. ChatGPT continua popular, Google Bard continua recebendo atualizações, Dall-E2 está no topo do jogo de criação de imagens e assim por diante. Esses aplicativos de inteligência artificial são fáceis de usar. Você pode fazer login no seu Android agora mesmo e usá-lo para exibir todos os tipos de informações em praticamente qualquer formato que desejar.


Isso tem sido uma dor de cabeça para os professores que tentam pegar os alunos usando chatbots para escrever redações. Os profissionais estão experimentando o uso de IAs para escrever e-mails, listas de produtos e ideias com resultados mistos. Essa experimentação gerou um problema comum e difícil que todo usuário de IA deve conhecer: alucinações.

As alucinações de IA parecem um enredo barato num programa de ficção científica, mas estas falsidades são um problema nos algoritmos de IA e têm consequências para as pessoas que dependem da IA. Aqui está o que você precisa saber sobre eles.


O que é uma alucinação de IA?

Um ícone de chatbot com balões de fala e um rosto de robô contra um fundo verde.

Fonte: Wikimedia Commons

Uma alucinação de IA ocorre quando um modelo generativo de IA fornece informações para um prompt que não está correto ou não existe no mundo real. Por exemplo, se você perguntar à IA: “Quantas tulipas existem no mundo?” e a IA responde: “Existem três tulipas para cada pessoa viva no mundo”, isso é uma alucinação.

Essa estatística não está certa. Ninguém jamais o criou ou estudou no mundo real. A IA criou tudo sozinha. Isso acontece o tempo todo com dados, estatísticas e números que a IA cita. Os chatbots podem até criar processos judiciais falsos que colocam os advogados em apuros ou citam pesquisas médicas erradas para apoiar uma teoria médica.

Para IAs baseadas em imagens, uma alucinação pode ser como o hábito de não entender como as mãos humanas funcionam ou de confundir um tigre com um gato doméstico imediatamente. No entanto, as alucinações são mais comumente associadas à IA conversacional.

O que causa alucinações de IA?

A IA generativa é criada a partir de LLMs, ou grandes modelos de linguagem, um modelo de aprendizado de máquina que treina muitos conjuntos de dados gerados por humanos (conteúdo online). Eles analisam muitos idiomas encontrados on-line (ou imagens, dependendo de sua especialidade) e os dividem em identificadores e fórmulas que podem usar para criar frases que soam humanas. É como uma forma avançada de imitação, e as IAs precisam de muito treinamento cuidadoso antes de poderem soar humanas. Eventualmente, as ferramentas de IA conversacional podem fornecer informações em linguagem natural, mas isso não significa que o que dizem seja preciso.

Os sistemas de IA conversacional são projetados para responder a solicitações como no ChatGPT da OpenAI e em outros chatbots de IA. Eles têm que dizer alguma coisa. Entre imitar a linguagem humana e digitalizar dados online, eles às vezes inventam coisas para responder às solicitações naturalmente. Os bots alimentados por IA pretendem soar como humanos, não necessariamente para fazer tudo certo, então informações incorretas podem aparecer. Quando as IAs alucinam, isso é causado por coisas como:

  • Treinamento em IA deficiente ou inexistente, incluindo uma seleção inadequada de dados de treinamento ou dados de treinamento de baixa qualidade.
  • “Overfitting” ou treinar uma IA com muita precisão em um assunto limitado, de modo que ela não saiba o que dizer aos prompts e cospe informações caóticas.
  • Repetição de desinformação que foi espalhada online por humanos, incluindo desinformação maliciosa.
  • Preconceitos ou emoções humanas que as ferramentas de IA captam e imitam nos momentos errados.
  • Usando um modelo complexo que coleta e analisa tantas informações, com tantas opções de geração de conteúdo, que mesmo boas IAs têm dificuldade para identificar o que é real e o que não é.

Todas as IAs têm alucinações?

Todas as IAs podem cometer erros. As alucinações geralmente são um problema específico da IA ​​generativa, ou IA projetada para responder a solicitações. Quando se trata desses tipos de IA, nenhum deles é perfeito. Descobriu-se que cada um deles tem alucinações pelo menos ocasionalmente. A IA voltada para o consumidor tende a ter algumas verificações integradas para evitar alucinações, mas nada é perfeito. Em algum momento, você descobrirá informações imprecisas.

Como reconheço uma alucinação de IA?

Uma coleção de imagens relacionadas a dispositivos de e-mail, envelopes e lupas.

Fonte: Pixabay

Parte do problema é que chatbots avançados e IA semelhante podem parecer convincentes. Eles citam alucinações porque “acreditam” que são tão verdadeiras quanto qualquer outro tipo de dado. O usuário deve cuidar da revisão. Verifique novamente quando uma IA generativa faz uma afirmação, especialmente envolvendo números, datas, pessoas ou eventos. Fique atento a informações contraditórias em uma resposta ou números que não pareçam adequados para o prompt.

Não confie nos bots para fornecer informações confiáveis ​​sem olhar mais de perto. Existem exemplos de personagens fictícios confusos do ChatGPT e outras informações falsas que você pode não esperar. Sempre pratique sua própria verificação de fatos.

Posso evitar alucinações ao usar IA?

Você não pode prevenir problemas de alucinações, mas pode reduzi-las e obter uma resposta melhor. Pratique hábitos como estes:

  • Abaixe a “temperatura” da IA. Esta configuração controla o quão aleatória a IA pode ser e pode limitar imprecisões (também reduz a criatividade das respostas).
  • Evite usar gírias ao criar um prompt.
  • Não faça perguntas abertas. Peça informações específicas.
  • Preencha os prompts com informações úteis que a IA pode usar para restringir sua resposta.
  • Enquadre a questão pedindo à IA que imite um profissional da área, como um professor ou banqueiro (parece estranho, mas muitas vezes ajuda).
  • Diga à IA o que você não quero saber se ele fornece informações aleatórias. Você também pode solicitar citações que possa verificar.

As alucinações de IA são perigosas?

As alucinações de IA são perigosas de duas maneiras. Primeiro, eles podem fornecer informações erradas quando você deseja acertar. Isso pode ser engraçado, como quando um aluno envia uma redação criada por IA que afirma que Abraham Lincoln desenvolveu o automóvel Lincoln. Também pode ser irritante, como quando uma IA cria uma receita para você, mas diz para usar duas colheres de sopa de ácido sulfúrico em vez de bicarbonato de sódio ou falsifica uma linha em seu currículo. Na pior das hipóteses, as pessoas que seguem instruções incorretas podem se machucar ou ter problemas.

Num nível mais profundo, as alucinações da IA ​​podem criar grandes problemas com a desinformação. O que acontece se você perguntar a uma IA sobre estatísticas relacionadas a um tópico polêmico, como imigração ou vacinas, e a IA alucinar com números? Pessoas mataram e morreram por esses assuntos com base em informações que encontraram online. Quando os usuários acreditam em uma alucinação, as pessoas podem se machucar. Essa é uma das razões para o foco na eliminação das alucinações.

Os desenvolvedores podem consertar alucinações de IA?

Eles estão trabalhando nisso. GPT-4 é melhor que GPT 3.5 e assim por diante. Os desenvolvedores podem usar muitos truques para criar parâmetros e proteções para evitar que a IA tenha alucinações. Pode ser necessário treinamento adicional, reciclagem ou capacidade de processamento, portanto há custos envolvidos. Idealmente, a IA generativa está cada vez mais refinada e as alucinações tornam-se cada vez mais raras.

Cuidado com a alucinação comum da IA

Agora você conhece os meandros das alucinações de IA e por que não pode confiar na IA generativa para obter detalhes específicos. Tenha isso em mente ao pedir respostas ou relatórios à IA sobre um tópico, e você nunca ficará surpreso com essa falha. Enquanto isso, leia nossos artigos sobre como o Google deseja suas fotos para IA e como funciona um LLM.