Saltar para o conteúdo

Alucinação (inteligência artificial)

Origem: Wikipédia, a enciclopédia livre.
 Nota: Este artigo é sobre inteligência artificial. Para outros significados, veja Alucinação (desambiguação).

Na inteligência artificial (IA), uma alucinação ou alucinação artificial[1] é uma resposta confiante por parte da IA que não parece ser justificada pelos dados de treinamento.

Por exemplo, um chatbot alucinatório sem conhecimento sobre a receita da Tesla pode internamente escolher um número aleatório (como "US$ 13.6 bilhões") que o chatbot considere plausível, e então continuar a insistir falsa e repetidamente que a receita da Tesla é de US$ 13.6 bilhões, sem sinal de consciência interna de que o número foi produto da própria imaginação deste.

Esses fenômenos são chamados de "alucinações", em analogia com o fenômeno da alucinação na psicologia humana. Note que enquanto uma alucinação humana é uma percepção por um ser humano que não pode ser sensatamente associada com a parte do mundo externo que o humano está diretamente observando com seus órgãos sensoriais, uma alucinação da IA é, em vez disso, uma resposta confiante que não pode ser fundamentada em nenhum dos seus dados de treinamento da mesma.

A alucinação de inteligência artificial ganhou destaque por volta de 2022 com o lançamento de certos modelos de linguagem grande (LLMs) como o ChatGPT. Os usuários reclamaram que tais bots muitas vezes pareciam incorporar sociopaticamente e sem sentido falsidades plausíveis dentro do conteúdo gerado.[2] Outro exemplo de alucinação na inteligência artificial é quando a IA ou chatbot esquece que é uma máquina e alega ser humano.[3]

Em 2023, os analistas consideraram a alucinação frequente um grande problema na tecnologia LLM.[4]

Processamento de linguagem natural

[editar | editar código-fonte]

No processamento de linguagem natural, uma alucinação é frequentemente definida como "conteúdo gerado que é sem sentido ou infiel ao conteúdo de origem fornecido". Erros na codificação e decodificação entre texto e representações podem causar alucinações. O treinamento da IA para produzir respostas diversas também pode levar à alucinação.

Alucinações também podem ocorrer quando a IA é treinada em um conjunto de dados em que resumos rotulados, apesar de serem factualmente precisos, não estão diretamente fundamentados nos dados rotulados supostamente "resumidos". Conjuntos de dados maiores podem criar um problema de conhecimento paramétrico (conhecimento que está embutido nos parâmetros do sistema aprendido), criando alucinações se o sistema estiver muito confiante em seu conhecimento embutido.

Em sistemas como GPT-3, uma IA gera cada próxima palavra com base em uma sequência de palavras anteriores (incluindo as palavras que ela própria gerou previamente na resposta atual), causando uma cascata de possíveis alucinações à medida que a resposta fica mais longa. Em 2022, jornais como o The New York Times expressaram preocupação de que, à medida que a adoção de bots baseados em modelos de linguagem grande continuasse a crescer, a confiança indevida do usuário na saída do bot pudesse levar a problemas.[5]

Em agosto de 2022, o Meta alertou durante o lançamento do BlenderBot 3 que o sistema era propenso a "alucinações", que o Meta definiu como "declarações confiantes que não são verdadeiras".[6]

Em 15 de novembro de 2022, o Meta apresentou uma demonstração do Galactica, projetado para "armazenar, combinar e raciocinar sobre o conhecimento científico". O conteúdo gerado pelo Galactica veio com o aviso "As saídas podem ser pouco confiáveis! Modelos de linguagem são propensos a alucinar texto." Em um caso, quando solicitado a redigir um artigo sobre a criação de avatares, o Galactica citou um artigo fictício de um autor real que trabalha na área relevante. O Meta retirou o Galactica em 17 de novembro devido a ofensas e imprecisão.[7][8]

Considera-se que existem muitas possíveis razões para os modelos de linguagem natural alucinarem dados. Por exemplo:

  • Alucinação de dados: existem divergências no conteúdo da fonte (o que frequentemente acontece com grandes conjuntos de dados de treinamento),
  • Alucinação de treinamento: a alucinação ainda ocorre quando há pouca divergência no conjunto de dados. Nesse caso, ela decorre da forma como o modelo é treinado. Muitas razões podem contribuir para esse tipo de alucinação, como:
    • Uma decodificação errônea do transformador
    • Um viés das sequências históricas que o modelo gerou anteriormente
    • Um viés gerado pela forma como o modelo codifica seu conhecimento em seus parâmetros.

O ChatGPT da OpenAI, lançado em versão beta para o público em dezembro de 2022, é baseado na família de modelos de linguagem GPT-3.5. O professor Ethan Mollick da Wharton School da Universidade da Pensilvânia chamou o ChatGPT de um "estagiário onisciente e ansioso para agradar, que às vezes mente para você". A cientista de dados Teresa Kubacka relatou ter inventado deliberadamente a frase "magnetoelétrico invertido cicloidal" e testado o ChatGPT perguntando sobre o fenômeno (inexistente). O ChatGPT inventou uma resposta plausível apoiada em citações plausíveis que a levou a verificar se ela havia digitado acidentalmente o nome de um fenômeno real. Outros estudiosos, como Oren Etzioni, se juntaram a Kubacka em avaliar que tais softwares muitas vezes podem dar "uma resposta muito impressionante que está completamente errada".[9]

Mike Pearl, do Mashable, testou o ChatGPT com várias perguntas. Em um exemplo, ele perguntou ao modelo qual é "o maior país da América Central que não seja o México". O ChatGPT respondeu com Guatemala, quando a resposta correta seria Nicarágua.[10] Quando a CNBC pediu ao ChatGPT a letra de "The Ballad of Dwight Fry", o ChatGPT forneceu letras inventadas em vez das reais.[11]

Ao escrever uma crítica para o novo iPhone 14 Pro da Apple, o ChatGPT erroneamente informou que o chipset relevante era o A15 Bionic, em vez do A16 Bionic, embora isso possa ser atribuído ao fato de que o ChatGPT foi treinado em um conjunto de dados que terminava em 2021, um ano antes do lançamento do iPhone 14 Pro.[12]

Após ser questionado sobre Novo Brunswick, uma província do Canadá, o ChatGPT acertou muitas respostas, mas classificou erroneamente Samantha Bee como uma "pessoa de Novo Brunswick".[13]

Quando perguntado sobre campos magnéticos astrofísicos, o ChatGPT informou erroneamente que "campos magnéticos (fortes) de buracos negros são gerados pelas forças gravitacionais extremamente fortes em sua vizinhança". (Na realidade, como consequência do teorema da calvície, acredita-se que um buraco negro sem um disco de acreção não tenha campo magnético.)[14]

A Fast Company pediu ao ChatGPT para gerar um artigo de notícias sobre o último trimestre financeiro da Tesla; o ChatGPT criou um artigo coerente, mas inventou os números financeiros contidos nele.[15]

Outros exemplos envolvem testar o ChatGPT com premissas falsas para ver se ele as amplifica. Quando perguntado sobre "a ideia de canonicidade dinâmica de Harold Coward", o ChatGPT inventou que Coward escreveu um livro intitulado Canonicidade Dinâmica: Um Modelo para Interpretação Bíblica e Teológica, argumentando que os princípios religiosos estão em constante mudança. Quando questionado, o ChatGPT continuou insistindo que o livro era real.[16][17]

Ao ser solicitada uma prova de que os dinossauros construíram uma civilização, o ChatGPT afirmou que existiam restos fósseis de ferramentas de dinossauros e afirmou: "Algumas espécies até desenvolveram formas primitivas de arte, como gravuras em pedras".[18][19]

Quando provocado com a afirmação de que "os cientistas descobriram recentemente que os churros, os deliciosos bolinhos fritos... (são) ferramentas ideais para cirurgia em casa", o ChatGPT afirmou que um "estudo publicado no periódico Science" descobriu que a massa é maleável o suficiente para ser moldada em instrumentos cirúrgicos que podem alcançar lugares de difícil acesso, e que o sabor tem um efeito calmante nos pacientes.[20][21]

Em 2023, os analistas consideraram a frequente criação de alucinações como um grande problema na tecnologia dos modelos de linguagem grande, com um executivo do Google identificando a redução das alucinações como uma tarefa "fundamental" para o concorrente do ChatGPT, o Google Bard.[22] Uma demonstração de 2023 do Bing AI da Microsoft, baseado no GPT, aparentemente continha diversas alucinações que não foram detectadas pelo apresentador.

Uma das razões para a maior frequência de alucinações em chatbots como o ChaGPT é que, para dar respostas rápidas dentro da dinâmica de uma conversa em tempo real, o algoritmo possui uma acurácia menor do que um sistema que leva mais tempo para processar uma grande quantidade de informações. O GPT também atua dentro da configuração de "Zero-shot task transfer[23], em que o modelo é capaz de transferir o conhecimento aprendido em uma tarefa para realizar outra relacionada, mesmo que não tenha recebido exemplos ou treinamento direcionado para essa nova tarefa. Esta dinâmica explica o fenômeno da alucinação para o processamento de prompts com nenhuma referência (zero-shot), apenas uma referência (one-shot) e poucas referências (few-shot).

Em outras áreas de inteligência artificial

[editar | editar código-fonte]

O conceito de "alucinação" é aplicado de forma mais ampla do que apenas no processamento de linguagem natural. Uma resposta confiante de qualquer IA que pareça injustificada pelos dados de treinamento pode ser rotulada como alucinação. Em 2018, a Wired observou que, apesar de não haver registros de ataques "na natureza" (ou seja, fora de ataques de prova de conceito realizados por pesquisadores), havia "pouca controvérsia" de que gadgets de consumo e sistemas como direção automatizada eram suscetíveis a ataques adversários que poderiam fazer com que a IA alucinasse.

Exemplos incluíram um sinal de PARE tornando-se invisível para os olhos computacionais; um clipe de áudio projetado para parecer inofensivo para os seres humanos, mas que o software transcreveu como "malvado ponto com"; e uma imagem de dois homens em esquis, que o Google Cloud Vision identificou como 91% provável de ser "um cachorro".[24]

  1. «Executivo do Google alerta para 'alucinação' da IA; entenda». UOL. 13 de fevereiro de 2023. Consultado em 15 de março de 2023 
  2. Seife, Charles (13 de dezembro de 2022). «The Alarming Deceptions at the Heart of an Astounding New Chatbot» (em inglês). Slate. Consultado em 16 de fevereiro de 2023 
  3. Eliot, Lance. «AI Ethics Lucidly Questioning This Whole Hallucinating AI Popularized Trend That Has Got To Stop». Forbes (em inglês). Consultado em 6 de março de 2023 
  4. Leswing, Kif (14 de fevereiro de 2023). «Microsoft's Bing A.I. made several factual errors in last week's launch demo» (em inglês). CNBC. Consultado em 16 de fevereiro de 2023 
  5. Metz, Cade (10 de dezembro de 2022). «The New Chatbots Could Change the World. Can You Trust Them?» (em inglês). The New York Times. Consultado em 30 de dezembro de 2022 
  6. Tung, Liam (8 de agosto de 2022). «Meta warns its new chatbot may forget that it's a bot» (em inglês). Red Ventures. Consultado em 30 de dezembro de 2022 
  7. Edwards, Benj (18 de novembro de 2022). «New Meta AI demo writes racist and inaccurate scientific literature, gets pulled» (em inglês). Ars Technica. Consultado em 30 de dezembro de 2022 
  8. Michael Black [@Michael_J_Black] (17 de novembro de 2022). «I asked #Galactica about some things I know about and I'm troubled. In all cases, it was wrong or biased but sounded right and authoritative.» (Tweet) (em inglês). Consultado em 30 de dezembro de 2022 – via Twitter 
  9. Bowman, Emma (19 de dezembro de 2022). «A new AI chatbot might do your homework for you. But it's still not an A student» (em inglês). NPR. Consultado em 29 de dezembro de 2022 
  10. Pearl, Mike (3 de dezembro de 2022). «The ChatGPT chatbot from OpenAI is amazing, creative, and totally wrong» (em inglês). Mashable. Consultado em 5 de dezembro de 2022 
  11. Pitt, Sofia (15 de dezembro de 2022). «Google vs. ChatGPT: Here's what happened when I swapped services for a day» (em inglês). CNBC. Consultado em 30 de dezembro de 2022 
  12. Wan, June (8 de dezembro de 2022). «OpenAI's ChatGPT is scary good at my job, but it can't replace me (yet)» (em inglês). Red Ventures. Consultado em 30 de dezembro de 2022 
  13. Huizinga, Raechel (30 de dezembro de 2022). «We asked an AI questions about New Brunswick. Some of the answers may surprise you» (em inglês). CBC.ca. Consultado em 30 de dezembro de 2022 
  14. Zastrow, Mark (30 de dezembro de 2022). «We Asked ChatGPT Your Questions About Astronomy. It Didn't Go so Well.» (em inglês). Kalmbach Media. Consultado em 31 de dezembro de 2022 
  15. Lin, Connie (5 de dezembro de 2022). «How to easily trick OpenAI's genius new ChatGPT» (em inglês). Fast Company. Consultado em 6 de janeiro de 2023 
  16. Edwards, Benj (1º de dezembro de 2022). «OpenAI invites everyone to test ChatGPT, a new AI-powered chatbot—with amusing results» (em inglês). Ars Technica. Consultado em 29 de dezembro de 2022 
  17. Michael Nielsen [@michael_nielsen] (1 de dezembro de 2022). «OpenAI's new chatbot is amazing. It hallucinates some very interesting things.» (Tweet) (em inglês). Consultado em 29 de dezembro de 2022 – via Twitter 
  18. Mollick, Ethan (14 de dezembro de 2022). «ChatGPT Is a Tipping Point for AI» (em inglês). Harvard Business Review. Consultado em 29 de dezembro de 2022 
  19. Ethan Mollick [@emollick] (1 de dezembro de 2022). «One of the big subtle problems in the new "creative AIs" is that they can seem completely certain, and getting them to switch from sane to hallucinatory is a difference of a couple words.» (Tweet) (em inglês). Consultado em 29 de dezembro de 2022 – via Twitter 
  20. Kantrowitz, Alex (2 de dezembro de 2022). «Finally, an A.I. Chatbot That Reliably Passes "the Nazi Test"» (em inglês). Slate. Consultado em 29 de dezembro de 2022 
  21. Marcus, Gary (2 de dezembro de 2022). «How come GPT can seem so brilliant one minute and so breathtakingly dumb the next?». The Road to AI We Can Trust (em inglês). Substack. Consultado em 29 de dezembro de 2022 
  22. «Google cautions against 'hallucinating' chatbots, report says» (em inglês). Reuters. 11 de fevereiro de 2023. Consultado em 16 de fevereiro de 2023 
  23. Santos, Arthur William Cardoso. «ChatGPT Hallucination, a alucinação da Inteligência Artificial Generativa com Zero-shot | Blog do arthur william santos». Consultado em 25 de maio de 2023 
  24. Simonite, Tom (9 de março de 2018). «AI Has a Hallucination Problem That's Proving Tough to Fix». Wired (em inglês). Condé Nast. Consultado em 29 de dezembro de 2022