O que são alucinações de IA

Esse é o nome que popularmente tem sido usado para se referir a situações em que modelos de Linguagem de Grande Escala (LLM, ou Large Language Models, no inglês) pura e simplesmente inventam fatos, referências e citações com o objetivo de dizer o que o usuário gostaria de ouvir.

O termo "alucinação" é alvo de críticas por alguns analistas por acabar antropomorfizando, ou seja, conferindo características humanas a uma máquina que não está de fato raciocinando, mas sim concatenando palavras em sequência para formar frases.


O criador desse Xarta permitiu sua reprodução via Licença Creative Commons 4.0. Acesse esta página para utilizar o código de embed.