O que são alucinações de IA

Esse é o nome que popularmente tem sido usado para se referir a situações em que modelos de Linguagem de Grande Escala (LLM, ou Large Language Models, no inglês) pura e simplesmente inventam fatos, referências e citações com o objetivo de dizer o que o usuário gostaria de ouvir.

O termo "alucinação" é alvo de críticas por alguns analistas por acabar antropomorfizando, ou seja, conferindo características humanas a uma máquina que não está de fato raciocinando, mas sim concatenando palavras em sequência para formar frases.