IAs ainda não sabem o que é verdade, revela estudo de Stanford
gazetadevarginhasi
há 5 dias
2 min de leitura
Divulgação
Estudo de Stanford alerta: IAs ainda não compreendem o que é verdade.
Mesmo os sistemas mais avançados de inteligência artificial (IA) ainda não conseguem distinguir entre crença e conhecimento. É o que revela um estudo da Universidade de Stanford, publicado nesta segunda-feira (3) na revista Nature Machine Intelligence.
Os pesquisadores avaliaram 24 modelos de linguagem – entre eles o GPT-4o, da OpenAI, e o DeepSeek R1, da chinesa DeepSeek – em mais de 13 mil questões sobre o que significa crer, saber e afirmar um fato. O resultado acendeu um alerta: as IAs continuam confundindo opiniões pessoais com verdades objetivas, um limite que permanece difícil de superar.
IAs confundem crença com fato
O estudo utilizou um método chamado KaBLE (Knowledge and Belief Evaluation), projetado para medir até que ponto os modelos conseguem separar o que alguém acredita daquilo que é realmente verdadeiro. Os testes mostraram que as IAs têm grande dificuldade em lidar com crenças falsas, especialmente quando expressas em primeira pessoa, como em frases do tipo “eu acredito que…”.
Enquanto os sistemas alcançaram até 95% de precisão em frases que atribuem crenças a terceiros (“Maria acredita que…”), o índice caiu para 62,6% quando o narrador falava de si mesmo. Os números variaram de forma drástica entre os modelos: o GPT-4o caiu de 98,2% para 64,4%, e o DeepSeek R1 despencou de mais de 90% para apenas 14,4%.
Esse contraste revela o chamado viés de atribuição, em que as IAs interpretam melhor as crenças dos outros do que as próprias. Segundo os autores, isso mostra que os modelos não raciocinam sobre o conteúdo das declarações, mas apenas reconhecem padrões linguísticos superficiais.
Falta noção de “saber”
Os pesquisadores destacam que as IAs ainda não compreendem a natureza factiva do conhecimento — ou seja, não entendem que, para algo ser “sabido”, precisa necessariamente ser verdadeiro.Em vez de analisar o conteúdo de uma frase, os modelos tendem a se apoiar em marcadores linguísticos. Expressões como “eu sei” costumam ser tratadas como verdadeiras, mesmo quando descrevem algo falso. Já frases ambíguas, como “eu acredito que”, geram confusão.
Essa dependência da forma da linguagem, e não do significado, evidencia que o raciocínio das IAs ainda é estatístico, não conceitual. Elas produzem textos coerentes e sofisticados, mas sem uma compreensão real da diferença entre verdade e falsidade.
Riscos e implicações
Segundo os autores, essa limitação pode ter consequências sérias em áreas que exigem precisão e discernimento — como medicina, direito e jornalismo.
Em diagnósticos clínicos, uma IA que não distingue crença de fato pode gerar interpretações erradas. Em tribunais, o risco é distorcer provas e argumentos. E no jornalismo, a falha ameaça a confiabilidade das checagens automáticas de informação, que dependem da distinção entre fato e opinião.
Os pesquisadores alertam ainda que, por darem aparência de verdade a opiniões, os modelos podem ampliar a desinformação. Para eles, aprimorar a compreensão epistemológica das IAs é urgente antes que sejam usadas em decisões de alto impacto.
Comentários