Tecnologia

IA pode aumentar a crença em fake news? Estudo responde

Um novo estudo liderado por pesquisadores da Universidade de Indiana, nos Estados Unidos, mostrou que a verificação de fatos e notícias por meio da inteligência artificial (IA) pode, em alguns casos, aumentar a crença em manchetes falsas. Isso pode acontecer em casos em que a tecnologia não tem certeza sobre a veracidade das notícias divulgadas ou em situações em que uma manchete verdadeira é erroneamente rotulada como falsa.

Os achados do estudo foram publicados na quarta-feira (4), no Proceedings of the National Academy of Sciences. O trabalho também descobriu que os participantes do estudo que tiveram a opção de visualizar manchetes verificadas com base em modelos de linguagem ampla tiveram uma probabilidade maior de compartilhar notícias verdadeiras e falsas, mas apenas acreditar em fake news.

“Há muita empolgação em alavancar a IA para escalar aplicações como checagem de fatos, já que verificadores de fatos humanos não conseguem acompanhar o volume de alegações falsas ou enganosas que se espalham nas mídias sociais, incluindo conteúdo gerado pela IA”, diz Matthew DeVerna, aluno de doutorado na Indiana University Luddy School of Informatics, Computing and Engineering, em Bloomington, em comunicado.

“No entanto, nosso estudo destaca que quando as pessoas interagem com a IA, consequências não intencionais podem surgir, destacando o quão importante é considerar cuidadosamente como essas ferramentas são implantadas.”

No estudo, os pesquisadores investigaram o impacto das informações de verificação de fatos geradas por um modelo popular de linguagem ampla, um tipo de IA, na crença e na intenção de compartilhamento de manchetes de notícias políticas.

Embora a IA tenha identificado com precisão 90% das manchetes falsas, os pesquisadores descobriram que isso não melhorou significativamente a capacidade dos participantes de distinguir entre manchetes verdadeiras e falsas. Por outro lado, o estudo descobriu que o uso de verificação de fatos geradas por humanos melhorou o discernimento dos usuários sobre manchetes verdadeiras.

“Nossas descobertas destacam uma importante fonte de dano potencial decorrente de aplicações de IA e ressaltam a necessidade crítica de políticas para prevenir ou mitigar tais consequências não intencionais”, diz Filippo Menczer, autor sênior do estudo e diretor do Observatório de Mídias Sociais da Universidade de Indiana.

“Mais pesquisas são necessárias para melhorar a precisão da verificação de fatos de IA, bem como entender melhor as interações entre humanos e IA”, completa.

Além do ChatGPT: veja 5 ferramentas de IA para aumentar produtividade

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *