Apple sofre pressão para remover recurso de IA após divulgar notícia falsa
O grupo de defesa da liberdade de imprensa Repórteres Sem Fronteiras está pedindo à Apple para remover seu novo recurso de inteligência artificial (IA) que resume notícias após a produção de uma manchete falsa de uma matéria da BBC.
A reação ocorre após uma notificação push criada pela Apple Intelligence e enviada aos usuários na semana passada resumir falsamente um relatório da BBC afirmando que Luigi Mangione, o suspeito do assassinato do CEO da UnitedHealthcare, havia se suicidado.
A BBC relatou que entrou em contato com a Apple sobre o recurso “para levantar essa preocupação e corrigir o problema”, mas não pôde confirmar se o fabricante do iPhone respondeu à sua reclamação.
Na quarta-feira (18), Vincent Berthier, chefe da mesa de tecnologia e jornalismo da Repórteres Sem Fronteiras, pediu à Apple para “agir de forma responsável removendo esse recurso”.
“As IAs são máquinas probabilísticas e os fatos não podem ser decididos por um jogo de dados”, disse Berthier em um comunicado. “A produção automatizada de informações falsas atribuídas a um veículo de mídia é um golpe na credibilidade do veículo e um perigo para o direito do público a informações confiáveis sobre assuntos atuais.”
De forma mais ampla, o órgão de jornalistas disse estar “muito preocupado com os riscos que as novas ferramentas de IA representam para os veículos de mídia”, observando que o incidente enfatiza como a IA permanece “muito imatura para produzir informações confiáveis para o público e não deve ser permitida no mercado para tais usos”.
Em resposta às preocupações, a BBC disse em um comunicado: “É essencial para nós que nosso público possa confiar em qualquer informação ou jornalismo publicado em nosso nome e que isso inclua notificações.”
A Apple não respondeu a um pedido de comentário.
A Apple introduziu sua ferramenta de IA generativa nos EUA em junho, destacando a capacidade do recurso de resumir conteúdo específico “na forma de um parágrafo digerível, pontos-chave com marcadores, uma tabela ou uma lista”. Para simplificar as dietas de notícias, a Apple permite que os usuários em seus dispositivos iPhone, iPad e Mac agrupem notificações, produzindo uma lista de notícias em um único alerta push.
Desde que o recurso de IA foi lançado para o público no final de outubro, os usuários compartilharam que ele também resumiu erroneamente uma reportagem do New York Times, alegando que o primeiro-ministro israelense, Benjamin Netanyahu, havia sido preso. Na realidade, o Tribunal Penal Internacional havia publicado um mandado de prisão para Netanyahu, mas os leitores rolando suas telas iniciais viram apenas duas palavras: “Netanyahu preso”.
O desafio com o incidente da Apple Intelligence decorre da falta de agência dos veículos de notícias. Embora alguns editores tenham optado por usar IA para auxiliar na autoria de artigos, a decisão é deles. Mas os resumos da Apple Intelligence, que são opt-in pelo usuário, ainda apresentam as sinopses sob a bandeira do editor. Além de circular potencialmente informações falsas e perigosas, os erros também podem prejudicar a credibilidade dos veículos de comunicação.
Os problemas de IA da Apple são apenas os mais recentes, já que os editores de notícias lutam para navegar pelas mudanças sísmicas provocadas pela tecnologia nascente. Desde o lançamento do ChatGPT há pouco mais de dois anos, várias gigantes da tecnologia lançaram seus próprios modelos de linguagem grande, muitos dos quais foram acusados de treinar seus chatbots usando conteúdo protegido por direitos autorais, incluindo reportagens.
Enquanto alguns veículos de comunicação, como o The New York Times, entraram com ações judiciais contra o suposto uso indevido de conteúdo pelo ChatGPT, outros — como a Axel Springer, cujas marcas de notícias incluem Politico, Business Insider, Bild e Welt — assinaram acordos de licenciamento com os desenvolvedores.
Novo modelo de IA consegue pensar “como uma pessoa”