Post: Vídeos falsos de IA sobre guerra no Oriente Médio se multiplicam

Apesar de novas políticas, onda de desinformação criada por inteligência artificial persiste e dificulta distinção entre real e fictício

 

Vídeos falsos criados com inteligência artificial (IA) se multiplicam no X, exibindo cenários irreais como soldados americanos capturados pelo Irã, uma cidade israelense em ruínas ou embaixadas dos Estados Unidos em chamas. Essa onda de desinformação persiste, apesar de uma política mais rígida para contê-la.

A guerra no Oriente Médio gerou uma avalanche de imagens criadas com IA que supera tudo o que foi visto em conflitos anteriores. Frequentemente, essa enxurrada de conteúdo impede os usuários de distinguir o real do fictício, afirmam pesquisadores.

Na tentativa de proteger a “informação autêntica” durante conflitos, a rede de Elon Musk anunciou, na semana passada, que suspenderá por 90 dias do programa de remuneração os criadores que publicarem vídeos sobre a guerra sem avisar que foram gerados por IA.

Se continuarem publicando esse tipo de conteúdo, a suspensão será permanente, advertiu na plataforma a chefe de produto, Nikita Bier. Essa nova política representa uma mudança importante para a rede social.

Mudanças na rede social

O X, antigo Twitter, tem sido criticado por se tornar um espaço propício à desinformação desde que Elon Musk o comprou, em outubro de 2022, por 44 bilhões de dólares (aproximadamente R$ 235 bilhões, na cotação da época). Mesmo assim, pesquisadores permanecem céticos quanto à eficácia das novas medidas.

“Os tópicos que monitoro ainda estão inundados de conteúdo sobre a guerra gerado por IA”, disse à AFP Joe Bodnar, do Instituto para o Diálogo Estratégico. “Não parece que os criadores de conteúdo tenham sido dissuadidos de difundir imagens e vídeos enganosos sobre o conflito gerados por IA”, acrescentou.

Bodnar citou uma publicação de uma conta verificada, elegível para monetização, que compartilhou um vídeo feito com IA mostrando um suposto ataque iraniano “com capacidade nuclear” contra Israel. Esse tipo de conteúdo contribui para a confusão.

Incentivos para conteúdos falsos

O X não respondeu a uma pergunta da AFP sobre quantas contas tiveram a monetização suspensa desde o anúncio da nova política. A rede global de verificação da AFP, do Brasil à Índia, identificou um fluxo constante de conteúdos falsos sobre a guerra no Oriente Médio gerados com IA, muitos publicados por contas pagas da plataforma.

Entre eles estão vídeos que mostram soldados americanos chorando dentro de uma embaixada bombardeada, militares capturados de joelhos ao lado de bandeiras iranianas ou uma frota de navios americanos destruída. Esse fluxo de imagens fabricadas se mistura a imagens reais, crescendo mais rápido do que os verificadores conseguem identificá-las.

O próprio chatbot de IA do X, Grok, também agravou o problema ao responder de forma errada usuários que perguntavam se alguns conteúdos gerados por IA sobre a guerra eram reais. Isso adiciona uma camada de complexidade na identificação da veracidade.

Pesquisadores também alertam que o modelo da plataforma, que permite às contas premium ganhar dinheiro com base no engajamento, ampliou os incentivos econômicos para conteúdos falsos ou sensacionalistas. Uma conta premium que publicou um vídeo mostrando o arranha-céu Burj Khalifa, em Dubai, em chamas ignorou o pedido de Bier para identificar o conteúdo como obra de IA. O vídeo segue online e já ultrapassou dois milhões de visualizações.

Eficácia das contramedidas

No mês passado, um relatório do Tech Transparency Project apontou que o X parecia lucrar com mais de duas dezenas de contas premium de funcionários do governo iraniano e de meios de comunicação estatais que difundiam propaganda. Isso poderia violar as sanções americanas.

Posteriormente, a plataforma retirou a marca de verificação azul de algumas dessas contas, segundo o relatório. No entanto, a questão sobre a neutralidade e o cumprimento das sanções permanece em aberto.

Mesmo que a nova penalidade seja aplicada de forma rigorosa, muitos usuários que divulgam conteúdos gerados por IA não participam do programa de remuneração, observam pesquisadores. Essas contas continuam sujeitas à verificação pelo sistema Community Notes, cuja eficácia tem sido questionada.

Um estudo do Instituto Democracia Digital para as Américas concluiu no ano passado que mais de 90% das Community Notes da plataforma nunca são publicadas. Isso levanta sérias preocupações sobre a capacidade de combate à desinformação.

“A política do X é uma contramedida razoável diante da desinformação viral sobre a guerra. Em princípio, reduz a estrutura de incentivos”, afirmou Alexios Mantzarlis, diretor da Security, Trust, and Safety Initiative da Cornell Tech.

Contudo, “é pouco provável que o X consiga garantir ao mesmo tempo alta precisão e uma grande retirada de conteúdos gerados por IA da rede por meio dessa política”, acrescentou. (AFP)

Informações do Correio do Povo e AFP

Foto: Bruno Peres / Agência Brasil / CP

Últimas Notícias