Honolulu Star Bulletin - Real ou fabricado? A IA, mais um ator da guerra no Irã

Honolulu -
Real ou fabricado? A IA, mais um ator da guerra no Irã
Real ou fabricado? A IA, mais um ator da guerra no Irã / foto: Ronen Zvulun - POOL/AFP/Arquivos

Real ou fabricado? A IA, mais um ator da guerra no Irã

"Netanyahu é real ou foi gerado por IA?", pergunta uma manchete online sobre um vídeo que mostra o primeiro-ministro israelense supostamente com seis dedos.

Tamanho do texto:

O vídeo era autêntico. Mas logo as redes se encheram de mensagens que afirmavam, sem qualquer prova, que Netanyahu havia morrido em um ataque iraniano e que Israel tentava ocultar a realidade usando um sósia criado por inteligência artificial.

"Da última vez que eu verifiquei, em princípio os humanos não têm seis dedos... Exceto para a IA", diz um comentário visto por mais de cinco milhões de usuários no X, a plataforma de Elon Musk. "Netanyahu morreu?".

Especialistas em investigação digital explicaram rapidamente o "dedo a mais": tratava-se de uma sombra fugaz que fazia com que uma parte da palma da mão parecesse um dedo adicional.

Mas a demonstração se perdeu no turbilhão das redes sociais. E não importa que os geradores de imagens com IA, capazes agora de produzir em poucos segundos os "deepfakes" – vídeos ultrarrealistas modificados – tenham feito desaparecer quase por completo aquele antigo defeito do "dedo a mais". Como demonstrar que o real é real quando a fronteira entre realidade e invenção se tornou tão difusa na confusão da guerra com o Irã e até mesmo as imagens autênticas são postas em dúvida?

Alguns dias depois da divulgação do primeiro vídeo, Netanyahu publicou outro, uma espécie de prova de vida filmada em uma cafeteria, no qual mostrou as mãos para calar os rumores.

Mas, em vez de frear as especulações, as imagens alimentaram uma nova onda de teorias infundadas. "Mais IA", reclamou uma publicação que viralizou no Threads, que apontava desta vez para outra suposta prova de manipulação: a xícara de café do líder israelense continuava cheia depois de ele beber e não transbordava apesar de sua movimentação.

Um terceiro vídeo de Netanyahu, ao lado do embaixador americano em Israel, Mike Huckabee, também não pôs fim aos rumores. Alguns detetives online deram zoom nas orelhas do primeiro-ministro, afirmando que sua forma e tamanho não coincidiam com imagens dele divulgadas no passado.

– "Rumores" –

"Desde o início da guerra no Oriente Médio, em 28 de fevereiro, a rede mundial da AFP produziu mais de 500 matérias de verificação de fatos que revelam informações falsas sobre esse conflito, das quais entre 20% e 25% foram criadas com ajuda da IA, um nível jamais alcançado durante uma crise dessa magnitude.

A invasão da Ucrânia pela Rússia ou a guerra entre Israel e Gaza desencadearam ondas de imagens, vídeos e áudios gerados por IA.

O que distingue esta guerra é a magnitude e o realismo dos conteúdos artificiais, produzidos por ferramentas avançadas, de baixo custo, acessíveis e capazes de eliminar grande parte dos antigos indícios de manipulação, explicam pesquisadores.

"As plataformas tecnológicas estão saturadas do que muitos chamam de 'ruído digital'. Acho que todos devemos começar a tratar fotos, vídeos e áudios da mesma forma que tratamos os rumores", diz Thomas Nowotny, diretor de um grupo de pesquisas sobre IA da Universidade de Sussex, no Reino Unido.

Essas imagens geradas por IA alcançaram tal nível de semelhança com a realidade que chegam a ofuscar fotos e vídeos autênticos, gerando uma crise de confiança. Agora, "o problema da desinformação, em geral, não é tanto que as pessoas acreditem nela", explica Constance de Saint Laurent, professora na Universidade de Maynooth, na Irlanda. "O problema é que veem informações reais e já não confiam nelas", acrescentou.

– "Prejudiciais" –

O volume de conteúdos falsos gerados por IA supera em muito a capacidade de verificação dos profissionais de checagem de fatos.

As redações mais sólidas não estão a salvo de serem enganadas.

A revista alemã Der Spiegel anunciou recentemente ter retirado várias imagens relacionadas com o Irã após determinar que provavelmente haviam sido geradas por inteligência artificial.

E mesmo quando demonstrado que esses conteúdos são invenções, eles ressurgem regularmente, um padrão que alguns pesquisadores qualificam de desinformação "zumbi".

Os algoritmos priorizam conteúdos em função das interações (vezes em que são compartilhados, comentados, "curtidos”...), frequentemente impulsionados pelo sensacionalismo, pela indignação e pela desinformação.

As plataformas de redes sociais "agem como editoras, por meio do que decidem mostrar prioritariamente no seu feed de notícias. E, muito frequentemente, isso inclui conteúdos prejudiciais e desinformação", ressalta Constance de Saint Laurent.

Os incentivos financeiros aceleram o fenômeno. A maioria das plataformas permite que criadores enriqueçam em função das interações, incentivando influenciadores a divulgar conteúdos enganosos ou completamente fabricados para obter cliques, visibilidade e dinheiro.

Segundo o Instituto para o Diálogo Estratégico (ISD, na sigla em inglês), com sede em Londres, várias contas no X que publicam conteúdos de IA sobre a guerra entre Irã, Estados Unidos e Israel acumularam mais de 1 bilhão de visualizações desde o início do conflito. Outro exemplo viral: uma conta no X publicou um vídeo gerado por IA que parecia mostrar a torre Burj Khalifa, em Dubai, desabando em uma nuvem de poeira.

"Dez milhões de visualizações e nenhuma nota da comunidade", comentou, 20 horas após a publicação daquele clipe, o analista de guerra da informação Tal Hagin.

Quando uma nota da comunidade — um sistema de verificação participativa, cuja eficácia é frequentemente questionada por pesquisadores — foi acrescentada, o vídeo já havia sido visto mais de 12 milhões de vezes.

Os conteúdos modificados continuaram a proliferar no X mesmo depois de a plataforma ameaçar sancionar criadores que publicassem vídeos de guerra gerados por IA sem indicá-lo.

– "Legoficação" –

Os memes gerados por IA, que banalizam os conflitos, ao mesmo tempo em que difundem desinformação, ocupam cada vez mais espaço, um fenômeno batizado pelo ISD como "Legoficação" da propaganda de guerra.

Um filme iraniano falso, gerado por IA com personagens de Lego, viralizou já na primeira semana do conflito, acusando Donald Trump de ter atacado Teerã para desviar a atenção de seu suposto papel no escândalo do criminoso sexual Jeffrey Epstein.

Vídeos ultrarrealistas foram utilizados para representar vitórias militares iranianas fictícias, líderes mundiais em situações absurdas ou o estratégico Estreito de Ormuz reimaginado como uma barreira de pedágio caricatural.

O presidente dos Estados Unidos advertiu que a IA era uma "arma de desinformação que o Irã usa muito bem neste conflito".

"Os prédios e navios que aparecem em chamas não estão, é FAKE NEWS gerada por IA", escreveu em sua plataforma, Truth Social.

No entanto, ele próprio compartilhou imagens e vídeos gerados por IA para se representar como rei ou como o Super-Homem, retratar seus opositores como criminosos ou usar memes de IA para alimentar teorias da conspiração e narrativas falaciosas.

"Consideramos que as plataformas tecnológicas atualmente não estão fazendo o suficiente para ajudar os usuários a determinar se um conteúdo é gerado por IA ou autêntico", avaliou, em março, o Conselho de Supervisão da Meta, órgão criado pelo Facebook para examinar decisões de moderação de conteúdo.

"Os conteúdos falsos podem ser prejudiciais, ao incitar mais violência e alimentar ainda mais o conflito", acrescentou.

A AFP trabalha em 26 idiomas com o programa de checagem de fatos do Facebook, especialmente na Ásia, na América Latina e na União Europeia.

A Meta encerrou seu programa de verificação por terceiros nos Estados Unidos no ano passado porque, segundo seu diretor-geral, Mark Zuckerberg, havia gerado "censura demais", uma afirmação refutada pelos defensores do programa. Como alternativa, Zuckerberg informou que as plataformas da Meta, Facebook e Instagram, usariam o modelo das notas da comunidade, uma decisão que poderia enfraquecer ainda mais as salvaguardas contra a desinformação, segundo seus críticos.

– "Bem real" –

As ferramentas de detecção de IA deveriam dissipar o ruído da guerra da informação, mas, às vezes, só o tornam mais confuso. No caso de Netanyahu, partidários das teorias da conspiração esgrimiram uma ferramenta de detecção de IA que classificou erroneamente seu vídeo gravado em um café como "gerado por IA em 96,9%".

Outras ferramentas chegaram à conclusão oposta. O problema não se limita aos vídeos. As redes sociais estão repletas de imagens de satélite fabricadas ou mapas de calor manipulados, usados para semear dúvidas sobre as provas do conflito, segundo os pesquisadores.

Os relatos falsos já não se limitam a fabricar conteúdo, mas também rotulam como invenções reportagens completamente reais, destaca a NewsGuard: "Quando tudo pode ser falso, fica fácil acreditar que qualquer coisa é", analisa Sofia Rubinson, integrante desse observatório da desinformação.

Usuários de redes sociais acusaram falsamente grandes meios de comunicação, como o New York Times, de terem publicado imagens do conflito geradas por IA, entre elas uma que mostrava uma enorme multidão em Teerã comemorando a nomeação do novo guia supremo, Mojtaba Khamenei.

Quando informações verídicas, porém comprometedoras, são descartadas como geradas por IA, os pesquisadores chamam isso de "dividendo do mentiroso". Nessas circunstâncias, "fica mais fácil negar atrocidades", advertiu um relatório da Tech Policy Press.

"É isso que os mal-intencionados buscam: que as pessoas pensem que tudo pode ter sido manipulado, para que não possam confiar em nada", insiste Hannah Covington, diretora sênior de conteúdos educacionais no News Literacy Project.

Imagens falsas de fatos reais contaminam ainda mais o panorama informativo. Após um ataque mortal contra uma escola na cidade de Minab, em 28 de fevereiro, uma conta oficial iraniana no X publicou uma foto mostrando a mochila de uma criança manchada de sangue e poeira. A AFP determinou que era muito provável que a imagem tivesse sido gerada por IA.

Mas poucos internautas pareceram incomodados com o uso de uma imagem manipulada para ilustrar a morte de estudantes reais, sinal de uma resignação crescente diante de uma era em que a pergunta "É real?" se tornou cada vez mais difícil de responder.

"Provavelmente modificada por IA, mas o significado é real", escreveu um usuário do Reddit.

I.Pumehana--HStB