The China Mail - Real ou fabricado? A IA, mais um ator da guerra no Irã

USD -
AED 3.672504
AFN 65.503991
ALL 83.072963
AMD 376.980403
ANG 1.790083
AOA 917.000367
ARS 1386.420402
AUD 1.448436
AWG 1.80025
AZN 1.70397
BAM 1.695072
BBD 2.009612
BDT 122.428639
BGN 1.709309
BHD 0.378163
BIF 2970
BMD 1
BND 1.2851
BOB 6.894519
BRL 5.160604
BSD 0.997742
BTN 92.939509
BWP 13.688562
BYN 2.956504
BYR 19600
BZD 2.006665
CAD 1.39475
CDF 2305.000362
CHF 0.79876
CLF 0.023281
CLP 919.250396
CNY 6.88265
CNH 6.886225
COP 3668.42
CRC 464.279833
CUC 1
CUP 26.5
CVE 96.000359
CZK 21.288304
DJF 177.720393
DKK 6.487804
DOP 60.850393
DZD 133.256954
EGP 54.334939
ERN 15
ETB 155.800822
EUR 0.86804
FJD 2.253804
FKP 0.757614
GBP 0.756401
GEL 2.68504
GGP 0.757614
GHS 11.00504
GIP 0.757614
GMD 74.000355
GNF 8780.000355
GTQ 7.632939
GYD 208.828972
HKD 7.83775
HNL 26.504427
HRK 6.539104
HTG 130.952897
HUF 333.930388
IDR 16994.6
ILS 3.130375
IMP 0.757614
INR 92.73995
IQD 1307.141959
IRR 1319175.000352
ISK 125.380386
JEP 0.757614
JMD 157.303566
JOD 0.70904
JPY 159.65404
KES 129.803801
KGS 87.450384
KHR 3990.137323
KMF 427.00035
KPW 899.985922
KRW 1511.260383
KWD 0.30934
KYD 0.831502
KZT 472.805432
LAK 21970.392969
LBP 89502.03926
LKR 314.804623
LRD 183.088277
LSL 16.955078
LTL 2.95274
LVL 0.60489
LYD 6.380628
MAD 9.374033
MDL 17.55613
MGA 4171.343141
MKD 53.495639
MMK 2099.969769
MNT 3573.217716
MOP 8.055104
MRU 39.637211
MUR 46.950378
MVR 15.460378
MWK 1730.071718
MXN 17.891704
MYR 4.031039
MZN 63.950377
NAD 16.954711
NGN 1378.130377
NIO 36.712196
NOK 9.77265
NPR 148.701282
NZD 1.750854
OMR 0.385097
PAB 0.997734
PEN 3.45194
PGK 4.316042
PHP 60.409504
PKR 278.39991
PLN 3.71375
PYG 6454.29687
QAR 3.638018
RON 4.416604
RSD 101.901662
RUB 80.325739
RWF 1457.240049
SAR 3.754308
SBD 8.038772
SCR 14.424038
SDG 601.000339
SEK 9.483504
SGD 1.286704
SHP 0.750259
SLE 24.650371
SLL 20969.510825
SOS 570.192924
SRD 37.351038
STD 20697.981008
STN 21.233539
SVC 8.730169
SYP 110.556627
SZL 16.948198
THB 32.635038
TJS 9.563492
TMT 3.51
TND 2.941459
TOP 2.40776
TRY 44.520504
TTD 6.768937
TWD 31.995038
TZS 2600.000335
UAH 43.698134
UGX 3743.234401
UYU 40.405091
UZS 12122.393971
VES 473.390504
VND 26340
VUV 119.346905
WST 2.766243
XAF 568.506489
XAG 0.013693
XAU 0.000214
XCD 2.70255
XCG 1.798209
XDR 0.708068
XOF 568.516344
XPF 103.361457
YER 238.650363
ZAR 16.972865
ZMK 9001.203584
ZMW 19.281421
ZWL 321.999592
Real ou fabricado? A IA, mais um ator da guerra no Irã
Real ou fabricado? A IA, mais um ator da guerra no Irã / foto: © POOL/AFP/Arquivos

Real ou fabricado? A IA, mais um ator da guerra no Irã

"Netanyahu é real ou foi gerado por IA?", pergunta uma manchete online sobre um vídeo que mostra o primeiro-ministro israelense supostamente com seis dedos.

Tamanho do texto:

O vídeo era autêntico. Mas logo as redes se encheram de mensagens que afirmavam, sem qualquer prova, que Netanyahu havia morrido em um ataque iraniano e que Israel tentava ocultar a realidade usando um sósia criado por inteligência artificial.

"Da última vez que eu verifiquei, em princípio os humanos não têm seis dedos... Exceto para a IA", diz um comentário visto por mais de cinco milhões de usuários no X, a plataforma de Elon Musk. "Netanyahu morreu?".

Especialistas em investigação digital explicaram rapidamente o "dedo a mais": tratava-se de uma sombra fugaz que fazia com que uma parte da palma da mão parecesse um dedo adicional.

Mas a demonstração se perdeu no turbilhão das redes sociais. E não importa que os geradores de imagens com IA, capazes agora de produzir em poucos segundos os "deepfakes" – vídeos ultrarrealistas modificados – tenham feito desaparecer quase por completo aquele antigo defeito do "dedo a mais". Como demonstrar que o real é real quando a fronteira entre realidade e invenção se tornou tão difusa na confusão da guerra com o Irã e até mesmo as imagens autênticas são postas em dúvida?

Alguns dias depois da divulgação do primeiro vídeo, Netanyahu publicou outro, uma espécie de prova de vida filmada em uma cafeteria, no qual mostrou as mãos para calar os rumores.

Mas, em vez de frear as especulações, as imagens alimentaram uma nova onda de teorias infundadas. "Mais IA", reclamou uma publicação que viralizou no Threads, que apontava desta vez para outra suposta prova de manipulação: a xícara de café do líder israelense continuava cheia depois de ele beber e não transbordava apesar de sua movimentação.

Um terceiro vídeo de Netanyahu, ao lado do embaixador americano em Israel, Mike Huckabee, também não pôs fim aos rumores. Alguns detetives online deram zoom nas orelhas do primeiro-ministro, afirmando que sua forma e tamanho não coincidiam com imagens dele divulgadas no passado.

– "Rumores" –

"Desde o início da guerra no Oriente Médio, em 28 de fevereiro, a rede mundial da AFP produziu mais de 500 matérias de verificação de fatos que revelam informações falsas sobre esse conflito, das quais entre 20% e 25% foram criadas com ajuda da IA, um nível jamais alcançado durante uma crise dessa magnitude.

A invasão da Ucrânia pela Rússia ou a guerra entre Israel e Gaza desencadearam ondas de imagens, vídeos e áudios gerados por IA.

O que distingue esta guerra é a magnitude e o realismo dos conteúdos artificiais, produzidos por ferramentas avançadas, de baixo custo, acessíveis e capazes de eliminar grande parte dos antigos indícios de manipulação, explicam pesquisadores.

"As plataformas tecnológicas estão saturadas do que muitos chamam de 'ruído digital'. Acho que todos devemos começar a tratar fotos, vídeos e áudios da mesma forma que tratamos os rumores", diz Thomas Nowotny, diretor de um grupo de pesquisas sobre IA da Universidade de Sussex, no Reino Unido.

Essas imagens geradas por IA alcançaram tal nível de semelhança com a realidade que chegam a ofuscar fotos e vídeos autênticos, gerando uma crise de confiança. Agora, "o problema da desinformação, em geral, não é tanto que as pessoas acreditem nela", explica Constance de Saint Laurent, professora na Universidade de Maynooth, na Irlanda. "O problema é que veem informações reais e já não confiam nelas", acrescentou.

– "Prejudiciais" –

O volume de conteúdos falsos gerados por IA supera em muito a capacidade de verificação dos profissionais de checagem de fatos.

As redações mais sólidas não estão a salvo de serem enganadas.

A revista alemã Der Spiegel anunciou recentemente ter retirado várias imagens relacionadas com o Irã após determinar que provavelmente haviam sido geradas por inteligência artificial.

E mesmo quando demonstrado que esses conteúdos são invenções, eles ressurgem regularmente, um padrão que alguns pesquisadores qualificam de desinformação "zumbi".

Os algoritmos priorizam conteúdos em função das interações (vezes em que são compartilhados, comentados, "curtidos”...), frequentemente impulsionados pelo sensacionalismo, pela indignação e pela desinformação.

As plataformas de redes sociais "agem como editoras, por meio do que decidem mostrar prioritariamente no seu feed de notícias. E, muito frequentemente, isso inclui conteúdos prejudiciais e desinformação", ressalta Constance de Saint Laurent.

Os incentivos financeiros aceleram o fenômeno. A maioria das plataformas permite que criadores enriqueçam em função das interações, incentivando influenciadores a divulgar conteúdos enganosos ou completamente fabricados para obter cliques, visibilidade e dinheiro.

Segundo o Instituto para o Diálogo Estratégico (ISD, na sigla em inglês), com sede em Londres, várias contas no X que publicam conteúdos de IA sobre a guerra entre Irã, Estados Unidos e Israel acumularam mais de 1 bilhão de visualizações desde o início do conflito. Outro exemplo viral: uma conta no X publicou um vídeo gerado por IA que parecia mostrar a torre Burj Khalifa, em Dubai, desabando em uma nuvem de poeira.

"Dez milhões de visualizações e nenhuma nota da comunidade", comentou, 20 horas após a publicação daquele clipe, o analista de guerra da informação Tal Hagin.

Quando uma nota da comunidade — um sistema de verificação participativa, cuja eficácia é frequentemente questionada por pesquisadores — foi acrescentada, o vídeo já havia sido visto mais de 12 milhões de vezes.

Os conteúdos modificados continuaram a proliferar no X mesmo depois de a plataforma ameaçar sancionar criadores que publicassem vídeos de guerra gerados por IA sem indicá-lo.

– "Legoficação" –

Os memes gerados por IA, que banalizam os conflitos, ao mesmo tempo em que difundem desinformação, ocupam cada vez mais espaço, um fenômeno batizado pelo ISD como "Legoficação" da propaganda de guerra.

Um filme iraniano falso, gerado por IA com personagens de Lego, viralizou já na primeira semana do conflito, acusando Donald Trump de ter atacado Teerã para desviar a atenção de seu suposto papel no escândalo do criminoso sexual Jeffrey Epstein.

Vídeos ultrarrealistas foram utilizados para representar vitórias militares iranianas fictícias, líderes mundiais em situações absurdas ou o estratégico Estreito de Ormuz reimaginado como uma barreira de pedágio caricatural.

O presidente dos Estados Unidos advertiu que a IA era uma "arma de desinformação que o Irã usa muito bem neste conflito".

"Os prédios e navios que aparecem em chamas não estão, é FAKE NEWS gerada por IA", escreveu em sua plataforma, Truth Social.

No entanto, ele próprio compartilhou imagens e vídeos gerados por IA para se representar como rei ou como o Super-Homem, retratar seus opositores como criminosos ou usar memes de IA para alimentar teorias da conspiração e narrativas falaciosas.

"Consideramos que as plataformas tecnológicas atualmente não estão fazendo o suficiente para ajudar os usuários a determinar se um conteúdo é gerado por IA ou autêntico", avaliou, em março, o Conselho de Supervisão da Meta, órgão criado pelo Facebook para examinar decisões de moderação de conteúdo.

"Os conteúdos falsos podem ser prejudiciais, ao incitar mais violência e alimentar ainda mais o conflito", acrescentou.

A AFP trabalha em 26 idiomas com o programa de checagem de fatos do Facebook, especialmente na Ásia, na América Latina e na União Europeia.

A Meta encerrou seu programa de verificação por terceiros nos Estados Unidos no ano passado porque, segundo seu diretor-geral, Mark Zuckerberg, havia gerado "censura demais", uma afirmação refutada pelos defensores do programa. Como alternativa, Zuckerberg informou que as plataformas da Meta, Facebook e Instagram, usariam o modelo das notas da comunidade, uma decisão que poderia enfraquecer ainda mais as salvaguardas contra a desinformação, segundo seus críticos.

– "Bem real" –

As ferramentas de detecção de IA deveriam dissipar o ruído da guerra da informação, mas, às vezes, só o tornam mais confuso. No caso de Netanyahu, partidários das teorias da conspiração esgrimiram uma ferramenta de detecção de IA que classificou erroneamente seu vídeo gravado em um café como "gerado por IA em 96,9%".

Outras ferramentas chegaram à conclusão oposta. O problema não se limita aos vídeos. As redes sociais estão repletas de imagens de satélite fabricadas ou mapas de calor manipulados, usados para semear dúvidas sobre as provas do conflito, segundo os pesquisadores.

Os relatos falsos já não se limitam a fabricar conteúdo, mas também rotulam como invenções reportagens completamente reais, destaca a NewsGuard: "Quando tudo pode ser falso, fica fácil acreditar que qualquer coisa é", analisa Sofia Rubinson, integrante desse observatório da desinformação.

Usuários de redes sociais acusaram falsamente grandes meios de comunicação, como o New York Times, de terem publicado imagens do conflito geradas por IA, entre elas uma que mostrava uma enorme multidão em Teerã comemorando a nomeação do novo guia supremo, Mojtaba Khamenei.

Quando informações verídicas, porém comprometedoras, são descartadas como geradas por IA, os pesquisadores chamam isso de "dividendo do mentiroso". Nessas circunstâncias, "fica mais fácil negar atrocidades", advertiu um relatório da Tech Policy Press.

"É isso que os mal-intencionados buscam: que as pessoas pensem que tudo pode ter sido manipulado, para que não possam confiar em nada", insiste Hannah Covington, diretora sênior de conteúdos educacionais no News Literacy Project.

Imagens falsas de fatos reais contaminam ainda mais o panorama informativo. Após um ataque mortal contra uma escola na cidade de Minab, em 28 de fevereiro, uma conta oficial iraniana no X publicou uma foto mostrando a mochila de uma criança manchada de sangue e poeira. A AFP determinou que era muito provável que a imagem tivesse sido gerada por IA.

Mas poucos internautas pareceram incomodados com o uso de uma imagem manipulada para ilustrar a morte de estudantes reais, sinal de uma resignação crescente diante de uma era em que a pergunta "É real?" se tornou cada vez mais difícil de responder.

"Provavelmente modificada por IA, mas o significado é real", escreveu um usuário do Reddit.

Y.Parker--ThChM