The China Mail - 'Oi chatbot, isso é verdade?': verificação de fatos com IA gera desinformação

USD -
AED 3.673012
AFN 69.999986
ALL 84.34997
AMD 383.819687
ANG 1.789699
AOA 917.00005
ARS 1371.440601
AUD 1.55556
AWG 1.8025
AZN 1.697529
BAM 1.708921
BBD 2.018218
BDT 122.195767
BGN 1.71333
BHD 0.377048
BIF 2942.5
BMD 1
BND 1.297101
BOB 6.907097
BRL 5.603198
BSD 0.999672
BTN 87.54407
BWP 13.649927
BYN 3.271194
BYR 19600
BZD 2.00782
CAD 1.384965
CDF 2890.000169
CHF 0.812502
CLF 0.024795
CLP 972.698176
CNY 7.20045
CNH 7.210185
COP 4185.61
CRC 505.122436
CUC 1
CUP 26.5
CVE 95.949459
CZK 21.529198
DJF 177.719924
DKK 6.537901
DOP 61.000142
DZD 130.923994
EGP 48.5667
ERN 15
ETB 138.193302
EUR 0.87589
FJD 2.271797
FKP 0.753407
GBP 0.75695
GEL 2.702436
GGP 0.753407
GHS 10.504944
GIP 0.753407
GMD 72.495339
GNF 8675.000102
GTQ 7.676882
GYD 209.126455
HKD 7.84938
HNL 26.349974
HRK 6.598702
HTG 131.169313
HUF 350.409726
IDR 16490
ILS 3.39201
IMP 0.753407
INR 87.487749
IQD 1310
IRR 42112.498252
ISK 124.549728
JEP 0.753407
JMD 159.943729
JOD 0.708996
JPY 150.731942
KES 129.505782
KGS 87.450506
KHR 4015.000172
KMF 431.496978
KPW 899.943686
KRW 1392.769685
KWD 0.30613
KYD 0.832958
KZT 539.837043
LAK 21580.000121
LBP 89549.999704
LKR 302.068634
LRD 200.99988
LSL 18.009973
LTL 2.95274
LVL 0.60489
LYD 5.415002
MAD 9.104015
MDL 17.212259
MGA 4430.000066
MKD 53.788855
MMK 2099.176207
MNT 3589.345014
MOP 8.082308
MRU 39.819479
MUR 46.202706
MVR 15.409279
MWK 1736.50058
MXN 18.879793
MYR 4.264999
MZN 63.959897
NAD 18.009638
NGN 1530.450162
NIO 36.749629
NOK 10.334025
NPR 140.070338
NZD 1.695993
OMR 0.384555
PAB 0.999585
PEN 3.568943
PGK 4.13025
PHP 58.254996
PKR 283.250233
PLN 3.75105
PYG 7486.402062
QAR 3.64075
RON 4.444302
RSD 102.637757
RUB 81.087183
RWF 1440
SAR 3.751276
SBD 8.244163
SCR 14.147175
SDG 600.501428
SEK 9.79235
SGD 1.297875
SHP 0.785843
SLE 23.000166
SLL 20969.503947
SOS 571.502956
SRD 36.815494
STD 20697.981008
STN 21.925
SVC 8.746368
SYP 13001.531245
SZL 18.010065
THB 32.764503
TJS 9.425981
TMT 3.51
TND 2.87982
TOP 2.342098
TRY 40.632575
TTD 6.786518
TWD 29.917975
TZS 2570.000677
UAH 41.696586
UGX 3583.302388
UYU 40.0886
UZS 12604.999628
VES 123.721575
VND 26199
VUV 119.302744
WST 2.758516
XAF 573.151008
XAG 0.027234
XAU 0.000304
XCD 2.70255
XCG 1.80154
XDR 0.69341
XOF 566.473613
XPF 104.924977
YER 240.650162
ZAR 18.21545
ZMK 9001.205819
ZMW 22.965115
ZWL 321.999592
'Oi chatbot, isso é verdade?': verificação de fatos com IA gera desinformação
'Oi chatbot, isso é verdade?': verificação de fatos com IA gera desinformação / foto: © AFP

'Oi chatbot, isso é verdade?': verificação de fatos com IA gera desinformação

Quando a desinformação disparou durante os quatro dias de conflito entre Índia e Paquistão, usuários de redes sociais recorreram a um chatbot de inteligência artificial (IA) para verificar os fatos, mas encontraram mais inverdades, destacando sua pouca confiabilidade como ferramenta de checagem de informações.

Tamanho do texto:

Com a redução de verificadores profissionais humanos nas plataformas, os usuários recorrem cada vez mais a chatbots baseados em IA - como Grok, da xAI, ChatGPT, da OpenAI, e Gemini, do Google - em busca de informações confiáveis.

"Olá @Grok, isso é verdade?" tornou-se uma pergunta comum na rede social X de Elon Musk, que tem o assistente de IA integrado, refletindo a crescente tendência de buscar refutações instantâneas nas redes sociais. Mas as respostas costumam estar repletas de desinformação.

O Grok, agora sob novo escrutínio por inserir "genocídio branco", uma teoria conspiratória da extrema direita, em consultas não relacionadas, identificou incorretamente um antigo vídeo do aeroporto de Cartum, no Sudão, como um ataque com mísseis contra a base aérea Nur Khan do Paquistão durante o recente conflito desse país com a Índia.

Gravações de um edifício em chamas no Nepal foram equivocadamente apontadas como "provavelmente" a resposta militar do Paquistão aos ataques indianos.

"A crescente confiança no Grok como verificador de fatos ocorre enquanto X e outras grandes empresas de tecnologia reduzem seus investimentos em verificadores humanos", declarou à AFP McKenzie Sadeghi, pesquisadora da organização de vigilância da desinformação NewsGuard.

"Nossas pesquisas demonstraram repetidamente que os chatbots de IA não são fontes confiáveis de notícias e informações, especialmente quando se trata de notícias recentes", advertiu.

- Repetir mentiras -

Uma investigação do NewsGuard revelou que 10 dos principais chatbots eram propensos a repetir informações falsas, incluindo narrativas de desinformação russa.

Em um estudo recente de oito ferramentas de busca com IA, o Centro Tow para Jornalismo Digital da Universidade de Columbia descobriu que os chatbots eram "geralmente ruins para declinar perguntas que não podiam responder com precisão, oferecendo em vez disso respostas incorretas ou especulativas".

Quando verificadores digitais da AFP no Uruguai perguntaram ao Gemini sobre uma imagem de uma mulher gerada por IA, o serviço não apenas confirmou sua autenticidade, como também inventou detalhes sobre sua identidade e o lugar onde provavelmente a foto teria sido tirada.

Recentemente, o Grok classificou como "autêntico" um suposto vídeo de uma anaconda gigante nadando no rio Amazonas, citando até expedições científicas aparentemente plausíveis para apoiar sua falsa afirmação.

Na realidade, o vídeo foi gerado por IA, reportaram os verificadores da AFP na América Latina, que indicaram que muitos usuários citaram a avaliação do Grok como prova de que o clipe era real.

Essas descobertas suscitaram preocupações, já que pesquisas mostram que os usuários estão trocando cada vez mais os mecanismos de busca tradicionais por ferramentas de IA generativa para coletar e verificar informações.

Essa mudança também coincide com a decisão da Meta, no início do ano, de encerrar seu programa de verificação digital externo nos Estados Unidos e transferir a tarefa de desmentir alegações falsas para os usuários, por meio das chamadas "notas da comunidade", um recurso popularizado pelo X.

- "Respostas tendenciosas" -

A verificação digital realizada por pessoas tem sido há muito tempo um ponto sensível em um clima político hiperpolarizado, em particular nos Estados Unidos, onde grupos conservadores argumentam que a prática suprime a liberdade de expressão e censura conteúdos de direita, algo que esses profissionais rechaçam firmemente.

A AFP trabalha atualmente em 26 idiomas com o programa de verificação de fatos do Facebook, presente na Ásia, América Latina e União Europeia.

A qualidade e a precisão dos chatbots de IA podem variar, dependendo de como são treinados e programados, o que gera preocupações de que seus resultados possam estar sujeitos a influência ou controle político.

A xAI, de Musk, atribuiu a uma "modificação não autorizada" a geração de publicações não solicitadas pelo Grok que faziam referência ao "genocídio branco" na África do Sul.

Quando o especialista em IA David Caswell perguntou ao próprio Grok quem poderia ter modificado seu sistema, a ferramenta apontou Musk como o culpado "mais provável".

O bilionário sul-africano, aliado do presidente Donald Trump, já havia afirmado anteriormente que os líderes da África do Sul estavam "incitando abertamente ao genocídio" da população branca.

"Vimos como os assistentes de inteligência artificial podem falsificar resultados ou dar respostas tendenciosas depois que programadores humanos alteram especificamente suas instruções", declarou à AFP Angie Holan, diretora da Rede Internacional de Verificação de Fatos.

"Preocupa-me especialmente a maneira como Grok geriu incorretamente solicitações sobre assuntos muito sensíveis após receber instruções para fornecer respostas pré-autorizadas", disse Holan.

burs-ac/nl/db/val/ic/am

X.So--ThChM