The China Mail - Hola chatbot, "¿esto es verdad?": la verificación con IA genera desinformación

USD -
AED 3.672501
AFN 67.314966
ALL 81.81895
AMD 382.589846
ANG 1.790403
AOA 916.999758
ARS 1474.143699
AUD 1.512402
AWG 1.8025
AZN 1.70103
BAM 1.653108
BBD 2.015045
BDT 121.75949
BGN 1.658245
BHD 0.37707
BIF 2986.078827
BMD 1
BND 1.279604
BOB 6.913223
BRL 5.30123
BSD 1.000507
BTN 88.102443
BWP 14.232162
BYN 3.389232
BYR 19600
BZD 2.01218
CAD 1.38038
CDF 2853.510149
CHF 0.792075
CLF 0.024307
CLP 953.549972
CNY 7.103597
CNH 7.11265
COP 3884.95
CRC 504.0994
CUC 1
CUP 26.5
CVE 93.202037
CZK 20.614499
DJF 178.160579
DKK 6.33841
DOP 61.871355
DZD 129.407996
EGP 48.185994
ERN 15
ETB 144.342508
EUR 0.84914
FJD 2.24675
FKP 0.731979
GBP 0.73785
GEL 2.697004
GGP 0.731979
GHS 12.256835
GIP 0.731979
GMD 72.000039
GNF 8679.151188
GTQ 7.663765
GYD 209.282472
HKD 7.777225
HNL 26.2201
HRK 6.3977
HTG 130.91032
HUF 330.402498
IDR 16596.2
ILS 3.345115
IMP 0.731979
INR 88.189014
IQD 1310.62463
IRR 42062.494218
ISK 121.589979
JEP 0.731979
JMD 160.535202
JOD 0.70898
JPY 147.973497
KES 129.200605
KGS 87.449947
KHR 4008.959513
KMF 414.999822
KPW 899.981828
KRW 1388.759605
KWD 0.30527
KYD 0.833745
KZT 541.272927
LAK 21661.827664
LBP 89593.904124
LKR 302.221696
LRD 177.087119
LSL 17.339194
LTL 2.95274
LVL 0.60489
LYD 5.395262
MAD 8.983209
MDL 16.54305
MGA 4396.941919
MKD 52.008097
MMK 2099.410231
MNT 3597.68587
MOP 8.014944
MRU 39.949117
MUR 45.269903
MVR 15.301759
MWK 1734.863789
MXN 18.34969
MYR 4.19599
MZN 63.909992
NAD 17.339194
NGN 1495.710204
NIO 36.818528
NOK 9.889575
NPR 140.96357
NZD 1.700315
OMR 0.384474
PAB 1.000511
PEN 3.477559
PGK 4.244834
PHP 57.258978
PKR 283.911741
PLN 3.617215
PYG 7123.688292
QAR 3.648212
RON 4.303401
RSD 99.505983
RUB 83.241534
RWF 1450.179402
SAR 3.750249
SBD 8.217066
SCR 14.427221
SDG 601.498609
SEK 9.35661
SGD 1.282615
SHP 0.785843
SLE 23.310267
SLL 20969.503664
SOS 571.802891
SRD 38.136499
STD 20697.981008
STN 20.708309
SVC 8.754232
SYP 13001.791617
SZL 17.333277
THB 31.922008
TJS 9.379675
TMT 3.51
TND 2.895698
TOP 2.342097
TRY 41.303496
TTD 6.787254
TWD 30.139503
TZS 2475.000236
UAH 41.284185
UGX 3503.492928
UYU 40.013355
UZS 12260.112162
VES 160.24738
VND 26385
VUV 118.486076
WST 2.647502
XAF 554.439185
XAG 0.024046
XAU 0.000275
XCD 2.70255
XCG 1.803144
XDR 0.689851
XOF 554.450901
XPF 100.802975
YER 239.55005
ZAR 17.359501
ZMK 9001.203468
ZMW 23.577143
ZWL 321.999592
Hola chatbot, "¿esto es verdad?": la verificación con IA genera desinformación
Hola chatbot, "¿esto es verdad?": la verificación con IA genera desinformación / Foto: © AFP

Hola chatbot, "¿esto es verdad?": la verificación con IA genera desinformación

Cuando la desinformación se disparó durante los cuatro días de conflicto entre India y Pakistán, los usuarios de redes sociales recurrieron a un chatbot de inteligencia artificial (IA) para verificar los hechos, pero se encontraron con más falsedades, lo que subraya su poca fiabilidad como herramienta de verificación de datos.

Tamaño del texto:

Con la reducción de verificadores humanos en las plataformas tecnológicas, los usuarios recurren cada vez más a los chatbots basados en IA -como Grok, de xAI, ChatGPT, de OpenAI, y Gemini, de Google- en busca de información fiable.

"Hola @Grok, ¿esto es verdad?", se ha convertido en una pregunta habitual en la plataforma X de Elon Musk, donde el asistente de IA está integrado, lo que refleja la creciente tendencia a buscar desmentidos al instante en las redes sociales.

Pero las respuestas suelen estar plagadas de desinformación.

Grok, ahora bajo un nuevo escrutinio por insertar "genocidio blanco", una teoría conspirativa de extrema derecha, en consultas que no están relacionadas con ello, identificó erróneamente un antiguo video del aeropuerto de Jartum, en Sudán, como un ataque con misiles contra la base aérea Nur Khan de Pakistán durante el reciente conflicto de ese país con India.

Las grabaciones de un edificio en llamas en Nepal se identificaron erróneamente como que "probablemente" fueran la respuesta militar de Pakistán a los ataques indios.

"La creciente confianza en Grok como verificador de datos se produce cuando X y otras grandes empresas tecnológicas han reducido sus inversiones en verificadores de datos humanos", declaró a la AFP McKenzie Sadeghi, investigadora del organismo de vigilancia de la desinformación NewsGuard.

"Nuestras investigaciones han demostrado repetidamente que los chatbots de IA no son fuentes fiables de noticias e información, especialmente cuando se trata de noticias de actualidad", advirtió.

- Repetir falsedades -

La investigación de NewsGuard reveló que 10 de los principales chatbots eran propensos a repetir falsedades, incluidas narrativas de desinformación rusa.

En un estudio reciente de ocho herramientas de búsqueda con IA, el Centro Tow para el Periodismo Digital de la Universidad de Columbia descubrió que los chatbots eran "generalmente malos para declinar preguntas que no podían responder con precisión, ofreciendo en su lugar respuestas incorrectas o especulativas".

Cuando los verificadores digitales de la AFP en Uruguay preguntaron a Gemini sobre una imagen de una mujer generada por IA, no solo confirmó su autenticidad, sino que inventó detalles sobre su identidad y el lugar donde probablemente se tomó la imagen.

Hace poco, Grok calificó de "auténtico" un supuesto video de una anaconda gigante nadando en el río Amazonas, citando incluso expediciones científicas que parecían creíbles para apoyar su falsa afirmación.

En realidad, el video fue generado por IA, reportaron los verificadores de la AFP en América Latina, que señalaron que muchos usuarios citaron la evaluación de Grok como prueba de que el clip era real.

Estos hallazgos han suscitado preocupación, ya que las encuestas muestran que los usuarios están cambiando cada vez más los motores de búsqueda tradicionales por chatbots de IA para recopilar y verificar información.

Este cambio también coincide con el anuncio de Meta, a principios de este año, de poner fin al programa de verificación digital externo en Estados Unidos, y trasladó la tarea de desmentir las falsedades a los usuarios mediante las llamadas "notas de la comunidad", un mecanismo popularizado por X.

- "Respuestas sesgadas" -

La verificación digital realizada por personas ha sido durante mucho tiempo un punto álgido en un clima político hiperpolarizado, particularmente en Estados Unidos, donde los grupos conservadores sostienen que suprime la libertad de expresión y censura el contenido de derecha, algo que los verificadores profesionales rechazan con vehemencia.

AFP trabaja actualmente en 26 idiomas con el programa de verificación de datos de Facebook, incluyendo Asia, Latinoamérica y la Unión Europea.

La calidad y la precisión de los chatbots de IA pueden variar, dependiendo de cómo se entrenan y programan, lo que genera preocupación de que sus resultados puedan estar sujetos a influencia o control político.

xAI, de Musk, atribuyó a una "modificación no autorizada" la generación de publicaciones no solicitadas por Grok que hacían referencia al "genocidio blanco" en Sudáfrica.

Cuando el experto en IA David Caswell le preguntó a Grok quién podría haber modificado su sistema, el chatbot señaló a Musk como el culpable "más probable".

Musk, el multimillonario sudafricano partidario del presidente Donald Trump, ya había afirmado previamente que los líderes de Sudáfrica estaban "incitando abiertamente al genocidio" de la población blanca.

"Hemos visto cómo los asistentes de inteligencia artificial pueden falsificar resultados o dar respuestas sesgadas después de que programadores humanos modifiquen específicamente sus instrucciones", declaró a la AFP Angie Holan, directora de la Red Internacional de Verificación de Datos.

"Me preocupa especialmente la forma en que Grok ha gestionado incorrectamente solicitudes sobre asuntos muy sensibles tras recibir instrucciones para proporcionar respuestas preautorizadas".

burs-ac/nl/db/val

K.Lam--ThChM