The China Mail - Hola chatbot, "¿esto es verdad?": la verificación con IA genera desinformación

USD -
AED 3.672504
AFN 63.999611
ALL 81.301522
AMD 370.000133
ANG 1.789884
AOA 917.999937
ARS 1387.714602
AUD 1.382304
AWG 1.80125
AZN 1.701441
BAM 1.65949
BBD 2.014662
BDT 122.963617
BGN 1.668102
BHD 0.37735
BIF 2975
BMD 1
BND 1.266376
BOB 6.911825
BRL 4.939598
BSD 1.000288
BTN 94.642615
BWP 13.384978
BYN 2.824803
BYR 19600
BZD 2.011777
CAD 1.363895
CDF 2315.999733
CHF 0.778905
CLF 0.022782
CLP 896.619525
CNY 6.81125
CNH 6.81323
COP 3726.81
CRC 456.404426
CUC 1
CUP 26.5
CVE 93.949934
CZK 20.711503
DJF 177.720282
DKK 6.360298
DOP 59.550121
DZD 132.260501
EGP 52.692005
ERN 15
ETB 157.100639
EUR 0.850996
FJD 2.18445
FKP 0.736622
GBP 0.735665
GEL 2.680286
GGP 0.736622
GHS 11.250389
GIP 0.736622
GMD 73.500677
GNF 8779.999601
GTQ 7.635589
GYD 209.238393
HKD 7.83435
HNL 26.629735
HRK 6.412895
HTG 130.892895
HUF 305.056501
IDR 17317.7
ILS 2.903605
IMP 0.736622
INR 94.615499
IQD 1310
IRR 1313000.000312
ISK 122.390182
JEP 0.736622
JMD 157.609595
JOD 0.708989
JPY 156.397497
KES 129.179771
KGS 87.420504
KHR 4013.491746
KMF 419.000198
KPW 900.003495
KRW 1448.429787
KWD 0.30795
KYD 0.83356
KZT 463.200855
LAK 21969.999933
LBP 89381.099728
LKR 320.221287
LRD 183.575013
LSL 16.535024
LTL 2.95274
LVL 0.60489
LYD 6.340093
MAD 9.198496
MDL 17.194712
MGA 4159.999825
MKD 52.460035
MMK 2099.549246
MNT 3579.649525
MOP 8.073157
MRU 39.912517
MUR 46.779879
MVR 15.455039
MWK 1741.999962
MXN 17.25655
MYR 3.924972
MZN 63.909737
NAD 16.53495
NGN 1361.990151
NIO 36.719669
NOK 9.29575
NPR 151.428014
NZD 1.679701
OMR 0.384511
PAB 1.000288
PEN 3.462503
PGK 4.33825
PHP 60.819855
PKR 278.774993
PLN 3.60225
PYG 6121.903517
QAR 3.644014
RON 4.481099
RSD 99.923021
RUB 74.749385
RWF 1460
SAR 3.745223
SBD 8.019432
SCR 13.934011
SDG 600.501804
SEK 9.243097
SGD 1.268095
SHP 0.746601
SLE 24.649613
SLL 20969.496166
SOS 571.504798
SRD 37.41101
STD 20697.981008
STN 21.2
SVC 8.752206
SYP 111.203697
SZL 16.540082
THB 32.239824
TJS 9.347679
TMT 3.505
TND 2.872502
TOP 2.40776
TRY 45.234005
TTD 6.778611
TWD 31.413496
TZS 2592.183035
UAH 43.857246
UGX 3761.369807
UYU 40.193288
UZS 12075.000375
VES 493.496435
VND 26325
VUV 118.250426
WST 2.722585
XAF 556.574973
XAG 0.012925
XAU 0.000213
XCD 2.70255
XCG 1.802793
XDR 0.696429
XOF 557.497355
XPF 101.874996
YER 238.625034
ZAR 16.40755
ZMK 9001.199275
ZMW 18.930729
ZWL 321.999592
Hola chatbot, "¿esto es verdad?": la verificación con IA genera desinformación
Hola chatbot, "¿esto es verdad?": la verificación con IA genera desinformación / Foto: © AFP

Hola chatbot, "¿esto es verdad?": la verificación con IA genera desinformación

Cuando la desinformación se disparó durante los cuatro días de conflicto entre India y Pakistán, los usuarios de redes sociales recurrieron a un chatbot de inteligencia artificial (IA) para verificar los hechos, pero se encontraron con más falsedades, lo que subraya su poca fiabilidad como herramienta de verificación de datos.

Tamaño del texto:

Con la reducción de verificadores humanos en las plataformas tecnológicas, los usuarios recurren cada vez más a los chatbots basados en IA -como Grok, de xAI, ChatGPT, de OpenAI, y Gemini, de Google- en busca de información fiable.

"Hola @Grok, ¿esto es verdad?", se ha convertido en una pregunta habitual en la plataforma X de Elon Musk, donde el asistente de IA está integrado, lo que refleja la creciente tendencia a buscar desmentidos al instante en las redes sociales.

Pero las respuestas suelen estar plagadas de desinformación.

Grok, ahora bajo un nuevo escrutinio por insertar "genocidio blanco", una teoría conspirativa de extrema derecha, en consultas que no están relacionadas con ello, identificó erróneamente un antiguo video del aeropuerto de Jartum, en Sudán, como un ataque con misiles contra la base aérea Nur Khan de Pakistán durante el reciente conflicto de ese país con India.

Las grabaciones de un edificio en llamas en Nepal se identificaron erróneamente como que "probablemente" fueran la respuesta militar de Pakistán a los ataques indios.

"La creciente confianza en Grok como verificador de datos se produce cuando X y otras grandes empresas tecnológicas han reducido sus inversiones en verificadores de datos humanos", declaró a la AFP McKenzie Sadeghi, investigadora del organismo de vigilancia de la desinformación NewsGuard.

"Nuestras investigaciones han demostrado repetidamente que los chatbots de IA no son fuentes fiables de noticias e información, especialmente cuando se trata de noticias de actualidad", advirtió.

- Repetir falsedades -

La investigación de NewsGuard reveló que 10 de los principales chatbots eran propensos a repetir falsedades, incluidas narrativas de desinformación rusa.

En un estudio reciente de ocho herramientas de búsqueda con IA, el Centro Tow para el Periodismo Digital de la Universidad de Columbia descubrió que los chatbots eran "generalmente malos para declinar preguntas que no podían responder con precisión, ofreciendo en su lugar respuestas incorrectas o especulativas".

Cuando los verificadores digitales de la AFP en Uruguay preguntaron a Gemini sobre una imagen de una mujer generada por IA, no solo confirmó su autenticidad, sino que inventó detalles sobre su identidad y el lugar donde probablemente se tomó la imagen.

Hace poco, Grok calificó de "auténtico" un supuesto video de una anaconda gigante nadando en el río Amazonas, citando incluso expediciones científicas que parecían creíbles para apoyar su falsa afirmación.

En realidad, el video fue generado por IA, reportaron los verificadores de la AFP en América Latina, que señalaron que muchos usuarios citaron la evaluación de Grok como prueba de que el clip era real.

Estos hallazgos han suscitado preocupación, ya que las encuestas muestran que los usuarios están cambiando cada vez más los motores de búsqueda tradicionales por chatbots de IA para recopilar y verificar información.

Este cambio también coincide con el anuncio de Meta, a principios de este año, de poner fin al programa de verificación digital externo en Estados Unidos, y trasladó la tarea de desmentir las falsedades a los usuarios mediante las llamadas "notas de la comunidad", un mecanismo popularizado por X.

- "Respuestas sesgadas" -

La verificación digital realizada por personas ha sido durante mucho tiempo un punto álgido en un clima político hiperpolarizado, particularmente en Estados Unidos, donde los grupos conservadores sostienen que suprime la libertad de expresión y censura el contenido de derecha, algo que los verificadores profesionales rechazan con vehemencia.

AFP trabaja actualmente en 26 idiomas con el programa de verificación de datos de Facebook, incluyendo Asia, Latinoamérica y la Unión Europea.

La calidad y la precisión de los chatbots de IA pueden variar, dependiendo de cómo se entrenan y programan, lo que genera preocupación de que sus resultados puedan estar sujetos a influencia o control político.

xAI, de Musk, atribuyó a una "modificación no autorizada" la generación de publicaciones no solicitadas por Grok que hacían referencia al "genocidio blanco" en Sudáfrica.

Cuando el experto en IA David Caswell le preguntó a Grok quién podría haber modificado su sistema, el chatbot señaló a Musk como el culpable "más probable".

Musk, el multimillonario sudafricano partidario del presidente Donald Trump, ya había afirmado previamente que los líderes de Sudáfrica estaban "incitando abiertamente al genocidio" de la población blanca.

"Hemos visto cómo los asistentes de inteligencia artificial pueden falsificar resultados o dar respuestas sesgadas después de que programadores humanos modifiquen específicamente sus instrucciones", declaró a la AFP Angie Holan, directora de la Red Internacional de Verificación de Datos.

"Me preocupa especialmente la forma en que Grok ha gestionado incorrectamente solicitudes sobre asuntos muy sensibles tras recibir instrucciones para proporcionar respuestas preautorizadas".

burs-ac/nl/db/val

K.Lam--ThChM