The China Mail - Hola chatbot, "¿esto es verdad?": la verificación con IA genera desinformación

USD -
AED 3.672503
AFN 66.000272
ALL 81.750267
AMD 377.657389
ANG 1.79008
AOA 916.497564
ARS 1447.743897
AUD 1.432295
AWG 1.80125
AZN 1.69884
BAM 1.656847
BBD 2.015105
BDT 122.260014
BGN 1.67937
BHD 0.377008
BIF 2953.091775
BMD 1
BND 1.272884
BOB 6.913553
BRL 5.245602
BSD 1.000479
BTN 90.561067
BWP 13.175651
BYN 2.857082
BYR 19600
BZD 2.012224
CAD 1.368345
CDF 2224.999981
CHF 0.77707
CLF 0.021813
CLP 861.249915
CNY 6.94215
CNH 6.938765
COP 3642
CRC 496.003592
CUC 1
CUP 26.5
CVE 93.41048
CZK 20.61185
DJF 178.163135
DKK 6.32984
DOP 63.04994
DZD 130.013823
EGP 46.974985
ERN 15
ETB 154.976835
EUR 0.847765
FJD 2.206601
FKP 0.732184
GBP 0.73708
GEL 2.690395
GGP 0.732184
GHS 10.985781
GIP 0.732184
GMD 73.514885
GNF 8780.996111
GTQ 7.67429
GYD 209.32114
HKD 7.81233
HNL 26.428662
HRK 6.385504
HTG 131.143652
HUF 321.765975
IDR 16870
ILS 3.106995
IMP 0.732184
INR 90.323502
IQD 1310.5
IRR 42125.000158
ISK 122.77015
JEP 0.732184
JMD 156.862745
JOD 0.709032
JPY 157.190173
KES 128.999889
KGS 87.449732
KHR 4030.000237
KMF 416.999971
KPW 900.030004
KRW 1465.559807
KWD 0.30735
KYD 0.83376
KZT 497.113352
LAK 21520.880015
LBP 86150.000117
LKR 309.665505
LRD 185.999893
LSL 16.060215
LTL 2.95274
LVL 0.60489
LYD 6.323093
MAD 9.174502
MDL 16.928505
MGA 4431.457248
MKD 52.26893
MMK 2099.783213
MNT 3569.156954
MOP 8.051354
MRU 39.72959
MUR 46.060083
MVR 15.460281
MWK 1737.9996
MXN 17.35351
MYR 3.946989
MZN 63.759989
NAD 16.060109
NGN 1370.429432
NIO 36.81834
NOK 9.68341
NPR 144.897432
NZD 1.668235
OMR 0.384501
PAB 1.000479
PEN 3.362501
PGK 4.286719
PHP 58.717498
PKR 279.84277
PLN 3.574895
PYG 6622.13506
QAR 3.64125
RON 4.319497
RSD 99.522041
RUB 76.547406
RWF 1459.958497
SAR 3.750074
SBD 8.064647
SCR 13.682273
SDG 601.50319
SEK 9.005105
SGD 1.27355
SHP 0.750259
SLE 24.550125
SLL 20969.499267
SOS 571.495602
SRD 37.894002
STD 20697.981008
STN 20.755852
SVC 8.7544
SYP 11059.574895
SZL 16.060401
THB 31.744501
TJS 9.349774
TMT 3.505
TND 2.845497
TOP 2.40776
TRY 43.54031
TTD 6.777163
TWD 31.683899
TZS 2575.000201
UAH 43.151654
UGX 3562.246121
UYU 38.562056
UZS 12264.970117
VES 377.98435
VND 25970
VUV 119.687673
WST 2.726344
XAF 555.589718
XAG 0.012796
XAU 0.000206
XCD 2.70255
XCG 1.803149
XDR 0.691101
XOF 555.690911
XPF 101.550161
YER 238.325012
ZAR 16.154095
ZMK 9001.179364
ZMW 19.585153
ZWL 321.999592
Hola chatbot, "¿esto es verdad?": la verificación con IA genera desinformación
Hola chatbot, "¿esto es verdad?": la verificación con IA genera desinformación / Foto: © AFP

Hola chatbot, "¿esto es verdad?": la verificación con IA genera desinformación

Cuando la desinformación se disparó durante los cuatro días de conflicto entre India y Pakistán, los usuarios de redes sociales recurrieron a un chatbot de inteligencia artificial (IA) para verificar los hechos, pero se encontraron con más falsedades, lo que subraya su poca fiabilidad como herramienta de verificación de datos.

Tamaño del texto:

Con la reducción de verificadores humanos en las plataformas tecnológicas, los usuarios recurren cada vez más a los chatbots basados en IA -como Grok, de xAI, ChatGPT, de OpenAI, y Gemini, de Google- en busca de información fiable.

"Hola @Grok, ¿esto es verdad?", se ha convertido en una pregunta habitual en la plataforma X de Elon Musk, donde el asistente de IA está integrado, lo que refleja la creciente tendencia a buscar desmentidos al instante en las redes sociales.

Pero las respuestas suelen estar plagadas de desinformación.

Grok, ahora bajo un nuevo escrutinio por insertar "genocidio blanco", una teoría conspirativa de extrema derecha, en consultas que no están relacionadas con ello, identificó erróneamente un antiguo video del aeropuerto de Jartum, en Sudán, como un ataque con misiles contra la base aérea Nur Khan de Pakistán durante el reciente conflicto de ese país con India.

Las grabaciones de un edificio en llamas en Nepal se identificaron erróneamente como que "probablemente" fueran la respuesta militar de Pakistán a los ataques indios.

"La creciente confianza en Grok como verificador de datos se produce cuando X y otras grandes empresas tecnológicas han reducido sus inversiones en verificadores de datos humanos", declaró a la AFP McKenzie Sadeghi, investigadora del organismo de vigilancia de la desinformación NewsGuard.

"Nuestras investigaciones han demostrado repetidamente que los chatbots de IA no son fuentes fiables de noticias e información, especialmente cuando se trata de noticias de actualidad", advirtió.

- Repetir falsedades -

La investigación de NewsGuard reveló que 10 de los principales chatbots eran propensos a repetir falsedades, incluidas narrativas de desinformación rusa.

En un estudio reciente de ocho herramientas de búsqueda con IA, el Centro Tow para el Periodismo Digital de la Universidad de Columbia descubrió que los chatbots eran "generalmente malos para declinar preguntas que no podían responder con precisión, ofreciendo en su lugar respuestas incorrectas o especulativas".

Cuando los verificadores digitales de la AFP en Uruguay preguntaron a Gemini sobre una imagen de una mujer generada por IA, no solo confirmó su autenticidad, sino que inventó detalles sobre su identidad y el lugar donde probablemente se tomó la imagen.

Hace poco, Grok calificó de "auténtico" un supuesto video de una anaconda gigante nadando en el río Amazonas, citando incluso expediciones científicas que parecían creíbles para apoyar su falsa afirmación.

En realidad, el video fue generado por IA, reportaron los verificadores de la AFP en América Latina, que señalaron que muchos usuarios citaron la evaluación de Grok como prueba de que el clip era real.

Estos hallazgos han suscitado preocupación, ya que las encuestas muestran que los usuarios están cambiando cada vez más los motores de búsqueda tradicionales por chatbots de IA para recopilar y verificar información.

Este cambio también coincide con el anuncio de Meta, a principios de este año, de poner fin al programa de verificación digital externo en Estados Unidos, y trasladó la tarea de desmentir las falsedades a los usuarios mediante las llamadas "notas de la comunidad", un mecanismo popularizado por X.

- "Respuestas sesgadas" -

La verificación digital realizada por personas ha sido durante mucho tiempo un punto álgido en un clima político hiperpolarizado, particularmente en Estados Unidos, donde los grupos conservadores sostienen que suprime la libertad de expresión y censura el contenido de derecha, algo que los verificadores profesionales rechazan con vehemencia.

AFP trabaja actualmente en 26 idiomas con el programa de verificación de datos de Facebook, incluyendo Asia, Latinoamérica y la Unión Europea.

La calidad y la precisión de los chatbots de IA pueden variar, dependiendo de cómo se entrenan y programan, lo que genera preocupación de que sus resultados puedan estar sujetos a influencia o control político.

xAI, de Musk, atribuyó a una "modificación no autorizada" la generación de publicaciones no solicitadas por Grok que hacían referencia al "genocidio blanco" en Sudáfrica.

Cuando el experto en IA David Caswell le preguntó a Grok quién podría haber modificado su sistema, el chatbot señaló a Musk como el culpable "más probable".

Musk, el multimillonario sudafricano partidario del presidente Donald Trump, ya había afirmado previamente que los líderes de Sudáfrica estaban "incitando abiertamente al genocidio" de la población blanca.

"Hemos visto cómo los asistentes de inteligencia artificial pueden falsificar resultados o dar respuestas sesgadas después de que programadores humanos modifiquen específicamente sus instrucciones", declaró a la AFP Angie Holan, directora de la Red Internacional de Verificación de Datos.

"Me preocupa especialmente la forma en que Grok ha gestionado incorrectamente solicitudes sobre asuntos muy sensibles tras recibir instrucciones para proporcionar respuestas preautorizadas".

burs-ac/nl/db/val

K.Lam--ThChM