The China Mail - Hola chatbot, "¿esto es verdad?": la verificación con IA genera desinformación

USD -
AED 3.67305
AFN 68.773892
ALL 85.1919
AMD 383.844121
ANG 1.789699
AOA 917.000464
ARS 1319.936745
AUD 1.551747
AWG 1.8025
AZN 1.702909
BAM 1.708921
BBD 2.018218
BDT 122.195767
BGN 1.709301
BHD 0.377034
BIF 2979.706852
BMD 1
BND 1.297101
BOB 6.907097
BRL 5.583097
BSD 0.999672
BTN 87.54407
BWP 13.649927
BYN 3.271194
BYR 19600
BZD 2.00782
CAD 1.383805
CDF 2889.999756
CHF 0.812105
CLF 0.02487
CLP 975.649832
CNY 7.1769
CNH 7.20375
COP 4180.25
CRC 505.122436
CUC 1
CUP 26.5
CVE 96.345486
CZK 21.465015
DJF 178.003014
DKK 6.52004
DOP 60.892549
DZD 130.832878
EGP 48.650799
ERN 15
ETB 138.526224
EUR 0.873705
FJD 2.26815
FKP 0.753407
GBP 0.75573
GEL 2.649932
GGP 0.753407
GHS 10.495642
GIP 0.753407
GMD 71.999594
GNF 8671.224797
GTQ 7.676882
GYD 209.126455
HKD 7.85002
HNL 26.261823
HRK 6.582797
HTG 131.169313
HUF 349.488983
IDR 16497
ILS 3.38599
IMP 0.753407
INR 87.607651
IQD 1309.42135
IRR 42112.531123
ISK 124.210267
JEP 0.753407
JMD 159.943729
JOD 0.708974
JPY 149.852501
KES 128.939595
KGS 87.450423
KHR 4004.456192
KMF 431.496346
KPW 899.943686
KRW 1394.6201
KWD 0.30597
KYD 0.832958
KZT 539.837043
LAK 21585.443107
LBP 89567.793093
LKR 302.068634
LRD 200.415037
LSL 18.132856
LTL 2.95274
LVL 0.60489
LYD 5.461019
MAD 9.136766
MDL 17.212259
MGA 4526.09275
MKD 53.788855
MMK 2099.176207
MNT 3589.345014
MOP 8.082308
MRU 39.91175
MUR 46.750419
MVR 15.396166
MWK 1733.28382
MXN 18.82255
MYR 4.265023
MZN 63.960351
NAD 18.132856
NGN 1532.679903
NIO 36.785747
NOK 10.287025
NPR 140.070338
NZD 1.692778
OMR 0.384495
PAB 0.999585
PEN 3.56705
PGK 4.146006
PHP 58.340994
PKR 283.754123
PLN 3.732297
PYG 7486.402062
QAR 3.644585
RON 4.4335
RSD 102.334058
RUB 80.125349
RWF 1445.378886
SAR 3.751071
SBD 8.244163
SCR 14.684374
SDG 600.528417
SEK 9.747285
SGD 1.296765
SHP 0.785843
SLE 23.000101
SLL 20969.503947
SOS 571.266301
SRD 36.670248
STD 20697.981008
STN 21.407195
SVC 8.746368
SYP 13001.531245
SZL 18.127963
THB 32.6645
TJS 9.425981
TMT 3.51
TND 2.967063
TOP 2.342103
TRY 40.59448
TTD 6.786518
TWD 29.926504
TZS 2572.506573
UAH 41.696586
UGX 3583.302388
UYU 40.0886
UZS 12586.557155
VES 123.721575
VND 26199
VUV 119.302744
WST 2.758516
XAF 573.151008
XAG 0.027349
XAU 0.000303
XCD 2.70255
XCG 1.80154
XDR 0.69341
XOF 573.151008
XPF 104.204985
YER 240.649974
ZAR 18.11785
ZMK 9001.199399
ZMW 22.965115
ZWL 321.999592
Hola chatbot, "¿esto es verdad?": la verificación con IA genera desinformación
Hola chatbot, "¿esto es verdad?": la verificación con IA genera desinformación / Foto: © AFP

Hola chatbot, "¿esto es verdad?": la verificación con IA genera desinformación

Cuando la desinformación se disparó durante los cuatro días de conflicto entre India y Pakistán, los usuarios de redes sociales recurrieron a un chatbot de inteligencia artificial (IA) para verificar los hechos, pero se encontraron con más falsedades, lo que subraya su poca fiabilidad como herramienta de verificación de datos.

Tamaño del texto:

Con la reducción de verificadores humanos en las plataformas tecnológicas, los usuarios recurren cada vez más a los chatbots basados en IA -como Grok, de xAI, ChatGPT, de OpenAI, y Gemini, de Google- en busca de información fiable.

"Hola @Grok, ¿esto es verdad?", se ha convertido en una pregunta habitual en la plataforma X de Elon Musk, donde el asistente de IA está integrado, lo que refleja la creciente tendencia a buscar desmentidos al instante en las redes sociales.

Pero las respuestas suelen estar plagadas de desinformación.

Grok, ahora bajo un nuevo escrutinio por insertar "genocidio blanco", una teoría conspirativa de extrema derecha, en consultas que no están relacionadas con ello, identificó erróneamente un antiguo video del aeropuerto de Jartum, en Sudán, como un ataque con misiles contra la base aérea Nur Khan de Pakistán durante el reciente conflicto de ese país con India.

Las grabaciones de un edificio en llamas en Nepal se identificaron erróneamente como que "probablemente" fueran la respuesta militar de Pakistán a los ataques indios.

"La creciente confianza en Grok como verificador de datos se produce cuando X y otras grandes empresas tecnológicas han reducido sus inversiones en verificadores de datos humanos", declaró a la AFP McKenzie Sadeghi, investigadora del organismo de vigilancia de la desinformación NewsGuard.

"Nuestras investigaciones han demostrado repetidamente que los chatbots de IA no son fuentes fiables de noticias e información, especialmente cuando se trata de noticias de actualidad", advirtió.

- Repetir falsedades -

La investigación de NewsGuard reveló que 10 de los principales chatbots eran propensos a repetir falsedades, incluidas narrativas de desinformación rusa.

En un estudio reciente de ocho herramientas de búsqueda con IA, el Centro Tow para el Periodismo Digital de la Universidad de Columbia descubrió que los chatbots eran "generalmente malos para declinar preguntas que no podían responder con precisión, ofreciendo en su lugar respuestas incorrectas o especulativas".

Cuando los verificadores digitales de la AFP en Uruguay preguntaron a Gemini sobre una imagen de una mujer generada por IA, no solo confirmó su autenticidad, sino que inventó detalles sobre su identidad y el lugar donde probablemente se tomó la imagen.

Hace poco, Grok calificó de "auténtico" un supuesto video de una anaconda gigante nadando en el río Amazonas, citando incluso expediciones científicas que parecían creíbles para apoyar su falsa afirmación.

En realidad, el video fue generado por IA, reportaron los verificadores de la AFP en América Latina, que señalaron que muchos usuarios citaron la evaluación de Grok como prueba de que el clip era real.

Estos hallazgos han suscitado preocupación, ya que las encuestas muestran que los usuarios están cambiando cada vez más los motores de búsqueda tradicionales por chatbots de IA para recopilar y verificar información.

Este cambio también coincide con el anuncio de Meta, a principios de este año, de poner fin al programa de verificación digital externo en Estados Unidos, y trasladó la tarea de desmentir las falsedades a los usuarios mediante las llamadas "notas de la comunidad", un mecanismo popularizado por X.

- "Respuestas sesgadas" -

La verificación digital realizada por personas ha sido durante mucho tiempo un punto álgido en un clima político hiperpolarizado, particularmente en Estados Unidos, donde los grupos conservadores sostienen que suprime la libertad de expresión y censura el contenido de derecha, algo que los verificadores profesionales rechazan con vehemencia.

AFP trabaja actualmente en 26 idiomas con el programa de verificación de datos de Facebook, incluyendo Asia, Latinoamérica y la Unión Europea.

La calidad y la precisión de los chatbots de IA pueden variar, dependiendo de cómo se entrenan y programan, lo que genera preocupación de que sus resultados puedan estar sujetos a influencia o control político.

xAI, de Musk, atribuyó a una "modificación no autorizada" la generación de publicaciones no solicitadas por Grok que hacían referencia al "genocidio blanco" en Sudáfrica.

Cuando el experto en IA David Caswell le preguntó a Grok quién podría haber modificado su sistema, el chatbot señaló a Musk como el culpable "más probable".

Musk, el multimillonario sudafricano partidario del presidente Donald Trump, ya había afirmado previamente que los líderes de Sudáfrica estaban "incitando abiertamente al genocidio" de la población blanca.

"Hemos visto cómo los asistentes de inteligencia artificial pueden falsificar resultados o dar respuestas sesgadas después de que programadores humanos modifiquen específicamente sus instrucciones", declaró a la AFP Angie Holan, directora de la Red Internacional de Verificación de Datos.

"Me preocupa especialmente la forma en que Grok ha gestionado incorrectamente solicitudes sobre asuntos muy sensibles tras recibir instrucciones para proporcionar respuestas preautorizadas".

burs-ac/nl/db/val

K.Lam--ThChM