The China Mail - Hola chatbot, "¿esto es verdad?": la verificación con IA genera desinformación

USD -
AED 3.672498
AFN 65.999546
ALL 83.886299
AMD 382.569343
ANG 1.789982
AOA 916.999667
ARS 1450.724895
AUD 1.535992
AWG 1.8025
AZN 1.703625
BAM 1.701894
BBD 2.013462
BDT 121.860805
BGN 1.698675
BHD 0.376969
BIF 2951
BMD 1
BND 1.306514
BOB 6.907654
BRL 5.340706
BSD 0.999682
BTN 88.718716
BWP 13.495075
BYN 3.407518
BYR 19600
BZD 2.010599
CAD 1.40972
CDF 2221.000107
CHF 0.8083
CLF 0.024025
CLP 942.260127
CNY 7.12675
CNH 7.124335
COP 3834.5
CRC 501.842642
CUC 1
CUP 26.5
CVE 96.374981
CZK 21.130974
DJF 177.719889
DKK 6.481435
DOP 64.297733
DZD 130.702957
EGP 47.350598
ERN 15
ETB 153.125026
EUR 0.868055
FJD 2.281097
FKP 0.766404
GBP 0.765345
GEL 2.714973
GGP 0.766404
GHS 10.924959
GIP 0.766404
GMD 73.496433
GNF 8691.000207
GTQ 7.661048
GYD 209.152772
HKD 7.774794
HNL 26.359887
HRK 6.537806
HTG 130.911876
HUF 335.451502
IDR 16695.1
ILS 3.253855
IMP 0.766404
INR 88.641051
IQD 1310
IRR 42112.439107
ISK 127.05977
JEP 0.766404
JMD 160.956848
JOD 0.709027
JPY 153.633017
KES 129.201234
KGS 87.449557
KHR 4027.000211
KMF 427.999878
KPW 900.033283
KRW 1447.48028
KWD 0.30713
KYD 0.83313
KZT 525.140102
LAK 21712.500514
LBP 89549.999727
LKR 304.599802
LRD 182.625016
LSL 17.379986
LTL 2.95274
LVL 0.60489
LYD 5.455014
MAD 9.301979
MDL 17.135125
MGA 4500.000656
MKD 53.533982
MMK 2099.044592
MNT 3585.031206
MOP 8.006805
MRU 38.249781
MUR 45.999702
MVR 15.404977
MWK 1736.000423
MXN 18.58737
MYR 4.18301
MZN 63.960022
NAD 17.380215
NGN 1440.729964
NIO 36.770288
NOK 10.170899
NPR 141.949154
NZD 1.7668
OMR 0.384495
PAB 0.999687
PEN 3.376505
PGK 4.216027
PHP 58.845981
PKR 280.85006
PLN 3.69242
PYG 7077.158694
QAR 3.640957
RON 4.414195
RSD 101.74198
RUB 81.125016
RWF 1450
SAR 3.750543
SBD 8.223823
SCR 13.740948
SDG 600.503506
SEK 9.536655
SGD 1.304925
SHP 0.750259
SLE 23.200677
SLL 20969.499529
SOS 571.507056
SRD 38.558019
STD 20697.981008
STN 21.45
SVC 8.747031
SYP 11056.895466
SZL 17.38022
THB 32.350333
TJS 9.257197
TMT 3.5
TND 2.960056
TOP 2.342104
TRY 42.11875
TTD 6.775354
TWD 30.898017
TZS 2459.806973
UAH 42.064759
UGX 3491.230589
UYU 39.758439
UZS 11987.497487
VES 227.27225
VND 26315
VUV 122.169446
WST 2.82328
XAF 570.814334
XAG 0.020533
XAU 0.000249
XCD 2.70255
XCG 1.801656
XDR 0.70875
XOF 570.495888
XPF 104.149691
YER 238.497406
ZAR 17.363401
ZMK 9001.204121
ZMW 22.392878
ZWL 321.999592
Hola chatbot, "¿esto es verdad?": la verificación con IA genera desinformación
Hola chatbot, "¿esto es verdad?": la verificación con IA genera desinformación / Foto: © AFP

Hola chatbot, "¿esto es verdad?": la verificación con IA genera desinformación

Cuando la desinformación se disparó durante los cuatro días de conflicto entre India y Pakistán, los usuarios de redes sociales recurrieron a un chatbot de inteligencia artificial (IA) para verificar los hechos, pero se encontraron con más falsedades, lo que subraya su poca fiabilidad como herramienta de verificación de datos.

Tamaño del texto:

Con la reducción de verificadores humanos en las plataformas tecnológicas, los usuarios recurren cada vez más a los chatbots basados en IA -como Grok, de xAI, ChatGPT, de OpenAI, y Gemini, de Google- en busca de información fiable.

"Hola @Grok, ¿esto es verdad?", se ha convertido en una pregunta habitual en la plataforma X de Elon Musk, donde el asistente de IA está integrado, lo que refleja la creciente tendencia a buscar desmentidos al instante en las redes sociales.

Pero las respuestas suelen estar plagadas de desinformación.

Grok, ahora bajo un nuevo escrutinio por insertar "genocidio blanco", una teoría conspirativa de extrema derecha, en consultas que no están relacionadas con ello, identificó erróneamente un antiguo video del aeropuerto de Jartum, en Sudán, como un ataque con misiles contra la base aérea Nur Khan de Pakistán durante el reciente conflicto de ese país con India.

Las grabaciones de un edificio en llamas en Nepal se identificaron erróneamente como que "probablemente" fueran la respuesta militar de Pakistán a los ataques indios.

"La creciente confianza en Grok como verificador de datos se produce cuando X y otras grandes empresas tecnológicas han reducido sus inversiones en verificadores de datos humanos", declaró a la AFP McKenzie Sadeghi, investigadora del organismo de vigilancia de la desinformación NewsGuard.

"Nuestras investigaciones han demostrado repetidamente que los chatbots de IA no son fuentes fiables de noticias e información, especialmente cuando se trata de noticias de actualidad", advirtió.

- Repetir falsedades -

La investigación de NewsGuard reveló que 10 de los principales chatbots eran propensos a repetir falsedades, incluidas narrativas de desinformación rusa.

En un estudio reciente de ocho herramientas de búsqueda con IA, el Centro Tow para el Periodismo Digital de la Universidad de Columbia descubrió que los chatbots eran "generalmente malos para declinar preguntas que no podían responder con precisión, ofreciendo en su lugar respuestas incorrectas o especulativas".

Cuando los verificadores digitales de la AFP en Uruguay preguntaron a Gemini sobre una imagen de una mujer generada por IA, no solo confirmó su autenticidad, sino que inventó detalles sobre su identidad y el lugar donde probablemente se tomó la imagen.

Hace poco, Grok calificó de "auténtico" un supuesto video de una anaconda gigante nadando en el río Amazonas, citando incluso expediciones científicas que parecían creíbles para apoyar su falsa afirmación.

En realidad, el video fue generado por IA, reportaron los verificadores de la AFP en América Latina, que señalaron que muchos usuarios citaron la evaluación de Grok como prueba de que el clip era real.

Estos hallazgos han suscitado preocupación, ya que las encuestas muestran que los usuarios están cambiando cada vez más los motores de búsqueda tradicionales por chatbots de IA para recopilar y verificar información.

Este cambio también coincide con el anuncio de Meta, a principios de este año, de poner fin al programa de verificación digital externo en Estados Unidos, y trasladó la tarea de desmentir las falsedades a los usuarios mediante las llamadas "notas de la comunidad", un mecanismo popularizado por X.

- "Respuestas sesgadas" -

La verificación digital realizada por personas ha sido durante mucho tiempo un punto álgido en un clima político hiperpolarizado, particularmente en Estados Unidos, donde los grupos conservadores sostienen que suprime la libertad de expresión y censura el contenido de derecha, algo que los verificadores profesionales rechazan con vehemencia.

AFP trabaja actualmente en 26 idiomas con el programa de verificación de datos de Facebook, incluyendo Asia, Latinoamérica y la Unión Europea.

La calidad y la precisión de los chatbots de IA pueden variar, dependiendo de cómo se entrenan y programan, lo que genera preocupación de que sus resultados puedan estar sujetos a influencia o control político.

xAI, de Musk, atribuyó a una "modificación no autorizada" la generación de publicaciones no solicitadas por Grok que hacían referencia al "genocidio blanco" en Sudáfrica.

Cuando el experto en IA David Caswell le preguntó a Grok quién podría haber modificado su sistema, el chatbot señaló a Musk como el culpable "más probable".

Musk, el multimillonario sudafricano partidario del presidente Donald Trump, ya había afirmado previamente que los líderes de Sudáfrica estaban "incitando abiertamente al genocidio" de la población blanca.

"Hemos visto cómo los asistentes de inteligencia artificial pueden falsificar resultados o dar respuestas sesgadas después de que programadores humanos modifiquen específicamente sus instrucciones", declaró a la AFP Angie Holan, directora de la Red Internacional de Verificación de Datos.

"Me preocupa especialmente la forma en que Grok ha gestionado incorrectamente solicitudes sobre asuntos muy sensibles tras recibir instrucciones para proporcionar respuestas preautorizadas".

burs-ac/nl/db/val

K.Lam--ThChM