The China Mail - Hola chatbot, "¿esto es verdad?": la verificación con IA genera desinformación

USD -
AED 3.672503
AFN 63.00032
ALL 82.776172
AMD 376.396497
ANG 1.790083
AOA 917.000177
ARS 1391.500773
AUD 1.425565
AWG 1.8025
AZN 1.702661
BAM 1.687271
BBD 2.010611
BDT 122.494932
BGN 1.709309
BHD 0.377087
BIF 2954.923867
BMD 1
BND 1.276711
BOB 6.898158
BRL 5.313403
BSD 0.998318
BTN 93.32787
BWP 13.612561
BYN 3.028771
BYR 19600
BZD 2.007764
CAD 1.37208
CDF 2275.000107
CHF 0.78844
CLF 0.023504
CLP 928.050257
CNY 6.8864
CNH 6.906095
COP 3669.412932
CRC 466.289954
CUC 1
CUP 26.5
CVE 95.125739
CZK 21.18585
DJF 177.768192
DKK 6.457501
DOP 59.25894
DZD 132.248037
EGP 51.922112
ERN 15
ETB 157.330889
EUR 0.862702
FJD 2.21445
FKP 0.749593
GBP 0.749681
GEL 2.715022
GGP 0.749593
GHS 10.882112
GIP 0.749593
GMD 73.495361
GNF 8750.377432
GTQ 7.646983
GYD 208.85994
HKD 7.83525
HNL 26.423673
HRK 6.511301
HTG 130.966657
HUF 340.092498
IDR 16956.2
ILS 3.109125
IMP 0.749593
INR 94.01055
IQD 1307.768624
IRR 1315624.999932
ISK 124.270278
JEP 0.749593
JMD 156.839063
JOD 0.708958
JPY 159.239913
KES 129.327524
KGS 87.447901
KHR 3989.129966
KMF 427.000351
KPW 900.029607
KRW 1505.309918
KWD 0.30657
KYD 0.831903
KZT 479.946513
LAK 21437.260061
LBP 89404.995039
LKR 311.417849
LRD 182.685589
LSL 16.84053
LTL 2.95274
LVL 0.60489
LYD 6.39089
MAD 9.328473
MDL 17.385153
MGA 4162.53289
MKD 53.176897
MMK 2098.81595
MNT 3568.179446
MOP 8.05806
MRU 39.961178
MUR 46.509905
MVR 15.460199
MWK 1731.096062
MXN 17.931503
MYR 3.939023
MZN 63.900541
NAD 16.84053
NGN 1356.24992
NIO 36.733814
NOK 9.5707
NPR 149.324936
NZD 1.712531
OMR 0.3845
PAB 0.998318
PEN 3.451408
PGK 4.309192
PHP 60.149842
PKR 278.721304
PLN 3.70148
PYG 6520.295044
QAR 3.65052
RON 4.401503
RSD 101.324246
RUB 83.084033
RWF 1452.529871
SAR 3.754657
SBD 8.05166
SCR 13.69771
SDG 601.000087
SEK 9.34177
SGD 1.282501
SHP 0.750259
SLE 24.575015
SLL 20969.510825
SOS 570.504249
SRD 37.487504
STD 20697.981008
STN 21.136177
SVC 8.734849
SYP 110.711277
SZL 16.845965
THB 32.908011
TJS 9.588492
TMT 3.51
TND 2.948367
TOP 2.40776
TRY 44.252498
TTD 6.773066
TWD 32.036697
TZS 2595.522581
UAH 43.73308
UGX 3773.454687
UYU 40.227753
UZS 12170.987361
VES 454.69063
VND 26312
VUV 118.849952
WST 2.727811
XAF 565.894837
XAG 0.01471
XAU 0.000222
XCD 2.70255
XCG 1.799163
XDR 0.703792
XOF 565.894837
XPF 102.885735
YER 238.600961
ZAR 17.051249
ZMK 9001.209337
ZMW 19.491869
ZWL 321.999592
Hola chatbot, "¿esto es verdad?": la verificación con IA genera desinformación
Hola chatbot, "¿esto es verdad?": la verificación con IA genera desinformación / Foto: © AFP

Hola chatbot, "¿esto es verdad?": la verificación con IA genera desinformación

Cuando la desinformación se disparó durante los cuatro días de conflicto entre India y Pakistán, los usuarios de redes sociales recurrieron a un chatbot de inteligencia artificial (IA) para verificar los hechos, pero se encontraron con más falsedades, lo que subraya su poca fiabilidad como herramienta de verificación de datos.

Tamaño del texto:

Con la reducción de verificadores humanos en las plataformas tecnológicas, los usuarios recurren cada vez más a los chatbots basados en IA -como Grok, de xAI, ChatGPT, de OpenAI, y Gemini, de Google- en busca de información fiable.

"Hola @Grok, ¿esto es verdad?", se ha convertido en una pregunta habitual en la plataforma X de Elon Musk, donde el asistente de IA está integrado, lo que refleja la creciente tendencia a buscar desmentidos al instante en las redes sociales.

Pero las respuestas suelen estar plagadas de desinformación.

Grok, ahora bajo un nuevo escrutinio por insertar "genocidio blanco", una teoría conspirativa de extrema derecha, en consultas que no están relacionadas con ello, identificó erróneamente un antiguo video del aeropuerto de Jartum, en Sudán, como un ataque con misiles contra la base aérea Nur Khan de Pakistán durante el reciente conflicto de ese país con India.

Las grabaciones de un edificio en llamas en Nepal se identificaron erróneamente como que "probablemente" fueran la respuesta militar de Pakistán a los ataques indios.

"La creciente confianza en Grok como verificador de datos se produce cuando X y otras grandes empresas tecnológicas han reducido sus inversiones en verificadores de datos humanos", declaró a la AFP McKenzie Sadeghi, investigadora del organismo de vigilancia de la desinformación NewsGuard.

"Nuestras investigaciones han demostrado repetidamente que los chatbots de IA no son fuentes fiables de noticias e información, especialmente cuando se trata de noticias de actualidad", advirtió.

- Repetir falsedades -

La investigación de NewsGuard reveló que 10 de los principales chatbots eran propensos a repetir falsedades, incluidas narrativas de desinformación rusa.

En un estudio reciente de ocho herramientas de búsqueda con IA, el Centro Tow para el Periodismo Digital de la Universidad de Columbia descubrió que los chatbots eran "generalmente malos para declinar preguntas que no podían responder con precisión, ofreciendo en su lugar respuestas incorrectas o especulativas".

Cuando los verificadores digitales de la AFP en Uruguay preguntaron a Gemini sobre una imagen de una mujer generada por IA, no solo confirmó su autenticidad, sino que inventó detalles sobre su identidad y el lugar donde probablemente se tomó la imagen.

Hace poco, Grok calificó de "auténtico" un supuesto video de una anaconda gigante nadando en el río Amazonas, citando incluso expediciones científicas que parecían creíbles para apoyar su falsa afirmación.

En realidad, el video fue generado por IA, reportaron los verificadores de la AFP en América Latina, que señalaron que muchos usuarios citaron la evaluación de Grok como prueba de que el clip era real.

Estos hallazgos han suscitado preocupación, ya que las encuestas muestran que los usuarios están cambiando cada vez más los motores de búsqueda tradicionales por chatbots de IA para recopilar y verificar información.

Este cambio también coincide con el anuncio de Meta, a principios de este año, de poner fin al programa de verificación digital externo en Estados Unidos, y trasladó la tarea de desmentir las falsedades a los usuarios mediante las llamadas "notas de la comunidad", un mecanismo popularizado por X.

- "Respuestas sesgadas" -

La verificación digital realizada por personas ha sido durante mucho tiempo un punto álgido en un clima político hiperpolarizado, particularmente en Estados Unidos, donde los grupos conservadores sostienen que suprime la libertad de expresión y censura el contenido de derecha, algo que los verificadores profesionales rechazan con vehemencia.

AFP trabaja actualmente en 26 idiomas con el programa de verificación de datos de Facebook, incluyendo Asia, Latinoamérica y la Unión Europea.

La calidad y la precisión de los chatbots de IA pueden variar, dependiendo de cómo se entrenan y programan, lo que genera preocupación de que sus resultados puedan estar sujetos a influencia o control político.

xAI, de Musk, atribuyó a una "modificación no autorizada" la generación de publicaciones no solicitadas por Grok que hacían referencia al "genocidio blanco" en Sudáfrica.

Cuando el experto en IA David Caswell le preguntó a Grok quién podría haber modificado su sistema, el chatbot señaló a Musk como el culpable "más probable".

Musk, el multimillonario sudafricano partidario del presidente Donald Trump, ya había afirmado previamente que los líderes de Sudáfrica estaban "incitando abiertamente al genocidio" de la población blanca.

"Hemos visto cómo los asistentes de inteligencia artificial pueden falsificar resultados o dar respuestas sesgadas después de que programadores humanos modifiquen específicamente sus instrucciones", declaró a la AFP Angie Holan, directora de la Red Internacional de Verificación de Datos.

"Me preocupa especialmente la forma en que Grok ha gestionado incorrectamente solicitudes sobre asuntos muy sensibles tras recibir instrucciones para proporcionar respuestas preautorizadas".

burs-ac/nl/db/val

K.Lam--ThChM