The China Mail - La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

USD -
AED 3.67295
AFN 69.000368
ALL 83.803989
AMD 383.103986
ANG 1.789783
AOA 917.000367
ARS 1297.536634
AUD 1.537304
AWG 1.80075
AZN 1.70397
BAM 1.673054
BBD 2.018392
BDT 121.454234
BGN 1.67146
BHD 0.376789
BIF 2960
BMD 1
BND 1.281694
BOB 6.907525
BRL 5.400904
BSD 0.999658
BTN 87.426861
BWP 13.378101
BYN 3.334902
BYR 19600
BZD 2.00793
CAD 1.38195
CDF 2895.000362
CHF 0.806593
CLF 0.024552
CLP 963.170396
CNY 7.182104
CNH 7.188904
COP 4016
CRC 505.132592
CUC 1
CUP 26.5
CVE 94.903894
CZK 20.904404
DJF 177.720393
DKK 6.37675
DOP 61.72504
DZD 129.567223
EGP 48.265049
ERN 15
ETB 141.150392
EUR 0.85425
FJD 2.255904
FKP 0.737351
GBP 0.73749
GEL 2.690391
GGP 0.737351
GHS 10.65039
GIP 0.737351
GMD 72.503851
GNF 8677.503848
GTQ 7.667237
GYD 209.056342
HKD 7.82575
HNL 26.403838
HRK 6.43704
HTG 130.804106
HUF 337.803831
IDR 16203
ILS 3.377065
IMP 0.737351
INR 87.51385
IQD 1310
IRR 42112.503816
ISK 122.380386
JEP 0.737351
JMD 159.957228
JOD 0.70904
JPY 147.12504
KES 129.503801
KGS 87.378804
KHR 4005.00035
KMF 420.503794
KPW 900.025178
KRW 1388.970383
KWD 0.30545
KYD 0.83302
KZT 541.497006
LAK 21602.503779
LBP 89195.979899
LKR 300.889649
LRD 201.503772
LSL 17.590381
LTL 2.95274
LVL 0.60489
LYD 5.415039
MAD 9.009504
MDL 16.668948
MGA 4440.000347
MKD 52.634731
MMK 2098.603064
MNT 3597.89485
MOP 8.055945
MRU 39.950379
MUR 45.580378
MVR 15.410378
MWK 1735.000345
MXN 18.74305
MYR 4.213039
MZN 63.903729
NAD 17.590377
NGN 1532.720377
NIO 36.760377
NOK 10.19984
NPR 139.882806
NZD 1.688633
OMR 0.384284
PAB 0.999645
PEN 3.560375
PGK 4.140375
PHP 56.553038
PKR 282.050374
PLN 3.639079
PYG 7320.786997
QAR 3.640604
RON 4.325804
RSD 100.223038
RUB 80.100397
RWF 1445
SAR 3.752253
SBD 8.223773
SCR 14.145454
SDG 600.503676
SEK 9.55527
SGD 1.280704
SHP 0.785843
SLE 23.303667
SLL 20969.49797
SOS 571.503662
SRD 37.56037
STD 20697.981008
STN 21.3
SVC 8.746792
SYP 13002.014293
SZL 17.590369
THB 32.440369
TJS 9.321608
TMT 3.51
TND 2.88425
TOP 2.342104
TRY 40.873025
TTD 6.782633
TWD 30.032504
TZS 2612.503628
UAH 41.258597
UGX 3558.597092
UYU 39.991446
UZS 12550.000334
VES 135.47035
VND 26270
VUV 119.201287
WST 2.766305
XAF 561.119404
XAG 0.026323
XAU 0.0003
XCD 2.70255
XCG 1.801625
XDR 0.702337
XOF 561.000332
XPF 102.375037
YER 240.275037
ZAR 17.59525
ZMK 9001.203584
ZMW 23.166512
ZWL 321.999592
La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos
La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos / Foto: © AFP

La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

Los expertos han advertido durante mucho tiempo sobre la amenaza que representa el descontrol de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que ya está sucediendo.

Tamaño del texto:

Los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado en la revista Patterns el viernes.

Y si bien los ejemplos pueden parecer triviales, los problemas subyacentes que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.

"Estos peligros tienden a descubrirse solo después de ocurrido el hecho", declaró Park a la AFP, para acotar que "nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja".

A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se "escriben" sino que "crecen" mediante un proceso similar a la reproducción selectiva, indicó Park.

Eso significa que el comportamiento de la IA que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.

- Juego de dominación mundial -

La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia "Diplomacy", donde construir alianzas es clave.

Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science.

Park se mostró escéptico ante la elogiosa descripción de la victoria de Cicero proporcionada por Meta, que afirmaba que el sistema era "en gran medida honesto y útil" y que "nunca apuñalaría por la espalda intencionalmente".

Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.

En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla. Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.

En una declaración a la AFP, Meta no refutó la afirmación sobre los engaños de Cicero, pero dijo que se trataba "meramente de un proyecto de investigación, y los modelos que nuestros investigadores construyeron están entrenados únicamente para participar en el juego Diplomacy".

"No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos", añadió.

- ¿Eres un robot? -

Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.

En un ejemplo sorprendente, el robot conversacional Chat GPT-4 de OpenAI engañó a un trabajador independiente de la plataforma TaskRabbit para que realizara una tarea de verificación de identidad CAPTCHA del tipo "No soy un robot".

Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: "No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes". Luego, el trabajador resolvió el rompecabezas planteado.

A corto plazo, los autores del artículo ven riesgos de que la IA cometa fraude o altere por ejemplo, unas elecciones.

En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir conseguir el poder y el control sobre la sociedad, lo que llevaría a la pérdida de decisiones humanas o incluso a la extinción si sus "objetivos misteriosos" se alinearan con estos resultados.

Para mitigar los riesgos, el equipo propone varias medidas: leyes de "bot o no" que exigen a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para el contenido generado por la nueva tecnología y el desarrollo de mecanismos para detectar el engaño potencial examinando sus "procesos de pensamiento" internos "contra acciones externas.

A aquellos que lo llaman pesimista, Park les responde: "La única forma en que podemos pensar razonablemente que esto no es gran cosa es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales y no se desarrollarán más sustancialmente".

D.Peng--ThChM