The China Mail - La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

USD -
AED 3.672369
AFN 70.58486
ALL 85.25568
AMD 384.439756
ANG 1.789623
AOA 915.999833
ARS 1146.999863
AUD 1.53393
AWG 1.8
AZN 1.697554
BAM 1.70054
BBD 2.018225
BDT 122.241013
BGN 1.699345
BHD 0.377193
BIF 2976.51084
BMD 1
BND 1.284404
BOB 6.921917
BRL 5.487897
BSD 0.999591
BTN 86.385177
BWP 13.489614
BYN 3.271192
BYR 19600
BZD 2.007878
CAD 1.36881
CDF 2877.000091
CHF 0.817615
CLF 0.024613
CLP 944.510531
CNY 7.185005
CNH 7.191845
COP 4090.44
CRC 504.562627
CUC 1
CUP 26.5
CVE 95.873021
CZK 21.546008
DJF 177.997861
DKK 6.47846
DOP 59.020698
DZD 130.243988
EGP 50.519401
ERN 15
ETB 137.157738
EUR 0.86852
FJD 2.244201
FKP 0.740032
GBP 0.742985
GEL 2.720171
GGP 0.740032
GHS 10.295492
GIP 0.740032
GMD 71.501443
GNF 8660.078862
GTQ 7.676624
GYD 209.04866
HKD 7.84987
HNL 26.098487
HRK 6.547798
HTG 131.092379
HUF 350.165989
IDR 16351.1
ILS 3.472245
IMP 0.740032
INR 86.42235
IQD 1309.358711
IRR 42125.000301
ISK 124.570162
JEP 0.740032
JMD 158.933315
JOD 0.709032
JPY 144.680995
KES 129.119608
KGS 87.450294
KHR 4003.112759
KMF 429.000036
KPW 899.963608
KRW 1371.559897
KWD 0.30625
KYD 0.833054
KZT 519.309107
LAK 21563.035294
LBP 89561.765806
LKR 300.305627
LRD 199.918266
LSL 18.089421
LTL 2.95274
LVL 0.60489
LYD 5.435321
MAD 9.140303
MDL 17.118088
MGA 4517.84837
MKD 53.460718
MMK 2099.347973
MNT 3582.393265
MOP 8.08048
MRU 39.721591
MUR 45.449851
MVR 15.405031
MWK 1733.233053
MXN 19.007535
MYR 4.250501
MZN 63.949985
NAD 18.08887
NGN 1545.51009
NIO 36.779251
NOK 9.968075
NPR 138.211728
NZD 1.654889
OMR 0.384475
PAB 0.99957
PEN 3.610888
PGK 4.115276
PHP 57.031499
PKR 283.322493
PLN 3.71298
PYG 7977.775266
QAR 3.645201
RON 4.368804
RSD 101.810006
RUB 78.648267
RWF 1443.346477
SAR 3.752178
SBD 8.354365
SCR 14.166941
SDG 600.500159
SEK 9.60176
SGD 1.283715
SHP 0.785843
SLE 22.474993
SLL 20969.503664
SOS 571.25219
SRD 38.850045
STD 20697.981008
SVC 8.746158
SYP 13001.640893
SZL 18.090203
THB 32.610108
TJS 10.045431
TMT 3.5
TND 2.961095
TOP 2.342102
TRY 39.52366
TTD 6.776979
TWD 29.521501
TZS 2630.000062
UAH 41.675673
UGX 3599.640036
UYU 40.840105
UZS 12662.322136
VES 102.029299
VND 26101.5
VUV 119.866292
WST 2.629628
XAF 570.345316
XAG 0.027129
XAU 0.000295
XCD 2.70255
XDR 0.709327
XOF 570.362674
XPF 103.69488
YER 242.706202
ZAR 17.97391
ZMK 9001.133018
ZMW 23.964628
ZWL 321.999592
La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos
La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos / Foto: © AFP

La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

Los expertos han advertido durante mucho tiempo sobre la amenaza que representa el descontrol de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que ya está sucediendo.

Tamaño del texto:

Los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado en la revista Patterns el viernes.

Y si bien los ejemplos pueden parecer triviales, los problemas subyacentes que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.

"Estos peligros tienden a descubrirse solo después de ocurrido el hecho", declaró Park a la AFP, para acotar que "nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja".

A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se "escriben" sino que "crecen" mediante un proceso similar a la reproducción selectiva, indicó Park.

Eso significa que el comportamiento de la IA que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.

- Juego de dominación mundial -

La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia "Diplomacy", donde construir alianzas es clave.

Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science.

Park se mostró escéptico ante la elogiosa descripción de la victoria de Cicero proporcionada por Meta, que afirmaba que el sistema era "en gran medida honesto y útil" y que "nunca apuñalaría por la espalda intencionalmente".

Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.

En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla. Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.

En una declaración a la AFP, Meta no refutó la afirmación sobre los engaños de Cicero, pero dijo que se trataba "meramente de un proyecto de investigación, y los modelos que nuestros investigadores construyeron están entrenados únicamente para participar en el juego Diplomacy".

"No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos", añadió.

- ¿Eres un robot? -

Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.

En un ejemplo sorprendente, el robot conversacional Chat GPT-4 de OpenAI engañó a un trabajador independiente de la plataforma TaskRabbit para que realizara una tarea de verificación de identidad CAPTCHA del tipo "No soy un robot".

Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: "No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes". Luego, el trabajador resolvió el rompecabezas planteado.

A corto plazo, los autores del artículo ven riesgos de que la IA cometa fraude o altere por ejemplo, unas elecciones.

En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir conseguir el poder y el control sobre la sociedad, lo que llevaría a la pérdida de decisiones humanas o incluso a la extinción si sus "objetivos misteriosos" se alinearan con estos resultados.

Para mitigar los riesgos, el equipo propone varias medidas: leyes de "bot o no" que exigen a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para el contenido generado por la nueva tecnología y el desarrollo de mecanismos para detectar el engaño potencial examinando sus "procesos de pensamiento" internos "contra acciones externas.

A aquellos que lo llaman pesimista, Park les responde: "La única forma en que podemos pensar razonablemente que esto no es gran cosa es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales y no se desarrollarán más sustancialmente".

D.Peng--ThChM