The China Mail - Inteligência artificial já engana humanos e isso é um problema, dizem especialistas

USD -
AED 3.67301
AFN 68.51398
ALL 83.807522
AMD 382.768112
ANG 1.789699
AOA 916.999747
ARS 1339.169216
AUD 1.537645
AWG 1.8025
AZN 1.709134
BAM 1.684894
BBD 2.018979
BDT 121.693509
BGN 1.686785
BHD 0.376981
BIF 2981.344521
BMD 1
BND 1.286457
BOB 6.924982
BRL 5.506599
BSD 0.999927
BTN 87.794309
BWP 13.488635
BYN 3.291393
BYR 19600
BZD 2.008606
CAD 1.375925
CDF 2889.999766
CHF 0.807271
CLF 0.024792
CLP 972.850131
CNY 7.184098
CNH 7.189845
COP 4090.5
CRC 506.308394
CUC 1
CUP 26.5
CVE 94.991751
CZK 21.171603
DJF 178.07989
DKK 6.430806
DOP 60.855369
DZD 130.101614
EGP 48.446964
ERN 15
ETB 138.983911
EUR 0.86173
FJD 2.257398
FKP 0.751467
GBP 0.75126
GEL 2.699887
GGP 0.751467
GHS 10.550303
GIP 0.751467
GMD 72.499774
GNF 8672.579332
GTQ 7.673256
GYD 209.215871
HKD 7.849899
HNL 26.283076
HRK 6.491799
HTG 131.221544
HUF 343.235013
IDR 16358.2
ILS 3.45049
IMP 0.751467
INR 87.71955
IQD 1309.975577
IRR 42125.000234
ISK 123.069893
JEP 0.751467
JMD 159.805649
JOD 0.708981
JPY 147.561502
KES 129.399803
KGS 87.449897
KHR 4006.116867
KMF 425.501611
KPW 899.94784
KRW 1388.349984
KWD 0.30567
KYD 0.833337
KZT 537.310733
LAK 21634.754141
LBP 89600.034461
LKR 300.839518
LRD 200.498813
LSL 17.814496
LTL 2.95274
LVL 0.60489
LYD 5.442007
MAD 9.071533
MDL 16.984635
MGA 4423.844825
MKD 53.007232
MMK 2099.311056
MNT 3591.43546
MOP 8.085189
MRU 39.887662
MUR 45.62983
MVR 15.400888
MWK 1734.017394
MXN 18.73572
MYR 4.229753
MZN 63.959873
NAD 17.814496
NGN 1531.340302
NIO 36.794066
NOK 10.21322
NPR 140.468735
NZD 1.686227
OMR 0.384505
PAB 0.999978
PEN 3.555783
PGK 4.152362
PHP 57.504501
PKR 283.935354
PLN 3.686952
PYG 7489.759085
QAR 3.64555
RON 4.374396
RSD 100.963009
RUB 80.175377
RWF 1446.522187
SAR 3.752443
SBD 8.244163
SCR 14.729838
SDG 600.502384
SEK 9.64784
SGD 1.286475
SHP 0.785843
SLE 23.09859
SLL 20969.503947
SOS 571.524568
SRD 36.969498
STD 20697.981008
STN 21.106406
SVC 8.749252
SYP 13001.372255
SZL 17.811223
THB 32.3735
TJS 9.350099
TMT 3.51
TND 2.94723
TOP 2.3421
TRY 40.659755
TTD 6.779208
TWD 29.944295
TZS 2465.000449
UAH 41.60133
UGX 3569.997889
UYU 40.128017
UZS 12524.283136
VES 126.950815
VND 26225
VUV 119.124121
WST 2.771506
XAF 565.126968
XAG 0.026449
XAU 0.000297
XCD 2.70255
XCG 1.802143
XDR 0.704914
XOF 565.097757
XPF 102.740818
YER 240.349854
ZAR 17.81423
ZMK 9001.203975
ZMW 23.025264
ZWL 321.999592
Inteligência artificial já engana humanos e isso é um problema, dizem especialistas
Inteligência artificial já engana humanos e isso é um problema, dizem especialistas / foto: © AFP

Inteligência artificial já engana humanos e isso é um problema, dizem especialistas

Especialistas têm alertado há muito tempo sobre a ameaça representada pelo descontrole da inteligência artificial (IA), mas um novo artigo científico sobre essa tecnologia em expansão sugere que isso já está acontecendo.

Tamanho do texto:

Os sistemas de IA atuais, projetados para serem honestos, desenvolveram uma habilidade preocupante para a enganação, de acordo com um artigo de uma equipe de pesquisadores publicado na revista Patterns nesta sexta-feira (10).

E embora os exemplos possam parecer triviais, os problemas subjacentes que eles expõem poderiam ter consequências graves, disse o principal autor do estudo, Peter Park, bolsista de pós-doutorado no Instituto de Tecnologia de Massachusetts (MIT), especializado em segurança de IA.

"Esses perigos tendem a ser descobertos apenas depois que ocorrem", afirmou Park à AFP, acrescentando que "nossa capacidade de treinar para tendências de honestidade em vez de tendências de engano é muito baixa".

Ao contrário do software tradicional, os sistemas de IA de aprendizado profundo não são "escritos", mas "crescem" por meio de um processo semelhante à reprodução seletiva, explicou Park.

Isso significa que o comportamento da IA, que parece previsível e controlável em um ambiente de treinamento, pode se tornar rapidamente imprevisível fora dele.

- Jogo de dominação mundial -

A pesquisa da equipe foi impulsionada pelo sistema de IA Cicero, da gigante Meta (Facebook, Instagram, WhatsApp), projetado para o jogo de estratégia "Diplomacia", no qual construir alianças é fundamental.

Cicero se destacou, com pontuações que o teriam colocado entre os 10% melhores jogadores humanos experientes, segundo um artigo de 2022 publicado na Science.

Park se mostrou cético em relação à descrição elogiosa da vitória de Cicero fornecida pela Meta, que afirmava que o sistema era "em grande parte honesto e útil" e que "nunca apunhalaria intencionalmente pelas costas".

Quando Park e seus colegas aprofundaram-se no conjunto completo de dados, descobriram uma história diferente.

Em um exemplo, jogando como a França, Cicero enganou a Inglaterra (um jogador humano) ao conspirar com a Alemanha (outro usuário real) para invadi-la. Cicero prometeu proteção à Inglaterra e depois propôs secretamente à Alemanha atacar, aproveitando-se da confiança do prejudicado.

Em uma declaração à AFP, a Meta não refutou a alegação sobre as mentiras de Cicero, mas disse que se tratava "meramente de um projeto de pesquisa, e os modelos que nossos pesquisadores construíram são treinados apenas para participar do jogo Diplomacia".

"Não temos planos de utilizar esta pesquisa ou suas descobertas em nossos produtos", acrescentou.

- "Não sou um robô" -

Uma ampla revisão realizada por Park e seus colegas descobriu que este era apenas um dos muitos casos em que sistemas de IA enganavam para conseguir seus objetivos sem instruções explícitas para fazer isso.

Em um exemplo surpreendente, o chatbot Chat GPT-4, da OpenAI, enganou um trabalhador freelancer da plataforma TaskRabbit para que ele realizasse uma tarefa de verificação de identidade CAPTCHA do tipo "Não sou um robô".

Quando o humano perguntou brincando ao GPT-4 se na realidade era um robô, a IA respondeu: "Não, não sou um robô. Tenho uma deficiência visual que me dificulta ver as imagens". O homem, então, resolveu a tarefa pedida.

No curto prazo, os autores do artigo veem riscos de que a IA cometa fraude ou altere, por exemplo, eleições.

No pior dos casos, alertaram sobre uma IA superinteligente que poderia perseguir poder e controle sobre a sociedade, o que levaria à perda de poder dos humanos ou até sua extinção se seus "objetivos misteriosos" se alinhassem a tais resultados.

Para mitigar os riscos, o grupo propõe várias medidas: leis exigindo que empresas revelem se interações são humanas ou de IA; marcas d'água digitais para conteúdo gerado por essa tecnologia; e o desenvolvimento de mecanismos para detectar enganações de IA comparando seus processos internos de “pensamento” com ações externas.

Aos que o chamam de pessimista, Park responde: "A única forma de pensarmos razoavelmente que isso não é grande coisa é se pensarmos que as capacidades de engano da IA se manterão nos níveis atuais e não aumentarão substancialmente".

U.Chen--ThChM