The China Mail - Inteligência artificial já engana humanos e isso é um problema, dizem especialistas

USD -
AED 3.672535
AFN 70.497632
ALL 85.297857
AMD 383.759759
ANG 1.789623
AOA 917.000241
ARS 1182.244905
AUD 1.531253
AWG 1.8025
AZN 1.699831
BAM 1.688822
BBD 2.018142
BDT 122.249135
BGN 1.691255
BHD 0.377078
BIF 2942
BMD 1
BND 1.27971
BOB 6.921831
BRL 5.492802
BSD 0.999486
BTN 85.958163
BWP 13.345422
BYN 3.271062
BYR 19600
BZD 2.007728
CAD 1.357815
CDF 2877.000014
CHF 0.813696
CLF 0.024399
CLP 936.298835
CNY 7.17975
CNH 7.181295
COP 4100.5
CRC 503.844676
CUC 1
CUP 26.5
CVE 95.624998
CZK 21.458964
DJF 177.719494
DKK 6.45345
DOP 59.249829
DZD 130.201989
EGP 50.217601
ERN 15
ETB 134.296802
EUR 0.86526
FJD 2.24075
FKP 0.735417
GBP 0.73716
GEL 2.72501
GGP 0.735417
GHS 10.274996
GIP 0.735417
GMD 71.501
GNF 8655.999827
GTQ 7.681581
GYD 209.114263
HKD 7.84964
HNL 26.149742
HRK 6.519499
HTG 130.801014
HUF 347.946502
IDR 16271.2
ILS 3.50085
IMP 0.735417
INR 86.086503
IQD 1310
IRR 42109.999907
ISK 124.239985
JEP 0.735417
JMD 159.534737
JOD 0.709017
JPY 144.787051
KES 129.19855
KGS 87.450009
KHR 4019.999763
KMF 425.499483
KPW 900.005137
KRW 1362.389917
KWD 0.30603
KYD 0.832934
KZT 512.565895
LAK 21677.502829
LBP 89600.000374
LKR 300.951131
LRD 199.650259
LSL 17.820162
LTL 2.95274
LVL 0.60489
LYD 5.425002
MAD 9.122495
MDL 17.092157
MGA 4434.999787
MKD 53.255616
MMK 2098.952839
MNT 3582.467491
MOP 8.081774
MRU 39.669888
MUR 45.398309
MVR 15.405013
MWK 1736.000133
MXN 18.936903
MYR 4.241503
MZN 63.949763
NAD 17.819783
NGN 1543.549863
NIO 36.304652
NOK 9.909735
NPR 137.533407
NZD 1.649501
OMR 0.384495
PAB 0.999503
PEN 3.602499
PGK 4.1219
PHP 56.652498
PKR 283.102594
PLN 3.69776
PYG 7973.439139
QAR 3.640499
RON 4.3456
RSD 101.434165
RUB 78.500361
RWF 1425
SAR 3.751806
SBD 8.347391
SCR 14.673619
SDG 600.498295
SEK 9.486805
SGD 1.281225
SHP 0.785843
SLE 22.224972
SLL 20969.503664
SOS 571.497429
SRD 38.740987
STD 20697.981008
SVC 8.745774
SYP 13001.896779
SZL 17.819934
THB 32.501154
TJS 10.125468
TMT 3.5
TND 2.922499
TOP 2.3421
TRY 39.379199
TTD 6.785398
TWD 29.451503
TZS 2589.181949
UAH 41.557366
UGX 3603.362447
UYU 40.870605
UZS 12730.000048
VES 102.167008
VND 26060
VUV 119.91429
WST 2.751779
XAF 566.420137
XAG 0.02744
XAU 0.000295
XCD 2.70255
XDR 0.70726
XOF 564.999778
XPF 103.593826
YER 242.949872
ZAR 17.827017
ZMK 9001.202368
ZMW 24.238499
ZWL 321.999592
Inteligência artificial já engana humanos e isso é um problema, dizem especialistas
Inteligência artificial já engana humanos e isso é um problema, dizem especialistas / foto: © AFP

Inteligência artificial já engana humanos e isso é um problema, dizem especialistas

Especialistas têm alertado há muito tempo sobre a ameaça representada pelo descontrole da inteligência artificial (IA), mas um novo artigo científico sobre essa tecnologia em expansão sugere que isso já está acontecendo.

Tamanho do texto:

Os sistemas de IA atuais, projetados para serem honestos, desenvolveram uma habilidade preocupante para a enganação, de acordo com um artigo de uma equipe de pesquisadores publicado na revista Patterns nesta sexta-feira (10).

E embora os exemplos possam parecer triviais, os problemas subjacentes que eles expõem poderiam ter consequências graves, disse o principal autor do estudo, Peter Park, bolsista de pós-doutorado no Instituto de Tecnologia de Massachusetts (MIT), especializado em segurança de IA.

"Esses perigos tendem a ser descobertos apenas depois que ocorrem", afirmou Park à AFP, acrescentando que "nossa capacidade de treinar para tendências de honestidade em vez de tendências de engano é muito baixa".

Ao contrário do software tradicional, os sistemas de IA de aprendizado profundo não são "escritos", mas "crescem" por meio de um processo semelhante à reprodução seletiva, explicou Park.

Isso significa que o comportamento da IA, que parece previsível e controlável em um ambiente de treinamento, pode se tornar rapidamente imprevisível fora dele.

- Jogo de dominação mundial -

A pesquisa da equipe foi impulsionada pelo sistema de IA Cicero, da gigante Meta (Facebook, Instagram, WhatsApp), projetado para o jogo de estratégia "Diplomacia", no qual construir alianças é fundamental.

Cicero se destacou, com pontuações que o teriam colocado entre os 10% melhores jogadores humanos experientes, segundo um artigo de 2022 publicado na Science.

Park se mostrou cético em relação à descrição elogiosa da vitória de Cicero fornecida pela Meta, que afirmava que o sistema era "em grande parte honesto e útil" e que "nunca apunhalaria intencionalmente pelas costas".

Quando Park e seus colegas aprofundaram-se no conjunto completo de dados, descobriram uma história diferente.

Em um exemplo, jogando como a França, Cicero enganou a Inglaterra (um jogador humano) ao conspirar com a Alemanha (outro usuário real) para invadi-la. Cicero prometeu proteção à Inglaterra e depois propôs secretamente à Alemanha atacar, aproveitando-se da confiança do prejudicado.

Em uma declaração à AFP, a Meta não refutou a alegação sobre as mentiras de Cicero, mas disse que se tratava "meramente de um projeto de pesquisa, e os modelos que nossos pesquisadores construíram são treinados apenas para participar do jogo Diplomacia".

"Não temos planos de utilizar esta pesquisa ou suas descobertas em nossos produtos", acrescentou.

- "Não sou um robô" -

Uma ampla revisão realizada por Park e seus colegas descobriu que este era apenas um dos muitos casos em que sistemas de IA enganavam para conseguir seus objetivos sem instruções explícitas para fazer isso.

Em um exemplo surpreendente, o chatbot Chat GPT-4, da OpenAI, enganou um trabalhador freelancer da plataforma TaskRabbit para que ele realizasse uma tarefa de verificação de identidade CAPTCHA do tipo "Não sou um robô".

Quando o humano perguntou brincando ao GPT-4 se na realidade era um robô, a IA respondeu: "Não, não sou um robô. Tenho uma deficiência visual que me dificulta ver as imagens". O homem, então, resolveu a tarefa pedida.

No curto prazo, os autores do artigo veem riscos de que a IA cometa fraude ou altere, por exemplo, eleições.

No pior dos casos, alertaram sobre uma IA superinteligente que poderia perseguir poder e controle sobre a sociedade, o que levaria à perda de poder dos humanos ou até sua extinção se seus "objetivos misteriosos" se alinhassem a tais resultados.

Para mitigar os riscos, o grupo propõe várias medidas: leis exigindo que empresas revelem se interações são humanas ou de IA; marcas d'água digitais para conteúdo gerado por essa tecnologia; e o desenvolvimento de mecanismos para detectar enganações de IA comparando seus processos internos de “pensamento” com ações externas.

Aos que o chamam de pessimista, Park responde: "A única forma de pensarmos razoavelmente que isso não é grande coisa é se pensarmos que as capacidades de engano da IA se manterão nos níveis atuais e não aumentarão substancialmente".

U.Chen--ThChM