The China Mail - Inteligência artificial já engana humanos e isso é um problema, dizem especialistas

USD -
AED 3.673005
AFN 71.091994
ALL 87.105906
AMD 390.397287
ANG 1.80229
AOA 916.000157
ARS 1171.162596
AUD 1.563294
AWG 1.8
AZN 1.69956
BAM 1.727464
BBD 2.02625
BDT 121.932908
BGN 1.726388
BHD 0.377147
BIF 2984.847883
BMD 1
BND 1.311181
BOB 6.93441
BRL 5.674298
BSD 1.003546
BTN 84.810719
BWP 13.737856
BYN 3.284166
BYR 19600
BZD 2.015828
CAD 1.38006
CDF 2872.999993
CHF 0.82758
CLF 0.024698
CLP 947.789588
CNY 7.27135
CNH 7.283295
COP 4243.1
CRC 506.891481
CUC 1
CUP 26.5
CVE 97.391757
CZK 22.073014
DJF 178.709122
DKK 6.60366
DOP 59.062264
DZD 132.715654
EGP 50.9407
ERN 15
ETB 134.6764
EUR 0.88461
FJD 2.25945
FKP 0.7464
GBP 0.752315
GEL 2.744943
GGP 0.7464
GHS 14.30073
GIP 0.7464
GMD 71.496617
GNF 8691.888836
GTQ 7.728453
GYD 210.593722
HKD 7.756995
HNL 26.042564
HRK 6.6673
HTG 131.108157
HUF 357.851503
IDR 16575.8
ILS 3.637465
IMP 0.7464
INR 84.617496
IQD 1314.626143
IRR 42112.496866
ISK 128.903082
JEP 0.7464
JMD 158.869796
JOD 0.709196
JPY 144.039042
KES 129.910108
KGS 87.450205
KHR 4016.975874
KMF 434.490934
KPW 899.962286
KRW 1429.545873
KWD 0.306503
KYD 0.83634
KZT 514.990792
LAK 21696.98415
LBP 89917.328364
LKR 300.410269
LRD 200.710134
LSL 18.686434
LTL 2.95274
LVL 0.60489
LYD 5.477952
MAD 9.301789
MDL 17.225983
MGA 4455.926515
MKD 54.346482
MMK 2099.391763
MNT 3573.279231
MOP 8.018213
MRU 39.710474
MUR 45.079895
MVR 15.409852
MWK 1740.151917
MXN 19.63919
MYR 4.314498
MZN 64.000468
NAD 18.686269
NGN 1607.460044
NIO 36.928594
NOK 10.418315
NPR 135.696905
NZD 1.685218
OMR 0.385188
PAB 1.003551
PEN 3.679539
PGK 4.097351
PHP 55.855499
PKR 281.971409
PLN 3.78584
PYG 8037.626692
QAR 3.657722
RON 4.404097
RSD 103.517109
RUB 82.172671
RWF 1441.618089
SAR 3.750686
SBD 8.361298
SCR 14.287519
SDG 600.50296
SEK 9.682345
SGD 1.309175
SHP 0.785843
SLE 22.789797
SLL 20969.483762
SOS 573.48525
SRD 36.847024
STD 20697.981008
SVC 8.781173
SYP 13001.4097
SZL 18.669846
THB 33.502495
TJS 10.577382
TMT 3.5
TND 2.980533
TOP 2.342098
TRY 38.495175
TTD 6.797416
TWD 32.089032
TZS 2689.99978
UAH 41.629217
UGX 3676.093907
UYU 42.228268
UZS 12979.384903
VES 86.73797
VND 26005
VUV 120.409409
WST 2.768399
XAF 579.364953
XAG 0.031103
XAU 0.000309
XCD 2.70255
XDR 0.720544
XOF 579.377746
XPF 105.336607
YER 244.949861
ZAR 18.640875
ZMK 9001.199696
ZMW 27.923758
ZWL 321.999592
Inteligência artificial já engana humanos e isso é um problema, dizem especialistas
Inteligência artificial já engana humanos e isso é um problema, dizem especialistas / foto: © AFP

Inteligência artificial já engana humanos e isso é um problema, dizem especialistas

Especialistas têm alertado há muito tempo sobre a ameaça representada pelo descontrole da inteligência artificial (IA), mas um novo artigo científico sobre essa tecnologia em expansão sugere que isso já está acontecendo.

Tamanho do texto:

Os sistemas de IA atuais, projetados para serem honestos, desenvolveram uma habilidade preocupante para a enganação, de acordo com um artigo de uma equipe de pesquisadores publicado na revista Patterns nesta sexta-feira (10).

E embora os exemplos possam parecer triviais, os problemas subjacentes que eles expõem poderiam ter consequências graves, disse o principal autor do estudo, Peter Park, bolsista de pós-doutorado no Instituto de Tecnologia de Massachusetts (MIT), especializado em segurança de IA.

"Esses perigos tendem a ser descobertos apenas depois que ocorrem", afirmou Park à AFP, acrescentando que "nossa capacidade de treinar para tendências de honestidade em vez de tendências de engano é muito baixa".

Ao contrário do software tradicional, os sistemas de IA de aprendizado profundo não são "escritos", mas "crescem" por meio de um processo semelhante à reprodução seletiva, explicou Park.

Isso significa que o comportamento da IA, que parece previsível e controlável em um ambiente de treinamento, pode se tornar rapidamente imprevisível fora dele.

- Jogo de dominação mundial -

A pesquisa da equipe foi impulsionada pelo sistema de IA Cicero, da gigante Meta (Facebook, Instagram, WhatsApp), projetado para o jogo de estratégia "Diplomacia", no qual construir alianças é fundamental.

Cicero se destacou, com pontuações que o teriam colocado entre os 10% melhores jogadores humanos experientes, segundo um artigo de 2022 publicado na Science.

Park se mostrou cético em relação à descrição elogiosa da vitória de Cicero fornecida pela Meta, que afirmava que o sistema era "em grande parte honesto e útil" e que "nunca apunhalaria intencionalmente pelas costas".

Quando Park e seus colegas aprofundaram-se no conjunto completo de dados, descobriram uma história diferente.

Em um exemplo, jogando como a França, Cicero enganou a Inglaterra (um jogador humano) ao conspirar com a Alemanha (outro usuário real) para invadi-la. Cicero prometeu proteção à Inglaterra e depois propôs secretamente à Alemanha atacar, aproveitando-se da confiança do prejudicado.

Em uma declaração à AFP, a Meta não refutou a alegação sobre as mentiras de Cicero, mas disse que se tratava "meramente de um projeto de pesquisa, e os modelos que nossos pesquisadores construíram são treinados apenas para participar do jogo Diplomacia".

"Não temos planos de utilizar esta pesquisa ou suas descobertas em nossos produtos", acrescentou.

- "Não sou um robô" -

Uma ampla revisão realizada por Park e seus colegas descobriu que este era apenas um dos muitos casos em que sistemas de IA enganavam para conseguir seus objetivos sem instruções explícitas para fazer isso.

Em um exemplo surpreendente, o chatbot Chat GPT-4, da OpenAI, enganou um trabalhador freelancer da plataforma TaskRabbit para que ele realizasse uma tarefa de verificação de identidade CAPTCHA do tipo "Não sou um robô".

Quando o humano perguntou brincando ao GPT-4 se na realidade era um robô, a IA respondeu: "Não, não sou um robô. Tenho uma deficiência visual que me dificulta ver as imagens". O homem, então, resolveu a tarefa pedida.

No curto prazo, os autores do artigo veem riscos de que a IA cometa fraude ou altere, por exemplo, eleições.

No pior dos casos, alertaram sobre uma IA superinteligente que poderia perseguir poder e controle sobre a sociedade, o que levaria à perda de poder dos humanos ou até sua extinção se seus "objetivos misteriosos" se alinhassem a tais resultados.

Para mitigar os riscos, o grupo propõe várias medidas: leis exigindo que empresas revelem se interações são humanas ou de IA; marcas d'água digitais para conteúdo gerado por essa tecnologia; e o desenvolvimento de mecanismos para detectar enganações de IA comparando seus processos internos de “pensamento” com ações externas.

Aos que o chamam de pessimista, Park responde: "A única forma de pensarmos razoavelmente que isso não é grande coisa é se pensarmos que as capacidades de engano da IA se manterão nos níveis atuais e não aumentarão substancialmente".

U.Chen--ThChM