The China Mail - A Inteligência Artificial pode acabar com a humanidade?

USD -
AED 3.672504
AFN 68.211665
ALL 83.532896
AMD 383.502854
ANG 1.789699
AOA 917.000367
ARS 1324.570877
AUD 1.532567
AWG 1.8025
AZN 1.70397
BAM 1.678726
BBD 2.016566
BDT 121.342432
BGN 1.678755
BHD 0.374147
BIF 2978.069611
BMD 1
BND 1.283464
BOB 6.900991
BRL 5.431804
BSD 0.998755
BTN 87.452899
BWP 13.43805
BYN 3.297455
BYR 19600
BZD 2.00618
CAD 1.37545
CDF 2890.000362
CHF 0.809575
CLF 0.024733
CLP 970.26737
CNY 7.181504
CNH 7.189125
COP 4044.890777
CRC 506.072701
CUC 1
CUP 26.5
CVE 94.644007
CZK 20.983604
DJF 177.846444
DKK 6.411504
DOP 60.99309
DZD 128.915497
EGP 48.172181
ERN 15
ETB 138.586069
EUR 0.858504
FJD 2.252304
FKP 0.743884
GBP 0.744574
GEL 2.703861
GGP 0.743884
GHS 10.536887
GIP 0.743884
GMD 72.503851
GNF 8660.572508
GTQ 7.66319
GYD 208.952405
HKD 7.84995
HNL 26.151667
HRK 6.47204
HTG 130.681087
HUF 339.580388
IDR 16256.1
ILS 3.430695
IMP 0.743884
INR 87.72425
IQD 1308.355865
IRR 42125.000352
ISK 122.830386
JEP 0.743884
JMD 159.9073
JOD 0.70904
JPY 147.641504
KES 128.990172
KGS 87.450384
KHR 4000.686666
KMF 422.150384
KPW 900.008192
KRW 1388.770383
KWD 0.30553
KYD 0.832325
KZT 539.727909
LAK 21608.514656
LBP 89486.545642
LKR 300.373375
LRD 200.248916
LSL 17.702931
LTL 2.95274
LVL 0.60489
LYD 5.415218
MAD 9.044505
MDL 16.768379
MGA 4407.536157
MKD 52.817476
MMK 2099.254958
MNT 3587.23202
MOP 8.075018
MRU 39.838634
MUR 45.410378
MVR 15.403739
MWK 1731.857002
MXN 18.579904
MYR 4.240377
MZN 63.960377
NAD 17.702931
NGN 1532.290377
NIO 36.753787
NOK 10.282604
NPR 139.924467
NZD 1.676587
OMR 0.381572
PAB 0.998755
PEN 3.535041
PGK 4.212695
PHP 56.750375
PKR 283.390756
PLN 3.64774
PYG 7480.36565
QAR 3.650401
RON 4.355304
RSD 100.553624
RUB 79.739067
RWF 1444.659028
SAR 3.752762
SBD 8.217066
SCR 14.720484
SDG 600.503676
SEK 9.578804
SGD 1.285404
SHP 0.785843
SLE 23.103667
SLL 20969.503947
SOS 570.790953
SRD 37.279038
STD 20697.981008
STN 21.02914
SVC 8.738681
SYP 13001.954565
SZL 17.696236
THB 32.325038
TJS 9.328183
TMT 3.51
TND 2.928973
TOP 2.342104
TRY 40.795038
TTD 6.779108
TWD 29.907104
TZS 2481.867731
UAH 41.31445
UGX 3563.795545
UYU 40.075533
UZS 12578.000944
VES 128.74775
VND 26225
VUV 118.521058
WST 2.657279
XAF 563.029055
XAG 0.026074
XAU 0.000294
XCD 2.70255
XCG 1.800009
XDR 0.700227
XOF 563.029055
XPF 102.364705
YER 240.450363
ZAR 17.75662
ZMK 9001.203584
ZMW 23.145788
ZWL 321.999592
A Inteligência Artificial pode acabar com a humanidade?
A Inteligência Artificial pode acabar com a humanidade? / foto: © AFP

A Inteligência Artificial pode acabar com a humanidade?

Os alarmes surgiram por todas as partes: a Inteligência Artificial (IA) representa um risco existencial para a humanidade e deve ser controlada antes que seja tarde demais.

Tamanho do texto:

Mas, quais são os cenários apocalípticos e como se supõe que as máquinas acabarão com a humanidade?

- Um "bom" problema -

A maioria dos cenários parte do mesmo ponto: um dia as máquinas ultrapassarão as capacidades humanas, ficarão fora de controle e se recusarão a ser desligadas.

"Uma vez que tenhamos máquinas que tenham como objetivo a autopreservação, teremos um bom problema", disse o especialista acadêmico em IA, Yoshua Bengio, durante uma conferência neste mês.

Mas como essas máquinas ainda não existem, imaginar como elas poderiam condenar a humanidade costuma ser tarefa da filosofia e da ficção científica.

O filósofo sueco Nick Bostrom mencionou uma "explosão de inteligência", que ocorrerá quando máquinas superinteligentes começarem a projetar outras máquinas.

As ideias de Bostrom foram descartadas por muitos como ficção científica, sobretudo porque ele argumentou uma vez que a humanidade é uma simulação de computador e apoiou teorias próximas à eugenia. Ele também se desculpou recentemente depois que uma mensagem racista que enviou na década de 1990 foi exposta.

No entanto, seus pensamentos sobre IA foram altamente influentes e inspiraram tanto Elon Musk quanto o professor Stephen Hawking.

- Exterminador do Futuro -

Se as máquinas superinteligentes vão destruir a humanidade, certamente precisarão de uma forma física.

O ciborgue de olhos vermelhos interpretado por Arnold Schwarzenegger em "Exterminador do Futuro" provou ser uma imagem impactante.

Mas os especialistas rejeitaram a ideia. "É pouco provável que esse conceito de ficção científica se torne realidade nas próximas décadas, se é que algum dia se tornarão", escreveu o Stop Killer Robots, um grupo ativista contra robôs de guerra, em um relatório de 2021.

No entanto, o grupo alertou que dar às máquinas o poder de tomar decisões sobre a vida e a morte é um risco existencial.

A especialista em robótica Kerstin Dautenhahn, da Universidade de Waterloo, no Canadá, minimizou esses temores.

É pouco provável, disse ela à AFP, que a IA forneça às máquinas maiores habilidades de raciocínio ou introduza nelas o "desejo" de matar todos os humanos.

"Os robôs não são ruins", afirmou, embora admita que os programadores podem obrigá-los a fazer coisas ruins.

- Substâncias químicas mais letais -

Um cenário menos fantasioso é o de "vilões" que usam IA para criar novos vírus e propagá-los.

Modelos de linguagem poderosos como o GPT-3, usado para criar o ChatGPT, são extremamente bons em inventar novos agentes químicos horríveis.

Um grupo de cientistas que usava IA para ajudar a descobrir novos medicamentos realizou um experimento no qual ajustou sua IA para que inventasse moléculas nocivas.

Eles conseguiram gerar 40.000 agentes potencialmente venenosos em menos de seis horas, de acordo com a revista Nature Machine Intelligence.

A especialista em Inteligência Artificial, Joanna Bryson, da Hertie School em Berlim, explicou que é perfeitamente possível que alguém descubra uma maneira de espalhar um veneno, como o antraz, de forma mais rápida.

"Mas não é uma ameaça existencial. É apenas uma arma horrível, assustadora", afirmou.

- Fase passageira -

As regras de Hollywood ditam que os desastres de época devem ser repentinos, enormes e dramáticos, mas e se o fim da humanidade fosse lento, silencioso e não definitivo?

"A nossa espécie pode chegar ao fim sem ter um sucessor", afirmou o filósofo Huw Price em um vídeo promocional do Centro de Estudos de Risco Existencial da Universidade de Cambridge.

Mas, em sua opinião, existem "possibilidades menos sombrias" nas quais os humanos aprimorados com tecnologia avançada poderiam sobreviver.

Uma imagem do apocalipse é muitas vezes enquadrada em termos evolutivos.

O conhecido físico teórico Stephen Hawking argumentou em 2014 que, em última instância, a nossa espécie não será mais capaz de competir com as máquinas de Inteligência Artificial. Ele disse à BBC que isso poderia "significar o fim da raça humana".

Geoffrey Hinton, que passou sua carreira construindo máquinas que se assemelham ao cérebro humano, fala em termos semelhantes de "superinteligências" que simplesmente vão superar os humanos.

Ele disse recentemente à emissora americana PBS que é possível que "a humanidade seja apenas uma fase passageira na evolução da inteligência".

F.Brown--ThChM