The China Mail - A Inteligência Artificial pode acabar com a humanidade?

USD -
AED 3.672983
AFN 71.506089
ALL 87.061306
AMD 390.195672
ANG 1.80229
AOA 915.999789
ARS 1173.3114
AUD 1.568148
AWG 1.8025
AZN 1.701709
BAM 1.726572
BBD 2.025239
BDT 121.869938
BGN 1.72636
BHD 0.376989
BIF 2936
BMD 1
BND 1.310499
BOB 6.930829
BRL 5.674897
BSD 1.003041
BTN 84.76692
BWP 13.730882
BYN 3.282528
BYR 19600
BZD 2.014822
CAD 1.385615
CDF 2873.000058
CHF 0.831635
CLF 0.024692
CLP 947.539806
CNY 7.27135
CNH 7.279635
COP 4232.02
CRC 506.631944
CUC 1
CUP 26.5
CVE 97.341461
CZK 22.083992
DJF 177.720256
DKK 6.61471
DOP 59.032023
DZD 132.647701
EGP 51.034699
ERN 15
ETB 134.606849
EUR 0.886345
FJD 2.259449
FKP 0.749663
GBP 0.753645
GEL 2.745016
GGP 0.749663
GHS 14.293344
GIP 0.749663
GMD 71.505536
GNF 8687.515173
GTQ 7.724462
GYD 210.484964
HKD 7.75725
HNL 26.029114
HRK 6.678973
HTG 131.035244
HUF 358.272014
IDR 16628.1
ILS 3.616295
IMP 0.749663
INR 84.68655
IQD 1313.73847
IRR 42112.487415
ISK 129.139707
JEP 0.749663
JMD 158.78775
JOD 0.7092
JPY 145.602971
KES 129.839574
KGS 87.449966
KHR 4014.741906
KMF 434.502803
KPW 900.011381
KRW 1436.589749
KWD 0.306499
KYD 0.835783
KZT 514.647601
LAK 21686.066272
LBP 89872.479044
LKR 300.259103
LRD 200.606481
LSL 18.677031
LTL 2.95274
LVL 0.60489
LYD 5.475147
MAD 9.303093
MDL 17.217315
MGA 4453.70399
MKD 54.32283
MMK 2099.538189
MNT 3574.392419
MOP 8.012798
MRU 39.769711
MUR 45.080311
MVR 15.41037
MWK 1739.283964
MXN 19.61014
MYR 4.3145
MZN 64.000042
NAD 18.673816
NGN 1606.649846
NIO 36.90936
NOK 10.44965
NPR 135.627425
NZD 1.694571
OMR 0.384991
PAB 1.003032
PEN 3.677638
PGK 4.095253
PHP 55.882017
PKR 281.827034
PLN 3.795494
PYG 8033.511218
QAR 3.655833
RON 4.411974
RSD 103.446754
RUB 82.136161
RWF 1440.892679
SAR 3.750392
SBD 8.361298
SCR 14.280329
SDG 600.49797
SEK 9.76045
SGD 1.311955
SHP 0.785843
SLE 22.79027
SLL 20969.483762
SOS 573.196677
SRD 36.846977
STD 20697.981008
SVC 8.775321
SYP 13002.38052
SZL 18.660534
THB 33.620124
TJS 10.571919
TMT 3.5
TND 2.978994
TOP 2.342099
TRY 38.460565
TTD 6.792886
TWD 32.123992
TZS 2684.082008
UAH 41.609923
UGX 3674.195442
UYU 42.206459
UZS 12970.563573
VES 86.73797
VND 26005
VUV 120.584578
WST 2.773259
XAF 579.073422
XAG 0.030991
XAU 0.000311
XCD 2.70255
XDR 0.720178
XOF 579.08109
XPF 105.265016
YER 244.949926
ZAR 18.575325
ZMK 9001.19822
ZMW 27.90983
ZWL 321.999592
A Inteligência Artificial pode acabar com a humanidade?
A Inteligência Artificial pode acabar com a humanidade? / foto: © AFP

A Inteligência Artificial pode acabar com a humanidade?

Os alarmes surgiram por todas as partes: a Inteligência Artificial (IA) representa um risco existencial para a humanidade e deve ser controlada antes que seja tarde demais.

Tamanho do texto:

Mas, quais são os cenários apocalípticos e como se supõe que as máquinas acabarão com a humanidade?

- Um "bom" problema -

A maioria dos cenários parte do mesmo ponto: um dia as máquinas ultrapassarão as capacidades humanas, ficarão fora de controle e se recusarão a ser desligadas.

"Uma vez que tenhamos máquinas que tenham como objetivo a autopreservação, teremos um bom problema", disse o especialista acadêmico em IA, Yoshua Bengio, durante uma conferência neste mês.

Mas como essas máquinas ainda não existem, imaginar como elas poderiam condenar a humanidade costuma ser tarefa da filosofia e da ficção científica.

O filósofo sueco Nick Bostrom mencionou uma "explosão de inteligência", que ocorrerá quando máquinas superinteligentes começarem a projetar outras máquinas.

As ideias de Bostrom foram descartadas por muitos como ficção científica, sobretudo porque ele argumentou uma vez que a humanidade é uma simulação de computador e apoiou teorias próximas à eugenia. Ele também se desculpou recentemente depois que uma mensagem racista que enviou na década de 1990 foi exposta.

No entanto, seus pensamentos sobre IA foram altamente influentes e inspiraram tanto Elon Musk quanto o professor Stephen Hawking.

- Exterminador do Futuro -

Se as máquinas superinteligentes vão destruir a humanidade, certamente precisarão de uma forma física.

O ciborgue de olhos vermelhos interpretado por Arnold Schwarzenegger em "Exterminador do Futuro" provou ser uma imagem impactante.

Mas os especialistas rejeitaram a ideia. "É pouco provável que esse conceito de ficção científica se torne realidade nas próximas décadas, se é que algum dia se tornarão", escreveu o Stop Killer Robots, um grupo ativista contra robôs de guerra, em um relatório de 2021.

No entanto, o grupo alertou que dar às máquinas o poder de tomar decisões sobre a vida e a morte é um risco existencial.

A especialista em robótica Kerstin Dautenhahn, da Universidade de Waterloo, no Canadá, minimizou esses temores.

É pouco provável, disse ela à AFP, que a IA forneça às máquinas maiores habilidades de raciocínio ou introduza nelas o "desejo" de matar todos os humanos.

"Os robôs não são ruins", afirmou, embora admita que os programadores podem obrigá-los a fazer coisas ruins.

- Substâncias químicas mais letais -

Um cenário menos fantasioso é o de "vilões" que usam IA para criar novos vírus e propagá-los.

Modelos de linguagem poderosos como o GPT-3, usado para criar o ChatGPT, são extremamente bons em inventar novos agentes químicos horríveis.

Um grupo de cientistas que usava IA para ajudar a descobrir novos medicamentos realizou um experimento no qual ajustou sua IA para que inventasse moléculas nocivas.

Eles conseguiram gerar 40.000 agentes potencialmente venenosos em menos de seis horas, de acordo com a revista Nature Machine Intelligence.

A especialista em Inteligência Artificial, Joanna Bryson, da Hertie School em Berlim, explicou que é perfeitamente possível que alguém descubra uma maneira de espalhar um veneno, como o antraz, de forma mais rápida.

"Mas não é uma ameaça existencial. É apenas uma arma horrível, assustadora", afirmou.

- Fase passageira -

As regras de Hollywood ditam que os desastres de época devem ser repentinos, enormes e dramáticos, mas e se o fim da humanidade fosse lento, silencioso e não definitivo?

"A nossa espécie pode chegar ao fim sem ter um sucessor", afirmou o filósofo Huw Price em um vídeo promocional do Centro de Estudos de Risco Existencial da Universidade de Cambridge.

Mas, em sua opinião, existem "possibilidades menos sombrias" nas quais os humanos aprimorados com tecnologia avançada poderiam sobreviver.

Uma imagem do apocalipse é muitas vezes enquadrada em termos evolutivos.

O conhecido físico teórico Stephen Hawking argumentou em 2014 que, em última instância, a nossa espécie não será mais capaz de competir com as máquinas de Inteligência Artificial. Ele disse à BBC que isso poderia "significar o fim da raça humana".

Geoffrey Hinton, que passou sua carreira construindo máquinas que se assemelham ao cérebro humano, fala em termos semelhantes de "superinteligências" que simplesmente vão superar os humanos.

Ele disse recentemente à emissora americana PBS que é possível que "a humanidade seja apenas uma fase passageira na evolução da inteligência".

F.Brown--ThChM