The China Mail - Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

USD -
AED 3.672503
AFN 66.40135
ALL 83.577028
AMD 382.730415
ANG 1.789982
AOA 916.99937
ARS 1419.988799
AUD 1.530421
AWG 1.8075
AZN 1.726725
BAM 1.692008
BBD 2.014958
BDT 122.146716
BGN 1.69191
BHD 0.377032
BIF 2946.886653
BMD 1
BND 1.303554
BOB 6.938286
BRL 5.291202
BSD 1.000502
BTN 88.679433
BWP 13.388763
BYN 3.410355
BYR 19600
BZD 2.012017
CAD 1.402295
CDF 2147.999849
CHF 0.805055
CLF 0.023909
CLP 937.9395
CNY 7.11965
CNH 7.121415
COP 3753.72
CRC 502.320833
CUC 1
CUP 26.5
CVE 95.624995
CZK 21.0116
DJF 178.159229
DKK 6.45983
DOP 64.249724
DZD 130.504961
EGP 47.259948
ERN 15
ETB 153.632223
EUR 0.865203
FJD 2.278987
FKP 0.760102
GBP 0.759075
GEL 2.705032
GGP 0.760102
GHS 10.944671
GIP 0.760102
GMD 73.000141
GNF 8684.668161
GTQ 7.66845
GYD 209.299207
HKD 7.773945
HNL 26.322961
HRK 6.519401
HTG 130.986988
HUF 331.919547
IDR 16697
ILS 3.23525
IMP 0.760102
INR 88.70745
IQD 1310.523812
IRR 42099.999792
ISK 126.480273
JEP 0.760102
JMD 161.038579
JOD 0.709009
JPY 154.139018
KES 129.213757
KGS 87.45037
KHR 4015.000267
KMF 420.999761
KPW 900.001961
KRW 1456.179725
KWD 0.30709
KYD 0.833687
KZT 524.097063
LAK 21722.392837
LBP 89583.978546
LKR 304.200009
LRD 183.077329
LSL 17.192699
LTL 2.95274
LVL 0.60489
LYD 5.459328
MAD 9.261661
MDL 16.981703
MGA 4494.683382
MKD 53.222318
MMK 2099.688142
MNT 3580.599313
MOP 8.009828
MRU 39.728682
MUR 45.860477
MVR 15.404997
MWK 1734.887222
MXN 18.379596
MYR 4.163022
MZN 63.959822
NAD 17.192699
NGN 1436.610157
NIO 36.813372
NOK 10.130996
NPR 141.895686
NZD 1.771746
OMR 0.384498
PAB 1.000428
PEN 3.376575
PGK 4.223805
PHP 58.970405
PKR 282.888599
PLN 3.66405
PYG 7087.087607
QAR 3.64632
RON 4.399041
RSD 101.391977
RUB 81.250681
RWF 1454.218254
SAR 3.750503
SBD 8.230592
SCR 13.741165
SDG 600.494403
SEK 9.513475
SGD 1.302425
SHP 0.750259
SLE 23.236536
SLL 20969.499529
SOS 570.768552
SRD 38.496504
STD 20697.981008
STN 21.196889
SVC 8.752974
SYP 11056.839565
SZL 17.189528
THB 32.349855
TJS 9.26848
TMT 3.51
TND 2.953357
TOP 2.342104
TRY 42.238603
TTD 6.785761
TWD 30.9811
TZS 2455.599549
UAH 42.069631
UGX 3511.534252
UYU 39.804309
UZS 12020.018946
VES 228.194043
VND 26300
VUV 122.518583
WST 2.820889
XAF 567.53013
XAG 0.019786
XAU 0.000243
XCD 2.70255
XCG 1.802933
XDR 0.705825
XOF 567.52522
XPF 103.174569
YER 238.530785
ZAR 17.144055
ZMK 9001.208506
ZMW 22.634213
ZWL 321.999592
  • AEX

    10.2700

    961.08

    +1.08%

  • BEL20

    58.4800

    4972.78

    +1.19%

  • PX1

    104.9500

    8055.51

    +1.32%

  • ISEQ

    282.2900

    12294.83

    +2.35%

  • OSEBX

    7.8400

    1607.11

    +0.49%

  • PSI20

    127.7200

    8314.75

    +1.56%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    87.5100

    4157.61

    +2.15%

  • N150

    53.2000

    3672.19

    +1.47%

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus
Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus / Photo: © GETTY IMAGES NORTH AMERICA/AFP

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

Le spécialiste de l'intelligence artificielle (IA) Gary Marcus a passé ces derniers mois à alerter ses pairs, les élus et le public au sujet des risques liés au développement et à l'adoption ultra-rapide des nouveaux outils d'IA. Mais le danger d'extinction de l'humanité est "exagéré", a-t-il déclaré à l'AFP lors d'un entretien à San Francisco.

Taille du texte:

"Personnellement, et pour l'instant, je ne suis pas très inquiet à ce sujet, parce que les scénarios ne sont pas très concrets", explique ce professeur émérite de l'université de New York, venu en Californie pour une conférence.

"Ce qui m'inquiète, c'est que nous construisons des systèmes d'IA que nous ne contrôlons pas bien", continue-t-il.

Gary Marcus a conçu son premier programme d'IA au lycée - un logiciel pour traduire le latin en anglais - et après des années d'études de la psychologie infantile, il a fondé Geometric Intelligence, une entreprise de "machine learning" (apprentissage automatisé des machines) ensuite rachetée par Uber.

En mars, il a co-signé la lettre de centaines d'experts demandant une pause de six mois dans le développement de systèmes d'IA ultra-puissants comme ceux de la start-up OpenAI, le temps de s'assurer que les programmes déjà existants soient "fiables, sûrs, transparents, loyaux (...) et alignés" avec les valeurs humaines.

Mais il n'a pas signé la déclaration succincte de chefs d'entreprise et spécialistes qui a fait du bruit cette semaine.

Sam Altman, le patron d'OpenAI, Geoffrey Hinton, un ancien ingénieur proéminent de Google, Demis Hassabis, le dirigeant de DeepMind (Google) et Kevin Scott, directeur technologique de Microsoft, notamment, y appellent à lutter contre "les risques d'extinction" de l'humanité "liés à l'IA".

- "Guerre accidentelle" -

Le succès sans précédent de ChatGPT, le robot conversationnel d'OpenAI capable de produire toutes sortes de textes sur simple requête en langage courant, a suscité une course à cette intelligence artificielle dite "générative" entre les géants des technologies, mais aussi de nombreuses mises en garde et appels à réguler ce domaine.

Y compris de la part de ceux qui construisent ces systèmes informatiques en vue de parvenir à une IA "générale", aux capacités cognitives similaires à celles des humains.

"Si vous pensez vraiment que cela représente un risque existentiel, pourquoi vous travaillez là-dessus ? C'est une question légitime", note Gary Marcus.

"L'extinction de l'espèce humaine... C'est assez compliqué, en réalité", pondère-t-il. "On peut imaginer toutes sortes de fléaux, mais des gens survivraient."

Il existe, en revanche, des scénarios réalistes où l'utilisation de l'IA "peut causer des dégâts massifs", souligne-t-il.

"Par exemple, des gens pourraient réussir à manipuler les marchés. Et peut-être qu'on accuserait les Russes d'être responsables, et qu'on les attaquerait alors qu'ils n'y seraient pour rien et on pourrait se retrouver dans une guerre accidentelle, potentiellement nucléaire", détaille-t-il.

- "Autoritarisme" -

A plus court terme, Gary Marcus se fait davantage du souci pour la démocratie.

Car les logiciels d'IA générative produisent de fausses photographies, et bientôt des vidéos, de plus en plus convaincantes, à peu de frais. Les élections risquent donc selon lui "d'être gagnées par les personnes les plus douées à répandre de la désinformation. Une fois élues elles pourront changer les lois (...) et imposer l'autoritarisme".

Surtout, "la démocratie repose sur l'accès aux informations nécessaires pour prendre les bonnes décisions. Si plus personne ne sait ce qui est vrai ou non, c'est fini".

L'auteur du livre "Rebooting AI" ("Redémarrer l'IA") ne pense pas néanmoins qu'il faille tout jeter dans cette technologie.

"Il y a une chance qu’on utilise un jour une IA que nous n’avons pas encore inventée, qui nous aidera à faire des progrès dans la science, dans la médecine, dans les soins des personnes âgées (...) Mais pour l'instant, nous ne sommes pas prêts. Nous avons besoin de régulation, et de rendre les programmes plus fiables".

Lors d'une audition devant une commission parlementaire américaine en mai, il a défendu la création d'une agence nationale ou internationale chargée de la gouvernance de l'intelligence artificielle.

Un projet que soutient aussi Sam Altman, qui revient d'une tournée européenne où il a exhorté les dirigeants politiques à trouver un "juste équilibre" entre protection et innovation.

Mais attention à ne pas laisser le pouvoir aux entreprises, avertit Gary Marcus: "Ces derniers mois nous ont rappelé à quel point ce sont elles qui prennent les décisions importantes, sans forcément tenir compte (...) des effets collatéraux".

P.Deng--ThChM