The China Mail - Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

USD -
AED 3.672499
AFN 62.506428
ALL 82.669181
AMD 376.230888
ANG 1.790083
AOA 916.999898
ARS 1397.438963
AUD 1.434216
AWG 1.80225
AZN 1.698731
BAM 1.684191
BBD 2.010067
BDT 122.460754
BGN 1.709309
BHD 0.377549
BIF 2964.056903
BMD 1
BND 1.276953
BOB 6.911428
BRL 5.219601
BSD 0.997972
BTN 93.511761
BWP 13.674625
BYN 2.954524
BYR 19600
BZD 2.007225
CAD 1.379045
CDF 2277.560893
CHF 0.788285
CLF 0.023168
CLP 914.819733
CNY 6.892701
CNH 6.896815
COP 3705.22
CRC 464.994123
CUC 1
CUP 26.5
CVE 94.953305
CZK 21.031597
DJF 177.721517
DKK 6.434015
DOP 59.786189
DZD 132.496617
EGP 52.610098
ERN 15
ETB 154.279108
EUR 0.86114
FJD 2.24025
FKP 0.747226
GBP 0.744805
GEL 2.704971
GGP 0.747226
GHS 10.903627
GIP 0.747226
GMD 73.495784
GNF 8747.24442
GTQ 7.642594
GYD 208.863457
HKD 7.816545
HNL 26.426305
HRK 6.490797
HTG 130.855608
HUF 335.092497
IDR 16874
ILS 3.11496
IMP 0.747226
INR 94.01855
IQD 1307.361768
IRR 1313025.000172
ISK 123.859562
JEP 0.747226
JMD 157.486621
JOD 0.708967
JPY 158.778019
KES 129.750191
KGS 87.449198
KHR 4005.063378
KMF 425.99973
KPW 900.014346
KRW 1496.680243
KWD 0.30647
KYD 0.831676
KZT 481.782876
LAK 21486.820464
LBP 89375.339068
LKR 313.699656
LRD 183.13807
LSL 17.013787
LTL 2.95274
LVL 0.60489
LYD 6.362944
MAD 9.303745
MDL 17.455028
MGA 4166.899883
MKD 53.104551
MMK 2100.167588
MNT 3569.46809
MOP 8.04266
MRU 39.802636
MUR 46.459693
MVR 15.460316
MWK 1730.481919
MXN 17.730503
MYR 3.964988
MZN 63.910023
NAD 17.013787
NGN 1377.903141
NIO 36.726715
NOK 9.725698
NPR 149.61272
NZD 1.71587
OMR 0.3845
PAB 0.997963
PEN 3.451997
PGK 4.309899
PHP 59.985973
PKR 278.8205
PLN 3.674825
PYG 6511.920293
QAR 3.639338
RON 4.388203
RSD 101.148972
RUB 80.876407
RWF 1459.995436
SAR 3.751309
SBD 8.041975
SCR 13.769339
SDG 601.000445
SEK 9.270365
SGD 1.27794
SHP 0.750259
SLE 24.58613
SLL 20969.510825
SOS 570.306681
SRD 37.340127
STD 20697.981008
STN 21.09741
SVC 8.732681
SYP 110.948257
SZL 17.012336
THB 32.478014
TJS 9.575933
TMT 3.51
TND 2.927264
TOP 2.40776
TRY 44.357297
TTD 6.780508
TWD 31.907202
TZS 2570.059022
UAH 43.82926
UGX 3737.239351
UYU 40.671515
UZS 12175.463071
VES 458.87816
VND 26350
VUV 119.508072
WST 2.738201
XAF 564.849586
XAG 0.01366
XAU 0.000218
XCD 2.70255
XCG 1.798634
XDR 0.702492
XOF 564.869043
XPF 102.697908
YER 238.59782
ZAR 16.842011
ZMK 9001.211096
ZMW 18.887324
ZWL 321.999592
  • AEX

    2.8300

    977.06

    +0.29%

  • BEL20

    85.5500

    5030.57

    +1.73%

  • PX1

    61.9500

    7805.71

    +0.8%

  • ISEQ

    204.4400

    12301.39

    +1.69%

  • OSEBX

    20.5400

    1976.8

    +1.05%

  • PSI20

    116.3600

    8998.52

    +1.31%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -57.9900

    3544.03

    -1.61%

  • N150

    42.7400

    3824.89

    +1.13%

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus
Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus / Photo: © GETTY IMAGES NORTH AMERICA/AFP

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

Le spécialiste de l'intelligence artificielle (IA) Gary Marcus a passé ces derniers mois à alerter ses pairs, les élus et le public au sujet des risques liés au développement et à l'adoption ultra-rapide des nouveaux outils d'IA. Mais le danger d'extinction de l'humanité est "exagéré", a-t-il déclaré à l'AFP lors d'un entretien à San Francisco.

Taille du texte:

"Personnellement, et pour l'instant, je ne suis pas très inquiet à ce sujet, parce que les scénarios ne sont pas très concrets", explique ce professeur émérite de l'université de New York, venu en Californie pour une conférence.

"Ce qui m'inquiète, c'est que nous construisons des systèmes d'IA que nous ne contrôlons pas bien", continue-t-il.

Gary Marcus a conçu son premier programme d'IA au lycée - un logiciel pour traduire le latin en anglais - et après des années d'études de la psychologie infantile, il a fondé Geometric Intelligence, une entreprise de "machine learning" (apprentissage automatisé des machines) ensuite rachetée par Uber.

En mars, il a co-signé la lettre de centaines d'experts demandant une pause de six mois dans le développement de systèmes d'IA ultra-puissants comme ceux de la start-up OpenAI, le temps de s'assurer que les programmes déjà existants soient "fiables, sûrs, transparents, loyaux (...) et alignés" avec les valeurs humaines.

Mais il n'a pas signé la déclaration succincte de chefs d'entreprise et spécialistes qui a fait du bruit cette semaine.

Sam Altman, le patron d'OpenAI, Geoffrey Hinton, un ancien ingénieur proéminent de Google, Demis Hassabis, le dirigeant de DeepMind (Google) et Kevin Scott, directeur technologique de Microsoft, notamment, y appellent à lutter contre "les risques d'extinction" de l'humanité "liés à l'IA".

- "Guerre accidentelle" -

Le succès sans précédent de ChatGPT, le robot conversationnel d'OpenAI capable de produire toutes sortes de textes sur simple requête en langage courant, a suscité une course à cette intelligence artificielle dite "générative" entre les géants des technologies, mais aussi de nombreuses mises en garde et appels à réguler ce domaine.

Y compris de la part de ceux qui construisent ces systèmes informatiques en vue de parvenir à une IA "générale", aux capacités cognitives similaires à celles des humains.

"Si vous pensez vraiment que cela représente un risque existentiel, pourquoi vous travaillez là-dessus ? C'est une question légitime", note Gary Marcus.

"L'extinction de l'espèce humaine... C'est assez compliqué, en réalité", pondère-t-il. "On peut imaginer toutes sortes de fléaux, mais des gens survivraient."

Il existe, en revanche, des scénarios réalistes où l'utilisation de l'IA "peut causer des dégâts massifs", souligne-t-il.

"Par exemple, des gens pourraient réussir à manipuler les marchés. Et peut-être qu'on accuserait les Russes d'être responsables, et qu'on les attaquerait alors qu'ils n'y seraient pour rien et on pourrait se retrouver dans une guerre accidentelle, potentiellement nucléaire", détaille-t-il.

- "Autoritarisme" -

A plus court terme, Gary Marcus se fait davantage du souci pour la démocratie.

Car les logiciels d'IA générative produisent de fausses photographies, et bientôt des vidéos, de plus en plus convaincantes, à peu de frais. Les élections risquent donc selon lui "d'être gagnées par les personnes les plus douées à répandre de la désinformation. Une fois élues elles pourront changer les lois (...) et imposer l'autoritarisme".

Surtout, "la démocratie repose sur l'accès aux informations nécessaires pour prendre les bonnes décisions. Si plus personne ne sait ce qui est vrai ou non, c'est fini".

L'auteur du livre "Rebooting AI" ("Redémarrer l'IA") ne pense pas néanmoins qu'il faille tout jeter dans cette technologie.

"Il y a une chance qu’on utilise un jour une IA que nous n’avons pas encore inventée, qui nous aidera à faire des progrès dans la science, dans la médecine, dans les soins des personnes âgées (...) Mais pour l'instant, nous ne sommes pas prêts. Nous avons besoin de régulation, et de rendre les programmes plus fiables".

Lors d'une audition devant une commission parlementaire américaine en mai, il a défendu la création d'une agence nationale ou internationale chargée de la gouvernance de l'intelligence artificielle.

Un projet que soutient aussi Sam Altman, qui revient d'une tournée européenne où il a exhorté les dirigeants politiques à trouver un "juste équilibre" entre protection et innovation.

Mais attention à ne pas laisser le pouvoir aux entreprises, avertit Gary Marcus: "Ces derniers mois nous ont rappelé à quel point ce sont elles qui prennent les décisions importantes, sans forcément tenir compte (...) des effets collatéraux".

P.Deng--ThChM