The China Mail - Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

USD -
AED 3.672499
AFN 68.683677
ALL 83.476424
AMD 383.330901
ANG 1.789783
AOA 917.000177
ARS 1359.029305
AUD 1.544771
AWG 1.8
AZN 1.701725
BAM 1.679101
BBD 2.021515
BDT 122.167944
BGN 1.679355
BHD 0.377057
BIF 2993.148803
BMD 1
BND 1.28842
BOB 6.948892
BRL 5.410905
BSD 1.003469
BTN 87.826236
BWP 13.428402
BYN 3.392229
BYR 19600
BZD 2.013101
CAD 1.38565
CDF 2867.999873
CHF 0.805135
CLF 0.024538
CLP 962.629725
CNY 7.1515
CNH 7.156705
COP 4025.75
CRC 505.254301
CUC 1
CUP 26.5
CVE 94.665133
CZK 21.121102
DJF 178.687638
DKK 6.419199
DOP 62.407706
DZD 129.671047
EGP 48.502703
ERN 15
ETB 142.748229
EUR 0.86002
FJD 2.265601
FKP 0.742771
GBP 0.74318
GEL 2.695044
GGP 0.742771
GHS 11.087836
GIP 0.742771
GMD 71.499761
GNF 8699.646279
GTQ 7.694091
GYD 209.934838
HKD 7.81109
HNL 26.286328
HRK 6.474795
HTG 131.303071
HUF 341.723502
IDR 16268.2
ILS 3.36365
IMP 0.742771
INR 87.726197
IQD 1314.657578
IRR 42062.498647
ISK 123.319934
JEP 0.742771
JMD 160.711219
JOD 0.709
JPY 147.641002
KES 129.58974
KGS 87.370602
KHR 4024.039493
KMF 417.000227
KPW 899.986573
KRW 1391.219664
KWD 0.30551
KYD 0.836209
KZT 537.243085
LAK 21760.332423
LBP 90331.991174
LKR 303.064124
LRD 201.184753
LSL 17.6059
LTL 2.95274
LVL 0.60489
LYD 5.444852
MAD 9.036994
MDL 16.777705
MGA 4408.595688
MKD 52.833558
MMK 2099.484683
MNT 3594.349624
MOP 8.07373
MRU 39.827089
MUR 45.649873
MVR 15.399244
MWK 1740.01511
MXN 18.68039
MYR 4.216005
MZN 63.949904
NAD 17.6059
NGN 1533.679623
NIO 36.926062
NOK 10.131275
NPR 140.527407
NZD 1.71325
OMR 0.38451
PAB 1.003434
PEN 3.512135
PGK 4.242934
PHP 56.855967
PKR 284.675515
PLN 3.663852
PYG 7272.680443
QAR 3.647267
RON 4.346103
RSD 100.731008
RUB 80.701422
RWF 1453.003194
SAR 3.752014
SBD 8.217066
SCR 14.262316
SDG 600.498106
SEK 9.581675
SGD 1.285175
SHP 0.785843
SLE 23.30145
SLL 20969.49797
SOS 573.508706
SRD 38.229874
STD 20697.981008
STN 21.034376
SVC 8.780199
SYP 13001.915896
SZL 17.600041
THB 32.472999
TJS 9.592634
TMT 3.51
TND 2.925678
TOP 2.342098
TRY 41.02035
TTD 6.818455
TWD 30.507803
TZS 2505.000551
UAH 41.624698
UGX 3574.893328
UYU 40.213085
UZS 12399.660025
VES 139.25164
VND 26333
VUV 120.416059
WST 2.711516
XAF 563.169237
XAG 0.025854
XAU 0.000297
XCD 2.70255
XCG 1.808395
XDR 0.700396
XOF 563.164402
XPF 102.387555
YER 240.175028
ZAR 17.6114
ZMK 9001.199811
ZMW 23.374572
ZWL 321.999592
  • AEX

    -1.8300

    911.11

    -0.2%

  • BEL20

    13.0900

    4861.2

    +0.27%

  • PX1

    -126.7200

    7843.04

    -1.59%

  • ISEQ

    -26.9500

    11691.63

    -0.23%

  • OSEBX

    -2.5000

    1661.86

    -0.15%

  • PSI20

    -63.0400

    7917.15

    -0.79%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    90.4100

    3296.61

    +2.82%

  • N150

    -27.0300

    3779.86

    -0.71%

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus
Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus / Photo: © GETTY IMAGES NORTH AMERICA/AFP

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

Le spécialiste de l'intelligence artificielle (IA) Gary Marcus a passé ces derniers mois à alerter ses pairs, les élus et le public au sujet des risques liés au développement et à l'adoption ultra-rapide des nouveaux outils d'IA. Mais le danger d'extinction de l'humanité est "exagéré", a-t-il déclaré à l'AFP lors d'un entretien à San Francisco.

Taille du texte:

"Personnellement, et pour l'instant, je ne suis pas très inquiet à ce sujet, parce que les scénarios ne sont pas très concrets", explique ce professeur émérite de l'université de New York, venu en Californie pour une conférence.

"Ce qui m'inquiète, c'est que nous construisons des systèmes d'IA que nous ne contrôlons pas bien", continue-t-il.

Gary Marcus a conçu son premier programme d'IA au lycée - un logiciel pour traduire le latin en anglais - et après des années d'études de la psychologie infantile, il a fondé Geometric Intelligence, une entreprise de "machine learning" (apprentissage automatisé des machines) ensuite rachetée par Uber.

En mars, il a co-signé la lettre de centaines d'experts demandant une pause de six mois dans le développement de systèmes d'IA ultra-puissants comme ceux de la start-up OpenAI, le temps de s'assurer que les programmes déjà existants soient "fiables, sûrs, transparents, loyaux (...) et alignés" avec les valeurs humaines.

Mais il n'a pas signé la déclaration succincte de chefs d'entreprise et spécialistes qui a fait du bruit cette semaine.

Sam Altman, le patron d'OpenAI, Geoffrey Hinton, un ancien ingénieur proéminent de Google, Demis Hassabis, le dirigeant de DeepMind (Google) et Kevin Scott, directeur technologique de Microsoft, notamment, y appellent à lutter contre "les risques d'extinction" de l'humanité "liés à l'IA".

- "Guerre accidentelle" -

Le succès sans précédent de ChatGPT, le robot conversationnel d'OpenAI capable de produire toutes sortes de textes sur simple requête en langage courant, a suscité une course à cette intelligence artificielle dite "générative" entre les géants des technologies, mais aussi de nombreuses mises en garde et appels à réguler ce domaine.

Y compris de la part de ceux qui construisent ces systèmes informatiques en vue de parvenir à une IA "générale", aux capacités cognitives similaires à celles des humains.

"Si vous pensez vraiment que cela représente un risque existentiel, pourquoi vous travaillez là-dessus ? C'est une question légitime", note Gary Marcus.

"L'extinction de l'espèce humaine... C'est assez compliqué, en réalité", pondère-t-il. "On peut imaginer toutes sortes de fléaux, mais des gens survivraient."

Il existe, en revanche, des scénarios réalistes où l'utilisation de l'IA "peut causer des dégâts massifs", souligne-t-il.

"Par exemple, des gens pourraient réussir à manipuler les marchés. Et peut-être qu'on accuserait les Russes d'être responsables, et qu'on les attaquerait alors qu'ils n'y seraient pour rien et on pourrait se retrouver dans une guerre accidentelle, potentiellement nucléaire", détaille-t-il.

- "Autoritarisme" -

A plus court terme, Gary Marcus se fait davantage du souci pour la démocratie.

Car les logiciels d'IA générative produisent de fausses photographies, et bientôt des vidéos, de plus en plus convaincantes, à peu de frais. Les élections risquent donc selon lui "d'être gagnées par les personnes les plus douées à répandre de la désinformation. Une fois élues elles pourront changer les lois (...) et imposer l'autoritarisme".

Surtout, "la démocratie repose sur l'accès aux informations nécessaires pour prendre les bonnes décisions. Si plus personne ne sait ce qui est vrai ou non, c'est fini".

L'auteur du livre "Rebooting AI" ("Redémarrer l'IA") ne pense pas néanmoins qu'il faille tout jeter dans cette technologie.

"Il y a une chance qu’on utilise un jour une IA que nous n’avons pas encore inventée, qui nous aidera à faire des progrès dans la science, dans la médecine, dans les soins des personnes âgées (...) Mais pour l'instant, nous ne sommes pas prêts. Nous avons besoin de régulation, et de rendre les programmes plus fiables".

Lors d'une audition devant une commission parlementaire américaine en mai, il a défendu la création d'une agence nationale ou internationale chargée de la gouvernance de l'intelligence artificielle.

Un projet que soutient aussi Sam Altman, qui revient d'une tournée européenne où il a exhorté les dirigeants politiques à trouver un "juste équilibre" entre protection et innovation.

Mais attention à ne pas laisser le pouvoir aux entreprises, avertit Gary Marcus: "Ces derniers mois nous ont rappelé à quel point ce sont elles qui prennent les décisions importantes, sans forcément tenir compte (...) des effets collatéraux".

P.Deng--ThChM