The China Mail - Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

USD -
AED 3.672504
AFN 65.000368
ALL 81.652501
AMD 376.168126
ANG 1.79008
AOA 917.000367
ARS 1431.790402
AUD 1.425923
AWG 1.8025
AZN 1.70397
BAM 1.654023
BBD 2.008288
BDT 121.941731
BGN 1.67937
BHD 0.375914
BIF 2954.881813
BMD 1
BND 1.269737
BOB 6.889932
BRL 5.217404
BSD 0.997082
BTN 90.316715
BWP 13.200558
BYN 2.864561
BYR 19600
BZD 2.005328
CAD 1.36855
CDF 2200.000362
CHF 0.77566
CLF 0.021803
CLP 860.890396
CNY 6.93895
CNH 6.929815
COP 3699.522179
CRC 494.312656
CUC 1
CUP 26.5
CVE 93.2513
CZK 20.504104
DJF 177.555076
DKK 6.322204
DOP 62.928665
DZD 129.553047
EGP 46.73094
ERN 15
ETB 155.0074
EUR 0.846204
FJD 2.209504
FKP 0.73461
GBP 0.734457
GEL 2.69504
GGP 0.73461
GHS 10.957757
GIP 0.73461
GMD 73.000355
GNF 8752.167111
GTQ 7.647681
GYD 208.609244
HKD 7.81385
HNL 26.338534
HRK 6.376104
HTG 130.618631
HUF 319.703831
IDR 16855.5
ILS 3.110675
IMP 0.73461
INR 90.57645
IQD 1306.186308
IRR 42125.000158
ISK 122.710386
JEP 0.73461
JMD 156.057339
JOD 0.70904
JPY 157.200504
KES 128.622775
KGS 87.450384
KHR 4023.848789
KMF 419.00035
KPW 899.990005
KRW 1463.803789
KWD 0.30721
KYD 0.830902
KZT 493.331642
LAK 21426.698803
LBP 89293.839063
LKR 308.47816
LRD 187.449786
LSL 16.086092
LTL 2.95274
LVL 0.60489
LYD 6.314009
MAD 9.153622
MDL 17.000296
MGA 4426.402808
MKD 52.129054
MMK 2099.624884
MNT 3567.867665
MOP 8.023933
MRU 39.425769
MUR 46.060378
MVR 15.450378
MWK 1728.952598
MXN 17.263604
MYR 3.947504
MZN 63.750377
NAD 16.086092
NGN 1366.980377
NIO 36.694998
NOK 9.690604
NPR 144.506744
NZD 1.674621
OMR 0.383441
PAB 0.997082
PEN 3.354899
PGK 4.275868
PHP 58.511038
PKR 278.812127
PLN 3.56949
PYG 6588.016407
QAR 3.634319
RON 4.310404
RSD 99.268468
RUB 76.789716
RWF 1455.283522
SAR 3.748738
SBD 8.058149
SCR 13.84955
SDG 601.503676
SEK 9.023204
SGD 1.272904
SHP 0.750259
SLE 24.450371
SLL 20969.499267
SOS 568.818978
SRD 37.818038
STD 20697.981008
STN 20.719692
SVC 8.724259
SYP 11059.574895
SZL 16.08271
THB 31.535038
TJS 9.342721
TMT 3.505
TND 2.891792
TOP 2.40776
TRY 43.612504
TTD 6.752083
TWD 31.590367
TZS 2577.445135
UAH 42.828111
UGX 3547.71872
UYU 38.538627
UZS 12244.069517
VES 377.985125
VND 25950
VUV 119.182831
WST 2.73071
XAF 554.743964
XAG 0.012866
XAU 0.000202
XCD 2.70255
XCG 1.797032
XDR 0.689923
XOF 554.743964
XPF 100.858387
YER 238.403589
ZAR 16.04457
ZMK 9001.203584
ZMW 18.570764
ZWL 321.999592
  • AEX

    10.2500

    995.35

    +1.04%

  • BEL20

    -7.7400

    5517.52

    -0.14%

  • PX1

    35.4300

    8273.84

    +0.43%

  • ISEQ

    95.0400

    13295.1

    +0.72%

  • OSEBX

    49.1200

    1816.11

    +2.78%

  • PSI20

    111.4900

    8890.3

    +1.27%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -84.1400

    4000.2

    -2.06%

  • N150

    35.3800

    4010.68

    +0.89%

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus
Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus / Photo: © GETTY IMAGES NORTH AMERICA/AFP

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

Le spécialiste de l'intelligence artificielle (IA) Gary Marcus a passé ces derniers mois à alerter ses pairs, les élus et le public au sujet des risques liés au développement et à l'adoption ultra-rapide des nouveaux outils d'IA. Mais le danger d'extinction de l'humanité est "exagéré", a-t-il déclaré à l'AFP lors d'un entretien à San Francisco.

Taille du texte:

"Personnellement, et pour l'instant, je ne suis pas très inquiet à ce sujet, parce que les scénarios ne sont pas très concrets", explique ce professeur émérite de l'université de New York, venu en Californie pour une conférence.

"Ce qui m'inquiète, c'est que nous construisons des systèmes d'IA que nous ne contrôlons pas bien", continue-t-il.

Gary Marcus a conçu son premier programme d'IA au lycée - un logiciel pour traduire le latin en anglais - et après des années d'études de la psychologie infantile, il a fondé Geometric Intelligence, une entreprise de "machine learning" (apprentissage automatisé des machines) ensuite rachetée par Uber.

En mars, il a co-signé la lettre de centaines d'experts demandant une pause de six mois dans le développement de systèmes d'IA ultra-puissants comme ceux de la start-up OpenAI, le temps de s'assurer que les programmes déjà existants soient "fiables, sûrs, transparents, loyaux (...) et alignés" avec les valeurs humaines.

Mais il n'a pas signé la déclaration succincte de chefs d'entreprise et spécialistes qui a fait du bruit cette semaine.

Sam Altman, le patron d'OpenAI, Geoffrey Hinton, un ancien ingénieur proéminent de Google, Demis Hassabis, le dirigeant de DeepMind (Google) et Kevin Scott, directeur technologique de Microsoft, notamment, y appellent à lutter contre "les risques d'extinction" de l'humanité "liés à l'IA".

- "Guerre accidentelle" -

Le succès sans précédent de ChatGPT, le robot conversationnel d'OpenAI capable de produire toutes sortes de textes sur simple requête en langage courant, a suscité une course à cette intelligence artificielle dite "générative" entre les géants des technologies, mais aussi de nombreuses mises en garde et appels à réguler ce domaine.

Y compris de la part de ceux qui construisent ces systèmes informatiques en vue de parvenir à une IA "générale", aux capacités cognitives similaires à celles des humains.

"Si vous pensez vraiment que cela représente un risque existentiel, pourquoi vous travaillez là-dessus ? C'est une question légitime", note Gary Marcus.

"L'extinction de l'espèce humaine... C'est assez compliqué, en réalité", pondère-t-il. "On peut imaginer toutes sortes de fléaux, mais des gens survivraient."

Il existe, en revanche, des scénarios réalistes où l'utilisation de l'IA "peut causer des dégâts massifs", souligne-t-il.

"Par exemple, des gens pourraient réussir à manipuler les marchés. Et peut-être qu'on accuserait les Russes d'être responsables, et qu'on les attaquerait alors qu'ils n'y seraient pour rien et on pourrait se retrouver dans une guerre accidentelle, potentiellement nucléaire", détaille-t-il.

- "Autoritarisme" -

A plus court terme, Gary Marcus se fait davantage du souci pour la démocratie.

Car les logiciels d'IA générative produisent de fausses photographies, et bientôt des vidéos, de plus en plus convaincantes, à peu de frais. Les élections risquent donc selon lui "d'être gagnées par les personnes les plus douées à répandre de la désinformation. Une fois élues elles pourront changer les lois (...) et imposer l'autoritarisme".

Surtout, "la démocratie repose sur l'accès aux informations nécessaires pour prendre les bonnes décisions. Si plus personne ne sait ce qui est vrai ou non, c'est fini".

L'auteur du livre "Rebooting AI" ("Redémarrer l'IA") ne pense pas néanmoins qu'il faille tout jeter dans cette technologie.

"Il y a une chance qu’on utilise un jour une IA que nous n’avons pas encore inventée, qui nous aidera à faire des progrès dans la science, dans la médecine, dans les soins des personnes âgées (...) Mais pour l'instant, nous ne sommes pas prêts. Nous avons besoin de régulation, et de rendre les programmes plus fiables".

Lors d'une audition devant une commission parlementaire américaine en mai, il a défendu la création d'une agence nationale ou internationale chargée de la gouvernance de l'intelligence artificielle.

Un projet que soutient aussi Sam Altman, qui revient d'une tournée européenne où il a exhorté les dirigeants politiques à trouver un "juste équilibre" entre protection et innovation.

Mais attention à ne pas laisser le pouvoir aux entreprises, avertit Gary Marcus: "Ces derniers mois nous ont rappelé à quel point ce sont elles qui prennent les décisions importantes, sans forcément tenir compte (...) des effets collatéraux".

P.Deng--ThChM