The China Mail - Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement

USD -
AED 3.672498
AFN 66.379449
ALL 81.856268
AMD 381.460099
ANG 1.790403
AOA 916.999972
ARS 1448.821401
AUD 1.488793
AWG 1.80025
AZN 1.701257
BAM 1.658674
BBD 2.014358
BDT 122.21671
BGN 1.660398
BHD 0.376941
BIF 2957.76141
BMD 1
BND 1.284077
BOB 6.926234
BRL 5.527896
BSD 1.00014
BTN 89.856547
BWP 13.14687
BYN 2.919259
BYR 19600
BZD 2.011466
CAD 1.36735
CDF 2200.000532
CHF 0.78811
CLF 0.023053
CLP 904.350015
CNY 7.0285
CNH 7.00831
COP 3728.15
CRC 499.518715
CUC 1
CUP 26.5
CVE 93.513465
CZK 20.59155
DJF 177.719617
DKK 6.335145
DOP 62.690023
DZD 129.570713
EGP 47.543199
ERN 15
ETB 155.604932
EUR 0.848075
FJD 2.269199
FKP 0.740634
GBP 0.73996
GEL 2.685028
GGP 0.740634
GHS 11.126753
GIP 0.740634
GMD 74.497147
GNF 8741.153473
GTQ 7.662397
GYD 209.237241
HKD 7.774085
HNL 26.362545
HRK 6.389498
HTG 130.951927
HUF 330.219498
IDR 16733.9
ILS 3.191302
IMP 0.740634
INR 89.83185
IQD 1310.19773
IRR 42124.999596
ISK 125.5201
JEP 0.740634
JMD 159.532199
JOD 0.70901
JPY 156.223496
KES 128.95038
KGS 87.450238
KHR 4008.85391
KMF 417.99997
KPW 899.988547
KRW 1434.629898
KWD 0.30716
KYD 0.833489
KZT 514.029352
LAK 21644.588429
LBP 89561.205624
LKR 309.599834
LRD 177.018844
LSL 16.645168
LTL 2.95274
LVL 0.60489
LYD 5.412442
MAD 9.124909
MDL 16.777482
MGA 4573.672337
MKD 52.221902
MMK 2100.202105
MNT 3556.654488
MOP 8.011093
MRU 39.604456
MUR 45.949883
MVR 15.450153
MWK 1734.230032
MXN 17.939295
MYR 4.035502
MZN 63.909799
NAD 16.645168
NGN 1450.279682
NIO 36.806642
NOK 9.99173
NPR 143.770645
NZD 1.71264
OMR 0.384239
PAB 1.000136
PEN 3.365433
PGK 4.319268
PHP 58.803498
PKR 280.16122
PLN 3.575815
PYG 6777.849865
QAR 3.645469
RON 4.319198
RSD 99.590227
RUB 78.895207
RWF 1456.65485
SAR 3.750699
SBD 8.153391
SCR 14.448121
SDG 601.503172
SEK 9.167825
SGD 1.283975
SHP 0.750259
SLE 24.07504
SLL 20969.503664
SOS 570.585342
SRD 38.335504
STD 20697.981008
STN 20.777943
SVC 8.75133
SYP 11058.430888
SZL 16.631683
THB 31.080166
TJS 9.19119
TMT 3.51
TND 2.909675
TOP 2.40776
TRY 42.866602
TTD 6.803263
TWD 31.4238
TZS 2469.999889
UAH 42.191946
UGX 3610.273633
UYU 39.087976
UZS 12053.751267
VES 288.088835
VND 26282.5
VUV 120.842065
WST 2.78861
XAF 556.301203
XAG 0.013898
XAU 0.000223
XCD 2.70255
XCG 1.802508
XDR 0.692121
XOF 556.303562
XPF 101.141939
YER 238.450136
ZAR 16.63864
ZMK 9001.200271
ZMW 22.577472
ZWL 321.999592
  • AEX

    -0.8500

    941.37

    -0.09%

  • BEL20

    -17.2000

    5040.37

    -0.34%

  • PX1

    0.0000

    8103.58

    0%

  • ISEQ

    -6.5200

    13037.23

    -0.05%

  • OSEBX

    4.1600

    1666.51

    +0.25%

  • PSI20

    13.8900

    8183.11

    +0.17%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    5.4700

    4214.37

    +0.13%

  • N150

    6.3700

    3753.91

    +0.17%

Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement
Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement / Photo: © AFP

Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement

Le deuxième "sommet" mondial sur l'intelligence artificielle (IA) s'est conclu mercredi à Séoul sur un engagement collectif à encadrer les dangers de cette technologie, mais la vitesse folle avec laquelle elle se développe leur promet bien des difficultés.

Taille du texte:

Lors de cet événement organisé conjointement par la Corée du Sud et le Royaume-Uni, les leaders du secteur - du sud-coréen Samsung Electronics à l'américain Google en passant par OpenAI, le créateur de ChatGPT - ont codifié leurs engagements dans un document intitulé "Seoul AI Business Pledge" ("Engagement de Séoul des entreprises sur l'IA").

En parallèle, plus d'une douzaine de pays, dont les Etats-Unis et la France, ont convenu de travailler ensemble contre les menaces posées par l'IA de pointe notamment les "risques graves", selon un communiqué commun de ces pays.

Ces risques pourraient inclure un système d'IA aidant "les acteurs non-étatiques à faire progresser le développement, la production, l'acquisition ou l'utilisation d'armes chimiques ou biologiques", ou pouvant "échapper à la surveillance humaine, notamment par le contournement des mesures de protection, la manipulation et la tromperie, ou la réplication et l'adaptation autonomes", selon ce communiqué.

La veille, seize des plus gros acteurs du secteur avaient déjà signé un accord pour garantir la sécurité de l'IA, en s'appuyant sur le consensus atteint lors du premier "sommet" mondial sur le sujet, en 2023 à Bletchley Park (Royaume-Uni).

Ils ont notamment promis de définir les risques "jugés intolérables", et ce que les entreprises feront pour les prévenir. Les signataires se sont également engagés à "ne pas développer ou déployer un modèle ou un système" dont les risques s'avéreraient trop difficiles à maîtriser.

- Se mettre au diapason -

Mais pour les experts, il est difficile pour les régulateurs de comprendre et de gérer l'IA, vu la vitesse foudroyante avec laquelle elle se développe.

"Je pense que c'est un très, très gros problème", avertit Markus Anderljung, du Centre pour la gouvernance de l'IA, organisme de recherche basé à Oxford, au Royaume-Uni.

"L'IA sera l'un des plus grands défis que les gouvernements du monde entier auront à relever au cours des deux prochaines décennies", prophétise cet expert. "Le monde devra acquérir une sorte de compréhension commune des risques liés aux modèles généraux les plus avancés."

Pour Michelle Donelan, la secrétaire d'Etat britannique à la Science, à l'Innovation et à la Technologie, "le rythme de développement de l'IA s'accélérant, nous devons nous mettre au diapason (...) si nous voulons en maîtriser les risques".

Lors du prochain "sommet" sur l'IA, les 10 et 11 février 2025 en France, il y aura davantage d'occasions de "repousser les limites" en termes de tests et d'évaluation des nouvelles technologies, pronostique Mme Donelan.

"Simultanément, nous devons porter notre attention sur l'atténuation des risques en dehors de ces modèles, en veillant à ce que la société dans son ensemble devienne résiliente face aux dangers posés par l'IA", ajoute la secrétaire d'Etat.

Le succès fulgurant de ChatGPT peu après sa sortie en 2022 a déclenché une ruée dans le domaine de l'IA générative, les entreprises technologiques du monde entier investissant des milliards de dollars dans le développement de leurs propres modèles.

Les modèles d'IA générative peuvent produire du texte, des photos, du son et même des vidéos à partir de simples invites de commande. Leurs partisans les présentent comme une percée qui améliorera la vie des citoyens et des entreprises dans le monde entier.

Mais les défenseurs des droits humains et les gouvernements craignent aussi leur utilisation à mauvais escient dans un grand nombre de situations, notamment pour manipuler les électeurs par le biais de fausses nouvelles ou de photos et de vidéos "deepfake" de dirigeants politiques.

Beaucoup exigent que des normes internationales soient instituées pour encadrer le développement et l'utilisation de l'IA.

"De plus en plus, nous réalisons qu'une coopération mondiale est nécessaire pour vraiment réfléchir aux problèmes et aux effets néfastes de l'intelligence artificielle. L'IA ne connaît pas de frontières", estime Rumman Chowdhury, une experte en éthique de l'IA qui dirige Humane Intelligence, organisation indépendante qui évalue les modèles d'IA.

Selon elle, le danger ne vient pas seulement de l'"IA galopante" des cauchemars de science-fiction, mais aussi de l'inégalité face à cette technologie, alors que l'IA est développée par "un très, très petit nombre de personnes et d'organisations" qui en récoltent les bénéfices.

Quant aux habitants des pays en développement, comme l'Inde, "ce sont souvent ceux qui font le ménage. Ce sont les annotateurs de données, les modérateurs de contenus. Ils nettoient le sol pour que tous les autres puissent marcher sur un terrain vierge", regrette Mme Chowdhury.

F.Brown--ThChM