The China Mail - Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement

USD -
AED 3.67315
AFN 63.499797
ALL 81.580052
AMD 372.37948
ANG 1.789884
AOA 918.00014
ARS 1378.4941
AUD 1.396473
AWG 1.8
AZN 1.695737
BAM 1.665113
BBD 2.01512
BDT 122.759818
BGN 1.668102
BHD 0.377141
BIF 2975.105995
BMD 1
BND 1.273476
BOB 6.913109
BRL 4.981796
BSD 1.000451
BTN 93.790972
BWP 13.451617
BYN 2.814964
BYR 19600
BZD 2.012209
CAD 1.366535
CDF 2310.999403
CHF 0.783907
CLF 0.022614
CLP 889.98001
CNY 6.824801
CNH 6.83219
COP 3571.31
CRC 455.822507
CUC 1
CUP 26.5
CVE 94.398708
CZK 20.80235
DJF 177.720556
DKK 6.380725
DOP 59.649927
DZD 132.478975
EGP 52.009703
ERN 15
ETB 157.249641
EUR 0.853902
FJD 2.22125
FKP 0.740159
GBP 0.740195
GEL 2.690139
GGP 0.740159
GHS 11.08028
GIP 0.740159
GMD 72.999727
GNF 8777.488498
GTQ 7.646989
GYD 209.3344
HKD 7.83285
HNL 26.629917
HRK 6.432902
HTG 130.965962
HUF 311.454993
IDR 17222.15
ILS 2.99945
IMP 0.740159
INR 93.79375
IQD 1310
IRR 1319500.000205
ISK 122.780309
JEP 0.740159
JMD 158.492044
JOD 0.709039
JPY 159.452499
KES 129.11063
KGS 87.427396
KHR 4012.498444
KMF 420.99986
KPW 899.990254
KRW 1479.120122
KWD 0.30828
KYD 0.833745
KZT 463.595498
LAK 21925.000287
LBP 89550.000019
LKR 317.917894
LRD 184.249853
LSL 16.469714
LTL 2.95274
LVL 0.60489
LYD 6.340109
MAD 9.238104
MDL 17.138041
MGA 4137.000127
MKD 52.618326
MMK 2099.66818
MNT 3578.517246
MOP 8.0708
MRU 40.020066
MUR 46.549679
MVR 15.449741
MWK 1736.000334
MXN 17.342101
MYR 3.952501
MZN 63.90966
NAD 16.469697
NGN 1348.250335
NIO 36.729769
NOK 9.29155
NPR 150.065555
NZD 1.692835
OMR 0.38451
PAB 1.000528
PEN 3.43875
PGK 4.352499
PHP 60.201992
PKR 278.924966
PLN 3.624804
PYG 6293.366934
QAR 3.64501
RON 4.346099
RSD 100.198018
RUB 75.099706
RWF 1460
SAR 3.750464
SBD 8.048395
SCR 14.845011
SDG 600.499549
SEK 9.20431
SGD 1.275455
SHP 0.746601
SLE 24.650239
SLL 20969.496166
SOS 571.497547
SRD 37.458005
STD 20697.981008
STN 21.15
SVC 8.754693
SYP 110.631499
SZL 16.470246
THB 32.258503
TJS 9.419537
TMT 3.505
TND 2.8745
TOP 2.40776
TRY 44.923897
TTD 6.78285
TWD 31.500201
TZS 2605.000197
UAH 43.897001
UGX 3706.888478
UYU 39.776259
UZS 12069.999821
VES 482.15515
VND 26322.5
VUV 117.946979
WST 2.711482
XAF 558.460897
XAG 0.012838
XAU 0.000211
XCD 2.70255
XCG 1.803113
XDR 0.694162
XOF 556.5053
XPF 102.050139
YER 238.650177
ZAR 16.471975
ZMK 9001.200169
ZMW 19.034038
ZWL 321.999592
  • AEX

    2.2400

    1021.26

    +0.22%

  • BEL20

    -44.5400

    5386.79

    -0.82%

  • PX1

    -79.0600

    8156.43

    -0.96%

  • ISEQ

    -124.5500

    12584.72

    -0.98%

  • OSEBX

    4.3900

    1997.57

    +0.22%

  • PSI20

    49.3400

    9185.6

    +0.54%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -30.6900

    3955.3

    -0.77%

  • N150

    3.2900

    4110.99

    +0.08%

Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement
Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement / Photo: © AFP

Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement

Le deuxième "sommet" mondial sur l'intelligence artificielle (IA) s'est conclu mercredi à Séoul sur un engagement collectif à encadrer les dangers de cette technologie, mais la vitesse folle avec laquelle elle se développe leur promet bien des difficultés.

Taille du texte:

Lors de cet événement organisé conjointement par la Corée du Sud et le Royaume-Uni, les leaders du secteur - du sud-coréen Samsung Electronics à l'américain Google en passant par OpenAI, le créateur de ChatGPT - ont codifié leurs engagements dans un document intitulé "Seoul AI Business Pledge" ("Engagement de Séoul des entreprises sur l'IA").

En parallèle, plus d'une douzaine de pays, dont les Etats-Unis et la France, ont convenu de travailler ensemble contre les menaces posées par l'IA de pointe notamment les "risques graves", selon un communiqué commun de ces pays.

Ces risques pourraient inclure un système d'IA aidant "les acteurs non-étatiques à faire progresser le développement, la production, l'acquisition ou l'utilisation d'armes chimiques ou biologiques", ou pouvant "échapper à la surveillance humaine, notamment par le contournement des mesures de protection, la manipulation et la tromperie, ou la réplication et l'adaptation autonomes", selon ce communiqué.

La veille, seize des plus gros acteurs du secteur avaient déjà signé un accord pour garantir la sécurité de l'IA, en s'appuyant sur le consensus atteint lors du premier "sommet" mondial sur le sujet, en 2023 à Bletchley Park (Royaume-Uni).

Ils ont notamment promis de définir les risques "jugés intolérables", et ce que les entreprises feront pour les prévenir. Les signataires se sont également engagés à "ne pas développer ou déployer un modèle ou un système" dont les risques s'avéreraient trop difficiles à maîtriser.

- Se mettre au diapason -

Mais pour les experts, il est difficile pour les régulateurs de comprendre et de gérer l'IA, vu la vitesse foudroyante avec laquelle elle se développe.

"Je pense que c'est un très, très gros problème", avertit Markus Anderljung, du Centre pour la gouvernance de l'IA, organisme de recherche basé à Oxford, au Royaume-Uni.

"L'IA sera l'un des plus grands défis que les gouvernements du monde entier auront à relever au cours des deux prochaines décennies", prophétise cet expert. "Le monde devra acquérir une sorte de compréhension commune des risques liés aux modèles généraux les plus avancés."

Pour Michelle Donelan, la secrétaire d'Etat britannique à la Science, à l'Innovation et à la Technologie, "le rythme de développement de l'IA s'accélérant, nous devons nous mettre au diapason (...) si nous voulons en maîtriser les risques".

Lors du prochain "sommet" sur l'IA, les 10 et 11 février 2025 en France, il y aura davantage d'occasions de "repousser les limites" en termes de tests et d'évaluation des nouvelles technologies, pronostique Mme Donelan.

"Simultanément, nous devons porter notre attention sur l'atténuation des risques en dehors de ces modèles, en veillant à ce que la société dans son ensemble devienne résiliente face aux dangers posés par l'IA", ajoute la secrétaire d'Etat.

Le succès fulgurant de ChatGPT peu après sa sortie en 2022 a déclenché une ruée dans le domaine de l'IA générative, les entreprises technologiques du monde entier investissant des milliards de dollars dans le développement de leurs propres modèles.

Les modèles d'IA générative peuvent produire du texte, des photos, du son et même des vidéos à partir de simples invites de commande. Leurs partisans les présentent comme une percée qui améliorera la vie des citoyens et des entreprises dans le monde entier.

Mais les défenseurs des droits humains et les gouvernements craignent aussi leur utilisation à mauvais escient dans un grand nombre de situations, notamment pour manipuler les électeurs par le biais de fausses nouvelles ou de photos et de vidéos "deepfake" de dirigeants politiques.

Beaucoup exigent que des normes internationales soient instituées pour encadrer le développement et l'utilisation de l'IA.

"De plus en plus, nous réalisons qu'une coopération mondiale est nécessaire pour vraiment réfléchir aux problèmes et aux effets néfastes de l'intelligence artificielle. L'IA ne connaît pas de frontières", estime Rumman Chowdhury, une experte en éthique de l'IA qui dirige Humane Intelligence, organisation indépendante qui évalue les modèles d'IA.

Selon elle, le danger ne vient pas seulement de l'"IA galopante" des cauchemars de science-fiction, mais aussi de l'inégalité face à cette technologie, alors que l'IA est développée par "un très, très petit nombre de personnes et d'organisations" qui en récoltent les bénéfices.

Quant aux habitants des pays en développement, comme l'Inde, "ce sont souvent ceux qui font le ménage. Ce sont les annotateurs de données, les modérateurs de contenus. Ils nettoient le sol pour que tous les autres puissent marcher sur un terrain vierge", regrette Mme Chowdhury.

F.Brown--ThChM