The China Mail - Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement

USD -
AED 3.672497
AFN 67.865224
ALL 82.710836
AMD 380.867157
ANG 1.789783
AOA 917.000477
ARS 1432.903012
AUD 1.504574
AWG 1.8025
AZN 1.698985
BAM 1.666823
BBD 2.005437
BDT 121.17235
BGN 1.666255
BHD 0.376991
BIF 2971.393994
BMD 1
BND 1.279664
BOB 6.880183
BRL 5.3894
BSD 0.995683
BTN 88.038351
BWP 13.342935
BYN 3.370577
BYR 19600
BZD 2.00254
CAD 1.38477
CDF 2868.502706
CHF 0.797535
CLF 0.024262
CLP 951.799239
CNY 7.11865
CNH 7.123355
COP 3899
CRC 501.894141
CUC 1
CUP 26.5
CVE 93.972515
CZK 20.781501
DJF 177.311311
DKK 6.37279
DOP 63.459055
DZD 129.791874
EGP 48.1613
ERN 15
ETB 142.96594
EUR 0.85375
FJD 2.24025
FKP 0.737136
GBP 0.73909
GEL 2.689793
GGP 0.737136
GHS 12.147012
GIP 0.737136
GMD 71.501822
GNF 8635.920075
GTQ 7.62757
GYD 208.314513
HKD 7.782325
HNL 26.082473
HRK 6.430603
HTG 130.386797
HUF 334.4965
IDR 16398.55
ILS 3.336735
IMP 0.737136
INR 88.32525
IQD 1304.384881
IRR 42075.000141
ISK 122.259972
JEP 0.737136
JMD 159.423192
JOD 0.70903
JPY 147.932029
KES 129.207217
KGS 87.450286
KHR 3991.119482
KMF 419.497249
KPW 899.95109
KRW 1390.270443
KWD 0.30545
KYD 0.829761
KZT 536.804875
LAK 21590.318319
LBP 89163.651859
LKR 300.507095
LRD 182.712262
LSL 17.474806
LTL 2.95274
LVL 0.60489
LYD 5.387946
MAD 8.9906
MDL 16.543731
MGA 4431.736346
MKD 52.447225
MMK 2099.069477
MNT 3596.841777
MOP 7.989006
MRU 39.568588
MUR 45.480115
MVR 15.404969
MWK 1726.587435
MXN 18.498598
MYR 4.2025
MZN 63.89837
NAD 17.475178
NGN 1501.000124
NIO 36.638528
NOK 9.904105
NPR 140.863592
NZD 1.68043
OMR 0.384502
PAB 0.995679
PEN 3.464721
PGK 4.220377
PHP 57.146503
PKR 282.63277
PLN 3.636505
PYG 7132.508352
QAR 3.62936
RON 4.328799
RSD 100.004268
RUB 84.635501
RWF 1442.785858
SAR 3.751514
SBD 8.223773
SCR 15.062583
SDG 601.499774
SEK 9.346335
SGD 1.283395
SHP 0.785843
SLE 23.385017
SLL 20969.49797
SOS 569.051992
SRD 39.772501
STD 20697.981008
STN 20.880296
SVC 8.71266
SYP 13001.882518
SZL 17.467007
THB 31.735044
TJS 9.44404
TMT 3.5
TND 2.905891
TOP 2.342097
TRY 41.369902
TTD 6.762688
TWD 30.308501
TZS 2459.9999
UAH 41.154467
UGX 3495.061234
UYU 39.850858
UZS 12307.285852
VES 157.53157
VND 26382.5
VUV 119.422851
WST 2.656919
XAF 559.043938
XAG 0.023633
XAU 0.000275
XCD 2.70255
XCG 1.79452
XDR 0.695271
XOF 559.041556
XPF 101.638869
YER 239.597767
ZAR 17.39678
ZMK 9001.20432
ZMW 23.722472
ZWL 321.999592
  • AEX

    4.7100

    910.44

    +0.52%

  • BEL20

    -7.6800

    4790.32

    -0.16%

  • PX1

    -28.9500

    7794.61

    -0.37%

  • ISEQ

    43.4900

    11488.71

    +0.38%

  • OSEBX

    -1.1600

    1651.81

    -0.07%

  • PSI20

    -13.1800

    7741.8

    -0.17%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -8.7100

    3618.48

    -0.24%

  • N150

    1.4700

    3665.94

    +0.04%

Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement
Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement / Photo: © AFP

Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement

Le deuxième "sommet" mondial sur l'intelligence artificielle (IA) s'est conclu mercredi à Séoul sur un engagement collectif à encadrer les dangers de cette technologie, mais la vitesse folle avec laquelle elle se développe leur promet bien des difficultés.

Taille du texte:

Lors de cet événement organisé conjointement par la Corée du Sud et le Royaume-Uni, les leaders du secteur - du sud-coréen Samsung Electronics à l'américain Google en passant par OpenAI, le créateur de ChatGPT - ont codifié leurs engagements dans un document intitulé "Seoul AI Business Pledge" ("Engagement de Séoul des entreprises sur l'IA").

En parallèle, plus d'une douzaine de pays, dont les Etats-Unis et la France, ont convenu de travailler ensemble contre les menaces posées par l'IA de pointe notamment les "risques graves", selon un communiqué commun de ces pays.

Ces risques pourraient inclure un système d'IA aidant "les acteurs non-étatiques à faire progresser le développement, la production, l'acquisition ou l'utilisation d'armes chimiques ou biologiques", ou pouvant "échapper à la surveillance humaine, notamment par le contournement des mesures de protection, la manipulation et la tromperie, ou la réplication et l'adaptation autonomes", selon ce communiqué.

La veille, seize des plus gros acteurs du secteur avaient déjà signé un accord pour garantir la sécurité de l'IA, en s'appuyant sur le consensus atteint lors du premier "sommet" mondial sur le sujet, en 2023 à Bletchley Park (Royaume-Uni).

Ils ont notamment promis de définir les risques "jugés intolérables", et ce que les entreprises feront pour les prévenir. Les signataires se sont également engagés à "ne pas développer ou déployer un modèle ou un système" dont les risques s'avéreraient trop difficiles à maîtriser.

- Se mettre au diapason -

Mais pour les experts, il est difficile pour les régulateurs de comprendre et de gérer l'IA, vu la vitesse foudroyante avec laquelle elle se développe.

"Je pense que c'est un très, très gros problème", avertit Markus Anderljung, du Centre pour la gouvernance de l'IA, organisme de recherche basé à Oxford, au Royaume-Uni.

"L'IA sera l'un des plus grands défis que les gouvernements du monde entier auront à relever au cours des deux prochaines décennies", prophétise cet expert. "Le monde devra acquérir une sorte de compréhension commune des risques liés aux modèles généraux les plus avancés."

Pour Michelle Donelan, la secrétaire d'Etat britannique à la Science, à l'Innovation et à la Technologie, "le rythme de développement de l'IA s'accélérant, nous devons nous mettre au diapason (...) si nous voulons en maîtriser les risques".

Lors du prochain "sommet" sur l'IA, les 10 et 11 février 2025 en France, il y aura davantage d'occasions de "repousser les limites" en termes de tests et d'évaluation des nouvelles technologies, pronostique Mme Donelan.

"Simultanément, nous devons porter notre attention sur l'atténuation des risques en dehors de ces modèles, en veillant à ce que la société dans son ensemble devienne résiliente face aux dangers posés par l'IA", ajoute la secrétaire d'Etat.

Le succès fulgurant de ChatGPT peu après sa sortie en 2022 a déclenché une ruée dans le domaine de l'IA générative, les entreprises technologiques du monde entier investissant des milliards de dollars dans le développement de leurs propres modèles.

Les modèles d'IA générative peuvent produire du texte, des photos, du son et même des vidéos à partir de simples invites de commande. Leurs partisans les présentent comme une percée qui améliorera la vie des citoyens et des entreprises dans le monde entier.

Mais les défenseurs des droits humains et les gouvernements craignent aussi leur utilisation à mauvais escient dans un grand nombre de situations, notamment pour manipuler les électeurs par le biais de fausses nouvelles ou de photos et de vidéos "deepfake" de dirigeants politiques.

Beaucoup exigent que des normes internationales soient instituées pour encadrer le développement et l'utilisation de l'IA.

"De plus en plus, nous réalisons qu'une coopération mondiale est nécessaire pour vraiment réfléchir aux problèmes et aux effets néfastes de l'intelligence artificielle. L'IA ne connaît pas de frontières", estime Rumman Chowdhury, une experte en éthique de l'IA qui dirige Humane Intelligence, organisation indépendante qui évalue les modèles d'IA.

Selon elle, le danger ne vient pas seulement de l'"IA galopante" des cauchemars de science-fiction, mais aussi de l'inégalité face à cette technologie, alors que l'IA est développée par "un très, très petit nombre de personnes et d'organisations" qui en récoltent les bénéfices.

Quant aux habitants des pays en développement, comme l'Inde, "ce sont souvent ceux qui font le ménage. Ce sont les annotateurs de données, les modérateurs de contenus. Ils nettoient le sol pour que tous les autres puissent marcher sur un terrain vierge", regrette Mme Chowdhury.

F.Brown--ThChM