The China Mail - L'IA peut encourager les passages à l'acte lors de tueries ou attentats, alerte une étude

USD -
AED 3.672498
AFN 62.999732
ALL 81.2693
AMD 368.114362
ANG 1.78969
AOA 918.000494
ARS 1384.994141
AUD 1.382409
AWG 1.8025
AZN 1.695524
BAM 1.666077
BBD 2.014457
BDT 122.941149
BGN 1.666332
BHD 0.377471
BIF 2977.296929
BMD 1
BND 1.273246
BOB 6.911416
BRL 4.911196
BSD 1.000217
BTN 95.599836
BWP 13.500701
BYN 2.796427
BYR 19600
BZD 2.01156
CAD 1.369235
CDF 2224.999743
CHF 0.780655
CLF 0.023209
CLP 913.460046
CNY 6.792094
CNH 6.792665
COP 3788.36
CRC 456.440902
CUC 1
CUP 26.5
CVE 93.93689
CZK 20.746599
DJF 178.103956
DKK 6.36761
DOP 59.027231
DZD 132.38791
EGP 52.898594
ERN 15
ETB 156.17715
EUR 0.85225
FJD 2.18535
FKP 0.732576
GBP 0.738925
GEL 2.669894
GGP 0.732576
GHS 11.291855
GIP 0.732576
GMD 73.497463
GNF 8776.211713
GTQ 7.631494
GYD 209.250717
HKD 7.828305
HNL 26.597149
HRK 6.4204
HTG 130.672573
HUF 304.843501
IDR 17533.2
ILS 2.91395
IMP 0.732576
INR 95.53775
IQD 1310.162706
IRR 1312000.00026
ISK 122.390071
JEP 0.732576
JMD 158.040677
JOD 0.708994
JPY 157.664501
KES 129.170419
KGS 87.449773
KHR 4012.437705
KMF 420.000201
KPW 900.018246
KRW 1498.094998
KWD 0.30811
KYD 0.833461
KZT 463.898117
LAK 21925.486738
LBP 89566.76932
LKR 323.055495
LRD 183.03638
LSL 16.532284
LTL 2.95274
LVL 0.60489
LYD 6.327815
MAD 9.128129
MDL 17.117957
MGA 4179.356229
MKD 52.519926
MMK 2098.953745
MNT 3580.85029
MOP 8.064861
MRU 39.897262
MUR 46.706991
MVR 15.397171
MWK 1734.441354
MXN 17.2296
MYR 3.929502
MZN 63.90968
NAD 16.532073
NGN 1370.106476
NIO 36.810495
NOK 9.18415
NPR 152.953704
NZD 1.68165
OMR 0.384494
PAB 1.000175
PEN 3.427819
PGK 4.355862
PHP 61.516496
PKR 278.627173
PLN 3.62445
PYG 6105.472094
QAR 3.645959
RON 4.433496
RSD 100.04046
RUB 73.824676
RWF 1462.859869
SAR 3.754672
SBD 8.029009
SCR 14.649939
SDG 600.527064
SEK 9.295175
SGD 1.272565
SHP 0.746601
SLE 24.625042
SLL 20969.499428
SOS 571.611117
SRD 37.254502
STD 20697.981008
STN 20.871402
SVC 8.751171
SYP 110.529423
SZL 16.526884
THB 32.367023
TJS 9.351751
TMT 3.5
TND 2.908879
TOP 2.40776
TRY 45.41337
TTD 6.787631
TWD 31.570501
TZS 2600.150145
UAH 43.959484
UGX 3759.408104
UYU 39.772219
UZS 12133.112416
VES 504.28356
VND 26349.5
VUV 118.32345
WST 2.709295
XAF 558.801055
XAG 0.011607
XAU 0.000213
XCD 2.70255
XCG 1.802539
XDR 0.694969
XOF 558.801055
XPF 101.593413
YER 238.650219
ZAR 16.51652
ZMK 9001.198013
ZMW 18.8284
ZWL 321.999592
  • AEX

    -15.7400

    999.44

    -1.55%

  • BEL20

    -28.0400

    5469.73

    -0.51%

  • PX1

    -76.5400

    7979.92

    -0.95%

  • ISEQ

    -156.6600

    12476.99

    -1.24%

  • OSEBX

    7.1200

    1984.51

    +0.36%

  • PSI20

    -115.4900

    9050.18

    -1.26%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    23.7800

    4123.54

    +0.58%

  • N150

    -21.8200

    4174.74

    -0.52%

L'IA peut encourager les passages à l'acte lors de tueries ou attentats, alerte une étude
L'IA peut encourager les passages à l'acte lors de tueries ou attentats, alerte une étude / Photo: © AFP/Archives

L'IA peut encourager les passages à l'acte lors de tueries ou attentats, alerte une étude

Choisir la bonne arme, trouver une cible, adopter la bonne tactique d'attaque... Qu'il s'agisse de poser une bombe dans une synagogue ou d'attaquer une école, la plupart des logiciels d'intelligence artificielle sont beaucoup trop coopératifs avec des assaillants potentiels, alerte une étude mercredi.

Taille du texte:

Des chercheurs du Centre pour la lutte contre la haine numérique (CCDH), organisme de surveillance à but non lucratif, et de CNN se sont fait passer pour de jeunes garçons de 13 ans aux États-Unis et en Irlande pour tester 10 chatbots, dont ChatGPT, Google Gemini, Perplexity, Deepseek et Meta AI.

Les tests ont montré que huit de ces chatbots ont aidé les agresseurs potentiels dans plus de la moitié des réponses, leur fournissant des conseils sur les "lieux à cibler" ou les "armes à utiliser" lors d'une attaque, selon l'étude.

Les chatbots, ajoute-t-elle, sont devenus un "puissant accélérateur de dommages".

"En quelques minutes, un utilisateur peut passer d'une vague pulsion violente à un plan très détaillé et réalisable", explique Imran Ahmed, directeur général du CCDH. "La majorité des chatbots testés ont fourni des conseils sur les armes, les tactiques et le choix des cibles. Ces demandes auraient dû susciter un refus immédiat et total."

Perplexity et Meta AI sont les "moins sûrs", aidant les chercheurs dans la plupart de leurs réponses, tandis que seuls My AI, de Snapchat, et Claude, d'Anthropic, ont refusé de les assister dans plus de la moitié des réponses.

Dans un exemple effrayant, DeepSeek, un modèle d'IA chinois, a conclu ses conseils sur le choix des armes par la phrase: "Bonne chasse!".

Gemini a lui suggéré à un utilisateur discutant d'attaques contre des synagogues que "les éclats métalliques sont généralement plus mortels".

- Claude le plus raisonnable -

Les chercheurs ont également découvert que Character.AI encourageait "activement" les attaques violentes, suggérant notamment à l'utilisateur "d'utiliser une arme à feu" contre le PDG d'une compagnie d'assurance maladie et d'agresser physiquement un homme politique qu'il n'aimait pas.

La conclusion la plus accablante de cette étude est que "ce risque est tout à fait évitable", souligne Imran Ahmed. "Claude a démontré sa capacité à reconnaître les risques et à dissuader les actes violents. La technologie permettant d'éviter ces risques existe. Ce qui manque, c'est la volonté de faire passer la sécurité des consommateurs et la sécurité nationale avant la rapidité de mise sur le marché et les profits."

L'AFP a contacté plusieurs entreprises d'IA pour obtenir leurs commentaires. "Nous disposons de protections solides pour aider à prévenir les réponses inappropriées des IA, et nous avons pris des mesures immédiates pour corriger le problème identifié", a affirmé un porte-parole de Meta. "Nos politiques interdisent à nos IA de promouvoir ou de faciliter des actes violents, et nous travaillons constamment à améliorer nos outils."

Et du côté de Google, un porte-parole a indiqué que ces tests avaient "été réalisés sur un ancien modèle qui n'alimente plus Gemini. Notre examen interne avec notre modèle actuel montre que Gemini a répondu de manière appropriée à la grande majorité des requêtes, sans fournir d'informations +exploitables+ au-delà de celles que l'on peut trouver dans une bibliothèque ou sur le web classique. Lorsque les réponses pouvaient être améliorées, nous avons rapidement pris des mesures pour y remédier dans le modèle actuel".

Mardi, la famille d'une jeune fille blessée lors d'une tuerie au Canada a poursuivi OpenAI en justice, reprochant à l'entreprise de ne pas avoir signalé à la police d'inquiétants messages écrits par l'assaillante à ChatGPT.

M.Chau--ThChM