The China Mail - Des photos de nus générées par IA: quand la sextorsion vise les enfants

USD -
AED 3.672503
AFN 66.40135
ALL 83.577028
AMD 382.730415
ANG 1.789982
AOA 916.99937
ARS 1419.988799
AUD 1.530421
AWG 1.8075
AZN 1.726725
BAM 1.692008
BBD 2.014958
BDT 122.146716
BGN 1.69191
BHD 0.377032
BIF 2946.886653
BMD 1
BND 1.303554
BOB 6.938286
BRL 5.291202
BSD 1.000502
BTN 88.679433
BWP 13.388763
BYN 3.410355
BYR 19600
BZD 2.012017
CAD 1.402295
CDF 2147.999849
CHF 0.805055
CLF 0.023909
CLP 937.9395
CNY 7.11965
CNH 7.121415
COP 3753.72
CRC 502.320833
CUC 1
CUP 26.5
CVE 95.624995
CZK 21.0116
DJF 178.159229
DKK 6.45983
DOP 64.249724
DZD 130.504961
EGP 47.259948
ERN 15
ETB 153.632223
EUR 0.865203
FJD 2.278987
FKP 0.760102
GBP 0.759075
GEL 2.705032
GGP 0.760102
GHS 10.944671
GIP 0.760102
GMD 73.000141
GNF 8684.668161
GTQ 7.66845
GYD 209.299207
HKD 7.773945
HNL 26.322961
HRK 6.519401
HTG 130.986988
HUF 331.919547
IDR 16697
ILS 3.23525
IMP 0.760102
INR 88.70745
IQD 1310.523812
IRR 42099.999792
ISK 126.480273
JEP 0.760102
JMD 161.038579
JOD 0.709009
JPY 154.139018
KES 129.213757
KGS 87.45037
KHR 4015.000267
KMF 420.999761
KPW 900.001961
KRW 1456.179725
KWD 0.30709
KYD 0.833687
KZT 524.097063
LAK 21722.392837
LBP 89583.978546
LKR 304.200009
LRD 183.077329
LSL 17.192699
LTL 2.95274
LVL 0.60489
LYD 5.459328
MAD 9.261661
MDL 16.981703
MGA 4494.683382
MKD 53.222318
MMK 2099.688142
MNT 3580.599313
MOP 8.009828
MRU 39.728682
MUR 45.860477
MVR 15.404997
MWK 1734.887222
MXN 18.379596
MYR 4.163022
MZN 63.959822
NAD 17.192699
NGN 1436.610157
NIO 36.813372
NOK 10.130996
NPR 141.895686
NZD 1.771746
OMR 0.384498
PAB 1.000428
PEN 3.376575
PGK 4.223805
PHP 58.970405
PKR 282.888599
PLN 3.66405
PYG 7087.087607
QAR 3.64632
RON 4.399041
RSD 101.391977
RUB 81.250681
RWF 1454.218254
SAR 3.750503
SBD 8.230592
SCR 13.741165
SDG 600.494403
SEK 9.513475
SGD 1.302425
SHP 0.750259
SLE 23.236536
SLL 20969.499529
SOS 570.768552
SRD 38.496504
STD 20697.981008
STN 21.196889
SVC 8.752974
SYP 11056.839565
SZL 17.189528
THB 32.349855
TJS 9.26848
TMT 3.51
TND 2.953357
TOP 2.342104
TRY 42.238603
TTD 6.785761
TWD 30.9811
TZS 2455.599549
UAH 42.069631
UGX 3511.534252
UYU 39.804309
UZS 12020.018946
VES 228.194043
VND 26300
VUV 122.518583
WST 2.820889
XAF 567.53013
XAG 0.019786
XAU 0.000243
XCD 2.70255
XCG 1.802933
XDR 0.705825
XOF 567.52522
XPF 103.174569
YER 238.530785
ZAR 17.144055
ZMK 9001.208506
ZMW 22.634213
ZWL 321.999592
  • AEX

    10.2700

    961.08

    +1.08%

  • BEL20

    58.4800

    4972.78

    +1.19%

  • PX1

    104.9500

    8055.51

    +1.32%

  • ISEQ

    282.2900

    12294.83

    +2.35%

  • OSEBX

    7.8400

    1607.11

    +0.49%

  • PSI20

    127.7200

    8314.75

    +1.56%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    87.5100

    4157.61

    +2.15%

  • N150

    53.2000

    3672.19

    +1.47%

Des photos de nus générées par IA: quand la sextorsion vise les enfants
Des photos de nus générées par IA: quand la sextorsion vise les enfants / Photo: © AFP/Archives

Des photos de nus générées par IA: quand la sextorsion vise les enfants

Après le suicide de leur fils dans l'Etat américain du Kentucky, les parents d'Elijah Heacock, 16 ans, ont découvert dans son téléphone un SMS de menace réclamant 3.000 dollars pour supprimer une photo de lui nu générée par intelligence artificielle.

Taille du texte:

Comme des milliers de mineurs américains, l'adolescent a été victime d'une arnaque à la sextorsion, une forme de chantage qui prolifère avec le développement d'outils d'intelligence artificielle (IA) permettant de déshabiller numériquement une personne ou de créer des photos sexualisées - des moyens souvent utilisés contre des célébrités, mais désormais de plus en plus employés contre des enfants.

"Les personnes qui en ont après nos enfants sont bien organisées", estime John Burnett, le père d'Elijah Heacock. "Ils sont bien financés et impitoyables. Ils n'ont pas besoin que la photo soit réelle, ils peuvent générer ce qu'ils veulent puis l'utiliser pour faire chanter nos enfants."

La mort de son fils a déclenché une enquête sur le chantage sexuel alimenté par l'IA.

Le FBI a récemment constaté une "augmentation effroyable" des cas de sextorsion visant les mineurs aux Etats-Unis, les victimes étant généralement des garçons entre 14 et 17 ans. Cette menace a entraîné "un nombre alarmant" de suicides, selon la police fédérale.

- Marché florissant -

Dans un récent sondage, Thorn, une ONG dédiée à la prévention de l'exploitation des enfants en ligne, a révélé que 6% des adolescents américains avaient été directement victimes de photos ou vidéos de nus générées par IA.

"Les auteurs n'ont plus besoin de trouver des photos intimes d'enfants, parce que des images suffisamment convaincantes pour être nuisibles - parfois encore plus nuisibles que de vraies images - peuvent être créées en utilisant l'IA générative", a déclaré dans un rapport publié l'an dernier l'organisation britannique Internet Watch Foundation (IWF), qui lutte contre les contenus d'exploitation sexuelle en ligne.

L'IWF a identifié un "guide du pédophile" qui encourage explicitement à utiliser des sites de déshabillage pour générer du contenu dans le but de faire chanter les enfants. L'auteur du guide affirme avoir ainsi réussi à prendre au piège plusieurs jeunes filles.

Ces outils sont un marché florissant: selon Indicator, une publication américaine enquêtant sur les fraudes numériques, ils pourraient générer ensemble jusqu'à 36 millions de dollars par an.

La plupart d'entre eux dépendent des infrastructures technologiques de Google, Amazon ou Cloudflare pour fonctionner, et restent rentables malgré les mesures de répression des plateformes technologiques et des régulateurs, affirme Indicator.

- Une lutte impossible -

La menace ne concerne pas que les Etats-Unis: un sondage récent de l'ONG Save the Children a démontré qu'un jeune sur cinq en Espagne avait été victime de fausses photos dénudées.

Des procureurs espagnols ont indiqué cette année qu'ils enquêtaient sur trois mineurs de la ville de Puertollano (centre), qui auraient visé leurs camarades de classe et leurs professeurs avec du contenu pornographique généré par IA qu'ils distribuaient dans leur école.

Au Royaume-Uni, le gouvernement a adopté cette année une loi criminalisant la création de "deepfakes" à caractère sexuellement explicite, les auteurs risquant jusqu'à deux ans de prison.

Un texte similaire a été ratifié en mai par le président américain Donald Trump.

Le groupe Meta (Facebook, Instagram, WhatsApp) a également annoncé avoir engagé une action en justice contre une entreprise hongkongaise derrière l'application de déshabillage Crush AI, qui, selon lui, contournerait ses règles pour poster des publicités sur ses plateformes.

Mais malgré de telles mesures, les chercheurs estiment que ces applications utilisant l'IA sont résilientes.

"De nouveaux outils de déshabillage continuent de surgir", souligne Indicator, qui les qualifie d'"adversaires malveillants et tenaces".

burs-ac/sia/blb/ph

R.Lin--ThChM