The China Mail - Des photos de nus générées par IA: quand la sextorsion vise les enfants

USD -
AED 3.672501
AFN 63.501938
ALL 81.359706
AMD 377.669818
ANG 1.789731
AOA 916.999657
ARS 1399.243095
AUD 1.413448
AWG 1.8
AZN 1.70406
BAM 1.649288
BBD 2.014597
BDT 122.343139
BGN 1.647646
BHD 0.376988
BIF 2957.216162
BMD 1
BND 1.262391
BOB 6.936826
BRL 5.239397
BSD 1.000215
BTN 90.651814
BWP 13.147587
BYN 2.851806
BYR 19600
BZD 2.01173
CAD 1.363485
CDF 2255.000392
CHF 0.7694
CLF 0.021852
CLP 862.839988
CNY 6.90865
CNH 6.885035
COP 3660.56
CRC 482.356463
CUC 1
CUP 26.5
CVE 92.984328
CZK 20.469299
DJF 177.719573
DKK 6.302275
DOP 62.267834
DZD 129.678208
EGP 46.689601
ERN 15
ETB 155.595546
EUR 0.843605
FJD 2.19355
FKP 0.732816
GBP 0.73375
GEL 2.675004
GGP 0.732816
GHS 10.998065
GIP 0.732816
GMD 73.498
GNF 8779.393597
GTQ 7.672166
GYD 209.268496
HKD 7.81541
HNL 26.434315
HRK 6.355903
HTG 130.927735
HUF 318.506503
IDR 16838.75
ILS 3.09454
IMP 0.732816
INR 90.768902
IQD 1310.373615
IRR 42125.000158
ISK 122.330267
JEP 0.732816
JMD 156.445404
JOD 0.709002
JPY 153.503974
KES 129.030078
KGS 87.449842
KHR 4019.918286
KMF 414.999745
KPW 900.007411
KRW 1443.884986
KWD 0.30662
KYD 0.833583
KZT 491.472326
LAK 21429.444826
LBP 89572.077295
LKR 309.382761
LRD 186.044551
LSL 15.971902
LTL 2.95274
LVL 0.60489
LYD 6.306895
MAD 9.144787
MDL 16.969334
MGA 4364.820023
MKD 52.003104
MMK 2099.655078
MNT 3565.56941
MOP 8.053919
MRU 39.920057
MUR 45.929493
MVR 15.404986
MWK 1734.459394
MXN 17.15182
MYR 3.898083
MZN 63.909767
NAD 15.971902
NGN 1351.179986
NIO 36.809195
NOK 9.49901
NPR 145.042565
NZD 1.656965
OMR 0.384438
PAB 1.000299
PEN 3.354739
PGK 4.296496
PHP 57.943502
PKR 279.643967
PLN 3.55465
PYG 6537.953948
QAR 3.645586
RON 4.298501
RSD 99.046856
RUB 76.743515
RWF 1460.89919
SAR 3.750053
SBD 8.045182
SCR 13.645144
SDG 601.496929
SEK 8.939798
SGD 1.262398
SHP 0.750259
SLE 24.450246
SLL 20969.49935
SOS 570.647935
SRD 37.791998
STD 20697.981008
STN 20.660373
SVC 8.752409
SYP 11059.574895
SZL 15.964987
THB 31.140025
TJS 9.437321
TMT 3.5
TND 2.884863
TOP 2.40776
TRY 43.703699
TTD 6.782505
TWD 31.369805
TZS 2609.330283
UAH 43.230257
UGX 3540.934945
UYU 38.757173
UZS 12224.194562
VES 392.73007
VND 25970
VUV 119.078186
WST 2.712216
XAF 553.155767
XAG 0.013042
XAU 0.0002
XCD 2.70255
XCG 1.802681
XDR 0.687563
XOF 553.155767
XPF 100.569636
YER 238.350262
ZAR 15.976025
ZMK 9001.195659
ZMW 18.381829
ZWL 321.999592
  • AEX

    -0.7000

    993.1

    -0.07%

  • BEL20

    -15.1600

    5599

    -0.27%

  • PX1

    4.9900

    8316.5

    +0.06%

  • ISEQ

    85.6900

    12874.9

    +0.67%

  • OSEBX

    4.5600

    1827.51

    +0.25%

  • PSI20

    59.3900

    9058.6

    +0.66%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -44.2200

    4088.38

    -1.07%

  • N150

    -1.6100

    4032.05

    -0.04%

Des photos de nus générées par IA: quand la sextorsion vise les enfants
Des photos de nus générées par IA: quand la sextorsion vise les enfants / Photo: © AFP/Archives

Des photos de nus générées par IA: quand la sextorsion vise les enfants

Après le suicide de leur fils dans l'Etat américain du Kentucky, les parents d'Elijah Heacock, 16 ans, ont découvert dans son téléphone un SMS de menace réclamant 3.000 dollars pour supprimer une photo de lui nu générée par intelligence artificielle.

Taille du texte:

Comme des milliers de mineurs américains, l'adolescent a été victime d'une arnaque à la sextorsion, une forme de chantage qui prolifère avec le développement d'outils d'intelligence artificielle (IA) permettant de déshabiller numériquement une personne ou de créer des photos sexualisées - des moyens souvent utilisés contre des célébrités, mais désormais de plus en plus employés contre des enfants.

"Les personnes qui en ont après nos enfants sont bien organisées", estime John Burnett, le père d'Elijah Heacock. "Ils sont bien financés et impitoyables. Ils n'ont pas besoin que la photo soit réelle, ils peuvent générer ce qu'ils veulent puis l'utiliser pour faire chanter nos enfants."

La mort de son fils a déclenché une enquête sur le chantage sexuel alimenté par l'IA.

Le FBI a récemment constaté une "augmentation effroyable" des cas de sextorsion visant les mineurs aux Etats-Unis, les victimes étant généralement des garçons entre 14 et 17 ans. Cette menace a entraîné "un nombre alarmant" de suicides, selon la police fédérale.

- Marché florissant -

Dans un récent sondage, Thorn, une ONG dédiée à la prévention de l'exploitation des enfants en ligne, a révélé que 6% des adolescents américains avaient été directement victimes de photos ou vidéos de nus générées par IA.

"Les auteurs n'ont plus besoin de trouver des photos intimes d'enfants, parce que des images suffisamment convaincantes pour être nuisibles - parfois encore plus nuisibles que de vraies images - peuvent être créées en utilisant l'IA générative", a déclaré dans un rapport publié l'an dernier l'organisation britannique Internet Watch Foundation (IWF), qui lutte contre les contenus d'exploitation sexuelle en ligne.

L'IWF a identifié un "guide du pédophile" qui encourage explicitement à utiliser des sites de déshabillage pour générer du contenu dans le but de faire chanter les enfants. L'auteur du guide affirme avoir ainsi réussi à prendre au piège plusieurs jeunes filles.

Ces outils sont un marché florissant: selon Indicator, une publication américaine enquêtant sur les fraudes numériques, ils pourraient générer ensemble jusqu'à 36 millions de dollars par an.

La plupart d'entre eux dépendent des infrastructures technologiques de Google, Amazon ou Cloudflare pour fonctionner, et restent rentables malgré les mesures de répression des plateformes technologiques et des régulateurs, affirme Indicator.

- Une lutte impossible -

La menace ne concerne pas que les Etats-Unis: un sondage récent de l'ONG Save the Children a démontré qu'un jeune sur cinq en Espagne avait été victime de fausses photos dénudées.

Des procureurs espagnols ont indiqué cette année qu'ils enquêtaient sur trois mineurs de la ville de Puertollano (centre), qui auraient visé leurs camarades de classe et leurs professeurs avec du contenu pornographique généré par IA qu'ils distribuaient dans leur école.

Au Royaume-Uni, le gouvernement a adopté cette année une loi criminalisant la création de "deepfakes" à caractère sexuellement explicite, les auteurs risquant jusqu'à deux ans de prison.

Un texte similaire a été ratifié en mai par le président américain Donald Trump.

Le groupe Meta (Facebook, Instagram, WhatsApp) a également annoncé avoir engagé une action en justice contre une entreprise hongkongaise derrière l'application de déshabillage Crush AI, qui, selon lui, contournerait ses règles pour poster des publicités sur ses plateformes.

Mais malgré de telles mesures, les chercheurs estiment que ces applications utilisant l'IA sont résilientes.

"De nouveaux outils de déshabillage continuent de surgir", souligne Indicator, qui les qualifie d'"adversaires malveillants et tenaces".

burs-ac/sia/blb/ph

R.Lin--ThChM