The China Mail - Des photos de nus générées par IA: quand la sextorsion vise les enfants

USD -
AED 3.672501
AFN 69.504784
ALL 84.350327
AMD 383.839731
ANG 1.789699
AOA 916.999734
ARS 1320.005101
AUD 1.55135
AWG 1.8025
AZN 1.701786
BAM 1.695528
BBD 2.019931
BDT 122.652264
BGN 1.712855
BHD 0.376987
BIF 2942.5
BMD 1
BND 1.289721
BOB 6.912904
BRL 5.577195
BSD 1.000429
BTN 87.444679
BWP 13.523249
BYN 3.273935
BYR 19600
BZD 2.009545
CAD 1.382805
CDF 2890.000048
CHF 0.813065
CLF 0.02503
CLP 981.929699
CNY 7.176897
CNH 7.20844
COP 4188.5
CRC 505.767255
CUC 1
CUP 26.5
CVE 95.950149
CZK 21.500986
DJF 177.720236
DKK 6.52669
DOP 60.999635
DZD 130.664101
EGP 48.714203
ERN 15
ETB 138.208119
EUR 0.87453
FJD 2.26815
FKP 0.749719
GBP 0.754495
GEL 2.698421
GGP 0.749719
GHS 10.500154
GIP 0.749719
GMD 71.999841
GNF 8674.999869
GTQ 7.675736
GYD 209.303031
HKD 7.849495
HNL 26.350086
HRK 6.593796
HTG 131.278148
HUF 350.110202
IDR 16445.8
ILS 3.376935
IMP 0.749719
INR 87.670602
IQD 1310
IRR 42112.500036
ISK 124.369836
JEP 0.749719
JMD 160.078717
JOD 0.708986
JPY 149.234498
KES 129.514208
KGS 87.449822
KHR 4014.99961
KMF 431.502094
KPW 899.916557
KRW 1388.7497
KWD 0.3059
KYD 0.833727
KZT 543.834174
LAK 21580.00015
LBP 90510.565691
LKR 302.24403
LRD 201.000209
LSL 18.010031
LTL 2.95274
LVL 0.60489
LYD 5.414996
MAD 9.103968
MDL 17.067261
MGA 4429.999902
MKD 53.968518
MMK 2098.902778
MNT 3590.484358
MOP 8.089174
MRU 39.820231
MUR 46.149454
MVR 15.395576
MWK 1736.501579
MXN 18.852201
MYR 4.25986
MZN 63.9598
NAD 18.010228
NGN 1530.703679
NIO 36.750152
NOK 10.30182
NPR 139.9101
NZD 1.692005
OMR 0.384501
PAB 1.000438
PEN 3.569058
PGK 4.13025
PHP 57.821003
PKR 283.250264
PLN 3.737155
PYG 7492.815376
QAR 3.64075
RON 4.439095
RSD 102.482983
RUB 81.239386
RWF 1440
SAR 3.751252
SBD 8.244163
SCR 14.145159
SDG 600.499958
SEK 9.779805
SGD 1.295605
SHP 0.785843
SLE 23.000207
SLL 20969.503947
SOS 571.501722
SRD 36.670164
STD 20697.981008
STN 21.575
SVC 8.753321
SYP 13001.94935
SZL 18.010025
THB 32.730313
TJS 9.563891
TMT 3.51
TND 2.880175
TOP 2.342098
TRY 40.593202
TTD 6.788933
TWD 29.822401
TZS 2569.999739
UAH 41.765937
UGX 3586.538128
UYU 40.034504
UZS 12605.000148
VES 123.721575
VND 26202.5
VUV 119.475888
WST 2.757115
XAF 568.669132
XAG 0.026956
XAU 0.000304
XCD 2.70255
XCG 1.80294
XDR 0.69341
XOF 566.500796
XPF 104.925025
YER 240.649714
ZAR 17.99443
ZMK 9001.199026
ZMW 22.984061
ZWL 321.999592
  • AEX

    -0.5500

    909.41

    -0.06%

  • BEL20

    -6.0100

    4615.16

    -0.13%

  • PX1

    4.7100

    7861.96

    +0.06%

  • ISEQ

    -141.8500

    11485.24

    -1.22%

  • OSEBX

    -12.0900

    1621.45

    -0.74%

  • PSI20

    -26.1400

    7661.89

    -0.34%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    46.1200

    2983.6

    +1.57%

  • N150

    -28.1600

    3677.15

    -0.76%

Des photos de nus générées par IA: quand la sextorsion vise les enfants
Des photos de nus générées par IA: quand la sextorsion vise les enfants / Photo: © AFP/Archives

Des photos de nus générées par IA: quand la sextorsion vise les enfants

Après le suicide de leur fils dans l'Etat américain du Kentucky, les parents d'Elijah Heacock, 16 ans, ont découvert dans son téléphone un SMS de menace réclamant 3.000 dollars pour supprimer une photo de lui nu générée par intelligence artificielle.

Taille du texte:

Comme des milliers de mineurs américains, l'adolescent a été victime d'une arnaque à la sextorsion, une forme de chantage qui prolifère avec le développement d'outils d'intelligence artificielle (IA) permettant de déshabiller numériquement une personne ou de créer des photos sexualisées - des moyens souvent utilisés contre des célébrités, mais désormais de plus en plus employés contre des enfants.

"Les personnes qui en ont après nos enfants sont bien organisées", estime John Burnett, le père d'Elijah Heacock. "Ils sont bien financés et impitoyables. Ils n'ont pas besoin que la photo soit réelle, ils peuvent générer ce qu'ils veulent puis l'utiliser pour faire chanter nos enfants."

La mort de son fils a déclenché une enquête sur le chantage sexuel alimenté par l'IA.

Le FBI a récemment constaté une "augmentation effroyable" des cas de sextorsion visant les mineurs aux Etats-Unis, les victimes étant généralement des garçons entre 14 et 17 ans. Cette menace a entraîné "un nombre alarmant" de suicides, selon la police fédérale.

- Marché florissant -

Dans un récent sondage, Thorn, une ONG dédiée à la prévention de l'exploitation des enfants en ligne, a révélé que 6% des adolescents américains avaient été directement victimes de photos ou vidéos de nus générées par IA.

"Les auteurs n'ont plus besoin de trouver des photos intimes d'enfants, parce que des images suffisamment convaincantes pour être nuisibles - parfois encore plus nuisibles que de vraies images - peuvent être créées en utilisant l'IA générative", a déclaré dans un rapport publié l'an dernier l'organisation britannique Internet Watch Foundation (IWF), qui lutte contre les contenus d'exploitation sexuelle en ligne.

L'IWF a identifié un "guide du pédophile" qui encourage explicitement à utiliser des sites de déshabillage pour générer du contenu dans le but de faire chanter les enfants. L'auteur du guide affirme avoir ainsi réussi à prendre au piège plusieurs jeunes filles.

Ces outils sont un marché florissant: selon Indicator, une publication américaine enquêtant sur les fraudes numériques, ils pourraient générer ensemble jusqu'à 36 millions de dollars par an.

La plupart d'entre eux dépendent des infrastructures technologiques de Google, Amazon ou Cloudflare pour fonctionner, et restent rentables malgré les mesures de répression des plateformes technologiques et des régulateurs, affirme Indicator.

- Une lutte impossible -

La menace ne concerne pas que les Etats-Unis: un sondage récent de l'ONG Save the Children a démontré qu'un jeune sur cinq en Espagne avait été victime de fausses photos dénudées.

Des procureurs espagnols ont indiqué cette année qu'ils enquêtaient sur trois mineurs de la ville de Puertollano (centre), qui auraient visé leurs camarades de classe et leurs professeurs avec du contenu pornographique généré par IA qu'ils distribuaient dans leur école.

Au Royaume-Uni, le gouvernement a adopté cette année une loi criminalisant la création de "deepfakes" à caractère sexuellement explicite, les auteurs risquant jusqu'à deux ans de prison.

Un texte similaire a été ratifié en mai par le président américain Donald Trump.

Le groupe Meta (Facebook, Instagram, WhatsApp) a également annoncé avoir engagé une action en justice contre une entreprise hongkongaise derrière l'application de déshabillage Crush AI, qui, selon lui, contournerait ses règles pour poster des publicités sur ses plateformes.

Mais malgré de telles mesures, les chercheurs estiment que ces applications utilisant l'IA sont résilientes.

"De nouveaux outils de déshabillage continuent de surgir", souligne Indicator, qui les qualifie d'"adversaires malveillants et tenaces".

burs-ac/sia/blb/ph

R.Lin--ThChM