The China Mail - "Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA

USD -
AED 3.672501
AFN 63.495489
ALL 83.192586
AMD 375.730804
ANG 1.790083
AOA 916.999989
ARS 1383.990646
AUD 1.452226
AWG 1.8
AZN 1.697632
BAM 1.693993
BBD 2.007535
BDT 122.298731
BGN 1.709309
BHD 0.376597
BIF 2960.807241
BMD 1
BND 1.28353
BOB 6.91265
BRL 5.2553
BSD 0.996752
BTN 94.473171
BWP 13.741284
BYN 2.966957
BYR 19600
BZD 2.004591
CAD 1.387005
CDF 2282.496424
CHF 0.795017
CLF 0.023433
CLP 925.259734
CNY 6.91185
CNH 6.92068
COP 3662.985579
CRC 462.864319
CUC 1
CUP 26.5
CVE 95.504742
CZK 21.2958
DJF 177.489065
DKK 6.492703
DOP 59.330475
DZD 133.010264
EGP 52.781589
ERN 15
ETB 154.083756
EUR 0.866103
FJD 2.257405
FKP 0.752712
GBP 0.750441
GEL 2.679862
GGP 0.752712
GHS 10.921138
GIP 0.752712
GMD 73.500634
GNF 8739.335672
GTQ 7.62808
GYD 208.64406
HKD 7.82615
HNL 26.46399
HRK 6.5452
HTG 130.656966
HUF 338.089034
IDR 16990.8
ILS 3.13762
IMP 0.752712
INR 94.850202
IQD 1305.703521
IRR 1313250.000216
ISK 124.760128
JEP 0.752712
JMD 156.892296
JOD 0.708974
JPY 160.287037
KES 129.470356
KGS 87.450219
KHR 3992.031527
KMF 428.0001
KPW 900.00296
KRW 1508.000246
KWD 0.30791
KYD 0.830627
KZT 481.867394
LAK 21678.576069
LBP 89256.247023
LKR 313.975142
LRD 182.893768
LSL 17.115586
LTL 2.95274
LVL 0.60489
LYD 6.362652
MAD 9.315751
MDL 17.507254
MGA 4153.999394
MKD 53.388766
MMK 2098.832611
MNT 3571.142668
MOP 8.042181
MRU 39.797324
MUR 46.77056
MVR 15.449908
MWK 1728.292408
MXN 18.140005
MYR 3.923953
MZN 63.950136
NAD 17.115586
NGN 1383.460041
NIO 36.680958
NOK 9.702861
NPR 151.156728
NZD 1.737333
OMR 0.38408
PAB 0.996752
PEN 3.472089
PGK 4.307306
PHP 60.549842
PKR 278.184401
PLN 3.72091
PYG 6516.824737
QAR 3.634057
RON 4.427298
RSD 101.684639
RUB 81.511073
RWF 1455.545451
SAR 3.752751
SBD 8.042037
SCR 15.03876
SDG 601.000048
SEK 9.47367
SGD 1.292698
SHP 0.750259
SLE 24.55019
SLL 20969.510825
SOS 569.659175
SRD 37.601032
STD 20697.981008
STN 21.220389
SVC 8.721147
SYP 110.527654
SZL 17.114027
THB 32.495002
TJS 9.523624
TMT 3.5
TND 2.938634
TOP 2.40776
TRY 44.440189
TTD 6.772336
TWD 32.044406
TZS 2571.564679
UAH 43.689489
UGX 3713.134988
UYU 40.344723
UZS 12155.385215
VES 467.928355
VND 26337.5
VUV 119.385423
WST 2.775484
XAF 568.149495
XAG 0.014291
XAU 0.000222
XCD 2.70255
XCG 1.796371
XDR 0.706596
XOF 568.149495
XPF 103.295656
YER 238.601083
ZAR 17.089659
ZMK 9001.202399
ZMW 18.763154
ZWL 321.999592
  • AEX

    -10.5800

    960.22

    -1.09%

  • BEL20

    -21.0300

    4985.22

    -0.42%

  • PX1

    -67.6000

    7701.95

    -0.87%

  • ISEQ

    -51.7200

    11975.33

    -0.43%

  • OSEBX

    -6.5600

    1981.56

    -0.33%

  • PSI20

    -115.1700

    8882.11

    -1.28%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -13.4000

    3607.49

    -0.37%

  • N150

    -43.9600

    3778.5

    -1.15%

"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA
"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA / Photo: © AFP/Archives

"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA

Ellis, adolescente texane de 14 ans, s'est réveillée un matin d'octobre avec plusieurs appels manqués et messages affolés sur son téléphone. De fausses photographies d'elle, dénudée, circulaient sur les réseaux sociaux.

Taille du texte:

"C'étaient des photos d'une de mes meilleures amies et de moi tirées d'Instagram. Des corps nus avaient été édités dessus", raconte la collégienne à l'AFP.

"Je me souviens avoir eu très très peur car ces faux nus étaient en train d'être envoyés autour de moi. Et je n'ai jamais rien fait de tel".

Comme plusieurs camarades de son collège de la périphérie de Dallas, au Texas, la jeune fille a été victime de montages hyperréalistes (deepfakes) à caractère sexuel, fabriqués sans leur consentement par un élève puis partagés sur le réseau Snapchat.

Avec la popularisation de l'intelligence artificielle (IA), il est devenu plus facile de fabriquer ces montages photo ou vidéo et de les rendre hyperréalistes, ouvrant la voie à leur utilisation à des fins de harcèlement ou d'humiliation.

"Les filles ne faisaient que pleurer, et pleurer à ne plus en finir, elles avaient honte", se souvient Anna Berry McAdams, mise au courant immédiatement par sa fille Ellis.

"Elle me disait: +Maman, on dirait moi+, et je lui répondais +mais non ma chérie, j'étais avec toi quand la photo a été prise et je sais que ce n'est pas le cas+", poursuit la quinquagénaire, qui se dit "horrifiée" par le réalisme des clichés.

- Quelques dollars -

Fin octobre, d'autres "deepfakes" à caractère sexuel ont été découverts dans un lycée du New Jersey, au nord-est des Etats-Unis. Une enquête a été ouverte pour identifier toutes les victimes et le ou les auteurs.

"Nous commençons à voir de plus en plus de cas émerger (...) mais en matière d'abus sexuels, de +revenge porn+ (divulgation malveillante d'images intimes) ou de +deepfakes pornographiques+, beaucoup de personnes ne se manifestent pas et souffrent en silence parce qu'elles ont peur de rendre l'affaire publique", expose Renée Cummings, criminologue et chercheuse en intelligence artificielle.

S'il est impossible d'évaluer l'ampleur du phénomène, "n'importe qui ayant un smartphone et quelques dollars peut maintenant fabriquer un +deepfake+", précise cette professeure de l'Université de Virginie.

Et ce, grâce aux récents progrès et à la démocratisation de l'IA générative, capable de produire textes, lignes de code, images et sons sur simple requête en langage courant.

De fait, les montages hyperréalistes, qui touchaient auparavant à l'image des célébrités "ayant des tas et des tas de photos et de vidéos d'eux en ligne" concernent à présent tout un chacun, explique Hany Farid, professeur à l'Université de Californie à Berkeley.

"Si vous avez un profil LinkedIn avec une photo de votre tête, quelqu'un peut créer une image sexuelle de vous", poursuit ce spécialiste en détection d'images manipulées numériquement, notant que ces montages "visent principalement les femmes et les jeunes filles".

- "Traumatisme bien réel"-

Face à cette menace grandissante, les systèmes scolaires et judiciaires apparaissent dépassés.

"Bien que votre visage ait été superposé à un corps, ce corps n'est pas vraiment le vôtre, donc ce n'est pas comme si quelqu'un avait partagé un nu de vous" aux yeux de la loi, explique Mme Cummings.

Aux Etats-Unis, aucune loi fédérale ne punit la fabrication et la transmission de fausses images à caractère sexuel, et seule une poignée d'Etats dispose de législations spécifiques.

Fin octobre, Joe Biden a exhorté les législateurs à instaurer des garde-fous, afin d'empêcher notamment "l'IA générative de produire des contenus pédocriminels ou des images intimes non consenties de personnes réelles".

Si la responsabilité des créateurs de ces images -aujourd'hui difficilement identifiables- est centrale, celle des entreprises derrière les sites ou logiciels utilisés, et des réseaux sociaux, vecteurs des contenus, doit aussi être posée, insiste M. Farid.

Car si ces images sont fausses, "le traumatisme est lui bien réel", abonde Renée Cummings, décrivant des personnes "souffrant d'anxiété, de crises de panique, de dépression ou encore de syndromes post-traumatiques après avoir été victimes de +deepfakes pornographiques". "Cela peut détruire une vie".

La texane Ellis, qui se décrit comme une adolescente "sociable" et sportive, raconte avoir à présent "constamment peur", bien que l'élève à l'origine des "deepfakes" ait été identifié et exclu temporairement du collège.

"Je ne sais pas combien de photos il a pu faire ni combien de personnes ont pu les recevoir", explique-t-elle, disant avoir demandé à changer d'établissement scolaire.

Face à cette inconnue, sa mère se mobilise pour faire reconnaître ces images comme de la "pornographie infantile" et les voir punir comme telles.

"Cela pourrait les affecter toute leur vie. Cela ne va jamais sortir d'internet. Donc quand elles vont postuler à l'université par exemple, qui sait si (ces images) ne vont pas resurgir?", s'inquiète Anna Berry McAdams.

Y.Su--ThChM