The China Mail - "Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA

USD -
AED 3.673096
AFN 62.501853
ALL 81.576868
AMD 368.780043
ANG 1.79046
AOA 917.999857
ARS 1391.583196
AUD 1.384572
AWG 1.8025
AZN 1.698524
BAM 1.670681
BBD 2.014496
BDT 122.776371
BGN 1.66992
BHD 0.377303
BIF 2975
BMD 1
BND 1.273528
BOB 6.911397
BRL 5.002099
BSD 1.000201
BTN 95.835344
BWP 14.087599
BYN 2.794335
BYR 19600
BZD 2.011549
CAD 1.37274
CDF 2244.999557
CHF 0.783415
CLF 0.022712
CLP 893.879859
CNY 6.78515
CNH 6.78631
COP 3791.42
CRC 454.512452
CUC 1
CUP 26.5
CVE 94.714208
CZK 20.82465
DJF 177.720507
DKK 6.40006
DOP 59.701874
DZD 132.610989
EGP 52.874495
ERN 15
ETB 156.163199
EUR 0.85643
FJD 2.189701
FKP 0.739691
GBP 0.746185
GEL 2.679725
GGP 0.739691
GHS 11.410232
GIP 0.739691
GMD 72.502255
GNF 8779.999938
GTQ 7.630738
GYD 209.246802
HKD 7.832595
HNL 26.599525
HRK 6.454603
HTG 130.972363
HUF 306.388025
IDR 17545.5
ILS 2.902602
IMP 0.739691
INR 95.69355
IQD 1310.201083
IRR 1315000.000029
ISK 122.979764
JEP 0.739691
JMD 158.141561
JOD 0.708988
JPY 158.191499
KES 129.250067
KGS 87.450391
KHR 4012.000269
KMF 422.00025
KPW 899.97066
KRW 1492.530257
KWD 0.30842
KYD 0.833543
KZT 473.448852
LAK 21954.999541
LBP 89550.000072
LKR 325.320759
LRD 183.250012
LSL 16.418345
LTL 2.95274
LVL 0.60489
LYD 6.348556
MAD 9.176212
MDL 17.192645
MGA 4189.000457
MKD 52.78458
MMK 2099.865061
MNT 3580.130218
MOP 8.069362
MRU 39.968052
MUR 46.899865
MVR 15.410136
MWK 1733.971717
MXN 17.220704
MYR 3.931498
MZN 63.901853
NAD 16.418345
NGN 1371.039687
NIO 36.808139
NOK 9.229603
NPR 153.332792
NZD 1.690095
OMR 0.384499
PAB 1.000184
PEN 3.418655
PGK 4.357259
PHP 61.590076
PKR 278.576188
PLN 3.633385
PYG 6094.852476
QAR 3.645884
RON 4.453802
RSD 100.543734
RUB 73.248122
RWF 1462.916693
SAR 3.759074
SBD 8.032258
SCR 14.650317
SDG 600.501765
SEK 9.34834
SGD 1.275345
SHP 0.746601
SLE 24.607781
SLL 20969.502105
SOS 571.616491
SRD 37.207019
STD 20697.981008
STN 20.928276
SVC 8.751249
SYP 110.528733
SZL 16.40606
THB 32.372497
TJS 9.346574
TMT 3.51
TND 2.914168
TOP 2.40776
TRY 45.435598
TTD 6.790867
TWD 31.526502
TZS 2594.999679
UAH 43.968225
UGX 3740.52909
UYU 39.831211
UZS 11992.073051
VES 508.06467
VND 26345
VUV 118.077659
WST 2.708521
XAF 560.318959
XAG 0.01183
XAU 0.000214
XCD 2.70255
XCG 1.802565
XDR 0.694969
XOF 560.316565
XPF 101.873721
YER 238.625029
ZAR 16.48058
ZMK 9001.203062
ZMW 18.82781
ZWL 321.999592
  • AEX

    11.4100

    1021.54

    +1.13%

  • BEL20

    23.6900

    5532.41

    +0.43%

  • PX1

    74.4700

    8082.27

    +0.93%

  • ISEQ

    53.8800

    12585.15

    +0.43%

  • OSEBX

    1.5900

    1985.91

    +0.08%

  • PSI20

    51.7100

    9124.26

    +0.57%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    31.5800

    4133.29

    +0.77%

  • N150

    24.3700

    4226.84

    +0.58%

"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA
"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA / Photo: © AFP/Archives

"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA

Ellis, adolescente texane de 14 ans, s'est réveillée un matin d'octobre avec plusieurs appels manqués et messages affolés sur son téléphone. De fausses photographies d'elle, dénudée, circulaient sur les réseaux sociaux.

Taille du texte:

"C'étaient des photos d'une de mes meilleures amies et de moi tirées d'Instagram. Des corps nus avaient été édités dessus", raconte la collégienne à l'AFP.

"Je me souviens avoir eu très très peur car ces faux nus étaient en train d'être envoyés autour de moi. Et je n'ai jamais rien fait de tel".

Comme plusieurs camarades de son collège de la périphérie de Dallas, au Texas, la jeune fille a été victime de montages hyperréalistes (deepfakes) à caractère sexuel, fabriqués sans leur consentement par un élève puis partagés sur le réseau Snapchat.

Avec la popularisation de l'intelligence artificielle (IA), il est devenu plus facile de fabriquer ces montages photo ou vidéo et de les rendre hyperréalistes, ouvrant la voie à leur utilisation à des fins de harcèlement ou d'humiliation.

"Les filles ne faisaient que pleurer, et pleurer à ne plus en finir, elles avaient honte", se souvient Anna Berry McAdams, mise au courant immédiatement par sa fille Ellis.

"Elle me disait: +Maman, on dirait moi+, et je lui répondais +mais non ma chérie, j'étais avec toi quand la photo a été prise et je sais que ce n'est pas le cas+", poursuit la quinquagénaire, qui se dit "horrifiée" par le réalisme des clichés.

- Quelques dollars -

Fin octobre, d'autres "deepfakes" à caractère sexuel ont été découverts dans un lycée du New Jersey, au nord-est des Etats-Unis. Une enquête a été ouverte pour identifier toutes les victimes et le ou les auteurs.

"Nous commençons à voir de plus en plus de cas émerger (...) mais en matière d'abus sexuels, de +revenge porn+ (divulgation malveillante d'images intimes) ou de +deepfakes pornographiques+, beaucoup de personnes ne se manifestent pas et souffrent en silence parce qu'elles ont peur de rendre l'affaire publique", expose Renée Cummings, criminologue et chercheuse en intelligence artificielle.

S'il est impossible d'évaluer l'ampleur du phénomène, "n'importe qui ayant un smartphone et quelques dollars peut maintenant fabriquer un +deepfake+", précise cette professeure de l'Université de Virginie.

Et ce, grâce aux récents progrès et à la démocratisation de l'IA générative, capable de produire textes, lignes de code, images et sons sur simple requête en langage courant.

De fait, les montages hyperréalistes, qui touchaient auparavant à l'image des célébrités "ayant des tas et des tas de photos et de vidéos d'eux en ligne" concernent à présent tout un chacun, explique Hany Farid, professeur à l'Université de Californie à Berkeley.

"Si vous avez un profil LinkedIn avec une photo de votre tête, quelqu'un peut créer une image sexuelle de vous", poursuit ce spécialiste en détection d'images manipulées numériquement, notant que ces montages "visent principalement les femmes et les jeunes filles".

- "Traumatisme bien réel"-

Face à cette menace grandissante, les systèmes scolaires et judiciaires apparaissent dépassés.

"Bien que votre visage ait été superposé à un corps, ce corps n'est pas vraiment le vôtre, donc ce n'est pas comme si quelqu'un avait partagé un nu de vous" aux yeux de la loi, explique Mme Cummings.

Aux Etats-Unis, aucune loi fédérale ne punit la fabrication et la transmission de fausses images à caractère sexuel, et seule une poignée d'Etats dispose de législations spécifiques.

Fin octobre, Joe Biden a exhorté les législateurs à instaurer des garde-fous, afin d'empêcher notamment "l'IA générative de produire des contenus pédocriminels ou des images intimes non consenties de personnes réelles".

Si la responsabilité des créateurs de ces images -aujourd'hui difficilement identifiables- est centrale, celle des entreprises derrière les sites ou logiciels utilisés, et des réseaux sociaux, vecteurs des contenus, doit aussi être posée, insiste M. Farid.

Car si ces images sont fausses, "le traumatisme est lui bien réel", abonde Renée Cummings, décrivant des personnes "souffrant d'anxiété, de crises de panique, de dépression ou encore de syndromes post-traumatiques après avoir été victimes de +deepfakes pornographiques". "Cela peut détruire une vie".

La texane Ellis, qui se décrit comme une adolescente "sociable" et sportive, raconte avoir à présent "constamment peur", bien que l'élève à l'origine des "deepfakes" ait été identifié et exclu temporairement du collège.

"Je ne sais pas combien de photos il a pu faire ni combien de personnes ont pu les recevoir", explique-t-elle, disant avoir demandé à changer d'établissement scolaire.

Face à cette inconnue, sa mère se mobilise pour faire reconnaître ces images comme de la "pornographie infantile" et les voir punir comme telles.

"Cela pourrait les affecter toute leur vie. Cela ne va jamais sortir d'internet. Donc quand elles vont postuler à l'université par exemple, qui sait si (ces images) ne vont pas resurgir?", s'inquiète Anna Berry McAdams.

Y.Su--ThChM