The China Mail - Avec l'IA, peut-on encore faire confiance à ses propres oreilles?

USD -
AED 3.672499
AFN 69.498985
ALL 82.712855
AMD 382.749732
ANG 1.789783
AOA 917.000349
ARS 1432.689009
AUD 1.500634
AWG 1.8025
AZN 1.699944
BAM 1.673405
BBD 2.013339
BDT 121.650816
BGN 1.666398
BHD 0.377074
BIF 2949.5
BMD 1
BND 1.2847
BOB 6.90735
BRL 5.390603
BSD 0.999611
BTN 88.385225
BWP 13.395221
BYN 3.383857
BYR 19600
BZD 2.01043
CAD 1.38385
CDF 2868.50203
CHF 0.795989
CLF 0.024289
CLP 952.839892
CNY 7.11865
CNH 7.113585
COP 3896.27
CRC 503.863035
CUC 1
CUP 26.5
CVE 94.469215
CZK 20.766041
DJF 177.719888
DKK 6.362415
DOP 63.498985
DZD 129.729085
EGP 48.223402
ERN 15
ETB 143.150187
EUR 0.85238
FJD 2.235695
FKP 0.738201
GBP 0.736705
GEL 2.69007
GGP 0.738201
GHS 12.210319
GIP 0.738201
GMD 71.504195
GNF 8659.999936
GTQ 7.657721
GYD 209.137073
HKD 7.788797
HNL 26.160501
HRK 6.4217
HTG 130.899975
HUF 333.747979
IDR 16421.3
ILS 3.32265
IMP 0.738201
INR 88.26785
IQD 1310
IRR 42074.999747
ISK 122.06004
JEP 0.738201
JMD 160.050652
JOD 0.709025
JPY 147.238
KES 129.502887
KGS 87.450026
KHR 4004.000254
KMF 419.503582
KPW 899.990456
KRW 1389.25019
KWD 0.30529
KYD 0.833009
KZT 538.915342
LAK 21674.999917
LBP 89549.999931
LKR 301.688549
LRD 199.74985
LSL 17.360255
LTL 2.952739
LVL 0.60489
LYD 5.405029
MAD 9.01225
MDL 16.608843
MGA 4469.999746
MKD 52.435143
MMK 2099.585355
MNT 3596.649211
MOP 8.020209
MRU 39.929934
MUR 45.559899
MVR 15.405011
MWK 1736.999973
MXN 18.480575
MYR 4.212497
MZN 63.899033
NAD 17.360455
NGN 1504.139996
NIO 36.691494
NOK 9.861905
NPR 141.418005
NZD 1.67326
OMR 0.384506
PAB 0.999611
PEN 3.484037
PGK 4.185018
PHP 57.129016
PKR 281.597588
PLN 3.626365
PYG 7160.611078
QAR 3.640501
RON 4.323298
RSD 99.843995
RUB 84.502135
RWF 1446
SAR 3.751501
SBD 8.223773
SCR 14.198577
SDG 601.502526
SEK 9.31156
SGD 1.281645
SHP 0.785843
SLE 23.385039
SLL 20969.49797
SOS 571.507358
SRD 39.772502
STD 20697.981008
STN 21.2
SVC 8.746914
SYP 13001.853615
SZL 17.444958
THB 31.710193
TJS 9.481371
TMT 3.5
TND 2.892135
TOP 2.342101
TRY 41.347598
TTD 6.789189
TWD 30.305198
TZS 2459.999665
UAH 41.316444
UGX 3508.861994
UYU 40.008385
UZS 12464.999774
VES 157.53157
VND 26402.5
VUV 119.093353
WST 2.715906
XAF 561.24423
XAG 0.024109
XAU 0.000275
XCD 2.70255
XCG 1.801575
XDR 0.697661
XOF 559.495189
XPF 102.103423
YER 239.599323
ZAR 17.367775
ZMK 9001.193234
ZMW 23.815941
ZWL 321.999592
  • AEX

    4.2400

    905.73

    +0.47%

  • BEL20

    12.4400

    4798.09

    +0.26%

  • PX1

    62.0900

    7823.52

    +0.8%

  • ISEQ

    -2.2900

    11444.73

    -0.02%

  • OSEBX

    -0.1700

    1652.98

    -0.01%

  • PSI20

    25.5100

    7754.89

    +0.33%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -8.7100

    3618.48

    -0.24%

  • N150

    21.1300

    3664.42

    +0.58%

Avec l'IA, peut-on encore faire confiance à ses propres oreilles?
Avec l'IA, peut-on encore faire confiance à ses propres oreilles? / Photo: © AFP

Avec l'IA, peut-on encore faire confiance à ses propres oreilles?

La voix de sa fille et ses sanglots l'ont bouleversée quand un homme l'a appelée pour lui demander une rançon. Mais les intonations étaient reproduites à la perfection par une intelligence artificielle (IA) pour une tentative d'arnaque, un sujet d'inquiétude qui émerge avec cette technologie en plein boom.

Taille du texte:

Le plus gros danger des IA, estiment les experts, est leur capacité à presque abolir la démarcation entre réel et fiction, fournissant aux criminels des outils efficaces et peu onéreux.

De nouvelles arnaques téléphoniques grâce aux outils de réplication de voix par IA -- aisément disponibles en ligne -- inquiètent les autorités américaines.

"Aide-moi, maman, je t'en supplie, aide-moi", entend au bout du fil Jennifer DeStefano, une mère installée dans l'Arizona.

Cette voix, elle est alors "100%" convaincue qu'il s'agit de celle, en grande détresse, de sa fille de 15 ans, partie faire du ski.

"C'était totalement sa voix, la façon dont elle aurait pleuré", a témoigné la mère à une chaîne de télévision locale en avril.

"Je n'ai pas douté un seul instant que ça puisse ne pas être elle."

Au bout du fil, l'arnaqueur qui prend ensuite la parole, depuis un numéro inconnu, exige un million de dollars.

La séquence, qui a rapidement pris fin lorsque Jennifer DeStefano est parvenue à joindre sa fille, fait désormais l'objet d'une enquête et a mis en lumière le potentiel dévoiement de l'IA par les cybercriminels.

- "Des deepfakes convaincants" -

"La réplication de voix par IA, désormais quasi impossible à distinguer de l'élocution humaine, permet aux personnes mal intentionnées comme les arnaqueurs de soutirer plus efficacement des informations et de l'argent aux victimes", explique à l'AFP Wasim Khaled, PDG de Blackbird.AI.

De nombreuses applications, dont beaucoup sont gratuites et disponibles en ligne, permettent de répliquer par l'intelligence artificielle la vraie voix d'une personne à partir d'un court enregistrement. Celui-ci peut aisément être extrait depuis des contenus postés en ligne.

"Avec un court échantillon audio, un clone de voix par IA peut être utilisé pour laisser des messages et des capsules audio. Il peut même être utilisé comme un modificateur de voix en direct lors d'appels", détaille Wasim Khaled.

"Les arnaqueurs emploient divers accents et genres, ou imitent même la façon de parler de vos proches", ajoute-t-il. Cette technologie "permet de créer des deepfakes convaincants".

Selon un sondage effectué auprès de 7.000 personnes dans neuf pays dont les Etats-Unis, une personne sur quatre a été la cible d'une tentative d'arnaque à la voix répliquée par IA, ou connait quelqu'un dans ce cas.

70% des sondés ont affirmé qu'ils n'étaient pas certains de pouvoir faire la différence entre une vraie voix et une voix clonée, selon cette enquête publiée le mois dernier par McAfee Labs.

Les autorités américaines ont récemment mis en garde contre la popularité croissante de l'"arnaque au grand-parent".

"Vous recevez un appel, une voix paniquée au bout du fil, c'est votre petit-fils. Il dit qu'il a de gros ennuis, il a eu un accident de voiture et s'est retrouvé en détention. Mais vous pouvez l'aider en envoyant de l'argent", a décrit en guise d'avertissement l'agence américaine de protection des consommateurs (FTC).

Dans les commentaires sous cette mise en garde de la FTC, plusieurs personnes âgées disaient avoir été trompées de la sorte.

- Vulnérabilité -

Un grand-père victime avait été si convaincu qu'il s'était mis à rassembler de l'argent, envisageant même de réhypothéquer sa maison, avant que la ruse ne soit éventée.

L'aisance avec laquelle on peut désormais répliquer artificiellement une voix fait que "presque toute personne présente en ligne est vulnérable", estime auprès de l'AFP Hany Farid, professeur à l'UC Berkeley School of Information.

"Ces arnaques gagnent du terrain", évalue-t-il.

Plus tôt cette année, la startup ElevenLabs a dû admettre qu'il était possible de faire un mauvais usage de son outil de réplication de voix par IA, après que des utilisateurs eurent posté en ligne un deepfake de l'actrice Emma Watson lisant "Mein Kampf".

"Nous approchons rapidement du moment où nous ne pourrons plus faire confiance aux contenus sur internet et où nous devrons faire appel à de nouvelles technologies pour s'assurer que la personne à qui l'on pense s'adresser (au téléphone) est réellement la personne à qui l'on parle", conclut Gal Tal-Hochberg, un responsable de l'entreprise d'investissements dans la tech Team8.

H.Ng--ThChM