The China Mail - Avec l'IA, peut-on encore faire confiance à ses propres oreilles?

USD -
AED 3.672499
AFN 66.239126
ALL 81.980799
AMD 381.759849
ANG 1.790403
AOA 917.000263
ARS 1453.487701
AUD 1.50426
AWG 1.8025
AZN 1.69969
BAM 1.662445
BBD 2.013778
BDT 122.189638
BGN 1.661401
BHD 0.376992
BIF 2964.568485
BMD 1
BND 1.289083
BOB 6.908657
BRL 5.453696
BSD 0.999834
BTN 90.861415
BWP 13.205326
BYN 2.930059
BYR 19600
BZD 2.010888
CAD 1.374239
CDF 2249.999859
CHF 0.793525
CLF 0.023276
CLP 912.980425
CNY 7.04725
CNH 7.03249
COP 3833.08
CRC 498.939647
CUC 1
CUP 26.5
CVE 93.72689
CZK 20.620974
DJF 178.045806
DKK 6.334305
DOP 64.243578
DZD 129.462028
EGP 47.429097
ERN 15
ETB 155.213494
EUR 0.84785
FJD 2.30425
FKP 0.747395
GBP 0.74462
GEL 2.69498
GGP 0.747395
GHS 11.498561
GIP 0.747395
GMD 73.499352
GNF 8694.802159
GTQ 7.656609
GYD 209.18066
HKD 7.779655
HNL 26.343437
HRK 6.392604
HTG 130.943678
HUF 326.622504
IDR 16659.25
ILS 3.21855
IMP 0.747395
INR 90.919497
IQD 1309.861789
IRR 42110.000333
ISK 125.480204
JEP 0.747395
JMD 160.482808
JOD 0.708993
JPY 154.567502
KES 128.750385
KGS 87.450368
KHR 4003.416929
KMF 419.999718
KPW 900.00025
KRW 1471.490248
KWD 0.30644
KYD 0.833238
KZT 515.378306
LAK 21661.800518
LBP 89536.122125
LKR 309.521786
LRD 176.974828
LSL 16.790395
LTL 2.95274
LVL 0.604889
LYD 5.417145
MAD 9.149992
MDL 16.837301
MGA 4516.806276
MKD 52.176972
MMK 2099.766038
MNT 3546.841984
MOP 8.011679
MRU 39.655407
MUR 45.9203
MVR 15.40369
MWK 1733.709026
MXN 17.942575
MYR 4.085506
MZN 63.902352
NAD 16.790966
NGN 1452.549933
NIO 36.79558
NOK 10.16277
NPR 145.378433
NZD 1.724925
OMR 0.38451
PAB 0.999834
PEN 3.368041
PGK 4.250924
PHP 58.505001
PKR 280.214882
PLN 3.576598
PYG 6715.910443
QAR 3.645598
RON 4.317797
RSD 99.512007
RUB 79.456703
RWF 1455.764793
SAR 3.750863
SBD 8.160045
SCR 13.593609
SDG 601.495554
SEK 9.277403
SGD 1.287725
SHP 0.750259
SLE 24.049795
SLL 20969.503664
SOS 571.443143
SRD 38.677981
STD 20697.981008
STN 20.824568
SVC 8.749203
SYP 11058.470992
SZL 16.776102
THB 31.4101
TJS 9.188564
TMT 3.5
TND 2.919861
TOP 2.40776
TRY 42.713703
TTD 6.782859
TWD 31.412497
TZS 2470.000054
UAH 42.167538
UGX 3559.832038
UYU 39.117352
UZS 12123.659113
VES 267.43975
VND 26345
VUV 121.461818
WST 2.779313
XAF 557.551881
XAG 0.015693
XAU 0.000231
XCD 2.70255
XCG 1.801963
XDR 0.69418
XOF 557.573208
XPF 101.372774
YER 238.450064
ZAR 16.72798
ZMK 9001.201128
ZMW 22.971623
ZWL 321.999592
  • AEX

    -10.5900

    935.14

    -1.12%

  • BEL20

    4.5100

    5010.92

    +0.09%

  • PX1

    -18.6900

    8106.16

    -0.23%

  • ISEQ

    16.8800

    12998.52

    +0.13%

  • OSEBX

    -11.0400

    1635.99

    -0.67%

  • PSI20

    -12.9200

    8062.05

    -0.16%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -47.1300

    4087.06

    -1.14%

  • N150

    -15.9700

    3699.09

    -0.43%

Avec l'IA, peut-on encore faire confiance à ses propres oreilles?
Avec l'IA, peut-on encore faire confiance à ses propres oreilles? / Photo: © AFP

Avec l'IA, peut-on encore faire confiance à ses propres oreilles?

La voix de sa fille et ses sanglots l'ont bouleversée quand un homme l'a appelée pour lui demander une rançon. Mais les intonations étaient reproduites à la perfection par une intelligence artificielle (IA) pour une tentative d'arnaque, un sujet d'inquiétude qui émerge avec cette technologie en plein boom.

Taille du texte:

Le plus gros danger des IA, estiment les experts, est leur capacité à presque abolir la démarcation entre réel et fiction, fournissant aux criminels des outils efficaces et peu onéreux.

De nouvelles arnaques téléphoniques grâce aux outils de réplication de voix par IA -- aisément disponibles en ligne -- inquiètent les autorités américaines.

"Aide-moi, maman, je t'en supplie, aide-moi", entend au bout du fil Jennifer DeStefano, une mère installée dans l'Arizona.

Cette voix, elle est alors "100%" convaincue qu'il s'agit de celle, en grande détresse, de sa fille de 15 ans, partie faire du ski.

"C'était totalement sa voix, la façon dont elle aurait pleuré", a témoigné la mère à une chaîne de télévision locale en avril.

"Je n'ai pas douté un seul instant que ça puisse ne pas être elle."

Au bout du fil, l'arnaqueur qui prend ensuite la parole, depuis un numéro inconnu, exige un million de dollars.

La séquence, qui a rapidement pris fin lorsque Jennifer DeStefano est parvenue à joindre sa fille, fait désormais l'objet d'une enquête et a mis en lumière le potentiel dévoiement de l'IA par les cybercriminels.

- "Des deepfakes convaincants" -

"La réplication de voix par IA, désormais quasi impossible à distinguer de l'élocution humaine, permet aux personnes mal intentionnées comme les arnaqueurs de soutirer plus efficacement des informations et de l'argent aux victimes", explique à l'AFP Wasim Khaled, PDG de Blackbird.AI.

De nombreuses applications, dont beaucoup sont gratuites et disponibles en ligne, permettent de répliquer par l'intelligence artificielle la vraie voix d'une personne à partir d'un court enregistrement. Celui-ci peut aisément être extrait depuis des contenus postés en ligne.

"Avec un court échantillon audio, un clone de voix par IA peut être utilisé pour laisser des messages et des capsules audio. Il peut même être utilisé comme un modificateur de voix en direct lors d'appels", détaille Wasim Khaled.

"Les arnaqueurs emploient divers accents et genres, ou imitent même la façon de parler de vos proches", ajoute-t-il. Cette technologie "permet de créer des deepfakes convaincants".

Selon un sondage effectué auprès de 7.000 personnes dans neuf pays dont les Etats-Unis, une personne sur quatre a été la cible d'une tentative d'arnaque à la voix répliquée par IA, ou connait quelqu'un dans ce cas.

70% des sondés ont affirmé qu'ils n'étaient pas certains de pouvoir faire la différence entre une vraie voix et une voix clonée, selon cette enquête publiée le mois dernier par McAfee Labs.

Les autorités américaines ont récemment mis en garde contre la popularité croissante de l'"arnaque au grand-parent".

"Vous recevez un appel, une voix paniquée au bout du fil, c'est votre petit-fils. Il dit qu'il a de gros ennuis, il a eu un accident de voiture et s'est retrouvé en détention. Mais vous pouvez l'aider en envoyant de l'argent", a décrit en guise d'avertissement l'agence américaine de protection des consommateurs (FTC).

Dans les commentaires sous cette mise en garde de la FTC, plusieurs personnes âgées disaient avoir été trompées de la sorte.

- Vulnérabilité -

Un grand-père victime avait été si convaincu qu'il s'était mis à rassembler de l'argent, envisageant même de réhypothéquer sa maison, avant que la ruse ne soit éventée.

L'aisance avec laquelle on peut désormais répliquer artificiellement une voix fait que "presque toute personne présente en ligne est vulnérable", estime auprès de l'AFP Hany Farid, professeur à l'UC Berkeley School of Information.

"Ces arnaques gagnent du terrain", évalue-t-il.

Plus tôt cette année, la startup ElevenLabs a dû admettre qu'il était possible de faire un mauvais usage de son outil de réplication de voix par IA, après que des utilisateurs eurent posté en ligne un deepfake de l'actrice Emma Watson lisant "Mein Kampf".

"Nous approchons rapidement du moment où nous ne pourrons plus faire confiance aux contenus sur internet et où nous devrons faire appel à de nouvelles technologies pour s'assurer que la personne à qui l'on pense s'adresser (au téléphone) est réellement la personne à qui l'on parle", conclut Gal Tal-Hochberg, un responsable de l'entreprise d'investissements dans la tech Team8.

H.Ng--ThChM