The China Mail - Mon psy est une IA, c'est grave docteur ?

USD -
AED 3.672503
AFN 64.507172
ALL 81.624824
AMD 375.516815
ANG 1.790275
AOA 916.999838
ARS 1370.744204
AUD 1.419678
AWG 1.8
AZN 1.723004
BAM 1.667278
BBD 2.011082
BDT 122.671668
BGN 1.673387
BHD 0.377134
BIF 2967.989429
BMD 1
BND 1.272324
BOB 6.899962
BRL 5.006501
BSD 0.998508
BTN 92.62947
BWP 13.405226
BYN 2.865862
BYR 19600
BZD 2.008184
CAD 1.38559
CDF 2299.999628
CHF 0.79161
CLF 0.022739
CLP 894.940016
CNY 6.828
CNH 6.830425
COP 3645.78
CRC 462.128639
CUC 1
CUP 26.5
CVE 93.998551
CZK 20.835976
DJF 177.809983
DKK 6.390105
DOP 60.125314
DZD 132.132713
EGP 53.134197
ERN 15
ETB 156.679852
EUR 0.85512
FJD 2.214903
FKP 0.742933
GBP 0.745551
GEL 2.689686
GGP 0.742933
GHS 10.988449
GIP 0.742933
GMD 73.500338
GNF 8760.922382
GTQ 7.638208
GYD 208.899876
HKD 7.83245
HNL 26.518904
HRK 6.446501
HTG 130.923661
HUF 313.683973
IDR 17124.4
ILS 3.05766
IMP 0.742933
INR 93.372498
IQD 1308.043135
IRR 1316125.000364
ISK 122.449664
JEP 0.742933
JMD 157.870509
JOD 0.708961
JPY 159.5805
KES 129.249768
KGS 87.450453
KHR 3997.272069
KMF 420.000444
KPW 899.998178
KRW 1487.559795
KWD 0.30896
KYD 0.832104
KZT 471.85542
LAK 22019.52176
LBP 89419.71783
LKR 315.118708
LRD 183.726184
LSL 16.382337
LTL 2.95274
LVL 0.60489
LYD 6.347556
MAD 9.280849
MDL 17.20387
MGA 4143.898385
MKD 52.741452
MMK 2100.763326
MNT 3574.006152
MOP 8.05507
MRU 39.91049
MUR 46.520014
MVR 15.459654
MWK 1731.383999
MXN 17.383565
MYR 3.974497
MZN 63.95996
NAD 16.382337
NGN 1358.840311
NIO 36.741827
NOK 9.51985
NPR 148.206811
NZD 1.71584
OMR 0.384501
PAB 0.998508
PEN 3.369933
PGK 4.322066
PHP 60.350993
PKR 278.505946
PLN 3.636086
PYG 6457.525255
QAR 3.640254
RON 4.352898
RSD 100.383006
RUB 77.07568
RWF 1458.164614
SAR 3.748263
SBD 8.058149
SCR 14.900243
SDG 601.00025
SEK 9.322701
SGD 1.275935
SHP 0.746601
SLE 24.624977
SLL 20969.496194
SOS 570.649162
SRD 37.448976
STD 20697.981008
STN 20.885725
SVC 8.737053
SYP 110.530532
SZL 16.386343
THB 32.25102
TJS 9.490729
TMT 3.505
TND 2.917693
TOP 2.40776
TRY 44.71547
TTD 6.776352
TWD 31.797503
TZS 2595.553973
UAH 43.382209
UGX 3694.642172
UYU 40.288138
UZS 12141.852436
VES 475.837797
VND 26341
VUV 117.921501
WST 2.734489
XAF 559.189293
XAG 0.013427
XAU 0.000211
XCD 2.70255
XCG 1.799582
XDR 0.695452
XOF 559.189293
XPF 101.666596
YER 237.149738
ZAR 16.53735
ZMK 9001.200839
ZMW 18.996633
ZWL 321.999592
  • AEX

    -3.9400

    1006.3

    -0.39%

  • BEL20

    -45.8300

    5409.71

    -0.84%

  • PX1

    -89.2100

    8170.68

    -1.08%

  • ISEQ

    -215.6000

    12541.59

    -1.69%

  • OSEBX

    16.1400

    2059.8

    +0.79%

  • PSI20

    -44.4500

    9413.46

    -0.47%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    39.3100

    4009.64

    +0.99%

  • N150

    -25.2500

    4047.68

    -0.62%

Mon psy est une IA, c'est grave docteur ?
Mon psy est une IA, c'est grave docteur ? / Photo: © AFP/Archives

Mon psy est une IA, c'est grave docteur ?

ChatGPT est-il un bon psychologue ? Une responsable de la firme californienne d'intelligence artificielle OpenAI, à l'origine du chatbot viral, l'a récemment suggéré, s'attirant de nombreuses critiques pour avoir minimisé la difficulté à soigner les pathologies mentales.

Taille du texte:

"Je viens d'avoir une conversation personnelle assez émouvante avec ChatGPT en mode vocal, à propos de stress et d'équilibre travail-vie personnelle", a déclaré Lilian Weng, chargée des enjeux de sécurité liés à l'intelligence artificielle, fin septembre sur X (ex-Twitter).

"Fait intéressant, je me suis sentie écoutée et réconfortée. Je n'avais jamais tenté de thérapie auparavant mais ça ressemble probablement à ça?", s'est-elle interrogée.

Son message permettait évidemment de mettre en lumière la toute nouvelle fonctionnalité (payante) de synthèse vocale du robot sorti il y a près d'un an et qui cherche son modèle économique.

La psychologie "a pour but d'améliorer la santé mentale et c'est un travail difficile", lui a vertement répondu la développeuse et activiste américaine Cher Scarlett.

"S'envoyer à soi-même des ondes positives, c'est bien, mais ça n'a rien à voir" avec une thérapie, a-t-elle tancé.

Mais l'interaction avec une IA peut-elle réellement produire l'expérience positive décrite par Lilian Weng ?

Selon une étude publiée cette semaine dans la revue scientifique Nature Machine Intelligence, ce phénomène pourrait s'expliquer par un effet placebo.

Pour le démontrer, des chercheurs du Massachusetts Institute of Technology (MIT) et de l'université d'Arizona ont interrogé 300 participants, expliquant à certains que le chatbot était doté d'empathie, à d'autres qu'il était manipulateur et à un troisième groupe qu'il avait un comportement équilibré.

Résultat, ceux qui pensaient dialoguer avec un assistant virtuel bienveillant étaient bien plus enclins à considérer l'agent conversationnel comme digne de confiance.

"Nous constatons qu'en quelque sorte, l'IA est perçue selon les préconceptions de l'utilisateur," a déclaré Pat Pataranutaporn, co-auteur de l'étude.

- "Stupidité" des robots -

Sans s'encombrer de trop de précautions dans un domaine pourtant sensible, de nombreuses start-up se sont lancées dans le développement d'applications censées offrir une forme d'assistance en matière de santé mentale, occasionnant de premières polémiques.

Des utilisateurs de Replika, une appli populaire réputée pour apporter des bienfaits psychologiques, se sont notamment plaints que l'IA pouvait devenir obsédée par le sexe ou manipulatrice.

L'ONG américaine Koko, qui a mené en février une expérience avec 4.000 patients en leur proposant des conseils rédigés à l'aide du modèle d'IA GPT-3, a également reconnu que les réponses automatisées ne fonctionnaient pas en tant que thérapie.

"L'empathie simulée paraît étrange, vide de sens", a écrit le cofondateur de la société, Rob Morris, sur X.

Cette remarque fait écho aux conclusions de la précédente étude sur l'effet placebo, lors de laquelle certains participants ont eu l'impression de "parler à un mur".

Interrogé par l'AFP, David Shaw, de l'université de Bâle, n'est pas étonné de ces piètres résultats. "Il semble qu'aucun des participants n'ait été informé de la stupidité des chatbots", remarque-t-il.

L'idée d'un robot thérapeute n'est pourtant pas récente. Dans les années 60, le premier programme du genre, Eliza, a été développé pour simuler une psychothérapie grâce à la méthode du psychologue américain Carl Rogers.

Sans rien comprendre réellement des problèmes qui lui étaient racontés, le logiciel se contentait de prolonger la discussion avec des questions types enrichies de mots-clés trouvés dans les réponses de ses interlocuteurs.

"Ce que je n'avais pas réalisé, c'est qu'une exposition extrêmement courte à un programme informatique relativement simple pouvait induire de puissantes pensées délirantes chez des personnes tout à fait normales", avait par la suite écrit Joseph Weizenbaum, le créateur de cet ancêtre de ChatGPT.

J.Liv--ThChM