The China Mail - Mon psy est une IA, c'est grave docteur ?

USD -
AED 3.672504
AFN 68.146381
ALL 82.605547
AMD 382.141183
ANG 1.790403
AOA 917.000367
ARS 1449.82499
AUD 1.515611
AWG 1.8
AZN 1.70397
BAM 1.666425
BBD 2.013633
BDT 121.671708
BGN 1.666425
BHD 0.375921
BIF 2983.683381
BMD 1
BND 1.28258
BOB 6.908363
BRL 5.346404
BSD 0.999787
BTN 88.189835
BWP 13.318281
BYN 3.386359
BYR 19600
BZD 2.010736
CAD 1.38535
CDF 2835.000362
CHF 0.79674
CLF 0.024246
CLP 951.160908
CNY 7.124704
CNH 7.12442
COP 3891.449751
CRC 503.642483
CUC 1
CUP 26.5
CVE 93.950496
CZK 20.726804
DJF 178.034337
DKK 6.36065
DOP 63.383462
DZD 129.343501
EGP 48.013462
ERN 15
ETB 143.551399
EUR 0.852104
FJD 2.238704
FKP 0.738285
GBP 0.737654
GEL 2.690391
GGP 0.738285
GHS 12.196992
GIP 0.738285
GMD 71.503851
GNF 8671.239296
GTQ 7.664977
GYD 209.16798
HKD 7.778205
HNL 26.193499
HRK 6.420404
HTG 130.822647
HUF 333.080388
IDR 16407.9
ILS 3.335965
IMP 0.738285
INR 88.277504
IQD 1309.76015
IRR 42075.000352
ISK 122.050386
JEP 0.738285
JMD 160.380011
JOD 0.70904
JPY 147.69404
KES 129.169684
KGS 87.450384
KHR 4007.157159
KMF 419.503794
KPW 899.952557
KRW 1393.030383
KWD 0.30537
KYD 0.833213
KZT 540.612619
LAK 21678.524262
LBP 89530.950454
LKR 301.657223
LRD 177.463469
LSL 17.351681
LTL 2.95274
LVL 0.60489
LYD 5.398543
MAD 9.003451
MDL 16.606314
MGA 4430.622417
MKD 52.434712
MMK 2099.430376
MNT 3599.247901
MOP 8.014485
MRU 39.911388
MUR 45.480378
MVR 15.310378
MWK 1733.566225
MXN 18.440104
MYR 4.205039
MZN 63.910377
NAD 17.351681
NGN 1502.303725
NIO 36.791207
NOK 9.860104
NPR 141.103395
NZD 1.682511
OMR 0.383334
PAB 0.999787
PEN 3.484259
PGK 4.237209
PHP 57.170375
PKR 283.854556
PLN 3.627661
PYG 7144.378648
QAR 3.649725
RON 4.317038
RSD 99.80829
RUB 83.304222
RWF 1448.728326
SAR 3.751509
SBD 8.206879
SCR 14.222298
SDG 601.503676
SEK 9.316804
SGD 1.284404
SHP 0.785843
SLE 23.375038
SLL 20969.503664
SOS 571.379883
SRD 39.375038
STD 20697.981008
STN 20.875048
SVC 8.747923
SYP 13001.524619
SZL 17.33481
THB 31.710369
TJS 9.408001
TMT 3.51
TND 2.910408
TOP 2.342104
TRY 41.326504
TTD 6.797597
TWD 30.299904
TZS 2459.506667
UAH 41.217314
UGX 3513.824394
UYU 40.04601
UZS 12444.936736
VES 158.73035
VND 26385
VUV 118.783744
WST 2.67732
XAF 558.903421
XAG 0.023708
XAU 0.000275
XCD 2.70255
XCG 1.8019
XDR 0.695096
XOF 558.903421
XPF 101.614621
YER 239.550363
ZAR 17.38811
ZMK 9001.203584
ZMW 23.720019
ZWL 321.999592
  • AEX

    3.1700

    908.89

    +0.35%

  • BEL20

    -22.5500

    4775.68

    -0.47%

  • PX1

    1.5600

    7825.24

    +0.02%

  • ISEQ

    -13.7300

    11430.97

    -0.12%

  • OSEBX

    1.6500

    1654.62

    +0.1%

  • PSI20

    -6.2000

    7748.45

    -0.08%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -51.3800

    3567.01

    -1.42%

  • N150

    2.9300

    3667.47

    +0.08%

Mon psy est une IA, c'est grave docteur ?
Mon psy est une IA, c'est grave docteur ? / Photo: © AFP/Archives

Mon psy est une IA, c'est grave docteur ?

ChatGPT est-il un bon psychologue ? Une responsable de la firme californienne d'intelligence artificielle OpenAI, à l'origine du chatbot viral, l'a récemment suggéré, s'attirant de nombreuses critiques pour avoir minimisé la difficulté à soigner les pathologies mentales.

Taille du texte:

"Je viens d'avoir une conversation personnelle assez émouvante avec ChatGPT en mode vocal, à propos de stress et d'équilibre travail-vie personnelle", a déclaré Lilian Weng, chargée des enjeux de sécurité liés à l'intelligence artificielle, fin septembre sur X (ex-Twitter).

"Fait intéressant, je me suis sentie écoutée et réconfortée. Je n'avais jamais tenté de thérapie auparavant mais ça ressemble probablement à ça?", s'est-elle interrogée.

Son message permettait évidemment de mettre en lumière la toute nouvelle fonctionnalité (payante) de synthèse vocale du robot sorti il y a près d'un an et qui cherche son modèle économique.

La psychologie "a pour but d'améliorer la santé mentale et c'est un travail difficile", lui a vertement répondu la développeuse et activiste américaine Cher Scarlett.

"S'envoyer à soi-même des ondes positives, c'est bien, mais ça n'a rien à voir" avec une thérapie, a-t-elle tancé.

Mais l'interaction avec une IA peut-elle réellement produire l'expérience positive décrite par Lilian Weng ?

Selon une étude publiée cette semaine dans la revue scientifique Nature Machine Intelligence, ce phénomène pourrait s'expliquer par un effet placebo.

Pour le démontrer, des chercheurs du Massachusetts Institute of Technology (MIT) et de l'université d'Arizona ont interrogé 300 participants, expliquant à certains que le chatbot était doté d'empathie, à d'autres qu'il était manipulateur et à un troisième groupe qu'il avait un comportement équilibré.

Résultat, ceux qui pensaient dialoguer avec un assistant virtuel bienveillant étaient bien plus enclins à considérer l'agent conversationnel comme digne de confiance.

"Nous constatons qu'en quelque sorte, l'IA est perçue selon les préconceptions de l'utilisateur," a déclaré Pat Pataranutaporn, co-auteur de l'étude.

- "Stupidité" des robots -

Sans s'encombrer de trop de précautions dans un domaine pourtant sensible, de nombreuses start-up se sont lancées dans le développement d'applications censées offrir une forme d'assistance en matière de santé mentale, occasionnant de premières polémiques.

Des utilisateurs de Replika, une appli populaire réputée pour apporter des bienfaits psychologiques, se sont notamment plaints que l'IA pouvait devenir obsédée par le sexe ou manipulatrice.

L'ONG américaine Koko, qui a mené en février une expérience avec 4.000 patients en leur proposant des conseils rédigés à l'aide du modèle d'IA GPT-3, a également reconnu que les réponses automatisées ne fonctionnaient pas en tant que thérapie.

"L'empathie simulée paraît étrange, vide de sens", a écrit le cofondateur de la société, Rob Morris, sur X.

Cette remarque fait écho aux conclusions de la précédente étude sur l'effet placebo, lors de laquelle certains participants ont eu l'impression de "parler à un mur".

Interrogé par l'AFP, David Shaw, de l'université de Bâle, n'est pas étonné de ces piètres résultats. "Il semble qu'aucun des participants n'ait été informé de la stupidité des chatbots", remarque-t-il.

L'idée d'un robot thérapeute n'est pourtant pas récente. Dans les années 60, le premier programme du genre, Eliza, a été développé pour simuler une psychothérapie grâce à la méthode du psychologue américain Carl Rogers.

Sans rien comprendre réellement des problèmes qui lui étaient racontés, le logiciel se contentait de prolonger la discussion avec des questions types enrichies de mots-clés trouvés dans les réponses de ses interlocuteurs.

"Ce que je n'avais pas réalisé, c'est qu'une exposition extrêmement courte à un programme informatique relativement simple pouvait induire de puissantes pensées délirantes chez des personnes tout à fait normales", avait par la suite écrit Joseph Weizenbaum, le créateur de cet ancêtre de ChatGPT.

J.Liv--ThChM