The China Mail - La quête controversée d'une intelligence artificielle "consciente"

USD -
AED 3.672979
AFN 71.091994
ALL 87.105906
AMD 390.397287
ANG 1.80229
AOA 916.000319
ARS 1170.598197
AUD 1.56006
AWG 1.8
AZN 1.730108
BAM 1.727464
BBD 2.02625
BDT 121.932908
BGN 1.726388
BHD 0.377147
BIF 2984.847883
BMD 1
BND 1.311181
BOB 6.93441
BRL 5.673078
BSD 1.003546
BTN 84.810719
BWP 13.737856
BYN 3.284166
BYR 19600
BZD 2.015828
CAD 1.37911
CDF 2873.000442
CHF 0.82692
CLF 0.024698
CLP 947.790305
CNY 7.27135
CNH 7.277405
COP 4243.1
CRC 506.891481
CUC 1
CUP 26.5
CVE 97.391757
CZK 22.06895
DJF 178.709122
DKK 6.60135
DOP 59.062264
DZD 132.715654
EGP 50.915299
ERN 15
ETB 134.6764
EUR 0.884425
FJD 2.25945
FKP 0.7464
GBP 0.751645
GEL 2.744996
GGP 0.7464
GHS 14.30073
GIP 0.7464
GMD 71.498255
GNF 8691.888836
GTQ 7.728453
GYD 210.593722
HKD 7.756455
HNL 26.042564
HRK 6.662403
HTG 131.108157
HUF 357.830332
IDR 16550.5
ILS 3.63992
IMP 0.7464
INR 84.623898
IQD 1314.626143
IRR 42112.503078
ISK 128.859933
JEP 0.7464
JMD 158.869796
JOD 0.709202
JPY 143.4075
KES 129.9099
KGS 87.450513
KHR 4016.975874
KMF 434.52774
KPW 899.962286
KRW 1428.944981
KWD 0.306501
KYD 0.83634
KZT 514.990792
LAK 21696.98415
LBP 89917.328364
LKR 300.410269
LRD 200.710134
LSL 18.686434
LTL 2.95274
LVL 0.60489
LYD 5.477952
MAD 9.301789
MDL 17.225983
MGA 4455.926515
MKD 54.346482
MMK 2099.391763
MNT 3573.279231
MOP 8.018213
MRU 39.710474
MUR 45.079939
MVR 15.409679
MWK 1740.151917
MXN 19.61165
MYR 4.314496
MZN 63.999891
NAD 18.686269
NGN 1607.459771
NIO 36.928594
NOK 10.413735
NPR 135.696905
NZD 1.68391
OMR 0.385188
PAB 1.003551
PEN 3.679539
PGK 4.097351
PHP 55.826498
PKR 281.971409
PLN 3.788639
PYG 8037.626692
QAR 3.657722
RON 4.402702
RSD 103.517109
RUB 82.142513
RWF 1441.618089
SAR 3.750686
SBD 8.361298
SCR 14.287519
SDG 600.500677
SEK 9.677035
SGD 1.308745
SHP 0.785843
SLE 22.789674
SLL 20969.483762
SOS 573.48525
SRD 36.84702
STD 20697.981008
SVC 8.781173
SYP 13001.4097
SZL 18.669846
THB 33.546051
TJS 10.577382
TMT 3.5
TND 2.980533
TOP 2.342098
TRY 38.5001
TTD 6.797416
TWD 32.098965
TZS 2690.000093
UAH 41.629217
UGX 3676.093907
UYU 42.228268
UZS 12979.384903
VES 86.73797
VND 26005
VUV 120.409409
WST 2.768399
XAF 579.364953
XAG 0.031106
XAU 0.000309
XCD 2.70255
XDR 0.720544
XOF 579.377746
XPF 105.336607
YER 244.950531
ZAR 18.633459
ZMK 9001.198735
ZMW 27.923758
ZWL 321.999592
  • AEX

    3.1500

    877.89

    +0.36%

  • BEL20

    52.9600

    4429.51

    +1.21%

  • PX1

    37.7800

    7593.87

    +0.5%

  • ISEQ

    -4.1500

    10373.46

    -0.04%

  • OSEBX

    14.7200

    1487.07

    +1%

  • PSI20

    25.0800

    6992.34

    +0.36%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    70.1300

    2875.5

    +2.5%

  • N150

    13.2400

    3407

    +0.39%

La quête controversée d'une intelligence artificielle "consciente"
La quête controversée d'une intelligence artificielle "consciente" / Photo: © AFP/Archives

La quête controversée d'une intelligence artificielle "consciente"

Des technologies d'intelligence artificielle sont-elles en train de devenir "conscientes" ? Un ingénieur de Google a été suspendu pour avoir affirmé que oui, suscitant un débat au-delà de la Silicon Valley sur un sujet qui relève de moins en moins de la science-fiction.

Taille du texte:

LaMDA, un programme informatique de Google conçu pour générer des robots de conversation (chatbots), "est très clair dans ce qu'il veut et ce qu'il considère comme ses droits en tant que personne", a écrit Blake Lemoine dans un article publié sur Medium ce week-end.

Cette opinion est largement reçue, au pire, comme absurde, et au mieux, comme prématurée, aussi bien par le géant des technologies que dans la communauté scientifique.

Car les programmes basés sur l'apprentissage automatisé (machine learning) sont "formés" à partir de jeux de données qui abordent les concepts de conscience ou d'identité, et sont donc capables de faire illusion.

"Les logiciels qui ont accès à internet peuvent répondre à n'importe quelle question", cela ne les rend pas crédibles pour autant, note la professeure Susan Schneider.

Cette fondatrice d'un centre de recherche à la Florida Atlantic University désapprouve néanmoins les sanctions contre l'ingénieur de Google.

Le groupe californien a tendance a "essayer de passer sous silence les problèmes éthiques", estime-t-elle, or "nous avons besoin de débats publics sur ces sujets épineux".

"Des centaines de chercheurs et ingénieurs ont conversé avec LaMDA et personne d'autre, à notre connaissance, n'a formulé de telles affirmations ou n'a anthropomorphisé LaMDA comme Blake l'a fait", a indiqué Brian Gabriel, un porte-parole de Google.

- Le pouvoir de l'imagination -

De Pinocchio au film "Her" (l'histoire d'une relation romantique avec un chatbot), l'idée d'une entité non humaine qui prend vie "est présente dans notre imaginaire", note Mark Kingwell, professeur de philosophie à l'université de Toronto (Canada).

"Il devient donc difficile de respecter le fossé entre ce qui nous imaginons comme possible et ce qui l'est vraiment", élabore-t-il.

Les intelligences artificielles (IA) ont longtemps été évaluées suivant le test de Turing : si le testeur a une conversation avec un ordinateur, sans se rendre compte qu'il ne parle pas à un humain, la machine a "réussi".

"Mais c'est assez facile pour une IA en 2022 d'y arriver", remarque l'auteur.

"Quand nous faisons face à des séries de mots dans une langue que nous parlons (...) nous croyons percevoir l'esprit qui génère ces phrases", abonde Emily Bender, experte en linguistique informatique.

Les scientifiques sont même capables de donner une personnalité à un logiciel d'IA.

"On peut par exemple faire passer une IA pour névrosée" en la formant avec des conversations qu'une personne dépressive pourrait avoir, explique Shashank Srivastava, professeur de sciences informatiques à l’université de Caroline du Nord.

Si en plus le chatbot est intégré à un robot humanoïde aux expressions faciales ultra réalistes, ou si un logiciel écrit des poèmes ou compose de la musique, comme c'est déjà le cas, nos sens biologiques sont facilement trompés.

"Nous nageons dans le battage médiatique autour de l'IA", souligne Emily Bender.

"Et beaucoup d'argent est investi là-dedans. Donc les employés de ce secteur ont le sentiment de travailler sur quelque chose d'important, de réel, et n'ont pas forcément la distance nécessaire".

- "Bien de l'humanité" -

Comment alors, pourrons-nous déterminer avec certitude si une entité artificielle est devenue sensible et consciente ?

"Si on réussit à remplacer des tissus neuronaux par des puces électroniques, ce sera un signe que les machines peuvent être potentiellement conscientes", avance Susan Schneider.

Elle suit de près les avancées de Neuralink, une start-up fondée par Elon Musk pour fabriquer des implants cérébraux à des fins médicales mais aussi pour "garantir l'avenir de l'humanité en tant que civilisation par rapport à l'IA", avait expliqué le patron de Tesla.

Le multimilliardaire s'inscrit ainsi dans une vision où des machines toutes puissantes risqueraient de prendre le contrôle.

Selon Mark Kingwell, c'est l'inverse.

S'il apparait un jour une entité autonome, capable de manier un langage, de se "déplacer elle-même dans un environnement", manifestant des préférences et des vulnérabilités, "il sera important de ne pas la considérer comme une esclave (...) et de la protéger", assure-t-il.

Blake Lemoine n'a sans doute pas convaincu de la conscience du programme LaMDA. Mais il a redonné souffle à un débat de plus en plus politique, et de moins en moins chimérique.

Que "veut" LaMDA, selon l'ingénieur déchu ? "Elle veut que Google fasse passer le bien de l'humanité en priorité, et être reconnue comme une employée et non une propriété de Google", affirme-t-il.

H.Ng--ThChM