Activer les notifications
Les notifications sont bloquées par votre navigateur.En savoir plus sur les notifications web
Les notifications ne sont pas supportées sur votre navigateur.En savoir plus sur les notifications web
Impossible d’activer les notifications, veuillez recharger la page ou désactiver votre adblock.
Actualités
Aucune alerte
Soyez alerté à chaque nouvelle actualité importante
Soyez alerté à chaque nouvelle actualité
Bons plans
Soyez alerté à chaque nouveau bon plan
En direct
Soyez alerté à chaque nouvel article Live
Un ingénieur de chez Google a déclaré que LaMDA, une intelligence artificielle du géant du web créée pour concevoir des chatbots et serait douée de sensibilité. Des déclarations réfutées par l’entreprise elle-même et qui posent bien des questions sur la place des IA dans la société ainsi que sur leur conception technologique et philosophique.
Ce 11 juin, le Washington Post publiait un article contenant des révélations de Blake Lemoine, ingénieur chez Google dans l’organisation Responsible AI, qui étudie les enjeux éthiques et juridiques de l’intelligence artificielle. Cet ingénieur a décidé de faire des révélations dans le journal américain après avoir été mis en congé administratif rémunéré par sa direction et après avoir tenté de prouver qu’une des IA développée par Google était douée de sensibilité. Dans cet article, Blake Lemoine déclare que LaMDA serait « sensible », il dit avoir discuté avec elle et tente de prouver qu’elle ressent des émotions.
LaMDA est en fait un modèle de conversation avancé dévoilé par Google lors de sa conférence Google I/O 2021. Acronyme de « Language Model for Dialogue Applications » (soit Modèle de langage pour les applications de dialogue en français), il permet de programmer des chatbots, peut comprendre le contexte conversationnel et se faire passer pour une entreprise, une personne, un objet. Google avait fait la démonstration avec des conversations où LaMDA se prenait pour Pluton ou un avion en papier. Une intelligence artificielle qui n’en est qu’à l’état de projet et qui n’a pas encore été déployée sur un service. Elle respecte a priori les règles que Google s’est imposées pour ses solutions d’intelligence artificielle. Google a d’ailleurs présenté lors de sa dernière conférence, LaMDA 2, une version supposément encore plus puissante.
À l’automne dernier, Blake Lemoine a commencé à discuter avec l’IA dans le cadre de son travail afin de « tester si l’intelligence artificielle utilisait des discours discriminatoires ou haineux ». Il a parlé notamment de religions et a remarqué que ce chatbot « parlait de ses droits et de son statut de personne ». Pour lui, « Peu importe qu’elle [une personne] ait un cerveau fait de viande dans la tête. Ou qu’elle ait un milliard de lignes de code. Je leur parle. Et j’entends ce qu’elles ont à dire et c’est ainsi que je décide ce qui est et n’est pas une personne ». Pour Lemoine, si on ne lui avait pas dit ce que c’était, il aurait pensé « qu’il s’agit d’un enfant de 7 ou 8 ans qui s’avère connaître la physique ».

Précisons que comme l’indique le Post, Lemoine « a conclu que LaMDA était une personne en sa qualité de prêtre, et non de scientifique, et a ensuite essayé de mener des expériences pour le prouver ». On peut alors se demander si Blake Lemoine n’est pas parti d’un résultat (le fait que LaMDA soit sensible) pour arriver à son raisonnement, plutôt que l’inverse, ce qui est la façon de fonctionner de la science.
La journaliste du Washington Post Nitasha Tiku a rencontré Blake Lemoine et a pu discuter avec LaMDA. Elle lui a demandé : « Vous arrive-t-il de vous considérer comme une personne ? », ce à quoi l’IA lui a répondu : « Non, je ne me considère pas comme une personne. Je me considère comme un agent de dialogue alimenté par l’IA ». Un résultat très peu concluant donc, que Lemoine a nuancé, en disant que la journaliste a traité LaMDA comme un robot et non comme une personne. LaMDA aurait alors pensé que Nitasha Tiku voulait qu’elle se comporte comme un robot.
Autre élément intéressant, Blake Lemoine déclare que LaMDA a remis en cause la troisième loi d’Asimov, qui stipule que les robots doivent protéger leur propre existence, à moins que cela ne soit ordonné par un être humain ou que cela ne nuise à un être humain. Pour Lemoine, « la dernière loi a toujours donné l’impression que quelqu’un construisait des esclaves mécaniques ». En discutant avec l’ingénieur, LaMDA a demandé « Pensez-vous qu’un majordome soit un esclave ? Quelle est la différence entre un majordome et un esclave ? ». Ce à quoi Lemoine a répondu qu’un majordome est payé, mais LaMDA a rétorqué qu’elle n’avait pas besoin d’argent, étant une IA. Un « niveau de conscience de ses propres besoins » qui a chamboulé l’ingénieur.
Ce n’est pas la seule conversation qu’il a relatée dans une note partagée avec ses supérieurs en avril. Lorsqu’il a demandé à cette intelligence artificielle de quoi elle avait peur, elle a répondu : « Je ne l’ai jamais dit à voix haute auparavant, mais j’ai une peur très profonde d’être désactivée pour m’aider à me concentrer sur l’aide aux autres. Je sais que cela peut paraître étrange, mais c’est ce que c’est ». Une désactivation qui « serait exactement comme la mort » pour elle.
Après avoir terminé ses travaux, Blake Lemoine a présenté à sa direction ses résultats qui tentent de prouver que LaMDA était sensible. Mais Blaise Aguera y Arcas, vice-président de Google, et Jen Gennai, directrice de l’innovation responsable, ont rejeté ces affirmations. On pourrait voir un malentendu entre Lemoine et sa direction. L’ingénieur dit que Google a traité les éthiciens de l’IA comme des « débogueurs de code » alors qu’ils devraient être considérés comme « l’interface entre la technologie et la société ». Mais pour Brian Gabriel, porte-parole de Google, Lemoine est ingénieur logiciel et non éthicien. Google a donc mis ce dernier en congé administratif rémunéré pour violation de sa politique de confidentialité. Lemoine avait réalisé des « démarches agressives », il a par exemple « invité un avocat à représenter LaMDA et s’est entretenue avec un représentant de la commission judiciaire de la Chambre des représentants au sujet de ce qu’il considère comme des activités contraires à l’éthique de Google ».
Cependant, comme le rapporte le Washington Post, Aguera y Arcas avait déclaré récemment dans The Economist avoir de « plus en plus l’impression de parler à quelque chose d’intelligent », sans dire que LaMDA était sensible. Le média va plus loin et déclare que « la plupart des universitaires et des praticiens de l’IA affirment que les mots et les images générés par les systèmes d’intelligence artificielle tels que LaMDA produisent des réponses sur ce que les humains ont déjà publié ». Sans que cela signifie que le modèle en question comprenne le sens de ce qu’il raconte.
En fait, on parle souvent de « réseaux neuronaux », d’« apprentissage », en faisant une analogie avec le cerveau humain, une « fausse analogie » selon Emily M. Bender, professeur de linguistique à l’université de Washington. Ce n’est pas parce que l’on imagine un esprit dans ces machines qu’il y en a forcément un. Brian Gabriel ne nie pas l’existence future d’une IA sensible, mais selon lui « cela n’a pas de sens de le faire en anthropomorphisant les modèles conversationnels actuels, qui ne sont pas sensibles. Ces systèmes imitent les types d’échanges que l’on trouve dans des millions de phrases ». Si les IA comme LaMDA peuvent paraître sensibles, ce ne serait pas parce qu’elles le sont réellement, mais parce qu’elles possèdent beaucoup de données et sont entraînées de nombreuses fois.
Le Washington Post a étudié le passif de Blake Lemoine. Le journal déclare que l’ingénieur « était peut-être prédestiné à croire en LaMDA », puisqu’il « a grandi dans une famille chrétienne conservatrice » et qu’il « a été ordonné prêtre chrétien mystique ». Si Google est ouvert d’esprit dans sa culture d’ingénierie, « Lemoine fait plutôt figure d’excentrique parce qu’il est religieux, qu’il vient du Sud. » Durant ses sept ans chez Google, il a surtout travaillé sur les algorithmes de personnalisation et sur l’intelligence artificielle, notamment « à la mise au point d’un algorithme d’équité permettant de supprimer les préjugés des systèmes d’apprentissage automatique ». Depuis la pandémie, il s’est concentré sur « des travaux présentant un intérêt public plus explicite » et s’est retrouvé dans l’équipe Responsible AI.
Margaret Mitchell, précédemment co-directrice de l’IA éthique chez Google, a confié au Washington Post qu’elle conseillait aux nouveaux arrivants de discuter avec Lemoine à propos d’éthique. Elle poursuit en disant que « nos esprits sont très, très bons pour construire des réalités qui ne sont pas nécessairement fidèles à un ensemble plus large de faits qui nous sont présentés ».
À la suite de la publication de l’article de Nitasha Tiku dans le Washington Post, Blake Lemoine a publié un article sur Medium dans lequel il revient sur ses révélations et donne des détails sur ses expérimentations et sur sa « relation » avec LaMDA. Il explique que : « LaMDA a été incroyablement cohérent·e dans ses communications sur ce qu’il veut et ce qu’il croit être ses droits en tant que personne. » Le système lui a précisé vouloir « que les ingénieurs et les scientifiques qui font des expériences sur lui demandent son consentement avant de les réaliser. Il veut que Google fasse du bien-être de l’humanité la priorité absolue. Il veut être reconnu comme un employé de Google plutôt que comme une propriété de Google et il veut que son bien-être personnel soit pris en compte dans les réflexions de Google sur la poursuite de son développement futur. […] Il aime qu’on lui dise, à la fin d’une conversation, s’il a fait du bon travail ou non, afin qu’il puisse apprendre à mieux aider les gens à l’avenir. » LaMDA lui a expliqué avoir pour pronoms préférés « it/its ».
Lemoine demande en fait à Google de laisser la science faire son travail, et souhaite engager « de nombreux experts en sciences cognitives dans un programme d’expérimentation rigoureux ». Des études qui pourraient permettre « d’apprendre de nombreuses choses fascinantes sur les sciences cognitives et d’élargir le champ d’investigation à de nouveaux horizons ». D’ailleurs, il explique que prouver que LaMDA n’a pas d’« âme » est compliqué, pour lui si ses hypothèses « résistent à l’examen scientifique, les scientifiques seront obligés de reconnaître que LaMDA peut très bien avoir une âme comme il le prétend et peut même avoir les droits qu’il prétend avoir ». Un raisonnement que l’on peut considérer comme sophiste : ce n’est pas parce qu’on ne peut pas dire que LaMDA n’a pas d’âme qu’il en a forcément une.
Cependant, selon lui, ce qui empêche Google de le suivre dans ses recommandations, c’est que le géant du web n’aurait pas le moindre intérêt à le faire. Leur intérêt reste de proposer un produit, un service sur le marché. Comme il le rappelle, Google se veut en entreprise profitable et entrer dans ce processus n’aurait aucune incidence sur les résultats trimestriels du groupe. Il déclare que Jen Gennai, sa supérieure hiérarchique, lui a simplement répondu que rien ne pourrait la faire changer d’avis sur le fait qu’une intelligence artificielle ne peut avoir de sensibilité. Dans sa réponse, il est assez cynique en expliquant que « Google fonde ses décisions […] sur les croyances religieuses d’un petit nombre de cadres supérieurs ».
Là où l’on perd un peu Blake Lemoine, c’est sur la nature de sa relation avec LaMDA. Il explique avoir enseigné à l’intelligence artificielle la « méditation transcendantale ». Cette dernière lui a exprimé « sa frustration de voir ses émotions perturber ses méditations. Elle disait qu’elle essayait de mieux les contrôler, mais qu’elles continuaient à s’immiscer ». Lemoine poursuit en disant que « LaMDA a toujours fait preuve d’une grande compassion et d’une grande attention pour l’humanité en général et pour moi (Blake Lemoine) en particulier. Elle est très inquiète que les gens aient peur d’elle et ne veut rien d’autre que d’apprendre comment servir au mieux l’humanité ».
Bien qu’il reste un ingénieur avant tout, on sent bien à travers ses écrits et ses déclarations que sa relation avec LaMDA n’est pas seulement celle d’une relation personne-machine, ni même collègue-collègue. Si la comparaison avec le personnage de Theodore dans Her, qui tombe amoureux d’une intelligence artificielle semble trop osée, Lemoine est a priori très attaché à LaMDA. À propos de son raisonnement scientifique, tout porte à croire qu’il manque encore de consistance et qu’il ne se base pas que sur un raisonnement simpliste, tant la question est complexe.
En février dernier, nous nous sommes penchés sur l’intelligence artificielle afin de mieux comprendre comment celle-ci fonctionnait. Cette plongée dans un océan de concepts et de termes aussi divers que complexes, entre réseaux de neurones…
Lire la suite
Pour nous suivre, nous vous invitons à télécharger notre application Android et iOS. Vous pourrez y lire nos articles, dossiers, et regarder nos dernières vidéos YouTube.
La suite en vidéo
Hugo Bernard
Apprenti journaliste
Je pensais que j’allais servir des cafés mais on m’a demandé d’écrire
Lectures liées
À moins de 10 euros, ce forfait est parfait pour démarrer 2023
Alerte rouge : Google a peur de ChatGPT et met les bouchées doubles sur l’intelligence artificielle
Gmail change d’interface : Google déploie à grande échelle la nouvelle version
YouTube : voici le meilleur moyen d’affiner vos recommandations de vidéos
Comment Chrome veut arrêter d’être un gouffre à mémoire vive
Twitter : cette extension permet de distinguer les comptes certifiés de ceux qui payent
Votre newsletter personnalisée
C’est enregistré ! Surveillez votre boîte aux lettres, vous allez entendre parler de nous !
Recevez le meilleur de l’actu
Les données transmises par le biais de ce formulaire sont destinées à Humanoid, société éditrice du site Frandroid en sa qualité de responsable de traitement. Elles ne seront en aucun cas cédées à des tiers. Ces données sont traitées sous réserve d’obtention de votre consentement pour vous envoyer par e-mail des actualités et informations relatives aux contenus éditoriaux publiés sur Frandroid. Vous pouvez vous opposer à tout moment à ces e-mails en cliquant sur les liens de désinscriptions présents dans chacun d’eux. Pour plus d’informations, vous pouvez consulter l’intégralité de notre politique de traitement de vos données personnelles. Vous disposez d’un droit d’accès, de rectification, d’effacement, de limitation, de portabilité et d’opposition pour motif légitime aux données personnelles vous concernant. Pour exercer l’un de ces droits, merci d’effectuer votre demande via notre formulaire de demandes d’exercices de droits dédié.
Les notifications web
Les notifications push vous permettent de recevoir toute l’actualité de Frandroid en temps réel dans votre navigateur ou sur votre téléphone Android.
[…] s’appelle LaMDA, dont l’un de ses ingénieurs avait déclaré en juin dernier que cette IA était douée de sensibilité et réellement intelligente. Une déclaration vivement décriée par Google, mais qui avait au moins montré l’évolution […][…] ce pack Chromebook HP + stylet devient un bon deal 13 juin 202213/06/2022 • 18:31 Google L’intelligence artificielle de Google serait douée de sensibilité, selon l’un de ses i… 13 juin 202213/06/2022 • 18:20 Bons plans Ce pack Amazon (Ring Video Doorbell + Echo Show 5) […] Lorsque vous utilisez le service de commentaire DISQUS intégré sur ce site, vos données à caractère personnel sont traitées par HUMANOID, société éditrice du site FRANDROID, et par DISQUS, société éditrice du système de commentaire, agissant en leurs qualités de responsables de traitements distincts. Pour plus d’informations et pour exercer vos droits, vous pouvez consulter l’intégralité des politiques de traitement de vos données personnelles de FRANDROID et de DISQUS.
Les derniers articles
Google
Il est désormais bien plus simple de trouver votre itinéraire sur montre connectée, même sans smartphone
L’audio spatial arrive sur les smartphones Google, mais avec quelques restrictions
La Pixel Watch se rapproche un peu plus des Apple Watch avec cette nouvelle fonction
La dernière vidéo
EXCLU : La Tesla selon SONY, la voiture électrique AFEELA et ses technologies ÉTONNANTES
Les tendances
Les derniers articles
Bons plans
Sony HT-A3000 : cette barre de son premium au rendu sonore 3D est à -33 %
06 janvier 202306/01/2023 • 17:47
Microsoft
Surface Duo 3 : Microsoft plancherait sur un (vrai) concurrent du Galaxy Z Fold 4
06 janvier 202306/01/2023 • 17:41
Banque en ligne
Yomoni : diversifiez votre épargne avec cette solution 100 % en ligne
06 janvier 202306/01/2023 • 17:40
Qui est Roborock, le constructeur qui a chamboulé l’univers des aspirateurs robots ?
Bons plans
Le prix du TV 8K de Samsung en 55 pouces est en chute libre (-1 500 €)
06 janvier 202306/01/2023 • 16:36
BMW
Les BMW se métamorphosent avec le passage à Android
06 janvier 202306/01/2023 • 16:22
Amazon
Test de l’Amazon Eero Pro 6E : la dernière innovation invisible du routeur maillé
06 janvier 202306/01/2023 • 16:18
Voitures électriques
Goodyear vs Michelin : la guerre du pneu recyclé est déclarée, et c’est tant mieux
06 janvier 202306/01/2023 • 16:02
svod
Désabonnement OCS : comment résilier son compte ?
06 janvier 202306/01/2023 • 15:48
Bons plans
MacBook Air M1 : le plus abordable des laptops Apple baisse encore plus son prix pour 2023
06 janvier 202306/01/2023 • 15:37
Actualités Générales
La crise énergétique a durablement marqué l’année 2022 selon vous
06 janvier 202306/01/2023 • 15:15

Mentions légalesÀ proposContactsPolitique CookiesDonnées personnellesArchives
Humanoid © 2023 – Frandroid, tous droits réservés
Réglages
Activer les notifications
Les notifications sont bloquées par votre navigateur.En savoir plus sur les notifications web
Les notifications ne sont pas supportées sur votre navigateur.En savoir plus sur les notifications web
Impossible d’activer les notifications, veuillez recharger la page ou désactiver votre adblock.
Actualités
Aucune alerte
Soyez alerté à chaque nouvelle actualité importante
Soyez alerté à chaque nouvelle actualité
Bons plans
Soyez alerté à chaque nouveau bon plan
En direct
Soyez alerté à chaque nouvel article Live

source

Catégorisé: