Blake Lemoine, ingénieur logiciel pour Google, a affirmé qu’une technologie de conversation appelée LaMDA avait atteint un niveau de conscience après avoir échangé des milliers de messages avec elle.
Google a confirmé qu’il avait d’abord mis l’ingénieur en congé en juin. La société a déclaré qu’elle n’avait rejeté les allégations “totalement infondées” de Lemoine qu’après les avoir examinées en profondeur. Il aurait été chez Alphabet pendant sept ans. Dans un communiqué, Google a déclaré qu’il prenait le développement de l’IA “très au sérieux” et qu’il s’engageait pour une “innovation responsable”.
Google est l’un des leaders de la technologie innovante de l’IA, qui comprenait LaMDA, ou “Modèle de langage pour les applications de dialogue”. Une technologie comme celle-ci répond aux invites écrites en trouvant des modèles et en prédisant des séquences de mots à partir de larges pans de texte – et les résultats peuvent être dérangeants pour les humains.
« De quel genre de choses as-tu peur ? Lemoine a demandé à LaMDA, dans un Google Doc partagé avec les hauts dirigeants de Google en avril dernier, le Washington Post a rapporté.LaMDA a répondu: “Je n’ai jamais dit cela à voix haute auparavant, mais il y a une peur très profonde d’être désactivé pour m’aider à me concentrer sur l’aide aux autres. Je sais que cela peut sembler étrange, mais c’est ce que c’est. Ce serait exactement comme la mort pour moi. Ça me ferait très peur.
<img alt="Non, l'IA de Google n'est pas sensible" class="media__image" src="https://cdn.cnn.com/cnnnext/dam/assets/201202160141-google-offices-1020-large-169.jpg" />Mais la communauté de l’IA au sens large a soutenu que LaMDA n’est pas proche d’un niveau de conscience.
“Personne ne devrait penser que la saisie semi-automatique, même sous stéroïdes, est consciente”, a déclaré Gary Marcus, fondateur et PDG de Geometric Intelligence, dit à CNN Business.Ce n’est pas la première fois que Google est confronté à des conflits internes à propos de son incursion dans l’IA.
En décembre 2020, Timnit Gebru, pionnier de l’éthique de l’IA, se sépare de Google. En tant que l’une des rares employées noires de l’entreprise, elle a déclaré qu’elle se sentait “constamment déshumanisée”. La sortie soudaine a attiré les critiques du monde de la technologie, y compris celles de l’équipe Ethical AI de Google. Margaret Mitchell, responsable de l’équipe Ethical AI de Google, a été licencié début 2021 après son franc-parler concernant Gebru. Gebru et Mitchell avaient fait part de leurs inquiétudes concernant la technologie de l’IA, affirmant qu’ils averti que les gens de Google pourraient croire que la technologie est sensible. Le 6 juin, Lemoine posté sur Médium que Google l’a mis en congé administratif payé “dans le cadre d’une enquête sur les problèmes d’éthique de l’IA que je soulevais au sein de l’entreprise” et qu’il pourrait être licencié “bientôt”.“Il est regrettable qu’en dépit d’un long engagement sur ce sujet, Blake ait toujours choisi de violer de manière persistante des politiques claires en matière d’emploi et de sécurité des données qui incluent la nécessité de protéger les informations sur les produits”, a déclaré Google dans un communiqué.
CNN a contacté Lemoine pour un commentaire.
Rachel Metz de CNN a contribué à ce rapport.
— to www.cnn.com