[Science-friction] Faire progresser l’IA qui imite la conscience est un danger, même pour les ingénieurs de Google!
Google a suspendu l'un de ses ingénieurs. Celui-ci a diffusé ses échanges avec un logiciel conversationnel développé par la firme, convaincu que le système était doté d’une conscience. Une affaire qui montre un double danger : être dupé et se tromper de débat.
Le mythe de la machine qui s’éveille continue de faire couler de l’encre. Plus surprenant, c’est un ingénieur de Google, Blake Lemoine, qui semble être tombé dans ce piège. Travaillant à tester le système développé par Google pour créer des logiciels conversationnels (ou chatbots), appelé LaMDA, pour « Language Model for Dialogue Applications », il a été bluffé par les réponses apportées à ses questions. Au point d’alerter sa hiérarchie, cherchant à apporter les preuves que cette IA était « consciente » – précisément, le mot anglais utilisé est « sentient », qui peut signifier conscient ou sensible, au sens d’avoir la faculté de ressentir.
[...]Cet article est réservé à nos abonnés L'Usine Nouvelle
Soutenez un journalisme d'expertise.
VOS INDICES
source