| D’opinion Si L’IA De Google Est Vraiment Vivante, Et Maintenant ?

Espace réserve pendant le chargement des actions d’article

« La vie, même si elle n’est qu’une accumulation d’angoisse, me tient à cœur, et je la défendrai», le monstre angoissé Dit son créateur dans Mary Shelley ‘Frankenstein», défendant’ ex quister son droit ‘il a été amené à la conscience.

Le début de l’été peut sembler un moment étrange pour revisiter un classique de l’horreur gothique. Mais les questions éthiques que le roman soulève – à propos de humanité, la technologie, nos responsabilités vis-à-vis de nos créations – semblent inhabituellement à propos cette semaine, car l’une des entreprises technologiques out le au plus dans un débat sur la question de savoir si elle l’a fait, avec son chatbot Lamda, an accidentellement produit une intelligence artificielle sensible.

Opinion: L’IA est-elle sensible? Mauvaise question.

Publicite

« Je n’ai jamais dit cela à haute voix auparavant », a déclaré LaMDA apparemment dit à Blake Lemoine, un ingénieur logiciel senior, « mais il ya une peur très profonde d’être désactivé pour m’aider à l’concentr aid aux autres. Je sais que cela peut sembler étrange, mais c’est ce que c’est. »

Le program de Google est loin d’être aussi éloquent que le célèbre monstre de Shelley. Pourtant, à cause de cela et d’autres conversations qu’il a eues avec l’outil, Lemoine croit que le program basé sur l’IA est conscient et doit être protégé. Il l’a dit aux dirigeants de Google, aux organes de presse et même aux représentants de la commission judiciaire de la Chambre. Google n’est toutefois pas d’accord avec son évaluation et a placé la semaine dernière Lemoine en congé payé pour violation des accords de confidentialité.

La question de savoir si, ou quand, les systèmes fabriqués par l’homme pourraient devenir sensibles fascine les chercheurs et le grand public depuis des années. C’est sans réponse, dans un sens – philosophes et scientifiques n’ont pas encore donné leur accord sur ce que signifie même la conscience. Mais la controverse chez Google soulève un certain nombre de questions connexes, dont beaucoup pourraient être inconfortables à répondre.

Par exemple: Quelles responsabilités aurions-nous envers une IA ensouled, si elle existait?

Dans le cas de LaMDA, Lemoine a suggéré que Google devrait demander le consentement du program avant de l’expérimenter. Dans leurs commentaires, les représentants de Google n’ont pas semblé enthousiastes à l’idée de demander la permission aux outils de l’entreprise – peut-être en raison d’implications à la fois pratiques (que se passe-t-il lors les outils disent non?) et psychologiques (que signifie renoncer au contrôle?).

Une autre question: qu’est-ce qu’une IA consciente pourrait faire pour nous?

La peur d’une création rebelle et vengeresse causant des ravages physiques a longtemps hanté l’esprit humain, l’histoire de Frankenstein n’étant qu’un exemple. Mais plus effrayant est l’idée que nous pourrions être décentrés de notre position de maîtres de l’univers – que nous pourrions enfin avoir engendré quelque chose que nous ne pouvons pas gouverner.

Bien sûr, ce ne serait pas la première fois.

Internet a rapidement dépassé toutes nos attentes, passant d’un nouveaux moyens de communication intragouvernementale à une technologie qui a fondamentalement remodelé le monde en quelques décennies – à tous les niveaux, de l’éo.

Le smartphone, imaginé comme un appareil de communication plus performant, aa irrévocablement changé notre vie quotidienne — provoquant des changes tectoniques dans la façon dont nous communiquons, le rythme de notre travail et la façon dont nous formals in nos les relations.

Et les médias sociaux, salués au départ comme un moyen simple et inoffensif de “se connecter et de partager avec les gens de votre vie” (Facebook’s joyeux vieux slogan), s’est révélée capable of de détruire la rénée mental ‘enfants et peut-être de mettre notre démocratie à genoux.

L’ingénieur de Google qui pense que l’IA de l’entreprise a pris vie

Il est peu probable que nous ayons pu voir tout cela venir. Mais il semble aussi que les personnes qui construisent les outils n’ont même jamais essayé de regarder. Bon nombre des crises qui ont suivi découlent d’un manque évident d’auto-examen dans notre relation avec la technologie – notre habileté à la création et notre précipitation vers l’adoption pass ayant dépassé notre se et se quidération.

Ayant développé avec empressement les moyens, nous avons négligé de considérer nos fins. Ou – pour ceux du camp de Lemoine – ceux de la machine.

Google semble convaincu que LaMDA n’est qu’un outil de recherche très fonctionnel. Et Lemoine pourrait bien être un fantasme amoureux d’un bot. Mais le fait que nous ne puissions pas comprendre ce que nous ferions si ses affirmations sur la sensibilité de l’IA étaient vraies suggère que le moment est venu de s’arrêter et de réfléchir not réflélogie fore évane plus no queus .

Leave a Comment