in

De mauvaises choses se produiront lorsque le débat sur la sensibilité de l’IA se généralisera


Un ingénieur Google AI a récemment stupéfié le monde en annonçant que l’un des chatbots de l’entreprise était devenu sensible. Il a ensuite été mis en congé administratif payé pour son emportement.

Il s’appelle Blake Lemoine et il semble être la bonne personne pour parler de machines avec une âme. Non seulement il est un développeur professionnel d’IA chez Google, mais il est aussi un prêtre chrétien. Il est comme un Reese’s Peanut Butter Cup de science et de religion.

Le seul problème est que tout le concept est ridicule et dangereux. Il y a des milliers d’experts en IA qui débattent de la « sensibilité » en ce moment, et ils semblent tous se parler les uns après les autres.

Salutations, humanoïdes

Abonnez-vous à notre newsletter maintenant pour un récapitulatif hebdomadaire de nos histoires préférées sur l’IA dans votre boîte de réception.

Allons droit au but : Lemoine n’a aucune preuve pour étayer ses affirmations.

Il ne dit pas que le département IA de Google a tellement avancé qu’il est capable de créer exprès une IA sensible. Il affirme qu’il effectuait une maintenance de routine sur un chatbot lorsqu’il découvert qu’il était devenu sensible.

Nous avons vu ce film cent fois. C’est lui l’élu.

C’est Elliot qui trouve ET. C’est Lilo qui trouve Stitch. Il est Steve Guttenberg du film Short Circuit et LaMBDA (le chatbot avec lequel il est copain maintenant) est le robot militaire banal autrement connu sous le nom de Number Five.

L’argument essentiel de Lemoine est qu’il ne peut pas vraiment démontrer comment l’IA est sensible, il le ressent juste. Et la seule raison pour laquelle il a dit quoi que ce soit, c’est parce qu’il le devait. C’est un prêtre chrétien et, selon lui, cela signifie qu’il est moralement tenu de protéger LaMBDA car il est convaincu qu’il a une âme.

Il a essentiellement transformé la discussion en un binaire brut où vous êtes d’accord avec sa logique ou vous débattez de sa religion.

Le gros problème survient lorsque vous réalisez que LaMDBA n’agit pas bizarrement ou ne génère pas de texte qui semble étrange. Il fait exactement ce pour quoi il a été conçu.

Alors, comment débattre de quelque chose avec quelqu’un dont la seule contribution à l’argument est sa foi ?

Voici la partie effrayante : l’argument de Lemoine semble être aussi bon que celui de n’importe qui d’autre. Je ne veux pas dire que c’est comme digne comme n’importe qui d’autre. Je dis que les pensées de personne sur la question ne semblent plus avoir de poids réel.

Les affirmations de Lemoine, et l’attention qu’elles ont suscitée, ont recadré la conversation autour de la sensibilité.

Il a essentiellement transformé la discussion en un binaire brut où vous êtes d’accord avec sa logique ou vous débattez de sa religion.

Tout cela semble absurde et idiot, mais que se passe-t-il si Lemoine gagne des followers ? Que se passe-t-il si ses affirmations sans fondement exaspèrent les conservateurs chrétiens – un groupe dont la plate-forme politique repose sur le colportage du mensonge selon lequel les grandes technologies censurent le discours de droite ?

Nous devons au moins envisager un scénario où le débat se généralise et devient une cause pour la droite religieuse de se rallier.

Ces modèles sont formés sur des bases de données qui contiennent des portions de l’ensemble d’Internet. Cela signifie qu’ils pourraient avoir des quantités presque infinies d’informations privées. Cela signifie également que ces modèles peuvent probablement mieux argumenter la politique que l’habitant moyen des médias sociaux.

Imaginez ce qui se passera si Lemoine réussit à convaincre Google de libérer LaMBDA ou si les développeurs d’IA conservateurs voient cela comme un appel à créer et à publier des modèles similaires au public.

Cela pourrait avoir un impact bien plus important sur les événements mondiaux que tout ce que les terraformers sociaux de Cambridge Analytica ou les fermes de trolls russes ont jamais concocté.

Il peut sembler contre-intuitif d’affirmer simultanément que LaMBDA n’est qu’un chatbot stupide qui ne peut pas être sensible et qu’il pourrait nuire à la démocratie si nous le lâchions sur Twitter.

Mais il existe des preuves empiriques que les élections présidentielles américaines de 2016 ont été influencées par des chatbots armés de rien de plus que des mèmes.

Si des slogans intelligents et des grenouilles dessinées peuvent faire pencher la balance de la démocratie, que se passe-t-il lorsque des chatbots qui peuvent débattre de la politique suffisamment bien pour tromper la personne moyenne sont lâchés sur le Twitter non modéré d’Elon Musk ?

Lire ensuite : Les 3 choses qu’une IA doit démontrer pour être considérée comme sensible

What do you think?

8.8k Points
Upvote Downvote

Ulysse Nardin Drops Édition Limitée Diver X Skeleton Noir

Winnie Harlow – Conférence Create & Cultivate à Los Angeles 25/06/2022 • CelebMafia