La "vallée de l'étrange" : pourquoi l'IA nous fait si peur

Le fait que certains programmes tels que ChatGPT puissent se comporter comme des humains peut nous donner des frissons. Les scientifiques ont développé quelques théories à ce sujet.

De Natalia Mesa
Publication 19 juin 2023, 16:15 CEST
NationalGeographic_1421800

Les robots humanoïdes comme celui-ci, photographié à Dallas en 2010, ne sont pas les seuls à pouvoir déclencher une réaction de type « vallée de l’étrange ». Nous pouvons détecter que quelque chose est anormal même si le stimulus est plus conceptuel, comme une conversation avec une intelligence artificielle.

PHOTOGRAPHIE DE Max Aguilera-Hellweg, Nat Geo Image Collection

Si, lorsqu'une intelligence artificielle (IA) commence un peu trop à agir comme un humain ou à avoir son apparence, cela vous donne des frissons, vous êtes peut-être en train d'expérimenter un phénomène appelé « la vallée de l’étrange ». 

Bien que ce concept existe depuis un demi-siècle, les scientifiques ne s'entendent toujours pas sur les raisons pour lesquelles des humains créés de toute pièce nous mettent si mal à l'aise. Il s’agirait de notre instinct qui nous pousserait à éviter des maladies, de la perception d’une menace ou encore de notre conception de ce qui est humain ou non… Les théories divergent.

Pendant ce temps, les roboticiens et les chercheurs en intelligence artificielle travaillent d'arrache-pied pour atténuer ce sentiment d'aversion, dans l'espoir de pouvoir introduire des robots sociaux dans notre quotidien. À l'avenir, les robots et l'intelligence artificielle pourraient servir des tables dans un restaurant, s'occuper des personnes âgées, apprendre à lire aux enfants ou jouer le rôle de patient dans une école de médecine. Si les robots parviennent à passer au-delà de cette « vallée de l’étrange », cela pourrait avoir un impact considérable sur la façon dont nous interagirons avec eux à l'avenir.

 

QU'EST-CE QUE LA « VALLÉE DE L’ÉTRANGE » ?

Le concept de « vallée de l’étrange » a été inventé pour la première fois par le roboticien Masahiro Mori en 1970. Dans un essai, ce dernier a suggéré que les robots nous deviendraient plus sympathiques à mesure qu'ils acquerraient des qualités humaines, comme WALL-E. Une trop grande ressemblance avec l’Homme les rendrait cependant effrayants, c’est ce que le roboticien appelle la « vallée de l’étrange ». Si toutefois il devenait presque impossible de les distinguer des humains, ils nous redeviendraient de nouveau sympathiques.

Les théories de Masahiro Mori étaient fondées sur son expérience personnelle mais ont eu une grande influence, indique Karl MacDorman, roboticien, doyen associé de l’Indiana University School of Informatics and Computing, école d’informatique en Indiana, aux États-Unis, et traducteur de l'essai de Masahiro Mori. Il explique pourtant que les preuves scientifiques de la « vallée de l’étrange » étant empiriques, il convient de la considérer comme une théorie heuristique plutôt que comme une règle absolue.

Au fil des ans, les chercheurs ont découvert que la « vallée de l’étrange » se retrouvait dans de multiples circonstances : les voix humaines et de synthèse, les animaux robotisés ou encore la structure de certaines maisons

À Pittsburgh, en 2010, un robot est relooké afin de lui donner une apparence plus humaine. Les chercheurs s'efforcent toujours d’atténuer le sentiment provoqué par la « vallée de l’étrange » en rendant ces humains artificiels aussi réalistes que possible.

PHOTOGRAPHIE DE Max Aguilera-Hellweg, Nat Geo Image Collection

 

LES AUTRES THÉORIES

Dans une récente étude, Karl MacDorman et le psychologue cognitiviste Alex Diel ont trouvé une théorie plus appuyée appelée « traitement configural ». Selon cette théorie, ce type de réactions serait causé par notre sensibilité à la position et à la taille des traits du visage humain. Une autre théorie apparentée, celle de la « dissonance cognitive », affirme que nous serions mal à l'aise lorsque nous percevons des caractéristiques discordantes, comme des yeux réalistes mais une peau qui ne l’est pas. Cette incohérence particulière est un problème récurrent dans les images générées par Stable Diffusion, une intelligence artificielle. 

D'un point de vue évolutif, ces sensibilités pourraient déclencher une réaction instinctive d'évitement vis-à-vis d’une menace potentielle. Alex Diel explique que nous pourrions voir dans les imperfections d'une reproduction d’être humain le signe d'une maladie physique, potentiellement contagieuse, ce qui déclencherait une réaction de dégoût. La théorie de la sélection sexuelle est similaire : elle suppose que nous aurions une aversion pour les robots à l'apparence humaine car, selon notre instinct, leurs imperfections indiqueraient qu'ils ne seraient pas de bons partenaires. Selon une autre théorie, les robots humanoïdes nous troubleraient car ils sembleraient avoir pris vie de manière non naturelle, comme des zombies, et nous feraient penser à notre propre mort.

Certaines théories cognitives sur la « vallée de l’étrange » incluent l'idée que nous attribuerions des qualités humaines ou de l’esprit à des robots humanoïdes. Ceci entraînerait une dissonance cognitive et une confusion car nous ne saurions pas si nous devrions les traiter comme des humains ou encore croire qu’ils peuvent se comporter comme tels.

Plus récemment, des éléments ont suggéré que les êtres artificiels nous troubleraient car ils remettraient en question nos croyances sur le caractère unique des capacités humaines, comme le raisonnement, la logique et les émotions. Dans une étude récente, les participants ont déclaré que les interactions avec des humanoïdes les avaient amenés à s'interroger sur ce que signifiait être humain. Dawid Ratajzyc, professeur à l'université Adam Mickiewicz, qui a mené l'étude, estime que « les robots peuvent nous en apprendre plus sur nous-mêmes que sur ce qu’ils sont ».

 

IA ET « VALLÉE DE L'ÉTRANGE » : LA RÉPULSION

Une vidéo tristement célèbre de 1988 montre un bébé en images de synthèse jouant avec des jouets. Selon Karl MacDorman, il s'agit d'un excellent exemple de la « vallée de l’étrange », expliquant que le sentiment ressenti par le spectateur est « très viscéral, automatique et incontrôlé ». Il distingue cette réaction de celle que l'on peut avoir en discutant avec un chatbot, agent conversationnel, qui implique une pensée et une réflexion. « Je ne pense pas qu'il s'agisse vraiment de la théorie de la “vallée de l'étrange” telle que définie par Masahiro Mori. »

les plus populaires

    voir plus
    Gauche: Supérieur:

    Ce robot fabriqué en 2010 à Osaka, au Japon, est conçu pour ressembler à un enfant, apprenant en observant les humains et en interagissant avec eux.

    Droite: Fond:

    Ce robot fabriqué en 2010 à Osaka, au Japon, est conçu pour ressembler à un enfant, apprenant en observant les humains et en interagissant avec eux.

    Photographies de Max Aguilera-Hellweg, Nat Geo Image Collection

    Dawid Ratajzyc, quant à lui, considère les deux entités comme identiques. En fait, il pense que tout agent intelligent, qu'il s'agisse d'un robot ou d'un chatbot, peut susciter des réactions de type « vallée de l’étrange ». Il cite une récente étude qui a montré que les simples chatbots d’interaction textuelle semblent moins effrayants que ceux qui comportent un avatar virtuel ressemblant à un être humain qui « parle » à l'utilisateur. Plus l'avatar ressemble à un être humain, plus le chatbot suscite un sentiment de répulsion.

    Des études réalisées grâce à l’imagerie cérébrale ont montré que ces deux types d'interactions, les réponses automatiques et sensorielles par opposition aux interactions qui requièrent de penser et de réfléchir, utilisent des parties différentes du cerveau. Ainsi, nous pourrions davantage nous servir des parties analytiques de ce dernier dans les interactions sociales avec les robots qu'avec les humains.

     

    L'IA EST-ELLE PERÇUE DIFFÉREMMENT SELON LES GÉNÉRATIONS ?

    Nadine, le robot social, peut vous saluer et se souvenir des conversations que vous avez eues précédemment. Elle a été présentée au monde entier il y a près de sept ans et travaille dans une compagnie d'assurance à Singapour. Depuis février de cette année, 100 millions de personnes ont utilisé ChatGPT. Alors que nous interagissons de plus en plus avec les humanoïdes et l'IA, toujours plus réalistes, deviendront-ils moins étranges à nos yeux ?

    Difficile à dire, selon Bilge Mutlu, professeur en sciences informatiques à l’université du Wisconsin-Madison. Alors que les chercheurs s'attendent à ce qu'une exposition répétée atténue la réaction de type « vallée de l’étrange », Bilge Mutlu affirme que, pour lui, ce sentiment n'a fait que s'accentuer. 

    Karl MacDorman pense lui aussi qu'il y a peut-être là quelque chose de générationnel. Il se souvient qu'en 2020, alors qu'il dévoilait Geminoid H1, l'androïde que le roboticien Hiroshi Ishiguro avait créé à partir de lui-même, un homme d'un certain âge est entré dans la salle et a demandé où se trouvait le robot alors qu'il se tenait juste à côté de lui.

     

    QU'EST-CE QUE CELA SIGNIFIE POUR L'AVENIR DES INTÉRACTIONS HOMME-ROBOT ?

    Masahiro Mori proposait une solution simple pour éviter un sentiment du type « vallée de l’étrange » : ne pas construire de robots ressemblant à des humains. Néanmoins, aujourd’hui, de nombreux roboticiens comme Karl MacDorman ont décidé d’aller plus loin. Ils tentent de donner aux robots une apparence et un comportement plus humains, à la fois pour poser des questions fondamentales sur l'Homme et pour que les robots puissent s'intégrer de manière imperceptible dans notre vie. 

    Cela soulève toutefois des questions éthiques : jusqu’à quel point un humanoïde doit-il être humain ? Les gens doivent-ils savoir qu'ils interagissent avec un agent intelligent ? De quelle quantité d'informations une intelligence artificielle doit-elle disposer sur nous ?

    Bilge Mutlu pense qu'il n'est pas nécessaire que tous les robots ressemblent et se comportent exactement comme des humains. Selon lui, nous devrions réfléchir attentivement à ce pourquoi nous utilisons des agents robotiques et les concevoir de manière appropriée.

    Nous n'avons pas non plus besoin qu'ils prennent des décisions importantes que nous avons la capacité de prendre nous-mêmes, ajoute-t-il. Aujourd'hui encore, l'intelligence artificielle est utilisée pour traiter des demandes d'indemnisation et décider de mettre ou non des gens en prison. Il espère que les roboticiens et les chercheurs en intelligence artificielle se concentreront davantage sur le fait d’aider à restaurer ou dépasser les capacités humaines.

    Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

    les plus populaires

      voir plus
      loading

      Découvrez National Geographic

      • Animaux
      • Environnement
      • Histoire
      • Sciences
      • Voyage® & Adventure
      • Photographie
      • Espace

      À propos de National Geographic

      S'Abonner

      • Magazines
      • Livres
      • Disney+

      Nous suivre

      Copyright © 1996-2015 National Geographic Society. Copyright © 2015-2024 National Geographic Partners, LLC. Tous droits réservés.