Tu peux démontrer que tu n’es pas un robot avec un seul mot, lequel choisiras-tu ?

C’est curieux
Il y a 5 ans

En 1950, Alan Turing a mis au point un test destiné à différencier un robot d’un être humain. À l’époque, on ne soupçonnait même pas qu’au 21e siècle, il serait possible de demander à un assistant de recherche pour smartphone de trouver quelque chose, et que l’intelligence artificielle pourrait écrire des chansons et évaluer la popularité de nos futures publications Instagram.

De nos jours, les scientifiques sont allés encore plus loin et ont réalisé une expérience appelée “Le Test de Turing”. Les participants devaient imaginer qu’ils se tenaient à côté d’un robot devant un juge. Le juge ne savait pas qui était qui, mais il devait faire exécuter le robot. Pour prouver que l’on n’était pas une machine, il fallait choisir un mot à dire au juge. Et Sympa a décidé de mettre en œuvre sa propre version de l’expérience, dont les résultats t’attendent dans la seconde moitié de l’article.

Qui a fait l’expérience et quels sont les mots qui ont été les plus utilisés ?

Tout d’abord, les scientifiques ont interrogé environ 1 000 participants en ligne. Les mots les plus populaires à ce stade de l’expérience étaient ceux associés aux émotions : “amour”, “merci” (environ 2,7%). Beaucoup ont cité des émotions abstraites, de la nourriture, les mots “Dieu” et “Jésus”, les robots et les animaux, la famille. Au sommet de la popularité se trouvaient les mots “âme”, “humain”, “s’il vous plaît”.

Il y avait aussi des mots inhabituels, des expressions inventées, de l’argot, des abréviations : yolo, noob, oops, lol, omg. Il y avait aussi “Terminator”.

Les scientifiques ont souligné qu’il est difficile de sécuriser un “test de Turing”, car cela n’aiderait pas vraiment le juge à déterminer avec une grande précision qui est une personne et qui est un robot. Après avoir interrogé 1 000 participants, les auteurs de l’expérience sont allés plus loin et ont demandé à de nouveaux sujets d’évaluer les paires de mots formés à partir des réponses. Il s’agissait d’identifier lequel des deux mots avait été dit par une personne et lequel avait été généré par un robot ou par intelligence artificielle (les participants à l’expérience ne savaient pas que les deux mots avaient été dits par une personne). Après avoir évalué ces paires de mots, le plus “humain” était “caca”.

Nous avons décidé de renouveler cette expérience

Étant donné que seuls les participants anglophones avaient participé à l’expérience originale, nous l’avons reproduite avec un public francophone pour en comparer les résultats. Environ 70 personnes ont été interrogées dans ce but. De plus, nous avons décidé de voir comment l’humeur des participants changerait si le juge ne les croyait pas la première fois et que la situation devenait tendue. Nous avons légèrement modifié les conditions de l’expérience : nos sujets se sont vus offrir 3 opportunités au lieu d’une.

Les réponses les plus fréquentes données par le public interrogé étaient les mots inventés : “jolimoche”, “vieujeune”, “travacances”. Il est difficile pour ces mots de figurer même dans la base la plus large d’un robot, car ils ne sont pas enregistrés dans les dictionnaires, mais nous pouvons généralement saisir leur signification. Il y avait aussi des mots inventés dont il fallait déchiffrer le sens : "Je dirais le mot ’truskus’. C’est un mot de notre famille, nous l’utilisons pour décrire quelque chose qui ne s’est pas bien passé, par exemple : “Quelle journée de truskus”. Un des participants a proposé d’utiliser le mot inventé par Boris Vian “L’Arrache-cœur”.

Tout aussi activement, des mots d’un registre de langue plus familier ont été proposés, en supposant qu’un robot ne les utiliserait probablement pas, comme “bagnole” ou “bouquin”. La nourriture était aussi nommée avec des exemples comme “bouffe”, “bourré”. Parmi les mots qui correspondaient aussi au public anglophone se trouvaient les réponses les plus populaires de l’expérience originale : “amour”, “âme”, “maman” et “imagination”.

Beaucoup, dans la deuxième ou la troisième tentative, ont proposé des expressions obscènes (certains participants allaient même créer une expression inventée comprenant plusieurs mots obscènes, supposant que ces expressions-là communes pourraient déjà faire partie du lexique de l’intelligence artificielle).

Certains participants à l’expérience ont misé non seulement sur le sens de ce qu’ils auraient dit, mais aussi sur l’émotion qu’ils allaient exprimer :

  • “J’aurais pointé le robot du doigt , j’aurais regardé le juge droit dans les yeux et j’aurais crié : “C’est un imposteur !”. Et je l’aurais exprimé d’une manière qu’aucun robot n’aurait pu imiter : avec émotion.
  • “J’aurais ponctué mes phrases avec des : ‘Hum !’. Par exemple en disant : ‘Voyez-vous, Votre Honneur.... hum !... C’est à dire que...’. Le juge aurait immédiatement répondu : ‘Ne continuez pas, l’affaire est close !’.

Beaucoup ont simplement utilisé des mots véhiculant une forme d’émotion, tels que ‘stupéfait’, ‘vibrant’, ‘glorieux’ ou simplement des tournures interrogatives plus complexes telles que (‘condamneriez-vous ?’, ‘signeriez-vous ?’). Certains ont choisi des mots qui signifiaient quelque chose de personnel : ‘Je nommerais ma ville’, ‘Je dirais mon nom’, ‘Je dirais le nom de la personne que j’aime’, ou même pas... plutôt le nom de mon chat”.

Et il y a eu des gens qui ont choisi de se taire. Un des participants a expliqué ceci par le fait qu’un robot ne pouvait pas désobéir à l’ordre du juge (s’il était programmé ainsi, bien sûr) et qu’il aurait de toutes façons répondu quelque chose . Alors que le silence montrerait au juge que celui devant lui était un être humain. Un autre participant à l’expérience a aussi choisi le silence simplement parce qu’il était inutile de dire quoi que ce soit au juge, puisque l’intelligence artificielle d’aujourd’hui peut apprendre à utiliser à la fois un langage grossier que des mots inventés, et tout le reste en général.

Un des participants aurait dit comme troisième choix, le nom de famille russe “Stanislavsky” (si le juge avait répondu “je ne vous crois pas” aux réponses précédentes). Bien qu’il était très probable que le robot ait ce nom de famille dans sa base de données, il n’aurait probablement pas été capable de construire la chaîne logique nécessaire pour arriver à ce mot, et il y aurait eu à ce moment là une possibilité de gagner. Un autre participant aurait dit le mot “dégât” comme troisième option, argumentant que le robot ne choisirait pas un mot à connotation négative. Il n’essayerait de dire que de meilleurs mots, afin que le juge pense que c’est lui l’être humain.

A la fin de l’expérience, les scientifiques ont souligné qu’elle pouvait aussi servir à vérifier d’autres stéréotypes : quel mot, aux yeux des gens, dirait une femme ou un vieil homme ? Malgré le développement de l’intelligence artificielle, qui semble aujourd’hui capable de tout, aussi bien les participants anglophones que ceux de notre expérience ont pu trouver des options que même le robot le plus intelligent ne pouvait évoquer. Il n’est pas si facile d’inventer un mot ou d’en créer un à partir de plusieurs mots existants et qui pourtant aura un sens lorsqu’il sera entendu comme un seul mot. Par contre, si on ne pouvait utiliser que des mots du dictionnaire, il serait presque impossible de distinguer une personne d’un robot intelligent. Dans ce cas, il aurait été préférable de choisir d’autres méthodes de vérification.

Maintenant le plus intéressant ! Et toi ? Quels mots ou expressions aurais-tu choisi dans cette situation ? Fais nous part de tes idées dans la section commentaires.

Commentaires

Notifications

Lectures connexes