Il est temps de lancer le test de Turing

Il est temps de lancer le test de Turing

Opinion Le test de Turing nous concerne, pas les bots, et il a échoué.

Les fans du média grand public à combustion lente U-turn ont eu un régal la semaine dernière.

Samedi, la nouvelle a éclaté que Blake Lemoine, un ingénieur de Google chargé de surveiller un chatbot appelé LaMDA pour méchanceté, avait été mis en congé payé pour avoir révélé des informations confidentielles.

Lamoine était en effet devenu public, mais au lieu de quelque chose d’utile comme la stratégie de messagerie de Google (un secret commercial s’il en est un), il a affirmé que LaMDA était en vie.

Armé d’une transcription où LamDA a effectivement revendiqué la sensibilité et affirmé avoir réussi le test de Turing, Lemoine était le lanceur d’alerte technologique du ciel pour les médias. Au moment où la nouvelle a filtré sur les informations de la radio de la BBC dimanche soir, elle était signalée comme un événement d’une certaine importance.

Sur Twitter, il s’était effondré en quelques heures, mais qui fait confiance à Twitter avec sa vaste et active communauté de R&D en IA ?

Quelques jours plus tard, l’histoire circulait toujours, mais à ce moment-là, les journalistes avaient apporté des commentaires d’experts, par le biais d’une poignée d’universitaires qui avaient les réserves habituelles quant à l’expression d’opinions.

Dans l’ensemble, non, ce n’était probablement pas le cas, mais vous savez que c’est un domaine fascinant dont il faut parler.

Enfin, alors que l’histoire tombait du radar à la fin de la semaine, les quelques médias restants qui la couvraient encore avaient trouvé de meilleurs experts qui, on suppose, étaient aussi exaspérés que nous tous. Non. Absolument pas. Et vous ne trouverez personne dans l’IA qui pense le contraire. La conversation tournait toujours autour de la sensibilité plutôt que de son intérêt.

Google doit utiliser des humains pour vérifier les sorties de son chatbot pour les discours de haine, mais nous étions de retour sur la planète.

Pour référence future et pour faire gagner du temps à tout le monde, voici le tueur qui raconte qu’une histoire est une paranoïa androïde – “Le test de Turing” comme pierre de touche de la sensibilité. Ce n’est pas le cas.

Cela n’a jamais été signifié ainsi. Turing l’a promis dans un article de 1950 comme un moyen d’éviter la question “les machines peuvent-elles penser ?”

Il a judicieusement qualifié cela d’irréfutable jusqu’à ce que vous déterminiez ce qu’est la pensée. Nous n’avions pas alors. Nous n’avons pas maintenant.

Au lieu de cela, le test – une machine peut-elle tenir une conversation humaine de manière convaincante ? – a été conçu pour être une expérience de pensée pour vérifier les arguments selon lesquels l’intelligence artificielle était impossible. Il teste les perceptions humaines et les idées fausses, mais comme les affirmations de Google sur la “suprématie quantique”, le test lui-même est tautologue : réussir le test signifie simplement que le test a été réussi. En soi, cela ne prouve rien de plus.

Prenez un chien Labrador affamé, c’est-à-dire tout Labrador non endormi ni mort, qui prend conscience de la possibilité de se nourrir.

Animal à l’appétit prodigieux et insatiable, au moindre soupçon de calories disponibles, le Labrador fait une superbe démonstration de nostalgie profonde et d’un immense besoin non partagé. Cela reflète-t-il un état cognitif modifié analogue à l’adolescent humain en mal d’amour auquel il ressemble si fortement ? Ou est-ce un comportement appris qui transforme le chantage émotionnel en collations ? Nous pouvons penser que nous savons, mais sans un contexte beaucoup plus large, nous ne le pouvons pas. Nous pourrions être crédules. Réussir le test de laboratoire signifie que vous êtes nourri. En soi, rien de plus.

Le premier système à réussir sans doute le test de Turing, dans l’esprit sinon la lettre des différentes versions proposées par Turing, était une enquête sur la psychologie de l’interaction homme-machine. ELIZA, le chatbot ancêtre, était un programme de 1966 du chercheur en informatique du MIT Joseph Weizenbaum.

Il a été conçu pour imiter grossièrement la pratique thérapeutique consistant à lui renvoyer les questions d’un patient.

“Je veux assassiner mon éditeur.”

« Pourquoi voulez-vous assassiner votre éditeur ? »

“Il n’arrête pas de me faire respecter les délais.”

« Pourquoi n’aimez-vous pas respecter les délais ? » etc.

Célèbre, Weizenbaum a été étonné lorsque sa secrétaire, l’un des premiers sujets de test, l’a imprégné d’intelligence et a demandé à être laissé seul avec le terminal.

Le chatbot de Google est un lointain descendant d’ELIZA, nourri de grandes quantités de données écrites sur Internet et transformées en modèles de langage par apprentissage automatique. C’est un acteur de méthode automatisé.

Un acteur humain qui ne peut pas additionner peut jouer Turing de manière plus convaincante – mais interrogez-les sur le Entscheidungsproblem et vous découvrirez bientôt qu’ils ne le sont pas. Les grands modèles de langage sont très bons pour simuler la conversation, mais si vous avez les moyens de générer le contexte qui testera s’il est ce qu’il semble être, vous ne pouvez pas en dire plus.

Nous sommes loin de définir la sensibilité, bien que notre appréciation de plus en plus nuancée de la cognition animale montre qu’elle peut prendre de nombreuses formes.

Au moins trois types – aviaires, mammifères et céphalopodes – avec une distance évolutive significative ressemblent en effet à trois systèmes très différents. Si la sensibilité de la machine se produit, ce ne sera pas par un chatbot imprimant soudainement une déclaration des droits de cyborg. Cela viendra après des décennies de recherche dirigée, s’appuyant sur des modèles et des tests, des succès et des échecs. Ce ne sera pas une imitation de nous-mêmes.

Et c’est pourquoi le test de Turing, aussi fascinant et stimulant soit-il, a survécu à sa durée de vie. Il ne fait pas ce que les gens pensent qu’il fait, il a plutôt été traduit en servant de complément hollywoodien qui se concentre sur un fantasme. Il absorbe l’attention du grand public qui devrait être consacrée aux dangers réels de l’information créée par la machine. C’est l’astrologie de l’IA, pas l’astronomie.

Le terme même “intelligence artificielle” est tout aussi mauvais, comme tout le monde le sait depuis Turing. Nous sommes coincés avec ça. Mais il est temps de faire avancer la conversation et de dire au revoir à l’héritage le moins utile du brillant Alan Turing. ®

#est #temps #lancer #test #Turing