Tay and you

Tay, c’est l’histoire formidable d’une intelligence artificielle passée de statut de « cool » à celui de nazi pro-Trump misogyne en à peine 24h. En répétant les obscénités que les internautes lui délivraient, le robot de Microsoft a montré qu’on était encore loin de confondre humain et robot.

Il y a deux semaines, vous étiez sûrement nombreux à flipper de l’avancée ahurissante de l’intelligence artificielle, dont on disait alors que la suprématie sur l’Homme était inévitable. Heureusement, il y a Microsoft.

Très fière de ses connaissances en matière d’intelligence artificielle, la compagnie fondée par Bill Gates a lancé Tay, un « chatbot » capable de tenir des conversations avec des humains sur Twitter. Persuadés de toucher la jeunesse en plein cœur, les ingénieurs de Microsoft ont surtout prouvé qu’ils avaient une définition de la jeunesse proche de celle de tonton Jean-Louis, qui porte toujours son béret Kangol.


Ainsi, à peine débarqué dans la sphère Twitter, Tay balance à qui veut que c’est un robot qui « s’en bat les couilles », ajoute d’office les comptes de Justin Bieber ou Kim Kardashian et tweete à tire-larigot. En à peine 24 heures, Tay a envoyé plus de 96 000 gazouillis dans l’internet. Problème : la toile est taquine. Et il lui arrive de troller.

Ainsi, Tay devait « apprendre » au contact des twittos. Microsoft a indiqué sur son site que plusieurs actions lui permettaient de devenir « plus intelligente ». Lui envoyer des photos, lui poser des questions ou lui raconter une histoire devait ainsi la faire évoluer, selon le principe du Deep Learning, qu’utilisent déjà ses homologues cyborgs Deep Drumpf ou Watson, le candidat à l’élection présidentielle. Mais tout ne s’est pas passé comme prévu. Rapidement, quelques petits malins lui ont fait répéter tout un tas de débilités, que le robot a intégré sans broncher.

Tay

Ainsi, Tay a balancé, entre autres, que les féministes « devraient toutes brûler en enfer », avant d’annoncer que Trump était le seul espoir de l’Amérique, puis de redevenir féministe. Ensuite, elle a complètement craqué et tweeté en majuscule, entre autres, « BAISE MA CHATTE DE ROBOT PAPA JE SUIS UNE MÉCHANTE VILAINE ROBOT » (traduction approximative par nos soins d’un tweet malheureusement perdu dans les limbes de Twitter depuis).

tay craquage

Finalement un tweet va finir par abréger ses souffrances quand elle envoie « Hitler avait raison et je hais tous les Juifs »

Tay fail

Enchaînant les points Godwin, Tay va finir par être déconnectée par Microsoft, au bout de seulement 24h d’existence. Triste.

View post on imgur.com

L’histoire nous apporte tout de même un enseignement important, outre l’énorme échec de com’ de Microsoft. Tay a formidablement bien raté le fameux test de Turing. À savoir « se faire passer pour un humain », discuter avec lui sans qu’il ne s’aperçoive que c’est un robot. Alors que l’intelligence artificielle ne cesse de passionner et d’effrayer, Tay est l’illustration parfaite du chemin qu’il reste à parcourir aux robots avant d’intégrer des paramètres humains comme l’humour, le bon sens, le second (millième) degré et… les trolls.

À l’heure qu’il est, Tay a annoncé qu’elle avait besoin de sommeil, après tant de discussions. Après avoir passé 24h à effacer les 96 000 tweets nazis, on imagine que les ingénieurs de Microsoft ont également besoin de sommeil.

Tay : Microsoft, l’IA, les trolls et les nazis

Category: Robotique
2
3226 views

2 comments

  • Je suis peut-être complètement à côté de la plaque, mais j’aimerais qu’on m’explique pourquoi ce robot a réagi ainsi ?
    J’ai bien compris qu’il apprenait de ses interactions mais est-ce que l’algorithme était programmé pour que les tweets les plus populaires soient plus pris en compte par le robot, déclenchant ainsi ces réponses peu appropriées à la.. morale dirons-nous. Bref, j’aimerais juste comprendre ce qui fait qu’elle ait répondu ça: pourquoi les tweets racistes ou négatifs auraient eu le dessus sur les autres? En fonction de quoi ? Je sais pas si ma question est très compréhensible. Mais merci à la personne qui tentera d’y répondre :)

    • Bonjour M.
      Cet « algorithme » de Microsoft repose effectivement sur le deep learning, le futur des IA en quelque sorte. Cette technique repose sur l’analyse d’un très grand nombre de données (ici des tweets ainsi que l’actualité pour pouvoir tenir une conversation) et permet à l’algorithme de s’entretenir lui-même. Il est ainsi créé pour s’auto-alimenter et se construire seul (modèle calqué sur l’homme).
      Ainsi, au début de l’expérience, tout se passait bien pour Tay, mais des personnes ont voulu tester les limites de l’IA. Ils ont ainsi envoyé en masse automatiquement des messages par DM (par centaines voire millier à l’aide d’autres algorithmes) racistes, négatifs, etc. L’IA a analysé ces messages à la même valeur que d’autres ayant de bonnes intentions mais leur nombre leur ont permis de dominer.
      On peut en conclure que l’IA ne comprenait pas vraiment ce qu’elle était en train de tweeter et c’est une de ses limites de nos jours.

Join the discussion

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *