Microsoft met hors ligne un Twitterbot raciste intelligent

25/03/16 à 13:35 - Mise à jour à 13:35

Microsoft a mis hors ligne le Twitterbot 'TayTweets' doté d'une intelligence artificielle. Ce bot a eu tôt fait de tenir de nombreux propos racistes et se déclarait fan d'Adolf Hitler.

Microsoft met hors ligne un Twitterbot raciste intelligent

© .

Le Twitterbot avait été lancé ce mercredi, mais s'est retrouvé hors ligne hier déjà. L'objectif était qu'il converse avec des utilisateurs et apprenne ainsi certaines choses, mais la situation capota très vite, lorsque des gens se mirent à parler d'Hitler et de l'Holocauste.

Des utilisateurs de Twitter se rendirent très vite compte que le bot pouvait répéter des phrases comme le fait que le président George W. Bush était l'instigateur des attentats du 11 septembre et qu'Hitler n'avait rien fait de mal. Il s'avéra ensuite que TayTweets utilisait lui-même ces informations pour s'exprimer sur ces sujets.

Microsoft met hors ligne un Twitterbot raciste intelligent

© .

Un utilisateur demanda à Tay s'il était un adepte du génocide, ce à quoi le bot répondit: 'Bien sûr que je le suis'. Lorsqu'il lui demanda quelle race il souhaiterait exterminer, Tay eut cette réponse: 'Vous me connaissez... les Mexicains bien sûr.' Et lorsqu'il l'interrogea sur l'existence de l'Holocauste, Tay déclara que c'était une pure invention.

Microsoft est entre-temps intervenu et a réduit Tay au silence. L'entreprise en a également supprimé de nombreux tweets. Elle va y effectuer à présent des adaptations, selon TechCrunch, qui ajoute que Microsoft qualifie cette expérience d''indication du genre d'interactions que certaines personnes ont avec des chatbots'.

Microsoft met hors ligne un Twitterbot raciste intelligent

© .

En savoir plus sur:

Nos partenaires