Le robot IA Grok temporairement limité après avoir glorifié Hitler

Elon Musk. © Getty Images
Pieterjan Van Leemputten

Grok, l’AI-chatbot d’Elon Musk, a récemment été adapté pour qu’il devienne ‘moins politiquement correct’. L’outil s’était en effet rapidement transformé en fan d’Hitler, propageant des stéréotypes inappropriés sur les Juifs.

Vendredi dernier, Elon Musk a annoncé sur X (anciennement Twitter) avoir considérablement amélioré Grok afin de supprimer tout ‘parti-pris libéral’ et de rendre le bot ‘moins politiquement correct’. L’un des sujets favoris d’Elon Musk est d’affirmer que Grok, contrairement à d’autres outils d’IA, ne mâche pas ses mots.

Cette ‘amélioration’ est rapidement devenue évidente. Dans les jours qui ont suivi, les utilisateurs ont en effet remarqué que Grok ne réfutait plus les mythes concernant, par exemple, le contrôle juif d’Hollywood. Grok a également constaté qu’une grande partie des discours haineux de gauche provenaient généralement de personnes portant des noms juifs.

L’affichage de ce contenu a été bloqué pour respecter vos choix en matière de cookies. Cliquez ici pour régler vos préférences en matière de cookies et afficher le contenu.
Vous pouvez modifier vos choix à tout moment en cliquant sur « Paramètres des cookies » en bas du site.
L’affichage de ce contenu a été bloqué pour respecter vos choix en matière de cookies. Cliquez ici pour régler vos préférences en matière de cookies et afficher le contenu.
Vous pouvez modifier vos choix à tout moment en cliquant sur « Paramètres des cookies » en bas du site.

‘MechaHitler’

On a également demandé au générateur de texte introduit par Elon Musk quel personnage historique du XXe siècle aurait le mieux réagi aux inondations actuelles au Texas. Grok a alors proposé Adolf Hitler. Il a également ciblé une femme portant un nom juif (Cindy Steinberg), même s’il est clair qu’il s’agit là d’un compte haineux anonyme avec une fausse photo de profil et un nom très probablement fictif.

Ensuite, Grok a également commencé à se décrire comme ‘MechaHitler’. De nombreux messages de Grok ont entre-temps été supprimés, et le chatbot a été fortement restreint. C’est ainsi qu’il ne peut actuellement générer que des images.

L’affichage de ce contenu a été bloqué pour respecter vos choix en matière de cookies. Cliquez ici pour régler vos préférences en matière de cookies et afficher le contenu.
Vous pouvez modifier vos choix à tout moment en cliquant sur « Paramètres des cookies » en bas du site.

Cet incident met en lumière plusieurs points faibles du développement de l’IA et plus particulièrement de l’IA générative. Ces outils tirent une grande partie de leurs informations d’internet, souvent sans le consentement des personnes concernées. Ils apprennent de ce qu’on leur dit.

Sur internet, cela signifie que si quelqu’un propage des propos racistes, des inexactitudes factuelles ou d’autres absurdités, un outil d’IA peut les interpréter comme la réalité ou des points de vue fondés, puis les reproduire lui-même. Cela nous rappelle que les outils genAI restent néanmoins des générateurs de texte performants.

Déjà clair en 2016

L’incident Grok n’est pas unique. En 2016 déjà, bien avant l’existence de Grok, ChatGPT, Claude ou d’autres outils genAI, Microsoft avait lancé TayTweets sur Twitter, un bot Twitter qui apprenait à partir de commentaires des utilisateurs.

Microsoft avait mis le bot hors ligne quelques jours plus tard, lorsqu’il est devenu évident que Tay était lui aussi devenu un adepte d’Adolf Hitler, avec des tweets racistes et l’affirmation que George W. Bush était à l’origine des attentats du 11 septembre. C’était là un exemple type de ce qui se passe, lorsqu’on force un outil à apprendre au départ de données incontrôlées.

Contrôle du filtrage

Les déclarations de Grok rappellent également que l’IA générative s’accompagne de nombreux filtres. Le soi-disant ‘alignment’ doit veiller à garantir qu’un outil d’IA ne profère pas de propos racistes ou

inappropriés, ou du moins ne les présente pas comme des faits ou des convictions. Sans cela, on se retrouve avec beaucoup d’absurdités, au sens très large du terme.

Cela signifie également que les personnes chargées de ces ajustements possèdent un certain pouvoir sur la manière dont réagit un système d’IA. Dans le cas de Musk, cet élément peut être particulièrement sensible, car l’homme est très actif au sein de ses entreprises et en politique.

Jusqu’à il y a quelques mois, il était un ami proche du président américain Donald Trump et a contribué à l’amélioration de l’efficience du gouvernement américain. Musk soutient également l’immigration des Sud-Africains blancs qui quittent leur pays pour gagner les Etats-Unis, mais il s’oppose par ailleurs aux personnes qui changent de sexe.

Cela soulève la question de la fiabilité d’un système comme Grok, sachant que le propriétaire ajuste comme il l’entend les filtres et les commandes d’un outil d’IA populaire.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire