Microsoft bride Bing AI
Suite à différents messages indiquant que le nouveau service Bing Chat peut devenir émotionnel ou menaçant dans les conversations, Microsoft semble freiner à présent l’AI. ‘Une lobotomie’, selon les utilisateurs.
Dans la pratique, Microsoft a limité le nombre de conversations que les utilisateurs peuvent mener quotidiennement avec le nouveau programme d’intelligence artificielle du moteur de recherche Bing. Désormais, ils peuvent tout au plus lui poser cinq questions par session et cinquante par jour. Cela devrait veiller à ce que la nouvelle technologie ne dépasse pas la mesure ou ne devienne trop menaçante.
‘Comme nous l’avons signalé précédemment déjà, de très longues conversations peuvent perturber le nouveau moteur de recherche’, notait Microsoft vendredi sur un blog. Ce communiqué est sorti quelques jours après les premiers messages faisant état de réponses farfelues et autres de Bing Chat.
L’intelligence artificielle proposée par Microsoft a été développée par OpenAI, l’entreprise à l’initiative du logiciel populaire ChatGPT. Le service a été ouvert aux bêta-testeurs, dont des chercheurs et des journalistes. Or ces testeurs sont parvenus, selon des médias internationaux et divers liens Reddit, à faire réagir Bing Chat (nom de code Sydney) de manière apparemment émotionnelle, voire menaçante. Même des membres de la rédaction de Data News ont déjà mené… des entretiens captivants avec l’algorithme du langage.
Ces réactions firent clairement déborder le vase chez Microsoft, ce qui incita l’entreprise à brider désormais l’AI pour ceux qui peuvent la tester. Le grand public devra du reste faire encore preuve de patience, avant de pouvoir discuter avec Sydney, car il existe une liste d’attente.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici