Facebook va personnaliser ses agents conversationnels
Facebook souhaite que ses utilisateurs puissent bientôt mener des conversations fluides et cohérentes avec les interfaces AI. Dans ce but, l’entreprise va insuffler une personnalité propre à ses ‘chatbots’ (agents conversationnels).
L’appellation peut être trompeuse, mais les ‘chatbots’ ne sont aujourd’hui pas encore à même de mener de véritables conversations avec l’homme. Dès qu’ils captent une phrase qu’ils ne comprennent pas, l’utilisateur reçoit une réponse préprogrammée telle que: “Sorry, je ne comprends pas la question.” Facebook estime que cela doit changer.
Fan de Game of Thrones
L’entreprise de Mark Zuckerberg a exploité la technologie de l’apprentissage profond, où l’AI a examiné des modèles fixes dans 160.000 phrases. Selon les chercheurs de Facebook, ce travail était surtout important pour présenter des données correctes qu’ils trouvèrent dans la Mechanical Turk Database d’Amazon. Sur cette plate-forme, les utilisateurs peuvent insérer ce qu’on appelle des ‘Human Intelligence Tasks’ (HIT), à savoir des instructions spécifiques qui ne peuvent être exécutées que par des gens.
En outre, les chercheurs ont aussi mis au point des ‘persona’ (personnages fictifs en psychologie analytique) pour les différents ‘chatbots’. Chaque bot s’est ainsi vu attribuer cinq traits de personnalité tels: “Je suis un artiste. J’ai quatre enfants. Récemment, j’ai acquis un chat. J’aime me promener. Je suis un grand fan de Game of Thrones”. Ce faisant, l’AI peut, au cours d’une conversation, réagir à des messages à partir de son propre ‘persona’.
Réponses cohérentes
En test ultime, les ‘chatbots’ furent comparés à d’autres bots qui, durant les entretiens, pouvaient uniquement répondre sur base de conversations tirées de films qu’ils avaient étudiés. Les testeurs engagèrent la conversation avec les deux sortes de bot, et les résultats furent publiés dans un rapport.
Il en ressort que les bots avec ‘persona’ donnèrent une impression nettement plus fluide, comme attendu. En outre, les testeurs signalèrent aussi que les réponses de ces bots étaient plus cohérentes. Il n’empêche que la majorité déclara clairement se sentir plus impliqué dans les entretiens avec les autres bots.
Personnalité limitée
Les chercheurs de Facebook ne peuvent pas directement expliquer pourquoi il en était ainsi, mais ils supposent que la cause en était le nombre limité de traits de personnalité qu’ils avaient attribués aux ‘persona’ des bots. Ce faisant, ceux-ci n’avaient en effet trop rapidement plus rien à dire.
Les chercheurs affirment cependant que leur expérience démontre que l’AI, en combinaison avec des traits de personnalité, génère de meilleures conversations entre l’homme et la machine. On ne sait pas encore vraiment quand on verra pour la première fois sortir des applications d’agents conversationnels doués de propriétés humaines.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici