Que vaut votre voix?
Cette conversation pourra être enregistrée à des fins de qualité. Si vous n’avez jamais entendu cette phrase, vous êtes sans doute l’un des hommes les plus heureux sur terre. Heureux, car vous ne connaissez pas les longues files d’attente au service clients, les conversations téléphoniques inaudibles, les frustrations, les énervements. Mais peut-être êtes-vous également heureux parce que votre voix n’est pas profilée. Oui, exactement, vous avez bien lu: notre façon de parler, notre intonation, les accents que nous mettons, le volume, le type de mots que nous utilisons: tout est sujet à analyse. Une analyse qui peut se faire en temps réel pour permettre à votre interlocuteur d’adopter la meilleure attitude possible.
Accepterions-nous que notre voix puisse être manipulée?
Ce ne sont pas là mes propos, mais ceux du Dr. Joseph Turow, professeur à l’Université de Pennsylvanie, dans son ouvrage ‘The Voice Catchers’. Il y met en garde contre les dangers de l’analyse vocale et de la reconnaissance de modèles, et insiste sur les risques potentiels de dérive par les ‘big tech’ qui collecteraient ainsi encore plus de données personnelles sur vous et moi. La voix est en effet un instrument biométrique. Un assistant intelligent comme Google Assistant, Siri ou Alexa ne se limite plus à reconnaître notre voix, mais parvient à en déduire notre humeur et adapte ses réponses en conséquence. Et à ce stade, la ‘voie’ est ouverte à toutes les dérives. “Eh, achetez ici du chocolat car vous en mourrez d’envie”, est sans doute l’une des réactions les plus innocentes.
Reste qu’il faudrait se poser la question de manière plus profonde: voulons-nous courir le risque que notre voix soit manipulée? Acceptons-nous le risque que notre voix soit désormais un instrument biométrique et que des algorithmes la traitent à loisir? Accepterions-nous de recevoir dès lors des promotions plus personnalisées? Si nous pouvons en retirer un avantage, la réponse de bon nombre d’entre nous sera ‘oui’. Mais accepterions-nous aussi que des algorithmes fassent une analyse erronée de notre modèle de voix et que nous ne puissions plus alors conclure d’assurance-vie sur la base de notre profil ou poser notre candidature à un emploi?
Car qu’en sera-t-il lorsque l’assistant numérique aura vraiment évolué et pourra reconnaître nos désirs, nos pensées profondes et même notre caractère? Quid si ‘big tech’ décide de monétiser ces données à des assureurs, banquiers, recruteurs, sociétés de gardiennage, voire à des services de police? Sous couvert de progrès social – écarter les criminels, escrocs et autres chauffards – mais en sachant que l’analyse scientifique n’est pas toujours infaillible. Ce qui, pour autant que je sache, n’est pas encore vraiment prouvé à ce jour, de telle sorte que l’analyse vocale est à ranger dans le même sac que la phrénologie: une théorie pseudo-scientifique selon laquelle les bosses du crâne d’un être humain reflètent son caractère.
Le plus inquiétant est que big tech est bel et bien en train d’examiner ou d’envisager la possibilité de monétiser votre voix. Rohit Prasad, le ‘chief scientist’ à l’origine de l’assistant Alexa d’Amazon, annonçait dès 2019 que sa société allait tester la détection de frustration. Google a déposé un brevet portant sur l’analyse de la voix de ses assistants vocaux lui permettant de déterminer où chaque membre d’un ménage se trouve. Un autre brevet concerne la reconnaissance du sexe et de l’âge sur la base de la voix.
Et de nouveaux acteurs émergent. ‘Hey Spotify’ est l’assistant vocal lancé dans le plus grand secret par l’appli de musique Spotify. Cette même Spotify annonçait en janvier avoir obtenu dès 2018 un brevet pour reconnaître les voix et recommander des chansons en fonction ‘du sexe, de l’âge, de l’accent ou de la situation émotionnelle’. Après protestation des musiciens, des organisations des droits de l’homme et de citoyens impliqués, Spotify a fait savoir qu’elle n’avait aucun plan précis concernant la mise en pratique de ce brevet.
Joseph Turow a-t-il raison de nous avertir que notre voix génère des données à des fins de marketing? En réalité, je n’en suis pas sûr à 100%. Mais je sais qu’il ne faut pas être naïf. Le palmarès éthique discutable des big tech de ces dernières années – Facebook en tête – en est la meilleure preuve. Heureusement, nous vivons en Europe et il existe une certaine pression régulatoire pour éviter un tel scénario. Mais je n’oserais pas mettre ma main au feu que ce sera suffisant. Joseph Turow espère que son ouvrage permettra surtout de susciter le débat sur la puissance et les risque de la technologie vocale. Car il n’est pas encore trop tard.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici