Des chansons truquées peuvent tromper votre assistant vocal

© Amazon
Els Bellens

Des chercheurs ont réussi à créer des chansons avec lesquelles il est possible de donner en secret des ordres à Alexa ou à d’autres assistants vocaux.

Des chercheurs en informatique liés à IBM et à diverses universités chinoise et américaines ont découvert une façon d’envoyer en catimini des messages à un logiciel d’intelligence artificielle (AI). Il s’agit en l’occurrence de commandes vocales, par exemple pour Apple Siri, Amazon Alexa, Google Assistant et Microsoft Cortana, qui sont intégrées à des chansons populaires.

Et comme tout cela doit avoir des airs d’un film de science-fiction (ou d’un épisode de Black Mirror), les chercheurs ont appelé ces chansons des ‘CommanderSongs’. Ils ont expliqué leur théorie dans un rapport sur Arxiv. La technique en question mystifie les logiciels d’apprentissage profond (‘deep learning software’) des différents géants technologiques au moyen ‘d’interférences contradictoires’ comme le rapport les qualifie.

Les limites de l’apprentissage machine

L’idée sous-jacente n’est pas nouvelle. Précédemment, des étudiants du MIT par exemple étaient déjà parvenus à aller tellement loin avec la reconnaissance des images de Google que pour cette dernière, une tortue devenait un fusil et une balle de baseball une tasse de café. L’apprentissage machine se voit en fait proposer des milliers de photos d’un même objet pour apprendre à identifier une tortue par exemple, mais cela fonctionne surtout pour tout ce qui s’apparente clairement à ce type d’animal. En provoquant des interférences ou de petits changements à une photo, il est cependant possible de pousser l’AI de Google à commettre des erreurs de reconnaissance.

Ce type de recherche s’avère surtout important dans la mesure où l’on ne souhaite pas par exemple que les caméras de l’aéroport de Zaventem identifient un sac à dos (portant ou non un logo de tortue) comme étant une arme.

Il en va de même pour le son. L’année dernière, des chercheurs avaient déjà fait état d’une ‘attaque de dauphin’ recourant à des ultrasons pour mystifier la reconnaissance vocale. Cette attaque avait pu être parée au moyen d’une technologie réprimant les signaux ultrasons. La technique révélée dans le nouveau rapport ne pourrait, elle, pas être bloquée par des filtres pour fréquences sonores. “Notre idée pour rendre une commande vocale indétectable, c’est de l’intégrer à une chanson”, peut-on lire dans le rapport. “De cette manière, le système décodera et exécutera l’ordre, dès que la chanson adaptée sera reproduite, alors que l’utilisateur l’écoutera sans rien remarquer.”

Précédemment déjà, on avait démontré que des ‘sons bizarres’ peuvent être utilisés pour envoyer des ordres à un logiciel de reconnaissance vocale, mais le fait est que ce type de son est très reconnaissable. En les intégrant dans une chanson, il devient nettement plus malaisé de les repérer. On a souvent l’impression que c’est comme un mp3 qui a des ratés.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire