Dans un article étoffé, ProPublica prétend que WhatsApp propose le cryptage depuis quelques années déjà et affirme donc ne pas pouvoir visionner les messages, photos ou autres contenus. Mais en même temps, l'entreprise a à son service plus de mille modérateurs humains (via Accenture en sous-traitance) pour vérifier les messages sur la plate-forme. Selon le site, cela contredit les affirmations à propos du cryptage.

5 messages pour les utilisateurs

Mais la pratique est nettement plus nuancée. C'est ainsi que les modérateurs travaillant pour WhatsApp ne visionnent des messages que si l'un des 'chatters' rapporte une conversation. A ce moment-là, le message rapporté, plus les quatre messages précédents (et les éventuelles photos ou vidéos) sont partagés avec WhatsApp. L'utilisateur reçoit alors explicitement la notification qu'une brève partie de la session de clavardage (chat) sera transférée à WhatsApp.

ProPublica s'est entretenu avec quelque 29 modérateurs actuels ou anciens de WhatsApp, ce qui se traduit par une vision intéressante de leur mode de fonctionnement. C'est ainsi que les modérateurs reçoivent jusqu'à six cents notifications par jour et disposent de moins d'une minute à chaque fois pour déterminer si un rapport tient la route ou pas et si l'utilisateur doit ou non être contrôlé de plus près ou doit être exclu. Mais cela ne comprend pas d'autres détails sur l'identité des 'chatters' ou d'autres métadonnées.

Alex Stamos, ex-chef de la sécurité chez Facebook et généralement critique à l'égard de l'entreprise, fait lui aussi observer qu'il y a un juste équilibre à trouver. Il signale qu'une appli de clavardage populaire peut également être utilisée pour harceler des gens, envoyer du contenu à connotation sexuelle ou violente (illégale ou non) et de la désinformation, et qu'il convient donc de s'y opposer. 'Permettre à des gens de notifier des abus n'est pas une atteinte au respect de la vie privée', prétend Stamos.

Métadonnées pour l'AI

Il existe certes un second système qui scanne de manière proactive et sur base de l'AI, mais il ne s'agit ici que de métadonnées, à savoir des éléments comme le numéro de téléphone, le destinataire de messages, l'appareil de départ et l'adresse IP, mais l'état de la batterie et le signal du réseau sont ici aussi analysés. Voilà qui devrait aider à identifier des modèles, par exemple pour détecter rapidement des comptes de spam et les supprimer.

La perfection n'existe pas. Des conversations menées avec les modérateurs, ProPublica a appris que les systèmes AI considéraient régulièrement des éléments anodins comme nuisibles, ou qu'ils manquaient d'une connaissance linguistique suffisante pour évaluer les messages, et que la traduction automatique faisait souvent chou blanc. Mais le fait que WhatsApp crypte ses messages, ne détonne pas avec le système, par lequel les utilisateurs peuvent rapporter des conversations de chat et transfèrent ainsi une portion spécifique de celles-ci à WhatsApp.

Dans un article étoffé, ProPublica prétend que WhatsApp propose le cryptage depuis quelques années déjà et affirme donc ne pas pouvoir visionner les messages, photos ou autres contenus. Mais en même temps, l'entreprise a à son service plus de mille modérateurs humains (via Accenture en sous-traitance) pour vérifier les messages sur la plate-forme. Selon le site, cela contredit les affirmations à propos du cryptage.Mais la pratique est nettement plus nuancée. C'est ainsi que les modérateurs travaillant pour WhatsApp ne visionnent des messages que si l'un des 'chatters' rapporte une conversation. A ce moment-là, le message rapporté, plus les quatre messages précédents (et les éventuelles photos ou vidéos) sont partagés avec WhatsApp. L'utilisateur reçoit alors explicitement la notification qu'une brève partie de la session de clavardage (chat) sera transférée à WhatsApp.ProPublica s'est entretenu avec quelque 29 modérateurs actuels ou anciens de WhatsApp, ce qui se traduit par une vision intéressante de leur mode de fonctionnement. C'est ainsi que les modérateurs reçoivent jusqu'à six cents notifications par jour et disposent de moins d'une minute à chaque fois pour déterminer si un rapport tient la route ou pas et si l'utilisateur doit ou non être contrôlé de plus près ou doit être exclu. Mais cela ne comprend pas d'autres détails sur l'identité des 'chatters' ou d'autres métadonnées.Alex Stamos, ex-chef de la sécurité chez Facebook et généralement critique à l'égard de l'entreprise, fait lui aussi observer qu'il y a un juste équilibre à trouver. Il signale qu'une appli de clavardage populaire peut également être utilisée pour harceler des gens, envoyer du contenu à connotation sexuelle ou violente (illégale ou non) et de la désinformation, et qu'il convient donc de s'y opposer. 'Permettre à des gens de notifier des abus n'est pas une atteinte au respect de la vie privée', prétend Stamos.Il existe certes un second système qui scanne de manière proactive et sur base de l'AI, mais il ne s'agit ici que de métadonnées, à savoir des éléments comme le numéro de téléphone, le destinataire de messages, l'appareil de départ et l'adresse IP, mais l'état de la batterie et le signal du réseau sont ici aussi analysés. Voilà qui devrait aider à identifier des modèles, par exemple pour détecter rapidement des comptes de spam et les supprimer.La perfection n'existe pas. Des conversations menées avec les modérateurs, ProPublica a appris que les systèmes AI considéraient régulièrement des éléments anodins comme nuisibles, ou qu'ils manquaient d'une connaissance linguistique suffisante pour évaluer les messages, et que la traduction automatique faisait souvent chou blanc. Mais le fait que WhatsApp crypte ses messages, ne détonne pas avec le système, par lequel les utilisateurs peuvent rapporter des conversations de chat et transfèrent ainsi une portion spécifique de celles-ci à WhatsApp.