Levez la main si cette situation vous est familière : vous regardez une vidéo sur YouTube. Puis vous cliquez sur la suivante, puis la suivante encore. Deux heures et des dizaines de vidéos plus tard, vous êtes toujours éveillé, alors que vous êtes au lit depuis longtemps. L'algorithme de recommandation de YouTube est célèbre dans le monde pour la manière dont il conseille les vidéos à regarder. Guillaume Chaslot a travaillé de 2010 à 2013 comme programmeur chez Google (la maison mère de YouTube) sur l'algorithme de recommandation et se montre particulièrement critique à cet égard.
...

Levez la main si cette situation vous est familière : vous regardez une vidéo sur YouTube. Puis vous cliquez sur la suivante, puis la suivante encore. Deux heures et des dizaines de vidéos plus tard, vous êtes toujours éveillé, alors que vous êtes au lit depuis longtemps. L'algorithme de recommandation de YouTube est célèbre dans le monde pour la manière dont il conseille les vidéos à regarder. Guillaume Chaslot a travaillé de 2010 à 2013 comme programmeur chez Google (la maison mère de YouTube) sur l'algorithme de recommandation et se montre particulièrement critique à cet égard. C'est d'ailleurs pourquoi il a écrit l'an dernier son propre code afin d'analyser quelles vidéos étaient les plus recommandées sur quels thèmes. Sur son site Web AlgoTransparency, il montre un exemple datant du 2 mai (l'aperçu le plus récent au moment d'écrire ces lignes) et présentant en n° 9 sous l'intitulé 'science' une vidéo intitulée 'Voici les 13 races les plus étranges vivant sur Terre'. Mais il y a également des vidéos bien plus sérieuses (comme un direct de la Station spatiale internationale) recommandées sur ce même thème. En l'occurrence, Chaslot tente de montrer que l'algorithme de YouTube ne propose pas seulement des associations étranges, mais qu'il devrait y avoir davantage de transparence dans le mode de fonctionnement de l'algorithme afin que les utilisateurs comprennent mieux comment l'information est sélectionnée avant de leur être présentée. En effet, cette sélection repose en grande partie sur ce qui est beaucoup regardé et commenté. YouTube estime en effet que ce que beaucoup de personnes regardent sera également intéressant pour vous. Et il continue à recommander ces vidéos afin que vous restiez le plus longtemps possible rivé sur votre écran. Si YouTube est citée ici à titre d'exemple, d'autres entreprises technologiques modernes adoptent exactement les mêmes méthodes. Ainsi, Netflix démarre automatiquement un nouvel épisode, le fil d'actualité de Facebook n'a pas de fin et est toujours alimenté (idem pour Instagram), tandis que Snapchat propose pour sa part des 'streaks' qui font à chaque fois revenir l'utilisateur. Il s'agit là d'autant d'exemples de la manière dont les entreprises technologiques conçoivent leur produit afin que nous, utilisateurs, y consacrions un maximum de temps. Tristan Harris, ancien concepteur éthique chez Google, évoquait dans son célèbre essai de 2016 " l'économie de l'attention. " " Le modèle de revenus de Facebook, Google et YouTube consiste à vendre des annonces, explique Aza Raskin, ex-responsable User Experience chez Mozilla et fils de Jeff Raskin, inspirateur du projet Macintosh chez Apple. Et nous sommes le produit. " Plus l'utilisateur passe de temps sur la plate-forme, plus il se voit présenter des publicités. Raskin est, en collaboration avec Tristan Harris et Roger McNamee, ancien investisseur et ex-mentor de Marc Zuckerberg, cofondateur du Centre for Humane Technology. Aux dires de Raskin, ce centre a pour but " d'aligner les intérêts de la technologie sur ceux de l'humanité. " En pratique, Raskin compare les entreprises technologiques aux cigarettiers. " Les médias sociaux sont aussi addictifs que la nicotine, mais s'appuient sur l'intelligence artificielle (IA). Plus nous les utilisons, plus il est facile de nous asservir. " Les algorithmes de Facebook et YouTube savent très précisément sur quelles vidéos vous cliquez ou pas, ce qui induit ou non une réaction de 'j'aime' ainsi qu'à quels moments de la journée vous les visualisez et sur quel appareil. Toutes ces informations sont stockées et traitées afin de vous aiguiller par la suite. " Facebook peut désactiver cette fonction, tandis que Google et YouTube peuvent arrêter leurs recommandations. Mais ils ne le font pas parce qu'ils ont une responsabilité financière vis-à-vis de leurs actionnaires. " C'est ce que Raskin signifie en parlant d'un manque d'alignement des intérêts du secteur technologique sur ceux de l'humanité. Un point de vue que confirme BJ Fogg, chercheur à la Stanford University, qui estime que les entreprises technologiques conçoivent leurs produits pour stimuler certains types de comportement. " Mais dans le même temps, une entreprise technologique n'est pas en mesure de vous faire faire quelque chose que vous ne voulez pas. " Fogg s'est spécialisé dans le comportement humain : comment concevoir un produit et le rôle de la technologie dans ce contexte. Il a mis au point une formule simple pour prévoir le comportement humain : B = MAP. Soit Behavior (comportement) : Motivation (Motivation) + Ability (Capacité) + Prompt (Invite). Les entreprises technologiques peuvent développer des plates-formes et produits susceptibles de vous inciter à afficher un certain comportement et à vous pousser à faire telle chose à l'aide d'invites, mais il faut toujours une motivation pour présenter tel ou tel comportement. La question est de savoir si la Silicon Valley abuse de cette motivation à rester en ligne est, selon Fogg, trop globale. " Pour vous et moi, Facebook est fantastique pour rester en contact avec la famille ou les amis qui habitent loin. Mais pour un adolescent qui utilise Snapchat et est sur son smartphone durant tout le repas du soir, c'est moins formidable. " Mais alors que Tristan Harris (un ancien étudiant de Fogg) et Aza Raskin sont partisans d'un changement du système économique, Fogg évoque plutôt l' agency, l'auto-contrôle. " Il est impossible de changer l'économie qui sous-tend les médias sociaux, mais les parents des enfants qui sont sur Snapchat peuvent leur interdire d'utiliser leur téléphone à table. " Dans ce contexte, Fogg estime que les entreprises technologiques pourraient prendre certaines mesures. " Il devrait être beaucoup plus facile pour l'utilisateur de définir quand il veut recevoir certaines invites. Activer ou désactiver les notifications d'applis ou de personnes à certains moments, certaines oui et d'autres pas, par exemple. Aujourd'hui, c'est très compliqué, sans doute parce qu'il n'en va pas de leur intérêt. " Entre-temps, Google a annoncé son intention d'ajouter ce type d'options dans sa nouvelle version d'Android dont le lancement est prévu plus tard dans l'année. Sur l'écran d'accueil d'Android, l'utilisateur pourra demain savoir le temps qu'il consacre aux différentes applis et se fixer des limites. Et lorsque cette limite sera dépassée, l'appli s'affichera en grisé. Aujourd'hui déjà, les utilisateurs d'Android peuvent télécharger l'appli Siempo qui s'inscrit dans le respect des principes de Fogg concernant la diminution du nombre d'invites. Il s'agit d'une sorte de couche qui s'installe au-dessus du système d'exploitation et qui vous permet d'indiquer quelles applis vous souhaitez utiliser moins souvent. Celles-ci sont ensuite mises dans un écran situé à 2 mouvements de glissement de l'écran d'accueil. Et chaque fois que vous arrivez sur cet écran, les icones sont classées dans un ordre aléatoire. " Ce qui évite de construire une 'muscle memory' pour retrouver directement certaines applis ", explique Andrew Dunn, cofondateur et CEO. Dans Siempo, toutes les applis sont en gris avec peu de contraste et des caractères neutres afin de paraître moins attractives. De plus, il est possible de regrouper les notifications par périodes, par exemple de 15 minutes chacune, soit par heure ou une fois par jour à un moment déterminé. Et lorsque vous prenez votre téléphone, Siempo vous présente un message d'accueil (que l'utilisateur peut définir lui-même). " Ce faisant, on évite ce que Tristan Harris appelle les 'leaky interactions'. Que l'on puisse rechercher une chanson sur Spotify puis que l'on passe ensuite une demi-heure sur Instagram ", explique Dunn. Evoquant la nouvelle version d'Android annoncée par Google, Dunn se montre confiant. " Nous apprécions les projets de Google dans la mesure où ils renforcent le sentiment de bien-être numérique, mais il y a peu de rapport avec ce que nous proposons. Ainsi, Google n'aborde pas le design de l'écran d'accueil, ce qui constitue à nos yeux le noeud du problème. " Où en seront les médias sociaux d'ici 5 ans ? Une question d'autant plus récurrente depuis le récent scandale de Cambridge Analytica. Raskin explique en quoi l'avenir d'une entreprise comme Facebook pourrait être brillant. " Dans un monde idéal, Facebook devrait se poser cette question : quelles petites avances pourraient-elles permettre de résoudre directement nos problèmes ? Qui doit parler avec qui, qui doit être présenté à qui pour résoudre par exemple la question du changement climatique ? Il est certain qu'il serait possible de réaliser de grandes choses si Facebook raisonnait de cette manière. " Et si Raskin craint que d'ici 5 ans, les médias sociaux soient en moins bonne situation qu'aujourd'hui, il n'en est pas moins optimiste. " Une analogie que nous utilisons souvent au Center for Humane Technology est celle du royaume de Grande-Bretagne qui voulait supprimer l'esclavage. Il en aurait coûté 2 % du PIB par an durant 60 ans. En outre, cela aurait procuré à l'économie française un avantage sur son homologue britannique, ce qui n'enthousiasmait pas les Britanniques. La situation semblait complètement paralysée. Et pourtant, l'esclavage a été supprimé. " Certes, les médias sociaux ne sont pas de l'esclavage, mais Raskin précise : " La manière dont nous valorisons nos entreprises et dont celles-ci gagnent de l'argent induit une économie de l'attention ultra-capitaliste. Il semble pratiquement impossible d'y échapper. Et pourtant, nous avons connu par le passé des moments où nous y sommes parvenus.