Voilà ce que révèle l'agence de presse Reuters sur base d'interviews de chercheurs. Google aurait introduit une nouvelle procédure d'analyse de thèmes sensibles. On peut y lire notamment que les chercheurs doivent consulter le département légal, mais aussi l'équipe PR, avant d'aborder des thèmes tels l'analyse faciale, l'analyse des émotions ou l'intelligence artificielle (AI) en matière de race, de genre ou de préférence politique. Il s'agirait là d'une nouvelle procédure introduite en juillet de cette année.

La procédure vient s'ajouter à des contrôles existants passant en revue les rapports pour y déceler par exemple la présence de secrets industriels, avant qu'ils ne soient publiés. Reuters évoque entre autres un rapport recommandant un certain contenu, dans lequel un manager incita ses auteurs, peu avant sa publication, d'employer surtout un ton positif, lorsqu'il est question de technologie, "certes sans dissimuler pour autant les défis posés". Le site de YouTube, une filiale de Google, utilise ce genre d'AI de recommandation à propos des nouvelles vidéos

Censure

Les recherches effectuées par des scientifiques en entreprise ne sont évidemment jamais complètement neutres. On sait par expérience qu'un fabricant de cigarettes ne publiera aucun rapport, où il apparaît que son produit peut provoquer le cancer. De son côté, Google a pendant longtemps défendu haut et fort l'image qu'elle constituait un bon environnement pour les scientifiques et les chercheurs. Sur son site web, l'entreprise signale que les scientifiques y bénéficient d'une 'liberté intrinsèque' dans le cadre de leurs recherches. Mais ces derniers mois, cette liberté s'est donc nettement réduite. "Si nous effectuons une recherche sur ce que nous considérons comme un sujet intéressant dans le cadre de notre expertise et si nous ne pouvons pas publier notre rapport d'une manière qui sied à une évaluation par les pairs de haute qualité, nous sommes alors proches de la censure", déclare Margaret Michell, senior scientist chez Google, à Reuters.

Sont surtout sensibles des sujets tels la race, le genre et la manière dont l'AI les traite. Il y a - à juste titre - débat sur l'impact de l'intelligence artificielle sur le maintien, voire le renforcement de problèmes sociaux existants. Pensez par exemple au HR-bot radié d'Amazon qui ne voulait pas engager des femmes, parce que dans le passé, Amazon ne recrutait tout simplement que peu de femmes.

Poser des questions sur le volet éthique de l'AI, c'est cependant aboutir souvent dans le sillage des intérêts commerciaux d'une entreprise qui veut avant tout vendre beaucoup d'AI. Le fait que Google ne souhaite pas que ces questions soient posées publiquement, nous l'avons encore vu au début de ce mois avec le licenciement de Timnit Gebru, une chercheuse AI qui avait été recrutée pour son expertise en éthique dans l'AI. Elle fut remerciée en raison de la publication d'un rapport sur l'éthique dans l'AI, spécifiquement en raison de l'utilisation de certains modèles linguistiques. Google avait demandé de ne pas publier ce rapport, mais Gebru ne l'accepta pas et en débattit avec son employeur, ce qui provoqua son licenciement. Selon Jeff Dean, en charge du département AI, le rapport approfondissait trop certains problèmes pour lesquels l'entreprise prépare des solutions. En d'autres mots, il y manquait 'un ton positif'.

Google est l'une des plus importantes institutions de recherche au monde dans le domaine de l'intelligence artificielle. L'année dernière, l'entreprise a publié plus de deux cents rapports traitant du développement d'une AI réfléchie, mais l'objectivité de cette recherche est à présent remise tout spécialement en question. Google et Alphabet sont ces derniers temps devenues particulièrement circonspectes, afin de ne pas perturber les intérêts tant politiques que commerciaux. Parmi les 'sujets sensibles' qui font l'objet d'un contrôle approfondi à présent, on trouve notamment l'industrie pétrolière, la Chine, l'Iran, Israël, le covid-19, les données de localisation et la personnalisation du contenu web.

Voilà ce que révèle l'agence de presse Reuters sur base d'interviews de chercheurs. Google aurait introduit une nouvelle procédure d'analyse de thèmes sensibles. On peut y lire notamment que les chercheurs doivent consulter le département légal, mais aussi l'équipe PR, avant d'aborder des thèmes tels l'analyse faciale, l'analyse des émotions ou l'intelligence artificielle (AI) en matière de race, de genre ou de préférence politique. Il s'agirait là d'une nouvelle procédure introduite en juillet de cette année.La procédure vient s'ajouter à des contrôles existants passant en revue les rapports pour y déceler par exemple la présence de secrets industriels, avant qu'ils ne soient publiés. Reuters évoque entre autres un rapport recommandant un certain contenu, dans lequel un manager incita ses auteurs, peu avant sa publication, d'employer surtout un ton positif, lorsqu'il est question de technologie, "certes sans dissimuler pour autant les défis posés". Le site de YouTube, une filiale de Google, utilise ce genre d'AI de recommandation à propos des nouvelles vidéosLes recherches effectuées par des scientifiques en entreprise ne sont évidemment jamais complètement neutres. On sait par expérience qu'un fabricant de cigarettes ne publiera aucun rapport, où il apparaît que son produit peut provoquer le cancer. De son côté, Google a pendant longtemps défendu haut et fort l'image qu'elle constituait un bon environnement pour les scientifiques et les chercheurs. Sur son site web, l'entreprise signale que les scientifiques y bénéficient d'une 'liberté intrinsèque' dans le cadre de leurs recherches. Mais ces derniers mois, cette liberté s'est donc nettement réduite. "Si nous effectuons une recherche sur ce que nous considérons comme un sujet intéressant dans le cadre de notre expertise et si nous ne pouvons pas publier notre rapport d'une manière qui sied à une évaluation par les pairs de haute qualité, nous sommes alors proches de la censure", déclare Margaret Michell, senior scientist chez Google, à Reuters.Sont surtout sensibles des sujets tels la race, le genre et la manière dont l'AI les traite. Il y a - à juste titre - débat sur l'impact de l'intelligence artificielle sur le maintien, voire le renforcement de problèmes sociaux existants. Pensez par exemple au HR-bot radié d'Amazon qui ne voulait pas engager des femmes, parce que dans le passé, Amazon ne recrutait tout simplement que peu de femmes.Poser des questions sur le volet éthique de l'AI, c'est cependant aboutir souvent dans le sillage des intérêts commerciaux d'une entreprise qui veut avant tout vendre beaucoup d'AI. Le fait que Google ne souhaite pas que ces questions soient posées publiquement, nous l'avons encore vu au début de ce mois avec le licenciement de Timnit Gebru, une chercheuse AI qui avait été recrutée pour son expertise en éthique dans l'AI. Elle fut remerciée en raison de la publication d'un rapport sur l'éthique dans l'AI, spécifiquement en raison de l'utilisation de certains modèles linguistiques. Google avait demandé de ne pas publier ce rapport, mais Gebru ne l'accepta pas et en débattit avec son employeur, ce qui provoqua son licenciement. Selon Jeff Dean, en charge du département AI, le rapport approfondissait trop certains problèmes pour lesquels l'entreprise prépare des solutions. En d'autres mots, il y manquait 'un ton positif'.Google est l'une des plus importantes institutions de recherche au monde dans le domaine de l'intelligence artificielle. L'année dernière, l'entreprise a publié plus de deux cents rapports traitant du développement d'une AI réfléchie, mais l'objectivité de cette recherche est à présent remise tout spécialement en question. Google et Alphabet sont ces derniers temps devenues particulièrement circonspectes, afin de ne pas perturber les intérêts tant politiques que commerciaux. Parmi les 'sujets sensibles' qui font l'objet d'un contrôle approfondi à présent, on trouve notamment l'industrie pétrolière, la Chine, l'Iran, Israël, le covid-19, les données de localisation et la personnalisation du contenu web.