Même s'il y a une demande de plus d'éthique et de plus de formations en la matière pour les développeurs de l'intelligence artificielle, il n'y a pas grand-chose qui bouge. Voilà ce qui ressort d'une enquête effectuée par Anaconda, une plate-forme américaine d'analytique de données.

Les préjugés, qui sont (généralement par mégarde) incorporés aux algorithmes en intelligence artificielle (AI) et en apprentissage machine, peuvent avoir des effets importants, si ces programmes sont ensuite largement utilisés. La solution, qui est souvent mise en avant pour combattre ces préjugés, que ce soit avec des programmes spécifiques ou avec des formations en éthique pour mieux préparer les développeurs de la base de données et de l'AI, serait de prévoir un algorithme neutre.

Un rapport d'Anaconda montre cependant qu'il n'y a pas vraiment grand-chose qui se passe au niveau de ces formations. L'entreprise a mené son enquête auprès de 2.360 personnes dans cent pays et ce, en février et en avril de cette année.

A peine 15 pour cent des personnes interrogées indiquent que leur équipe tente de lutter de manière active contre la problématique du respect de la vie privée et des préjugés dans l'AI. Par ailleurs, seuls 15 pour cent des universités proposent un cours d'éthique dans ces domaines, selon Anaconda. C'est bien dommage, car 27 pour cent des répondants à l'enquête signalent que pour eux, l'impact social des préjugés constitue le problème majeur que l'AI et l'apprentissage machine doivent traiter. Pour 22 autres pour cent, le principal problème est l'impact sur le respect de la vie privée.

Moins de la moitié des répondants déclare pouvoir démontrer l'impact de la science des données sur l'activité. Cela est peut-être partiellement dû aux difficultés de produire des modèles de données. Des répondants ont déclaré passer quelque 45 pour cent de leur temps à mettre de l'ordre dans les données. Le chargement et le nettoyage des données prennent donc beaucoup de temps, avant même que les modèles et visualisations puissent être faits.

Même s'il y a une demande de plus d'éthique et de plus de formations en la matière pour les développeurs de l'intelligence artificielle, il n'y a pas grand-chose qui bouge. Voilà ce qui ressort d'une enquête effectuée par Anaconda, une plate-forme américaine d'analytique de données.Les préjugés, qui sont (généralement par mégarde) incorporés aux algorithmes en intelligence artificielle (AI) et en apprentissage machine, peuvent avoir des effets importants, si ces programmes sont ensuite largement utilisés. La solution, qui est souvent mise en avant pour combattre ces préjugés, que ce soit avec des programmes spécifiques ou avec des formations en éthique pour mieux préparer les développeurs de la base de données et de l'AI, serait de prévoir un algorithme neutre.Un rapport d'Anaconda montre cependant qu'il n'y a pas vraiment grand-chose qui se passe au niveau de ces formations. L'entreprise a mené son enquête auprès de 2.360 personnes dans cent pays et ce, en février et en avril de cette année.A peine 15 pour cent des personnes interrogées indiquent que leur équipe tente de lutter de manière active contre la problématique du respect de la vie privée et des préjugés dans l'AI. Par ailleurs, seuls 15 pour cent des universités proposent un cours d'éthique dans ces domaines, selon Anaconda. C'est bien dommage, car 27 pour cent des répondants à l'enquête signalent que pour eux, l'impact social des préjugés constitue le problème majeur que l'AI et l'apprentissage machine doivent traiter. Pour 22 autres pour cent, le principal problème est l'impact sur le respect de la vie privée.Moins de la moitié des répondants déclare pouvoir démontrer l'impact de la science des données sur l'activité. Cela est peut-être partiellement dû aux difficultés de produire des modèles de données. Des répondants ont déclaré passer quelque 45 pour cent de leur temps à mettre de l'ordre dans les données. Le chargement et le nettoyage des données prennent donc beaucoup de temps, avant même que les modèles et visualisations puissent être faits.