Si vous postez une photo sur Twitter, elle est découpée sur votre ligne du temps pour être ajustée au flux du réseau social. Mais en automne dernier, plusieurs exemples de photos découpées de manière très sélective firent leur apparition. L'algorithme sous-jacent à l'outil accorderait étonnamment plus souvent la préférence aux femmes et aux personnes à la peau blanche.

Dans les mois qui suivirent, Twitter examina son outil et confirma en mai que l'algorithme accordait en effet sa préférence à ces gens. En partie à cause de cela, le découpage automatique n'est plus appliqué dans l'appli pour smartphone, mais l'ambition est bien de résoudre ce problème.

A présent et pendant une semaine, Twitter organise un 'bug bounty' en vue de déceler des bugs dans le système. Via HackerOne, vous pouvez gagner de 500 à 3.500 dollars si vous pouvez démontrer où le découpage automatique se plante. Twitter mentionne elle-même un rapport sur le sujet et a entre-temps partagé le code de l'outil sur Github.

AI bias

Initialement, il était accepté que les décisions pilotées par ordinateur soient assez objectives, mais ces dernières années, on a vu apparaître régulièrement des exemples d'AI qui manquaient d'objectivité. Cela peut notamment se passer du fait que l'ensemble de données sur lequel se base un outil n'est pas représentatif parce que ces outils sont majoritairement développés par des hommes blancs.

Mais parfois, il s'agit aussi de données qui, en première instance, semblent être indépendantes du genre ou de la couleur de la peau. C'est ainsi que des élèves britanniques avaient l'année dernière obtenu un score sur base d'un algorithme, parce qu'aucun examen n'était possible en raison du coronavirus. Par la suite, il s'avéra que l'algorithme s'était dans ce but basé sur des prestations précédentes, mais aussi sur les codes postaux d'anciens étudiants, ce qui indique que les élèves issus de certaines zones se voyaient systématiquement attribuer des scores (points) inférieurs.

Si vous postez une photo sur Twitter, elle est découpée sur votre ligne du temps pour être ajustée au flux du réseau social. Mais en automne dernier, plusieurs exemples de photos découpées de manière très sélective firent leur apparition. L'algorithme sous-jacent à l'outil accorderait étonnamment plus souvent la préférence aux femmes et aux personnes à la peau blanche.Dans les mois qui suivirent, Twitter examina son outil et confirma en mai que l'algorithme accordait en effet sa préférence à ces gens. En partie à cause de cela, le découpage automatique n'est plus appliqué dans l'appli pour smartphone, mais l'ambition est bien de résoudre ce problème.A présent et pendant une semaine, Twitter organise un 'bug bounty' en vue de déceler des bugs dans le système. Via HackerOne, vous pouvez gagner de 500 à 3.500 dollars si vous pouvez démontrer où le découpage automatique se plante. Twitter mentionne elle-même un rapport sur le sujet et a entre-temps partagé le code de l'outil sur Github.Initialement, il était accepté que les décisions pilotées par ordinateur soient assez objectives, mais ces dernières années, on a vu apparaître régulièrement des exemples d'AI qui manquaient d'objectivité. Cela peut notamment se passer du fait que l'ensemble de données sur lequel se base un outil n'est pas représentatif parce que ces outils sont majoritairement développés par des hommes blancs.Mais parfois, il s'agit aussi de données qui, en première instance, semblent être indépendantes du genre ou de la couleur de la peau. C'est ainsi que des élèves britanniques avaient l'année dernière obtenu un score sur base d'un algorithme, parce qu'aucun examen n'était possible en raison du coronavirus. Par la suite, il s'avéra que l'algorithme s'était dans ce but basé sur des prestations précédentes, mais aussi sur les codes postaux d'anciens étudiants, ce qui indique que les élèves issus de certaines zones se voyaient systématiquement attribuer des scores (points) inférieurs.