Suite à la mort de l'Américain noir George Floyd et d'autres événements tragiques, ainsi qu'à la manifestation croissante du racisme structurel et des inégalités, une série d'événements se déroulent actuellement dans le monde. Deux aspects importants doivent nous faire réfléchir, à savoir comment la technologie influence la société et qui participe à son développement. En outre, il existe beaucoup de communautés qui restent à l'écart du progrès technologique et qui peuvent même en subir des dommages.

Les ingénieurs et chercheurs IT doivent souvent effectuer des choix moraux. La technologie et l'éthique ne sont pas des domaines séparés, comme le déclare aussi la professeure en éthique IT Katleen Gabriels de l'université de Maastricht. La technologie n'est pas neutre, et cela vaut aussi pour les robots et l'AI.

Un exemple connu nous est fourni par Werner Von Braun, un soi-disant séparatiste chargé du développement de la technologie des fusées dans l'Allemagne nazie. Von Braun ne tint absolument pas compte des implications éthiques et sociales de son travail. Il fit parfois consciemment des choix de concepts non-éthiques. Par ailleurs, les ponts que Robert Moses conçut à New York, étaient par exemple construits à faible hauteur, dit-on, parce que le designer ne voulait pas que passent en-dessous des autobus emmenant des Afro-Américains et des Latinos de New York City à Jones Beach ou à d'autres parcs situés à Long Island.

D'autres exemples de dimensions morales dans la technologie sont parfois le fait du hasard, mais ont encore et toujours un effet terrible sur la diversité et l'inclusion. Tel est le cas des distributeurs de savon qui ne fonctionnent pas pour les personnes de couleur, mais qu'on peut 'tromper' en tenant en dessous une serviette blanche. Les concepteurs n'avaient-ils pas prévu de tester la technologie avec un large groupe d'utilisateurs? Cela n'est pas seulement une erreur technique, mais aussi une faute éthique, qui peut être évitée avec une équipe diversifiée de concepteurs et d'évaluateurs.

Comment changer?

Avant tout, il faut tenir compte de l'éthique dans le travail. D'importantes firmes technologiques ont à présent publiquement pris leurs distances des outils de reconnaissance faciale utilisés par la police, parce qu'il est apparu que ces outils identifient erronément plus souvent les gens de couleur, surtout les femmes. Certains réclament des lois, d'autres veulent actionner le bouton pause jusqu'à ce que les préjugés raciaux et d'autres inégalités soient supprimés du code, alors qu'autres encore souhaitent même l'interdire totalement.

Autre besoin: la suppression de termes tels maître et esclave (master/slave) de notre code, documentation et littérature. Il faut veiller à éviter de les utiliser étant donné leur nature détonante et l'absence de nécessité de recourir à ces mots. Une terminologie alternative, proposée par Github, est par exemple primaire/réplique, alors que d'autres optent pour leader/suiveur. Twitter a aussi annoncé le changement de termes comme blacklist, grandfathered et man-hours.

Le réflexe éthique doit devenir une composante évidente et intégrale de la conception et de la programmation

Beaucoup de chercheurs identifient les aspects sociaux, en ce compris l'attribution intentionnelle ou involontaire de la race et du genre. Nombre de robots, aussi dans les films, sont blancs par exemple. L'histoire de l'esclavage et les associations historiques entre robots et esclaves signifient que la 'racialisation' des robots représente un défi éthique. En dehors des étudiants en médecine, il y a actuellement trop peu d'attention accordée à l'éthique en tant que matière obligatoire. La demande sociale est pourtant grande. La prise de conscience et la connaissance de l'éthique (technique) doivent systématiquement trouver leur place dans l'enseignement. Les ingénieurs, chercheurs IT et autres futurs développeurs pourront ainsi maîtriser progressivement les questions éthiques et apprendre les techniques en vue de répondre aux questions qui se posent. Ce faisant, le réflexe éthique deviendra une composante évidente et intégrale de la conception et de la programmation.

Ensuite, il nous faut améliorer la diversité et l'inclusion dans notre discipline. Cela signifie que les personnes faisant partie de groupes sous-représentés doivent être activement encouragés à collaborer à la robotique et à l'AI - des jeunes enfants jusqu'aux étudiants (doctorants) qui envisagent une carrière dans l'industrie et la recherche. Nous devons créer dans nos écoles, nos laboratoires de recherche, nos entreprises et nos événements des environnements qui soient accueillants et pas intimidants.

Certains efforts, comme l'accès aux doctorats, sont institutionnels par nature et exigent des leaders particulièrement sûrs d'eux et passionnés pour introduire ces changements. D'autres efforts sont plus personnels: on entend régulièrement des histoires sur la façon dont des mentors individuels encouragent différemment une personne issue d'un groupe sous-représenté. Ce faisant, nous pouvons tous jouer un rôle, afin de rendre notre discipline attrayante pour une population diversifiée.

De plus, nous devons aussi être conscients que les groupes minoritaires ont parfois besoin d'espaces sécurisés, à savoir des endroits virtuels ou physiques et des événements en vue de se réunir avec des collègues du support. Pensons ici à Belgian Woman in Science ou à des organisations telles Black in AI, qui abordent les défis spécifiques que doivent relever les personnes noires. Il nous faut donc créer des opportunités pour améliorer la diversité. Et nous devons le faire pas uniquement, parce que c'est juste, mais aussi parce que cela améliorera notre technologie pour la société dans laquelle nous vivons.

Une version adaptée de cette opinion est parue dans l'IEEE Robotics & Automation Magazine et a été coécrite par la professeure en robotique Allison Okamura de la Stanford University. Les auteurs y soutiennent les protestations et y condamnent toute forme de violence, de profilage éthique et de racisme.

Suite à la mort de l'Américain noir George Floyd et d'autres événements tragiques, ainsi qu'à la manifestation croissante du racisme structurel et des inégalités, une série d'événements se déroulent actuellement dans le monde. Deux aspects importants doivent nous faire réfléchir, à savoir comment la technologie influence la société et qui participe à son développement. En outre, il existe beaucoup de communautés qui restent à l'écart du progrès technologique et qui peuvent même en subir des dommages.Les ingénieurs et chercheurs IT doivent souvent effectuer des choix moraux. La technologie et l'éthique ne sont pas des domaines séparés, comme le déclare aussi la professeure en éthique IT Katleen Gabriels de l'université de Maastricht. La technologie n'est pas neutre, et cela vaut aussi pour les robots et l'AI.Un exemple connu nous est fourni par Werner Von Braun, un soi-disant séparatiste chargé du développement de la technologie des fusées dans l'Allemagne nazie. Von Braun ne tint absolument pas compte des implications éthiques et sociales de son travail. Il fit parfois consciemment des choix de concepts non-éthiques. Par ailleurs, les ponts que Robert Moses conçut à New York, étaient par exemple construits à faible hauteur, dit-on, parce que le designer ne voulait pas que passent en-dessous des autobus emmenant des Afro-Américains et des Latinos de New York City à Jones Beach ou à d'autres parcs situés à Long Island.D'autres exemples de dimensions morales dans la technologie sont parfois le fait du hasard, mais ont encore et toujours un effet terrible sur la diversité et l'inclusion. Tel est le cas des distributeurs de savon qui ne fonctionnent pas pour les personnes de couleur, mais qu'on peut 'tromper' en tenant en dessous une serviette blanche. Les concepteurs n'avaient-ils pas prévu de tester la technologie avec un large groupe d'utilisateurs? Cela n'est pas seulement une erreur technique, mais aussi une faute éthique, qui peut être évitée avec une équipe diversifiée de concepteurs et d'évaluateurs.Avant tout, il faut tenir compte de l'éthique dans le travail. D'importantes firmes technologiques ont à présent publiquement pris leurs distances des outils de reconnaissance faciale utilisés par la police, parce qu'il est apparu que ces outils identifient erronément plus souvent les gens de couleur, surtout les femmes. Certains réclament des lois, d'autres veulent actionner le bouton pause jusqu'à ce que les préjugés raciaux et d'autres inégalités soient supprimés du code, alors qu'autres encore souhaitent même l'interdire totalement.Autre besoin: la suppression de termes tels maître et esclave (master/slave) de notre code, documentation et littérature. Il faut veiller à éviter de les utiliser étant donné leur nature détonante et l'absence de nécessité de recourir à ces mots. Une terminologie alternative, proposée par Github, est par exemple primaire/réplique, alors que d'autres optent pour leader/suiveur. Twitter a aussi annoncé le changement de termes comme blacklist, grandfathered et man-hours.Beaucoup de chercheurs identifient les aspects sociaux, en ce compris l'attribution intentionnelle ou involontaire de la race et du genre. Nombre de robots, aussi dans les films, sont blancs par exemple. L'histoire de l'esclavage et les associations historiques entre robots et esclaves signifient que la 'racialisation' des robots représente un défi éthique. En dehors des étudiants en médecine, il y a actuellement trop peu d'attention accordée à l'éthique en tant que matière obligatoire. La demande sociale est pourtant grande. La prise de conscience et la connaissance de l'éthique (technique) doivent systématiquement trouver leur place dans l'enseignement. Les ingénieurs, chercheurs IT et autres futurs développeurs pourront ainsi maîtriser progressivement les questions éthiques et apprendre les techniques en vue de répondre aux questions qui se posent. Ce faisant, le réflexe éthique deviendra une composante évidente et intégrale de la conception et de la programmation.Ensuite, il nous faut améliorer la diversité et l'inclusion dans notre discipline. Cela signifie que les personnes faisant partie de groupes sous-représentés doivent être activement encouragés à collaborer à la robotique et à l'AI - des jeunes enfants jusqu'aux étudiants (doctorants) qui envisagent une carrière dans l'industrie et la recherche. Nous devons créer dans nos écoles, nos laboratoires de recherche, nos entreprises et nos événements des environnements qui soient accueillants et pas intimidants.Certains efforts, comme l'accès aux doctorats, sont institutionnels par nature et exigent des leaders particulièrement sûrs d'eux et passionnés pour introduire ces changements. D'autres efforts sont plus personnels: on entend régulièrement des histoires sur la façon dont des mentors individuels encouragent différemment une personne issue d'un groupe sous-représenté. Ce faisant, nous pouvons tous jouer un rôle, afin de rendre notre discipline attrayante pour une population diversifiée.De plus, nous devons aussi être conscients que les groupes minoritaires ont parfois besoin d'espaces sécurisés, à savoir des endroits virtuels ou physiques et des événements en vue de se réunir avec des collègues du support. Pensons ici à Belgian Woman in Science ou à des organisations telles Black in AI, qui abordent les défis spécifiques que doivent relever les personnes noires. Il nous faut donc créer des opportunités pour améliorer la diversité. Et nous devons le faire pas uniquement, parce que c'est juste, mais aussi parce que cela améliorera notre technologie pour la société dans laquelle nous vivons.