Les managers ont du mal à assumer leurs responsabilités lors de l’introduction de l’IA dans leur entreprise

© Getty Images/iStockphoto
Kristof Van der Stadt
Kristof Van der Stadt Rédacteur en chef chez Data News

Plus de 80 pour cent des dirigeants reconnaissent que leur leadership et leur politique ne suivent pas le rythme des derniers développements en matière d’IA. Voilà ce qui ressort d’une étude réalisée par NTT DATA.

Tout d’abord, la bonne nouvelle: les entreprises travaillent vraiment d’arrache-pied pour mettre en œuvre l’IA en leur sein. Et maintenant les mauvaises! Ce progrès est cependant menacé par un vide en termes de responsabilité. Plus de 80 pour cent des managers reconnaissent en effet que le leadership, la politique et la volonté des employés de sauter dans ce train ne correspondent pas aux derniers développements de l’IA. Résultat? Les investissements, la sécurité et la confiance du public sont menacés. C’est du moins ce que démontre une étude du fournisseur de services informatiques NTT DATA.

Qui est responsable ou devrait l’être?

Le rapport, appelé The AI Responsibility Gap: Why Leadership is the Missing Link, s’appuie sur les opinions de plus de 2.300 cadres supérieurs et décideurs dans 34 pays, dont la Belgique. L’enquête remonte à septembre de l’année dernière. Selon le CEO de NTT DATA, ce qui est clair, c’est que l’innovation sans responsabilité est un facteur de risque. ‘Les organisations ont besoin d’un leadership fort et d’une stratégie d’AI-governance solide, avant que les progrès ne stagnent et que la confiance disparaisse’, conclut Abhijit Dubey.

Il semble y avoir beaucoup de divergences au sein de la direction. Un tiers des managers estime que la responsabilité est plus importante que l’innovation, tandis qu’un autre tiers considère l’innovation plus importante que la sécurité. Quid du tiers restant? Il considère que les deux sont tout aussi importants. L’incertitude entourant la réglementation de l’IA apparaît également comme un obstacle à la poursuite de la croissance.

Le personnel n’est pas prêt

67 pour cent des managers interrogés déclarent en outre que leurs employés n’ont pas les compétences nécessaires pour travailler efficacement avec l’IA. En d’autres termes, le personnel n’est pas du tout prêt à adopter l’IA dans l’organisation. De plus, 72 pour cent des dirigeants reconnaissent qu’ils n’ont pas de réelle politique pour guider l’utilisation responsable de l’IA. Et 75 pour cent pensent également que les ambitions de leur organisation en matière d’IA s’opposent à ses objectifs de durabilité.

Le rapport se termine par un certain nombre de recommandations concrètes, telles que l’introduction de principes ‘responsible by design’ pour développer l’IA de manière responsable, et l’obligation pour les gestionnaires de se conformer aux normes éthiques et sociales de l’IA. Et bien sûr aussi: veiller à ce que les employés soient formés pour travailler avec l’IA. ‘Les entreprises doivent prendre des mesures maintenant. Ce n’est qu’en ancrant la responsabilité dans la base de l’IA que nous pourrons exploiter tout le potentiel de celle-ci’, conclut Dubey.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire