Gianni Cooreman

Pourquoi la gouvernance des données renforce la confiance dans l’IA agentique

Gianni Cooreman Director Solution Engineering chez Salesforce Benelux

L’adoption de l’IA s’accélère, raison pour laquelle les cybermenaces deviennent chaque jour plus complexes. Les responsables de la sécurité IT savent qu’ils doivent désormais revoir leur stratégie de fond en comble. Autant dire que ceux qui cherchent à déployer l’IA à grande échelle sont confrontés à des défis de taille.

Même si 66 % des organisations s’attendent à ce que l’IA ait un impact significatif sur la cybersécurité, seules 37 % d’entre elles disposent de processus pour évaluer la sécurité des outils d’IA avant de les déployer. C’est ce que révèlent les statistiques du Forum économique mondial. Cela illustre le paradoxe auquel font face les entreprises : comment déployer l’IA rapidement tout en maintenant des garde-fous solides ?

Parallèlement, le paysage de la sécurité ne cesse d’évoluer. Une des principales préoccupations des responsables de la sécurité est l’empoisonnement des données – une pratique permettant à des acteurs malveillants de manipuler les données d’entraînement.

Les agents d’IA autonomes promettent d’optimiser considérablement les performances des équipes, y compris dans le domaine de la cybersécurité. Au-delà de l’amélioration de la détection des menaces, ces agents raccourcissent les délais d’intervention et permettent aux équipes de se concentrer sur des problèmes plus complexes. Cependant, sans une gouvernance adaptée à l’architecture des données, les agents d’IA verront leurs capacités de protection et de conformité sérieusement compromises.

Pour utiliser les agents d’IA en toute confiance, les entreprises doivent adopter une démarche globale, qui combine une gestion rigoureuse des données, l’implémentation de mécanismes de contrôle et le maintien d’une visibilité permanente sur l’ensemble du processus IA.

Élaborer un cadre de gouvernance des données adapté aux enjeux actuels

Dans la plupart des grandes organisations, les données sont dispersées dans différents systèmes et silos. Il s’agit aussi bien de données structurées dans des bases de données que de contenus non structurés comme des vidéos, de l’audio et des textes provenant de sources multiples.

Les politiques de gouvernance classiques sont souvent axées sur des plateformes spécifiques et ne suffisent pas à assurer l’accès continu et unifié dont les agents d’IA ont besoin. Cette fragmentation nuit à l’évolutivité, cause des incohérences, complique la conformité et accroît les risques de sécurité. Gartner constate que 60 % des projets d’IA échouent en l’absence d’une base de données solide.

L’IA agentique nous oblige à repenser fondamentalement la gouvernance des données. Il ne faut toutefois pas consolider toutes les données en un seul endroit, car cela se révèle souvent inefficace. Il convient plutôt de créer un framework qui optimise la circulation des données et donne une vision cohérente des données et de leur contexte, quelle que soit leur localisation physique. Cette démarche est cruciale si nous voulons instaurer la confiance dans les données.

Comment mettre en œuvre cette fluidité des données dans la pratique ? Elle passe par différentes actions stratégiques :

  • Une politique cohérente avec des classifications et des taxonomies partagées dans un paysage de données diversifié.
  • L’étiquetage automatisé et la classification des données sont essentiels pour s’assurer que ces politiques s’appliquent à toutes les sources.
  • Des points d’accès (API) sécurisés. Étant donné que les agents d’IA utilisent souvent des API pour communiquer avec les systèmes et récupérer des données, il est important d’étendre les contrôles de gouvernance et de sécurité à ces connexions API.
  • Des connexions sécurisées pour les données derrière des pare-feu et la mise en œuvre d’options flexibles pour le cryptage sont également des mesures de sécurité précieuses.

Mettre en place des garde-fous pour assurer la sécurité et la sûreté

Outre une structure de gouvernance, des garde-fous de sécurité et de sûreté robustes sont tout aussi essentiels. Les entreprises doivent créer des environnements sécurisés pour développer et tester des agents d’IA. L’utilisation de bacs à sable permet aux équipes de concevoir des agents de manière isolée et de valider leur comportement sur base de données réalistes. Spécifier des instructions et des limitations permet d’orienter les processus de traitement et les mécanismes décisionnels pendant les tests. En vérifiant si l’agent respecte les instructions, nous pouvons suivre son comportement et nous assurer qu’il prend des actions appropriées.

Une fois les agents déployés, il est crucial d’assurer une sécurité intégrée et une surveillance continue. Ces garde-fous garantissent que les agents fonctionnent dans les limites définies. Ils empêchent l’exécution d’actions non intentionnelles et signalent les comportements nuisibles. Le suivi du comportement des agents combiné aux capacités d’observation de la couche de gouvernance facilite le dépannage lorsque les règles et taxonomies génèrent des anomalies.

Garder l’humain au cœur du processus

L’optimisation du travail numérique passe nécessairement par la collaboration entre humains et agents. Les agents doivent pouvoir escalader de manière transparente leurs interventions vers des experts humains dans des situations complexes. Cette stratégie hybride s’impose comme un pilier pour les entreprises souhaitant exploiter l’IA agentique de manière sécurisée. Cette complémentarité devrait demeurer incontournable pour l’ensemble des cas d’usage dans un avenir proche.

Mais en fin de compte, les agents d’IA sont aussi dignes de confiance que les données sur lesquelles ils se basent. Pour instaurer cette confiance, les entreprises doivent fournir un accès unifié aux données dans l’ensemble de l’organisation. Des outils de développement puissants doublés d’une sécurité et d’une gouvernance intégrées sont nécessaires à cette fin.

L’aptitude à développer des agents d’IA conjuguant fiabilité et responsabilité, tout en apportant une valeur commerciale tangible et en améliorant l’expérience utilisateur, constituera le facteur décisif de réussite à l’ère de l’IA agentique.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire