Check Point Infinity AI Copilot: voulons-nous d’un AI chatbot pour assurer notre sécurité?

© Getty Images/iStockphoto
Els Bellens

Après que des sociétés de marketing et des éditeurs de logiciels d’exploitation ont lancé des chatbots pour aider les utilisateurs à naviguer dans leurs programmes, la firme de sécurité Check Point lance un copilote pour sa plate-forme de sécurité. Mais comment s’assurer que l’IA elle-même ne devienne pas un point faible?

Check Point Software Technologies a promis lors de sa récente conférence des partenaires à Vienne qu’elle sécuriserait encore mieux ses clients. Les nouveautés dans la gamme comprenaient entre autres des pare-feu améliorés, une plate-forme cloud étendue et, ce qui ne manque pas d’étonner, un copilote d’IA.

Cette IA, essentiellement un chatbot basé sur le modèle conversationnel de ChatGPT, devrait devenir un ‘puissant coéquipier de sécurité’, selon le CEO Gil Shwed, et fonctionner directement dans les différentes API de la plate-forme Infinity de Check Point. L’outil devrait permettre aux employés d’organiser la sécurité plus facilement et plus rapidement. Mais en sachant que les modèles d’IA eux-mêmes peuvent comporter des erreurs et des fuites, le voulons-nous vraiment?

Efficience

L’idée derrière le copilote d’IA tient en un mot: efficience. Le chatbot doit faciliter la vie de l’équipe de sécurité. ‘L’intention est d’augmenter la capacité et ainsi de réagir plus rapidement et plus efficacement aux incidents’, a déclaré Shwed. Et de citer l’exemple de certaines tâches administratives, comme donner à un employé l’accès à un serveur. Au lieu de parcourir manuellement toutes les petites lignes, il pourrait désormais le demander au chatbot, qui suggèrerait immédiatement d’ajouter cet employé aux processus nécessaires.

‘L’IA multiplie vos forces’, explique Dorit Dor, CTO de Check Point, à propos de la nécessité d’utiliser des outils tels que les chatbots. ‘Cela peut vous aider à travailler de manière très efficiente.’ Mais les inquiétudes à ce sujet sont fondées. Il peut y avoir toutes sortes de préjugés. Dor indique que les entreprises devraient donc réfléchir à propos de quelle IA utiliser. ‘Est-ce que je veux un ample modèle de langage d’un des géants technologiques, dans lequel je n’ai certes pas besoin de beaucoup programmer moi-même, mais où je suis alors tenu à des règles et à des limites? Ou est-ce que je souhaite en former un en interne, ce qui peut nécessiter beaucoup de temps et d’expertise, mais qui offre plus de liberté?’

Quand un LLM en surveille un autre

Check Point utilise déjà un ‘LLM manager’ pour son propre chatbot, selon Ofir Israel, VP Threat Prevention au sein de l’entreprise. ‘Nous choisissons le meilleur modèle pour chaque type de question’, explique-t-il. En fonction de la question posée: ‘pouvez-vous analyser cela pour moi?’, ‘pourquoi cet employé n’y a-t-il pas accès?’, ‘combien d’analyses ont été effectuées cette semaine sur ce port de l’extérieur?’, le logiciel peut donc décider s’il doit formuler une réponse via un modèle ChatGPT ou via le modèle Llama de Metas ou via autre chose encore.

‘Les LLM sont très naïfs, il n’est pas nécessaire d’être un hacker intelligent pour les tromper’

Et comme il s’agit d’un chatbot de sécurité, il est également équipé d’une protection supplémentaire, à entendre Israël. ‘Les LLM sont très naïfs, il n’est pas nécessaire d’être un hacker intelligent pour les tromper’, a-t-il déclaré lors d’un discours au CPX. ‘Il faut à peu près le niveau de tromperie que vous utilisez pour inciter un enfant à manger des brocolis. Vous inventez une histoire pour briser les barrières.’

Pour lutter contre cela, Check Point a équipé son propre chatbot d’un pare-feu IA. ‘Il doit garantir que l’IA ne fasse pas des choses qu’elle n’est pas autorisée à faire, ni ne dit des choses qu’elle n’est pas autorisée à dire.’ Le copilote ne doit pas donner de mauvais conseils et ne peut pas avoir d’hallucinations. Pour organiser cela, nous utilisons un LLM pour en surveiller un autre’, affirme Israël.

Une nouvelle interface

Pour être utile et sûr, le copilote ressemble actuellement principalement à une interface utilisateur intuitive, une couche par-dessus le logiciel, à laquelle ont été attribuées des compétences très spécifiques. ‘Nous lui avons appris quelle raisonnement il devait suivre pour formuler des réponses à certaines questions’, explique Ofir Israel. ‘Pour répondre à la question de savoir si le réseau est protégé contre une attaque spécifique, nous avons dû expliquer au chatbot quelles commandes il devait exécuter et dans quel ordre pour arriver à la réponse. Pour répondre à une question sur les attaques les plus bloquées en une semaine, nous avons dû lui fournir de nouvelles compétences. Nous ne voulons en effet pas télécharger toutes les données de l’utilisateur. C’est pourquoi nous avons appris au chatbot à envoyer des requêtes au serveur de journaux.’

Une sorte d’IA générale qui traite elle-même tous les fichiers de sécurité, ne peut donc pas devenir copilote. Et les clients ne peuvent pas non plus immédiatement se passer des tableaux de bord. ‘L’IA générative ne deviendra jamais une nouvelle version de nos plates-formes existantes’, ajoute Dorit Dor. ‘Parce que la précision est essentielle, et c’est ce que nous recherchons pour notre plate-forme. Or celle-ci ne peut converser. C’est pourquoi nous utilisons l’IA générative comme couche supplémentaire. Cela permet à certains employés de travailler plus facilement avec celle-ci et d’enregistrer des informations.’

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire