Marc Vael et Jon Brandt

Comment l’IA générative contribue à l’amélioration de la cybersécurité et de la vigilance

Marc Vael et Jon Brandt Marc Vael est CISO & certifié ISACA et Jon Brandt est Directeur des pratiques professionnelles et de l'innovation à l'ISACA

Nous vivons dans une société émerveillée par les gadgets et la promesse de “life hacks” qui facilitent la vie professionnelle et personnelle. Il en va de même lorsqu’il s’agit de l’utilisation de l’intelligence artificielle générative (IA générative). L’IA générative est un sujet récurrent depuis un certain temps et la grande majorité des gens sont impressionnés par les possibilités qu’elle offre.

Mais ce qu’ils ignorent, ce sont les risques liés à l’utilisation de l’IA générative. Les conversations sur la législation et les risques de cybersécurité entourant des outils tels que ChatGPT s’intensifient. Ce que les entreprises ne réalisent souvent pas encore, c’est que ces technologies leur offrent la possibilité de combler leurs propres lacunes en matière de cybersécurité et de sensibiliser leurs employés à la cybersécurité.

Comme pour de nombreuses innovations technologiques, l’application de l’IA comporte des risques. Des figures influentes du secteur ont déjà appelé à une pause dans le développement de l’outil. Dans un monde parfait, la pause serait accordée par tous les développeurs, mais la concurrence rend cette pause impossible. Les entreprises qui n’ont pas encore pris en compte cette menace croissante sont en train de prendre beaucoup de retard.

Lorsque l’IA reproduit des textes humains et passe inaperçue, elle crée un tout nouveau niveau de risque en matière de cybersécurité.

Marc Vael & Jon Brandt

Alors que les esprits se focalisent sur ChatGPT, il est important de reconnaître qu’il ne s’agit que de l’un des nombreux outils d’IA générative disponibles. Compte tenu des nombreuses évaluations des risques menées à intervalles réguliers dans le paysage actuel des menaces, les entreprises – petites et grandes – seraient bien inspirés de bannir les outils d’IA générative pour l’instant. Du moins en attendant des évaluations continues et approfondies des risques.

Des risques liés aux textes d’IA générative non détectés

Le développement de l’IA présente des risques. Pour la société, mais aussi pour les créateurs de l’IA. Prenons l’exemple du départ de Geoffrey Hinton chez Google. Ce départ fait suite aux avertissements selon lesquels l’IA ne dispose pas de suffisamment de garde-fous pour être utilisée en toute sécurité. La diffusion de fake news augmente considérablement avec la démocratisation des outils d’IA et constitue une source d’inquiétude.

L’outil AI Text Classifier peut aider à détecter les textes d’IA, mais il ne peut pas encore résoudre le problème. La sécurité autour des GPT est encore limitée. Par ailleurs, les outils d’IA générative devraient accroître la crédibilité des courriels d’hameçonnage, ce qui pèsera sur la lutte contre les attaques par ingénierie sociale. Il est essentiel d’améliorer la formation et d’accroître la sensibilisation à la cybersécurité. Lorsque l’IA reproduit des textes humains et passe inaperçue, elle crée un tout nouveau niveau de risque en matière de cybersécurité. D’autant plus que les gens sont facilement influençables et n’hésitent pas à faire confiance à un courriel qui semble sûr.

Le facteur humain

Des recherches ont montré que l’honnêteté et l’empathie étaient les deux compétences non techniques les moins présentes. Cela est dangereux étant donné la nature des personnes impliquées dans la conception, l’exploitation et la sécurité des systèmes IT. En outre, 43 % des personnes interrogées ont indiqué que la cybercriminalité n’était pas suffisamment signalée, bien que les entreprises soient tenues de le faire. Cette situation est préoccupante car la plupart des professions IT ont mis en place des codes de conduite. Cette constatation, associée à une multitude de préoccupations éthiques, suscite le pessimisme quant à la transparence autour de l’IA, qui plus est si les algorithmes ont une influence négative. Mais l’essor de l’IA générative a heureusement aussi un côté positif.

La protection de la vie privée et l’équité sont au cœur des discussions sur l’IA. Les préjugés ne pourront probablement jamais être atténués. C’est un risque, surtout si l’on considère que les modèles d’IA sont aussi bons que les données fournies lors de leur élaboration, et qu’ils sont susceptibles d’attirer l’attention d’acteurs mal intentionnés.

IA générative et confiance dans le numérique

La confiance dans le numérique, une évolution de la transformation numérique et une priorité contemporaine, est essentielle lorsqu’il s’agit d’IA. Les développements récents ne font que rendre la confiance dans le numérique un objectif difficile à accomplir. En effet, l’IA n’est pas intouchable. Le manque de transparence dans le développement, l’utilisation et la protection des technologies engendre des problèmes conséquents. Cela va de problèmes opérationnels aux dommages irréparables causés à la marque. Les consommateurs sont généralement contraints de renoncer à leur vie privée en échange de l’accès aux services. S’ils ne le font pas, l’accès leur est refusé en raison de la législation relative aux pratiques commerciales qui profitent des personnes non averties ou mal informées.

Les organisations doivent engager rapidement une conversation avec leurs employés sur les opportunités et les risques de l’IA. Il est urgent de réfléchir à la manière de prévenir les abus et les stéréotypes, mais aussi à la façon dont l’IA générative, une fois la sécurité optimisée, peut contribuer à résoudre des problématiques professionnelles, telles que l’ingénierie sociale, et à redéfinir le travail. Ce n’est qu’à cette condition que vous sensibiliserez à l’IA générative et que vous éviterez des dommages inutiles à l’entreprise et aux employés.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire