42 pour cent des Belges partagent des données professionnelles avec ChatGPT
Selon une étude de la firme de sécurité Kaspersky, 42 pour cent des Belges partageraient des données professionnelles personnelles avec ChatGPT, ce qui pourrait mettre en danger des informations sensibles. En outre, 44 pour cent du personnel interrogé déclarent qu’il n’existe aucune directive pour réglementer l’utilisation de ChatGPT au travail, alors que 43 pour cent ignorent comment fonctionne le traitement des données.
Kaspersky conclut de ces résultats qu’il est devenu une priorité absolue pour la direction de gérer la confidentialité des données et le contrôle du contenu lié aux outils d’IA.
‘Malgré des avantages évidents, il ne faut pas perdre de vue que les outils de modèle de langage tels ChatGPT sont encore et toujours imparfaits, parce qu’ils sont enclins à générer des allégations non-fondées et à créer des sources d’informations’, déclare Vladislav Tushkanov, Data Science Lead chez Kaspersky. Le respect de la vie privé est également un important problème, selon lui, parce que nombre de services IA peuvent réutiliser les apports des utilisateurs pour améliorer leurs systèmes. Cela peut à son tour provoquer des fuites de données. ‘C’est par exemple le cas, si des pirates volent les données de connexion d’utilisateurs, ou les achètent dans le web clandestin (dark web). Ce faisant, ils pourraient avoir accès à des informations potentiellement sensibles stockées sous la forme d’historiques de clavardage (chat).’
Insuffisamment pris au sérieux
Malgré ce type de risques, quasiment la moitié des employés belges (44%) signalent donc qu’il manque pour l’instant complètement de règles et de directives à propos de l’utilisation d’outils d’IA générative au travail. Un groupe de 21 pour cent affirme cependant qu’elles existent bel et bien, mais qu’elles sont trop peu claires ou détaillées. De plus, 24 pour cent estiment qu’il n’est pas nécessaire de disposer de règles ou de directives.
A la question de savoir ce que contiennent précisément les règles existantes, 38 pour cent répondent qu’ils reçoivent des instructions verbales dans le cadre soit d’une réunion d’entreprise (22%), soit individuellement (16%). Seuls 18 pour cent prétendent que les règles font l’objet d’un courriel officiel, et un peu moins de 15 pour cent signalent qu’un document formel indépendant a été élaboré. Les chercheurs en tirent la conclusion que la plupart des organisations belges ne prennent pas la chose suffisamment au sérieux.
‘Les entreprises qui peuvent tirer parti de ChatGPT et d’autres services LLM (Large Language Models, ndlr) devraient concevoir une politique détaillée pour leurs employés, afin de réglementer leur utilisation’, avertit Tushkanov. ‘Sur la base de directives claires, les employés pourraient éviter à la fois l’utilisation excessive et les fuites de données potentielles, qui saperaient même la plus solide stratégie de cybersécurité.’
Couper, coller, à peine contrôler…
Par ailleurs, un quart des cinq cents personnes interrogées admettent utiliser ChatGPT au travail pour des tâches textuelles, comme générer du contenu, traduire et améliorer des textes. A peu près le même nombre (24%) utilise l’outil d’IA comme moyen de gagner du temps pour ce qui est par exemple de résumer de longs textes ou des notes de réunions.
S’il est question d’utiliser ensuite le contenu ainsi obtenu, plus de la moitié des employés (57%) indiquent ne pas en contrôler l’exactitude ou la fiabilité avant de le faire passer pour leur propre travail.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici