Les entreprises technologiques craignent l’impact de l’IA sur les élections de cette année
Les entreprises technologiques s’inquiètent de la mesure dans laquelle l’intelligence artificielle (IA) pourrait influencer les importantes élections nationales de cette année. ‘Nous devrons surveiller cela de très près’, a ainsi déclaré Sam Altman, CEO d’OpenAI, lors d’une réunion au World Economic Forum (WEF) à Davos, en Suisse. OpenAI est la société mère de ChatGPT.
Près de la moitié de la population mondiale se rendra aux urnes en 2024. Auparavant, l’intelligence artificielle ne jouait pas un rôle majeur dans les élections nationales. Or, selon Altman, tel sera le cas désormais. ‘Je pense que ce sera plus comme avant’, a-t-il affirmé.
Reste à savoir dans quelle mesure l’intelligence artificielle est déjà capable d’influencer des élections, selon Satya Nadella, CEO de Microsoft: ‘Ce n’est pas la première fois que nous sommes confrontés à la désinformation, à la mésinformation et à l’ingérence lors d’élections. Il s’agit là d’un défi de taille que nous devons relever tous ensemble.’
Voix hyper-truquées
Altman et Nadella ont tenu ces propos après la première primaire américaine dans l’Iowa, au cours de laquelle l’ancien président Donald Trump a remporté une victoire facile sur ses concurrents républicains. Microsoft avait annoncé précédemment déjà qu’elle aiderait les politiciens américains à lutter contre les fausses vidéos à l’approche des élections présidentielles.
ChatGPT n’était pas disponible, lorsque les Américains se sont rendus pour la dernière fois aux urnes. Le cofondateur de Microsoft, Bill Gates, a prévenu à Davos qu’avec les outils d’IA générative, ‘les vilains cocos vont pouvoir étendre leurs activités’.
En guise d’avertissement, des vidéos de voix hyper-truquées de politiciens générées par l’IA à l’approche des élections législatives slovaques de l’année dernière ont été diffusées lors de la réunion. Elles ont du reste été partagées massivement sur les réseaux sociaux tels que Facebook, Instagram et Telegram.