Le gouvernement indien veut approuver les outils d’IA avant leur lancement
Quiconque met à disposition un outil d’IA en Inde, devra solliciter l’approbation du gouvernement et mettre en garde contre des erreurs.
Il est question ici d’outils qui génèrent des réponses peu fiables dans leur phase de test. Le gouvernement souhaite que leurs créateurs sollicitent au préalable une autorisation gouvernementale. Voilà ce qu’affirme le ministère de l’électronique et de la technologie de l’information, de la cyber-législation et de la gouvernance des données dans une nouvelle directive.
La directive stipule en outre que les LLM, les logiciels ou les algorithmes ne doivent pas héberger, afficher, télécharger, partager ou publier du contenu illégal. Elle propose également que les outils d’IA soient étiquetés pour signaler qu’ils peuvent fournir des réponses incorrectes ou peu fiables.
Plus loin dans la directive, il apparaît que les créations artificielles telles que les vidéos ‘deepfake’ (hypertrucages) ou l’audio manipulée, susceptibles d’être utilisées pour tromper, doivent être pourvues d’un label, éventuellement dans les métadonnées, pour le signaler.
D’une part, le texte n’est ni une loi ni une obligation absolue de soumettre au gouvernement tout outil dans le cas par exemple où il a été suffisamment testé et qu’il s’avère relativement inoffensif. Mais la directive précise encore que quiconque ne respecte pas les règles pourra être poursuivi.
L’essor de l’IA s’est fortement accompagné de tentatives de réglementation ces derniers mois. L’Europe travaille actuellement sur l’AI Act, et les Etats-Unis y réfléchissent aussi. Les règles indiennes surviennent une semaine après l’émission de vives critiques à l’encontre de l’outil Gemini AI de Google. Certaines d’entre elles qualifient en effet la politique de l’actuel Premier ministre Modi de fasciste. Google s’en est excusée et a déclaré que l’outil ne pouvait pas toujours être fiable dans le cas de sujets d’actualité et politiques.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici