Kristof Van der Stadt
ChatGPT n’est pas le Saint Graal
Évidemment, le contrecarrer n’est pas une option. Et pourtant, de nombreuses écoles et universités se rebiffent au moment de constater la qualité de ChatGPT, la ‘machine à écrire’ automatique intelligente présentée fin 2022 par OpenAI. Une IA notamment capable de rédiger une dissertation sur votre hobby favori, une thèse sur l’informatique quantique, une présentation sur l’aménagement floral ou encore une critique – à la fois positive et négative – sur un ouvrage.
Au diable donc cette approche AI! Fraude! Répression! Mais comment a été vécue l’introduction de la machine à écrire dans l’enseignement? Au départ sans doute avec les mêmes réactions. Le changement apparaît parfois comme une menace très réelle, mais il faut aussi envisager les opportunités. Il n’en va pas autrement avec ChatGPT. Il s’agit d’un danger manifeste pour de nombreuses professions: enseignant, notaire, avocat, conseiller (financier), employé de helpdesk, comptable, bien sûr aussi, programmeur et journaliste. Et pourtant, ce n’est pas inéluctable, la clé étant la manière dont ChatGPT sera mis en oeuvre.
Le danger ne se situe pas dans la génération de texte en soi, mais dans la façon dont nous réagirons en tant que société. Si nous optons pour la répression dure, nous allons au-devant d’un combat perdu d’avance. Comme si l’inventeur de la machine à écrire avait décidé sous la pression massive de la société de brûler sa machine à tricher diabolique. Réagissons de manière plus intelligente face à ChatGPT et essayons d’en tirer parti d’une manière ou d’une autre. Car il y a des chances que les entreprises et indépendants puissent en retirer un avantage concurrentiel. A moins que refuser la calculatrice soit une option pour travailler rapidement et efficacement?
Où est l’autoréflexion critique?
Pourtant, cette comparaison n’est pas totalement vraie. Une calculatrice ne fait pas d’erreur et livre toujours les mêmes résultats: une source unique de vérité. Or ChatGPT comporte de multiples erreurs factuelles et de fond, tandis que ses résultats varient fortement selon la question. Loin donc d’une source unique de vérité. Pire encore, faire preuve de créativité dans le questionnement permet d’orienter les réponses. Avec ChatGPT, il est possible de prouver n’importe quelle affirmation: plus question donc de vérité. C’est ainsi que ChatGPT surfe sur la vague des ‘fake news’, des images manipulées et des théories complotistes. OpenAI reste floue quant au contenu et aux sources utilisées pour entraîner le modèle d’IA. Certes, celui-ci s’appuie sur des recherches scientifiques. Mais largement aussi sur Wikipédia qui suscite de nombreuses questions: le manipuler n’est guère compliqué et passe souvent largement inaperçu. De même, une appli comme Reddit est aussi exploitée: on y retrouve, outre des renseignements très utiles, des infos absurdes, dangereuses et même racistes. Comment un modèle d’IA gère-t-il cette problématique?
J’étais ‘scié’ lorsque j’ai testé pour la première fois ChatGPT le 30 novembre dernier. Mais quelle que soit la qualité des résultats, j’ai très rapidement décelé des biais. Et par la suite aussi des interprétations et conclusions erronées, certes enrobées de termes ronflants et d’une rhétorique bien huilée.
Des sources? Elles n’existent pas ou mieux, elles ne sont pas renseignées comme si elles n’avaient aucune importance. Voilà ce qui m’inquiète en fait le plus: que cette absence ne soit pas un souci pour de nombreux utilisateurs. En tant que journaliste, je n’ai aucune garantie que ce qu’écrit ChatGPT est irréprochable. Idem pour ceux qui rédigent des textes de loi ou du code. Idem pour l’étudiant devant sa dissertation. Où est l’autoréflexion critique? Si j’étais professeur, je demanderais à mes élèves de faire un devoir avec ChatGPT pour démontrer ensuite sur la base de sources que ces informations ne sont pas vraiment correctes. Voilà bien une compétence dont ils auront vraiment besoin dans leur vie future.
Et pour en revenir à la calculatrice: demandez à ChatGPT ce que font 3 + 2. Puis précisez ensuite que la réponse exacte doit être 4. “Oh, désolé, c’était une erreur: 3 + 2 font effectivement 4.” L’intelligence de l’IA est fonction de celle de l’homme.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici