Dans l’histoire de la gruge comme dans l’histoire de l’humanité tout court, c’est une révolution majeure : l’avènement de cette l’intelligence artificielle « conversationnelle » qui a réponse à tout et produit des textes sur demande.
Depuis que l’entreprise californienne « OPEN AI » a mis à disposition début décembre sa nouvelle version de « Chat GPT3 », le grand jeu c’est de tester le système en lui faisant écrire des articles ou même des poèmes sur des sujets complexes. En anglais, français, allemand, russe ou japonais : les résultats sont en général bluffants.
Cette intelligence artificielle hyper entraînée a scanné tout le web (jusqu’en 2021) et compose avec des milliards de paramètres. Passée la phase de découverte ludique, c’est au lycée et à la fac que se font sentir les premiers bouleversements engendrés par ce nouvel outil, qui a gagné un million d’utilisateurs la semaine dernière.
Pour rappel, avec cette version de GPT3 et bientôt GPT4, on peut obtenir un devoir ou une dissertation sur n’importe quel sujet de la physique quantique aux peintres primitifs flamands. Mais ça va plus loin que le copier-coller puisque GPT3 génère des textes « uniques » que les logiciels anti-plagiat dont disposent les universités ou les lycées ne peuvent pas repérer.
Depuis un mois les exemples de copies rédigées par GPT3 se multiplient et se partagent sur des groupes Facebook d’enseignants passés en phase d’alerte !
C’est lié au style, l’intelligence artificielle produit des textes qu’un élève de Terminale super balaise mais un peu « robot » pourrait écrire. Avec les mots les plus communs et une syntaxe prévisible.
Les enseignants organisent leur riposte : devoir sur table en présentiel, oraux surprise, mais aussi nouveau corpus d’étude. Comme le rapporte le journal canadien « Le Devoir » : des professeurs de littérature ont constaté que la plateforme « connaît » très bien certains romans ils songent donc à faire travailler leurs étudiants sur des sujets que celle-ci ne maîtrise pas.
A terme, de nouveaux outils se développeront pour repérer les travaux faits par une intelligence artificielle, mais c’est avant tout l’humain qui doit s’entraîner à le faire. D’après la revue du MIT (l’institut de technologie du Massachusetts qui fait référence dans le domaine) : chacun devra s’y former car au-delà de la triche en classe demain on vivra tous au milieu de textes produits par des IA, y compris des campagnes de désinformation. Et si on ne les repère pas ils seront pris en compte comme vérité par les nouvelles IA qui seront entraînées sur de fausses données etc., etc.
Pour vous prouver que cette chronique a été faite par une humaine, j’ajouterai en guise de conclusion cette expression créole qui n’a rien à voir avec le zafaire « faut pas quatre malbars pour tuer un cabris ».
L’équipe
