L’IA générative est une présence notable sur les campus universitaires. Au moins 50 % des étudiants ont adopté l’IA pour rédiger des articles, générer des idées, ou les deux. Cela représente des millions de dissertations, d’articles savants et de documents de recherche, et ce n’est pas fini. Et ce chiffre n’est pas près de diminuer. Des rapports récents montrent que 70 % des adolescents ont utilisé au moins un type d’outil de GenAI pour leurs travaux scolaires.
Bien qu’une partie de cette « adoption » puisse être qualifiée de tricherie, l’aide apportée par GenAI ne consiste pas uniquement en des raccourcis mal intentionnés. Outre la rédaction d’un travail universitaire, l’IA peut être utilisée pour rechercher des concepts, offrir une aide à l’apprentissage, trouver des numéros de page pour des preuves textuelles ou simplement lancer des idées.
Où se situe la limite entre obtenir de l’aide et enfreindre les règles académiques ? Les universités peuvent-elles vérifier les contenus générés par l’IA et soumis par les étudiants ?
De nombreuses universités utilisent des détecteurs d’IA – voici pourquoi
L’IA générative est entrée en scène rapidement et de manière importante. Avec l’apparition d’outils d’IA facilement accessibles, les universités ont soudain dû réagir et élaborer des politiques relatives à leur utilisation. L’enseignement supérieur n’est pas réputé pour sa flexibilité et sa rapidité d’adaptation, mais face à l’IA, les établissements d’enseignement supérieur ont réagi avec une rapidité inhabituelle.
La possibilité d’utiliser l’intelligence artificielle pour rédiger des travaux universitaires soulève une série de questions liées à l’éthique, au plagiat et à l’intégrité académique – des questions qui touchent au cœur des valeurs fondamentales de l’éducation.
Les outils de détection de l’IA font partie de l’approche multiforme adoptée par de nombreuses universités pour aborder l’utilisation de l’IA dans les cours, la recherche et les études universitaires.
Afin d’élaborer des politiques, des autorisations, des restrictions et des conséquences autour de l’utilisation de l’IA générative, les institutions doivent d’abord convaincre les étudiants que l’utilisation de l’IA peut être détectée.
Comment fonctionne la détection de l’écriture par l’IA
Tout comme l’IA peut générer du langage en utilisant le traitement du langage naturel (NLP) et les grands modèles de langage (LLM), elle peut également être utilisée pour reconnaître le texte qu’elle a créé.
Étant donné que la génération de langage par l’IA dépend fortement des modèles, le langage qu’elle produit suit souvent des modèles prévisibles. Cela peut se traduire par des traits prévisibles dans les écrits générés par la machine :
- Phrases non naturelles
- Un choix de mots étrange
- Structure de phrase répétitive
- Utilisation excessive de mots ou de formulations
- Manque de nuances
- Manque d’expérience ou d’opinion personnelle
Les outils de détection de l’IA tels que GPTZero, Turnitin et Copyleaks utilisent des algorithmes d’apprentissage automatique pour analyser de grandes quantités de textes générés par l’IA, identifier les schémas révélateurs et faire la distinction entre les écrits humains et les écrits générés par la machine.
Les enseignants peuvent utiliser ces outils pour repérer les étudiants qui utilisent l’IA générative, et les étudiants peuvent les utiliser pour une analyse préventive avant de rendre leur travail. Si les outils de détection de l’IA avaient toujours raison à 100 %, ce serait la fin de l’histoire. Mais ce n’est pas le cas.
Précision et limites
Les textes générés par des machines ne sont pas parfaits. Il s’ensuit que les outils de détection alimentés par l’IA ne sont pas parfaits non plus. En 2023, ChatGPT a retiré son propre outil de détection de contenu par IA en raison de problèmes de précision. Mais l’IA évolue rapidement et la précision s’améliore constamment.
Si de nombreux détecteurs sont très précis, aucun système n’est infaillible. Les faux positifs sont un problème courant dans la détection de l’IA. Lorsqu’un texte humain est très structuré ou formel, ou qu’il présente les caractéristiques recherchées par un détecteur d’IA, il peut être considéré comme écrit par une IA.
Le risque de faux positifs est la raison pour laquelle de nombreuses universités utilisent des détecteurs d’IA dans le cadre d’un système plus large de vérifications et d’équilibrages lorsqu’elles enquêtent sur le plagiat et la tricherie. La malhonnêteté académique est une accusation grave, et la plupart des établissements d’enseignement supérieur ne s’appuient pas sur un seul outil pour obtenir des preuves, mais l’utilisent dans le cadre d’un système de détection plus large.
En ce qui concerne l’utilisation des détecteurs d’IA dans le monde universitaire, l’ Université du Kansas a bien résumé la situation : « L’outil fournit des informations, pas un acte d’accusation ».
Le rôle des humanisateurs de l’IA
Une nouvelle considération émerge dans le monde des textes générés par l’IA et dans le monde universitaire : l’AI Humanizer. Les humanisateurs d’IA fonctionnent comme des détecteurs qui repèrent les schémas révélateurs dans les contenus générés par des machines. Mais les humanisateurs de texte poussent la détection de l’IA un peu plus loin : ilsréécrivent ou améliorent le texte pour le rendre plus naturel et plus humain.
De nombreux humaniseurs d’IA rendent les textes générés par l’IA beaucoup plus difficiles à détecter. Cela pose un problème supplémentaire aux universités, car les mêmes préoccupations en matière d’éthique et d’intégrité académique subsistent.
GPTHuman est un humanisateur de texte d’IA qui produit un contenu qui est garanti de ne pas être détecté par l’IA. L’écriture ou la réécriture de GPTHuman.ai transforme les textes générés par des machines robotisées en textes naturels, authentiques et humains.
Politiques et conséquences de l’université
De nombreuses universités ont adopté l’idée que l’IA générative est là pour durer et qu’elle nécessite une vigilance accrue ainsi que des politiques et des procédures globales à l’échelle du campus.
Par exemple, des institutions telles que Montclair State University et East Central College publient de bonnes vieilles listes de contrôle pour aider les enseignants à découvrir des modèles de contenu d’IA dans les écrits des étudiants.
Les détecteurs d’IA restent un puissant moyen de dissuasion pour les étudiants, car les établissements mettent en place des politiques concernant l’utilisation appropriée, l’utilisation interdite et les conséquences d’une utilisation abusive du contenu généré par l’IA. Les mesures disciplinaires reflètent souvent celles qui s’appliquent à d’autres actes de malhonnêteté académique : une mauvaise note, l’exclusion d’un cours ou des sanctions plus sévères.
En outre, de nombreuses universités abordent de manière proactive la question de l’IA générative dans les salles de classe. Par exemple, le Massachusetts Institute of Technology (MIT) rappelle aux instructeurs que « le cœur de l’enseignement est indéniablement humain » et insiste sur la promotion de la transparence, du dialogue ouvert et de la motivation intrinsèque pour réussir honnêtement.
Conclusion
Les universités peuvent utiliser – et le font – des outils de détection de l’IA pour déceler les textes rédigés par l’IA dans les travaux des étudiants. La détection n’est pas infaillible, mais elle s’améliore continuellement. Parce que l’enseignement et l’apprentissage sont des activités humaines, les établissements multiplient les efforts pour promouvoir l’intégrité et l’honnêteté académiques sur le campus.
Les outils d’IA générative et d’IA humanisatrice sont des atouts puissants dans la boîte à outils d’un étudiant, mais ils doivent être utilisés avec discernement et prudence, en équilibre avec le travail acharné et la pensée critique qu’exige l’éducation. Une recherche authentique et éthique est la clé de la réussite universitaire.
Sources :
https://mitsloanedtech.mit.edu/ai/teach/ai-detectors-dont-work
https://guides.library.ttu.edu/artificialintelligencetools/detection
https://cte.ku.edu/careful-use-ai-detectors
https://teach.its.uiowa.edu/news/2024/09/case-against-ai-detectors
https://edintegrity.biomedcentral.com/articles/10.1007/s40979-023-00140-5
https://ldlprogram.web.illinois.edu/academic-integrity-statement