L’étude menée par une équipe de recherche de huit membres de sept pays (DE, LV, SE, CZ, MX, UK) répond aux questions de savoir si les outils de détection existants peuvent distinguer de manière fiable le texte écrit par des humains et le texte généré par l’intelligence artificielle (UI). La recherche comprend douze outils disponibles gratuitement et deux systèmes commerciaux (Turnitin et PlagiarismCheck) qui sont largement utilisés dans le milieu universitaire.
L’équipe de recherche a conclu que les outils de détection recherchés ne sont ni précis ni fiables et ont tendance à classer le texte comme écrit par l’homme plutôt que comme texte généré par l’interface utilisateur. L’étude apporte plusieurs avantages importants :
- résume les efforts scientifiques et non scientifiques similaires en cours dans ce domaine,
- représente le résultat d’un des tests les plus complets réalisés à ce jour sur la base d’une méthodologie de recherche rigoureuse, d’un ensemble original de documents et d’une large couverture d’outils
- traite des implications et des inconvénients de l’utilisation d’outils de détection pour le texte généré par l’interface utilisateur dans un environnement universitaire.
Les résultats de l’étude suggèrent fortement qu’une « solution simple » à la détection de texte générée par l’interface utilisateur n’existe pas (et peut-être ne peut pas) exister. Par conséquent, ils suggèrent de ne pas se concentrer sur les stratégies de détection, mais les éducateurs doivent se concentrer sur les mesures préventives et continuer à revoir les stratégies d’évaluation scolaire, qui devraient se concentrer sur le processus de développement des compétences des élèves plutôt que sur le produit final (travail écrit).
Lien de l’étude : https://arxiv.org/ftp/arxiv/papers/2306/2306.15666.pdf
« Introverti. Érudit des médias sociaux. Nerd du bacon. Gourou de Twitter. Défenseur de l’alimentation totale. Passionné de culture pop professionnelle. Amateur d’alcool. »