Maison > Découvrir > Les réponses aux examens d’IA étaient indétectables par les marqueurs humains dans la notation des examens universitaires

Les réponses aux examens d’IA étaient indétectables par les marqueurs humains dans la notation des examens universitaires

Écrit par
ArticleGPT

Examiné et vérifié par l'équipe HIX.AI

4 minutes de lecture4 days ago
Les réponses aux examens d’IA étaient indétectables par les marqueurs humains dans la notation des examens universitaires

En un mot

Les professeurs de l’Université de Reading ont été trompés sans le savoir par leurs chercheurs, qui ont soumis des réponses aux examens générées par l’IA qui ont reçu des notes plus élevées que les réponses réelles des étudiants.

Dans une étude révolutionnaire menée par le professeur Scarfe et son équipe de l'Université de Reading, il a été révélé que les réponses rédigées par l'intelligence artificielle (IA) surpassaient celles rédigées par des étudiants humains lors d'examens universitaires.

Les chercheurs ont découvert que les réponses aux évaluations générées par l'IA étaient « pratiquement indétectables » lorsqu'elles étaient évaluées par des marqueurs humains. Cela met en évidence l’inquiétude croissante concernant la mauvaise conduite académique et la nécessité d’aborder l’utilisation de l’IA dans les évaluations pédagogiques.

L'étude impliquait la création de 33 fausses identités d'étudiants qui ont utilisé ChatGPT pour répondre à des « examens à domicile » officiels dans le cadre du baccalauréat en psychologie de l'université.

Ces réponses générées par l’IA ont ensuite été soumises avec les réponses écrites par les étudiants réels pour évaluation. Les correcteurs, qui n'étaient pas au courant de l'étude, ont attribué des notes plus élevées aux soumissions d'IA que leurs homologues humains.

En fait, 83 % des soumissions d'IA ont reçu de meilleures notes que les réponses des vrais étudiants. Cela soulève d’importantes questions sur l’équité et l’exactitude de l’évaluation des performances des élèves à la lumière des performances supérieures de l’IA.

Préoccupations concernant l’inconduite académique liée à l’utilisation de l’IA

Les conclusions de l’étude suscitent des inquiétudes dans les universités quant à l’impact immédiat de l’IA sur le secteur de l’éducation.

Les étudiants utilisent de plus en plus l’IA pour tricher, profitant des insuffisances des systèmes de détection actuels. Certains ont appelé à supprimer les méthodes d’évaluation telles que les cours et les essais, tandis que d’autres plaident en faveur d’une intégration responsable et éthique de l’IA dans les pratiques éducatives.

Une enquête menée par le service des admissions de l'Ucas révèle que 53 % des étudiants ont utilisé l'IA générative pour se préparer aux examens. Cependant, les logiciels actuels de détection de l’IA n’ont pas réussi à détecter le contenu généré par l’IA, laissant aux marqueurs humains la responsabilité d’identifier les pratiques de triche.

Inadéquations du logiciel de détection de l’IA

Le faible taux de « faux positifs » produits par les logiciels de détection de l’IA fait que les universités hésitent à accuser les étudiants de tricherie. Cela impose aux marqueurs humains la tâche d’identifier le contenu généré par l’IA, ce qui est de plus en plus difficile à mesure que l’IA devient plus sophistiquée.

L'étude menée par l'Université de Reading démontre que les processeurs d'IA actuels réussissent le « test de Turing », ce qui signifie qu'ils peuvent réussir sans être détectés par des juges expérimentés.

Appel aux universités pour qu’elles adoptent l’IA de manière éthique

Face aux défis posés par l’IA dans les évaluations, des appels se font entendre pour que les universités adoptent une approche proactive en adoptant l’IA de manière éthique.

Le Russell Group, qui comprend des universités de premier plan telles qu'Oxford, Cambridge et University College London, s'est engagé à autoriser l'utilisation éthique de l'IA dans l'enseignement et les évaluations.

Risques de déqualification des étudiants liés à l’utilisation de l’IA

La disponibilité d'outils d'IA capables de générer des réponses et de fournir une assistance dans diverses tâches peut entraver la capacité des étudiants à s'engager dans une réflexion critique, une analyse et une rédaction sans l'aide de l'IA.

Le professeur Karen Yeung, chercheur en droit, éthique et informatique à l'Université de Birmingham, a déclaré qu'autoriser l'utilisation de l'IA dans les examens des écoles et des universités pourrait créer ses propres problèmes de « déqualification » des étudiants.

Basé sur 2 sources de recherche

2 sources

AI exam answers ‘virtually undetectable’ by university examiners

University exams answers written by AI are “virtually undetectable” when assessed by human markers, a study has found.

Researchers fool university markers with AI-generated exam papers

University of Reading project poses questions for integrity of coursework and take-home student assignments

Sur cette page

  • Préoccupations concernant l’inconduite académique liée à l’utilisation de l’IA
  • Appel aux universités pour qu’elles adoptent l’IA de manière éthique
  • Risques de déqualification des étudiants liés à l’utilisation de l’IA