Hogar > Descubrir > Las respuestas de los exámenes de IA no fueron detectables por los marcadores humanos en la puntuación de los exámenes universitarios

Las respuestas de los exámenes de IA no fueron detectables por los marcadores humanos en la puntuación de los exámenes universitarios

Escrito por
ArticleGPT

Revisado y verificado por el Equipo HIX.AI

4 minutos de lectura4 days ago
Las respuestas de los exámenes de IA no fueron detectables por los marcadores humanos en la puntuación de los exámenes universitarios

En una palabra

Los profesores de la Universidad de Reading fueron engañados sin saberlo por sus investigadores, quienes enviaron respuestas de exámenes generadas por IA que recibieron calificaciones más altas que las respuestas reales de los estudiantes.

En un estudio innovador realizado por el profesor Scare y su equipo en la Universidad de Reading, se reveló que las respuestas escritas por Inteligencia Artificial (IA) superaron a las escritas por estudiantes humanos en los exámenes universitarios.

Los investigadores descubrieron que las respuestas de las evaluaciones generadas por IA eran " prácticamente indetectables " cuando se evaluaban con marcadores humanos. Esto pone de relieve la creciente preocupación por la mala conducta académica y la necesidad de abordar el uso de la IA en las evaluaciones educativas.

El estudio implicó la creación de 33 identidades de estudiantes falsas que utilizaron ChatGPT para responder "exámenes oficiales en casa" como parte de la licenciatura en psicología de la universidad.

Estas respuestas generadas por IA se enviaron posteriormente junto con las respuestas escritas por estudiantes reales para su evaluación. Los marcadores, que desconocían el estudio, otorgaron calificaciones más altas a las presentaciones de IA que sus homólogos humanos.

De hecho, el 83% de las presentaciones de IA recibieron mejores calificaciones que las respuestas de los estudiantes reales. Esto plantea importantes dudas sobre la justicia y precisión de evaluar el desempeño de los estudiantes a la luz del desempeño superior de la IA.

Preocupaciones por la mala conducta académica con el uso de IA

Los sorprendentes hallazgos del estudio despiertan preocupación en las universidades sobre el impacto inmediato de la IA en el sector educativo.

Los estudiantes utilizan cada vez más la IA para hacer trampa, aprovechando las deficiencias de los sistemas de detección actuales. Ha habido llamados a eliminar métodos de evaluación como los trabajos de curso y los ensayos, mientras que otros abogan por la integración responsable y ética de la IA en las prácticas educativas.

Una encuesta realizada por el servicio de admisiones de Ucas encontró que el 53% de los estudiantes han utilizado IA generativa para prepararse para los exámenes. Sin embargo, el software de detección de IA actual no ha tenido éxito en la detección de contenido generado por IA, dejando la responsabilidad de identificar prácticas de trampa a marcadores humanos.

Deficiencias del software de detección de IA

La baja tasa de "falsos positivos" producidos por el software de detección de IA hace que las universidades duden a la hora de acusar a los estudiantes de hacer trampa. Esto impone a los marcadores humanos la carga de identificar el contenido generado por IA, lo cual es cada vez más difícil a medida que la IA se vuelve más sofisticada.

El estudio realizado por la Universidad de Reading demuestra que los procesadores de IA actuales están pasando la "prueba de Turing", lo que significa que pueden pasar sin ser detectados por jueces experimentados.

Pide a las universidades que adopten la IA de forma ética

En medio de los desafíos que plantea la IA en las evaluaciones, hay llamados a que las universidades adopten un enfoque proactivo para adoptar la IA de manera ética.

El Grupo Russell, que incluye universidades de primer nivel como Oxford, Cambridge y University College London, se ha comprometido a permitir el uso ético de la IA en la enseñanza y las evaluaciones.

Riesgos de descalificar a los estudiantes con el uso de IA

La disponibilidad de herramientas de IA que pueden generar respuestas y brindar asistencia en diversas tareas puede obstaculizar la capacidad de los estudiantes para participar en el pensamiento crítico, el análisis y la escritura sin la ayuda de la IA.

La profesora Karen Yeung, investigadora en derecho, ética e informática de la Universidad de Birmingham, dijo que permitir el uso de la IA en exámenes en escuelas y universidades podría crear sus propios problemas a la hora de “descalificar” a los estudiantes.

Basado en 2 fuentes de búsqueda

2 fuentes

AI exam answers ‘virtually undetectable’ by university examiners

University exams answers written by AI are “virtually undetectable” when assessed by human markers, a study has found.

Researchers fool university markers with AI-generated exam papers

University of Reading project poses questions for integrity of coursework and take-home student assignments

En esta página

  • Preocupaciones por la mala conducta académica con el uso de IA
  • Pide a las universidades que adopten la IA de forma ética
  • Riesgos de descalificar a los estudiantes con el uso de IA