Casa > Scoprire > Le risposte agli esami AI non erano rilevabili dai marcatori umani nel punteggio degli esami universitari

Le risposte agli esami AI non erano rilevabili dai marcatori umani nel punteggio degli esami universitari

Scritto da
ArticleGPT

Revisionato e verificato dal team HIX.AI

4 minuti di lettura6 days ago
Le risposte agli esami AI non erano rilevabili dai marcatori umani nel punteggio degli esami universitari

In poche parole

I professori dell’Università di Reading sono stati inconsapevolmente ingannati dai loro ricercatori, che hanno presentato risposte agli esami generate dall’intelligenza artificiale che hanno ricevuto voti più alti rispetto alle risposte degli studenti reali.

In uno studio innovativo condotto dal professor Scarfe e dal suo team presso l’Università di Reading, è stato rivelato che le risposte scritte dall’intelligenza artificiale (AI) hanno superato quelle scritte da studenti umani negli esami universitari.

I ricercatori hanno scoperto che le risposte alle valutazioni generate dall’intelligenza artificiale erano “ praticamente non rilevabili ” se valutate da marcatori umani. Ciò evidenzia la crescente preoccupazione per la cattiva condotta accademica e la necessità di affrontare l’uso dell’intelligenza artificiale nelle valutazioni educative.

Lo studio ha comportato la creazione di 33 false identità studentesche che hanno utilizzato ChatGPT per rispondere agli "esami a domicilio" ufficiali come parte del corso di laurea in psicologia dell'università.

Queste risposte generate dall'intelligenza artificiale sono state successivamente inviate insieme alle risposte scritte dagli studenti effettivi per la valutazione. I valutatori, che non erano a conoscenza dello studio, hanno assegnato voti più alti alle proposte di intelligenza artificiale rispetto alle loro controparti umane.

In effetti, l'83% degli invii AI hanno ricevuto voti migliori rispetto alle risposte degli studenti reali. Ciò solleva interrogativi significativi sull’equità e l’accuratezza della valutazione delle prestazioni degli studenti alla luce delle prestazioni superiori dell’intelligenza artificiale.

Preoccupazioni per la cattiva condotta accademica nell’uso dell’intelligenza artificiale

I risultati dello studio suscitano preoccupazioni nelle università circa l’impatto immediato dell’intelligenza artificiale sul settore dell’istruzione.

Gli studenti utilizzano sempre più l’intelligenza artificiale per imbrogliare, approfittando delle inadeguatezze degli attuali sistemi di rilevamento. Ci sono stati appelli a tagliare metodi di valutazione come corsi e saggi, mentre altri sostengono l’integrazione responsabile ed etica dell’intelligenza artificiale nelle pratiche educative.

Un sondaggio condotto dal servizio ammissioni dell’Ucas ha rilevato che il 53% degli studenti ha utilizzato l’intelligenza artificiale generativa per prepararsi agli esami. Tuttavia, gli attuali software di rilevamento dell’intelligenza artificiale non hanno avuto molto successo nel rilevare i contenuti generati dall’intelligenza artificiale, lasciando la responsabilità di identificare le pratiche di frode a marcatori umani.

Inadeguatezze del software di rilevamento dell'intelligenza artificiale

Il basso tasso di “falsi positivi” prodotti dai software di rilevamento dell’intelligenza artificiale rende le università riluttanti ad accusare gli studenti di imbroglio. Ciò pone l’onere sui marcatori umani di identificare i contenuti generati dall’intelligenza artificiale, cosa che diventa sempre più difficile man mano che l’intelligenza artificiale diventa più sofisticata.

Lo studio condotto dall'Università di Reading dimostra che gli attuali processori di intelligenza artificiale stanno superando il "test di Turing", il che significa che possono passare inosservati da giudici esperti.

Chiede alle università di abbracciare l’intelligenza artificiale in modo etico

Tra le sfide poste dall’intelligenza artificiale nelle valutazioni, ci sono richieste alle università di adottare un approccio proattivo nell’abbracciare l’intelligenza artificiale in modo etico.

Il Russell Group, che comprende le migliori università come Oxford, Cambridge e University College London, si è impegnato a consentire l’uso etico dell’intelligenza artificiale nell’insegnamento e nelle valutazioni.

Rischi di dequalificazione degli studenti dovuti all’uso dell’intelligenza artificiale

La disponibilità di strumenti di intelligenza artificiale in grado di generare risposte e fornire assistenza in vari compiti può ostacolare la capacità degli studenti di impegnarsi nel pensiero critico, nell'analisi e nella scrittura senza l'assistenza dell'intelligenza artificiale.

La professoressa Karen Yeung, ricercatrice di giurisprudenza, etica e informatica presso l’Università di Birmingham, ha affermato che consentire l’uso dell’intelligenza artificiale negli esami nelle scuole e nelle università potrebbe creare problemi di “dequalificazione” degli studenti.

Basato su 2 fonti di ricerca

2 fonti

AI exam answers ‘virtually undetectable’ by university examiners

University exams answers written by AI are “virtually undetectable” when assessed by human markers, a study has found.

Researchers fool university markers with AI-generated exam papers

University of Reading project poses questions for integrity of coursework and take-home student assignments

Su questa pagina

  • Preoccupazioni per la cattiva condotta accademica nell’uso dell’intelligenza artificiale
  • Chiede alle università di abbracciare l’intelligenza artificiale in modo etico
  • Rischi di dequalificazione degli studenti dovuti all’uso dell’intelligenza artificiale