Dom > Odkryć > Odpowiedzi na egzaminy AI były niewykrywalne przez ludzkie markery w punktacji egzaminów uniwersyteckich

Odpowiedzi na egzaminy AI były niewykrywalne przez ludzkie markery w punktacji egzaminów uniwersyteckich

Scenariusz
ArticleGPT

Sprawdzone i sprawdzone przez zespół HIX.AI

4 minuty czytania6 days ago
Odpowiedzi na egzaminy AI były niewykrywalne przez ludzkie markery w punktacji egzaminów uniwersyteckich

W skrócie

Profesorowie na Uniwersytecie w Reading zostali nieświadomie oszukani przez swoich badaczy, którzy przesłali odpowiedzi na egzaminy wygenerowane przez sztuczną inteligencję, które uzyskały wyższe oceny niż odpowiedzi prawdziwych studentów.

Przełomowe badanie przeprowadzone przez profesora Scarfe’a i jego zespół na Uniwersytecie w Reading wykazało, że odpowiedzi napisane przez sztuczną inteligencję (AI) przewyższają odpowiedzi napisane przez studentów na egzaminach uniwersyteckich.

Naukowcy odkryli, że odpowiedzi na pytania wygenerowane przez sztuczną inteligencję były „ praktycznie niewykrywalne ” przy ocenie za pomocą ludzkich markerów. Podkreśla to rosnące obawy związane z niewłaściwym postępowaniem w środowisku akademickim i potrzebę zajęcia się kwestią wykorzystania sztucznej inteligencji w ocenach edukacyjnych.

Badanie polegało na stworzeniu 33 fałszywych tożsamości studentów, którzy używali ChatGPT do rozwiązywania oficjalnych egzaminów „w domu” w ramach uzyskiwania tytułu licencjata z psychologii na uniwersytecie.

Odpowiedzi wygenerowane przez sztuczną inteligencję zostały następnie przesłane do oceny wraz z odpowiedziami napisanymi przez rzeczywistych uczniów. Markerzy, którzy nie byli świadomi badania, przyznali wyższe oceny zgłoszeniom AI niż ich ludzkie odpowiedniki.

W rzeczywistości 83% zgłoszeń dotyczących sztucznej inteligencji uzyskało lepsze oceny niż odpowiedzi prawdziwych uczniów. Rodzi to istotne pytania dotyczące uczciwości i dokładności oceny wyników uczniów w świetle doskonałych wyników sztucznej inteligencji.

Obawy związane z niewłaściwym postępowaniem akademickim związanym z wykorzystaniem sztucznej inteligencji

Budzące wyniki badania budzą obawy na uniwersytetach co do bezpośredniego wpływu sztucznej inteligencji na sektor edukacji.

Uczniowie coraz częściej wykorzystują sztuczną inteligencję do ściągania, wykorzystując niedoskonałości obecnych systemów wykrywania. Pojawiły się wezwania do ograniczenia metod oceniania, takich jak zajęcia i eseje, podczas gdy inni opowiadają się za odpowiedzialną i etyczną integracją sztucznej inteligencji w praktykach edukacyjnych.

Ankieta przeprowadzona przez serwis rekrutacyjny Ucas wykazała, że 53% uczniów korzystało z generatywnej sztucznej inteligencji w przygotowaniach do egzaminów. Jednak obecne oprogramowanie do wykrywania sztucznej inteligencji w dużej mierze nie sprawdza się w wykrywaniu treści generowanych przez sztuczną inteligencję, pozostawiając odpowiedzialność za identyfikację praktyk oszukiwania ludzkim markerom.

Niedociągnięcia oprogramowania do wykrywania AI

Niski odsetek „fałszywie pozytywnych wyników” generowanych przez oprogramowanie do wykrywania sztucznej inteligencji sprawia, że uniwersytety niechętnie oskarżają studentów o ściąganie. Nakłada to na ludzkie markery ciężar identyfikacji treści generowanych przez sztuczną inteligencję, co staje się coraz trudniejsze w miarę jak sztuczna inteligencja staje się coraz bardziej wyrafinowana.

Badanie przeprowadzone na Uniwersytecie w Reading pokazuje, że obecne procesory AI przechodzą „test Turinga”, co oznacza, że mogą przejść niezauważone przez doświadczonych sędziów.

wzywa uniwersytety do etycznego przyjęcia sztucznej inteligencji

Wśród wyzwań, jakie stwarza sztuczna inteligencja w ocenach, wzywa się uniwersytety do przyjęcia proaktywnego podejścia w zakresie etycznego stosowania sztucznej inteligencji.

Grupa Russell, do której należą czołowe uniwersytety, takie jak Oxford, Cambridge i University College London, zobowiązała się do umożliwienia etycznego wykorzystania sztucznej inteligencji w nauczaniu i ocenianiu.

Ryzyko zniechęcenia uczniów do korzystania z AI

Dostępność narzędzi sztucznej inteligencji, które mogą generować odpowiedzi i zapewniać pomoc w wykonywaniu różnych zadań, może utrudniać uczniom krytyczne myślenie, analizowanie i pisanie bez pomocy sztucznej inteligencji.

Profesor Karen Yeung, absolwentka prawa, etyki i informatyki na Uniwersytecie w Birmingham, stwierdziła, że zezwolenie na wykorzystanie sztucznej inteligencji na egzaminach w szkołach i na uniwersytetach może stworzyć własne problemy w „pozbawianiu umiejętności” uczniów.

Na podstawie 2 źródeł wyszukiwania

2 źródła

AI exam answers ‘virtually undetectable’ by university examiners

University exams answers written by AI are “virtually undetectable” when assessed by human markers, a study has found.

Researchers fool university markers with AI-generated exam papers

University of Reading project poses questions for integrity of coursework and take-home student assignments

Na tej stronie

  • Obawy związane z niewłaściwym postępowaniem akademickim związanym z wykorzystaniem sztucznej inteligencji
  • wzywa uniwersytety do etycznego przyjęcia sztucznej inteligencji
  • Ryzyko zniechęcenia uczniów do korzystania z AI