Przełomowe badanie przeprowadzone przez profesora Scarfe’a i jego zespół na Uniwersytecie w Reading wykazało, że odpowiedzi napisane przez sztuczną inteligencję (AI) przewyższają odpowiedzi napisane przez studentów na egzaminach uniwersyteckich.
Naukowcy odkryli, że odpowiedzi na pytania wygenerowane przez sztuczną inteligencję były „ praktycznie niewykrywalne ” przy ocenie za pomocą ludzkich markerów. Podkreśla to rosnące obawy związane z niewłaściwym postępowaniem w środowisku akademickim i potrzebę zajęcia się kwestią wykorzystania sztucznej inteligencji w ocenach edukacyjnych.
Badanie polegało na stworzeniu 33 fałszywych tożsamości studentów, którzy używali ChatGPT do rozwiązywania oficjalnych egzaminów „w domu” w ramach uzyskiwania tytułu licencjata z psychologii na uniwersytecie.
Odpowiedzi wygenerowane przez sztuczną inteligencję zostały następnie przesłane do oceny wraz z odpowiedziami napisanymi przez rzeczywistych uczniów. Markerzy, którzy nie byli świadomi badania, przyznali wyższe oceny zgłoszeniom AI niż ich ludzkie odpowiedniki.
W rzeczywistości 83% zgłoszeń dotyczących sztucznej inteligencji uzyskało lepsze oceny niż odpowiedzi prawdziwych uczniów. Rodzi to istotne pytania dotyczące uczciwości i dokładności oceny wyników uczniów w świetle doskonałych wyników sztucznej inteligencji.
Obawy związane z niewłaściwym postępowaniem akademickim związanym z wykorzystaniem sztucznej inteligencji
Budzące wyniki badania budzą obawy na uniwersytetach co do bezpośredniego wpływu sztucznej inteligencji na sektor edukacji.
Uczniowie coraz częściej wykorzystują sztuczną inteligencję do ściągania, wykorzystując niedoskonałości obecnych systemów wykrywania. Pojawiły się wezwania do ograniczenia metod oceniania, takich jak zajęcia i eseje, podczas gdy inni opowiadają się za odpowiedzialną i etyczną integracją sztucznej inteligencji w praktykach edukacyjnych.
Ankieta przeprowadzona przez serwis rekrutacyjny Ucas wykazała, że 53% uczniów korzystało z generatywnej sztucznej inteligencji w przygotowaniach do egzaminów. Jednak obecne oprogramowanie do wykrywania sztucznej inteligencji w dużej mierze nie sprawdza się w wykrywaniu treści generowanych przez sztuczną inteligencję, pozostawiając odpowiedzialność za identyfikację praktyk oszukiwania ludzkim markerom.
Niedociągnięcia oprogramowania do wykrywania AI
Niski odsetek „fałszywie pozytywnych wyników” generowanych przez oprogramowanie do wykrywania sztucznej inteligencji sprawia, że uniwersytety niechętnie oskarżają studentów o ściąganie. Nakłada to na ludzkie markery ciężar identyfikacji treści generowanych przez sztuczną inteligencję, co staje się coraz trudniejsze w miarę jak sztuczna inteligencja staje się coraz bardziej wyrafinowana.
Badanie przeprowadzone na Uniwersytecie w Reading pokazuje, że obecne procesory AI przechodzą „test Turinga”, co oznacza, że mogą przejść niezauważone przez doświadczonych sędziów.
wzywa uniwersytety do etycznego przyjęcia sztucznej inteligencji
Wśród wyzwań, jakie stwarza sztuczna inteligencja w ocenach, wzywa się uniwersytety do przyjęcia proaktywnego podejścia w zakresie etycznego stosowania sztucznej inteligencji.
Grupa Russell, do której należą czołowe uniwersytety, takie jak Oxford, Cambridge i University College London, zobowiązała się do umożliwienia etycznego wykorzystania sztucznej inteligencji w nauczaniu i ocenianiu.
Ryzyko zniechęcenia uczniów do korzystania z AI
Dostępność narzędzi sztucznej inteligencji, które mogą generować odpowiedzi i zapewniać pomoc w wykonywaniu różnych zadań, może utrudniać uczniom krytyczne myślenie, analizowanie i pisanie bez pomocy sztucznej inteligencji.
Profesor Karen Yeung, absolwentka prawa, etyki i informatyki na Uniwersytecie w Birmingham, stwierdziła, że zezwolenie na wykorzystanie sztucznej inteligencji na egzaminach w szkołach i na uniwersytetach może stworzyć własne problemy w „pozbawianiu umiejętności” uczniów.