ในการศึกษาที่ก้าวล้ำซึ่งดำเนินการโดยศาสตราจารย์สการ์ฟและทีมงานของเขาที่มหาวิทยาลัยเรดดิ้ง พบว่าคำตอบที่เขียนโดยปัญญาประดิษฐ์ (AI) นั้นมีประสิทธิภาพเหนือกว่าคำตอบที่เขียนโดยนักศึกษาที่เป็นมนุษย์ในการสอบมหาวิทยาลัย
นักวิจัยพบว่าคำตอบการประเมินที่สร้างโดย AI นั้น " ตรวจไม่พบเลย " เมื่อประเมินด้วยเครื่องหมายของมนุษย์ สิ่งนี้เน้นให้เห็นถึงความกังวลที่เพิ่มขึ้นเกี่ยวกับการประพฤติมิชอบทางวิชาการและความจำเป็นในการจัดการกับการใช้ AI ในการประเมินการศึกษา
การศึกษานี้เกี่ยวข้องกับการสร้างข้อมูลประจำตัวนักศึกษาปลอม 33 รายที่ใช้ ChatGPT เพื่อตอบ "การสอบที่บ้าน" อย่างเป็นทางการ ซึ่งเป็นส่วนหนึ่งของการศึกษาระดับปริญญาตรีสาขาจิตวิทยาของมหาวิทยาลัย
คำตอบที่สร้างโดย AI เหล่านี้จะถูกส่งต่อมาพร้อมกับคำตอบที่เขียนโดยนักเรียนจริงเพื่อการประเมินผล เครื่องหมายที่ไม่ทราบถึงการศึกษาวิจัยนี้ ได้ให้คะแนนผลงาน AI ที่ส่งเข้ามาสูงกว่าผลงานที่เป็นมนุษย์
ในความเป็นจริง 83% ของการส่ง AI ได้รับคะแนนดีกว่าคำตอบของนักเรียนจริง สิ่งนี้ทำให้เกิดคำถามสำคัญเกี่ยวกับความเป็นธรรมและความแม่นยำในการประเมินผลงานของนักเรียนโดยพิจารณาจากประสิทธิภาพที่เหนือกว่าของ AI
ความกังวลเรื่องการประพฤติมิชอบทางวิชาการจากการใช้ AI
ผลการวิจัยที่ตื่นตัวของการศึกษากระตุ้นให้เกิดความกังวลในมหาวิทยาลัยเกี่ยวกับผลกระทบทันทีของ AI ในภาคการศึกษา
นักเรียนใช้ AI เพื่อโกงมากขึ้น โดยใช้ประโยชน์จากความไม่เพียงพอของระบบการตรวจจับในปัจจุบัน มีการเรียกร้องให้ลดวิธีการประเมิน เช่น การเรียนการสอนและเรียงความ ในขณะที่คนอื่นๆ แย้งเรื่องการบูรณาการที่มีความรับผิดชอบและมีจริยธรรมของ AI ในการปฏิบัติงานด้านการศึกษา
การสำรวจที่จัดทำโดย Ucas Admissions Service พบว่า 53% ของนักเรียนใช้ Generative AI เพื่อเตรียมตัวสอบ อย่างไรก็ตาม ซอฟต์แวร์ตรวจจับ AI ในปัจจุบันไม่ประสบความสำเร็จอย่างมากในการตรวจจับเนื้อหาที่สร้างโดย AI โดยทิ้งความรับผิดชอบในการระบุแนวทางปฏิบัติในการโกงให้กับมนุษย์
ความไม่เพียงพอของซอฟต์แวร์ตรวจจับ AI
อัตราที่ต่ำของ "ผลบวกลวง" ที่เกิดจากซอฟต์แวร์ตรวจจับ AI ทำให้มหาวิทยาลัยลังเลที่จะกล่าวหานักศึกษาว่าโกง สิ่งนี้ทำให้เกิดภาระกับเครื่องหมายของมนุษย์ในการระบุเนื้อหาที่สร้างโดย AI ซึ่งยากขึ้นเรื่อย ๆ เมื่อ AI มีความซับซ้อนมากขึ้น
การศึกษาที่จัดทำโดยมหาวิทยาลัยรีดดิ้งแสดงให้เห็นว่าโปรเซสเซอร์ AI ในปัจจุบันผ่านการทดสอบ "การทดสอบทัวริง" ซึ่งหมายความว่าสามารถผ่านการทดสอบโดยผู้ตัดสินที่มีประสบการณ์ตรวจไม่พบ
เรียกร้องให้มหาวิทยาลัยยอมรับ AI อย่างมีจริยธรรม
ท่ามกลางความท้าทายที่เกิดจาก AI ในการประเมิน มีการเรียกร้องให้มหาวิทยาลัยใช้แนวทางเชิงรุกในการนำ AI มาใช้อย่างมีจริยธรรม
Russell Group ซึ่งรวมถึงมหาวิทยาลัยชั้นนำ เช่น Oxford, Cambridge และ University College London ให้คำมั่นที่จะอนุญาตให้ใช้ AI อย่างมีจริยธรรมในการสอนและการประเมินผล
ความเสี่ยงของการนั่งโต๊ะนักเรียนโดยใช้ AI
ความพร้อมใช้งานของเครื่องมือ AI ที่สามารถสร้างคำตอบและให้ความช่วยเหลือในงานต่างๆ อาจขัดขวางความสามารถของนักเรียนในการมีส่วนร่วมในการคิดอย่างมีวิจารณญาณ การวิเคราะห์ และการเขียนโดยไม่ได้รับความช่วยเหลือจาก AI
ศาสตราจารย์คาเรน หยาง เพื่อนกฎหมาย จริยธรรม และสารสนเทศที่มหาวิทยาลัยเบอร์มิงแฮม กล่าวว่าการอนุญาตให้ใช้ AI ในการสอบที่โรงเรียนและมหาวิทยาลัยอาจสร้างปัญหาในตัวนักเรียนเองในการ "เลิกเรียน"