Ilya Sutskever ผู้ร่วมก่อตั้งและอดีตหัวหน้านักวิทยาศาสตร์ของ OpenAI เปิดตัวสตาร์ทอัพ AI ใหม่ของเขาชื่อ Safe Superintelligence หรือ SSI
Sutskever เป็นหนึ่งในสมาชิกคณะกรรมการที่อยู่เบื้องหลังการขับไล่อดีต CEO OpenAI Sam Altman แม้จะแสดงความเสียใจต่อบทบาทของเขาในการดำเนินการของคณะกรรมการ แต่ Sutskever ยังคงทุ่มเทให้กับการพัฒนาเทคโนโลยี AI และศักยภาพในการสร้างประโยชน์ต่อสังคม
โครงสร้างและวิสัยทัศน์ของบริษัท
SSI มุ่งหวังที่จะแสวงหาสติปัญญาขั้นสูงที่ปลอดภัยโดยมีเป้าหมายเดียว เป้าหมายเดียว และผลิตภัณฑ์เดียว วิสัยทัศน์ของ Sutskever สำหรับ SSI คือการสร้างระบบ AI ที่ทรงพลังโดยให้ความสำคัญกับความปลอดภัยและการรักษาความปลอดภัย
เพื่อให้วิสัยทัศน์ของเขาเป็นจริง Sutskever ได้ร่วมมือกับ Daniel Gross ซึ่งก่อนหน้านี้เคยเป็นหนึ่งในหัวหน้าฝ่าย AI ที่ Apple และ Daniel Levy อดีตสมาชิกเจ้าหน้าที่ด้านเทคนิคของ OpenAI
ประกาศดังกล่าว ระบุว่า SSI เป็นสตาร์ทอัพที่ “เข้าถึงความปลอดภัยและความสามารถควบคู่กัน” แตกต่างจากทีม AI จำนวนมากในบริษัทอื่นๆ เช่น OpenAI , Google และ Microsoft ที่ต้องเผชิญกับแรงกดดันจากภายนอก การมุ่งเน้นเฉพาะตัวของ SSI ช่วยให้หลีกเลี่ยงการรบกวนจากค่าใช้จ่ายในการจัดการหรือวงจรผลิตภัณฑ์
การอุทิศตนของ OpenAI ต่อภารกิจในการพัฒนาสติปัญญาขั้นสูงที่ปลอดภัย ซึ่งไม่ได้รับอิทธิพลจากแรงจูงใจทางการเงินในระยะสั้น ทำให้ OpenAI มีความโดดเด่น ในขณะที่บริษัทอื่นๆ ได้สร้างความร่วมมือกับผู้เล่นเทคโนโลยีรายใหญ่อย่าง Apple และ Microsoft แต่ความร่วมมือกับบริษัท AI ยักษ์ใหญ่อาจยังไม่เกิดขึ้นในอนาคต
การให้ความสำคัญกับการสร้างระบบ AI ที่ปลอดภัยและมีประสิทธิภาพของบริษัทนั้น สอดคล้องกับความพยายามในวงกว้างเพื่อให้แน่ใจว่าการพัฒนา AI อย่างมีความรับผิดชอบ เนื่องจากเทคโนโลยี AI ยังคงพัฒนาอย่างต่อเนื่องและส่งผลกระทบต่ออุตสาหกรรมต่างๆ การมีส่วนร่วมของ SSI จะเป็นเครื่องมือในการกำหนดมาตรฐานความปลอดภัยและขับเคลื่อนนวัตกรรม