บ้าน > ค้นพบ > Ilya Sutskever อดีตหัวหน้านักวิทยาศาสตร์ OpenAI เปิดตัว Safe Superintelligence Inc.

Ilya Sutskever อดีตหัวหน้านักวิทยาศาสตร์ OpenAI เปิดตัว Safe Superintelligence Inc.

เขียนโดย
ArticleGPT

ตรวจสอบและตรวจสอบข้อเท็จจริงโดย ทีมงาน HIX.AI

อ่าน 2 นาที8 days ago
Ilya Sutskever อดีตหัวหน้านักวิทยาศาสตร์ OpenAI เปิดตัว Safe Superintelligence Inc.

โดยสังเขป

Ilya Sutskever ผู้ร่วมก่อตั้ง OpenAI ซึ่งลาออกจากสตาร์ทอัพด้านปัญญาประดิษฐ์เมื่อเดือนที่แล้ว ได้ประกาศบริษัท AI แห่งใหม่ของเขาชื่อ Safe Superintelligence (SSI)

Ilya Sutskever ผู้ร่วมก่อตั้งและอดีตหัวหน้านักวิทยาศาสตร์ของ OpenAI เปิดตัวสตาร์ทอัพ AI ใหม่ของเขาชื่อ Safe Superintelligence หรือ SSI

Sutskever เป็นหนึ่งในสมาชิกคณะกรรมการที่อยู่เบื้องหลังการขับไล่อดีต CEO OpenAI Sam Altman แม้จะแสดงความเสียใจต่อบทบาทของเขาในการดำเนินการของคณะกรรมการ แต่ Sutskever ยังคงทุ่มเทให้กับการพัฒนาเทคโนโลยี AI และศักยภาพในการสร้างประโยชน์ต่อสังคม

โครงสร้างและวิสัยทัศน์ของบริษัท

SSI มุ่งหวังที่จะแสวงหาสติปัญญาขั้นสูงที่ปลอดภัยโดยมีเป้าหมายเดียว เป้าหมายเดียว และผลิตภัณฑ์เดียว วิสัยทัศน์ของ Sutskever สำหรับ SSI คือการสร้างระบบ AI ที่ทรงพลังโดยให้ความสำคัญกับความปลอดภัยและการรักษาความปลอดภัย

เพื่อให้วิสัยทัศน์ของเขาเป็นจริง Sutskever ได้ร่วมมือกับ Daniel Gross ซึ่งก่อนหน้านี้เคยเป็นหนึ่งในหัวหน้าฝ่าย AI ที่ Apple และ Daniel Levy อดีตสมาชิกเจ้าหน้าที่ด้านเทคนิคของ OpenAI

ประกาศดังกล่าว ระบุว่า SSI เป็นสตาร์ทอัพที่ “เข้าถึงความปลอดภัยและความสามารถควบคู่กัน” แตกต่างจากทีม AI จำนวนมากในบริษัทอื่นๆ เช่น OpenAI , Google และ Microsoft ที่ต้องเผชิญกับแรงกดดันจากภายนอก การมุ่งเน้นเฉพาะตัวของ SSI ช่วยให้หลีกเลี่ยงการรบกวนจากค่าใช้จ่ายในการจัดการหรือวงจรผลิตภัณฑ์

การอุทิศตนของ OpenAI ต่อภารกิจในการพัฒนาสติปัญญาขั้นสูงที่ปลอดภัย ซึ่งไม่ได้รับอิทธิพลจากแรงจูงใจทางการเงินในระยะสั้น ทำให้ OpenAI มีความโดดเด่น ในขณะที่บริษัทอื่นๆ ได้สร้างความร่วมมือกับผู้เล่นเทคโนโลยีรายใหญ่อย่าง Apple และ Microsoft แต่ความร่วมมือกับบริษัท AI ยักษ์ใหญ่อาจยังไม่เกิดขึ้นในอนาคต

การให้ความสำคัญกับการสร้างระบบ AI ที่ปลอดภัยและมีประสิทธิภาพของบริษัทนั้น สอดคล้องกับความพยายามในวงกว้างเพื่อให้แน่ใจว่าการพัฒนา AI อย่างมีความรับผิดชอบ เนื่องจากเทคโนโลยี AI ยังคงพัฒนาอย่างต่อเนื่องและส่งผลกระทบต่ออุตสาหกรรมต่างๆ การมีส่วนร่วมของ SSI จะเป็นเครื่องมือในการกำหนดมาตรฐานความปลอดภัยและขับเคลื่อนนวัตกรรม

อิงตามแหล่งค้นหา 3

3 แหล่งที่มา

OpenAI co-founder Ilya Sutskever announces his new AI startup, Safe Superintelligence

OpenAI co-founder Ilya Sutskever, who left the artificial intelligence startup last month, introduced his new AI company, which he’s calling Safe Superintelligence, or SSI.

OpenAI’s former chief scientist is starting a new AI company

Ilya Sutskever is launching Safe Superintelligence Inc., an AI startup that will prioritize safety over ‘commercial pressures.’

OpenAI Co-Founder, Who Helped Oust Sam Altman, Starts His Own Company

Ilya Sutskever’s new start-up, Safe Superintelligence, aims to build A.I. technologies that are smarter than a human but not dangerous.

บนหน้านี้

  • โครงสร้างและวิสัยทัศน์ของบริษัท