OpenAI聯合創始人兼前首席科學家 Ilya Sutskever 介紹了他的新人工智慧新創公司 Safe Superintelligence(SSI)。
Sutskever 是罷免OpenAI前執行長 Sam Altman 的董事會成員之一。儘管 Sutskever 對自己在董事會行動中所扮演的角色表示遺憾,但他仍然致力於人工智慧技術的發展及其造福社會的潛力。
公司架構與願景
SSI 旨在以單一焦點、一個目標和一種產品追求安全的超級智慧。 Sutskever 對 SSI 的願景是創建一個強大的人工智慧系統,同時優先考慮安全性。
為了實現他的願景,Sutskever 與 Apple 人工智慧主管之一 Daniel Gross 和OpenAI前技術人員 Daniel Levy 合作。
該公告將 SSI 描述為一家「同時兼顧安全性和能力」的新創公司。與OpenAI 、 Google和微軟等其他公司的許多人工智慧團隊必須面對外部壓力不同,SSI 的單一重點使其能夠避免管理費用或產品週期的干擾。
OpenAI致力於開發安全的超級智能,不受短期財務動機的影響,這使其與眾不同。雖然其他公司已經與蘋果和微軟等主要科技公司建立了合作關係,但與人工智慧巨頭的合作可能還不會出現。
該公司對創建安全、強大的人工智慧系統的重視與確保負責任的人工智慧開發的更廣泛努力相一致。隨著人工智慧技術不斷發展並影響各個行業,SSI 的貢獻將有助於制定安全標準並推動創新。