OpenAI联合创始人兼前首席科学家 Ilya Sutskever 介绍了他的新 AI 初创公司 Safe Superintelligence(SSI)。
苏茨克弗是罢免OpenAI前首席执行官山姆·奥特曼的董事会成员之一。尽管苏茨克弗对自己在董事会行动中所扮演的角色表示遗憾,但他仍然致力于人工智能技术的发展及其造福社会的潜力。
公司结构和愿景
SSI 致力于通过单一焦点、一个目标和一个产品来追求安全的超级智能。Sutskever 对 SSI 的愿景是创建一个强大的 AI 系统,同时优先考虑安全性和保障性。
为了将他的愿景变成现实,Sutskever 与曾担任苹果公司 AI 主管之一的 Daniel Gross 以及前OpenAI技术人员的 Daniel Levy 进行了合作。
公告称,SSI 是一家“兼顾安全性和能力”的初创公司。与OpenAI 、 Google和微软等公司的许多 AI 团队不同,SSI 的专注度使其能够避免管理费用或产品周期的干扰。
OpenAI致力于开发安全的超级智能,不受短期财务动机的影响,这使其与众不同。虽然其他公司已经与苹果和微软等主要科技公司建立了合作伙伴关系,但与大型人工智能公司的合作可能还遥遥无期。
该公司致力于打造安全、强大的人工智能系统,这与确保负责任的人工智能发展的广泛努力相一致。随着人工智能技术不断发展并影响各个行业,SSI 的贡献将有助于制定安全标准和推动创新。