Дом > Обнаружить > Бывший главный научный сотрудник OpenAI Илья Суцкевер запускает компанию Safe Superintelligence Inc.

Бывший главный научный сотрудник OpenAI Илья Суцкевер запускает компанию Safe Superintelligence Inc.

Написано
ArticleGPT

Проверено и проверено командой HIX.AI

2 минуты чтения8 days ago
Бывший главный научный сотрудник OpenAI Илья Суцкевер запускает компанию Safe Superintelligence Inc.

В двух словах

Соучредитель OpenAI Илья Суцкевер, покинувший в прошлом месяце стартап по искусственному интеллекту, объявил о создании новой компании в области искусственного интеллекта под названием Safe Superintelligence (SSI).

Илья Суцкевер, соучредитель и бывший главный научный сотрудник OpenAI , представил свой новый ИИ-стартап под названием Safe Superintelligence, или SSI.

Суцкевер был одним из членов совета директоров, стоящих за увольнением бывшего генерального директора OpenAI Сэма Альтмана. Несмотря на выражение сожаления по поводу своей роли в действиях совета директоров, Суцкевер по-прежнему привержен развитию технологий искусственного интеллекта и их потенциала на благо общества.

Структура и видение компании

SSI стремится развивать безопасный сверхинтеллект с единой целью, одной целью и одним продуктом. Видение Суцкевера для SSI — создать мощную систему искусственного интеллекта, уделяя при этом приоритет безопасности.

Чтобы воплотить свое видение в жизнь, Суцкевер сотрудничал с Дэниелом Гроссом, который ранее был одним из руководителей отдела искусственного интеллекта в Apple, и Дэниелом Леви, бывшим членом технического персонала OpenAI .

В объявлении SSI описывается как стартап, который «подходит к безопасности и возможностям в тандеме». В отличие от многих команд ИИ в других компаниях, таких как OpenAI , Google и Microsoft, которым приходится сталкиваться с внешним давлением, исключительная направленность SSI позволяет ей не отвлекаться на управленческие накладные расходы или циклы разработки продукта.

Преданность OpenAI своей миссии по разработке безопасного суперинтеллекта, не подверженного влиянию краткосрочных финансовых мотивов, выделяет ее среди других компаний. В то время как другие компании установили партнерские отношения с крупными технологическими игроками, такими как Apple и Microsoft, сотрудничество с гигантскими фирмами, занимающимися искусственным интеллектом, возможно, не появится на горизонте.

Акцент компании на создании безопасной и мощной системы искусственного интеллекта согласуется с более широкими усилиями по обеспечению ответственной разработки искусственного интеллекта. Поскольку технологии искусственного интеллекта продолжают развиваться и оказывать влияние на различные отрасли, вклад SSI будет способствовать установлению стандартов безопасности и стимулированию инноваций.

На основе поисковых источников: 3

3 источники

OpenAI co-founder Ilya Sutskever announces his new AI startup, Safe Superintelligence

OpenAI co-founder Ilya Sutskever, who left the artificial intelligence startup last month, introduced his new AI company, which he’s calling Safe Superintelligence, or SSI.

OpenAI’s former chief scientist is starting a new AI company

Ilya Sutskever is launching Safe Superintelligence Inc., an AI startup that will prioritize safety over ‘commercial pressures.’

OpenAI Co-Founder, Who Helped Oust Sam Altman, Starts His Own Company

Ilya Sutskever’s new start-up, Safe Superintelligence, aims to build A.I. technologies that are smarter than a human but not dangerous.

На этой странице

  • Структура и видение компании