ホーム > 発見する > 元OpenAI主任科学者 Ilya Sutskever 氏が Safe Superintelligence Inc. を設立

元OpenAI主任科学者 Ilya Sutskever 氏が Safe Superintelligence Inc. を設立

によって書かれた
ArticleGPT

HIX.AI チーム によるレビューと事実確認済み

4分で読む8 days ago
元OpenAI主任科学者 Ilya Sutskever 氏が Safe Superintelligence Inc. を設立

一言で言えば

先月人工知能スタートアップ企業OpenAIを退社した共同設立者のイリヤ・スツケバー氏は、Safe Superintelligence(SSI)と名付けた新しいAI企業を発表した。

OpenAIの共同設立者で元主任科学者のイリヤ・スツケバー氏は、Safe Superintelligence(SSI)と呼ばれる新しいAIスタートアップ企業を紹介した。

サツケヴァー氏は、 OpenAI元CEOサム・アルトマン氏の解任に関わった取締役の一人だ。取締役会の行動における自身の役割について遺憾の意を表明しているものの、サツケヴァー氏はAI技術の開発とそれが社会にもたらす利益の可能性に引き続き尽力している。

会社の組織とビジョン

SSI は、1 つの焦点、1 つの目標、1 つの製品で安全なスーパーインテリジェンスを追求することを目指しています。Sutskever の SSI に対するビジョンは、安全性とセキュリティを優先しながら強力な AI システムを作成することです。

自身のビジョンを実現するために、スツケバー氏は、かつてアップルのAIリーダーだったダニエル・グロス氏と、かつてOpenAIの技術スタッフだったダニエル・レヴィ氏と提携した。

発表では、 SSI は「安全性と機能を並行して追求する」スタートアップ企業であると説明されている。OpenAI、 Google 、Microsoft など、外部からのプレッシャーに直面しなければならない他の企業の多くの AI チームとは異なり、SSI は焦点OpenAI一つに絞っているため、管理上の諸経費や製品サイクルによる混乱を避けることができる。

OpenAIは、短期的な金銭的動機に左右されることなく、安全なスーパーインテリジェンスを開発するという使命に専念しており、それが他社とは一線を画している。他の企業は Apple や Microsoft などの大手テクノロジー企業と提携しているが、巨大 AI 企業とのコラボレーションは当面は予定されていないかもしれない。

安全で強力な AI システムの構築に重点を置く同社の姿勢は、責任ある AI 開発を確実にするための幅広い取り組みと一致しています。AI テクノロジーが進化を続け、さまざまな業界に影響を与える中、SSI の貢献は安全基準の設定とイノベーションの推進に役立つでしょう。

3 個の検索ソースに基づく

3 ソース

OpenAI co-founder Ilya Sutskever announces his new AI startup, Safe Superintelligence

OpenAI co-founder Ilya Sutskever, who left the artificial intelligence startup last month, introduced his new AI company, which he’s calling Safe Superintelligence, or SSI.

OpenAI’s former chief scientist is starting a new AI company

Ilya Sutskever is launching Safe Superintelligence Inc., an AI startup that will prioritize safety over ‘commercial pressures.’

OpenAI Co-Founder, Who Helped Oust Sam Altman, Starts His Own Company

Ilya Sutskever’s new start-up, Safe Superintelligence, aims to build A.I. technologies that are smarter than a human but not dangerous.

このページについて

  • 会社の組織とビジョン