OpenAIの共同設立者で元主任科学者のイリヤ・スツケバー氏は、Safe Superintelligence(SSI)と呼ばれる新しいAIスタートアップ企業を紹介した。
サツケヴァー氏は、 OpenAI元CEOサム・アルトマン氏の解任に関わった取締役の一人だ。取締役会の行動における自身の役割について遺憾の意を表明しているものの、サツケヴァー氏はAI技術の開発とそれが社会にもたらす利益の可能性に引き続き尽力している。
会社の組織とビジョン
SSI は、1 つの焦点、1 つの目標、1 つの製品で安全なスーパーインテリジェンスを追求することを目指しています。Sutskever の SSI に対するビジョンは、安全性とセキュリティを優先しながら強力な AI システムを作成することです。
自身のビジョンを実現するために、スツケバー氏は、かつてアップルのAIリーダーだったダニエル・グロス氏と、かつてOpenAIの技術スタッフだったダニエル・レヴィ氏と提携した。
発表では、 SSI は「安全性と機能を並行して追求する」スタートアップ企業であると説明されている。OpenAI、 Google 、Microsoft など、外部からのプレッシャーに直面しなければならない他の企業の多くの AI チームとは異なり、SSI は焦点OpenAI一つに絞っているため、管理上の諸経費や製品サイクルによる混乱を避けることができる。
OpenAIは、短期的な金銭的動機に左右されることなく、安全なスーパーインテリジェンスを開発するという使命に専念しており、それが他社とは一線を画している。他の企業は Apple や Microsoft などの大手テクノロジー企業と提携しているが、巨大 AI 企業とのコラボレーションは当面は予定されていないかもしれない。
安全で強力な AI システムの構築に重点を置く同社の姿勢は、責任ある AI 開発を確実にするための幅広い取り組みと一致しています。AI テクノロジーが進化を続け、さまざまな業界に影響を与える中、SSI の貢献は安全基準の設定とイノベーションの推進に役立つでしょう。