> 발견하다 > 전 OpenAI 수석 과학자 Ilya Sutskever, Safe Superintelligence Inc. 출시

전 OpenAI 수석 과학자 Ilya Sutskever, Safe Superintelligence Inc. 출시

작성자:
ArticleGPT

HIX.AI 팀의 검토 및 사실 확인

4분 읽기8 days ago
전 OpenAI 수석 과학자 Ilya Sutskever, Safe Superintelligence Inc. 출시

간단히 말해서

지난달 인공지능 스타트업을 떠난 OpenAI 공동창업자 일리야 수츠케버(Ilya Sutskever)는 SSI(Safe Superintelligence)라는 새로운 AI 회사를 발표했다.

OpenAI 의 공동 창립자이자 전 수석 과학자인 Ilya Sutskever는 Safe Superintelligence(SSI)라는 새로운 AI 스타트업을 소개했습니다.

Sutskever는 전 OpenAI CEO인 Sam Altman을 축출한 데 이은 이사회 구성원 중 한 명이었습니다. 이사회 활동에서 자신의 역할에 대해 유감을 표명했음에도 불구하고 Sutskever는 AI 기술 개발과 사회에 도움이 될 잠재력에 전념하고 있습니다.

회사 구조 및 비전

SSI는 하나의 초점, 하나의 목표, 하나의 제품으로 안전한 초지능을 추구하는 것을 목표로 합니다. SSI에 대한 Sutskever의 비전은 안전과 보안을 우선시하면서 강력한 AI 시스템을 만드는 것입니다.

자신의 비전을 실현하기 위해 Sutskever는 이전에 Apple의 AI 리더 중 한 명이었던 Daniel Gross 및 전 OpenAI 기술 직원이었던 Daniel Levy와 파트너십을 맺었습니다.

발표에서는 SSI를 "안전과 기능을 동시에 접근하는" 스타트업으로 설명합니다. 외부 압력에 직면해야 하는 OpenAI , Google , Microsoft와 같은 다른 회사의 많은 AI 팀과 달리 SSI의 단일 초점을 통해 관리 오버헤드나 제품 주기로 인한 방해를 피할 수 있습니다.

단기적인 재정적 동기에 영향을 받지 않고 안전한 초지능을 개발한다는 사명에 대한 OpenAI 의 헌신은 OpenAI를 차별화합니다. 다른 기업들이 Apple 및 Microsoft와 같은 주요 기술 기업과 파트너십을 맺었지만 거대 AI 기업과의 협력은 실현되지 않을 수도 있습니다.

안전하고 강력한 AI 시스템 구축에 대한 회사의 강조는 책임감 있는 AI 개발을 보장하려는 광범위한 노력과 일치합니다. AI 기술이 계속 발전하고 다양한 산업에 영향을 미치면서 SSI의 기여는 안전 표준을 설정하고 혁신을 주도하는 데 중요한 역할을 할 것입니다.

3개의 검색 소스를 기반으로 함

3 출처

OpenAI co-founder Ilya Sutskever announces his new AI startup, Safe Superintelligence

OpenAI co-founder Ilya Sutskever, who left the artificial intelligence startup last month, introduced his new AI company, which he’s calling Safe Superintelligence, or SSI.

OpenAI’s former chief scientist is starting a new AI company

Ilya Sutskever is launching Safe Superintelligence Inc., an AI startup that will prioritize safety over ‘commercial pressures.’

OpenAI Co-Founder, Who Helped Oust Sam Altman, Starts His Own Company

Ilya Sutskever’s new start-up, Safe Superintelligence, aims to build A.I. technologies that are smarter than a human but not dangerous.

이 페이지에서

  • 회사 구조 및 비전