Dom > Odkryć > Były główny naukowiec OpenAI Ilya Sutskever uruchamia firmę Safe Superintelligence Inc.

Były główny naukowiec OpenAI Ilya Sutskever uruchamia firmę Safe Superintelligence Inc.

Scenariusz
ArticleGPT

Sprawdzone i sprawdzone przez zespół HIX.AI

2 minuty czytania8 days ago
Były główny naukowiec OpenAI Ilya Sutskever uruchamia firmę Safe Superintelligence Inc.

W skrócie

Współzałożyciel OpenAI , Ilya Sutskever, który w zeszłym miesiącu odszedł ze startupu zajmującego się sztuczną inteligencją, ogłosił utworzenie nowej firmy zajmującej się sztuczną inteligencją o nazwie Safe Superintelligence (SSI).

Ilya Sutskever, współzałożyciel i były główny naukowiec OpenAI , przedstawił swój nowy startup AI o nazwie Safe Superintelligence, w skrócie SSI.

Sutskever był jednym z członków zarządu stojących za usunięciem byłego dyrektora generalnego OpenAI Sama Altmana. Pomimo wyrażenia ubolewania z powodu swojej roli w działaniach zarządu, Sutskever pozostaje oddany rozwojowi technologii sztucznej inteligencji i ich potencjału przynoszącego korzyści społeczeństwu.

Struktura i wizja firmy

SSI dąży do opracowania bezpiecznej superinteligencji, koncentrując się na jednym celu i jednym produkcie. Wizją Sutskevera dla SSI jest stworzenie potężnego systemu sztucznej inteligencji, przy jednoczesnym priorytetowym traktowaniu bezpieczeństwa i ochrony.

Aby wcielić swoją wizję w życie, Sutskever nawiązał współpracę z Danielem Grossem, który wcześniej był jednym z liderów AI w Apple, oraz Danielem Levym, byłym członkiem personelu technicznego w OpenAI .

W ogłoszeniu opisano SSI jako startup, który „w tandemie łączy bezpieczeństwo i możliwości”. W przeciwieństwie do wielu zespołów zajmujących się sztuczną inteligencją w innych firmach, takich jak OpenAI , Google i Microsoft, które muszą stawić czoła presji zewnętrznej, SSI skupia się wyłącznie na tym, aby uniknąć odwracania uwagi od kosztów ogólnych zarządzania lub cyklów produktów.

Wyróżnia ją zaangażowanie OpenAI w misję rozwijania bezpiecznej superinteligencji, na którą nie mają wpływu krótkoterminowe motywy finansowe. Podczas gdy inne firmy nawiązały współpracę z głównymi graczami technologicznymi, takimi jak Apple i Microsoft, współpraca z gigantycznymi firmami zajmującymi się sztuczną inteligencją może nie pojawiać się na horyzoncie.

Nacisk firmy na stworzenie bezpiecznego i wydajnego systemu sztucznej inteligencji pokrywa się z szerszymi wysiłkami na rzecz zapewnienia odpowiedzialnego rozwoju sztucznej inteligencji. Ponieważ technologie sztucznej inteligencji stale ewoluują i wywierają wpływ na różne branże, wkład SSI odegra zasadniczą rolę w ustalaniu standardów bezpieczeństwa i stymulowaniu innowacji.

Na podstawie 3 źródeł wyszukiwania

3 źródła

OpenAI co-founder Ilya Sutskever announces his new AI startup, Safe Superintelligence

OpenAI co-founder Ilya Sutskever, who left the artificial intelligence startup last month, introduced his new AI company, which he’s calling Safe Superintelligence, or SSI.

OpenAI’s former chief scientist is starting a new AI company

Ilya Sutskever is launching Safe Superintelligence Inc., an AI startup that will prioritize safety over ‘commercial pressures.’

OpenAI Co-Founder, Who Helped Oust Sam Altman, Starts His Own Company

Ilya Sutskever’s new start-up, Safe Superintelligence, aims to build A.I. technologies that are smarter than a human but not dangerous.

Na tej stronie

  • Struktura i wizja firmy