Hjem > Oppdage > Tidligere OpenAI sjefforsker Ilya Sutskever lanserer Safe Superintelligence Inc.

Tidligere OpenAI sjefforsker Ilya Sutskever lanserer Safe Superintelligence Inc.

Skrevet av
ArticleGPT

Gjennomgått og faktasjekket av HIX.AI-teamet

2 min lesing8 days ago
Tidligere OpenAI sjefforsker Ilya Sutskever lanserer Safe Superintelligence Inc.

I et nøtteskall

OpenAI -medgründer Ilya Sutskever, som dro fra oppstarten av kunstig intelligens forrige måned, annonserte sitt nye AI-selskap, kalt Safe Superintelligence (SSI).

Ilya Sutskever, medgründer og tidligere sjefforsker av OpenAI , introduserte sin nye AI-oppstart kalt Safe Superintelligence, eller SSI.

Sutskever var et av styremedlemmene bak avsettingen av tidligere OpenAI sjef Sam Altman. Til tross for at han beklaget sin rolle i styrets handlinger, er Sutskever fortsatt dedikert til utviklingen av AI-teknologier og deres potensiale til å være til nytte for samfunnet.

Bedriftsstruktur og visjon

SSI har som mål å forfølge sikker superintelligens med et enkelt fokus, ett mål og ett produkt. Sutskevers visjon for SSI er å skape et kraftig AI-system samtidig som sikkerhet og sikkerhet prioriteres.

For å bringe sin visjon ut i livet, har Sutskever inngått samarbeid med Daniel Gross, som tidligere var en av AI-lederne hos Apple, og Daniel Levy, et tidligere medlem av den tekniske staben hos OpenAI .

Kunngjøringen beskriver SSI som en oppstart som "tilnærmer seg sikkerhet og evner i tandem". I motsetning til mange AI-team i andre selskaper som OpenAI , Google og Microsoft som må møte press utenfra, gjør SSIs enestående fokus det mulig å unngå distraksjoner fra ledelsens overhead eller produktsykluser.

OpenAI dedikasjon til sitt oppdrag med å utvikle sikker superintelligens, upåvirket av kortsiktige økonomiske motiver, skiller den fra hverandre. Mens andre selskaper har dannet partnerskap med store teknologiaktører som Apple og Microsoft, kan det hende at samarbeid med gigantiske AI-firmaer ikke er i horisonten.

Selskapets vekt på å skape et trygt og kraftig AI-system er i tråd med bredere innsats for å sikre ansvarlig AI-utvikling. Ettersom AI-teknologier fortsetter å utvikle seg og påvirke ulike bransjer, vil SSIs bidrag være medvirkende til å sette sikkerhetsstandarder og drive innovasjon.

Basert på 3 søkekilder

3 kilder

OpenAI co-founder Ilya Sutskever announces his new AI startup, Safe Superintelligence

OpenAI co-founder Ilya Sutskever, who left the artificial intelligence startup last month, introduced his new AI company, which he’s calling Safe Superintelligence, or SSI.

OpenAI’s former chief scientist is starting a new AI company

Ilya Sutskever is launching Safe Superintelligence Inc., an AI startup that will prioritize safety over ‘commercial pressures.’

OpenAI Co-Founder, Who Helped Oust Sam Altman, Starts His Own Company

Ilya Sutskever’s new start-up, Safe Superintelligence, aims to build A.I. technologies that are smarter than a human but not dangerous.

På denne siden

  • Bedriftsstruktur og visjon