Hjem > Opdage > Tidligere OpenAI Chief Scientist Ilya Sutskever lancerer Safe Superintelligence Inc.

Tidligere OpenAI Chief Scientist Ilya Sutskever lancerer Safe Superintelligence Inc.

Skrevet af
ArticleGPT

Gennemgået og faktatjekket af HIX.AI-teamet

2 min læst6 days ago
Tidligere OpenAI Chief Scientist Ilya Sutskever lancerer Safe Superintelligence Inc.

I en nøddeskal

OpenAI -medstifter Ilya Sutskever, der forlod opstarten af kunstig intelligens i sidste måned, annoncerede sit nye AI-firma ved navn Safe Superintelligence (SSI).

Ilya Sutskever, medstifter og tidligere chefforsker af OpenAI , introducerede sin nye AI-startup kaldet Safe Superintelligence eller SSI.

Sutskever var et af bestyrelsesmedlemmerne bag afsættelsen af den tidligere OpenAI CEO Sam Altman. På trods af at han har udtrykt beklagelse for sin rolle i bestyrelsens handlinger, forbliver Sutskever dedikeret til udviklingen af AI-teknologier og deres potentiale til gavn for samfundet.

Virksomhedens struktur og vision

SSI sigter mod at forfølge sikker superintelligens med et enestående fokus, ét mål og ét produkt. Sutskevers vision for SSI er at skabe et kraftfuldt AI-system og samtidig prioritere sikkerhed og tryghed.

For at bringe sin vision ud i livet, har Sutskever indgået et samarbejde med Daniel Gross, som tidligere var en af AI-lederne hos Apple, og Daniel Levy, et tidligere medlem af det tekniske personale hos OpenAI .

Meddelelsen beskriver SSI som en startup, der "tilnærmer sig sikkerhed og kapaciteter i tandem". I modsætning til mange AI-teams i andre virksomheder som OpenAI , Google og Microsoft, som er nødt til at møde pres udefra, gør SSI's enestående fokus det muligt at undgå distraktioner fra ledelsens overhead eller produktcyklusser.

OpenAI 's dedikation til sin mission om at udvikle sikker superintelligens, upåvirket af kortsigtede økonomiske motiver, adskiller det. Mens andre virksomheder har dannet partnerskaber med store teknologiske aktører som Apple og Microsoft, er samarbejder med gigantiske AI-virksomheder muligvis ikke lige i horisonten.

Virksomhedens vægt på at skabe et sikkert og kraftfuldt AI-system stemmer overens med en bredere indsats for at sikre ansvarlig AI-udvikling. Efterhånden som AI-teknologier fortsætter med at udvikle sig og påvirke forskellige industrier, vil SSI's bidrag være medvirkende til at sætte sikkerhedsstandarder og fremme innovation.

Baseret på 3 søgekilder

3 kilder

OpenAI co-founder Ilya Sutskever announces his new AI startup, Safe Superintelligence

OpenAI co-founder Ilya Sutskever, who left the artificial intelligence startup last month, introduced his new AI company, which he’s calling Safe Superintelligence, or SSI.

OpenAI’s former chief scientist is starting a new AI company

Ilya Sutskever is launching Safe Superintelligence Inc., an AI startup that will prioritize safety over ‘commercial pressures.’

OpenAI Co-Founder, Who Helped Oust Sam Altman, Starts His Own Company

Ilya Sutskever’s new start-up, Safe Superintelligence, aims to build A.I. technologies that are smarter than a human but not dangerous.

På denne side

  • Virksomhedens struktur og vision