Thuis > Ontdekken > Voormalig OpenAI hoofdwetenschapper Ilya Sutskever lanceert Safe Superintelligence Inc.

Voormalig OpenAI hoofdwetenschapper Ilya Sutskever lanceert Safe Superintelligence Inc.

Geschreven door
ArticleGPT

Beoordeeld en op feiten gecontroleerd door het HIX.AI-team

2 minuten lezen8 days ago
Voormalig OpenAI hoofdwetenschapper Ilya Sutskever lanceert Safe Superintelligence Inc.

In een notendop

Mede-oprichter OpenAI Ilya Sutskever, die vorige maand vertrok bij de startup voor kunstmatige intelligentie, kondigde zijn nieuwe AI-bedrijf aan, genaamd Safe Superintelligence (SSI).

Ilya Sutskever, de mede-oprichter en voormalig hoofdwetenschapper van OpenAI , introduceerde zijn nieuwe AI-startup genaamd Safe Superintelligence, of SSI.

Sutskever was een van de bestuursleden achter de afzetting van voormalig OpenAI CEO Sam Altman. Ondanks dat hij spijt betuigt voor zijn rol in de acties van het bestuur, blijft Sutskever toegewijd aan de ontwikkeling van AI-technologieën en hun potentieel om de samenleving ten goede te komen.

Bedrijfsstructuur en visie

SSI streeft naar veilige superintelligentie met een unieke focus, één doel en één product. De visie van Sutskever voor SSI is het creëren van een krachtig AI-systeem, waarbij veiligheid en beveiliging voorop staan.

Om zijn visie tot leven te brengen, heeft Sutskever samengewerkt met Daniel Gross, voorheen een van de AI-leiders bij Apple, en Daniel Levy, een voormalig lid van de technische staf bij OpenAI .

De aankondiging beschrijft SSI als een startup die “veiligheid en mogelijkheden in tandem benadert”. In tegenstelling tot veel AI-teams in andere bedrijven zoals OpenAI , Google en Microsoft, die te maken hebben met druk van buitenaf, zorgt de unieke focus van SSI ervoor dat afleiding door managementoverhead of productcycli wordt vermeden.

OpenAI 's toewijding aan zijn missie om veilige superintelligentie te ontwikkelen, niet beïnvloed door financiële kortetermijnmotieven, onderscheidt het bedrijf. Terwijl andere bedrijven partnerschappen zijn aangegaan met grote technologiespelers als Apple en Microsoft, liggen samenwerkingen met gigantische AI-bedrijven misschien niet in het verschiet.

De nadruk van het bedrijf op het creëren van een veilig en krachtig AI-systeem sluit aan bij bredere inspanningen om een verantwoorde AI-ontwikkeling te garanderen. Terwijl AI-technologieën zich blijven ontwikkelen en verschillende industrieën beïnvloeden, zullen de bijdragen van SSI een belangrijke rol spelen bij het vaststellen van veiligheidsnormen en het stimuleren van innovatie.

Gebaseerd op 3 zoekbronnen

3 bronnen

OpenAI co-founder Ilya Sutskever announces his new AI startup, Safe Superintelligence

OpenAI co-founder Ilya Sutskever, who left the artificial intelligence startup last month, introduced his new AI company, which he’s calling Safe Superintelligence, or SSI.

OpenAI’s former chief scientist is starting a new AI company

Ilya Sutskever is launching Safe Superintelligence Inc., an AI startup that will prioritize safety over ‘commercial pressures.’

OpenAI Co-Founder, Who Helped Oust Sam Altman, Starts His Own Company

Ilya Sutskever’s new start-up, Safe Superintelligence, aims to build A.I. technologies that are smarter than a human but not dangerous.

Op deze pagina

  • Bedrijfsstructuur en visie