Ilya Sutskever, de mede-oprichter en voormalig hoofdwetenschapper van OpenAI , introduceerde zijn nieuwe AI-startup genaamd Safe Superintelligence, of SSI.
Sutskever was een van de bestuursleden achter de afzetting van voormalig OpenAI CEO Sam Altman. Ondanks dat hij spijt betuigt voor zijn rol in de acties van het bestuur, blijft Sutskever toegewijd aan de ontwikkeling van AI-technologieën en hun potentieel om de samenleving ten goede te komen.
Bedrijfsstructuur en visie
SSI streeft naar veilige superintelligentie met een unieke focus, één doel en één product. De visie van Sutskever voor SSI is het creëren van een krachtig AI-systeem, waarbij veiligheid en beveiliging voorop staan.
Om zijn visie tot leven te brengen, heeft Sutskever samengewerkt met Daniel Gross, voorheen een van de AI-leiders bij Apple, en Daniel Levy, een voormalig lid van de technische staf bij OpenAI .
De aankondiging beschrijft SSI als een startup die “veiligheid en mogelijkheden in tandem benadert”. In tegenstelling tot veel AI-teams in andere bedrijven zoals OpenAI , Google en Microsoft, die te maken hebben met druk van buitenaf, zorgt de unieke focus van SSI ervoor dat afleiding door managementoverhead of productcycli wordt vermeden.
OpenAI 's toewijding aan zijn missie om veilige superintelligentie te ontwikkelen, niet beïnvloed door financiële kortetermijnmotieven, onderscheidt het bedrijf. Terwijl andere bedrijven partnerschappen zijn aangegaan met grote technologiespelers als Apple en Microsoft, liggen samenwerkingen met gigantische AI-bedrijven misschien niet in het verschiet.
De nadruk van het bedrijf op het creëren van een veilig en krachtig AI-systeem sluit aan bij bredere inspanningen om een verantwoorde AI-ontwikkeling te garanderen. Terwijl AI-technologieën zich blijven ontwikkelen en verschillende industrieën beïnvloeden, zullen de bijdragen van SSI een belangrijke rol spelen bij het vaststellen van veiligheidsnormen en het stimuleren van innovatie.