Ilya Sutskever, medstifter og tidligere chefforsker af OpenAI , introducerede sin nye AI-startup kaldet Safe Superintelligence eller SSI.
Sutskever var et af bestyrelsesmedlemmerne bag afsættelsen af den tidligere OpenAI CEO Sam Altman. På trods af at han har udtrykt beklagelse for sin rolle i bestyrelsens handlinger, forbliver Sutskever dedikeret til udviklingen af AI-teknologier og deres potentiale til gavn for samfundet.
Virksomhedens struktur og vision
SSI sigter mod at forfølge sikker superintelligens med et enestående fokus, ét mål og ét produkt. Sutskevers vision for SSI er at skabe et kraftfuldt AI-system og samtidig prioritere sikkerhed og tryghed.
For at bringe sin vision ud i livet, har Sutskever indgået et samarbejde med Daniel Gross, som tidligere var en af AI-lederne hos Apple, og Daniel Levy, et tidligere medlem af det tekniske personale hos OpenAI .
Meddelelsen beskriver SSI som en startup, der "tilnærmer sig sikkerhed og kapaciteter i tandem". I modsætning til mange AI-teams i andre virksomheder som OpenAI , Google og Microsoft, som er nødt til at møde pres udefra, gør SSI's enestående fokus det muligt at undgå distraktioner fra ledelsens overhead eller produktcyklusser.
OpenAI 's dedikation til sin mission om at udvikle sikker superintelligens, upåvirket af kortsigtede økonomiske motiver, adskiller det. Mens andre virksomheder har dannet partnerskaber med store teknologiske aktører som Apple og Microsoft, er samarbejder med gigantiske AI-virksomheder muligvis ikke lige i horisonten.
Virksomhedens vægt på at skabe et sikkert og kraftfuldt AI-system stemmer overens med en bredere indsats for at sikre ansvarlig AI-udvikling. Efterhånden som AI-teknologier fortsætter med at udvikle sig og påvirke forskellige industrier, vil SSI's bidrag være medvirkende til at sætte sikkerhedsstandarder og fremme innovation.