Ilya Sutskever, medgründer og tidligere sjefforsker av OpenAI , introduserte sin nye AI-oppstart kalt Safe Superintelligence, eller SSI.
Sutskever var et av styremedlemmene bak avsettingen av tidligere OpenAI sjef Sam Altman. Til tross for at han beklaget sin rolle i styrets handlinger, er Sutskever fortsatt dedikert til utviklingen av AI-teknologier og deres potensiale til å være til nytte for samfunnet.
Bedriftsstruktur og visjon
SSI har som mål å forfølge sikker superintelligens med et enkelt fokus, ett mål og ett produkt. Sutskevers visjon for SSI er å skape et kraftig AI-system samtidig som sikkerhet og sikkerhet prioriteres.
For å bringe sin visjon ut i livet, har Sutskever inngått samarbeid med Daniel Gross, som tidligere var en av AI-lederne hos Apple, og Daniel Levy, et tidligere medlem av den tekniske staben hos OpenAI .
Kunngjøringen beskriver SSI som en oppstart som "tilnærmer seg sikkerhet og evner i tandem". I motsetning til mange AI-team i andre selskaper som OpenAI , Google og Microsoft som må møte press utenfra, gjør SSIs enestående fokus det mulig å unngå distraksjoner fra ledelsens overhead eller produktsykluser.
OpenAI dedikasjon til sitt oppdrag med å utvikle sikker superintelligens, upåvirket av kortsiktige økonomiske motiver, skiller den fra hverandre. Mens andre selskaper har dannet partnerskap med store teknologiaktører som Apple og Microsoft, kan det hende at samarbeid med gigantiske AI-firmaer ikke er i horisonten.
Selskapets vekt på å skape et trygt og kraftig AI-system er i tråd med bredere innsats for å sikre ansvarlig AI-utvikling. Ettersom AI-teknologier fortsetter å utvikle seg og påvirke ulike bransjer, vil SSIs bidrag være medvirkende til å sette sikkerhetsstandarder og drive innovasjon.