Ilya Sutskever, cofundador e ex-cientista-chefe da OpenAI , apresentou sua nova startup de IA chamada Safe Superintelligence, ou SSI.
Sutskever foi um dos membros do conselho por trás da demissão do ex-CEO OpenAI Sam Altman. Apesar de expressar pesar pelo seu papel nas ações do conselho, Sutskever continua dedicado ao desenvolvimento de tecnologias de IA e ao seu potencial para beneficiar a sociedade.
Estrutura e Visão da Empresa
A SSI visa buscar uma superinteligência segura com um foco único, um objetivo e um produto. A visão da Sutskever para a SSI é criar um sistema de IA poderoso, priorizando a segurança e a proteção.
Para dar vida à sua visão, Sutskever fez parceria com Daniel Gross, que anteriormente foi um dos líderes de IA da Apple, e Daniel Levy, ex-membro da equipe técnica da OpenAI .
O anúncio descreve a SSI como uma startup que “aborda segurança e capacidades em conjunto”. Ao contrário de muitas equipes de IA em outras empresas como OpenAI , Google e Microsoft, que enfrentam pressão externa, o foco singular da SSI permite evitar distrações decorrentes de despesas gerais de gerenciamento ou de ciclos de produtos.
A dedicação da OpenAI à sua missão de desenvolver superinteligência segura, não influenciada por motivos financeiros de curto prazo, distingue-a. Embora outras empresas tenham formado parcerias com grandes players de tecnologia como Apple e Microsoft, colaborações com empresas gigantes de IA podem não estar no horizonte.
A ênfase da empresa na criação de um sistema de IA seguro e poderoso alinha-se com esforços mais amplos para garantir o desenvolvimento responsável da IA. À medida que as tecnologias de IA continuam a evoluir e a impactar várias indústrias, as contribuições da SSI serão fundamentais para estabelecer padrões de segurança e impulsionar a inovação.