Ilya Sutskever, cofundador y ex científico jefe de OpenAI , presentó su nueva startup de IA llamada Safe Superintelligence o SSI.
Sutskever fue uno de los miembros de la junta detrás del derrocamiento del ex director ejecutivo OpenAI Sam Altman. A pesar de lamentar su papel en las acciones de la junta, Sutskever sigue dedicado al desarrollo de tecnologías de inteligencia artificial y su potencial para beneficiar a la sociedad.
Estructura y visión de la empresa
SSI tiene como objetivo lograr una superinteligencia segura con un enfoque singular, un objetivo y un producto. La visión de Sutskever para SSI es crear un potente sistema de inteligencia artificial y al mismo tiempo priorizar la seguridad.
Para hacer realidad su visión, Sutskever se ha asociado con Daniel Gross, quien anteriormente fue uno de los líderes de IA en Apple, y Daniel Levy, ex miembro del personal técnico de OpenAI .
El anuncio describe a SSI como una startup que "aborda la seguridad y las capacidades en conjunto". A diferencia de muchos equipos de IA en otras empresas como OpenAI , Google y Microsoft, que tienen que enfrentar presiones externas, el enfoque singular de SSI le permite evitar distracciones de los gastos generales de gestión o los ciclos de productos.
La dedicación de OpenAI a su misión de desarrollar superinteligencia segura, no influenciada por motivos financieros a corto plazo, lo distingue. Si bien otras empresas se han asociado con importantes actores tecnológicos como Apple y Microsoft, es posible que no se vislumbren colaboraciones con empresas gigantes de inteligencia artificial.
El énfasis de la empresa en la creación de un sistema de IA potente y seguro se alinea con esfuerzos más amplios para garantizar un desarrollo responsable de la IA. A medida que las tecnologías de IA continúen evolucionando e impactando diversas industrias, las contribuciones de SSI serán fundamentales para establecer estándares de seguridad e impulsar la innovación.