OpenAI kurucu ortağı ve eski baş bilim adamı Ilya Sutskever, Safe Superintelligence veya SSI adlı yeni AI girişimini tanıttı.
Sutskever, eski OpenAI CEO'su Sam Altman'ın görevden alınmasının arkasındaki yönetim kurulu üyelerinden biriydi. Yönetim kurulunun eylemlerindeki rolünden duyduğu üzüntüyü dile getirmesine rağmen Sutskever, yapay zeka teknolojilerinin geliştirilmesine ve bunların topluma fayda sağlama potansiyeline bağlı kalmaya devam ediyor.
Şirket Yapısı ve Vizyonu
SSI, tek bir odak noktası, tek bir hedef ve tek bir ürünle güvenli süper istihbaratın peşinde koşmayı amaçlamaktadır. Sutskever'in SSI'ye yönelik vizyonu, emniyet ve güvenliğe öncelik verirken güçlü bir yapay zeka sistemi oluşturmaktır.
Sutskever, vizyonunu hayata geçirmek için daha önce Apple'ın yapay zeka liderlerinden biri olan Daniel Gross ve OpenAI teknik ekibinin eski bir üyesi olan Daniel Levy ile ortaklık kurdu.
Duyuruda SSI, "güvenlik ve yeteneklere birlikte yaklaşan" bir girişim olarak tanımlanıyor. OpenAI , Google ve Microsoft gibi dış baskıyla yüzleşmek zorunda olan diğer şirketlerdeki birçok yapay zeka ekibinin aksine, SSI'nın tekil odağı, yönetim yükünden veya ürün döngülerinden kaynaklanan dikkat dağılmasının önlenmesine olanak tanıyor.
OpenAI kısa vadeli finansal nedenlerden etkilenmeyen güvenli süper zeka geliştirme misyonuna olan bağlılığı, onu farklı kılmaktadır. Diğer şirketler Apple ve Microsoft gibi büyük teknoloji oyuncularıyla ortaklıklar kurmuş olsa da dev yapay zeka firmalarıyla işbirlikleri ufukta görünmeyebilir.
Şirketin güvenli ve güçlü bir yapay zeka sistemi yaratmaya verdiği önem, sorumlu yapay zeka gelişimini sağlamaya yönelik daha geniş çabalarla uyumludur. Yapay zeka teknolojileri gelişmeye ve çeşitli endüstrileri etkilemeye devam ettikçe, SSI'nin katkıları güvenlik standartlarının belirlenmesinde ve inovasyonun desteklenmesinde etkili olacaktır.