قدم إيليا سوتسكيفر، المؤسس المشارك وكبير العلماء السابق لشركة OpenAI ، شركته الناشئة الجديدة للذكاء الاصطناعي والتي تسمى Safe Superintelligence، أو SSI.
كان Sutskever أحد أعضاء مجلس الإدارة الذين يقفون وراء الإطاحة بالرئيس التنفيذي السابق OpenAI سام ألتمان. على الرغم من إعرابه عن أسفه لدوره في إجراءات مجلس الإدارة، يظل Sutskever ملتزمًا بتطوير تقنيات الذكاء الاصطناعي وإمكاناتها لإفادة المجتمع.
هيكل الشركة ورؤيتها
تهدف SSI إلى متابعة الذكاء الفائق الآمن من خلال تركيز واحد وهدف واحد ومنتج واحد. تتمثل رؤية Sutskever لـ SSI في إنشاء نظام ذكاء اصطناعي قوي مع إعطاء الأولوية للسلامة والأمن.
ولإضفاء الحيوية على رؤيته، دخل Sutskever في شراكة مع Daniel Gross، الذي كان سابقًا أحد قادة الذكاء الاصطناعي في Apple، ودانييل ليفي، وهو عضو سابق في الطاقم الفني في OpenAI .
ويصف الإعلان شركة SSI بأنها شركة ناشئة "تقترب من السلامة والقدرات جنبًا إلى جنب". على عكس العديد من فرق الذكاء الاصطناعي في شركات أخرى مثل OpenAI و Google وMicrosoft التي يتعين عليها مواجهة ضغوط خارجية، فإن تركيز SSI الفردي يسمح لها بتجنب الانحرافات عن النفقات الإدارية العامة أو دورات المنتج.
إن تفاني OpenAI في مهمتها المتمثلة في تطوير الذكاء الفائق الآمن، الذي لا يتأثر بدوافع مالية قصيرة المدى، هو ما يميزها. وفي حين شكلت شركات أخرى شراكات مع لاعبين رئيسيين في مجال التكنولوجيا مثل أبل ومايكروسوفت، فإن التعاون مع شركات الذكاء الاصطناعي العملاقة قد لا يكون في الأفق.
يتماشى تركيز الشركة على إنشاء نظام ذكاء اصطناعي آمن وقوي مع الجهود الأوسع لضمان تطوير الذكاء الاصطناعي بشكل مسؤول. مع استمرار تطور تقنيات الذكاء الاصطناعي والتأثير على مختلف الصناعات، ستكون مساهمات SSI فعالة في وضع معايير السلامة ودفع الابتكار.