في حادثة الأمن السيبراني التي وقعت في عام 2023، تمكن أحد المتسللين من الوصول غير المصرح به إلى أنظمة المراسلة الداخلية في OpenAI .
تمكن المتسلل من الحصول على تفاصيل حول تصميم تقنيات الذكاء الاصطناعي الخاصة بـ OpenAI . تم اكتشاف أن المعلومات المسروقة نشأت من المناقشات التي جرت في منتدى عبر الإنترنت حيث ناقش موظفو OpenAI أحدث التطورات التكنولوجية للشركة.
ومع ذلك، من المهم ملاحظة أن الاختراق لم يمنح المتسلل إمكانية الوصول إلى الأنظمة التي تضم OpenAI وتبني الذكاء الاصطناعي الخاص بها.
استجابة OpenAI والإفصاح عنها
عند اكتشاف الاختراق، قام المسؤولون التنفيذيون في OpenAI على الفور بإبلاغ الموظفين ومجلس إدارة الشركة بالحادث خلال اجتماع شامل في أبريل من ذلك العام.
ومع ذلك، فقد اتخذوا قرارًا بعدم الكشف علنًا عن الانتهاك، حيث لم يتم أخذ أي معلومات عن العميل أو الشريك. تم اتباع هذا النهج الحذر للتخفيف من الذعر غير الضروري ومنع الضرر المحتمل لسمعة OpenAI .
قام المسؤولون التنفيذيون في OpenAI بتقييم الوضع وقرروا أن الاختراق لا يشكل تهديدًا على الصعيد الوطني نظرًا لأن المتسلل كان فردًا لا علاقة له بأي حكومة أجنبية.
ونتيجة لذلك، لم ترى OpenAI ضرورة لإشراك وكالات إنفاذ القانون الفيدرالية في هذه المسألة.
بالإضافة إلى معالجة الاختراق، اتخذت OpenAI خطوات استباقية لحماية تقنيات الذكاء الاصطناعي الخاصة بها. أعلنت الشركة في شهر مايو أنها نجحت في تعطيل خمس عمليات تأثير سرية كانت تحاول إساءة استخدام نماذج الذكاء الاصطناعي الخاصة بها للقيام "بنشاط خادع" عبر الإنترنت.
علاوة على ذلك، أعربت إدارة بايدن عن التزامها بحماية نماذج الذكاء الاصطناعي المتقدمة، بما في ذلك ChatGPT الخاص بـ OpenAI . ويجري الآن رسم الخطط الأولية لإنشاء كتل قاسية لحماية نماذج الذكاء الاصطناعي من التهديدات المحتملة من الصين وروسيا.
أثار حادث الأمن السيبراني في OpenAI أيضًا مناقشات داخل صناعة الذكاء الاصطناعي ككل. خلال اجتماع عالمي حضره ممثلون عن 16 شركة للذكاء الاصطناعي، تم الالتزام بإعطاء الأولوية للتطوير الآمن لتكنولوجيا الذكاء الاصطناعي.
ومع تسابق الهيئات التنظيمية لمواكبة الوتيرة السريعة للابتكار والمخاطر الناشئة، يسعى هذا التعهد إلى معالجة المخاوف وضمان تطوير الذكاء الاصطناعي ونشره بشكل مسؤول.