2023 yılında meydana gelen bir siber güvenlik olayında bir hacker, OpenAI dahili mesajlaşma sistemlerine yetkisiz erişim sağlamayı başardı.
Bilgisayar korsanı, OpenAI yapay zeka teknolojilerinin tasarımı hakkında ayrıntılı bilgi elde etmeyi başardı. Çalınan bilgilerin, OpenAI çalışanlarının şirketin en son teknolojik gelişmelerini tartıştığı çevrimiçi bir forumda yapılan tartışmalardan kaynaklandığı ortaya çıktı.
Ancak, ihlalin hacker'a OpenAI yapay zekasını barındırdığı ve oluşturduğu sistemlere erişim izni vermediğini unutmamak gerekir.
OpenAI Yanıtı ve Açıklaması
İhlalin keşfedilmesinin ardından OpenAI yöneticileri, o yılın Nisan ayında yapılan genel toplantıda hem çalışanları hem de şirketin yönetim kurulunu olay hakkında derhal bilgilendirdi.
Ancak müşteri veya iş ortağı bilgileri alınmadığı için ihlali kamuya açıklamama kararı aldılar. Bu temkinli yaklaşım, gereksiz paniği azaltmak ve OpenAI itibarına gelebilecek potansiyel zararı önlemek için uygulandı.
OpenAI yöneticileri durumu değerlendirdi ve hacker'ın herhangi bir yabancı hükümetle hiçbir ilişkisi olmayan bir kişi olması nedeniyle ihlalin ülke çapında bir tehdit oluşturmadığına karar verdi.
Sonuç olarak OpenAI , federal kolluk kuvvetlerinin konuya dahil edilmesine gerek görmedi.
OpenAI ihlali gidermenin yanı sıra yapay zeka teknolojilerini korumak için proaktif adımlar attı. Şirket, mayıs ayında, yapay zeka modellerini internetteki "aldatıcı faaliyetler" için kötüye kullanmaya çalışan beş gizli etki operasyonunu başarıyla engellediğini duyurdu.
Ayrıca Biden yönetimi, OpenAI ChatGPT de dahil olmak üzere gelişmiş yapay zeka modellerini koruma konusundaki kararlılığını ifade etti. Yapay zeka modellerini Çin ve Rusya'dan gelebilecek potansiyel tehditlerden korumak için sert bloklar oluşturmaya yönelik ilk planlar çiziliyor.
OpenAI siber güvenlik olayı, bir bütün olarak yapay zeka endüstrisinde de tartışmalara yol açtı. 16 yapay zeka şirketinden temsilcilerin katıldığı küresel bir toplantıda, yapay zeka teknolojisinin güvenli bir şekilde geliştirilmesine öncelik verilmesi konusunda bir taahhütte bulunuldu.
Düzenleyicilerin inovasyonun hızlı temposuna ve ortaya çıkan risklere ayak uydurmak için yarıştığı bir ortamda, bu taahhüt endişeleri gidermeyi ve yapay zekanın sorumlu bir şekilde geliştirilip kullanılmasını sağlamayı amaçlıyor.