2023年に発生したサイバーセキュリティインシデントでは、ハッカーがOpenAIの内部メッセージングシステムに不正アクセスすることに成功しました。
ハッカーはOpenAIのAI技術の設計に関する詳細を入手することに成功した。盗まれた情報は、 OpenAI従業員が同社の最新の技術進歩について議論するオンラインフォーラムで行われた議論から得られたものであることが判明した。
しかし、この侵害によって、ハッカーはOpenAI AI を格納および構築しているシステムにアクセスできなくなったことに注意することが重要です。
OpenAIの対応と開示
OpenAIの幹部は、侵害を発見するとすぐに、その年の4月に行われた全社会議で従業員と会社の取締役会の両方に事件について報告した。
しかし、顧客やパートナーの情報が盗まれなかったため、侵害を公表しないという決定を下しました。この慎重なアプローチは、不必要なパニックを緩和し、 OpenAIの評判への潜在的な損害を防ぐために取られました。
OpenAIの幹部は状況を評価し、ハッカーは外国政府とは何の関係もない個人であったため、この侵害は全国的な脅威にはならないと判断した。
その結果、 OpenAI連邦法執行機関をこの件に関与させる必要性を感じなかった。
OpenAI 、情報漏洩に対処するだけでなく、AI技術を保護するための積極的な措置も講じている。同社は5月、インターネット上での「欺瞞行為」に自社のAIモデルを悪用しようとしていた5つの秘密の影響力作戦を阻止することに成功したと発表した。
さらに、バイデン政権は、 OpenAIのChatGPTを含む高度なAIモデルを保護するという決意を表明している。中国とロシアからの潜在的な脅威からAIモデルを保護するために、厳しいブロックを設けるという初期計画が描かれている。
OpenAIでのサイバーセキュリティ事件は、AI業界全体における議論も促した。16のAI企業の代表者が出席した世界会議では、AI技術の安全な開発を優先するという約束がなされた。
規制当局が急速なイノベーションと新たなリスクへの対応に追われる中、この誓約は懸念に対処し、AI が責任を持って開発、展開されることを確実にすることを目指しています。