В результате инцидента кибербезопасности, произошедшего в 2023 году, хакеру удалось получить несанкционированный доступ к внутренним системам обмена сообщениями OpenAI .
Хакеру удалось получить подробную информацию о конструкции технологий искусственного интеллекта OpenAI . Выяснилось, что украденная информация возникла в результате дискуссий, проходивших на онлайн-форуме, где сотрудники OpenAI обсуждали последние технологические достижения компании.
Однако важно отметить, что взлом не предоставил хакеру доступ к системам, в которых OpenAI размещает и создает свой ИИ.
Ответ и раскрытие информации OpenAI
Обнаружив нарушение, руководители OpenAI незамедлительно проинформировали об инциденте как сотрудников, так и совет директоров компании во время общего собрания в апреле того же года.
Однако они приняли решение не раскрывать публично информацию о нарушении, поскольку не было получено никакой информации о клиентах или партнерах. Этот осторожный подход был принят, чтобы смягчить ненужную панику и предотвратить потенциальный ущерб репутации OpenAI .
Руководители OpenAI оценили ситуацию и пришли к выводу, что взлом не представляет угрозы для всей страны, поскольку хакером был человек, не имевший никакого отношения к какому-либо иностранному правительству.
В результате OpenAI не увидела необходимости привлекать к делу федеральные правоохранительные органы.
Помимо устранения нарушения, OpenAI предприняла активные шаги по защите своих технологий искусственного интеллекта. В мае компания объявила, что успешно пресекла пять тайных операций влияния, которые пытались злоупотребить моделями искусственного интеллекта для «обманной деятельности» в Интернете.
Кроме того, администрация Байдена выразила свою приверженность защите передовых моделей искусственного интеллекта, включая ChatGPT OpenAI . Намечаются первоначальные планы по созданию жестких блоков для защиты моделей ИИ от потенциальных угроз со стороны Китая и России.
Инцидент с кибербезопасностью в OpenAI также вызвал дискуссии в индустрии искусственного интеллекта в целом. Во время глобальной встречи, на которой присутствовали представители 16 компаний, занимающихся искусственным интеллектом, было принято обязательство уделять приоритетное внимание безопасному развитию технологий искусственного интеллекта.
Поскольку регулирующие органы стремятся не отставать от быстрых темпов инноваций и возникающих рисков, это обязательство направлено на решение проблем и обеспечение ответственной разработки и внедрения ИИ.