2023년에 발생한 사이버 보안 사고에서 해커는 OpenAI 의 내부 메시징 시스템에 무단으로 액세스하는 데 성공했습니다.
해커는 OpenAI 의 AI 기술 설계에 대한 세부 정보를 얻을 수 있었습니다. 도난당한 정보는 OpenAI 직원들이 회사의 최신 기술 발전에 대해 논의한 온라인 포럼에서 진행된 토론에서 비롯된 것으로 밝혀졌습니다.
그러나 이번 침해로 인해 해커가 OpenAI AI를 보관하고 구축하는 시스템에 대한 액세스 권한이 부여되지 않았다는 점에 유의하는 것이 중요합니다.
OpenAI 의 대응 및 공개
침해 사실을 발견한 OpenAI 경영진은 그해 4월 전체 회의에서 즉시 직원과 회사 이사회에 사건에 대해 알렸습니다.
그러나 고객이나 파트너 정보가 수집되지 않았기 때문에 위반 사항을 공개적으로 공개하지 않기로 결정했습니다. 이러한 신중한 접근 방식은 불필요한 패닉을 완화하고 OpenAI 의 평판에 대한 잠재적인 피해를 방지하기 위해 취해졌습니다.
OpenAI 경영진은 상황을 평가한 결과 해커가 외국 정부와 아무런 관련이 없는 개인이기 때문에 이번 침해 사고가 전국적으로 위협이 되지 않는다고 판단했습니다.
결과적으로 OpenAI 이 문제에 연방 법 집행 기관을 개입시킬 필요성을 느끼지 못했습니다.
OpenAI 침해 문제를 해결하는 것 외에도 AI 기술을 보호하기 위한 사전 조치를 취했습니다. 회사는 지난 5월 인터넷 전반에서 "기만적인 활동"을 위해 AI 모델을 오용하려는 5개의 비밀 영향력 활동을 방해했다고 발표했습니다.
또한 Biden 행정부는 OpenAI 의 ChatGPT 포함한 고급 AI 모델을 보호하겠다는 의지를 표명했습니다. 중국과 러시아의 잠재적 위협으로부터 AI 모델을 보호하기 위해 가혹한 블록을 구축하기 위한 초기 계획이 스케치되고 있습니다.
OpenAI 의 사이버 보안 사건은 AI 업계 전반의 논의를 촉발하기도 했습니다. 16개 AI 기업 대표들이 참석한 글로벌 회의에서 AI 기술의 안전한 개발을 최우선 과제로 삼겠다는 약속이 이뤄졌습니다.
규제 당국이 빠른 속도의 혁신과 새로운 위험을 따라잡기 위해 노력하는 가운데, 이 서약은 우려 사항을 해결하고 AI가 책임감 있게 개발 및 배포되도록 보장하기 위해 노력하고 있습니다.