Num incidente de segurança cibernética ocorrido em 2023, um hacker conseguiu obter acesso não autorizado aos sistemas internos de mensagens da OpenAI .
O hacker conseguiu obter detalhes sobre o design das tecnologias de IA da OpenAI . Foi descoberto que as informações roubadas tiveram origem em discussões ocorridas em um fórum online onde funcionários OpenAI discutiram os mais recentes avanços tecnológicos da empresa.
No entanto, é importante notar que a violação não concedeu ao hacker acesso aos sistemas onde OpenAI aloja e constrói a sua IA.
Resposta e divulgação da OpenAI
Ao descobrir a violação, os executivos da OpenAI informaram prontamente os funcionários e o conselho da empresa sobre o incidente durante uma reunião geral em abril daquele ano.
No entanto, tomaram a decisão de não divulgar publicamente a violação, uma vez que nenhuma informação de clientes ou parceiros foi obtida. Esta abordagem cautelosa foi adotada para mitigar o pânico desnecessário e evitar danos potenciais à reputação da OpenAI .
Os executivos da OpenAI avaliaram a situação e determinaram que a violação não representava uma ameaça a nível nacional, uma vez que o hacker era um indivíduo que não tinha nada a ver com nenhum governo estrangeiro.
Como resultado, OpenAI não viu necessidade de envolver as agências federais de aplicação da lei no assunto.
Além de abordar a violação, OpenAI tomou medidas proativas para proteger as suas tecnologias de IA. A empresa anunciou em maio que havia perturbado com sucesso cinco operações secretas de influência que tentavam usar indevidamente seus modelos de IA para “atividades enganosas” na Internet.
Além disso, a administração Biden expressou o seu compromisso em proteger modelos avançados de IA, incluindo ChatGPT da OpenAI . Estão a ser esboçados planos iniciais para estabelecer bloqueios severos para proteger os modelos de IA de ameaças potenciais da China e da Rússia.
O incidente de segurança cibernética na OpenAI também gerou discussões na indústria de IA como um todo. Durante uma reunião global com a presença de representantes de 16 empresas de IA, foi assumido o compromisso de priorizar o desenvolvimento seguro da tecnologia de IA.
Com os reguladores a correr para acompanhar o ritmo acelerado da inovação e dos riscos emergentes, este compromisso procura responder às preocupações e garantir que a IA seja desenvolvida e implementada de forma responsável.