En un incidente de ciberseguridad ocurrido en 2023, un pirata informático logró obtener acceso no autorizado a los sistemas de mensajería internos de OpenAI .
El hacker pudo obtener detalles sobre el diseño de las tecnologías de inteligencia artificial de OpenAI . Se descubrió que la información robada se originó a partir de discusiones que tuvieron lugar en un foro en línea donde los empleados OpenAI discutieron los últimos avances tecnológicos de la compañía.
Sin embargo, es importante señalar que la infracción no le otorgó al pirata informático acceso a los sistemas donde OpenAI aloja y construye su IA.
Respuesta y divulgación de OpenAI
Al descubrir la infracción, los ejecutivos de OpenAI informaron rápidamente tanto a los empleados como a la junta directiva de la empresa sobre el incidente durante una reunión general en abril de ese año.
Sin embargo, tomaron la decisión de no revelar públicamente la infracción, ya que no se obtuvo información de clientes o socios. Este enfoque cauteloso se adoptó para mitigar el pánico innecesario y evitar posibles daños a la reputación de OpenAI .
Los ejecutivos de OpenAI evaluaron la situación y determinaron que la infracción no representaba una amenaza a nivel nacional ya que el hacker era un individuo que no tenía nada que ver con ningún gobierno extranjero.
Como resultado, OpenAI no vio la necesidad de involucrar a las autoridades federales en el asunto.
Además de abordar la infracción, OpenAI ha tomado medidas proactivas para salvaguardar sus tecnologías de IA. La compañía anunció en mayo que había perturbado con éxito cinco operaciones de influencia encubiertas que intentaban hacer un uso indebido de sus modelos de inteligencia artificial para "actividades engañosas" en Internet.
Además, la administración Biden ha expresado su compromiso de proteger los modelos avanzados de IA, incluido ChatGPT de OpenAI . Se están esbozando planes iniciales para establecer bloques estrictos para proteger los modelos de IA de posibles amenazas de China y Rusia.
El incidente de ciberseguridad en OpenAI también ha provocado debates dentro de la industria de la IA en su conjunto. Durante una reunión global a la que asistieron representantes de 16 empresas de IA, se asumió el compromiso de priorizar el desarrollo seguro de la tecnología de IA.
Mientras los reguladores se apresuran a mantenerse al día con el rápido ritmo de la innovación y los riesgos emergentes, este compromiso busca abordar las preocupaciones y garantizar que la IA se desarrolle y despliegue de manera responsable.