In un incidente di sicurezza informatica avvenuto nel 2023, un hacker è riuscito a ottenere l'accesso non autorizzato ai sistemi di messaggistica interni di OpenAI .
L'hacker è riuscito a ottenere dettagli sulla progettazione delle tecnologie AI di OpenAI . Si è scoperto che le informazioni rubate provenivano da discussioni avvenute in un forum online in cui i dipendenti OpenAI discutevano degli ultimi progressi tecnologici dell'azienda.
Tuttavia, è importante notare che la violazione non ha concesso all’hacker l’accesso ai sistemi in cui OpenAI ospita e costruisce la sua intelligenza artificiale.
Risposta e divulgazione di OpenAI
Dopo aver scoperto la violazione, i dirigenti di OpenAI hanno prontamente informato sia i dipendenti che il consiglio di amministrazione dell'azienda dell'incidente durante una riunione collettiva nell'aprile di quell'anno.
Tuttavia, hanno deciso di non rendere pubblica la violazione, poiché non sono state prese informazioni sui clienti o sui partner. Questo approccio cauto è stato adottato per mitigare il panico inutile e prevenire potenziali danni alla reputazione di OpenAI .
I dirigenti di OpenAI hanno valutato la situazione e hanno stabilito che la violazione non rappresentava una minaccia a livello nazionale poiché l'hacker era un individuo che non aveva nulla a che fare con alcun governo straniero.
Di conseguenza, OpenAI non ha visto la necessità di coinvolgere le forze dell’ordine federali nella questione.
Oltre ad affrontare la violazione, OpenAI ha adottato misure proattive per salvaguardare le proprie tecnologie di intelligenza artificiale. La società ha annunciato a maggio di aver disturbato con successo cinque operazioni di influenza segrete che tentavano di abusare dei loro modelli di intelligenza artificiale per "attività ingannevoli" su Internet.
Inoltre, l’amministrazione Biden ha espresso il proprio impegno a proteggere i modelli avanzati di intelligenza artificiale, incluso ChatGPT di OpenAI . Si stanno delineando i piani iniziali per stabilire rigidi blocchi per proteggere i modelli di intelligenza artificiale da potenziali minacce provenienti da Cina e Russia.
L’incidente di sicurezza informatica di OpenAI ha suscitato discussioni anche all’interno del settore dell’intelligenza artificiale nel suo complesso. Durante un incontro globale a cui hanno partecipato rappresentanti di 16 aziende di intelligenza artificiale, è stato assunto l’impegno a dare priorità allo sviluppo sicuro della tecnologia dell’intelligenza artificiale.
Mentre le autorità di regolamentazione si affrettano a tenere il passo con il rapido ritmo dell’innovazione e dei rischi emergenti, questo impegno cerca di affrontare le preoccupazioni e garantire che l’intelligenza artificiale sia sviluppata e utilizzata in modo responsabile.