I en cybersikkerhetshendelse som skjedde i 2023, klarte en hacker å få uautorisert tilgang til de interne meldingssystemene hos OpenAI .
Hackeren var i stand til å skaffe detaljer om utformingen av OpenAI AI-teknologier. Det ble oppdaget at den stjålne informasjonen stammet fra diskusjoner som fant sted i et nettforum der OpenAI -ansatte diskuterte selskapets siste teknologiske fremskritt.
Det er imidlertid viktig å merke seg at bruddet ikke ga hackeren tilgang til systemene der OpenAI huser og bygger sin AI.
OpenAI svar og avsløring
Etter å ha oppdaget bruddet, informerte OpenAI ledere umiddelbart både de ansatte og selskapets styre om hendelsen under et møte med alle hender i april samme år.
De tok imidlertid beslutningen om ikke å offentliggjøre bruddet, siden ingen kunde- eller partnerinformasjon ble tatt. Denne forsiktige tilnærmingen ble tatt for å dempe unødvendig panikk og forhindre potensiell skade på OpenAI omdømme.
OpenAI ledere vurderte situasjonen og fastslo at bruddet ikke utgjorde en trussel over hele landet siden hackeren var en person som ikke hadde noe med noen utenlandsk regjering å gjøre.
Som et resultat så OpenAI ikke behovet for å involvere føderale rettshåndhevelsesbyråer i saken.
I tillegg til å adressere bruddet, har OpenAI tatt proaktive skritt for å sikre AI-teknologiene sine. Selskapet kunngjorde i mai at det hadde vellykket forstyrret fem skjulte påvirkningsoperasjoner som forsøkte å misbruke AI-modellene deres for "villedende aktivitet" over internett.
Videre har Biden-administrasjonen uttrykt sin forpliktelse til å beskytte avanserte AI-modeller, inkludert OpenAI ChatGPT . De første planene blir skissert for å etablere harde blokker for å beskytte AI-modeller mot potensielle trusler fra Kina og Russland.
Cybersikkerhetshendelsen hos OpenAI har også ført til diskusjoner innen AI-bransjen som helhet. Under et globalt møte med representanter fra 16 AI-selskaper ble det forpliktet seg til å prioritere sikker utvikling av AI-teknologi.
Med regulatorer som kjemper for å holde tritt med det raske innovasjonstakten og nye risikoer, søker dette løftet å møte bekymringer og sikre at AI utvikles og distribueres ansvarlig.