W wyniku incydentu cyberbezpieczeństwa, który miał miejsce w 2023 roku, hakerowi udało się uzyskać nieautoryzowany dostęp do wewnętrznych systemów przesyłania wiadomości w OpenAI .
Hakerowi udało się uzyskać szczegółowe informacje na temat projektowania technologii sztucznej inteligencji OpenAI . Odkryto, że skradzione informacje pochodziły z dyskusji toczących się na forum internetowym, podczas których pracownicy OpenAI omawiali najnowsze osiągnięcia technologiczne firmy.
Należy jednak zauważyć, że naruszenie nie zapewniło hakerowi dostępu do systemów, w których OpenAI mieści i buduje sztuczną inteligencję.
Odpowiedź i ujawnienie OpenAI
Po odkryciu naruszenia kierownictwo OpenAI niezwłocznie poinformowało o zdarzeniu zarówno pracowników, jak i zarząd firmy podczas ogólnego spotkania w kwietniu tego roku.
Podjęto jednak decyzję o nieujawnianiu publicznie naruszenia, ponieważ nie zabrano żadnych informacji o klientach ani partnerach. To ostrożne podejście zostało przyjęte, aby złagodzić niepotrzebną panikę i zapobiec potencjalnej szkodzie reputacji OpenAI .
Kierownictwo OpenAI oceniło sytuację i ustaliło, że naruszenie nie stanowiło zagrożenia w skali całego kraju, ponieważ hakerem była osoba nie mająca nic wspólnego z żadnym obcym rządem.
W efekcie OpenAI nie widziało potrzeby angażowania w tę sprawę federalnych organów ścigania.
Oprócz zaradzenia naruszeniu OpenAI podjęła proaktywne kroki w celu ochrony swoich technologii AI. W maju firma ogłosiła, że skutecznie przeszkodziła pięciu tajnym operacjom wywierania wpływu, które miały na celu niewłaściwe wykorzystanie jej modeli sztucznej inteligencji do „oszukańczych działań” w Internecie.
Co więcej, administracja Bidena wyraziła swoje zaangażowanie w ochronę zaawansowanych modeli sztucznej inteligencji, w tym ChatGPT OpenAI . Opracowywane są wstępne plany mające na celu ustanowienie surowych blokad w celu ochrony modeli sztucznej inteligencji przed potencjalnymi zagrożeniami ze strony Chin i Rosji.
Incydent cyberbezpieczeństwa w OpenAI wywołał również dyskusje w całej branży AI. Podczas światowego spotkania, w którym uczestniczyli przedstawiciele 16 firm zajmujących się sztuczną inteligencją, podjęto zobowiązanie do nadania priorytetu bezpiecznemu rozwojowi technologii sztucznej inteligencji.
Ponieważ organy regulacyjne ścigają się, aby dotrzymać kroku szybkiemu tempu innowacji i pojawiającym się zagrożeniom, niniejsze zobowiązanie ma na celu rozwianie obaw i zapewnienie odpowiedzialnego opracowywania i wdrażania sztucznej inteligencji.