Lors d'un incident de cybersécurité survenu en 2023, un pirate informatique a réussi à obtenir un accès non autorisé aux systèmes de messagerie internes d' OpenAI .
Le pirate informatique a pu obtenir des détails sur la conception des technologies d'IA d' OpenAI . Il a été découvert que les informations volées provenaient de discussions ayant eu lieu sur un forum en ligne où les employés OpenAI discutaient des dernières avancées technologiques de l'entreprise.
Cependant, il est important de noter que la violation n’a pas permis au pirate informatique d’accéder aux systèmes dans lesquels OpenAI héberge et construit son IA.
Réponse et divulgation d' OpenAI
Après avoir découvert la violation, les dirigeants d' OpenAI ont rapidement informé les employés et le conseil d'administration de l'entreprise de l'incident lors d'une réunion à tous en avril de la même année.
Cependant, ils ont pris la décision de ne pas divulguer publiquement la violation, car aucune information sur les clients ou les partenaires n'a été recueillie. Cette approche prudente a été adoptée pour atténuer une panique inutile et éviter toute atteinte potentielle à la réputation d' OpenAI .
Les dirigeants d' OpenAI ont évalué la situation et ont déterminé que la violation ne représentait pas une menace à l'échelle nationale puisque le pirate informatique était un individu qui n'avait rien à voir avec un gouvernement étranger.
En conséquence, OpenAI n’a pas vu la nécessité d’impliquer les forces de l’ordre fédérales dans cette affaire.
En plus de remédier à la violation, OpenAI a pris des mesures proactives pour protéger ses technologies d'IA. La société a annoncé en mai qu'elle avait réussi à perturber cinq opérations d'influence secrètes qui tentaient d'utiliser à mauvais escient leurs modèles d'IA pour des « activités trompeuses » sur Internet.
En outre, l'administration Biden a exprimé son engagement à protéger les modèles d'IA avancés, y compris ChatGPT d' OpenAI . Des plans initiaux sont en cours d’élaboration pour établir des blocages stricts afin de protéger les modèles d’IA des menaces potentielles de la Chine et de la Russie.
L’incident de cybersécurité survenu à OpenAI a également suscité des discussions au sein de l’industrie de l’IA dans son ensemble. Lors d’une réunion mondiale à laquelle ont participé des représentants de 16 entreprises d’IA, un engagement a été pris à donner la priorité au développement sûr de la technologie de l’IA.
Alors que les régulateurs s’efforcent de suivre le rythme rapide de l’innovation et des risques émergents, cet engagement vise à répondre aux préoccupations et à garantir que l’IA soit développée et déployée de manière responsable.