Bezpieczeństwo Big Data Etyka Prawo Wybór redakcji

Hakerski atak na OpenAI: Konsekwencje dla bezpieczeństwa cyfrowego

W obliczu ciągłego rozwoju technologii, każda nowa informacja może radykalnie zmienić nasze postrzeganie bezpieczeństwa cyfrowego.

Ostatni przeciek z OpenAI pokazuje, że firmy zajmujące się sztuczną inteligencją są coraz częściej na celowniku hakerów. Wydarzenie to, które miało miejsce na początku ubiegłego roku, ale dopiero niedawno ujrzało światło dzienne dzięki New York Times, rzuca nowe światło na kwestie bezpieczeństwa wewnętrznych danych i dyskusji wśród pracowników.

Haker, który zyskał dostęp do wewnętrznych systemów komunikacyjnych OpenAI, nie tylko przeczytał, ale i zabrał ze sobą szczegóły dotyczące najnowszych technologii AI, nad którymi dyskutowali pracownicy. Co ciekawe, mimo iż doszło do naruszenia prywatności dyskusji wewnętrznych, kod źródłowy systemów AI OpenAI oraz dane klientów pozostały nietknięte.

Podczas spotkania całej załogi w kwietniu 2023 roku w biurze firmy w San Francisco, kierownictwo OpenAI poinformowało pracowników o incydencie, a także zawiadomiło swoją radę dyrektorów. Decyzja o nieujawnianiu naruszenia publicznie wynikała z przekonania, że żadne informacje dotyczące klientów czy partnerów nie zostały skradzione, a haker był prywatną osobą bez znanych powiązań z zagranicznym rządem.

Leopold Aschenbrenner, były menedżer programu technicznego w OpenAI, nie zgadzał się z podejściem firmy do bezpieczeństwa. W swoim memo do rady dyrektorów twierdził, że OpenAI nie robi wystarczająco dużo, by zapobiec kradzieży tajemnic przez obce rządy. Aschenbrenner, który twierdzi, że został zwolniony za przeciek informacji na zewnątrz firmy, wyraził swoje obawy w niedawnym podcaście, mówiąc, że środki bezpieczeństwa OpenAI są niewystarczające, aby chronić przed kradzieżą kluczowych sekretów przez zagraniczne podmioty.

OpenAI zaprzeczyło przedstawieniu sytuacji przez Aschenbrennera, twierdząc, że jego obawy nie były powodem rozwiązania umowy. Liz Bourgeois, rzeczniczka OpenAI, stwierdziła: „Doceniamy obawy, które Leopold zgłosił będąc w OpenAI, jednak to nie doprowadziło do jego odejścia. Chociaż podzielamy jego zaangażowanie w budowanie bezpiecznej AGI, nie zgadzamy się z wieloma twierdzeniami, które od tego czasu przedstawił na temat naszej pracy”.

Firmy AI, takie jak OpenAI, są niewątpliwie atrakcyjnym celem dla hakerów ze względu na ogromne ilości cennych danych, które posiadają. Od danych szkoleniowych, przez zapisy interakcji użytkowników, po wrażliwe informacje klientów – każda z tych kategorii jest skarbnicą dla cyberprzestępców.

W kontekście globalnego wyścigu w dziedzinie AI, z państwami takimi jak Chiny, szybko doganiającymi USA, powierzchnia zagrożeń będzie tylko rosła. Mimo że do tej pory nie zaobserwowano żadnych głośnych naruszeń bezpieczeństwa, to tylko kwestia czasu, kiedy dojdzie do kolejnego dużego wycieku.

Podsumowując, incydent w OpenAI może być przestrogą dla całej branży AI, by podwoić wysiłki na rzecz zabezpieczenia swoich danych i technologii. W końcu, jak mówi stare przysłowie, lepiej dmuchać na zimne, niż później żałować. A w przypadku AI, ta zasada jest bardziej aktualna niż kiedykolwiek.

Źródło

Wyjście z wersji mobilnej