Microsoft i OpenAI badają potencjalne włamanie do systemu OpenAI przez grupę powiązaną z chińskim startupem AI – DeepSeek. Wszystko wskazuje na to, że firma mogła nielegalnie pozyskać dane i wykorzystać je do szkolenia swojego modelu AI, R1. Ale oto paradoks – mimo tych oskarżeń, Microsoft właśnie dodał R1 do swojej platformy chmurowej.
Jak to możliwe, że gigant technologiczny jednocześnie prowadzi śledztwo w sprawie DeepSeek i zaprasza jego model do swojego ekosystemu?
Microsoft jako główny inwestor OpenAI zauważył podejrzaną aktywność w interfejsie API OpenAI pod koniec 2024 roku. Podejrzewa się, że DeepSeek mogło wykorzystać technikę model distillation, czyli uczenia swojego AI na podstawie wyników generowanych przez OpenAI. Taka praktyka – jeśli zastosowana bez autoryzacji – jest na granicy legalności i rodzi pytania o ochronę własności intelektualnej.
OpenAI oficjalnie nie skomentowało tych zarzutów, ale przyznało, że „chińskie firmy – i nie tylko – nieustannie próbują pozyskiwać modele czołowych amerykańskich firm AI”.
Tymczasem DeepSeek nie tylko się rozwija, ale też właśnie trafiło na platformę chmurową Microsoftu – Azure AI Foundry. Model R1, który według ekspertów może konkurować z ChatGPT, jest teraz dostępny dla firm korzystających z usług Microsoftu.
Microsoft i DeepSeek – pragmatyczna symbioza?
Microsoft w swoim wpisie na blogu podkreślił, że model R-1 przeszedł „szczegółowe testy bezpieczeństwa i oceny ryzyka”. Co więcej, Microsoft planuje umożliwić korzystanie z „lżejszych” wersji R1 lokalnie na komputerach Copilot+ PC – nowej linii sprzętu z Windows, przystosowanej do obsługi AI.
Decyzja Microsoftu wydaje się pragmatyczna. R1 jest obecnie jednym z najgorętszych tematów w świecie AI, a Microsoft chce, by jego chmura była miejscem, gdzie firmy mogą korzystać z najnowszych modeli – nawet jeśli pochodzą od konkurencji.
Kontrowersyjny model
R-1 jest potężnym narzędziem, ale ma swoje wady. Organizacja NewsGuard wykazała, że model podaje nieprawdziwe informacje lub całkowicie odmawia odpowiedzi w 83% przypadków dotyczących wiadomości. Co więcej, aż 85% zapytań dotyczących Chin pozostaje bez odpowiedzi, co może być efektem cenzury narzucanej przez chińskie władze na krajowe modele AI.
Nie wiadomo, czy Microsoft wprowadził zmiany do modelu, by poprawić jego dokładność i zniwelować problem cenzury.
Sztuczna inteligencja a geopolityka
Sprawa DeepSeek ma też wymiar polityczny. CNBC informuje, że Marynarka Wojenna USA zakazała używania produktów DeepSeek przez swoich pracowników, obawiając się, że mogą one być wykorzystywane przez chiński rząd do pozyskiwania wrażliwych danych.
A jednak – mimo tych wszystkich kontrowersji – Microsoft otwiera drzwi DeepSeek i daje mu miejsce w swoim ekosystemie.
Biznes wygrywa z zasadami?
Czy Microsoft gra na dwa fronty? Z jednej strony, prowadzi dochodzenie w sprawie potencjalnego złamania prawa i ochrony własności intelektualnej OpenAI, a z drugiej – korzysta z popularności DeepSeek, by przyciągnąć klientów do swojej chmury.
W świecie AI, gdzie liczy się kto ma najlepsze modele i największe zasoby danych, wygląda na to, że etyka i biznes idą czasem w dwóch różnych kierunkach.