W erze cyfrowej dane to nowa ropa naftowa. Nic dziwnego, że sprawy o ich gromadzenie, przechowywanie i udostępnianie potrafią rozgrzać sądy do czerwoności. Najnowszy rozdział tej historii piszą OpenAI i… The New York Times, które znalazły się po przeciwnych stronach barykady. I nie chodzi tu o różnicę w podejściu do interpunkcji.
W skrócie: NYT pozywa OpenAI, a w ramach procesu domaga się… wieczystego przechowywania danych użytkowników ChatGPT oraz klientów API. Tak – nawet tych, którzy świadomie usunęli swoje dane z systemu.
„To żądanie nie tylko kłóci się z naszymi zasadami prywatności, ale też całkowicie rozmija się z branżowymi normami” – pisze COO OpenAI, Brad Lightcap, dodając że firma odwołuje się od nakazu sądu i nie zamierza rezygnować z ochrony prywatności swoich użytkowników.
O co chodzi The New York Times?
Gazeta uważa, że dane użytkowników mogą zawierać informacje, które pomogą udowodnić naruszenia praw autorskich. Tyle że – jak twierdzi OpenAI – to czyste spekulacje, a przy okazji spory zamach na prywatność milionów ludzi.
Na celowniku znalazły się wszystkie konta ChatGPT: Free, Plus, Pro, Team, a także użytkownicy API – z wyjątkiem tych, którzy korzystają z tzw. Zero Data Retention (ZDR), czyli trybu, w którym dane nie są w ogóle przechowywane. Dobrą wiadomością jest też to, że użytkownicy ChatGPT Enterprise i Edu mogą spać spokojnie – ich dane nie podlegają nowemu nakazowi.
Co robi OpenAI, żeby zablokować ten nakaz?
Od początku firma argumentuje, że prośba o „zachowanie wszystkich danych wyjściowych” to nieproporcjonalne żądanie. Wniosek o ponowne rozpatrzenie złożono do sędziego nadzorującego sprawę, a 27 maja na sali sądowej padło istotne zastrzeżenie: ChatGPT Enterprise nie jest objęte tym obowiązkiem.
Jednocześnie trwa apelacja do sądu wyższej instancji. OpenAI nie składa broni.
Czy usunięte dane zostaną zachowane?
I tu robi się ciekawie. Nakaz sądu – jeśli nie zostanie unieważniony – oznacza, że nawet usunięte rozmowy w ChatGPT czy dane przesyłane przez API będą musiały zostać zachowane. Zazwyczaj takie dane są automatycznie usuwane z systemów OpenAI w ciągu 30 dni. Ale teraz… mogą trafić do specjalnie zabezpieczonego „archiwum sądowego”.
Dostęp do nich ma jedynie wąski, audytowany zespół prawny i bezpieczeństwa OpenAI, a dane objęte są tzw. legal hold – mogą być używane wyłącznie do celów sądowych, nie do szkolenia modeli, nie do analiz i nie do przetwarzania.
Czy to zgodne z RODO i innymi regulacjami?
Oficjalna linia OpenAI jest taka: działamy zgodnie z obowiązującym prawem, ale to, czego chce The New York Times, stoi w sprzeczności z naszymi standardami prywatności. Inaczej mówiąc: przestrzegamy prawa, ale nie zgadzamy się z jego interpretacją.
Zasady retencji danych – jak to działa na co dzień?
Dla przeciętnego użytkownika wygląda to tak:
- ChatGPT (Free, Plus, Pro): usunięte czaty znikają z konta natychmiast, a z systemów OpenAI – w ciągu 30 dni.
- ChatGPT Team: użytkownik decyduje, co zapisać. Niezapisane lub usunięte rozmowy również znikają po 30 dniach.
- ChatGPT Enterprise/Edu: administratorzy kontrolują czas przechowywania.
- API: dane znikają po 30 dniach, chyba że klient korzysta z ZDR – wtedy nie są w ogóle zapisywane.
Co dalej?
OpenAI zapowiada, że będzie informować użytkowników o wszelkich zmianach. I choć sytuacja przypomina nieco walkę Dawida z Goliatem – z tą różnicą, że tym razem obaj przeciwnicy są nieźle uzbrojeni – jedno pozostaje jasne: to starcie, które może zdefiniować przyszłość prywatności w erze sztucznej inteligencji.