Big Data Bezpieczeństwo Prawo

ChatGPT kontra GDPR: Europejskie dylematy dotyczące ochrony danych

W świecie technologii, gdzie innowacje pędzą z prędkością światła, nie wszystko idzie gładko – szczególnie, gdy chodzi o przestrzeganie przepisów o ochronie danych.

Grupa adwokacka noyb, tropiciel europejskich lapsusów w zarządzaniu danymi, wzięła na celownik OpenAI. Ich zarzut? ChatGPT, choć błyskotliwy, ma problemy z przestrzeganiem zasad prawdy, co jest złamaniem unijnych regulacji o danych (GDPR).

Maartje de Graaf z noyb święcie wierzy, że jeżeli technologia nie umie trzymać się prawdy, nie powinna bawić się w przetwarzanie danych osobowych. „Gdy błąd wkrada się w dane osobiste, robi się poważnie,” mówi z naciskiem na konsekwencje.

OpenAI przyznało, że nie zawsze potrafi sprostować generowane przez ChatGPT błędne dane, co jeszcze bardziej komplikuje sprawę. Jak dowodzą, dokładność w AI to ciągle pole minowe naukowe.

W tej batalii o danych dokładność, noyb podkreśla, że ChatGPT potrafi wygenerować fałszywe info w 3 do 27% przypadków. Co gorsza, firma nie odpowiedziała adekwatnie na żądanie dostępu do informacji, co jest klarownym wymogiem GDPR.

Ostatecznie, czy to w sądach, czy w laboratoriach, każda nowa 'innowacja’ AI stawia przed OpenAI dylemat: dostosować się do prawa, czy dalej lawirować na krawędzi legalności. Czyżby kolejna odsłona „AI kontra GDPR” miała się rozegrać w sądach Austrii?

Źródło

Wyjście z wersji mobilnej