Włoskie władze z ultimatum dla OpenAI: Czy ChatGPT przetrwa próbę czasu?
Technologia Bezpieczeństwo Prawo Wybór redakcji

Włoskie władze z ultimatum dla OpenAI: Czy ChatGPT przetrwa próbę czasu?

Włoski Urząd Ochrony Danych Osobowych (GPDP) wyraził zgodę na zniesienie zakazu korzystania z ChatGPT, pod warunkiem spełnienia przez OpenAI określonych warunków. Ograniczenie dostępu do ChatGPT wprowadzono w ramach trwającego śledztwa dotyczącego tego, czy bot narusza włoskie przepisy dotyczące ochrony danych osobowych oraz unijną Ogólną Dyrektywę o Ochronie Danych (RODO).

GPDP wyraziło obawy, że ChatGPT może wydobywać i emitować informacje osobiste, takie jak numery telefonów czy adresy, z wprowadzanych zapytań. Ponadto urzędnicy obawiali się, że chatbot może narażać nieletnich na nieodpowiednie odpowiedzi, które mogą być dla nich szkodliwe.

Władze GPDP zadeklarowały, że zniosą zakaz korzystania z ChatGPT, jeśli OpenAI, twórca chatbota, do 30 kwietnia 2023 roku wprowadzi zasady chroniące nieletnich oraz dane osobowe użytkowników. OpenAI zostało poproszone o poinformowanie osób odwiedzających stronę internetową o tym, w jaki sposób ChatGPT przechowuje i przetwarza ich dane oraz o wymaganiu od użytkowników potwierdzenia, że mają 18 lat lub więcej przed korzystaniem z oprogramowania.

Wprowadzenie procesu weryfikacji wieku będzie wymagane przy rejestrowaniu nowych użytkowników, a dzieciom poniżej 13. roku życia należy uniemożliwić dostęp do oprogramowania. Osoby w wieku 13-18 lat muszą uzyskać zgodę rodziców na korzystanie z ChatGPT.

Firma musi również prosić o wyraźną zgodę na wykorzystywanie danych osób do szkolenia swoich modeli AI i umożliwić każdemu, niezależnie od tego, czy jest użytkownikiem czy nie, żądanie poprawienia lub usunięcia fałszywych informacji osobowych generowanych przez ChatGPT. Wszystkie te zmiany muszą zostać wprowadzone do 30 września, w przeciwnym razie zakaz zostanie przywrócony.

To posunięcie jest częścią szerszego trendu wzrostu kontroli nad technologiami AI przez regulatorów na całym świecie. ChatGPT nie jest jedynym systemem AI, który spotkał się z wyzwaniami regulacyjnymi.

Regulatorzy w Kanadzie i Francji również wszczęli śledztwa dotyczące tego, czy ChatGPT narusza przepisy dotyczące ochrony danych osobowych po otrzymaniu oficjalnych skarg. Tymczasem Hiszpania wezwała unijnego organu nadzorującego ochronę prywatności do przeprowadzenia głębszego śledztwa w sprawie ChatGPT.

Międzynarodowe zainteresowanie ChatGPT i podobnymi systemami AI uwydatnia konieczność działania ze strony twórców, w celu szybkiego reagowania na obawy związane z ochroną prywatności oraz wdrażania zabezpieczeń, które mają na celu ochronę danych osobowych użytkowników.

Przypadki takie jak ten z ChatGPT pokazują, że przyszłość technologii AI będzie coraz bardziej uregulowana, a ochrona prywatności oraz danych osobowych będzie kluczowym elementem. Firmy i twórcy AI muszą być gotowi na współpracę z regulatorami oraz dostosowywanie się do nowych wymogów, aby móc dalej rozwijać swoje innowacje i oferować wartościowe usługi dla społeczeństwa.

Ważne jest również, aby użytkownicy AI, zarówno indywidualni, jak i korporacyjni, byli świadomi ograniczeń i zagrożeń związanych z korzystaniem z tych technologii, aby móc podejmować świadome decyzje dotyczące ich prywatności i ochrony danych osobowych.

Zarówno rozwój technologii AI, jak i rosnąca świadomość społeczna na temat ochrony danych osobowych, są kluczowe dla przyszłości cyfrowej. Dlatego tak ważne jest, aby twórcy AI oraz regulator wspólnie dążyli do stworzenia zrównoważonego i bezpiecznego środowiska cyfrowego dla wszystkich użytkowników.

Leave feedback about this

  • Quality
  • Price
  • Service

PROS

+
Add Field

CONS

+
Add Field
Choose Image
Choose Video