Komisja Europejska rozpoczęła projekt opracowania pierwszego w historii Kodeksu Postępowania dla Sztucznej Inteligencji Ogólnego Zastosowania, który jest ściśle powiązany z niedawno przyjętym unijnym Aktem o Sztucznej Inteligencji.
Kodeks ma na celu ustalenie jasnych zasad dla modeli AI, takich jak ChatGPT czy Google Gemini, zwłaszcza w kwestiach związanych z przejrzystością, prawami autorskimi oraz zarządzaniem ryzykami, które mogą wynikać z działania tych potężnych systemów.
Podczas niedawnej sesji plenarnej online, niemal 1000 ekspertów z akademii, przemysłu oraz organizacji społecznych zebrało się, aby pomóc w kształtowaniu tego dokumentu.
Cały proces jest prowadzony przez grupę 13 międzynarodowych ekspertów, w tym Yoshua Bengio, jednego z „ojców chrzestnych” sztucznej inteligencji, który kieruje zespołem skupionym na ryzykach technicznych. Bengio, laureat nagrody Turinga, która jest odpowiednikiem Nagrody Nobla w dziedzinie informatyki, cieszy się zasłużonym autorytetem.
Poglądy Bengio na temat katastrofalnych ryzyk związanych z potężną AI sugerują, że jego zespół skupi się na bardziej pesymistycznym podejściu do przyszłości tej technologii.
Grupy robocze będą regularnie spotykać się, aby stworzyć Kodeks, a ostateczna wersja ma być gotowa w kwietniu 2025 roku. Po jego przyjęciu, dokument ten będzie miał ogromny wpływ na każdą firmę, która chce wprowadzać swoje produkty AI na rynek Unii Europejskiej.
Unijny Akt o AI ustanawia surowe ramy regulacyjne dla dostawców sztucznej inteligencji, natomiast Kodeks Postępowania będzie praktycznym przewodnikiem, którym firmy będą musiały się kierować. Dokument ten będzie regulował kwestie takie jak większa przejrzystość systemów AI, zgodność z prawami autorskimi oraz ustanawianie środków zarządzania ryzykiem.
Zespoły pracujące nad kodeksem będą musiały znaleźć balans między odpowiedzialnym i bezpiecznym rozwojem AI, a niehamowaniem innowacji – coś, za co UE już jest krytykowana. Najnowsze modele AI od Meta, Apple i OpenAI nie są w pełni wdrażane w UE z powodu restrykcyjnych przepisów o ochronie prywatności (GDPR).
Konsekwencje są ogromne. Jeśli Kodeks zostanie dobrze przygotowany, może stać się globalnym standardem w zakresie bezpieczeństwa i etyki AI, dając UE rolę lidera w regulowaniu sztucznej inteligencji. Jeśli jednak będzie zbyt restrykcyjny lub niejasny, może spowolnić rozwój AI w Europie, zmuszając innowatorów do przenoszenia się gdzie indziej.
Chociaż UE z pewnością chciałaby, aby jej Kodeks został przyjęty globalnie, jest to mało prawdopodobne, biorąc pod uwagę bardziej pro-rozwojowe podejście Chin i USA do regulacji AI. Dobrym przykładem różnicy podejść jest odrzucenie w Kalifornii ustawy SB 1047 dotyczącej bezpieczeństwa AI.
AGI (Sztuczna Inteligencja Ogólna) prawdopodobnie nie powstanie w Europie, ale również mniej prawdopodobne jest, że to właśnie UE stanie się centrum potencjalnej katastrofy związanej z AI.
Big Data
Bezpieczeństwo
Etyka
Prawo
Wybór redakcji
Powstaje europejski kodeks AI
- 2024-10-01
- 0 Uwagi
- 334 Wyświetlone
