Unijna regulacja AI zaczyna obowiązywać: koniec z najbardziej ryzykownymi systemami
Bezpieczeństwo Big Data Prawo Wybór redakcji

Unijna regulacja AI zaczyna obowiązywać: koniec z najbardziej ryzykownymi systemami

Od 2 lutego 2025 r. w Unii Europejskiej zaczęły obowiązywać pierwsze wymogi AI Act – przełomowej regulacji dotyczącej sztucznej inteligencji. Oznacza to, że niektóre systemy AI uznane za „nieakceptowalne” zostały oficjalnie zakazane, a firmy korzystające ze sztucznej inteligencji muszą zadbać o odpowiednią wiedzę swoich pracowników w tym zakresie.

To dopiero początek. AI Act wszedł w życie w sierpniu 2024 r., a jego głównym celem jest ograniczenie ryzyk związanych ze sztuczną inteligencją oraz nadanie Europie kluczowej roli w kształtowaniu tej technologii. Regulacja określa jasne zasady dotyczące projektowania, wdrażania i stosowania AI, w zależności od poziomu ryzyka, jakie dany system może stanowić dla społeczeństwa.

Nie przestrzegasz przepisów? Szykuj się na milionowe kary

Przekroczenie pierwszego terminu zgodności oznacza, że przedsiębiorstwa muszą przestrzegać ograniczeń dotyczących systemów AI uznanych za zagrożenie dla bezpieczeństwa, praw i środków do życia ludzi. Niezastosowanie się do przepisów grozi potężnymi karami: firmy mogą zostać obciążone grzywną w wysokości do 35 milionów euro lub 7% rocznego globalnego obrotu – w zależności od tego, która suma jest wyższa.

Czym jest AI Act?

AI Act to europejska odpowiedź na dynamiczny rozwój sztucznej inteligencji. Komisja Europejska podkreśla, że choć większość systemów AI nie stwarza istotnego ryzyka, niektóre mogą prowadzić do niepożądanych skutków dla ludzi i firm.

Z tego względu wprowadzono regulacje oparte na podejściu „zależnym od ryzyka”, gdzie poziom nadzoru jest dostosowany do potencjalnego zagrożenia, jakie niesie dana technologia.

AI pod lupą: zasady dostosowane do ryzyka

Regulacja dzieli systemy AI na cztery kategorie ryzyka:

  • Minimalne lub żadne ryzyko – większość powszechnie używanych narzędzi AI.
  • Ograniczone ryzyko – np. chatboty, które muszą spełniać wymogi transparentności.
  • Wysokie ryzyko – systemy podlegające ścisłym zasadom, obejmujące np. aplikacje medyczne, rekrutacyjne czy związane z infrastrukturą krytyczną.
  • Nieakceptowalne ryzyko – systemy zakazane na terenie UE.
Zakazane technologie – czego nie zobaczymy w Europie?

Od 2 lutego w UE obowiązuje zakaz stosowania ośmiu rodzajów systemów AI uznanych za zbyt niebezpieczne. Na czarnej liście znalazły się m.in.:

  • AI wykorzystujące podatność ludzi na manipulację ze względu na wiek, status społeczno-ekonomiczny czy niepełnosprawność.
  • AI stosujące techniki oszukańcze i manipulacyjne w podejmowaniu decyzji.
  • AI przewidujące popełnienie przestępstwa na podstawie wyglądu osoby.
  • AI do systemów oceny społecznej (na wzór chińskiego social credit).
  • AI masowo zbierające dane biometryczne z internetu lub CCTV.
  • AI analizujące emocje w miejscach pracy i szkołach.
  • AI wykorzystujące dane biometryczne do określania cech osobowościowych ludzi.
  • AI monitorujące ludzi w przestrzeni publicznej za pomocą technologii biometrycznej na potrzeby organów ścigania.
GenAI pod lupą

Generatywna sztuczna inteligencja, w tym narzędzia AI do tworzenia tekstu, obrazów czy wideo, została uznana za „sztuczną inteligencję ogólnego przeznaczenia” i również podlega regulacjom. Od 2 sierpnia 2025 r. twórcy takich systemów będą musieli przestrzegać m.in. unijnego prawa autorskiego, informować o sposobach szkolenia modeli AI oraz dbać o bezpieczeństwo systemów.

Z kolei AI wbudowana w produkty objęte regulacjami, np. w medycynę czy motoryzację, otrzymała okres przejściowy – zasady dla tych systemów zaczną obowiązywać od 2 sierpnia 2027 r.

Co dalej?

AI Act to pierwsza na świecie tak kompleksowa regulacja dotycząca sztucznej inteligencji, a jej wdrażanie będzie przebiegać stopniowo. O ile firmy AI dostaną jeszcze trochę czasu na dostosowanie się do pełnych wymogów, to jedno jest pewne – w Europie kończy się era „dzikiego zachodu” w AI. Regulacje wchodzą w życie i nieprzestrzeganie ich może sporo kosztować.

Źródło