Big Data Bezpieczeństwo Prawo Technologia

OpenAI przeciwko kalifornijskiemu projektowi ustawy SB 1047

Ostatnie wydarzenia w Kalifornii rzucają nowe światło na debatę dotyczącą bezpieczeństwa sztucznej inteligencji, podkreślając znaczenie bieżącej świadomości w tej dynamicznie rozwijającej się dziedzinie.

W samym sercu burzliwej debaty w Kalifornii znajduje się kontrowersyjny projekt ustawy SB 1047 dotyczący bezpieczeństwa AI, który przeszedł już przez kilka etapów legislacyjnych. Jeśli do końca miesiąca przegłosowany zostanie przez pełny Senat, trafi na biurko gubernatora Gavina Newsoma. Co ciekawe, projekt zakłada wprowadzenie dodatkowych środków bezpieczeństwa dla modeli AI, które kosztują więcej niż 100 milionów dolarów do szkolenia, a także tzw. 'kill switch’ – wyłącznik awaryjny na wypadek, gdyby model zaczął zachowywać się nieprzewidywalnie.

W odpowiedzi na sprzeciw OpenAI wobec tego projektu, dwaj byli pracownicy tej organizacji, William Saunders i Daniel Kokotajlo, wyrazili swoje rozczarowanie. W liście otwartym stwierdzili, że są „rozczarowani, ale nie zaskoczeni” postawą OpenAI. Argumentują, że opuszczenie firmy było dla nich koniecznością, ponieważ stracili zaufanie do sposobu, w jaki firma rozwija swoje systemy AI.

OpenAI w swoim liście do autora ustawy, senatora Scotta Wienera, twierdzi, że choć popiera intencje stojące za projektem, to jednak uważa, że regulacje federalne dotyczące rozwoju AI są lepszym rozwiązaniem. Firma argumentuje, że kwestie bezpieczeństwa narodowego, takie jak potencjalne zagrożenia chemiczne, biologiczne, radiologiczne i nuklearne, „najlepiej zarządzać na poziomie federalnym”.

Z kolei byli pracownicy OpenAI nie zgadzają się z tą argumentacją. W swoim liście podkreślają, że rozwijanie zaawansowanych modeli AI bez odpowiednich środków bezpieczeństwa niesie za sobą przewidywalne ryzyko katastrofalnych szkód dla społeczeństwa. Dodatkowo, zdaniem sygnatariuszy, fakt, że do tej pory nie doszło do scenariuszy zagłady, wynika nie z efektywności procesów bezpieczeństwa w firmach, ale z tego, że naprawdę niebezpieczne systemy jeszcze nie zostały zbudowane.

OpenAI nie jest jedyną firmą sprzeciwiającą się ustawie. Anthropic początkowo również wyrażało obawy, jednak po wprowadzeniu poprawek, firma wydaje się popierać projekt. CEO Anthropic, Dario Amodei, w liście do gubernatora Newsoma z 21 sierpnia stwierdził, że „nowa wersja SB 1047 jest znacznie ulepszona, do tego stopnia, że korzyści prawdopodobnie przewyższają koszty”.

Jeśli SB 1047 zostanie podpisana, może zmusić firmy takie jak OpenAI do skupienia znacznie większych zasobów na bezpieczeństwie AI, ale może również spowodować migrację firm technologicznych z Doliny Krzemowej. Jedno jest pewne, debata na temat regulacji AI jest daleka od zakończenia, a jej wynik może mieć dalekosiężne konsekwencje dla przyszłości technologii.

Źródło

Wyjście z wersji mobilnej