Gubernator Kalifornii, Gavin Newsom, zablokował ustawę dotyczącą sztucznej inteligencji, która podzieliła Dolinę Krzemową, ze względu na brak rozróżnienia między zagrożeniami związanymi z rozwojem modeli.
W znaczącym wydarzeniu dla branży AI, gubernator Gavin Newsom zawetował kontrowersyjny projekt ustawy Senatu, mający na celu rozwiązanie problemów związanych z bezpieczeństwem w zakresie użytkowania i rozwoju AI.
W swojej decyzji Newsom wskazał, że projekt ustawy „nie uwzględnia, czy system sztucznej inteligencji jest wdrażany w środowiskach wysokiego ryzyka, dotyczy kluczowych decyzji lub korzysta z wrażliwych danych”.
Projekt ustawy wymagałby, aby najbardziej zaawansowane modele AI poddawane były testom bezpieczeństwa, posiadały „wyłącznik awaryjny” oraz były objęte nadzorem w zakresie rozwoju potężnych modeli, tzw. Frontier Models.
Jednak ustawa wywołała ożywioną dyskusję w Dolinie Krzemowej, a także liczne miesiące lobbingu i publicznej debaty, ukazując głębokie podziały w branży technologicznej i skomplikowaną scenę polityczną związaną z regulacjami AI. Dolina Krzemowa była podzielona co do wartości SB-1047. Giganci technologiczni jak Google, Meta czy OpenAI zdecydowanie sprzeciwili się ustawie, argumentując, że może ona zahamować innowacje i przenieść rozwój AI poza Kalifornię. Z drugiej strony, niektórzy liderzy branży poparli regulacje.
Elon Musk, właściciel platformy X (dawniej Twitter), publicznie wsparł ustawę, mówiąc: „To trudna decyzja i na pewno kogoś zdenerwuje, ale biorąc pod uwagę wszystkie aspekty, Kalifornia powinna prawdopodobnie przyjąć ustawę SB 1047 dotyczącą bezpieczeństwa AI”.
Poparcie Muska podzielił także Dario Amodei, CEO Anthropic, który twierdził, że ustawa jest niezbędna do ochrony społeczeństwa i zwiększenia przejrzystości w branży.
Sytuację dodatkowo skomplikowała interwencja ośmiu członków Kongresu USA, w tym przedstawicielki Nancy Pelosi, którzy wezwali gubernatora Newsoma do zawetowania ustawy. Pelosi określiła SB-1047 jako „dobrze intencjonowaną, ale niedoinformowaną”, co odzwierciedlało obawy, że regulacje na poziomie stanowym mogłyby doprowadzić do stworzenia sprzecznych przepisów w różnych częściach kraju.
Decyzja gubernatora pozostawiła branżę AI w Kalifornii bez żadnych wiążących ograniczeń ze strony amerykańskich ustawodawców, co senator Wiener skrytykował jako potencjalnie niebezpieczne, biorąc pod uwagę „ciągłą paraliżującą bezczynność Kongresu w zakresie sensownej regulacji przemysłu technologicznego”.
Ten wynik podkreśla wyzwania związane z regulacją dynamicznie rozwijającej się technologii na poziomie stanowym. OpenAI, mimo sprzeciwu wobec SB-1047, poparło inną kalifornijską ustawę, AB 3211, która wymagałaby od firm technologicznych oznaczania treści generowanych przez AI. To selektywne podejście do regulacji podkreśla złożoność stanowisk firm w debacie o zarządzaniu AI.
Veto SB-1047 rodzi również pytania o przyszłość regulacji AI w Stanach Zjednoczonych. Federalne wysiłki na rzecz wprowadzenia zabezpieczeń dla AI utknęły, a teraz także istotna inicjatywa na poziomie stanowym została zablokowana, co pozostawia niejasną ścieżkę do wprowadzenia skutecznego nadzoru nad rozwojem AI.
Gubernator Newsom zapowiedział, że planuje współpracować z wiodącymi ekspertami w celu opracowania alternatywnych zabezpieczeń dla technologii AI, sugerując, że dyskusja na temat regulacji AI w Kalifornii jeszcze się nie skończyła.
Biorąc pod uwagę szybki rozwój zaawansowanych systemów AI i fakt, że UE wprowadziła własną ustawę dotyczącą AI, presja na wprowadzenie jakichś regulacji prawdopodobnie wzrośnie. Czy ich amerykańska wersja będzie pochodzić z Kongresu, czy zostanie uchwalona na poziomie federalnym, pozostaje jednak kwestią otwartą.