Bezpieczeństwo Prawo Technologia

AI bez tajemnic: USA promuje transparentność w technologiach

Wygląda na to, że administracja Bidena-Harrisa postanowiła zagrać otwartymi kartami w kwestii sztucznej inteligencji. Departament Handlu USA właśnie wydał politykę popierającą otwarte modele AI, co jest jasnym sygnałem ich stanowiska w tej burzliwej debacie. A wiesz co? To trochę jak wybrać się na randkę w ciemno z technologią – nigdy nie wiesz, na co naprawdę się piszesz!

Podczas gdy giganci takie jak OpenAI czy Google podnoszą alarm dotyczący ryzyka związanego z otwartymi modelami, inni gracze, jak Meta, stawiają na wersje open-source. Raport Departamentu Handlu, opracowany przez jego dział National Telecommunications and Information Administration (NTIA), nie tylko przytula „otwartość w sztucznej inteligencji”, ale także wzywa do aktywnego monitorowania ryzyka w potężnych modelach AI.

Przeciwnicy otwartego udostępniania modeli często wskazują na dwuznaczne ryzyko, które może zostać wykorzystane przez złoczyńców. Jednak polityka przyznaje, że korzyści przeważają nad ryzykiem. Jak powiedziała sekretarz handlu USA, Gina Raimondo, „Administracja Bidena-Harrisa używa każdego dostępnego narzędzia, aby maksymalizować obietnice AI, minimalizując jednocześnie jej ryzyka”.

Raport przedstawia drogę dla odpowiedzialnej innowacji w AI i amerykańskiego liderstwa, poprzez promowanie otwartości i zalecenia, jak rząd USA może przygotować się i dostosować do przyszłych wyzwań.

A co z dostępem do modeli? Każdy może pobrać najnowszy model Llama 3.1 405B od Metay, wraz z jego wagami. Chociaż dane treningowe nie zostały udostępnione, posiadanie wag daje użytkownikom znacznie więcej opcji niż w przypadku GPT-4o czy Claude 3.5 Sonnet. Dostęp do wag pozwala badaczom i deweloperom lepiej zrozumieć, co dzieje się w „mózgu” modelu, oraz zidentyfikować i naprawić błędy, błędne tendencje czy nieoczekiwane zachowania.

Raport zauważa, że „dostępność otwartych wag znacząco obniża barierę wejścia do dostosowywania modeli zarówno do celów korzystnych, jak i szkodliwych. Wrogowie mogą usunąć zabezpieczenia z otwartych modeli poprzez dostosowanie, a następnie swobodnie dystrybuować model, co ostatecznie ogranicza wartość technik łagodzenia”.

Jeśli chodzi o ryzyka i korzyści otwartych modeli AI, raport mówi jasno: bezpieczeństwo publiczne, kwestie geopolityczne, problemy społeczne, konkurencja, innowacje i badania – wszystkie te obszary niosą ryzyko, ale korzyści przeważają, jeśli ryzyko jest zarządzane.

Z zamkniętym modelem, jak GPT-4o, musimy zaufać, że OpenAI dobrze radzi sobie z dostosowywaniem i nie ukrywa potencjalnych ryzyk. Z otwartym modelem, każdy badacz może zidentyfikować luki w bezpieczeństwie i przeprowadzić audyt zewnętrzny, aby upewnić się, że model jest zgodny z regulacjami.

Wygląda na to, że rząd USA jest całkowicie przekonany do idei otwartych modeli AI, nawet jeśli wprowadza federalne i stanowe regulacje, aby zminimalizować ryzyko technologiczne. Jeśli w następnych wyborach zwycięży drużyna Trump-Vance, prawdopodobnie zobaczymy dalsze wsparcie dla otwartego AI, ale z jeszcze mniejszą regulacją.

Otwarte modele mogą być świetne dla innowacji, ale jeśli pojawiające się ryzyka zaskoczą regulatorów, nie będzie już możliwości zamknięcia dżina AI z powrotem w butelce. Cóż, przynajmniej nie będziemy się nudzić, obserwując, jak wszystko się rozgrywa!

Źródło

Wyjście z wersji mobilnej