W świecie technologii, gdzie giganci tacy jak Amazon, Google i Meta rozdają karty, australijska komisja senacka postanowiła wyciągnąć ich na dywanik. Raport opublikowany w ramach dochodzenia nie pozostawia złudzeń: korporacje te grają na swoich zasadach, wykorzystując australijskie dane, kulturę i kreatywność do trenowania swoich zaawansowanych modeli sztucznej inteligencji.
Przewodniczący komisji, senator Tony Sheldon, nie owijał w bawełnę:
– „Patrzenie, jak Amazon, Meta i Google unikają odpowiedzi, to jak oglądanie taniej sztuczki magicznej: mnóstwo gestykulacji, trochę dymu i… nic konkretnego na końcu” – skomentował w oświadczeniu.
Gigantów nazwał „piratami”, którzy plądrują dane i kulturę, zostawiając Australijczyków z pustymi rękami.
Raport komisji wskazuje, że modele AI takie jak GPT od OpenAI, Llama od Metai Gemini od Google, powinny być uznawane za „wysokiego ryzyka”. W praktyce oznacza to, że powinny podlegać obowiązkowej transparentności oraz dodatkowym regulacjom. Z 13 rekomendacji zawartych w dokumencie najbardziej wyróżnia się propozycja wprowadzenia niezależnego ustawodawstwa dotyczącego AI oraz ochrony pracowników kreatywnych.
Tony Sheldon wskazał, że Australia pilnie potrzebuje odrębnych przepisów dla AI, by okiełznać wielkich graczy z Doliny Krzemowej.
– „Chcą ustalać własne reguły, ale Australijczycy potrzebują praw chroniących ich prawa, a nie zysków Silicon Valley” – podkreślił.
Przykłady ignorancji technologicznych gigantów? Amazon odmówił ujawnienia, w jaki sposób dane z urządzeń takich jak Alexa, Kindle czy Audible są wykorzystywane w treningach AI. Google także zasłaniało się tajemnicą, jeśli chodzi o dane użytkowników swoich usług. Meta z kolei przyznała się, że od 2007 roku zbiera dane z Facebooka i Instagrama, by trenować swoje modele AI, ale… nie wyjaśniła, jak użytkownicy mogli wyrazić zgodę na coś, co wtedy jeszcze nie istniało.
Raport ostrzega, że to pracownicy sektora kreatywnego odczują najszybciej negatywne skutki AI. Komisja rekomenduje wprowadzenie mechanizmów płatności dla twórców, jeśli ich prace zostaną wykorzystane w generowanych treściach. Oprogramowanie AI powinno również obowiązkowo ujawniać, jakie utwory wykorzystuje, a za każde użycie należy zapłacić licencję.
Nie wszyscy byli jednak zgodni co do potrzeby zacieśniania regulacji. Dwójka senatorów z koalicji, Linda Reynolds i James McGrath, zwróciła uwagę, że AI może być większym zagrożeniem dla bezpieczeństwa narodowego i cyberbezpieczeństwa niż dla gospodarki kreatywnej. Ich zdaniem AI może przynieść ogromne korzyści w zakresie tworzenia miejsc pracy i wzrostu produktywności, o ile nie zostanie „uduszona biurokratyczną taśmą”.
Australijskie organizacje takie jak Media Entertainment and Arts Alliance z entuzjazmem przyjęły raport, domagając się jasnych regulacji na wzór tych wprowadzonych w Europie czy Kalifornii. Jak zauważyła organizacja Apra Amcos, raport daje nadzieję na zmniejszenie ryzyka dla artystów i twórców.
Czy Australia zdecyduje się postawić granicę wielkim korporacjom, chroniąc jednocześnie twórców i użytkowników? Odpowiedź zapewne poznamy wkrótce. Na razie, wygląda na to, że big tech musi przestać myśleć, że może robić wszystko „pod przykrywką technologicznego postępu”.