Bezpieczeństwo Big Data Business Etyka Wybór redakcji

Kryzys zaufania w sektorze technologicznym: Skandale związane z danymi i koncentracja mocy.

W miarę jak rywalizacja o dominację w świecie sztucznej inteligencji nabiera tempa, giganci technologiczni przekraczają granice etyki i testują granice zaufania społecznego.

Ostatnie doniesienia ujawniają wzorce zachowań, które zapalają czerwone lampki w kontekście prywatności danych, uczciwej konkurencji i koncentracji władzy w branży technologicznej. Na pierwszy ogień idzie śledztwo przeprowadzone przez Proof News i WIRED, które odkryło, że takie firmy jak Apple, NVIDIA, Anthropic i Salesforce wykorzystywały zbiór danych zawierający napisy z ponad 170 000 filmów na YouTube do szkolenia swoich modeli AI. Ten zbiór, znany jako „YouTube Subtitles”, został skompilowany bez zgody twórców treści, co potencjalnie narusza warunki korzystania z serwisu YouTube.

Skala tej operacji wydobywczej jest zdumiewająca. Obejmuje treści od instytucji edukacyjnych takich jak Harvard, przez popularnych YouTuberów jak MrBeast czy PewDiePie, aż po główne media takie jak The Wall Street Journal czy BBC. YouTube jeszcze nie zareagował, ale jeszcze w kwietniu CEO Neal Mohan stwierdził, że ewentualne wykorzystanie przez OpenAI filmów do trenowania modelu tekstowo-wideo Sora naruszyłoby jego warunki korzystania z serwisu, mówiąc Bloombergowi, że „jeśli Sora użyłaby treści z YouTube, byłoby to 'wyraźne naruszenie’ warunków korzystania z serwisu”.

OpenAI tym razem nie znajduje się wśród oskarżonych, ale nie wiadomo, czy YouTube podejmie jakiekolwiej działania, jeśli nowe zarzuty okażą się prawdziwe. To nie pierwszy raz, kiedy firmy technologiczne znalazły się na celowniku. W 2018 roku Facebook stanął w obliczu intensywnej kontroli po aferze Cambridge Analytica, gdzie dane milionów użytkowników zostały wykorzystane bez zgody na cele polityczne.

Co więcej, w 2023 roku odkryto, że zbiór danych o nazwie Books3, zawierający ponad 180 000 chronionych prawem autorskim książek, był wykorzystywany do szkolenia modeli AI bez zgody autorów. Doprowadziło to do fali pozwów przeciwko firmom AI, z autorami twierdzącymi o naruszenie praw autorskich. To tylko jeden przykład z rosnącej sterty pozwów pochodzących z każdego zakątka branży kreatywnej.

W swoim pędzie do budowania coraz bardziej zaawansowanych modeli AI, firmy technologiczne wydają się przyjmować podejście „proś o wybaczenie, a nie o pozwolenie” w kwestii pozyskiwania danych. A skandal z YouTube toczy się dalej, praktyki zatrudnieniowe Microsoftu, które obejmowały masowe zatrudnianie pracowników startupu AI Inflection, przyciągnęły uwagę brytyjskich regulatorów.

Urząd ds. Konkurencji i Rynków (CMA) wszczął dochodzenie w sprawie fuzji pierwszej fazy, badając, czy masowe zatrudnienie stanowi de facto fuzję, która mogłaby stłumić konkurencję w sektorze AI. Ten ruch Microsoftu, który obejmował zatrudnienie współzałożyciela Inflection, Mustafy Suleymana (byłego wykonawcy Google DeepMind) oraz znaczną część personelu startupu, był szybki i zdecydowany.

Przyjmuje na dodatkową wagę, biorąc pod uwagę istniejące partnerstwa Microsoftu w dziedzinie AI. Firma zainwestowała już łącznie około 13 miliardów dolarów w OpenAI, co rodzi pytania o koncentrację rynku. To także następuje po wycofaniu się Microsoftu z pozycji niemającej prawa głosu w zarządzie OpenAI. Eksperci twierdzą, że prawdopodobnie wynikało to z decyzji o ograniczeniu ich nadzoru, aby złagodzić antymonopolowe władze.

Krytycy i regulatorzy twierdzą, że grozi to pogłębieniem oligopolu w sektorze AI, potencjalnie hamując innowacje i ograniczając wybór konsumentów. Zarówno skandal związany z wydobyciem danych z YouTube, jak i praktyki zatrudnieniowe Microsoftu przyczyniają się do rosnącego deficytu zaufania między Big Tech a społeczeństwem.

Twórcy treści stają się bardziej ostrożni wobec swojej pracy, obawiając się wykorzystania. Może to mieć efekt domina na tworzenie i udostępnianie treści, ostatecznie zubożając platformy, na których firmy technologiczne polegają dla danych. Podobnie, koncentracja talentów AI w kilku dużych firmach homogenizuje rozwój AI i ogranicza różnorodność.

Dla firm technologicznych odbudowa zaufania będzie prawdopodobnie wymagać więcej niż tylko przestrzegania przyszłych regulacji i dochodzeń antymonopolowych. Pytanie pozostaje: czy możemy wykorzystać potencjał AI, zachowując przy tym etykę, uczciwą konkurencję i zaufanie publiczne?

Źródło

Wyjście z wersji mobilnej