Innowacyjna metoda szkolenia modeli AI na zniekształconych obrazach: Ambient Diffusion.
Grafika Prawo Technologia Wybór redakcji

Innowacyjna metoda szkolenia modeli AI na zniekształconych obrazach: Ambient Diffusion.

Odkrycie z Teksasu może zrewolucjonizować sposób, w jaki szkolimy sztuczną inteligencję, radząc sobie z problemami praw autorskich i otwierając nowe możliwości w dziedzinach naukowych i medycznych.

W świecie, gdzie AI coraz częściej „podgląda” nasze zdjęcia, naukowcy z Uniwersytetu w Teksasie w Austin wprowadzili do gry nowego gracza – metodę o nazwie Ambient Diffusion. Ta innowacyjna technika pozwala modelom AI czerpać inspiracje z obrazów, które są tak zniekształcone, że trudno nawet powiedzieć, co przedstawiają. To trochę jak próba malowania portretu w ekstremalnie mglisty dzień – wiesz, że coś tam jest, ale co dokładnie, to już większa tajemnica.

Tradycyjne modele przekształcające tekst w obraz, takie jak DALL-E czy Stable Diffusion, mają ten problem, że uczą się na podstawie danych, które często zawierają chronione prawem autorskim obrazy. To może prowadzić do niechcianego kopiowania tych obrazów. Ambient Diffusion zmienia zasady gry, ucząc modele na danych celowo zniekształconych.

W ramach badania zespół naukowców, w tym Alex Dimakis i Giannis Daras z wydziału Inżynierii Elektrycznej i Komputerowej oraz Constantinos Daskalakis z MIT, przeszkolił model Stable Diffusion XL na zbiorze 3000 zdjęć celebrytów. Początkowo modele szkolone na czystych danych po prostu kopiowały przykłady z treningu. Ale gdy dane zostały zniekształcone – z losowym maskowaniem do 90% pikseli – model nadal produkował wysokiej jakości, unikalne obrazy.

„Nasza metoda pozwala kontrolować kompromis między zapamiętywaniem a wydajnością,” wyjaśnia Giannis Daras, doktorant z dziedziny informatyki, który kierował pracami. „Im większe zniekształcenie danych podczas treningu, tym mniejsze zapamiętywanie zestawu treningowego.”

Co ciekawe, zastosowania Ambient Diffusion wykraczają poza rozwiązywanie problemów z prawami autorskimi. Profesor Adam Klivans, współpracownik w projekcie, zauważa, że framework może być użyteczny również w aplikacjach naukowych i medycznych, szczególnie tam, gdzie pełne zestawy niezniekształconych danych są drogie lub niemożliwe do uzyskania – od obrazowania czarnych dziur po niektóre typy skanów MRI.

Jeśli podejście Ambient Diffusion zostanie dalej udoskonalone, firmy AI mogłyby tworzyć funkcjonalne modele przekształcające tekst w obraz, jednocześnie szanując prawa twórców oryginalnych treści i unikając problemów prawnych. To może nie rozwiąże obaw dotyczących tego, że narzędzia AI do obrazów zmniejszają pulę pracy dla prawdziwych artystów, ale przynajmniej ochroni ich dzieła przed przypadkowym powielaniem w wynikach.

W końcu, kto by pomyślał, że kluczem do przyszłości AI może być… trochę więcej bałaganu w danych?

Źródło