Nowe wyzwania etyczne i prawne w erze AI: Przypadek generowania nielegalnych obrazów
Bezpieczeństwo Etyka Prawo Technologia

Nowe wyzwania etyczne i prawne w erze AI: Przypadek generowania nielegalnych obrazów

Ostatnie doniesienia z frontu technologicznego rzucają nowe światło na ciemne strony sztucznej inteligencji.

W ostatnim czasie FBI postawiło zarzuty mieszkańcowi Stanów Zjednoczonych, Stevenowi Andereggowi, który miał stworzyć ponad 13 000 seksualnie wyraźnych i obraźliwych obrazów dzieci, wykorzystując do tego popularne narzędzie AI. Anderegg, 42-latek, miał również wysyłać pornograficzne obrazy stworzone przez AI piętnastolatkowi za pośrednictwem Instagrama. Według aktu oskarżenia, Anderegg wyprodukował około 13 000 „hiperrealistycznych obrazów nagich i częściowo ubranych dzieci przed dojrzewaniem”, często przedstawiających dzieci dotykające swoich narządów płciowych lub będące seksualnie wykorzystywane przez dorosłych mężczyzn.

Eksperci z National Center for Missing & Exploited Children (NCMEC) otrzymali w zeszłym roku dwa raporty, które zasygnalizowały działania Anderegga na Instagramie, co skłoniło funkcjonariuszy do monitorowania jego aktywności w sieci, uzyskania informacji od Instagrama, a ostatecznie do uzyskania nakazu przeszukania. W wyniku przeszukania laptopa Anderegga znaleziono tysiące obrazów generowanych przez AI, a także historię używania „wyjątkowo szczegółowych i wyraźnych poleceń” do tworzenia materiałów nadużywających.

Anderegg został oskarżony o cztery przestępstwa związane z tworzeniem, rozpowszechnianiem i posiadaniem materiałów z wykorzystaniem seksualnym dzieci oraz wysyłaniem materiałów wyraźnych do dziecka poniżej 16 roku życia. Jeśli zostanie skazany, grozi mu maksymalnie około 70 lat więzienia. Jest to jeden z pierwszych przypadków, gdy FBI oskarża kogoś o generowanie materiałów CSAM przy użyciu AI.

Bezpieczeństwo dzieci w sieci to temat, który nieustannie budzi kontrowersje, zwłaszcza w obliczu rosnącej popularności AI. Wzrost zgłoszeń nadużyć wobec dzieci online do NCMEC o około 12% w 2023 roku w porównaniu z poprzednim rokiem, częściowo z powodu gwałtownego wzrostu materiałów stworzonych przez AI, zagraża przepełnieniu linii pomocy tej organizacji w identyfikacji potencjalnych CSAM.

Stability AI, firma stojąca za Stable Diffusion, modelem sztucznej inteligencji typu open-source, który był wcześniej wykorzystywany do generowania obraźliwych obrazów, stwierdziła, że zabrania używania swojego modelu do tworzenia nielegalnych treści.

W obliczu rosnącej fali nadużyć, zarówno rząd Stanów Zjednoczonych, jak i organizacje pozarządowe apelują o zwiększenie świadomości i odpowiedzialności w korzystaniu z technologii AI. Jak widać, nawet najbardziej obiecujące narzędzia mogą być wykorzystywane w sposób, który budzi poważne obawy etyczne i prawne.

Źródło