Bezpieczeństwo Etyka

OpenAI odwleka debiut narzędzia klonującego głos w obliczu wyborów

Nie taki klon głosu straszny, jak go malują? OpenAI wstrzymuje wypuszczenie narzędzia do klonowania głosu – a wybory tuż, tuż.

W świecie technologii, gdzie nowinki pojawiają się szybciej niż plotki na Twitterze, każdy kolejny dzień może przynieść przełom… albo przynajmniej solidną dawkę zdrowego sceptycyzmu. Tym razem na tapecie jest OpenAI – organizacja, która zasłynęła z rozwijania sztucznej inteligencji tak sprytnej, że aż strach się bać. A co zrobili tym razem? Ano postanowili zrobić krok w tył i wstrzymać wydanie narzędzia do klonowania głosu. Ale czyżby to był zwyczajny atak sumienia, czy może obawy o demokrację? Chodźcie, zagłębimy się w ten temat razem.

OpenAI, twórcy słynnego ChatGPT, który potrafi pisać teksty niemalże jak człowiek (tak, tak, niektórzy twierdzą, że lepiej niż niejeden blogger), stanęli przed dylematem etycznym. Ich najnowsze dzieło, narzędzie do klonowania głosu, mogłoby zostać wykorzystane do tworzenia fałszywych wiadomości głosowych tuż przed wyborami prezydenckimi w USA. A przecież nikt nie chce, aby jego głos został sklonowany i użyty do mówienia rzeczy, które by nawet w snach nie przyszły do głowy, prawda?

W obliczu nadchodzących wyborów w Stanach Zjednoczonych, OpenAI postanowiło, że lepiej dmuchać na zimne i opóźnić wypuszczenie tego narzędzia. Nie chcą, aby ich technologia przyczyniła się do rozprzestrzeniania fake newsów, które mogłyby wpłynąć na wynik wyborów. Odpowiedzialność społeczna? Obawa przed konsekwencjami prawnymi? A może po prostu nie chcą, aby ich AI stało się narzędziem politycznej manipulacji? Bez względu na powód, decyzja ta wywołała spore zamieszanie.

Podczas gdy jedni chwalą OpenAI za rozwagę i odpowiedzialność, inni kręcą nosem, twierdząc, że to kolejny krok ku ograniczaniu innowacji w imię bezpieczeństwa. Jak to zwykle bywa, opinie są podzielone, a Internet nie szczędzi komentarzy. „Czyżbyśmy właśnie uniknęli głosowej apokalipsy?” – żartują niektórzy. „A może po prostu przesunęliśmy ją na później?” – zastanawiają się inni.

W każdym razie, OpenAI udowadnia, że nawet w świecie AI etyka ma swoje miejsce. Czy to nie ironiczne? Maszyny uczące się odpowiedzialności od swoich twórców. I choć narzędzie do klonowania głosu zostało wstrzymane, to możemy być pewni, że prace nad nim trwają. Kto wie, może za jakiś czas będziemy świadkami jego wielkiego powrotu – oczywiście z odpowiednimi zabezpieczeniami, które zapobiegną wykorzystaniu go do niecnych celów.

Źródło

Wyjście z wersji mobilnej