Jennifer Aniston, Oprah Winfrey i Kylie Jenner mogą „pochwalić się” czymś, czego by nigdy nie chciały. Ich głosy, jak i wielu innych celebrytów, zostały z premedytacją sklonowane przez oszustów za pomocą sztucznej inteligencji.
W dzisiejszych czasach posiadanie rozpoznawalnego głosu staje się ryzykowne, a jak ostrzegają specjaliści, prawo nie nadąża za szybkim rozwojem technologii klonowania głosu. Nawet David Attenborough, słynny przyrodnik, wyznał ostatnio, że czuje się „głęboko zaniepokojony” po odkryciu, że jego głos został sklonowany i wykorzystany do nadawania stronniczych wiadomości w USA.
Dr Dominic Lees, specjalista ds. sztucznej inteligencji i doradca brytyjskiej komisji parlamentarnej, w rozmowie z „The Guardian” zauważa, że obecne przepisy dotyczące prywatności i praw autorskich nie są przygotowane na tego typu zagrożenia. „David Attenborough niewiele może zrobić w tej sytuacji” – dodaje. Lees pomaga obecnie brytyjskim parlamentarzystom badać etyczne aspekty AI w przemyśle filmowym i telewizyjnym. Oczywiście są też przypadki zgody – jak np. projekt „Virtually Parkinson”, w którym głos zmarłego prezentera Michaela Parkinsona będzie wykorzystywany w nowej, ośmioodcinkowej serii. Rodzina Parkinsona wyraziła na to zgodę, co jednak wcale nie jest standardem.
„Rząd musi poważnie zająć się kwestią klonowania głosów, bo stanowi to poważny problem w kontekście oszustw” – stwierdza Lees. Z badań wynika, że liczba prób wyłudzeń za pomocą sklonowanych głosów wzrosła w Wielkiej Brytanii aż o 30% w ciągu ostatniego roku. Popularny wariant to „oszustwo na dziecko”, gdzie złodzieje podszywają się pod dzieci proszące o pilny przelew. Tego typu próby oszustwa, szczególnie na rozmazanych połączeniach telefonicznych, mogą być niezwykle trudne do wykrycia.
Ofiary oszustw z użyciem ich głosów odczuwają nie tylko dyskomfort. David Attenborough wyraził swoje oburzenie w wywiadzie dla BBC, mówiąc: „Spędziłem życie na głoszeniu prawdy, a teraz muszę mierzyć się z tym, że ktoś kradnie moją tożsamość i wypowiada się w moim imieniu.” Aktorka Scarlett Johansson była podobnie zaskoczona, gdy nowa funkcja AI głosowego ChatGPT-4o od OpenAI zaczęła brzmieć „niemal identycznie” jak jej własny głos. Johansson przyznała, że przyjaciele i media mieli problem z odróżnieniem prawdziwej wersji od klona.
Mimo tych postępów, technologia wciąż ma swoje ograniczenia. Jak zauważa Lees, sztuczna inteligencja nie potrafi prawidłowo odczytać emocji, które często decydują o tonie wypowiedzi i przekazie. „Sztuczna intonacja może odwzorować oddech, ale jest on powtarzalny i nienaturalny” – dodaje Joe Lewis z londyńskiego Voiceover Gallery, firmy zajmującej się nagraniami głosowymi. Zdaniem Lewisa, AI nadal najlepiej radzi sobie z angielskimi głosami mężczyzn, co jest efektem składu danych używanych do trenowania algorytmów.
Jakie są perspektywy na przyszłość? Według Lewisa – choć AI może być blisko perfekcji w naśladowaniu głosu, to pełne odtworzenie emocji, które składają się na autentyczną wypowiedź człowieka, to wciąż odległy cel.
W dzisiejszych czasach posiadanie rozpoznawalnego głosu staje się ryzykowne, a jak ostrzegają specjaliści, prawo nie nadąża za szybkim rozwojem technologii klonowania głosu. Nawet David Attenborough, słynny przyrodnik, wyznał ostatnio, że czuje się „głęboko zaniepokojony” po odkryciu, że jego głos został sklonowany i wykorzystany do nadawania stronniczych wiadomości w USA.
Dr Dominic Lees, specjalista ds. sztucznej inteligencji i doradca brytyjskiej komisji parlamentarnej, w rozmowie z „The Guardian” zauważa, że obecne przepisy dotyczące prywatności i praw autorskich nie są przygotowane na tego typu zagrożenia. „David Attenborough niewiele może zrobić w tej sytuacji” – dodaje. Lees pomaga obecnie brytyjskim parlamentarzystom badać etyczne aspekty AI w przemyśle filmowym i telewizyjnym. Oczywiście są też przypadki zgody – jak np. projekt „Virtually Parkinson”, w którym głos zmarłego prezentera Michaela Parkinsona będzie wykorzystywany w nowej, ośmioodcinkowej serii. Rodzina Parkinsona wyraziła na to zgodę, co jednak wcale nie jest standardem.
„Rząd musi poważnie zająć się kwestią klonowania głosów, bo stanowi to poważny problem w kontekście oszustw” – stwierdza Lees. Z badań wynika, że liczba prób wyłudzeń za pomocą sklonowanych głosów wzrosła w Wielkiej Brytanii aż o 30% w ciągu ostatniego roku. Popularny wariant to „oszustwo na dziecko”, gdzie złodzieje podszywają się pod dzieci proszące o pilny przelew. Tego typu próby oszustwa, szczególnie na rozmazanych połączeniach telefonicznych, mogą być niezwykle trudne do wykrycia.
Ofiary oszustw z użyciem ich głosów odczuwają nie tylko dyskomfort. David Attenborough wyraził swoje oburzenie w wywiadzie dla BBC, mówiąc: „Spędziłem życie na głoszeniu prawdy, a teraz muszę mierzyć się z tym, że ktoś kradnie moją tożsamość i wypowiada się w moim imieniu.” Aktorka Scarlett Johansson była podobnie zaskoczona, gdy nowa funkcja AI głosowego ChatGPT-4o od OpenAI zaczęła brzmieć „niemal identycznie” jak jej własny głos. Johansson przyznała, że przyjaciele i media mieli problem z odróżnieniem prawdziwej wersji od klona.
Mimo tych postępów, technologia wciąż ma swoje ograniczenia. Jak zauważa Lees, sztuczna inteligencja nie potrafi prawidłowo odczytać emocji, które często decydują o tonie wypowiedzi i przekazie. „Sztuczna intonacja może odwzorować oddech, ale jest on powtarzalny i nienaturalny” – dodaje Joe Lewis z londyńskiego Voiceover Gallery, firmy zajmującej się nagraniami głosowymi. Zdaniem Lewisa, AI nadal najlepiej radzi sobie z angielskimi głosami mężczyzn, co jest efektem składu danych używanych do trenowania algorytmów.
Jakie są perspektywy na przyszłość? Według Lewisa – choć AI może być blisko perfekcji w naśladowaniu głosu, to pełne odtworzenie emocji, które składają się na autentyczną wypowiedź człowieka, to wciąż odległy cel.