Fałszywe robocalls w wyborach: AI jako narzędzie politycznej manipulacji
Bezpieczeństwo Etyka Polityka Wybór redakcji

Fałszywe robocalls w wyborach: AI jako narzędzie politycznej manipulacji

W świecie, gdzie technologia AI rozwija się szybciej niż bieg aktualności, Lingo Telecom właśnie zgodziło się zapłacić karę w wysokości 1 miliona dolarów za rozsyłanie fałszywych robocallów, które miały imitować głos Joe Bidena. To wydarzenie rzuca nowe światło na potencjalne zagrożenia związane z AI i wyborami.

Historia zaczęła się w styczniu 2024 roku, kiedy to władze stanu New Hampshire rozpoczęły śledztwo w sprawie „robocalls”, które miały na celu wpłynąć na wyniki wtorkowych prawyborów. Robocalls, używające technologii klonowania głosu generowanego przez AI, próbowały przekonać wyborców, by „zachowali swój głos” na listopadowe wybory, zamiast głosować w prawyborach.

Co ciekawe, na identyfikatorze dzwoniącego pojawiał się numer telefonu komórkowego znanej demokratki, Kathy Sullivan, co tylko dodawało pikanterii całej sytuacji. Sullivan nie pozostała obojętna i złożyła formalną skargę na robocalls.

W odpowiedzi na te działania, Federalna Komisja Łączności (FCC) ogłosiła, że Lingo Telecom zgodziło się na zapłacenie wspomnianej kary oraz na wprowadzenie bezprecedensowego planu zgodności, który ma zapobiegać podobnym wydarzeniom w przyszłości. „Każdy z nas zasługuje na to, by wiedzieć, że głos po drugiej stronie linii jest dokładnie tym, za kogo się podaje,” stwierdziła przewodnicząca FCC, Jessica Rosenworcel.

Tymczasem, Steve Kramer, konsultant polityczny, który zlecił robocalls, stoi przed własnymi wyzwaniami prawnymi. Oprócz proponowanej kary 6 milionów dolarów od FCC, Kramer został oskarżony o tłumienie głosów wyborców i personifikację kandydata, co w New Hampshire jest traktowane jako przestępstwo.

Kramer broni się, twierdząc, że jego celem nie było wpłynięcie na wynik prawyborów, ale zwrócenie uwagi na potencjalne zagrożenia związane z AI. Czy to obrona przekona sąd, czy też Kramer spędzi najbliższe lata za kratkami, okaże się wkrótce.

W każdym razie, cała sytuacja rzuca nowe światło na potencjalne zagrożenia związane z technologią AI w polityce. Jak widać, nawet robocalls mogą stać się narzędziem w rękach tych, którzy chcą manipulować wyborami. To przestroga dla nas wszystkich, byśmy byli bardziej czujni i krytyczni wobec informacji, które otrzymujemy.

Źródło