Połączenie sztucznej inteligencji z tworzeniem polityki może czasem przynieść nieprzewidziane skutki – i to ostatnio boleśnie doświadczyli ustawodawcy na Alasce.
W nietypowym zwrocie akcji, lokalni prawodawcy mieli posłużyć się nieprawdziwymi cytatami wygenerowanymi przez AI, aby uzasadnić propozycję zakazu telefonów komórkowych w szkołach. Jak donosi *The Alaska Beacon*, Departament Edukacji i Rozwoju (DEED) Alaski przedstawił projekt zawierający odwołania do nieistniejących badań naukowych.
Sprawa wyszła na jaw, gdy Komisarz Edukacji Alaski, Deena Bishop, użyła generatywnej AI do przygotowania projektu tego zakazu. Dokument stworzony przez AI zawierał odniesienia do rzekomych prac naukowych, które ani nie zostały zweryfikowane, ani nie były dokładne – a na dodatek nigdzie nie zaznaczono, że przygotował go algorytm. Część tego materiału trafiła do Rady Edukacji, zanim ktokolwiek zdążył go przejrzeć, co mogło wpłynąć na późniejsze dyskusje.
Komisarz Bishop stwierdziła później, że AI wykorzystano jedynie do „tworzenia cytatów” w wersji roboczej, a błędy miały być poprawione przed posiedzeniem – ponoć zaktualizowane odnośniki wysłała do członków rady. Niestety, ostateczny dokument poddany pod głosowanie zawierał „halucynacje” AI, czyli wymyślone informacje generowane przez algorytm.
Finalna wersja uchwały, opublikowana na stronie DEED, zobowiązuje departament do ustanowienia wzorcowej polityki zakazu telefonów w szkołach. Niestety dokument zawierał sześć cytatów, z czego cztery miały pochodzić z uznanych czasopism naukowych – jednak wszystkie były sfabrykowane, a zamieszczone odnośniki prowadziły do niepowiązanych treści. Ta sytuacja podkreśla ryzyko związane z używaniem danych generowanych przez AI bez odpowiedniej weryfikacji.
To jednak nie pierwszy raz, kiedy „halucynacje” AI sieją zamęt. Przykładowo, niektórzy prawnicy zostali ukarani za użycie fikcyjnych cytatów w sądzie, a prace naukowe generowane przez AI zawierały nierzetelne dane i zmyślone źródła, co podważa ich wiarygodność. Algorytmy AI są bowiem przystosowane do generowania treści na podstawie wzorców, a nie rzeczywistej dokładności.
Poleganie na treściach wygenerowanych przez AI w tworzeniu polityk, zwłaszcza w edukacji, niesie poważne zagrożenia. Polityki oparte na fikcyjnych danych mogą nie tylko źle rozdzielać środki, ale także zaszkodzić uczniom. Przykładowo, zakaz telefonów oparty na wymyślonych badaniach może odciągać uwagę od bardziej skutecznych rozwiązań, które mogłyby realnie pomóc młodzieży.
Co więcej, stosowanie niezweryfikowanych danych AI może podważać zaufanie publiczne zarówno do procesu decyzyjnego, jak i samej technologii. Podobne przypadki pokazują, jak ważne jest sprawdzanie faktów, przejrzystość i ostrożność w używaniu AI w tak wrażliwych obszarach jak edukacja, gdzie decyzje mogą mieć głęboki wpływ na uczniów.
Oficjele na Alasce próbowali bagatelizować sprawę, twierdząc, że „zastępcze” cytaty miały być poprawione później. Problem w tym, że dokument z „zastępczymi” cytatami trafił do rady i został wykorzystany jako podstawa do głosowania, co uwypukla potrzebę rygorystycznego nadzoru przy użyciu AI.
W nietypowym zwrocie akcji, lokalni prawodawcy mieli posłużyć się nieprawdziwymi cytatami wygenerowanymi przez AI, aby uzasadnić propozycję zakazu telefonów komórkowych w szkołach. Jak donosi *The Alaska Beacon*, Departament Edukacji i Rozwoju (DEED) Alaski przedstawił projekt zawierający odwołania do nieistniejących badań naukowych.
Sprawa wyszła na jaw, gdy Komisarz Edukacji Alaski, Deena Bishop, użyła generatywnej AI do przygotowania projektu tego zakazu. Dokument stworzony przez AI zawierał odniesienia do rzekomych prac naukowych, które ani nie zostały zweryfikowane, ani nie były dokładne – a na dodatek nigdzie nie zaznaczono, że przygotował go algorytm. Część tego materiału trafiła do Rady Edukacji, zanim ktokolwiek zdążył go przejrzeć, co mogło wpłynąć na późniejsze dyskusje.
Komisarz Bishop stwierdziła później, że AI wykorzystano jedynie do „tworzenia cytatów” w wersji roboczej, a błędy miały być poprawione przed posiedzeniem – ponoć zaktualizowane odnośniki wysłała do członków rady. Niestety, ostateczny dokument poddany pod głosowanie zawierał „halucynacje” AI, czyli wymyślone informacje generowane przez algorytm.
Finalna wersja uchwały, opublikowana na stronie DEED, zobowiązuje departament do ustanowienia wzorcowej polityki zakazu telefonów w szkołach. Niestety dokument zawierał sześć cytatów, z czego cztery miały pochodzić z uznanych czasopism naukowych – jednak wszystkie były sfabrykowane, a zamieszczone odnośniki prowadziły do niepowiązanych treści. Ta sytuacja podkreśla ryzyko związane z używaniem danych generowanych przez AI bez odpowiedniej weryfikacji.
To jednak nie pierwszy raz, kiedy „halucynacje” AI sieją zamęt. Przykładowo, niektórzy prawnicy zostali ukarani za użycie fikcyjnych cytatów w sądzie, a prace naukowe generowane przez AI zawierały nierzetelne dane i zmyślone źródła, co podważa ich wiarygodność. Algorytmy AI są bowiem przystosowane do generowania treści na podstawie wzorców, a nie rzeczywistej dokładności.
Poleganie na treściach wygenerowanych przez AI w tworzeniu polityk, zwłaszcza w edukacji, niesie poważne zagrożenia. Polityki oparte na fikcyjnych danych mogą nie tylko źle rozdzielać środki, ale także zaszkodzić uczniom. Przykładowo, zakaz telefonów oparty na wymyślonych badaniach może odciągać uwagę od bardziej skutecznych rozwiązań, które mogłyby realnie pomóc młodzieży.
Co więcej, stosowanie niezweryfikowanych danych AI może podważać zaufanie publiczne zarówno do procesu decyzyjnego, jak i samej technologii. Podobne przypadki pokazują, jak ważne jest sprawdzanie faktów, przejrzystość i ostrożność w używaniu AI w tak wrażliwych obszarach jak edukacja, gdzie decyzje mogą mieć głęboki wpływ na uczniów.
Oficjele na Alasce próbowali bagatelizować sprawę, twierdząc, że „zastępcze” cytaty miały być poprawione później. Problem w tym, że dokument z „zastępczymi” cytatami trafił do rady i został wykorzystany jako podstawa do głosowania, co uwypukla potrzebę rygorystycznego nadzoru przy użyciu AI.