Nieostrożne szeptanie. Studium ujawnia niebezpieczne skutki błędnych transkrypcji AI
Bezpieczeństwo Prawo Technologia

Nieostrożne szeptanie. Studium ujawnia niebezpieczne skutki błędnych transkrypcji AI

Odkrycia nowego badania rzucają światło na nieoczekiwane i często niepokojące skutki błędów popełnianych przez zaawansowane narzędzia transkrypcji mowy na tekst.

Badacze z czterech amerykańskich uczelni prześwietlili technologię transkrypcji mowy na tekst i odkryli, że nawet zaawansowane narzędzia, takie jak Whisper od OpenAI, wciąż „halucynują” tekst, czyli dodają fałszywe frazy. Co gorsza, te błędy nie są niewinne – często zawierają szkodliwe elementy.

Badanie podkreśla, że nawet niewielka liczba halucynacji w transkrypcjach może mieć poważne konsekwencje. Przykład? W scenariuszu, gdzie Whisper jest używany do transkrypcji wideo rozmów kwalifikacyjnych, dodanie przez system słów takich jak „terrorystyczny nóż” czy „zakrwawiony wózek” może wpłynąć na szanse kandydata na zatrudnienie.

Choć OpenAI stara się poprawić działanie systemu, liczba tych błędów może być problematyczna – w dokumentacji medycznej czy w sądzie dodanie niewłaściwych fraz może mieć katastrofalne skutki.Badacze zalecają większą przejrzystość i informowanie użytkowników o potencjalnych halucynacjach, jednocześnie sugerując lepsze dostosowanie do potrzeb osób z zaburzeniami mowy.

W świecie, gdzie dokładność AI jest na wagę złota, nawet 1% błędu może mieć nieoczekiwane konsekwencje. Czyżby Whisper, zamiast być pomocnym narzędziem, stał się bohaterem własnej, nieco mrocznej powieści? Tylko czas pokaże, jak OpenAI poradzi sobie z tym wyzwaniem.

Źródło