Sztuczna inteligencja w medycynie: korzyści i ryzyka etyczne
Etyka Medycyna Technologia Wybór redakcji

Sztuczna inteligencja w medycynie: korzyści i ryzyka etyczne

W miarę jak sztuczna inteligencja coraz śmielej wkracza w obszar opieki zdrowotnej, pojawia się pytanie: gdzie w tym wszystkim znajdują się wytyczne etyczne?

W najnowszym badaniu przeprowadzonym przez Joschkę Haltaufderheide i Roberta Ranischa z Uniwersytetu w Poczdamie, które ukazało się na łamach njp Digital Communications, naukowcy przyjrzeli się etycznemu krajobrazowi otaczającemu duże modele językowe (LLMs) w medycynie i opiece zdrowotnej. Analiza 53 artykułów naukowych ujawniła, że AI jest już stosowane w różnych dziedzinach opieki zdrowotnej, od interpretacji obrazów diagnostycznych, przez rozwój nowych leków, po planowanie spersonalizowanych terapii i ocenę ryzyka u pacjentów.

Wpływ AI na medycynę jest spektakularny. Niedawno naukowcy stworzyli model do wczesnego wykrywania choroby Alzheimera, który z 80% dokładnością potrafi przewidzieć, czy osoba zostanie zdiagnozowana na tę chorobę w ciągu najbliższych sześciu lat. Pierwsze leki wygenerowane przez AI właśnie trafiają do prób klinicznych, a testy krwi sterowane przez AI potrafią wykryć raka na podstawie pojedynczych cząsteczek DNA.

W kontekście LLMs, OpenAI i Color Health ogłosili niedawno system wspomagający lekarzy w diagnozowaniu i leczeniu raka. Choć te osiągnięcia są imponujące, rodzą one również pewien zawrót głowy. Czy ryzyka związane z ich stosowaniem są odpowiednio monitorowane?

Badacze zwracają uwagę na etyczne implikacje związane z LLMs, podkreślając, że „mimo potencjalnych korzyści, naukowcy podkreślają różne etyczne implikacje”. Do zalet zastosowania LLMs należą ich zdolności analizy danych, dostarczania informacji, wsparcia w podejmowaniu decyzji czy też minimalizowania utraty informacji i zwiększania dostępności informacji.

Jednakże, badanie to identyfikuje także powtarzające się obawy etyczne związane z uczciwością, stronniczością, niekrzywdzeniem, przejrzystością i prywatnością. Szczególnie niepokojące jest tendencja do produkowania szkodliwych lub przekonujących, ale nieprawdziwych treści, znane jako „halucynacje”, gdzie LLMs generują wiarygodne, ale faktycznie nieprawidłowe informacje, co w kontekście medycznym może prowadzić do błędnych diagnoz czy terapii.

Problem „czarnej skrzynki”, czyli brak możliwości wyjaśnienia, jak działają modele AI, sprawia, że te błędne zachowania są wyjątkowo trudne do naprawienia. Badanie to podnosi również alarmujące obawy dotyczące stronniczości w LLMs, zauważając, że „stronnicze modele mogą prowadzić do niesprawiedliwego traktowania grup marginalizowanych, pogłębiając istniejące nierówności lub szkodząc osobom poprzez selektywną dokładność”.

W kwestii prywatności, przetwarzanie danych pacjentów rodzi etyczne pytania dotyczące poufności, prywatności i bezpieczeństwa danych. W kontekście zarządzania ryzykiem, niezwykle ważny jest nadzór ludzki. Badacze wzywają również do opracowania uniwersalnych wytycznych etycznych dotyczących AI w opiece zdrowotnej, aby zapobiegać rozwojowi szkodliwych scenariuszy.

Krajobraz etyki AI w opiece zdrowotnej rozwija się równie dynamicznie, jak technologia. Niedawno ponad 100 wiodących naukowców uruchomiło inicjatywę dobrowolną, określającą zasady bezpieczeństwa dla projektowania białek AI, co podkreśla, jak często technologia rozwija się szybciej niż nadążają za nią zasady bezpieczeństwa.

Źródło