Nowe badanie wykazało, że 1 na 5 lekarzy rodzinnych (GP) w Wielkiej Brytanii korzysta z narzędzi AI, takich jak ChatGPT, aby wspomagać codzienne zadania, np. sugerowanie diagnoz czy pisanie listów do pacjentów.
Badanie opublikowane w *BMJ Health and Care Informatics* objęło 1006 lekarzy. 20% z nich korzystało z AI, z czego 29% używało go do tworzenia dokumentacji, a 28% do sugerowania diagnoz.
„Te narzędzia mogą wspierać lekarzy w zadaniach administracyjnych i klinicznych,” zauważyli autorzy badania. Jednak mimo swojej popularności, ChatGPT nie zawsze jest dokładny w medycynie, a jego elastyczność oparta na ogromnych zbiorach danych nie przekłada się na precyzję w diagnozowaniu.
Dr Stephen Hughes z Anglia Ruskin University zwrócił uwagę na ograniczenia ChatGPT, gdy chodzi o delikatne tematy, jak zdrowie seksualne. Po zadaniu pytania dotyczącego objawów rzeżączki, ChatGPT nie odpowiedział, dopiero po zmianie sformułowania podał diagnozę.
Według dr Charlotte Blease, mimo braku wytycznych, lekarze korzystają z AI, co stawia wyzwania w zakresie prywatności pacjentów oraz dokładności tych narzędzi. Dr Ellie Mein dodała, że AI może generować wiarygodnie brzmiące, ale niekoniecznie dokładne odpowiedzi, co rodzi ryzyka.
Choć AI, takie jak GPT-4, wykazuje obiecujące wyniki w analizach medycznych, nadal popełnia błędy, które mogą być niebezpieczne. Przykładowo, specjalnie szkolone AI przewyższają lekarzy w diagnostyce raka, ale narzędzia takie jak ChatGPT nie są na tyle precyzyjne, by zaufać im bez zastrzeżeń.
Trwają prace nad ulepszonymi asystentami AI, które będą lepiej dostosowane do potrzeb medycyny, ale potrzeba jasnych wytycznych, by bezpiecznie integrować AI w praktykę lekarską.
Wybór redakcji
Medycyna
Zdrowie
Coraz więcej lekarzy korzysta z ChatGPT
- 2024-09-20
- 0 Uwagi
- 275 Wyświetlone
