ChatGPT udziela znacznie bardziej empatycznych porad niż lekarze [BADANIA]
W badaniu przeprowadzonym przez naukowców z Uniwersytetu Kalifornijskiego w San Diego (USA) porównano pisemne odpowiedzi lekarzy oraz odpowiedzi udzielone przez ChatGPT na te same, rzeczywiste pytania pacjentów dotyczące zdrowia. Odpowiedzi sztucznej inteligencji zostały uznane nie tylko za wyższej jakości, ale też… bardziej empatyczne.

Badanie opublikowane w „JAMA Internal Medicine” może stać się podstawą do określenia roli asystenta medycznego opartego na rozwiązaniach sztucznej inteligencji, takich jak np. ChatGPT. - Możliwości poprawy opieki zdrowotnej za pomocą sztucznej inteligencji są ogromne - powiedział dr John W. Ayers z Qualcomm Institute, interdyscyplinarnego centrum badawczego działającego przy Uniwersytecie Kalifornijskim w San Diego, który prowadził badania. Dodał, że opieka wspomagana sztuczną inteligencją to przyszłość medycyny.
Rośnie obciążenie lekarzy pracą zdalną
Zespół badawczy postanowił sprawdzić, czy ChatGPT może dokładnie odpowiadać na pytania, które pacjenci wysyłają swoim lekarzom. Naukowcy uznali, że jeżeli byłoby to możliwe, to modele sztucznej inteligencji można by zintegrować z systemami opieki zdrowotnej, by zmniejszyć stale rosnące obciążenie kadry lekarskiej.
– ChatGPT może zdać egzamin medyczny, ale bezpośrednie odpowiadanie na pytania pacjentów to coś zupełnie innego - podkreślił współautor badania dr Davey Smith, specjalista chorób zakaźnych z Altman Clinical and Translational Research Institute (ACTRI), interdyscyplinarnej jednostki badawczej Uniwersytetu Kalifornijskiego w San Diego.
PRZECZYTAJ TAKŻE: ChatGPT, nowy system sztucznej inteligencji, zdał amerykański egzamin medyczny
Z kolei dr Eric Leas, naukowiec z Qualcomm Institute i Herbert Wertheim School of Public Health and Human Longevity Science przy UC San Diego, również biorący udział w badaniach, dodał, że pandemia COVID-19 przyspieszyła wdrażanie rozwiązań telemedycznych. - Z jednej strony ułatwiło to pacjentom dostęp do opieki, ale z drugiej lekarze są obciążeni “zalewem” elektronicznych wiadomości od pacjentów szukających porady medycznej, co z kolei przyczynia się do rekordowego poziomu wypalenia zawodowego tej grupy zawodowej - stwierdził badacz.
ChatGPT odpowiadał na pytania pacjentów. Jak przebiegało badanie?
Dla uzyskania dużej i zróżnicowanej liczby pytań dotyczących zdrowia, a także odpowiedzi lekarzy, które nie zawierają danych osobowych umożliwiających identyfikację, naukowcy wykorzystali forum AskDocs na platformie Reddit. Zarejestrowanych jest tam ok. 452 tys. osób. Mimo że na zadane pytania może odpowiedzieć każdy użytkownik, to odpowiedzi udzielone przez zweryfikowanych pracowników sytemu ochrony zdrowia są specjalnie oznaczone jako te najbardziej wiarygodne. Można się zastanawiać, czy wymiana pytań i odpowiedzi w mediach społecznościowych jest rzetelnym źródłem informacji, jednak członkowie zespołu medyków, którzy oceniali przydatność udzielanych odpowiedzi, podkreślali, że treści te odzwierciedlały ich własne doświadczenia kliniczne.
Badacze wybrali losowo 195 wątków z AskDocs, w których zweryfikowany lekarz odpowiedział na zadane publicznie pytanie. To samo pytanie przesłali do ChatGPT, który również miał udzielić na nie odpowiedzi, a następnie poprosili o ocenę treści jednej i drugiej odpowiedzi przez zespół trzech licencjonowanych pracowników opieki medycznej. Oceniający nie wiedzieli przy tym, czy odpowiedź pochodzi od lekarza, czy od sztucznej inteligencji. Ich zadaniem było porównanie otrzymanych treści na podstawie jakości informacji oraz poziomu empatii. W 79 proc. przypadków za lepszą uznawali odpowiedź ChatGPT niż lekarza.
Okazało się, że wyniki oceny jakości odpowiedzi oraz poziomu empatii sztucznej inteligencji przewyższyły te napisane przez lekarzy. Konkretnie, ChatGPT otrzymał ocenę jakości na poziomie 78,5 proc., a lekarze - na poziomie 22,1 proc. Co więcej, poziom empatii ChatGPT został uznany za niemal 10-krotnie wyższy niż lekarzy. Wyniósł on 45,1 proc., podczas gdy wskaźnik ten w odpowiedziach medyków był na poziomie 4,6 proc. Naukowcy podkreślili, że wiadomości ChatGPT były bardziej szczegółowe i zawierały dokładniejsze informacje.
ChatGPT ma udzielać porad medycznych
– Nasze badanie jest jednym z pierwszych, które pokazuje, jak sztuczna inteligencja może pomóc rozwiązywać rzeczywiste problemy związane ze świadczeniem usług opieki zdrowotnej - powiedział dr Christopher Longhurst, pediatra pełniący funkcję dyrektora ds. informacji medycznej w UC San Diego Health. - Uzyskane wyniki sugerują, że narzędzia takie jak ChatGPT mogą skutecznie tworzyć wysokiej jakości spersonalizowane porady medyczne, które następnie powinni zatwierdzać lekarze. Obecnie rozpoczynamy wdrażanie tego rodzaju praktyki w naszym ośrodku - dodał.
PRZECZYTAJ TAKŻE: Rak piersi: ChatGPT odpowiedział poprawnie na 88 proc. pytań dotyczących badań przesiewowych
Z kolei prof. Mike Hogarth, lekarz radiolog z Altman Clinical and Translational Research Institute, dodał, że ważne jest, aby integrowanie asystentów sztucznej inteligencji w komunikacji zdrowotnej odbywało się w kontekście randomizowanego badania. Dzięki temu będzie można ocenić, w jaki sposób korzystanie z tego typu narzędzi wpływa na wydajność pracy lekarzy oraz zdrowie pacjentów.
Źródło: Puls Medycyny