Zalety i wady użycia chatbotów AI w szpitalach według najnowszego badania.

Czas czytania: 2 minut
Przez Maria Lopez
- w
Czatbot AI współpracujący ze sprzętem medycznym w szpitalu.

WarsawDuże modele językowe, takie jak ChatGPT, potrafią z łatwością zdać egzaminy medyczne. Jednak ich zastosowanie do diagnozowania rzeczywistych pacjentów w szpitalach niesie ze sobą ryzyko. Często dokonują one szybkich diagnoz, nie przestrzegając wytycznych medycznych. Naukowcy z Uniwersytetu Technicznego w Monachium (TUM) sprawdzili, czy chatboty oparte na AI mogą być używane w praktyce klinicznej.

Badacze wykorzystali ogólnodostępny model językowy Llama 2. Przeprowadzili symulację procesu od przyjęcia na ostry dyżur po leczenie. Wykorzystali anonimowe dane pacjentów z kliniki w USA, wybierając 2400 przypadków pacjentów z bólem brzucha. Sztuczna inteligencja miała za zadanie zdecydować, jakie badania zlecić, a następnie utworzyć diagnozę i plan leczenia.

Wnioski:

  • Modele AI nie zawsze zlecały wszystkie potrzebne testy.
  • Im więcej danych posiadały, tym mniejsza była ich dokładność.
  • Sztuczna inteligencja często pomijała wytyczne dotyczące leczenia.
  • Diagnostyka zależała od kolejności otrzymywania informacji.

W porównaniu z prawdziwymi lekarzami, sztuczna inteligencja wypadła gorzej. Lekarze postawili trafną diagnozę w 89% przypadków, podczas gdy najlepszy model SI był poprawny jedynie w 73% przypadków. W niektórych diagnozach, takich jak zapalenie pęcherzyka żółciowego, SI była trafna zaledwie w 13% przypadków.

Badacze nie sprawdzali komercyjnych modeli AI, takich jak ChatGPT czy AI od Google, z powodu problemów z ochroną danych. Szpitale potrzebują modeli, które mogą kontrolować i zabezpieczać, co zapewniają modele o otwartym kodzie źródłowym. Trudno jest obiektywnie ocenić modele komercyjne bez znajomości danych, na których były trenowane.

Sztuczna inteligencja w diagnostyce medycznej rozwija się w szybkim tempie. Profesor Daniel Rückert z TUM uważa, że AI może być w przyszłości przydatne dla lekarzy. Może ono wspierać rozmowy lekarzy o przypadkach, ale nie zastąpi ich w najbliższym czasie. Szpitale potrzebują otwartych modeli źródłowych, aby zapewnić bezpieczeństwo i kontrolę nad danymi pacjentów.

Chatboty AI mogą być przydatne w medycynie, jednak na razie nie są gotowe do pełnego zastosowania. Wymagają jeszcze testów i poprawek. Obecnie mogą wspierać prace naukowe i pomagać lekarzom, ale nie są w stanie stawiać ostatecznych diagnoz. Technologia AI rozwija się szybko, więc prawdopodobnie chatboty będą lepsze w ciągu najbliższych kilku lat.

Lekarze potrzebują wiarygodnych narzędzi. Dopóki sztuczna inteligencja nie udowodni, że może być tak samo niezawodna jak ludzcy lekarze, nie powinna samodzielnie podejmować kluczowych decyzji. Naukowcy tworzą miejsca do testowania tych modeli, aby je udoskonalić. Jednak szpitale powinny używać wyłącznie sztucznej inteligencji, którą w pełni rozumieją i kontrolują.

Chatboty AI mają potencjał, jednak na razie nie nadają się do wykorzystania w szpitalach. Potrzebują jeszcze dalszych badań, lepiej przeszkolonych danych oraz bardziej rygorystycznych wytycznych.

Badanie jest publikowane tutaj:

http://dx.doi.org/10.1038/s41591-024-03097-1

i jego oficjalne cytowanie - w tym autorzy i czasopismo - to

Paul Hager, Friederike Jungmann, Robbie Holland, Kunal Bhagat, Inga Hubrecht, Manuel Knauer, Jakob Vielhauer, Marcus Makowski, Rickmer Braren, Georgios Kaissis, Daniel Rueckert. Evaluation and mitigation of the limitations of large language models in clinical decision-making. Nature Medicine, 2024; DOI: 10.1038/s41591-024-03097-1
Sztuczna Inteligencja: Najnowsze wiadomości

Udostępnij ten artykuł

Komentarze (0)

Opublikuj komentarz