Niezwykłe wnioski: modele AI mylą zdjęcia kolan z oznakami spożycia piwa

Czas czytania: 2 minut
Przez Juanita Lopez
- w
Zdjęcie rentgenowskie kolana błędnie oznaczone ikonami piwa.

WarsawSztuczna inteligencja znajduje zastosowanie w medycynie, pomagając w analizie obrazów medycznych i wykrywaniu szczegółów, które mogą umknąć uwadze lekarzy. Jednak badanie opublikowane w Scientific Reports uwypukliło pewien problem: AI może niewłaściwie interpretować obrazy medyczne, co prowadzi do dziwnych i nierzetelnych prognoz. Analizując ponad 25 tysięcy zdjęć rentgenowskich kolan, naukowcy odkryli, że modele AI czasami identyfikują niezwiązane cechy, jak na przykład nawyki spożywania piwa przez pacjentów, poprzez zauważanie subtelnych wzorców bez podstaw medycznych.

Algorytmy sztucznej inteligencji niekiedy skupiają się na nieodpowiednich szczegółach zamiast na istotnych danych medycznych. Modele te wyłapują niepowiązane elementy w danych, takie jak różnice w maszynach rentgenowskich czy oznaczeniach pochodzących z różnych placówek medycznych. Nawet jeśli próbujemy wyeliminować te stronniczości, AI znajduje inne, niezauważone wzorce do podejmowania decyzji. Problem ten zagraża jakości badań naukowych i wykorzystaniu sztucznej inteligencji w medycynie.

Zidentyfikowano kilka kluczowych problemów:

Modele AI często wykorzystują niezamierzone wzorce w danych, co prowadzi do niepełnowartościowej nauki oraz fałszywych wniosków. Zdarza się, że zamiast opierać się na cechach medycznych, polegają na zmiennych zakłócających, co dodatkowo utrudnia eliminację uprzedzeń.

Tytuł: Modele AI a wyzwania z niezamierzonymi wzorcami i biasem.

Sztuczna inteligencja w badaniach medycznych może być ryzykowna, ponieważ istnieje ryzyko popełnienia błędów. Kluczowe jest wprowadzenie surowych kontroli, które zapewnią, że systemy AI uczą się właściwych informacji medycznych. AI postrzega dane poprzez wzorce, nie zaś przez logikę ludzką czy kontekst. Dlatego mimo że AI może być użyteczna, musimy być świadomi jej ograniczeń i potencjalnych błędów.

Zawodowi medycy i badacze muszą być ostrożni. Wykorzystanie sztucznej inteligencji do odkrywania nowych wzorców wymaga solidnych dowodów. Istnieje ryzyko błędnej oceny możliwości AI. Ludzie mogą błędnie zakładać, że AI rozumie świat tak jak ludzie. Kluczowe jest testowanie i dokładne analizowanie tych narzędzi, aby zapewnić ich prawidłowe i bezpieczne użytkowanie w środowiskach medycznych.

AI w diagnostyce obrazowej ciągle się rozwija, dlatego ważne jest zrozumienie jego możliwości, ryzyk oraz metodologii badawczej. W miarę jak AI zyskuje na znaczeniu w opiece zdrowotnej, istotne jest, aby badania pozostały uczciwe i rzetelne.

Badanie jest publikowane tutaj:

http://dx.doi.org/10.1038/s41746-021-00438-z

i jego oficjalne cytowanie - w tym autorzy i czasopismo - to

Ravi Aggarwal, Viknesh Sounderajah, Guy Martin, Daniel S. W. Ting, Alan Karthikesalingam, Dominic King, Hutan Ashrafian, Ara Darzi. Diagnostic accuracy of deep learning in medical imaging: a systematic review and meta-analysis. npj Digital Medicine, 2021; 4 (1) DOI: 10.1038/s41746-021-00438-z
Sztuczna Inteligencja: Najnowsze wiadomości

Udostępnij ten artykuł

Komentarze (0)

Opublikuj komentarz