Strona główna

Doktor algorytm

Numer 10/2020
Ilustracja komputerowa ­zapisu badania EEG u chorego z padaczką. Sztuczna inteligencja pomaga w interpretacji takiego zapisu. Ilustracja komputerowa ­zapisu badania EEG u chorego z padaczką. Sztuczna inteligencja pomaga w interpretacji takiego zapisu. Shutterstock
Za pomocą sztucznej inteligencji można przyspieszyć diagnozowanie niektórych chorób: udarów, raka piersi, padaczki. Przy brakach lekarzy i skracaniu czasu na badania oznacza to dla chorych spore korzyści.
Shutterstock
Co roku z ­powodu pękniętego tętniaka ­mózgu ­umiera na ­świecie 500 tys. ludzi. Na ryc. schemat podstawy mózgu.Shutterstock Co roku z ­powodu pękniętego tętniaka ­mózgu ­umiera na ­świecie 500 tys. ludzi. Na ryc. schemat podstawy mózgu.
Niedokrwienny udar mózgu. Na skutek zakrzepu w tętnicy dochodzi do upośledzenia dopływu krwi do tkanki mózgowej.Shutterstock Niedokrwienny udar mózgu. Na skutek zakrzepu w tętnicy dochodzi do upośledzenia dopływu krwi do tkanki mózgowej.
Obraz ­tomografii komputerowej mózgu uwidaczniający udar. To badanie najlepiej wskazuje miejsce i rozmiar zniszczenia tkanki.Shutterstock Obraz ­tomografii komputerowej mózgu uwidaczniający udar. To badanie najlepiej wskazuje miejsce i rozmiar zniszczenia tkanki.
Sztuczna inteligencja poprawia dokładność badań mammograficznych (żółte pola wskazują wykrytego przez nią raka).Northwestern University Sztuczna inteligencja poprawia dokładność badań mammograficznych (żółte pola wskazują wykrytego przez nią raka).
Przekrój warstwowy skóry ­uwidaczniający trzy rodzaje raka. Czy dzięki sztucznej inteligencji będziemy je rozpoznawać sami na podstawie zdjęcia w smartfonie?Shutterstock Przekrój warstwowy skóry ­uwidaczniający trzy rodzaje raka. Czy dzięki sztucznej inteligencji będziemy je rozpoznawać sami na podstawie zdjęcia w smartfonie?

Sztuczna inteligencja zdobywa kolejne przyczółki medycyny. Z każdym rokiem jej projekty związane z opieką zdrowotną przyciągają więcej inwestorów niż jakikolwiek inny sektor gospodarki. Jednak temu zdrowemu podekscytowaniu towarzyszy również sceptycyzm – czy oczekiwania nie są przesadne, czy maszyny mogą zawsze zastąpić lekarzy i da się im powierzyć całą kontrolę nad chorym?

W badaniach klinicznych, kiedy mnóstwo zebranych informacji trzeba poddać drobiazgowej weryfikacji, maszyny sprawdzają się lepiej niż ludzie, bo są od nich szybsze. Zupełnie inaczej sytuacja wygląda w praktyce klinicznej, kiedy program komputerowy musi ocenić obraz tkanki lub sklasyfikować objawy choroby tak, jak to robią doświadczeni lekarze specjaliści. Czyżby miał być od nich lepszy? Czy bezrozumnemu algorytmowi i automatom można powierzyć los chorych? Podobne wątpliwości trzeba było rozwiać kilkanaście lat temu, gdy na salach operacyjnych pojawiły się roboty chirurgiczne. Dziś posługują się już nimi laryngolodzy, urolodzy, ginekolodzy, kardiochirurdzy i wbrew obawom chorych nie ma niebezpieczeństwa, by taki robot mógł się w pełni usamodzielnić – odsunął jedynie chirurga od stołu operacyjnego, ale to człowiek przeprowadza zabieg, siedząc wygodnie za konsolą aparatu z joystickiem w ręce i zachowując pełną kontrolę nad przebiegiem operacji.

Kogo to zdiagnozuje?

Doktor Adam Hirschfeld pracuje w Oddziale Neurologii i Udarowym Centrum Medycznego HCP w Poznaniu. Pięć lat temu skończył studia, więc patrzy na świat medyczny oczami jeszcze młodego lekarza. Według niego sztuczna inteligencja to dowód triumfu ludzkiej zaradności: – Zastosowanie tego typu rozwiązań nie tylko pozwala skrócić czas potrzebny na uzyskanie wyników, ale w pewnych obszarach wręcz umożliwia do nich dostęp. Przyczyniając się do lepszej rozpoznawalności wielu chorób, redukuje ryzyko błędu ludzkiego. Nie wymaga budowania dodatkowej infrastruktury, a ostatecznie przekłada się na zmniejszenie kosztów ponoszonych przez szpitale.

Neurologia mogłaby na tym szczególnie zyskać, ponieważ zapotrzebowanie na jej świadczenia w starzejącym się społeczeństwie będzie rosło. Istnieje ponad tysiąc chorób układu nerwowego – najbardziej rozpowszechnione to migreny, neuralgie, padaczki, udary, otępienia, choroba Parkinsona – więc fala zmian demograficznych, która dopiero przed nami, będzie stanowiła coraz większe wyzwanie dla służb medycznych i opiekunów domowych.

Już teraz roboty pomagają w opiece nad osobami z chorobą Alzheimera, a dzięki telemedycynie można zdalnie monitorować stan zdrowia. Ale dr Hirschfeld zapowiada rychły przełom w diagnostyce neurologicznej, a konkretnie w rozpoznawaniu padaczek, tętniaków i udarów mózgu. On sam, zakładając ze wspólnikiem start-up br-AI-n (czyli Mózg, wyróżnione AI to z ang. Artificial Intelligence – sztuczna inteligencja), zaczął tworzyć technologię wspomagającą lekarzy przy ocenie udarów niedokrwiennych. – Mamy naprawdę dobre wyniki i trafność diagnoz na poziomie tych dokonywanych przez lekarzy – zachwala swój projekt. A co z tego mogą mieć pacjenci?

Czas, w którym można pomóc choremu trafiającemu na szpitalny oddział ratunkowy z objawami niedokrwiennego udaru mózgu, wynosi 4,5–6 godz., w zależności od dostępnej metody leczenia. To niewiele, biorąc pod uwagę, że cenne minuty marnowane są już na samym początku, gdy ofiara zatkania tętnicy i niedokrwienia niewielkiego nawet obszaru tkanki mózgowej, tracąca władzę w ręce lub nodze albo odczuwająca zaburzenia mowy i wzroku, zazwyczaj zbyt długo zastanawia się, czy powinna dzwonić po karetkę. Należałoby jak najszybciej przewieźć ją do szpitala z oddziałem wyspecjalizowanym w leczeniu udarów, co też nie zawsze się zdarza. – A czas mija – mówi dr Hirschfeld. – Aby zatrzymać dewastujący proces niedokrwienia mózgu, dysponujemy bardzo wąskim oknem terapeutycznym, w którym możliwe jest zastosowanie specjalistycznego leczenia.

Kluczem do sukcesu pozostaje szybko postawiona diagnoza, a neurolodzy, mając przed sobą chorego ze wspomnianymi objawami, nie są przecież pewni, w którym naczyniu krwionośnym utkwił zakrzep i jaki obszar mózgu został odcięty od tlenu. Pacjent trafia więc pod tomograf komputerowy, gdyż właśnie to badanie pozwala najlepiej wskazać miejsce zniszczenia tkanki mózgowej i ocenić jego rozmiar. – Nasz system, oceniając badanie tomografii komputerowej, pozwala lekarzowi na uzyskanie natychmiastowej weryfikacji podjętej oceny diagnostycznej – mówi dr Adam Hirschfeld. – Kiedy na szali kładziemy ludzkie życie, taka dodatkowa para oczu, które nie ulegają zmęczeniu z upływem godzin ani nie bywają senne w nocy, jest po prostu bezcenna.

Podobne rozwiązania zaczęto już stosować na świecie w diagnostyce raka piersi. Na początku tego roku spory rezonans wywołał artykuł opublikowany w prestiżowym czasopiśmie „Nature” na temat wykorzystania sztucznej inteligencji przy opisie obrazów mammografii uzyskiwanych podczas badań przesiewowych. Okazało się, że czytanie zdjęć rentgenowskich przez komputer w wielu wypadkach było precyzyjniejsze, niż gdy uczynili to lekarze, co skutkowało zmniejszeniem fałszywych rozpoznań – zarówno tych, gdy kobieta otrzymuje wynik wskazujący na obecność guzka w piersi, choć w rzeczywistości go tam nie ma, jak również wtedy, kiedy żyje z mylnym przekonaniem, że jest zdrowa, bo radiolodzy nie dopatrzyli się na skanach niczego niepokojącego.

Wśród autorów tej pracy był także Polak, dr inż. Marcin Sieniek, od ponad pięciu lat pracujący dla firmy Google (początkowo w Krakowie, a obecnie w Dolinie Krzemowej). To właśnie w Kalifornii we wrześniu 2017 r. zespół badawczy zajmujący się zastosowaniem nowych technologii w medycynie otrzymał zielone światło do wykorzystania sztucznej inteligencji przy badaniach mammograficznych. Inicjatywa należała do Google Health i firmy DeepMind, ale realizowano ją we współpracy z Northwestern University w Chicago i Cancer Research UK w Wielkiej Brytanii.

Dlaczego akurat mammografię uznano za najlepsze badanie, przy którym można sprawdzić użyteczność sztucznej inteligencji i skonfrontować ją z wiarygodnością rozpoznań stawianych przez lekarzy? – Problem był ciekawy z punktu widzenia rozwoju algorytmówwyjaśnia Marcin Sieniek. – Jeden mammogram składa się w rzeczywistości z czterech wysokiej rozdzielczości zdjęć piersi, którym mogą towarzyszyć zdjęcia z poprzednich wizyt, metadane kliniczne itp. To o wiele bardziej rozbudowany zestaw informacji niż stosowany w większości dotychczasowych badań nad systemami uczenia maszynowego.

Na podstawie opisów mammografii uzyskanych podczas badań przesiewowych w Stanach Zjednoczonych i Wielkiej Brytanii udało się udowodnić, że sztuczna inteligencja może być bardziej spostrzegawcza niż lekarze. Po pierwsze, o 5,7% spadła liczba niesłusznych podejrzeń nowotworu u Amerykanek i o 1,2% u Brytyjek. Po drugie, w sytuacji odwrotnej, a więc w przypadku błędnych diagnoz wykluczających zmiany (podczas gdy faktycznie nowotwór się rozwijał), sztuczna inteligencja poprawiła wyniki lekarzy w USA o 9,4%, a w Wielkiej Brytanii o 2,7%.

Kto się na tym zna?

Skoro sztuczna inteligencja może wspierać lekarzy przy analizie mammografii (a nawet być od nich dokładniejsza), to dlaczego nie nauczyć jej oceny obrazów tomografii mózgu? Dr inż. Mateusz Moderhak z Katedry Bioinżynierii Biomedycznej Politechniki Gdańskiej zaangażował się w startup br-AI-n po swoich wcześniejszych doświadczeniach z wykorzystaniem sieci neuronowych, czyli systemów uczenia maszyn inspirowanych biologią ludzkiego mózgu: – Nasz system potrzebuje zaledwie sekundy, aby dostarczyć komplet informacji pozwalających na zweryfikowanie postawionej diagnozy i rozpoczęcie leczenia – zachwala. – Narzędzie to stworzyliśmy na podstawie analizy tysięcy skanów zawierających cechy udaru niedokrwiennego.

Proces uczenia maszyny trochę przypomina kursy odbywane przez radiologów, by umieć odróżniać na kliszach lub monitorach nieszkodliwe zmiany od nieprawidłowych. Różnica tkwi jednak w skali i możliwościach percepcji – specjalista w toku przyuczania do zawodu jest w stanie przeanalizować kilkaset skanów nowotworów piersi lub udarów, komputer zaś przetwarza dziesiątki tysięcy przykładów w ciągu zaledwie kilku godzin. Br-AI-n jest już dziś wykorzystywany przez radiologów i neurologów z poznańskiego Szpitala im. Jana Pawła II trochę na zasadzie ciekawostki i koleżeńskiej przysługi. Ale tej jesieni rozpoczną się wystandaryzowane testy na większą skalę, by zweryfikować jego rzetelność i przydatność. – Problem ze sztuczną inteligencją polega na tym, że mimo wielkiego potencjału w Polsce wciąż zdecydowanie zbyt mało osób się na tym zna – twierdzą twórcy br-AI-n. – Choć to dziedzina rozwijana od dziesięcioleci, dopiero kilka lat temu pojawiły się metody tzw. głębokiego uczenia sieci neuronowych, które poprzez analizę dostarczanych obrazów potrafią stworzyć wydajne algorytmy.

Drugi kłopot polega na tym, że jest to dziedzina zakorzeniona mocno w informatyce, na ogół zgłębiana przez ludzi bez pojęcia o praktycznej medycynie, np. o radiologii lub neurologii. Tę rafę, co prawda, omija duet stworzony przez lekarza z Poznania i inżyniera biomedycznego z Gdańska, ale start-upy mogą rozwijać się dzięki inwestycjom, a niewielu potrafi je w Polsce ocenić wszechstronnie i merytorycznie, nie mając wystarczającej do tego wiedzy (– Prędzej piekło zamarznie, niż otrzymamy granty z państwowych funduszy – komentują nauczeni przykładem wielu innych małych spółek ostatnio szeroko opisywane kryteria przy przyznawaniu dotacji).

Prof. Cezary Szczylik, ordynator oddziału Onkologii Klinicznej Europejskiego Centrum Zdrowia w Otwocku, jest bardzo zdziwiony, że w Ministerstwie Zdrowia ani NFZ nie ma ludzi, którzy na bieżąco śledzą rozwój nowych technologii i analizują ich przydatność w praktyce szpitalnej. – Polscy lekarze zainteresowani nowoczesnymi technologiami sami wyszukują takie informacje – podkreśla. – Tymczasem instytucje finansujące opiekę medyczną w wielu innych krajach są poważnie zainteresowane rozwojem i wykorzystaniem sztucznej inteligencji, pomagają ją wdrożyć i nawiązują współpracę z naukowcami, którzy potrafią to robić najlepiej.

Nawet entuzjaści przyznają, że choć sztuczna inteligencja ma wiele zalet, to czeka ją jeszcze sporo nauki, byśmy mogli wykorzystywać jej pełen potencjał. Co nie znaczy, że należy ją nadal traktować w kategoriach fantastyki. Prof. Szczylik zwraca uwagę, że algorytm Google Health, stosowany przy mammografii, nie uwzględnia jeszcze np. różnych podtypów raka ani stopnia ich zaawansowania. Mimo to nie waha się nazwać dotychczasowych wyników przełomem, na który składają się doświadczenia wielu zespołów z całego świata.

Kto na tym zyska?

Algorytmy leżące u podstaw rozwiązań określanych mianem sztucznej inteligencji to również w neurologii już nie takie science fiction. W internecie można znaleźć wiele ofert zachwalających np. „szybkie diagnozy udarów mózgu” – nieraz na podstawie prostych aplikacji, które wystarczy ściągnąć na smartfon. Ale na dobrą sprawę w niczym nie są pomocne, bo większość ludzi potrafi sama ocenić, czy drętwieje im ręka lub czy mają nagle zamazane widzenie.

Zupełnie inne systemy proponowane są lekarzom. – Najczęściej diagnozują wylewy spowodowane rozerwaniem naczynia krwionośnego w mózgu – krytycznie ocenia je dr Adam Hirschfeld. – Wylewy prezentują się jednak zupełnie inaczej niż udar niedokrwienny i zdecydowanie łatwiej je sklasyfikować, więc ze sztucznej inteligencji nie ma tu większego pożytku. Co innego rozpoznawanie tętniaków śródczaszkowych, z których powodu umiera na świecie pół miliona ludzi (i połowa ofiar nie ma ukończonych 50 lat). W początkowym stadium poszerzone w mózgu naczynia krwionośne nie dają objawów, ale kiedy średnica takiej „bańki” o osłabionej ścianie przekroczy 10 mm, naczynie może łatwo pęknąć, wywołując krwotok, który zalewa znaczny obszar mózgu. Istnieją metody pozwalające zabezpieczyć poszerzone naczynie, by zapobiec tej katastrofie – ale najpierw trzeba to miejsce wykryć, co nie jest wcale łatwe.

Lekarze z Korei Południowej opublikowali w maju na łamach czasopisma Europejskiego Towarzystwa Radiologii wnioski z pracy wykorzystującej AI w diagnostyce tętniaków śródczaszkowych. Algorytm samodzielnie analizuje badanie tętnic mózgowych i wskazuje poszerzone miejsce z precyzją na poziomie 92–98%. Nie jest to wprawdzie 100%, ale dokładność oceny ludzkiego oka, a więc radiologa lub neurologa analizującego identyczne badanie, nie przekracza dziś 89%. Wyniki sztucznej inteligencji okazały się zatem lepsze od dotychczasowej oceny lekarskiej.

Inną częstą chorobą neurologiczną, w której diagnostyce zaczęto korzystać ze sztucznej inteligencji, jest padaczka (na świecie cierpi z jej powodu 50 mln ludzi; w Polsce ok. 350 tys.). Rozpoznaje się ją na podstawie badania EEG, czyli elektroencefalografii mózgu, na którym uwidaczniają się wyładowania elektryczne. W tym celu potrzebny jest nieraz co najmniej godzinny zapis, a jego dokładna analiza zabiera neurologom jeszcze więcej czasu. To samo zadanie algorytm wykonuje w kilka minut. Zastosowanie tego typu rozwiązań przyspiesza więc postawienie diagnozy, co jest korzyścią dla lekarza (nie musi przecież już przeglądać wielogodzinnego zapisu badania), ale przede wszystkim dla pacjenta, gdyż przy ograniczonym dostępie do specjalistów szybciej otrzyma wyniki analizy.

Powraca pytanie, czy rozpoznanie patologii wygenerowane przez sztuczną inteligencję jest prawdziwe i nieobarczone większym błędem niż w przypadku ludzkiego oka. Na początku lutego na łamach „British Medical Journal” eksperci z University of Birmingham wydali bardzo surową ocenę algorytmom wykrywającym różne rodzaje raka skóry po zrobieniu zdjęcia znamienia lub pieprzyka. Ich zdaniem nie zdały egzaminu, ponieważ wyniki były w wielu wypadkach fałszywe, ale co gorsze – weryfikujące je badania, na podstawie których otrzymały akredytację i oznaczenie CE (Conformité Européenne), będące przecież gwarancją jakości, również okazały się niedopracowane.

– Większości aplikacji związanych ze zdrowiem, a służących do samobadania, wciąż bliżej jest do rozrywki niż rzetelnej oceny parametrów – przyznaje dr Adam Hirschfeld. Ale sztuczna inteligencja wspomagająca lekarzy poddawana jest o wiele wnikliwszym testom wiarygodności. No i nauczenie jej, jak na podstawie milionów udostępnionych informacji (obrazów tomografii lub zapisów EEG) wskazać konkretną patologię, zabiera znacznie więcej czasu. Mówiąc krótko, systemy te są o wiele lepiej dopracowane i da się wygenerować ostateczny algorytm, który będzie wspomagał pracę specjalisty. – Każdego dnia słyszymy o pomyłkach diagnostycznych, źle zastosowanym leczeniu, brakach kadrowych i wydłużających się kolejkach do lekarzy – wylicza dr Hirschfeld, malując niezbyt pozytywny obraz współczesnej ochrony zdrowia. Sztuczna inteligencja może w każdym z tych obszarów pomóc. A skoro ludzkość jest bliska kolonizacji innych planet, to nieodległa satysfakcjonująca wizyta u lekarza nie jest chyba zbyt wygórowanym marzeniem?

***

Publicysta działu naukowego „Polityki”. Zawód lekarza zamienił na dziennikarstwo i od 25 lat zajmuje się w mediach popularyzacją tematyki medycznej i zdrowotnej.

01.10.2020 Numer 10/2020

Czytaj także

Reklama
Reklama

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną