Szybkie wykrycie choroby, ułatwienie lekarzowi zakwalifikowania pacjenta do terapii i odpowiedniego dobrania leków – m.in. takie zalety mają algorytmy sztucznej inteligencji opracowane przez wrocławską firmę. O wszystkich zaletach wykorzystania tej nowoczesnej technologii mówi współtwórca firmy Hetalox, a jednocześnie radiolog dr n. med. Adrian Korbecki. Rozmawia z nim Maciej Sas.
Technologia opracowana we Wrocławiu pozwala wykrywać stwardnienie rozsiane, choroby otępienie i inne zaburzenia neurologiczne na wczesnym etapie choroby
Szybkie wykrycie choroby, ułatwienie lekarzowi zakwalifikowania pacjenta do terapii i odpowiedniego dobrania leków – m.in. takie zalety mają algorytmy sztucznej inteligencji opracowane przez wrocławską firmę. O wszystkich zaletach wykorzystania tej nowoczesnej technologii mówi współtwórca firmy Hetalox, a jednocześnie radiolog dr n. med. Adrian Korbecki. Rozmawia z nim Maciej Sas.

dr n. med. Adrian Korbecki doktor nauk medycznych, specjalista radiologii, od 2018 roku związany z Uniwersyteckim Szpitalem Klinicznym we Wrocławiu, autor ponad 20 publikacji i laureat nagrody PLTR za najczęściej cytowaną pracę 2023 roku. Współzałożyciel Hetalox – firmy rozwijającej algorytmy AI do analizy badań MR mózgowia w SM, chorobie Alzheimera i innych schorzeniach neurologicznych; aktywny w projektach badawczych i procesie europejskiej certyfikacji z neuroradiologii. Fot. z archiwum A.K.
Maciej Sas: Wykorzystanie sztucznej inteligencji jako narzędzia medycznego to temat niezwykle nośny i niekoniecznie nowy. W wielu przypadkach jest to rozwiązanie pilotażowe. A jak działa wasza platforma – już pomaga lekarzom i ich pacjentom w procesie diagnostycznym?
Adrian Korbecki: Tak, nasze urządzenie jest w pełni funkcjonalne, od zaraz może pomagać pacjentom i lekarzom. Mogę użyć pojęcia rzeczywistej gotowości technologicznej. Jeśli chodzi o nasze główne algorytmy pod stwardnienie rozsiane, pod wolumetrię, to sprawdzaliśmy je w warunkach rzeczywistych i wiemy, że działają, analizują badania obrazowe, podają wyniki, które załączamy partnerom w formie raportu.
Sztuczna inteligencja pojawia się w coraz liczniejszych dziedzinach medycznych. Państwa algorytmy są wykorzystywane głównie w diagnozowaniu stwardnienia rozsianego i części chorób otępiennych. Skąd akurat taki wybór sfery działania?
‒ To wynika z kilku rzeczy. Po pierwsze, znamy problemy społeczeństw wysokorozwiniętych ze starzejącą się populacją. Mówi się, że liczba chorych z różnymi postaciami otępienia wzrośnie około trzykrotnie w ciągu najbliższych 20-30 lat. Już teraz mamy wielu chorych z różnymi postaciami demencji. Po drugie, wybór sfery zainteresowań jest związany ze specyfiką naszego zespołu i jego wiedzy. Ja z wykształcenia jestem specjalistą radiologii, diagnostyki obrazowej, od początku specjalizacji rozwijałem się w stronę neuroradiologii. Teraz jestem już na końcowym etapie certyfikatu europejskiego z neuroradiologii. Z kolei mój wspólnik obronił w Heidelbergu doktorat ze sztucznej inteligencji. Mniej zorientowanym wyjaśnijmy, że Heidelberg to jeden z głównych ośrodków w Europie zajmujących się tą dziedziną. Tam zajmowano się AI, jeszcze zanim ludzie zaczęli ją nazywać sztuczną inteligencją i zanim ten termin stał się powszechnie znany i rozpoznawalny, a on już rozwijał tę dziedzinę. Mówię o osobie ze znakomitym wykształceniem, która nie tylko umie wykorzystać gotowy algorytm, ale przede wszystkim potrafi budować własne algorytmy i ma w tym ogromne doświadczenie. Co jeszcze ważniejsze, to ma doświadczenie w algorytmach, które służą do przetwarzania obrazów i struktur trójwymiarowych. A przecież w radiologii, jeśli mówimy o tomografii, rezonansie magnetycznym, mamy do czynienia z trójwymiarowymi badaniami, które są zbudowane z wielu różnych obrazów. Żeby przetwarzać takie badania, trzeba mieć unikalne umiejętności, ale też wiedzę na temat tego, co chcemy oznaczać i w jaki sposób to wpłynie na ścieżkę diagnostyczną, na cały proces leczniczy dla pacjenta. Dla porównania, słyszałem na różnych konferencjach startupowych, ale też tych związanych ze sztuczną inteligencją, że bardzo często tworzone są jakieś rozwiązania AI. Jednak, gdy na koniec dnia padało pytanie, w jaki sposób to coś pozwoli rozwiązać konkretny problem, odpowiedź brzmiała: „W sumie trudno powiedzieć, ale to działa…”.
Dobrze się sprzedaje coś opatrzone takim terminem.
‒ Właśnie tak. Dla mnie jest to trochę bańka AI, bo teraz można w zasadzie powiedzieć, że wszystko, co nas otacza, jest związane ze sztuczną inteligencją. Nie zmienia to faktu, że dobrze, by wszystko, co nas otacza i ma w sobie zaimplementowany algorytm sztucznej inteligencji, bezpośrednio wpływało na rzeczywistość, w naszym przypadku na ścieżkę diagnostyczną, leczniczą, na odpowiedni dobór leków albo na wcześniejsze postawienie diagnozy. Nasze algorytmy od zarania były budowane z taką myślą.
Po trzecie, jako neuroradiolog, ale też jako osoba, która zajmowała się wcześniej obrazowaniem sercowo-naczyniowym, miała kontakt z kardiologami, widziałem, że w świecie kardiologii wszystko jest bardzo skwantyfikowane. Wiele rzeczy jest tam analizowanych ilościowo i to bardzo precyzyjnie. Z kolei w neuroradiologii bardzo brakowało mi takich precyzyjnych biomarkerów, czyli tego, żebyśmy byli w stanie określać dokładnie, jaka jest np. objętość zmian w przebiegu stwardnienia rozsianego, ale też innych zmian u ludzi bez tej choroby, bo przecież mózg się starzeje u każdego z nas. Od początku prac nad naszymi algorytmami chodziło mi o to, żebyśmy mogli precyzyjnie ocenić np. objętość zmian naczyniopochodnych, czyli tego, co jest nazywane potocznie „zmarszczkami”, ale w obrębie naszego mózgowia. Żebyśmy to mogli określić w sposób ilościowy, powiedzieć, ile to mililitrów, ile jest tych zmian oraz jaka jest progresja względem poprzedniego badania. W takim zestawieniu widać lukę, więc jest pole, które trzeba wypełnić i my chcemy to zrobić.
Na państwa stronie firmowej wyczytałem m.in., że wszystko, co robicie, ma służyć wykrywaniu zmian na wczesnym etapie, śledzeniu rozwoju choroby itd. Pan przed chwilą podkreślił, że istotą waszych działań jest to, w jaki sposób taka diagnoza z wykorzystaniem waszej technologii wpłynie na proces terapeutyczny, jak to pomoże lekarzowi i jego pacjentowi. Wyłapujemy zmiany na bardzo wczesnym etapie po to, żeby móc skutecznie działać?
‒ Właśnie o to nam chodzi! Ale tutaj znowu jest kilka zagadnień, o których warto powiedzieć. Po pierwsze, na ile to rozwiązanie jest unikalne? Otóż na świecie działa kilka firm, które robią rzeczy podobne do nas – również w obrębie rezonansu magnetycznego, mózgowia. My traktujemy te firmy jako bezpośrednią konkurencję, od której jednak różnimy się znacząco. Na pierwszy rzut oka może się wydawać, że wszyscy robią to samo, ale gdy wejdziemy w szczegóły, okaże się, że jedni oferują więcej w tej kwestii, a inni – w innej. Budując nasze algorytmy do wolumetrii (czyli oceny objętościowej struktury mózgowia), chcieliśmy, żeby one były dosyć elastyczne. Chodzi o to, by nie było takiej konieczności, że my wolumetrię policzymy tylko i wyłącznie wtedy, gdy zostaną spełnione konkretne, wysublimowane wymagania techniczne. To często wymusza na środkach diagnostycznych zmiany stosowanych protokołów, przyzwyczajeń, a tego zwykle ludzie unikają. Wiemy więc, że to utrudnia współpracę. To samo dotyczy np. oceny zmian demielinizacyjnych, czy zmian naczyniopochodnych. Jeśli mamy algorytm, który jest w stanie to ocenić, ale wymaga on jeszcze dodatkowych działań, jak jest w przypadku naszej konkurencji, to znowu wymusza wielką zmianę funkcjonowania centrum diagnostycznego. W naszym przypadku jest inaczej – oceniamy zmiany demielinizacyjne, robiąc to z jednej sekwencji. Jest to prostsze, nie wymusza trudnych, czasem kosztownych zmian w obrębie ośrodka, metod skanowania, jest więc po prostu bardziej życiowym podejściem.
Jeśli dobrze rozumiem, użycie waszej technologii jest tańsze dla ośrodka, ale też łatwiejsze do nauczeniu się przez ludzi tam pracujących?
‒ To też, ale przede wszystkim jest też bardziej praktyczne dla pacjenta. Człowiek, który choruje na stwardnienie rozsiane (prawdopodobnie od wielu lat) ma wcześniejsze badania wykonywane przy jakichś założeniach i te nowe, wykonywane w innym protokole. Przez to często nie można porównać badania obecnego z wcześniejszymi, bo różnice techniczne, użyta inna metodologia uniemożliwiają taką zaawansowaną analizę AI. Dlatego jednym z naszych podstawowych założeń jest stworzenie możliwości porównania oba badań – nawet różniących się wykorzystaną metodologią. Nie chcemy zaczynać monitorowania od punktu zero, ale chcemy móc zestawić dzisiejsze wyniki z tymi sprzed dwóch czy czterech lat i dzięki temu ocenić, jak przebiegała choroba.
Czwarta ważna sprawa to skupienie się przez nas na nowych biomarkerach stwardnienia rozsianego, bo jeśli o nie chodzi, to zostały zaktualizowane kryteria McDonalda, czyli rozpoznania tej choroby. My zwracamy uwagę na nowe zmiany, które trzeba wziąć pod uwagę w ocenie radiologicznej.
Podobnie rzecz się ma, gdy chodzi o chorobę Alzheimera. Zapewne pan słyszał, że kilka miesięcy temu w Europie zostało zaakceptowane leczenie przeciwciałami monoklonalnymi. W przebiegu takiego leczenia czasami dochodzi do powstawania zmian w mózgowiu – można powiedzieć, że są to powikłania związane z leczeniem. Z tego powodu pacjenci, którzy są zakwalifikowani do takiej terapii, muszą być w sposób ciągły monitorowani w obrazowaniu rezonansu magnetycznego. Dlatego tworzymy niezbędne do tego algorytmy i już teraz pracujemy nad tym, by móc ułatwić takie ciągłe monitorowanie. Są pewne ilościowe, bardzo konkretne wytyczne, które mówią, przy jakiej ilości danego rodzaju zmian kontynuujemy leczenie, przy jakiej musimy się wstrzymać, a przy jakiej zatrzymujemy leczenie całkowicie.
Czyli państwa algorytmy mają wbudowaną pewną elastyczność, która w razie potrzeby ułatwia wprowadzenie zmian diagnostycznych?
‒ Tak, ale one zapewniają również łatwość dostosowania do nowych wymagań. Jak sądzę, naszą zaletą jest też fakt, że jesteśmy bardzo blisko związani z lekarzami i dzięki temu wiemy, jakie są realne potrzeby. Jeśli tworzymy jakikolwiek algorytm sztucznej inteligencji, to on będzie oczywiście działał tak dobrze, jak jest zbudowany, ale też tak dobrze, jak dobre dane wejściowe dostał.
Czyli trzeba mieć solidną bazę danych, która będzie zapewniała możliwości porównawcze?
‒ Dokładnie! Ważne są odpowiednio różnorodne dane oraz ich odpowiednia liczba. Ważne też, żeby te oznaczenia, praca radiologa, która jest pierwszym etapem budowania takiego typu rozwiązań, była po prostu bardzo dobrze wykonana. Im lepiej zostanie wykonana i lepiej jest oznaczony dataset (czyli zestaw danych), tym lepszy jest efekt końcowy. Dzięki temu, że współpracujemy z radiologami i neuroradiologami znanymi na poziomie polskim oraz europejskim, mamy nad konkurencją przewagę.
Z tego, co słyszę, jesteście do bólu pragmatyczni, bliscy temu, co dzieje się między lekarzem i pacjentem, a wszystko po to, by jak najbardziej dopasować się do tego, co jest potrzebne tu i teraz?
‒ Można tak powiedzieć – jesteśmy bliscy temu, co się dzieje realnie w dziedzinie, którą się zajmujemy i mamy świadomość tego, co jest najbardziej potrzebne. Wspomniał pan, że zajmujemy się głównie diagnostyką stwardnienia rozsianego i chorób neurodegeneracyjnych, ale cały czas myślimy też o całym przekroju populacji. Bo tak naprawdę taka analiza wolumetryczna objętościowa struktur mózgowia, o której rozmawiamy, powinna być czymś, co jest dołączone do każdego badania mózgowia rezonansem magnetycznym, i nasza technologia daje taką szansę. Jeśli przykładowo mamy 45-letniego pacjenta, wykonującego badanie rezonansu magnetycznego mózgowia z powodu ból głowy albo zawrotów, to przy okazji powinniśmy ocenić wolumetrię struktur mózgowia. Jeśli okazałoby się, że ma większy zanik struktur, niż powinien mieć w stosunku do populacji zgodnej z płcią i wiekiem, to powinno być dla niego sygnałem, że musi coś zmienić w swoim stylu życia.
Mówi pan teraz o tym, że przy okazji każdego badania MR mózgowia, można ocenić również np. parametry związane z potencjalnym zagrożeniem chorobą otępienną?
‒ Tak, uważam, że analiza objętości struktury mózgowia powinna być przesiewowo wykonywana u wszystkich ludzi. Taka analiza zmian naczyniopochodnych, czyli tego, co wcześniej określiłem jako „zmarszczki” w obrębie mózgowia, też powinna być wykonywana przesiewowo w każdym badaniu, bo są to zmiany w przebiegu starzenia się mózgowia. A przecież to jest jednym z bardzo żywych tematów medycznych. My mamy gotowe algorytmy niezbędne do takiej oceny.
Mamy też takie, które wykrywają tętniaki w rezonansie magnetycznym, a to kolejna sprawa, która powinna być badana przesiewowo. Mówiąc krótko, jeśli pacjent ma wykonane obrazowanie naczyniowe MR, to taki algorytm powinien przejść przez to badanie i wyłapać, czy w obrębie naczyń obecny jest tętniak, czy nie. To po pierwsze jest wielkie ułatwienie dla radiologa, a po drugie, zwiększenie czułości detekcji. Powiedzmy sobie szczerze, jesteśmy ludźmi, zatem jesteśmy podatni na ryzyko pominięcia, bo skupiamy się na czymś innym. Mając do dyspozycji w każdym przypadku takie narzędzie, na pewno nie pominęlibyśmy potencjalnie istotnych nieprawidłowości. Wiem to po sobie, bo jestem czynnie pracującym lekarzem – czasami tak się zafiksujemy na jednej, głównej zmianie w mózgu (by ją jak najlepiej opisać), że inne, potencjalnie istotne nieprawidłowości mogą być przez mózg diagnosty pominięte. A dzięki technologii, o której rozmawiamy, takie zagrożenia zostaną w porę wyłapane.
Wyjaśnijmy, jak działa wasza technologia, bo przecież nie macie dostępu do każdego aparatu rezonansu magnetycznego. Jeśli więc ktoś chciałby z waszej pomocy skorzystać, ma dostęp do waszej platformy, która analizuje to, co jej się wyśle?
‒ Bardzo dobrze pan to opisał – właśnie w taki sposób się to odbywa. Na początku mamy ośrodek, jednostkę diagnostyczną, która wykonuje badanie. Ona nawiązuje z nami współpracę, integrujemy nasz serwis, naszą platformę z jej systemem przechowywania i zarządzania danymi. Ten system nazywa się w radiologii PACS. Kiedy już to zrobimy, wszystko działa tak, by generować jak najmniej dodatkowej pracy. Mamy więc np. badanie, które zostaje zeskanowane i jest otagowane jako stwardnienie rozsiane albo po prostu MR mózgowia, czyli kwalifikacja przez wykonanie rezonansu odpowiedniej okolicy głowy. To badanie jest automatycznie anonimizowane, wysyłane do naszej chmury, gdzie działają algorytmy, które przetwarzają i oceniają przesłane obrazy, analizują je, produkują wszystkie markery ilościowe, biomarkery ilościowe oraz oznaczenia. Nikt tego nie widzi realnie. Potem do ośrodka diagnostycznego wysyłany jest raport w czytelnej wersji graficznej z analizą zmian, np. pokazujący, że został wykryty tętniak. Czasami dodatkowo (zależnie od możliwości technicznych – głównie po stronie ośrodków) wysyłamy też serie z oznaczeniami, gdzie zmiana została wykryta. Chodzi o to, by radiolog nie otrzymał suchej informacji z jednym przekrojem, że na tym skanie jest zmiana, ale by bardzo dokładnie mógł przejrzeć, co zostało oznaczone, żeby też od początku zbudował zaufanie do algorytmu, bo to jest kluczowe dla dalszej pracy.
No tak, w końcu nie darmo się mawia, że „kontrola najwyższą formą zaufania”. Zanim zaufamy algorytmom, trzeba się upewnić, że działają poprawnie.
‒ Jest też drugie powiedzenie: „Zaufanie dobra rzecz, ale kontrola jest jeszcze lepsza”. Widzę, jak buduję zaufanie do innych algorytmów sztucznej inteligencji w radiologii – na początku oceniam sam, potem patrzę, jak to samo ocenił algorytm. Jeśli przez 2-3 miesiące jesteśmy zbieżni zawsze albo prawie zawsze, to mu ufam. Jeśli jednak nasze oceny są rozbieżne, to taki algorytm automatycznie traci wiarygodność.
Mówimy o zaufaniu – z jednej strony możliwości sztucznej inteligencji są ostatnio często wykorzystywane (czasami gloryfikowane, zamieniają się w bożka), a z drugiej, coraz częściej słychać ostrzeżenia, że sama AI nie rozwiązuje problemów medycznych. Ona jest świetnym narzędziem, ale wymaga kontroli człowieka.
‒ W pełni się z tym zgadzam! Już kilka lat temu padły zdania, że nie warto dłużej szkolić nowych radiologów, bo zastąpi ich sztuczna inteligencja. Dla mnie algorytm jest narzędziem, które umożliwia zrobienie czegoś, co normalnie zajęłoby bardzo dużo czasu albo byłoby niemożliwe do zrobienia ze względu na rozmaite problemy techniczne. Ten algorytm, dzięki analizie, która zostaje wykonana, dostarcza mi dodatkowych informacji, które ja integruję w jeden wynik z informacjami klinicznymi i to ja, człowiek wydaję ostateczną decyzję. Bo przecież algorytm, który analizuje obraz, nie zna historii pacjenta i nie wie, czy on np. trzy miesiące temu zakończył radioterapię z powodu glejaka mózgu. To wiem ja, lekarz. Oczywiście, zakładam, że w odległej przyszłości będą algorytmy multimodalne potrafiące integrować całość informacji, które się im dostarczy. Ale dzisiaj tak nie jest – dzisiaj to człowiek te wszystkie informacje musi połączyć i zadecydować, czy zgadza się z tym, co wynika z analiz oraz z własnej oceny i wiedzy, czy uważa inaczej.
Dla mnie sztuczna inteligencja jest czymś, co ma nam pomóc w podniesieniu poziomu diagnostyki, jakości monitorowania przebiegu choroby. Dzięki temu potrafimy precyzyjniej dostosować leczenie do potrzeb konkretnego chorego albo np. precyzyjniej wychwycić pacjentów, którzy nadają się do danego rodzaju leczenia. Pewnie w przyszłości coraz więcej rzeczy będzie wykonywanych za pomocą algorytmów. Jeśli to wszystko będzie się odbywać w taki sposób, że będziemy szybciej oceniać, szybciej skanować, to bardzo dobrze, ponieważ dziś czas oczekiwania na badanie rezonansu magnetycznego jest zbyt długi. Jeśli więc będziemy w stanie skrócić ten czas, zwiększyć liczbę wykonywanych badań, czas opisu, a na dodatek to wszystko uda się porównać z badaniami sprzed lat i poprawimy jakość naszej oceny, to znakomicie, warto do tego dążyć! Taką wizję mam przed oczami.
Swoją drogą to bardzo ciekawe: wykorzystanie sztucznej inteligencji do ratowania tej naturalnej, ludzkiej, którą człowiek dostał od natury…
‒ Ależ to bardzo ładne zdanie! Umiem je sobie wyobrazić w jakiejś prezentacji (uśmiech). Ale zawsze wtedy będę mówił, że to jest pana zdanie. Rzeczywiście, proszę sobie to wyobrazić jako pierwsze zdanie otwierające gorącą dyskusję…