Reklama
Marek Wodziński Marek Wodziński Leszek Zych / Polityka
Technologia

Marek Wodziński, laureat Nagrody Naukowej POLITYKI 2025: Kości zostały uzupełnione

Mariola Paruzel-Czachura, laureatka Nagrody Naukowej POLITYKI 2025: Diabeł tkwi w promilach
Człowiek

Mariola Paruzel-Czachura, laureatka Nagrody Naukowej POLITYKI 2025: Diabeł tkwi w promilach

O wpływie alkoholu na pojmowanie dobra i zła mówi dr hab. Mariola Paruzel-Czachura, laureatka tegorocznej Nagrody Naukowej POLITYKI w kategorii Nauki społeczne. [Artykuł także do słuchania]

O tym, jak sztuczna inteligencja pomaga w analizie obrazów medycznych, mówi dr inż. Marek Wodziński, laureat tegorocznej Nagrody Naukowej POLITYKI w kategorii Nauki techniczne. [Artykuł także do słuchania]

MARCIN ROTKIEWICZ: – Wybrał pan bardzo konkurencyjną dziedzinę AI, czyli analizę obrazów, również tych medycznych. Zajmują się tym najwięksi gracze w branży, m.in. Google.
MAREK WODZIŃSKI: – Rzeczywiście, konkurencję mamy na tym polu ogromną, szczególnie ze strony big techów. Dostęp do danych i zasobów, jakimi one dysponują, jest nieporównywalny z możliwościami małych jednostek badawczych, takich jak moja. Obszar szeroko rozumianej medycyny cyfrowej jest jednak na tyle duży, że nawet ci mniejsi znajdą swoją niszę.

Panu też to się udało?
Tak. Zajęliśmy się projektowaniem za pomocą sztucznej inteligencji wypełnień czaszki, czy też bardziej ogólnie – kości. To tematyka, w którą weszło tylko kilka zespołów badawczych na świecie. To zaś pozwoliło stosunkowo spokojnie pracować mojej grupie w Akademii Górniczo-Hutniczej w Krakowie nad naszym flagowym projektem DeepImplant. To algorytm komputerowy do szybkiego projektowania implantów czaszkowych.

Dlaczego okazał się konkurencyjny?
Wyróżnia go innowacyjne podejście do tematu. Większość algorytmów przeznaczonych do rekonstrukcji ubytków kości bazuje na dość prostej architekturze. Najpierw zostają „nauczone”, jak wygląda prawidłowa anatomia: sztuczna sieć neuronowa otrzymuje bardzo dużą liczbę np. skanów zdrowych czaszek, aby „zrozumiała” ich ogólne wzorce i kształty. Ten proces trwa długo i wymaga sporej mocy obliczeniowej. Gdy sieć jest już wytrenowana, wtedy wprowadzane są do komputera dane medyczne, czyli konkretny skan pacjenta z ubytkiem. Algorytm analizuje go i – bazując na wcześniej nabytej wiedzy – potrafi zrekonstruować brakujący fragment.

Tak działa także nasz system, ale tylko na pierwszym etapie. W drugim kroku – i to jest unikatowe rozwiązanie – wykorzystujemy tzw. uczenie ze wzmocnieniem. Działa ono na zasadzie prób i błędów, a algorytm otrzymuje „nagrody” za zaproponowane pożądane rozwiązania oraz „kary” za nieudane. Dzięki temu użytkownik systemu, np. chirurg, może nie tylko „pokazać” DeepImplantowi czaszkę z defektem, ale również zdefiniować, jakich parametrów rekonstrukcji oczekuje. Sieć neuronowa potrafi już bowiem modyfikować wstępny projekt uzupełnienia ubytku kości.

Jest to kluczowe, ponieważ w projektowaniu tego typu implantów często mamy więcej niż jedno poprawne rozwiązanie. Zależy ono m.in. od materiału, z którego mają być zrobione, np. polimerów albo tytanu. Ich wybór zależy z kolei czasami nawet od takich czynników jak szerokość geograficzna, na której żyje pacjent. Użycie materiałów o dużej rozszerzalności cieplnej w gorącym klimacie nie wchodzi w grę, gdyż na skutek nagrzewania się czaszki mogłyby pojawić się naprężenia prowadzące do stanów zapalnych. Nasz system umożliwia użytkownikowi zdefiniowanie tych wszystkich wymogów, dzięki czemu implant będzie miał dokładnie takie cechy, jakich oczekuje chirurg. DeepImplant jest więc obecnie najdokładniejszym na świecie narzędziem do automatycznej rekonstrukcji defektów czaszkowych. Co więcej, umożliwia projektowanie w pełni automatyczne w ciągu zaledwie kilku, maksymalnie kilkunastu sekund. Ma to niebagatelny wpływ na praktyczny potencjał opracowanego rozwiązania.

Jakie są szanse, że będzie ono w praktyce wykorzystywane przez lekarzy? I kiedy to nastąpi?
Mamy już gotowy prototyp, który na pewno działa, bo został przetestowany w warunkach laboratoryjnych. W tej chwili możemy jednak nawiązywać współpracę tylko z zainteresowanymi placówkami medycznymi na zasadzie non profit. Wygląda to tak, że np. klinika zwraca się do nas z konkretnym problemem pacjenta, przesyłając jego zanonimizowane dane obrazowe, na podstawie których algorytm przygotowuje rekonstrukcję fragmentu czaszki. Następnie lekarz sam decyduje, czy zaprojektowane przez AI wypełnienie będzie użyteczne. Mogę na razie potwierdzić, że przynajmniej jeden pacjent posiada implant przygotowany przez nasz algorytm. Niestety, nie w Polsce.

Dlaczego za granicą?
Zabrzmi to paradoksalnie, ale nasz system jest obecnie lepiej znany poza Polską. Lekarze ze Szwajcarii, z Hiszpanii oraz z innych państw zachodnich są bardziej zainteresowani wykorzystaniem algorytmów AI w rekonstrukcji czaszki. Drugą barierą są kwestie typowo administracyjne. Za granicą można znacznie szybciej i prościej nawiązać współpracę badawczą w obszarze medycyny cyfrowej i łatwiej rozpropagować działanie opracowanego przez nasz zespół systemu.

Jak długo trzeba będzie czekać na komercjalizację?
Największe wyzwanie to przeskok od gotowego prototypu do faktycznego wdrożenia rynkowego. Finansowanie, które otrzymujemy w Polsce w formie grantów z budżetu państwa, obejmuje jedynie prace badawcze i rozwojowe. Czyli potrafimy doprowadzić projekt do etapu gotowego do komercjalizacji, ale już nie dalej. Żeby wykonać ten ostatni krok, potrzebowalibyśmy znacznie większych nakładów finansowych oraz zainteresowania inwestorów.

Na razie więc skupiamy się na komercjalizacji samego modelowania implantu jako usługi wyłącznie software’owej, co jest raczej w naszym zasięgu, jeśli chodzi o certyfikację. Gdybyśmy jednak chcieli stworzyć system, który nie tylko projektuje, ale też od razu drukuje i dostarcza gotowe implanty do szpitali, musielibyśmy dodać m.in. usługę ich sterylizacji.

Zajął się pan również diagnostyką glejaka mózgu i nowotworów piersi.
Opracowałem m.in. metody służące do aktualizacji planów resekcji glejaka w trakcie operacji chirurgicznej. Chodzi o to, że lekarz ma przygotowaną „mapę” zabiegu, pokazującą, gdzie dokładnie znajduje się guz i które zdrowe tkanki wokół niego należy bezwzględnie ominąć. Kłopot w tym, że gdy chirurg zaczyna usuwać fragmenty nowotworu, to cała „geometria” operowanego obszaru może się modyfikować, bo mózg jest miękką tkanką. W rezultacie pierwotna „mapa” szybko się dezaktualizuje. Ale dzięki algorytmom sztucznej inteligencji można temu zaradzić. Działają „na żywo” podczas zabiegu, czyli pobierają nowe dane, np. z obrazowania śródoperacyjnego, i w czasie rzeczywistym korygują „mapę”.

Ogólnie zajmowałem się tzw. patologią cyfrową, czyli automatycznym wykrywaniem zmian w tkankach badanych pod mikroskopem, np. nowotworowych. I rozważałem nawet, czy po powrocie ze Szwajcarii, gdzie przez pewien czas pracowałem, nie stworzyć zespołu badawczego skupionego właśnie na tym obszarze. Wymaga to jednak dostępu do wielkich zbiorów danych medycznych, a co za tym idzie, bardzo ścisłej, bezpośredniej współpracy lekarzy z inżynierami. Niestety, w Polsce jest to wręcz ekstremalnie trudne, m.in. ze względu na sformalizowane i skomplikowane procedury takiej kooperacji.

Pańskie zainteresowania naukowe łączą dwa światy – medycynę i inżynierię. Co sprawiło, że postanowił pan poświęcić swoją karierę właśnie temu, rozwijając AI na potrzeby obrazowania medycznego?
Już w szkole średniej wiedziałem, że chcę się zajmować tematami z szeroko rozumianej medycyny. Rozważałem nawet, czy nie zostać lekarzem. Ostatecznie jednak stwierdziłem, że chyba bardziej nadaję się na inżyniera. Jednak fascynacja światem medycyny pozostała i byłem zdecydowany zajmować się tematami związanymi bezpośrednio z leczeniem ludzi.

Czy AI może w przyszłości stać się niemal równorzędnym partnerem lekarzy?
To nieuniknione. AI na pewno będzie mieć ogromny wpływ na medycynę, szczególnie jeśli chodzi o szeroko rozumianą automatyzację i przyspieszanie diagnoz. Co nie zmienia faktu, że powinna być stosowana z dużą ostrożnością. Badania wskazują, że młodzi medycy, którzy od początku swojej kariery używają narzędzi sztucznej inteligencji, stają się gorszymi specjalistami. Nie możemy też zapominać, że to lekarz podejmuje ostateczną decyzję i ponosi za nią pełną odpowiedzialność.

Dr inż. Marek Wodziński jest adiunktem na Wydziale Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej AGH w Krakowie oraz pracownikiem badawczym w Centrum Zindywidualizowanej Medycyny Cyfrowej – Sano, gdzie zajmuje się m.in. rozwojem algorytmów sztucznej inteligencji w obrazowaniu medycznym.

Partnerzy Nagród Naukowych POLITYKI 2025|Partnerzy Nagród Naukowych POLITYKI 2025

Reklama

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną