Dzwonię do przychodni lekarza rodzinnego w sprawie przedłużenia recepty. Zamówienie na leki przyjmuje asystentka AI. To już w zasadzie norma, bo sztuczna inteligencja znakomicie zastępuje w tym przypadku człowieka. Tyle że przychodniana centralka telefoniczna to dopiero początek, bo AI zagościło już w medycynie na dobre.
O tym, na co jeszcze powinni przygotować się pacjenci, czy polski system ochrony zdrowia jest gotowy na sztuczną inteligencję i dlaczego tak duża liczba rozwiązań AI nie trafia do wdrożenia, rozmawiam z Piotrem Gajewskim, prezesem zarządu Polskiego Instytutu Evidence Based Medicine.
Beata Anna Święcicka, „Wprost”: Polscy pacjenci już rozmawiają z asystentami AI. A czy rodzimy system ochrony zdrowia jest gotowy na wdrażanie innowacji związanych ze sztuczną inteligencją? Jesteśmy bliżej liderów czy raczej nadrabiamy dystans?
Dr Piotr Gajewski: To nie jest proste pytanie, bo należałoby przyjąć takie same miary do porównania systemu polskiego z systemami w innych krajach. Z jednej strony dowiadujemy się o światowych sukcesach polskich lekarzy w niektórych dziedzinach, np. o pionierskich operacjach telerobotycznych przeprowadzonych na pacjentach w Warszawie przez chirurgów z Państwowego Instytutu Medycznego MSWiA przebywających w tym czasie w Chinach. Z drugiej zaś strony słyszymy w Polsce o ograniczeniach w dostępie do innowacyjnych technologii.
Dlatego że spora część rozwiązań AI nie trafia do wdrożenia? Gdzie dziś leży największa bariera biznesowa: technologia, regulacje czy brak gotowości rynku?
Przede wszystkim nowa technologia powinna odpowiadać na realną potrzebę, a nie stanowić kolejny „gadżet”, może nawet robiący wrażenie, ale w rzeczywistości mało przydatny. Od pomysłu i na każdym kolejnym etapie konieczna jest ścisła współpraca między inżynierami a pracownikami opieki zdrowotnej. Te dwa środowiska muszą od samego początku współdziałać.
Co dziś decyduje o tym, że projekt medtech rzeczywiście osiąga skalę, a nie kończy się na pilotażu?
W dużej mierze to, o czym już wspomniałem: trafne rozpoznanie potrzeby, ale również rzetelne udokumentowanie przydatności (proces złożony i kosztowny) oraz przekonanie „rynku”, czyli potencjalnych użytkowników, do korzystania z nowego narzędzia.
Trzeba też podkreślić, że narzędzie AI nie jest produktem statycznym, lecz wymaga ciągłej weryfikacji tego, jak się zachowuje, ciągłego rozwijania – prace nad nim nie ustają z chwilą wprowadzenia na rynek.
Tak więc do osiągnięcia sukcesu potrzeba nie tylko dobrego pomysłu i kompetentnych jego realizatorów, ale też nieraz ogromnych nakładów finansowych.
A kwestie legislacyjne?
Z pewnością pilnie potrzebne są dobre regulacje w tym obszarze, ale także przygotowanie „rynku” zdrowia na przyjęcie technologii AI. Czeka nas zatem edukacja całego środowiska medycznego, by świadomie, ze znajomością potencjalnych korzyści i zagrożeń, podchodziło do wykorzystania oferowanych nowych narzędzi.
Czy Polska ma szansę stać się eksporterem technologii medycznych, a nie tylko ich odbiorcą? Będziemy mieli w końcu swoją Dolinę Krzemową?
Mamy w Polsce wielu utalentowanych i świetnie wykształconych ludzi. Trzeba jednak pamiętać, że modele AI przeznaczone do wykorzystania w medycynie są „trenowane” na danych dostępnych dla ich twórców, czyli np. amerykańskich lub chińskich. Nasuwa się więc pytanie, czy narzędzie stworzone poza Polską, a więc na danych z populacji często bardzo różniącej się od polskiej, będzie można w naszym kraju wykorzystać. I odwrotnie, czy narzędzie stworzone w Polsce będzie funkcjonować poza Polską? Szansę widzę raczej w międzynarodowej kooperacji i włączaniu danych lokalnych, tzn. z różnych krajów (temu ma służyć np. Europejska Przestrzeń Danych dotyczących Zdrowia, EHDS) do „trenowania” nowych modeli dla opieki zdrowotnej.
W przestrzeni publicznej dominuje retoryka zmęczonej unijnym przeregulowaniem Europy. Czy UE, stawiając na regulacje i etykę, buduje przewagę konkurencyjną w AI, czy raczej spowalnia rozwój względem przede wszystkim USA i Chin?
W odpowiedzi zapytam: czy dla wyrównania szans w wyścigu na światowym rynku medycznych technologii AI będziemy chcieli poświęcić np. naszą prywatność, udostępniając informacje o naszym zdrowiu do powszechnego użytku bez skutecznych zabezpieczeń?
Panuje powszechne przekonanie, że Europa jest przeregulowana, ale czy w obszarze sztucznej inteligencji powinniśmy „odpuścić”? Regulacje są potrzebne, byle były dobre i zostały wprowadzone szybko – i to już stanowi wyzwanie.
W tym miejscu nie mogę nie zapytać o kompetencje cyfrowe środowiska medycznego. Czy w przyszłości lekarz bez ich znajomości i zrozumienia AI będzie w stanie skutecznie wykonywać sprawnie swój zawód?
Zapytałbym raczej, czy lekarz bez kompetencji cyfrowych i zrozumienia AI zapewni swoim pacjentom opiekę na tak samo wysokim poziomie, jak lekarz posiadający te kompetencje, przy założeniu podobnego wykształcenia medycznego. To raczej pytanie retoryczne. Warto jednak w tym miejscu zwrócić uwagę na jeszcze jeden aspekt związany z kompetencjami w zakresie AI, który ma fundamentalne znaczenie w relacji lekarz–pacjent – a mianowicie zaufanie. Który pacjent dzisiaj, zanim uda się do lekarza, nie zapyta chatbota (np. ChatGPT), na co choruje lub jakie leczenie powinien otrzymać, wpisując swoje dolegliwości lub już postawioną diagnozę? Przychodzi więc do lekarza przekonany, że jest dobrze przygotowany do rozmowy i będzie konfrontował zalecenia lekarskie ze swoją wiedzą z internetu.
Lekarz niepotrafiący wytłumaczyć pacjentowi ograniczeń informacji serwowanych przez AI, bo sam ich nie zna, nie wzbudzi zaufania – a ma ono zasadnicze znaczenie dla przestrzegania przez pacjenta zaleceń lekarskich.
Jest też druga strona tego problemu: lekarz może mieć odpowiednią wiedzę, ale nie ma czasu na wyjaśnienie, dlaczego pacjent powinien zaufać jemu, a nie AI. I tu AI może przyjść z pomocą, dając czas lekarzowi, który – korzystając z narzędzia AI – nie ugrzęźnie np. w dokumentacji medycznej, lecz poświęci więcej czasu pacjentowi, by zbudować z nim właściwą relację i zdobyć jego zaufanie.
Dziękuję za rozmowę.
BIO
Dr Piotr Gajewski – prezes zarządu Polskiego Instytutu Evidence Based Medicine (PIEBM). Współprzewodniczy komitetom organizacyjnym międzynarodowych konferencji naukowych odbywających się w Krakowie: McMaster International Review Conference of Internal Medicine (corocznie od 2015 r.) oraz Artificial Intelligence in Medicine (od 2026 r.). Lekarz internista, doktor nauk medycznych, przez wiele lat związany z II Katedrą Chorób Wewnętrznych Collegium Medicum Uniwersytetu Jagiellońskiego. Wiceprezes Towarzystwa Internistów Polskich oraz członek American College of Physicians.












