Masz wynik rezonansu i nic nie rozumiesz? AI tłumaczy to na ludzki język

Masz wynik rezonansu i nic nie rozumiesz? AI tłumaczy to na ludzki język
Oceń artykuł

Coraz więcej pacjentów dostaje wyniki rezonansu czy tomografii w aplikacji, ale sam tekst brzmi jak szyfr z innej planety.

Badania pokazują, że AI potrafi przerobić taki raport na prosty opis, niemal dwukrotnie łatwiejszy do zrozumienia. Lekarze widzą w tym szansę na spokojniejsze wizyty i mniej niepotrzebnego stresu, o ile nad wszystkim czuwa człowiek, a nie algorytm.

Dlaczego opisy badań obrazowych tak frustrują pacjentów

Każdy, kto choć raz otworzył w internetowym koncie pacjenta opis rezonansu, tomografii czy zwykłego prześwietlenia, zna to uczucie: długa lista skrótów, łacińskie nazwy, skomplikowane zdania. Te teksty powstają z myślą o innych lekarzach, a nie o odbiorcy, który nie ma medycznego wykształcenia.

Radiolodzy, kardiolodzy i inni specjaliści używają precyzyjnego, technicznego języka. Dla nich to narzędzie pracy, dla pacjenta – źródło niepokoju. W praktyce pojawiają się trzy problemy:

  • brak zrozumienia – pacjent nie wie, czy wynik jest dobry, zły, czy „tak sobie”,
  • narastający lęk – każde obce słowo może zabrzmieć jak „coś groźnego”,
  • fałszywe poczucie bezpieczeństwa – ktoś wyłapuje jedno zdanie, interpretuje po swojemu i uznaje, że wszystko jest w porządku, choć lekarz widzi to inaczej.

W badaniach cytowanych przez naukowców z Uniwersytetu w Sheffield aż około 40 procent dorosłych Brytyjczyków ma kłopot z czytaniem i rozumieniem tekstów medycznych. Jednocześnie przeciętny poziom czytania odpowiada dziecku w wieku mniej więcej dziewięciu lat. A raport z radiologii często bywa pisany jak artykuł naukowy.

Dla wielu osób sam moment otwarcia wyniku w telefonie staje się niemal tak stresujący jak badanie w skanerze: widzą długi tekst, ale nie są w stanie ocenić, czy mają się czemu bać.

Efekt? Zasypywanie lekarzy pytaniami o każdą linijkę, konsultacje tylko po to, żeby ktoś „przetłumaczył” wynik, przeszukiwanie internetu i nakręcanie czarnych scenariuszy.

Jak AI przerabia medyczny żargon na zwykły język

Zespół badaczy z Sheffield sprawdził, czy duże modele językowe – takie jak ChatGPT – mogą zadziałać jak tłumacz między lekarzem a pacjentem. Przejrzeli 38 badań z lat 2022–2025, w których takie algorytmy przerabiały opisy badań obrazowych, a potem ich jakość oceniali zwykli ludzie i lekarze.

Łącznie analizie poddano 12 922 raporty z rezonansu, tomografii czy klasycznych zdjęć rentgenowskich. Każdy z nich najpierw powstał w tradycyjnej, specjalistycznej formie, a następnie został „przepisany” przez AI na prostszy język. Następnie 508 osób – pacjentów lub przedstawicieli ogółu społeczeństwa – sprawdzało, czy dzięki takiej wersji lepiej rozumieją wynik.

Wyniki są dość konkretne:

Parametr Przed użyciem AI Po uproszczeniu przez AI
Poziom zrozumienia (w skali 1–5) 2,16 4,04
Poziom języka tekst jak z uczelni język nastolatka 11–13 lat

Innymi słowy – przeciętny pacjent rozumiał po przeróbce prawie dwa razy więcej. Zamiast czuć się zagubiony w gąszczu skrótów, dostawał zdania w stylu: „To badanie nie wykazało nowotworu” albo „Widzimy niewielkie zmiany zwyrodnieniowe, typowe dla wieku”.

Badacze podkreślają, że celem nie jest zmiana treści medycznej, ale sposób jej podania: mniej żargonu, więcej prostych przykładów i jasne zaznaczenie, co jest pilne, a co rutynowe.

Co na to lekarze

W wielu badaniach uproszczone opisy czytali także specjaliści. Ogólna opinia była pozytywna: teksty pozostawały zgodne z wynikiem badania, a główne informacje medyczne się nie gubiły. Jednocześnie lekarze zauważyli istotne ryzyko – mniej więcej 1 procent przerobionych raportów zawierał błąd na tyle poważny, że mógłby wpłynąć na decyzję terapeutyczną, na przykład sugerował inny rozpoznany problem niż w oryginale.

Z tego powodu naukowcy mocno akcentują, że AI nie powinna samodzielnie wysyłać raportów pacjentom. Potrzebny jest schemat, w którym wytłumaczony przez algorytm tekst zawsze przegląda lekarz prowadzący lub radiolog przed udostępnieniem.

Jak takie raporty mogą wyglądać z perspektywy pacjenta

Wyobraźmy sobie, że logujesz się do swojego internetowego konta pacjenta i otwierasz opis rezonansu kręgosłupa. Zamiast jednego, gęstego tekstu widzisz dwie części:

  • wersję techniczną – dla lekarza, z pełnym językiem medycznym,
  • wersję uproszczoną – krótką, podzieloną na sekcje, z objaśnionymi pojęciami.

W tej drugiej części mogłyby się znaleźć zdania typu:

  • „Nie ma oznak nowotworu ani świeżego złamania.”
  • „Widać niewielkie zmiany zwyrodnieniowe, często spotykane u osób w pani/pana wieku.”
  • „Lekarz prowadzący może zaproponować rehabilitację lub zmianę leków przeciwbólowych.”

Tekst nie stawia diagnozy zamiast specjalisty, ale tłumaczy, co dokładnie widzą radiolodzy i jakie mogą być dalsze kroki. Dla pacjenta to różnica między nocą bez snu a spokojnym czekaniem na wizytę u lekarza.

Uproszczone wersje opisów badań mają szansę stać się dla pacjenta tym, czym napisy pod trudnym filmem – nie zmieniają treści, ale pozwalają naprawdę ją śledzić.

Zmniejszanie nierówności w dostępie do informacji

AI może też pomóc osobom, które gorzej czytają dłuższe teksty, mają niższe wykształcenie albo korzystają z języka polskiego tylko jako drugiego. Prosty język, krótsze zdania i wyjaśnione skróty to realna ulga dla dużej grupy chorych.

Niektóre rozwiązania, jak francuski serwis Vulgaroo, już testują modele, które „przekładają” raporty dla pacjentów. Zawsze zaznaczają przy tym, że są tylko dodatkiem do rozmowy w gabinecie, a nie jej zastępstwem. Taki kierunek może się pojawić także w polskich szpitalach i prywatnych placówkach – czy to w ramach państwowych e-kont pacjenta, czy aplikacji klinik.

Szansa i ryzyko: czego AI nie powinna robić w medycynie

Choć wyniki badań są obiecujące, lekarze mocno ostrzegają przed pokusą „oddania” komunikacji z pacjentem samym algorytmom. Sztuczna inteligencja nie czuje kontekstu życiowego, nie wie, jaką wrażliwość ma dana osoba, nie zna pełnej historii choroby. Może nieświadomie:

  • spłaszczyć ważne niuanse,
  • zbagatelizować objawy wymagające szybkiej reakcji,
  • albo przeciwnie – przestraszyć pacjenta zbyt ostrym słownictwem.

Dlatego w propozycjach naukowców pojawia się model „człowiek na końcu łańcucha”: AI przygotowuje wersję uproszczoną, lekarz ją czyta, poprawia i dopiero taką, sprawdzoną, wysyła pacjentowi. Taki schemat może połączyć szybkość i wygodę nowych technologii z odpowiedzialnością medyczną.

Warto też podkreślić, że AI nie zastąpi rozmowy w gabinecie. Dobry opis w aplikacji może ograniczyć liczbę pytań o podstawowe kwestie, ale nie odpowie na wątpliwości dotyczące leczenia, nie pomoże zważyć ryzyka i korzyści konkretnych terapii. Ma raczej pomóc pacjentowi lepiej przygotować się do wizyty, niż ją wyeliminować.

Co to zmieni w praktyce i na co powinni uważać pacjenci

Dla szpitali i przychodni wprowadzenie takich narzędzi to szansa na mniejszą liczbę telefonów typu „czy może mi pani to przeczytać” i krótsze wizyty, podczas których lekarz nie będzie zaczynał od tłumaczenia każdego skrótu. Zyska też dokumentacja – raport staje się bardziej czytelny nie tylko dla chorego, ale też na przykład dla fizjoterapeuty czy lekarza rodzinnego.

Pacjent, który dostaje zrozumiały opis, rzadziej szuka odpowiedzi w przypadkowych źródłach w internecie. Ma też większą kontrolę nad swoim leczeniem – wie, o co sensownie zapytać, i łatwiej podejmuje decyzje wspólnie z lekarzem.

Z drugiej strony warto zachować zdrowy dystans. Jeśli aplikacja z AI tłumaczy raport inaczej niż mówi lekarz, pierwszeństwo zawsze powinien mieć specjalista. Algorytmy uczą się na ogromnych zbiorach tekstów, ale nie widziały konkretnego człowieka, nie przeprowadziły z nim wywiadu, nie wiedzą, co dla niego najważniejsze.

Przy kolejnych aktualizacjach systemów e-zdrowia w Polsce temat uproszczonych raportów może pojawiać się coraz częściej. Dobrze, by pacjenci mieli świadomość zarówno korzyści, jak i ograniczeń takiego rozwiązania. AI potrafi świetnie „przegadać” tekst z medycznego na codzienny, ale ostateczna odpowiedź na pytanie „co dalej z moim zdrowiem?” nadal powinna paść w rozmowie z człowiekiem w białym fartuchu.

Prawdopodobnie można pominąć