Nie rozumiesz wyniku rezonansu czy tomografii? AI mówi po ludzku
Coraz więcej pacjentów ma dostęp do wyników badań obrazowych w internecie, ale medyczny żargon sprawia, że zamiast ulgi pojawia się strach.
Raporty z rezonansu, tomografii czy zwykłego RTG pełne są skrótów, łacińskich nazw i fachowych sformułowań. Dla lekarza to codzienność, dla pacjenta – gąszcz niezrozumiałych komunikatów, w którym łatwo dopowiedzieć sobie najgorsze scenariusze. Nowe badania pokazują, że AI może realnie pomóc w przełożeniu tego języka na normalną, codzienną polszczyznę.
Dlaczego opisy badań obrazowych tak stresują pacjentów
Kiedy po badaniu wchodzisz na swój internetowy profil pacjenta, widzisz dwie rzeczy: szare obrazy z rezonansu albo tomografii i długi, techniczny opis. Zwykle ani jedno, ani drugie niewiele mówi osobie bez wykształcenia medycznego.
Radiolodzy piszą raporty przede wszystkim dla innych lekarzy. Używają skrótów, nazw anatomicznych, opisują szczegóły, które mają znaczenie diagnostyczne, ale brzmią dramatycznie: „zmiana ogniskowa”, „naciekanie”, „podejrzenie procesu rozrostowego”. Dla specjalisty to neutralne słowa, dla pacjenta – sygnał alarmowy.
Pacjenci deklarują, że samo czytanie opisu badania bywa tak stresujące, jak samo badanie w tunelu rezonansu.
Badania z Wielkiej Brytanii pokazują, że nawet 40 procent dorosłych ma trudności z rozumieniem tekstów o zdrowiu. Jednocześnie wiele opisów badań pisanych jest językiem zarezerwowanym dla studentów i kadry akademickiej. Ten rozdźwięk rodzi kilka problemów:
- narastającą panikę po przeczytaniu trudnych słów wyrwanych z kontekstu,
- fałszywe poczucie bezpieczeństwa, gdy pacjent nie dostrzega istotnej informacji,
- dodatkowe wizyty tylko po to, by „przetłumaczyć” opis,
- szukanie odpowiedzi w internecie, często w mało wiarygodnych źródłach.
W erze, gdy dokumentacja medyczna trafia niemal automatycznie do e-konta pacjenta, to napięcie widać coraz wyraźniej. Pytanie brzmi: kto ma realnie tłumaczyć ten medyczny język – i czy technologie, takie jak AI, mogą w tym pomóc bez ryzyka dla bezpieczeństwa chorych?
Nowe badanie: jak AI upraszcza opisy badań
Zespół naukowców z Uniwersytetu w Sheffield postanowił sprawdzić, jak duży sens mają w tym obszarze modele językowe podobne do ChatGPT. Przeanalizowali 38 badań naukowych opublikowanych w latach 2022–2025. We wszystkich użyto AI do automatycznego „przepisania” opisów badań obrazowych na prostszy język.
| Zakres analizy | Liczba |
|---|---|
| Liczba badań naukowych | 38 |
| Opisów badań obrazowych | 12 922 |
| Osób oceniających zrozumiałość | 508 |
Scenariusz był podobny: AI dostawała oryginalny raport radiologiczny, po czym generowała jego łatwiejszą wersję. Tę prostą wersję oceniali pacjenci lub osoby z ogółu społeczeństwa, porównując ją z pierwotnym tekstem.
Wyniki robią wrażenie. Rozumienie treści przez czytelników niemal się podwoiło: w pięciostopniowej skali średnia ocena wzrosła z około 2,2 do nieco ponad 4 punktów. Jednocześnie „poziom trudności” tekstów spadł z języka typowego dla uczelni do poziomu nastolatka w wieku 11–13 lat. Innymi słowy, raport da się przeczytać i zrozumieć bez słownika i studiów medycznych.
AI nie usuwa informacji medycznych, ale układa je w prostsze zdania, dodaje objaśnienia i rezygnuje z niepotrzebnego żargonu.
Czy proste wersje są wystarczająco bezpieczne
Radiolodzy, którzy brali udział w badaniach, dokładnie sprawdzali, co z tekstami robi AI. Ogólny wniosek: uproszczone opisy zazwyczaj zachowują sens i kluczowe informacje. To dobra wiadomość dla pacjentów, którzy boją się, że w „przetłumaczonej” wersji zginie coś ważnego.
Nie obyło się jednak bez zastrzeżeń. Około 1 procent uproszczonych raportów zawierał błędy istotne klinicznie, na przykład:
- zmianę wniosków z badania,
- nieprawidłowe złagodzenie opisu, sugerujące, że wszystko jest w porządku, choć nie było,
- nieprecyzyjne streszczenie, które mogło wprowadzać w błąd.
Z tego powodu lekarze podkreślają, że AI powinna działać wyłącznie jako narzędzie pomocnicze. Naukowcy mówią wprost: docelowo opis uproszczony, wygenerowany przez algorytm, musi przejść przez „ludzką kontrolę jakości”, czyli zostać zatwierdzony przez lekarza zanim trafi do pacjenta.
AI może tłumaczyć, ale odpowiedzialność za treść wobec pacjenta pozostaje po stronie lekarzy.
Jak mogłyby wyglądać wyniki badań w praktyce
Jeśli takie rozwiązania wejdą do powszechnego użycia, typowy raport z rezonansu czy tomografii mógłby mieć dwie warstwy:
Taki tekst mógłby na przykład:
- krótkimi zdaniami wyjaśniać, której części ciała dotyczy badanie,
- wskazywać, co w obrazie jest prawidłowe, a co wymaga kontroli,
- dopisywać w nawiasie objaśnienia do trudniejszych słów (np. przy słowie „torbiel” – „pęcherzyk z płynem, zwykle łagodny”),
- kończyć się krótką informacją: czy sytuacja wymaga pilnej interwencji, czy raczej zaplanowanej konsultacji.
Takie „warstwowe” podejście już testują niektóre start‑upy i szpitale, głównie w krajach anglosaskich. We Francji działają choćby serwisy, które potrafią wygenerować uproszczony opis na bazie pliku z wynikiem badania. Zawsze z zastrzeżeniem, że to tylko pomoc, a nie zastępstwo wizyty u specjalisty.
Co zyskują pacjenci, gdy opis mówi normalnie
Najbardziej oczywista korzyść to mniejszy lęk. Pacjent, który rozumie, co jest w jego badaniu, rzadziej dopisuje sobie dramatyczne scenariusze. Łatwiej mu zadać konkretne pytania lekarzowi. Przestaje się wstydzić, że „nic nie rozumie”, bo dostaje tekst napisany w podobny sposób jak artykuł w prasie, a nie w czasopiśmie naukowym.
Większa jasność opisu przekłada się na większą kontrolę nad leczeniem i lepszą współpracę z lekarzem.
Dla osób słabiej czytających albo mających trudności językowe takie uproszczenie może wręcz decydować o tym, czy zrozumieją, jakie leczenie jest planowane i na co zwracać uwagę. To realna szansa na zmniejszenie różnic w dostępie do informacji o zdrowiu.
Placówki medyczne mogą z kolei zyskać coś jeszcze: mniej telefonów z pytaniem „co to znaczy” i lepiej wykorzystany czas wizyty. Lekarz nie musi wtedy czytać raportu zdanie po zdaniu, tylko przechodzi do omówienia decyzji: co robimy dalej, jakie są opcje terapii, jakich objawów szukać.
Ryzyka, o których warto pamiętać
Choć wyniki badań są zachęcające, wokół użycia AI w medycynie pojawia się kilka powtarzających się pytań:
- Odpowiedzialność: jeśli uproszczony opis zawiera błąd, kto za to odpowiada – twórcy algorytmu, szpital, lekarz zatwierdzający, a może wszyscy po trochu?
- Prywatność danych: aby tekst mógł zostać „przetłumaczony”, trzeba go wysłać do systemu AI. To oznacza konieczność bardzo rygorystycznej ochrony danych medycznych.
- Przesadne zaufanie do technologii: istnieje ryzyko, że część osób potraktuje uproszczony opis jako ostateczną diagnozę i zrezygnuje z konsultacji lekarskiej.
- Język i kultura: model uczony na anglojęzycznych opisach może gorzej radzić sobie z raportami z innych krajów, gdzie stosuje się inne schematy pisania i skróty.
Dlatego eksperci mówią o konieczności stopniowego wdrażania takich rozwiązań, najlepiej w formie pilotaży w wybranych szpitalach, z dokładnym monitorowaniem jakości opisów i opinii pacjentów.
Co może zrobić pacjent już dziś
Nawet bez oficjalnych narzędzi AI w systemie ochrony zdrowia można lepiej skorzystać z prawa do wglądu w swoje wyniki. Kilka praktycznych kroków:
- zaznacz przed badaniem, że chcesz, by lekarz omówił z tobą wyniki, choćby krótko,
- zapisz istotne pytania przed wizytą, żeby w stresie o niczym nie zapomnieć,
- jeśli dostajesz opis elektronicznie, nie wyciągaj wniosków samodzielnie – potraktuj go jako punkt wyjścia do rozmowy,
- korzystaj z wiarygodnych źródeł medycznych, gdy szukasz objaśnień, a nie z pierwszego lepszego forum.
W ciągu kilku najbliższych lat narzędzia AI mogą stać się stałym elementem systemów obsługujących dokumentację pacjentów, także w Polsce. Jeżeli zostaną dobrze zaprojektowane, z nadzorem lekarzy i jasnymi zasadami ochrony prywatności, mogą zamienić strach związany z czytaniem wyniku badania w coś zupełnie innego: poczucie, że wreszcie naprawdę wiesz, co dzieje się z twoim zdrowiem.


