Nie rozumiesz opisu z rezonansu lub tomografii? AI tłumaczy je na ludzki język
Coraz więcej pacjentów dostaje opisy badań obrazowych prosto do telefonu – i kompletnie ich nie rozumie. Sztuczna inteligencja zaczyna to zmieniać.
Radiolog pisze do radiologa, a nie do pacjenta – stąd pełne skrótów i łacińskich nazw opisy badań. Nowe narzędzia oparte na AI potrafią przepisać te dokumenty tak, by osoba bez medycznego wykształcenia wreszcie wiedziała, co właściwie pokazuje rezonans, tomografia czy zwykłe RTG.
Dlaczego opis rezonansu potrafi przestraszyć bardziej niż samo badanie
Smartfon wibruje, w aplikacji medycznej pojawia się powiadomienie: „Nowy wynik badania obrazowego”. Otwierasz plik i widzisz długą ścianę tekstu pełną skrótów, łacińskich określeń i sformułowań w rodzaju „zmiany ogniskowe o niejednoznacznym charakterze”. Bez kontekstu brzmi to jak wyrok.
Tak wygląda codzienność tysięcy pacjentów. Opisy badań z pracowni radiologicznej są tworzone przede wszystkim z myślą o lekarzu prowadzącym, który zna historię choroby, wyniki innych badań i potrafi powiązać wszystko w całość. Pacjent widzi tylko wyrwany z tego kontekstu dokument.
Badania przeprowadzone w Wielkiej Brytanii pokazały, że blisko 40 procent dorosłych ma kłopot już z podstawowymi informacjami zdrowotnymi, a przeciętny poziom czytania odpowiada wieku około 9 lat. Tymczasem spora część opisów radiologicznych jest pisana językiem zarezerwowanym dla tekstów naukowych. Efekt? Niepokój, samodzielne szukanie odpowiedzi w internecie, nadinterpretacje i lawina dodatkowych wizyt „tylko po to, żeby ktoś mi to przetłumaczył”.
Wysoki poziom specjalistycznego języka w opisach badań zwiększa lęk i prowadzi do wielu niepotrzebnych konsultacji, których jedynym celem jest samo wyjaśnienie treści dokumentu.
Co sprawdził zespół z Sheffield
Naukowcy z Uniwersytetu w Sheffield postanowili sprawdzić, czy duże modele językowe – podobne do ChatGPT – mogą pełnić rolę tłumacza między radiologiem a pacjentem. Przeanalizowali 38 badań naukowych opublikowanych między 2022 a 2025 rokiem. Łącznie wykorzystano w nich 12 922 opisów badań radiologicznych różnych typów, od rezonansu magnetycznego, przez tomografię komputerową, aż po standardowe zdjęcia RTG.
Każdy z tych opisów został przepuszczony przez model AI, który miał jedno zadanie: przepisać tekst tak, aby był zrozumiały dla osoby bez wykształcenia medycznego. Następnie prostsze wersje oceniali pacjenci lub przedstawiciele ogółu społeczeństwa – w sumie 508 osób.
Rezultaty mocno przyciągnęły uwagę lekarzy. Średni poziom zrozumienia tekstu wzrósł z 2,16 do 4,04 punktu w pięciostopniowej skali. Jednocześnie „trudność czytania” spadła z poziomu tekstu akademickiego do języka, który przeciętnie rozumie nastolatek w wieku 11–13 lat.
AI prawie dwukrotnie zwiększa zrozumiałość opisów badań obrazowych, jednocześnie upraszczając język do poziomu typowego ucznia starszych klas szkoły podstawowej.
Skąd ten skok zrozumiałości
Modele językowe działają jak bardzo szybki redaktor. Potrafią:
- zamienić łacińskie i techniczne określenia na potoczne odpowiedniki,
- dzielić długie zdania na krótkie i czytelne fragmenty,
- wytłumaczyć, które zmiany są typowe i niegroźne, a które wymagają dalszej diagnostyki,
- wyjaśnić skróty, np. „TK” jako „tomografia komputerowa głowy”,
- zaznaczyć, co odnosi się do stanu obecnego, a co do przeszłych problemów zdrowotnych.
W części badań modele potrafiły także tworzyć małe słowniczki pojęć albo sekcję z odpowiedziami na pytania, które zwykle padają w gabinecie („czy to rak?”, „czy to wyjaśnia mój ból?”, „czy muszę iść do szpitala?”).
Gdzie kończy się magia technologii, a zaczyna ryzyko
Uproszczenie języka nie może jednak oznaczać ustępstw w kwestii dokładności. Radiolodzy, którzy oceniali teksty przerobione przez AI, uznali je za rzetelne w zdecydowanej większości przypadków. Zauważyli też, że w około 1 procent opisów pojawiły się błędy medycznie istotne – na przykład niewłaściwa interpretacja zmiany lub sugestia rozpoznania, którego radiolog nie postawił w oryginalnym dokumencie.
Tak niski, ale realny odsetek pomyłek sprawia, że lekarze kładą nacisk na jeden warunek: człowiek musi mieć ostatnie słowo. Technologie tego typu mogą odciążyć specjalistów i usystematyzować język, lecz nie mogą samodzielnie komunikować diagnozy czy proponować leczenia.
Lekarze widzą w AI narzędzie do lepszej komunikacji z pacjentem, ale podkreślają konieczność stałej kontroli ludzkiej nad treścią, która do niego trafia.
Jak może wyglądać praktyczne zastosowanie
W praktyce może to przyjąć prosty model pracy.
| Etap | Rola AI | Rola lekarza |
|---|---|---|
| 1. Opis badania | Brak udziału – radiolog pisze standardowy, specjalistyczny opis. | Tworzy oficjalny dokument medyczny dla innych specjalistów. |
| 2. Uproszczenie języka | Generuje wersję „po ludzku”, tłumacząc trudne fragmenty. | Przegląda tekst uproszczony, poprawia nieścisłości, akceptuje. |
| 3. Kontakt z pacjentem | Może podsunąć propozycje pytań, jakie warto zadać na wizycie. | Wyjaśnia wynik, odpowiada na pytania, planuje dalsze postępowanie. |
Taki schemat pozwala wykorzystać siłę AI, a jednocześnie trzyma decyzje kliniczne po stronie człowieka. Uproszczony opis nie zastępuje rozmowy, ale ją przygotowuje: pacjent przychodzi na wizytę z mniejszym lękiem i konkretnymi pytaniami.
Co zyskuje pacjent dzięki „drugiej wersji” opisu badania
Dla osoby, która pierwszy raz w życiu leży w tunelu rezonansu lub przechodzi tomografię, końcowy dokument często staje się testem cierpliwości i nerwów. AI może tę sytuację zauważalnie złagodzić.
Pacjent widzi wtedy dwa teksty:
- oryginalny opis – z pełnym specjalistycznym słownictwem, przeznaczony głównie dla lekarza,
- opis uproszczony – napisany zwykłym językiem, z wytłumaczeniem kluczowych pojęć.
Taka „podwójna wersja” ma kilka zalet. Osoba czytająca wie, które fragmenty są opisem technicznym sprzętu, a które dotyczą faktycznych nieprawidłowości. Widzi jasne rozróżnienie między informacją typu „to typowe i nieszkodliwe” a „ten element wymaga dalszej kontroli”. Mniej rzeczy skłania do nerwowego wpisywania nazw w wyszukiwarkę i wyciągania najgorszych możliwych wniosków.
Dodatkowo uproszczony język pomaga tym, którzy gorzej czytają albo korzystają z tłumacza, bo na co dzień posługują się innym językiem. Krótkie, konkretne zdania łatwiej przełożyć automatycznie i zrozumieć, co naprawdę wynika z badania, a co jest tylko opisem technicznym.
Przykład z życia: co może się zmienić
Wyobraźmy sobie wynik tomografii głowy. W wersji specjalistycznej czytamy: „Niewielkie poszerzenie komór bocznych, zmiany naczyniopochodne istoty białej typowe dla wieku, bez świeżego ogniska niedokrwiennego”. Dla wielu osób brzmi to poważnie i groźnie.
AI może przepisać ten fragment mniej więcej tak: „Badanie nie wykazało świeżego udaru. Widoczne są drobne zmiany w mózgu, które często pojawiają się u osób w tym wieku i zwykle nie powodują objawów. Lekarz prowadzący zdecyduje, czy potrzebne są kolejne badania”. Taka forma wciąż nie stawia diagnozy zamiast specjalisty, za to dużo czytelniej pokazuje sens wyniku.
Granice zaufania do sztucznej inteligencji w medycynie
Temat szybkiego upraszczania opisów badań dotyka szerszej dyskusji: jak daleko powinna sięgać rola AI w ochronie zdrowia. Narzędzia językowe radzą sobie dobrze z przetwarzaniem tekstu, ale nie widzą pacjenta, nie znają całej historii choroby, nie czują niepokoju osoby siedzącej naprzeciwko w gabinecie.
Dlatego wielu lekarzy podkreśla, że takie rozwiązania powinny działać jak kalkulator w ręku inżyniera, a nie jak samodzielny projektant mostu. Mogą przyspieszyć żmudne elementy pracy, ujednolicić sposób przekazywania danych i zmniejszyć nierówności w dostępie do informacji, lecz to klinicysta decyduje, jakie wnioski z tych informacji naprawdę płyną.
W niektórych krajach start‑upy medyczne już testują podobne systemy dla opisów badań czy wypisów ze szpitala. Jeśli podobne narzędzia zaczną być używane na większą skalę, pacjenci zyskają realną szansę, by aktywniej uczestniczyć w decyzjach dotyczących leczenia, bo po prostu lepiej zrozumieją, co dzieje się w ich ciele.
Dla wielu osób największym wyzwaniem w chorobie jest właśnie niepewność i ciągłe pytanie „co to właściwie znaczy?”. AI, odpowiednio nadzorowana przez lekarzy, może stać się prostym, ale bardzo praktycznym wsparciem w zmniejszaniu tej niepewności – bez zastępowania żywej rozmowy, która nadal pozostanie najcenniejszą częścią kontaktu z medycyną.


