Są takie rozmowy, które zostają w człowieku na długo po tym, jak zamkną się za nami drzwi gabinetu. Wczoraj odwiedziłam moją zaprzyjaźnioną rehabilitantkę. Znacie to uczucie – to jedna z tych osób, z którymi nie rozmawia się tylko o napiętych mięśniach, ale o życiu. Często wymieniamy się doświadczeniami, bo obie jesteśmy „w tym gronie”. Jej mama walczy z nowotworem, a ja... cóż, wiecie, że temat onkologii towarzyszy mi każdego dnia w walce o zdrowie mojej córki.
Zapytałam, co u mamy. Spodziewałam się aktualizacji o samopoczuciu czy kolejnym etapie leczenia. Ale to, co usłyszałam, sprawiło, że na moment odebrało mi mowę.
Pani powiedziała mi z pełnym przekonaniem, że ChatGPT po analizie wyników i badań PET stwierdził, że guza nie trzeba usuwać. Lekarz prowadzący jest innego zdania – mówi, że operacja jest konieczna. Jednak puenta tej rozmowy była uderzająca: to lekarz się myli, bo... „przecież ChatGPT się nie myli”.
Zrobiłam wielkie oczy. Stałam tam i nie mogłam uwierzyć, że osoba ze środowiska medycznego potrafi interpretację AI przełożyć nad wiedzę chirurga onkologa.
My, pacjenci, i nasz „Dr Google”
Nie zrozumcie mnie źle. Nie piszę tego z pozycji kogoś, kto pozjadał wszystkie rozumy. Sama dwa lata temu, gdy usłyszeliśmy diagnozę córki, i właściwie do dzisiaj, przeczytałam chyba wszystkie fora i grupy wsparcia. Nieraz pytałam i pytam „Doktora Google” o każdą kropkę w wynikach badań. Kto z nas tego nie robi? W morzu niepewności, w jakim żyjemy, szukamy jakiejkolwiek kotwicy.
Ale jestem racjonalistką. I choć rok 2026 stawia przed nami możliwości, o których wcześniej tylko śniliśmy, czuję narastający lęk. Czy naprawdę chcemy, żeby w tak granicznych sytuacjach leczyło nas AI? Już oczywiście się to dzieje, algorytmy analizują nasze dane, ale jest jedna rzecz, której maszynie zawsze będzie brakować.
Gdzie kończy się pomoc, a zaczyna niebezpieczeństwo?
W medycynie, szczególnie tej naszej – onkologicznej – brakuje mi w AI jednego kluczowego elementu: podejścia holistycznego.
Algorytm widzi dane, ale nie widzi człowieka. Nie czuje strachu w oczach pacjenta, nie zna historii, która nie zmieściła się w pliku PDF, nie widzi tych wszystkich niuansów, które lekarz dostrzega dzięki latom praktyki i intuicji. Technologia, nawet najbardziej zaawansowana, to tylko narzędzie. Kiedy zaczynamy traktować ją jak nieomylną wyrocznię, staje się ona niebezpiecznym uproszczeniem.
Bo w medycynie nie chodzi tylko o dane. Chodzi o ludzi. AI nie bierze na siebie odpowiedzialności za decyzję o nieusunięciu guza. Tę odpowiedzialność niesie lekarz i my – rodzice czy dzieci chorych rodziców.
Moje życzenie na 2026 rok
Mamy koniec roku, czas podsumowań. To dlatego czułam, że muszę się tym z Wami podzielić. Chciałabym, żeby nadchodzący rok był rokiem większej świadomości. Tego, co dzieje się wokół nas.
Chciałabym, żebyśmy potrafili odróżnić pomocne narzędzie od ślepego zaufania maszynie. Żebyśmy pamiętali, że technologia nie zastąpi relacji, doświadczenia i tej specyficznej, ludzkiej uważności. Chciałabym, żeby było inaczej, choć wiem, że nigdy nie będzie idealnie.
Z taką refleksją Was zostawiam. Dbajcie o siebie, szukajcie odpowiedzi, ale nie zapominajcie, że po drugiej stronie wyników badań zawsze musi stać człowiek.
Dodaj komentarz
Komentarze