AI stawia diagnozy, a kto ponosi odpowiedzialność?
Około połowy organizacji ochrony zdrowia wdrożyło rozwiązania generatywnej AI, a ponad 80 proc. testuje ich zastosowania w praktyce – wynika z analiz McKinsey & Company. Jednocześnie, jak wskazują badania The Business Research Company, globalny rynek sztucznej inteligencji w medycynie ma wzrosnąć w ciągu pięciu lat z 18,16 mld dolarów w 2024 r. do 72,85 mld dolarów w 2029 r. W tym kontekście jednym z kluczowych wyzwań dla systemu zdrowia staje się odpowiedzialność.
AI zmienia fundamenty badań i praktyki klinicznej
Skala wdrożeń sztucznej inteligencji w ochronie zdrowia pokazuje, że technologia przestaje być eksperymentem, a staje się elementem infrastruktury systemu. Jak wynika z danych The Business Research Company, rynek AI w medycynie rośnie w tempie 31,7 proc. rocznie, co należy do najwyższych wskaźników w sektorze technologicznym. Wzrost ten wynika ze zwiększającej się liczby danych medycznych, niedoboru personelu oraz potrzeby wcześniejszego wykrywania chorób i personalizacji terapii.
AI znajduje zastosowanie zarówno w obszarach operacyjnych, jak i klinicznych. Modele predykcyjne wspierają decyzje terapeutyczne, pomagają identyfikować pacjentów wysokiego ryzyka czy optymalizować ścieżki leczenia. Natomiast generatywna AI umożliwia szybkie przetwarzanie i syntezę ogromnych zbiorów wiedzy medycznej, co przekłada się na skrócenie procesów badawczych i diagnostycznych.
Przykłady zastosowań pokazują skalę tej zmiany. Zespół z University of Cambridge opracował model, który pozwala przewidzieć rozwój choroby Alzheimera u pacjentów z wczesnymi objawami z dokładnością przekraczającą 80 proc., wykorzystując wyłącznie standardowe dane kliniczne. Rozwiązania tego typu mogą ograniczać liczbę błędnych diagnoz i zmniejszać konieczność stosowania kosztownych, inwazyjnych badań.
Równolegle AI rewolucjonizuje proces odkrywania leków. Jak wskazują publikacje w „Acta Pharmacologica Sinica”, algorytmy umożliwiają identyfikację nowych cząsteczek terapeutycznych, modelowanie struktur białek oraz analizę złożonych układów biologicznych. Kluczowa zmiana dotyczy nie tylko tempa, ale przede wszystkim skali i precyzji – AI pozwala analizować większe zbiory danych, uwzględniać więcej zmiennych i lepiej odwzorowywać złożone zależności biologiczne.
Granica technologii – odpowiedzialność nie jest skalowalna
Pomimo rosnącej roli AI, w ochronie zdrowia istnieje wyraźna granica: odpowiedzialność za decyzje pozostaje po stronie człowieka. W medycynie nie chodzi wyłącznie o analizę danych, lecz o podejmowanie decyzji, które mają bezpośrednie konsekwencje dla pacjentów.
Diagnoza, rekomendacja terapeutyczna czy publikacja naukowa nie są jedynie wynikiem analizy informacji, ale stanowią podstawę działań klinicznych i systemowych. Lekarz stawia diagnozę, badacz odpowiada za wyniki badań, a instytucje za wdrażane rozwiązania. AI – niezależnie od poziomu zaawansowania – nie posiada zdolności do ponoszenia odpowiedzialności prawnej ani etycznej.
Jak pokazują analizy McKinsey & Company, kwestie związane z bezpieczeństwem, wiarygodnością i zarządzaniem ryzykiem należą do najważniejszych barier wdrażania AI w ochronie zdrowia. Wraz ze wzrostem skali wykorzystania technologii zwiększa się znaczenie nadzoru nad jej zastosowaniem, szczególnie w kontekście decyzji klinicznych.
– Dochodzimy do momentu, w którym AI zaczyna współtworzyć wiedzę medyczną, a nie tylko ją biernie przetwarzać. To fundamentalna zmiana, oznaczająca, że granica między narzędziem a uczestnikiem procesu badawczego zaczyna się powoli zacierać. Jednocześnie system ochrony zdrowia jest jednym z niewielu obszarów, w których nie można „przenieść odpowiedzialności na technologię, każda decyzja musi mieć konkretnego autora. Dlatego największym wyzwaniem nie jest dziś rozwój AI, ale stworzenie ram, dzięki którym jej wykorzystanie będzie bezpieczne, weryfikowalne i jasno przypisane do człowieka – mówi Andrzej Kinasiewicz, Centralized Monitoring Director AstraZeneca.
Między efektywnością a wiarygodnością: nowe wyzwania dla systemu
Jednym z kluczowych wyzwań związanych z wykorzystaniem generatywnej AI jest zdolność modeli do tworzenia treści, które są spójne i przekonujące, ale nie zawsze oparte na rzeczywistych danych. Zjawisko tzw. halucynacji obejmuje m.in. generowanie nieistniejących publikacji, błędne cytowania czy syntetyczne wnioski pozbawione podstaw empirycznych.
W kontekście ochrony zdrowia problem ten ma szczególne znaczenie, ponieważ wiarygodność danych stanowi fundament procesu decyzyjnego. Skuteczność AI zależy nie tylko od algorytmu, ale przede wszystkim od jakości danych i sposobu jej wykorzystania. Niewłaściwe zastosowanie technologii może prowadzić do utrwalania błędów lub ich eskalacji na dużą skalę.
Jednocześnie sztuczna inteligencja oferuje realne korzyści – od poprawy trafności diagnostyki po przyspieszenie badań nad nowymi terapiami. Kluczowe staje się zatem nie pytanie, czy korzystać z AI, ale jak robić to odpowiedzialnie, w jakich obszarach ją wdrażać i gdzie zachować szczególną ostrożność.
W praktyce klinicznej i badawczej AI zmienia sposób podejmowania decyzji, zwiększając zakres informacji, które można uwzględnić w analizie. To z jednej strony większe możliwości, z drugiej – większa odpowiedzialność za ich interpretację, szczególnie gdy modele operują na danych, których kontekst nie zawsze jest w pełni widoczny. Dlatego równie ważne jak rozwój technologii jest budowanie kompetencji i standardów jej odpowiedzialnego wykorzystania – mówi Karolina Tkaczuk, Senior Director Forum MedTech.
Sztuczna inteligencja staje się jednym z filarów transformacji ochrony zdrowia – zarówno w obszarze badań, jak i praktyki klinicznej. Jej rozwój odpowiada na realne potrzeby systemu: rosnącą liczbę danych, ograniczone zasoby kadrowe oraz konieczność zwiększania efektywności. Jednocześnie postęp technologiczny wymaga redefinicji ról i odpowiedzialności. W świecie, w którym algorytmy generują coraz więcej danych i rekomendacji, kluczowe znaczenie zyskuje człowiek jako podmiot interpretujący, weryfikujący i podejmujący decyzje. AI może zmieniać sposób pracy, ale nie zmienia fundamentalnej zasady: w medycynie odpowiedzialność nie jest skalowalna.
Przeczytaj także: „AI w diagnostyce czerniaka – analiza skuteczności i implikacje kliniczne”, „AI ocenia badania obrazowe i przewiduje ryzyko zdrowotne” i „e-konsylium i AI w diagnostyce na ostatniej prostej w Sejmie”.
