Asystenci AI i dokumentacja medyczna
- Katarzyna Celińska

- 4 godziny temu
- 2 minut(y) czytania
W moich poprzednich wpisach dotyczących sztucznej inteligencji w służbie zdrowia skupiałem się na dwóch powracających tematach:
➡️ w jaki sposób ludzie coraz częściej wykorzystują modele językowe (LLM) jako „zamiennik” lekarzy, psychoterapeutów lub psychologów oraz
➡️ dlaczego znaczna część danych dotyczących zdrowia znajduje się poza zakresem ustawy HIPAA, co powoduje fragmentaryczność i często mylącą rzeczywistość w zakresie prywatności i bezpieczeństwa.
Tym razem temat jest ściśle powiązany, ale ma jeszcze bardziej operacyjny charakter: asystenci AI i dokumentacja medyczna.
Po przeczytaniu artykułu „Medical records and AI scribes: Risk considerations” (Rachel V. R.) jasne jest, że asystenci medyczni oparci na sztucznej inteligencji mogą wnieść realną wartość (oszczędność czasu, zmniejszenie obciążenia lekarzy związanego z dokumentacją), ale rodzą też pytania dotyczące zarządzania, które wykraczają daleko poza „jakość dokumentacji”. Natychmiast wywołują dyskusje na temat zakresu HIPAA, prywatności w fazie projektowania, zarządzania sztuczną inteligencją oraz środków kontroli cyberbezpieczeństwa.

Foto: Freepik
W odróżnieniu od klasycznych narzędzi do dyktowania, programy do transkrypcji oparte na sztucznej inteligencji mogą rejestrować i przekształcać poufne opisy kliniczne w uporządkowane notatki medyczne. Oznacza to, że mają one dostęp do:
➡️ danych medycznych podlegających ochronie (PHI),
➡️ danych należących do kategorii specjalnych,
➡️ oraz najbardziej wrażliwych aspektów relacji z pacjentem.
Właśnie w tym miejscu moja uwaga dotycząca „HIPAA a wykraczanie poza HIPAA” znów nabiera kluczowego znaczenia:
Jeśli z pisarza korzysta podmiot objęty przepisami, a dostawca działa jako partner biznesowy na podstawie odpowiedniej umowy BAA, dane mogą znajdować się w ekosystemie HIPAA.
Jeśli jednak narzędzie jest wdrażane za pośrednictwem usług AI przeznaczonych dla konsumentów, niejasnych łańcuchów podwykonawców lub marketingu opartego na hasłach „zgodność z HIPAA” bez rzeczywistego nadzoru zgodnego z HIPAA, w rzeczywistości może dojść do przejścia na słabszy model ochrony, nawet jeśli dane wyglądają jak PHI.
Co podkreśla artykuł
Integralność i odpowiedzialność
Artykuł wskazuje na oczekiwania dotyczące dokładnej i kompletnej dokumentacji medycznej, właściwego uwierzytelniania oraz ochrony integralności i bezpieczeństwa.
W przypadku asystentów AI rodzi to praktyczne pytania:
➡️ Kto jest autorem? Kto zatwierdza? Jak zapewniamy identyfikowalność? Jak zapobiegamy cichym edycjom?
Transparency
Beyond general consent requirements, AI scribes raise “next level” transparency issues:
➡️ Is the patient informed that AI is used? Is audio recorded? Where does it go? For how long? Who can access it?
Hallucinations
The article explicitly flags hallucinations and the potential for adverse outcomes and even billing risk.
Compliance
This is the part that aligns strongly with my earlier posts: in healthcare AI projects, the real risk is not only “legal.” It’s the combination of:
➡️ privacy compliance,
➡️ cybersecurity controls,
➡️ vendor chain governance,
➡️ operational monitoring.
If you want AI scribes, treat them as a regulated, high-impact system.
Autor: Sebastian Burgemejster



Komentarze