14-latka trafiła na SOR. Treść wypisu wywołała skandal

14-latka trafiła na SOR. Treść wypisu wywołała skandal

Korytarz w szpitalu, zdjęcie ilustracyjne
Korytarz w szpitalu, zdjęcie ilustracyjne Źródło: Shutterstock / Anna Jurkovska
Do sieci trafiło zdjęcie dokumentacji medycznej 14-letniej pacjentki. Wielu internautów miało mieszane uczucia na widok tego, co znalazło się w treści wypisu.

Po internecie krąży zdjęcie wypisu, który zawiera treść łudzącą przypominającą tę, jaką generuje zwykle sztuczna inteligencja (modele neurolingwistyczne).

Dokument pochodzi z jednego ze szpitali w Bydgoszczy – z oddziału ratunkowego placówki medycznej. Pacjentką była tam 14-latka, u której w wywiadzie stwierdzono uraz głowy. „Od tego czasu występuje ból głowy oraz mrowienie i drętwienie okolic barków” – ustalił lekarz w wywiadzie.

Wygląda na to, że pracownik szpitala nie przygotował wypisu w pełni samodzielnie.

Jest komentarz szpitala

„Jeżeli chcesz, mogę przygotować pełniejszy wywiad po urazie głowy u dziecka (z typowymi pytaniami o utratę przytomności, wymioty, zawroty głowy), który często wpisuje się w dokumentacji SOR” – taki fragment znalazł się w treści wypisu. Wzbudził on – jak się zaraz okaże – uzasadnione spekulacje o sporządzenie go przy użyciu SI.

Redakcja stacji Polsat News zwróciła się do bydgoskiej placówki z pytaniem, czy dokument jest prawdziwy i rzeczywiście przy jego powstaniu lekarz korzystał z jednego z modeli językowych.

„Potwierdzam autentyczność dokumentu – karty informacyjnej izby przyjęć (...) Narzędzie Chat GPT nie zostało użyte w celu postawienia diagnozy ani opracowania planu leczenia” – zaznaczył szpital.

Do czego lekarz użył Chata GPT?

Jak wytłumaczyli przedstawiciele placówki, 14-letnia pacjentka konsultowana była przez lekarza chirurga dziecięcego. „Jego zalecenia zostały uwzględnione w karcie informacyjnej. Lekarz rezydent dokonujący wpisu – zarówno w badaniu podmiotowym, jak i przedmiotowym – posługiwał się formularzami dokumentacji med. obowiązującymi w szpitalu” – wytłumaczył szpital.

Co istotne – do narzędzia „nie wprowadzono żadnych danych wrażliwych pacjenta”. Zostało ono użyte wyłącznie „do zredagowania trzech zdań wywiadu pod kątem korekty językowej” – zapewniono.

Czytaj też:
Staż lekarski do skrócenia? Brakuje danych o realnej nauce przy pacjencie
Czytaj też:
Nowe udogodnienie dodane do ChatGPT. Niewielu zna tę funkcję

Źródło: Polsat News/Interia