Po internecie krąży zdjęcie wypisu, który zawiera treść łudzącą przypominającą tę, jaką generuje zwykle sztuczna inteligencja (modele neurolingwistyczne).
Dokument pochodzi z jednego ze szpitali w Bydgoszczy – z oddziału ratunkowego placówki medycznej. Pacjentką była tam 14-latka, u której w wywiadzie stwierdzono uraz głowy. „Od tego czasu występuje ból głowy oraz mrowienie i drętwienie okolic barków” – ustalił lekarz w wywiadzie.
Wygląda na to, że pracownik szpitala nie przygotował wypisu w pełni samodzielnie.
Jest komentarz szpitala
„Jeżeli chcesz, mogę przygotować pełniejszy wywiad po urazie głowy u dziecka (z typowymi pytaniami o utratę przytomności, wymioty, zawroty głowy), który często wpisuje się w dokumentacji SOR” – taki fragment znalazł się w treści wypisu. Wzbudził on – jak się zaraz okaże – uzasadnione spekulacje o sporządzenie go przy użyciu SI.
Redakcja stacji Polsat News zwróciła się do bydgoskiej placówki z pytaniem, czy dokument jest prawdziwy i rzeczywiście przy jego powstaniu lekarz korzystał z jednego z modeli językowych.
„Potwierdzam autentyczność dokumentu – karty informacyjnej izby przyjęć (...) Narzędzie Chat GPT nie zostało użyte w celu postawienia diagnozy ani opracowania planu leczenia” – zaznaczył szpital.
Do czego lekarz użył Chata GPT?
Jak wytłumaczyli przedstawiciele placówki, 14-letnia pacjentka konsultowana była przez lekarza chirurga dziecięcego. „Jego zalecenia zostały uwzględnione w karcie informacyjnej. Lekarz rezydent dokonujący wpisu – zarówno w badaniu podmiotowym, jak i przedmiotowym – posługiwał się formularzami dokumentacji med. obowiązującymi w szpitalu” – wytłumaczył szpital.
Co istotne – do narzędzia „nie wprowadzono żadnych danych wrażliwych pacjenta”. Zostało ono użyte wyłącznie „do zredagowania trzech zdań wywiadu pod kątem korekty językowej” – zapewniono.
Czytaj też:
Staż lekarski do skrócenia? Brakuje danych o realnej nauce przy pacjencieCzytaj też:
Nowe udogodnienie dodane do ChatGPT. Niewielu zna tę funkcję
