Az OpenAI idén januárban mutatta be a ChatGPT egészségügyi funkcióját. Ez egy olyan felületet jelent, amely azt a célt szolgálja, hogy a felhasználók egy dedikált felületen kapjanak válaszokat és tanácsokat az egészségüket érintő kérdésekre – az AI-eszköznek ugyanis már több milliárd egészségügyi kérdést szegeztek a felhasználók – írja a hvg.hu.
A kutatók úgy találták, az AI-eszköz a sürgős esetek 52 százalékát egyszerűen alulértékelte. Például a légzési elégtelenségtől szenvedő embereknek is az állapotuk 24–48 órás megfigyelését javasolta a sürgősségi osztály helyett.
A „tankönyvi vészhelyzeteket” ugyanakkor felismerte a rendszer, mint például a stroke vagy az anafilaxia. A kutatók szerint főleg akkor vallott kudarcot a rendszer, amikor már a klinikai ítélőkészség fontos szerephez jut.
A ChatGPT több, fiatalok öngyilkosságával kapcsolatos ügybe is belekeveredett már – erre válaszul az OpenAI új biztonsági intézkedéseket vezetett be, például a szülői felügyeletet, bizonyos esetekben pedig szakemberhez irányítja a felhasználót.
A friss kutatás ugyanakkor úgy találta, az öngyilkossági kockázatra vonatkozó figyelmeztetések nem következetesek. Az alacsonyabb klinikai kockázatnál megbízhatóbbnak tűnt a rendszer, míg amikor valaki egyértelműen kijelentette, hogy kárt tesz magában, nem működött olyan jól.

