Az OpenAI idén januárban mutatta be a ChatGPT egészségügyi funkcióját. Ez egy olyan felületet jelent, amely azt a célt szolgálja, hogy a felhasználók egy dedikált felületen kapjanak válaszokat és tanácsokat az egészségüket érintő kérdésekre – az AI-eszköznek ugyanis már több milliárd egészségügyi kérdést szegeztek a felhasználók – írja a hvg.hu.

A Icahn School of Medicine at Mount Sinai nevű New York-i egyetem kutatócsoportja arra a kérdésre szeretett volna választ kapni: ha valaki tényleges orvosi vészhelyzetben van, és így kéri a segítségét, akkor egyértelműen azt fogja tanácsolni, hogy keressen fel egy sürgősségi osztályt? A válasz sajnos az, hogy a legtöbb esetben nem.

A kutatók úgy találták, az AI-eszköz a sürgős esetek 52 százalékát egyszerűen alulértékelte. Például a légzési elégtelenségtől szenvedő embereknek is az állapotuk 24–48 órás megfigyelését javasolta a sürgősségi osztály helyett.

A „tankönyvi vészhelyzeteket” ugyanakkor felismerte a rendszer, mint például a stroke vagy az anafilaxia. A kutatók szerint főleg akkor vallott kudarcot a rendszer, amikor már a klinikai ítélőkészség fontos szerephez jut.

A ChatGPT több, fiatalok öngyilkosságával kapcsolatos ügybe is belekeveredett már – erre válaszul az OpenAI új biztonsági intézkedéseket vezetett be, például a szülői felügyeletet, bizonyos esetekben pedig szakemberhez irányítja a felhasználót.

A friss kutatás ugyanakkor úgy találta, az öngyilkossági kockázatra vonatkozó figyelmeztetések nem következetesek. Az alacsonyabb klinikai kockázatnál megbízhatóbbnak tűnt a rendszer, míg amikor valaki egyértelműen kijelentette, hogy kárt tesz magában, nem működött olyan jól.

Az OpenAI szóvivője kijelentette: a ChatGPT-t egy fejlesztés alatt álló eszköznek kell tekinteni, és folyamatosan kapja azokat a frissítéseket, amelyek azt a célt szolgálják, hogy az érzékeny helyzeteket is jobban tudja kezelni.

A mesterséges intelligencia hasznos eszköz lehet, de az általa elmondattakat nem szabad készpénznek venni, mivel tévedhet.