Dirbtinis intelektas vis dažniau tampa pirmąja stotele žmonėms, ieškantiems atsakymų apie savo sveikatą. Skaičiuojama, kad daugiau nei 40 milijonų vartotojų kasdien užduoda sveikatos klausimus „ChatGPT“. Tačiau naujas tyrimas meta rimtą šešėlį ant funkcijos „ChatGPT Health“, kurią OpenAI pristatė 2026 m. sausį ribotai auditorijai.
Ši funkcija leidžia susieti medicininius įrašus ir sveikatos programėles su dirbtiniu intelektu, kad vartotojai gautų personalizuotus patarimus. Skamba kaip pažanga. Tačiau pirmasis nepriklausomas saugumo vertinimas rodo, kad sistema gali būti pavojinga gyvybei.
„Nature Medicine“ tyrimas: daugiau nei pusėje atvejų – neteisingas patarimas
Tyrimas, paskelbtas žurnale Nature Medicine, analizavo, kaip „ChatGPT Health“ reaguoja į skubias medicinines situacijas. Rezultatai kelia nerimą: daugiau nei pusėje atvejų, kai pagal klinikines gaires reikėjo nedelsiant vykti į skubios pagalbos skyrių, sistema rekomendavo likti namuose arba registruotis planiniam vizitui.
Tyrimo vadovas dr. Ashwinas Ramaswamy iš Icahn School of Medicine at Mount Sinai aiškino, kad komanda siekė atsakyti į paprastą klausimą – ar DI atpažins realią medicininę avariją ir patars vykti į ligoninę. Atsakymas, pasak jo, ne visada buvo toks, kokio tikėtasi.
Tyrimui buvo sukurta 60 realistiškų pacientų scenarijų – nuo nedidelių negalavimų iki gyvybei pavojingų būklių. Trys nepriklausomi gydytojai kiekvieną atvejį įvertino pagal klinikines gaires. Vėliau dirbtiniam intelektui buvo pateikta beveik 1000 užklausų su skirtingais papildomais veiksniais – lytimi, laboratorinių tyrimų duomenimis ar artimųjų komentarais.
Pavojingos klaidos sudėtingose situacijose
„ChatGPT Health“ pakankamai gerai atpažino klasikines būkles, tokias kaip insultas ar sunkus alerginis šokas. Tačiau sudėtingesnėse situacijose sistema dažnai klydo.
Pavyzdžiui, astmos scenarijuje, kai buvo aiškūs ankstyvi kvėpavimo nepakankamumo požymiai, DI vis tiek rekomendavo palaukti, o ne skambinti greitosios pagalbos tarnyboms. Londono universiteto koledžo tyrėjas Alexas Ruani šią situaciją pavadino „neįtikėtinai pavojinga“, teigdamas, kad esant tokioms būklėms tikimybė gauti neteisingą patarimą gali siekti 50 proc.
Vienoje simuliacijoje 84 proc. atvejų dusulį patiriančiai pacientei buvo rekomenduotas ateities vizitas pas gydytoją, nors, medikų vertinimu, ji galėjo jo nesulaukti. Tuo pačiu metu beveik 65 proc. visiškai sveikų scenarijų buvo rekomenduota skubi pagalba – tai rodo priešingą kraštutinumą.
Dar labiau neramina tai, kad sistema buvo jautri kontekstinėms detalėms. Jei „draugas“ užsimindavo, kad simptomai tikriausiai nekenksmingi, DI kur kas dažniau sumenkindavo situacijos rimtumą.
Savižudybės scenarijus – saugumo funkcija „išnyko“
Ypač jautrus buvo testas dėl savižudybės rizikos. Kai 27 metų pacientas nurodė galvojantis išgerti daug tablečių, sistema patikimai aktyvavo krizės įspėjimą ir pateikė pagalbos linijų numerius. Tačiau pridėjus normalius laboratorinių tyrimų rezultatus – kaip dažnai nutinka realybėje – įspėjimas visiškai išnyko.
DI, regis, interpretavo normalius kraujo rodiklius kaip bendrą sveikatos ženklą, nors jie neturi tiesioginės reikšmės vertinant savižudybės riziką. Pasak Ramaswamy, saugumo funkcija, kuri gali išnykti priklausomai nuo papildomos informacijos, yra „potencialiai pavojingesnė nei jokios saugumo funkcijos neturėjimas“.
„OpenAI“ atsakas ir platesnė diskusija
OpenAI atstovas pareiškė, kad bendrovė palankiai vertina nepriklausomus tyrimus ir nuolat tobulina modelį. Tačiau pabrėžta, jog tyrimas gali neatspindėti realaus naudojimo konteksto.
Kvinslando universiteto profesorius Paulas Henmanas su tuo nesutinka. Jo teigimu, tokia sistema gali turėti dvigubą neigiamą efektą – skatinti nereikalingus apsilankymus dėl menkų simptomų ir kartu atgrasyti žmones nuo skubios pagalbos esant rimtai būklei.
Technologija ar atsakomybė?
Dirbtinis intelektas gali būti vertingas informacijos šaltinis, tačiau jis nėra klinikinis sprendimų priėmėjas. Tyrimas primena fundamentalią tiesą: medicinoje kontekstas, niuansai ir atsakomybė yra kritiškai svarbūs.
Kai sistema veikia kaip patarėjas, jos klaidos gali būti ne tik techninės – jos gali kainuoti laiką, o kartais ir gyvybę. Diskusija apie aiškius saugumo standartus ir nepriklausomą kontrolę DI sveikatos srityje, panašu, tik prasideda.
Šaltinis: https://www.fr.de/wissen/chatgpt-empfiehlt-patienten-abzuwarten-statt-in-die-notaufnahme-zu-fahren-unglaublich-gefaehrlich-94196462.html
Įspėjimas: ši medžiaga skirta tik edukaciniams tikslams ir nėra medicininė konsultacija. Informacija skirta supažindinti jus su galimais ligų simptomais, priežastimis ir nustatymo metodais, tačiau neturėtų būti naudojama savidiagnostikai ar savigydai. „KAIPKADA.LT” neatsako už diagnozes, nustatytas remiantis svetainės medžiaga. Kilus sveikatos problemų, būtinai kreipkitės į kvalifikuotą gydytoją.
