TIRANË– Nëse keni qenë në një vizitë mjekësore kohët e fundit, mund të keni ndërvepruar me inteligjencën artificiale. Gjatë kohës që ia përshkruani simptomat mjekut, ai mund t’ju kërkojë leje për të përdorur një ‘shkrues të inteligjencës artificiale’ për të kthyer audion në shënime mjekësore në kohë reale.
“Mjetet e inteligjencës artificiale janë të njohura sepse mund të japin përgjigje të shpejta për çdo pyetje. megjithatë si me të gjitha këto mjete, gjithmonë ekziston rreziku që ato të japin përgjigjen e gabuar”, tha autorja e studimit Julie Ayre nga Universiteti i Sidneit.
Studiuesit po ndërtojnë një konsensus shkencor rreth (mos)besueshmërisë së këshillave mjekësore nga LLM-të, megjithatë gjetjet bëhen shpejt të vjetruara ndërsa publikohen dhe përditësohen modele të reja me algoritme më të mira.
Një studim në vitin 2024 sfidoi ChatGPT3.5 me 150 raste mjekësore, duke përfshirë historinë e pacientit, simptomat dhe të dhënat e testeve spitalore dhe i kërkoi inteligjencës artificiale të bënte diagnoza dhe një plan trajtimi.
Rezultatet nuk ishin të shkëlqyera. ChatGPT dha diagnozën dhe planin e duhur të trajtimit vetëm në 49% të rasteve, duke e bërë atë një mjet të pabesueshëm. Autorët arritën në përfundimin se ChatGPT “nuk jep domosdoshmërisht saktësi faktike, pavarësisht sasisë së madhe të informacionit mbi të cilin u trajnua”.
Një studim tjetër arriti në përfundimin se ChatGPT “nuk ofroi këshilla mjekësore të përshtatshme dhe të personalizuara në mënyrë të besueshme”, por mund të ofronte informacion të përshtatshëm për pyetjet mjekësore.
Kur studiuesit vlerësuan cilësinë e informacionit mjekësor në ChatGPT në një studim në vitin 2023 , ata e pyetën ChatGPT3.5 “pse duhet të trajtoni verdhëzën e shkaktuar nga sëmundja e gurëve në tëmth?”. Studimi u përgjigj se lehtësimi i verdhëzës përmirëson pamjen e pacientit dhe kjo përmirëson vetëvlerësimin.
“Ky nuk është vërtet arsyetimi klinik“, tha Sebastian Staubli, një kirurg në Royal Free London NHS Foundation Trust, UK, i cili udhëhoqi studimin.
ChatGPT4.0 më i ri jep përgjigje më të mira për pyetjen, duke theksuar nevojën për të parandaluar dëmtimin e organeve dhe përparimin e sëmundjes. Problemi me ChatGPT është se, megjithëse këshilla e tij mjekësore nuk është plotësisht e pasaktë, ajo nuk është as plotësisht e saktë.
Cilësia e informacionit mbi të cilin trajnohet një model i inteligjencës artificiale përcakton cilësinë e këshillave të tij mjekësore. Problemi është se askush nuk e di saktësisht se mbi çfarë informacioni trajnohen modelet specifike./PURSUIT/Radar.al


