– Inteligjenca artificiale (AI) po rrëmben industrinë e kujdesit shëndetësor pasi studiuesit ndajnë përparime dhe shitësit nxitojnë të komercializojnë algoritme të avancuara në raste të ndryshme përdorimi.
Termat si mësimi i makinerive, mësimi i thellë dhe AI gjeneruese po bëhen pjesë e fjalorit të përditshëm për ofruesit dhe paguesit që eksplorojnë se si këto mjete mund t’i ndihmojnë ata të përmbushin qëllimet e tyre; megjithatë, të kuptuarit se si këto mjete arrijnë në përfundimet e tyre mbetet një sfidë për palët e interesuara të kujdesit shëndetësor.
Softueri i kutisë së zezë – në të cilin procesi i vendimmarrjes së një AI mbetet i fshehur nga përdoruesit – nuk është i ri. Në disa raste, aplikimi i këtyre modeleve mund të mos jetë një problem, por në kujdesin shëndetësor, ku besimi është parësor, mjetet e kutisë së zezë mund të paraqesin një pengesë të madhe për vendosjen e AI.
Shumë besojnë se nëse ofruesit nuk mund të përcaktojnë se si një AI gjeneron rezultatet e saj, ata nuk mund të përcaktojnë nëse modeli është i njëanshëm ose i pasaktë, duke i bërë ata më pak të ngjarë të besojnë dhe të pranojnë përfundimet e tij.
Ky pohim i ka shtyrë palët e interesuara të pyesin se si të ndërtohet besimi kur adoptohet AI në diagnostikimin, imazhet mjekësore dhe mbështetjen e vendimeve klinike. Për ta bërë këtë kërkon që industria e kujdesit shëndetësor të eksplorojë nuancat e debatit të kutisë së zezë.
Në këtë abetare, HealthITAnalytics do të përshkruajë inteligjencën artificiale të kutisë së zezë në kujdesin shëndetësor, alternativat ndaj qasjes së kutisë së zezë dhe peizazhin aktual të transparencës së AI në industri.
SHQYRTIMET RRETH AI KUTI E ZEZE
Një nga apelet kryesore të inteligjencës artificiale të kujdesit shëndetësor është potenciali i saj për të rritur performancën e mjekut dhe për të përmirësuar kujdesin, por problemi i kutisë së zezë pengon ndjeshëm se sa mirë mund të ofrojnë këto mjete në ato fronte.
Hulumtimi i botuar në edicionin e shkurtit 2024 të Mjekësi Inteligjente eksploron inteligjencën artificiale të kutisë së zezë brenda kontekstit të parimit “mos bëj dëm” të paraqitur në Betimin e Hipokratit. Ky rregull themelor etik pasqyron një detyrim moral që marrin përsipër klinikët për të parandaluar dëmtimin e panevojshëm ndaj pacientëve, por inteligjenca artificiale e kutisë së zezë mund të paraqesë një mori dëmesh pa e ditur si për mjekët ashtu edhe për pacientët.
“(Black box AI) është problematik sepse pacientët, mjekët, madje edhe projektuesit nuk e kuptojnë pse ose si një rekomandim trajtimi prodhohet nga teknologjitë e AI,” shkruajnë autorët, duke treguar se dëmi i mundshëm i shkaktuar nga mungesa e shpjegueshmërisë në këto mjete. nënvlerësohet në literaturën ekzistuese.
Në studim, studiuesit pohuan se dëmi që rezulton nga diagnozat e gabuara të AI mjekësore mund të jetë më serioz, në disa raste, sesa ai i shkaktuar nga keqdiagnozat e mjekëve njerëzorë, duke vënë në dukje se tipari i “pashpjegueshmërisë” së sistemeve të tilla kufizon autonominë e pacientit në vendimet e përbashkëta. prodhimi dhe mjetet e kutisë së zezë mund të krijojnë barrë të konsiderueshme psikologjike dhe financiare për pacientët.
Pyetjet e përgjegjshmërisë dhe përgjegjësisë që vijnë nga miratimi i zgjidhjeve të kutisë së zezë mund të pengojnë gjithashtu përhapjen e inteligjencës artificiale të kujdesit shëndetësor.
Për të trajtuar këto shqetësime, shumë palë të interesuara në industrinë e kujdesit shëndetësor po bëjnë thirrje për zhvillimin dhe miratimin e algoritmeve ‘të shpjegueshme’ të AI.
SHTYPJA PËR UA të shpjegueshme
AI i shpjegueshëm (XAI) i referohet “një grupi procesesh dhe metodash që i lejon përdoruesit njerëzorë të kuptojnë dhe të besojnë rezultatet dhe rezultatet e krijuara nga algoritmet e mësimit të makinerive”, sipas IBM. “(Shpjegueshmëria) përdoret për të përshkruar një model të AI, ndikimin e tij të pritshëm dhe paragjykimet e mundshme. Ndihmon në karakterizimin e saktësisë, drejtësisë, transparencës dhe rezultateve të modelit në vendimmarrjen e fuqizuar nga AI.”
Pasja e njohurive në këto aspekte të një algoritmi AI, veçanërisht në kujdesin shëndetësor, mund të ndihmojë në sigurimin që këto zgjidhje të përmbushin standardet e industrisë.
Shpjegueshmëria mund të përfshihet në AI në mënyra të ndryshme, por klinicistët dhe studiuesit kanë përshkruar disa qasje kritike ndaj XAI në kujdesin shëndetësor në vitet e fundit.
Një analizë e janarit 2023 e publikuar në Sensorët tregon se teknikat XAI mund të ndahen në kategori bazuar në formën, llojin e interpretimit, specifikën e modelit dhe shtrirjen. Çdo metodologji ka të mirat dhe të këqijat në varësi të rastit të përdorimit të kujdesit shëndetësor, por aplikimet e këtyre qasjeve kanë pasur sukses në kërkimet ekzistuese.
Një ekip kërkimor nga Universiteti i Illinois Urbana – Instituti Beckman i Champaign për Shkencën dhe Teknologjinë e Avancuar duke shkruar në Transaksionet IEEE në Imazhe Mjekësore demonstroi se një kornizë e të mësuarit të thellë mund të ndihmojë në adresimin e problemit të kutisë së zezë në imazhet mjekësore.
Qasja e studiuesve përfshinte një model për identifikimin e sëmundjeve dhe shenjat e tumoreve në imazhet mjekësore si rrezet X, mamografitë dhe tomografia e koherencës optike (OCT). Nga atje, mjeti gjeneron një vlerë midis zeros dhe një për të treguar praninë e një anomalie, e cila mund të përdoret në vendimmarrjen klinike.
Megjithatë, krahas këtyre vlerave, modeli ofron gjithashtu një hartë ekuivalente (E-hartë) – një version i transformuar i imazhit origjinal mjekësor që nxjerr në pah rajone interesante mjekësore të imazhit – që ndihmon mjetin të “shpjegojë” arsyetimin e tij dhe u mundëson klinicistëve të kontrollojnë për saktësinë dhe shpjegimin e gjetjeve diagnostike për pacientët.
Janë propozuar gjithashtu qasje të tjera për të hedhur dritë mbi vendimmarrjen e AI.
Në dhjetor 2023 Inxhinieri Biomjekësore e Natyrës Studimi, studiues nga Universiteti Stanford dhe Universiteti i Uashingtonit përshkruan se si një kornizë auditimi mund të zbatohet në mjetet e inteligjencës artificiale të kujdesit shëndetësor për të rritur shpjegueshmërinë e tyre.
Qasja përdor një kombinim të AI gjeneruese dhe ekspertizës njerëzore për të vlerësuar klasifikuesit – një algoritëm i përdorur për të kategorizuar hyrjet e të dhënave.
Kur aplikohej në një grup klasifikuesish dermatologjikë, korniza i ndihmoi studiuesit të identifikonin se cilat veçori të imazhit kishin ndikimin më të rëndësishëm në vendimmarrjen e klasifikuesve. Kjo zbuloi se mjetet mbështeteshin si në veçoritë e padëshirueshme ashtu edhe në veçoritë e përdorura nga klinikët njerëzorë.
Këto njohuri mund të ndihmojnë zhvilluesit që kërkojnë të përcaktojnë nëse një AI mbështetet shumë në korrelacionet e rreme të të dhënave dhe t’i korrigjojë ato çështje përpara se të vendoset në një mjedis të kujdesit shëndetësor.
Pavarësisht këtyre sukseseve në XAI, ka ende debat nëse këto mjete zgjidhin në mënyrë efektive problemin e kutisë së zezë apo nëse algoritmet e kutisë së zezë janë një problem.
PEIZAZHI AKTUAL I TRANSPARENCËS SË UA
Ndërsa shumë në industrinë e kujdesit shëndetësor thonë se algoritmet e kutisë së zezë janë një shqetësim i madh dhe dekurajojnë përdorimin e tyre, disa kanë ngritur pyetje në lidhje me nuancat e këtyre pohimeve. Të tjerë parashtrojnë se problemi i kutisë së zezë është një problem, por tregojnë se XAI nuk është një zgjidhje e vetme që i përshtatet të gjithëve.
Një pikë qendrore e bisedës në këto debate sillet rreth përdorimit të mjeteve dhe teknologjive të tjera në kujdesin shëndetësor që mund të konceptohen si zgjidhje të kutisë së zezë.
“Megjithëse diskutimi (për AI i kutisë së zezë) është në vazhdim, vlen të përmendet se mekanizmi i veprimit të shumë medikamenteve të përshkruara zakonisht, si Panadol, është kuptuar keq dhe se shumica (e) mjekëve kanë vetëm një kuptim bazë të imazhit diagnostik. mjete si imazhi i rezonancës magnetike dhe tomografia e kompjuterizuar,” shpjeguan ekspertët duke shkruar në Materialet & Pajisjet Biomjekësore.
Ndërsa jo të gjitha mjetet e kujdesit shëndetësor janë domosdoshmërisht të mirëkuptuara, zgjidhje të tilla mund të jenë të diskutueshme në mjekësinë e bazuar në prova, e cila i jep përparësi përdorimit të provave shkencore, ekspertizës klinike dhe vlerave të pacientit për të udhëhequr kujdesin.
“Disa kanë sugjeruar se problemi i ‘kutisë së zezë’ është më pak shqetësues për algoritmet e përdorura në aplikacionet me nivele më të ulëta, të tilla si ato që nuk janë mjekësore dhe në vend të kësaj i japin përparësi efikasitetit ose përmirësimit të operacioneve,” vunë në dukje autorët.
Megjithatë, AI tashmë po përdoret për detyra të ndryshme, duke përfshirë mbështetjen e vendimeve dhe shtresimin e rrezikut, në mjediset klinike, duke ngritur pyetje se kush është përgjegjës në rast të një dështimi të sistemit ose gabimi që lidhet me përdorimin e këtyre teknologjive.
Shpjegueshmëria është paraqitur si një metodë e mundshme për të lehtësuar shqetësimet rreth përgjegjësisë, por disa studiues kanë vënë në dukje kufizimet e XAI në vitet e fundit.
Në një këndvështrim të nëntorit 2021 të publikuar në Lancet Digital Healthstudiues nga Harvardi, Instituti i Teknologjisë i Massachusetts (MIT) dhe Universiteti i Adelaide argumentuan se pohimet rreth potencialit të XAI-t për të përmirësuar besimin dhe transparencën përfaqësojnë “shpresa të rreme” për metodat aktuale të shpjegueshmërisë.
Ekipi hulumtues pohoi se qasjet e kutisë së zezë nuk kanë gjasa t’i arrijnë këto qëllime për mbështetjen e vendimeve në nivelin e pacientit për shkak të çështjeve si boshllëqet e interpretueshmërisë, të cilat karakterizojnë një aspekt të ndërveprimit njeri-kompjuter ku një model paraqet shpjegimin e tij dhe përdoruesi njerëzor duhet të interpretojë të thënë shpjegim.
“(Kjo metodë) mbështetet tek njerëzit për të vendosur se çfarë mund të thotë një shpjegim i dhënë. Për fat të keq, tendenca njerëzore është të atribuojë një interpretim pozitiv: ne supozojmë se tipari që do të gjenim të rëndësishëm është ai që është përdorur”, shpjeguan autorët.
Ky nuk është domosdoshmërisht rasti, pasi mund të ketë shumë veçori – disa të padukshme për njerëzit – në të cilat mund të mbështetet një model, të cilat mund t’i bëjnë përdoruesit të formojnë një interpretim jo të plotë ose të pasaktë.
Ekipi hulumtues tregoi më tej se shpjegimet e modelit nuk kanë garanci për performancën, duke hapur derën për çështje të tjera.
“(Këto shpjegime) janë vetëm përafrime me procedurën e vendimit të modelit dhe për këtë arsye nuk kapin plotësisht se si do të sillet modeli themelor. Si i tillë, përdorimi i shpjegimeve post-hoc për të vlerësuar cilësinë e vendimeve të modelit shton një burim tjetër gabimi – jo vetëm që modeli mund të jetë i drejtë ose i gabuar, por po ashtu edhe shpjegimi”, thanë studiuesit.
Një artikull i vitit 2021 i botuar në Shkenca i bën jehonë këtyre ndjenjave, duke pohuar se zhurma aktuale rreth XAI në kujdesin shëndetësor “si mbivlerëson përfitimet ashtu edhe nënvlerëson të metat e kërkesës që algoritmet e kutisë së zezë të jenë të shpjegueshme”.
Autorët nënvizuan se për shumë aplikacione në mjekësi, zhvilluesit duhet të përdorin modele të komplikuara të mësimit të makinerive që kërkojnë grupe të dhënash masive me karakteristika shumë të inxhinieruara. Në këto raste, një model më i thjeshtë dhe i interpretueshëm i AI (IAI) nuk mund të përdoret si zëvendësim. XAI ofron një alternativë dytësore, pasi këto modele mund t’i afrohen nivelit të lartë të saktësisë së arritur nga mjetet e kutisë së zezë.
Por këtu, përdoruesit ende përballen me çështjen e shpjegimeve post-hoc që mund t’i bëjnë ata të ndihen sikur e kuptojnë arsyetimin e modelit pa hedhur në të vërtetë dritë mbi funksionimin e brendshëm të mjetit.
Në dritën e këtyre dhe shqetësimeve të tjera, disa kanë propozuar udhëzime për të ndihmuar palët e interesuara të kujdesit shëndetësor të përcaktojnë se kur është e përshtatshme të përdoren modelet e kutisë së zezë me shpjegime në vend të IAI-t – si për shembull kur nuk ka dallim domethënës në saktësinë midis një modeli të interpretueshëm dhe AI-së së kutisë së zezë .
Debati rreth përdorimit të zgjidhjeve të kutisë së zezë dhe roli i XAI nuk ka të ngjarë të zgjidhet së shpejti, por kuptimi i nuancave në këto biseda është jetik pasi palët e interesuara kërkojnë të lundrojnë në peizazhin që po zhvillohet me shpejtësi të AI në kujdesin shëndetësor.