phonlamaiphoto/Adobe Stock
Teknologjia e inteligjencës artificiale ka depërtuar në çdo industri dhe kujdesi shëndetësor nuk bën përjashtim. Tani kemi Together by Renee, një aplikacion që gjurmon historinë tuaj mjekësore, synon të masë presionin tuaj të gjakut me një selfie dhe të zbulojë simptomat e depresionit ose ankthit nga tingulli i zërit tuaj. DrugGPT, i zhvilluar në Universitetin e Oksfordit, është një mjet i krijuar për të ndihmuar mjekët të përshkruajnë medikamente dhe t’i mbajnë pacientët të informuar për atë që po marrin. Ju mund të shkarkoni Humanity, një “trajnerë shëndeti” gjenerues i AI që premton “reduktimin e moshës biologjike” dhe Google po punon në një model të mësimit me makinë që potencialisht do të diagnostikojë një pacient bazuar në tingujt e kollës së tyre.
Por pasojat e mundshme të këtyre aplikacioneve janë disi të ndryshme nga ato që mund të ndodhin kur përdorni AI për të krijuar një këngë. Për ta thënë në termat më të rreptë: jetët janë në rrezik. Dhe ekspertët në fushën e shëndetit dhe teknologjisë tregojnë Rolling Stone ata kanë dyshime reale nëse këto risi mund t’i shërbejnë të mirës publike.
Për Bernard Robertson-Dunn, një inxhinier sistemesh me përvojë, i cili shërben si kryetar i komitetit shëndetësor në Fondacionin Australian të Privatësisë, një çështje kryesore është se vetë zhvilluesit e kanë trajtuar gabimisht informacionin e pacientit që në fillim. Dekada më parë, thotë ai, pati një “shtytje të madhe” për dixhitalizimin e të dhënave mjekësore, por premtimi i këtij revolucioni dështoi sepse teknologët mendojnë se këto të dhëna “janë si të dhënat e transaksioneve financiare”.
“Ata nuk janë,” thotë Robertson-Dunn. “Të dhënat e transaksioneve financiare janë fakte dhe kuptimi i një transaksioni ekzistues nuk ndryshon me kalimin e kohës. Nëse shikoni llogarinë tuaj bankare, ajo nuk do të ketë ndryshuar për asnjë arsye të dukshme.” Ndërkohë, të dhënat shëndetësore “mund të ndryshojnë nga dita në ditë pa e ditur ju dhe pse. Ju mund të kapni Covid, HIV, një ftohje ose të keni një atak në zemër sot, gjë që zhvlerëson shumë të dhëna të të dhënave tuaja shëndetësore siç u regjistruan dje”, thotë Robertson-Dunn. Sipas tij, furia e vjetër për të dhënat elektronike të shëndetit është bartur në bumin e AI, “i cili është një problem shumë më i madh”.
“Nuk do të them kurrë se teknologjia është e dëmshme ose nuk duhet ta përdorim atë,” thotë Julia Stoyanovich, shkencëtarja kompjuterike që drejton Qendrën për Inteligjencën Artificiale të Përgjegjshme të Universitetit të Nju Jorkut. “Por në këtë rast të veçantë, më duhet të them se jam skeptik, sepse ajo që po shohim është se njerëzit thjesht po nxitojnë të përdorin AI gjeneruese për të gjitha llojet e aplikacioneve, thjesht sepse është atje dhe duket bukur, dhe konkurrentët po e përdorin atë.” Ajo sheh nxitimin e inteligjencës artificiale që del nga “mendimi magjik dhe magjik, që njerëzit me të vërtetë duan të besojnë se ka diçka atje që do të bëjë të pamundurën”.
Stoyanovich dhe Robertson-Dunn të dy theksojnë se mjetet shëndetësore të AI aktualisht po shmangin llojet e provave klinike dhe rregulloret që janë të nevojshme për të sjellë një pajisje mjekësore në treg. Stoyanovich përshkruan një “zbrazëtirë” që e bën të mundur këtë. “Nuk është në të vërtetë mjeti që do t’ju përshkruajë një ilaç. Është gjithmonë një mjet që përdor një mjek. Dhe në fund doktori do të thotë: ‘Po, jam dakord’ ose ‘nuk jam dakord’. Dhe kjo është arsyeja pse këto mjete po i shpëtojnë shqyrtimit që mund të pritet që një mjet të ketë në fushën mjekësore.”
“Por është ende problematike, apo jo?” shton Stoyanovich. “Sepse ne e dimë se njerëzit – mjekët nuk janë përjashtim – do të mbështeteshin shumë në këto mjete. Sepse nëse një mjet ju jep një përgjigje që duket e saktë, atëherë një njeri do të thotë, ‘Epo, kush jam unë për ta vënë në dyshim atë?’” Më keq, thotë ajo, një robot mund të citojë një artikull në një ditar si Shkenca ose Lancet për të mbështetur përfundimin e tij edhe nëse hulumtimi e kundërshton drejtpërdrejt atë.
Elaine O. Nsoesie, një shkencëtare e të dhënave në Shkollën e Shëndetit Publik të Universitetit të Bostonit, e cila hulumton se si teknologjia mund të avancojë barazinë shëndetësore, shpjegon se çfarë mund të mungojë një modeli diagnostikues i AI kur vlerëson simptomat e një pacienti. Këto mjete “në thelb mësojnë të gjithë këtë informacion, dhe më pas jua kthejnë atë, dhe i mungon konteksti dhe i mungon nuanca,” thotë ajo. “Nëse një pacient vjen, ai mund të ketë simptoma specifike dhe ndoshta ka një histori të kushteve të ndryshme dhe mjeku mund të jetë në gjendje të japë këshilla mjekësore që mund të mos jenë standarde, ose cilat të dhëna janë përdorur për të trajnuar algoritmi do të prodhonte.”
Sipas Nsoesie, inteligjenca artificiale gjithashtu mund të përsërisë ose përkeqësojë pabarazitë sistematike shëndetësore që prekin negativisht gratë, njerëzit me ngjyrë, pacientët LGBTQ dhe grupe të tjera të pafavorizuara. “Kur shihni algoritme që nuk bëjnë atë që ju duhet të bëni, problemi zakonisht fillon me të dhënat,” thotë ajo. “Kur shikoni të dhënat, filloni të shihni se ose grupe të caktuara nuk janë të përfaqësuara, ose nuk përfaqësohen në një mënyrë të barabartë. Pra, ka paragjykime, ndoshta stereotipe të lidhura me (modelet), ka racizëm ose seksizëm.” Ajo është bashkëautore e një punimi me temën: “Në mjekësi, si të mësojmë me makinë diçka reale?” Ai përshkruan se si një “histori e gjatë diskriminimi” në hapësirat e kujdesit shëndetësor ka prodhuar të dhëna të njëanshme, të cilat, nëse përdoren në “aplikacione naive”, mund të krijojnë sisteme që funksionojnë keq.
Megjithatë, Nsoesie dhe të tjerët janë me kujdes optimistë se AI mund të përfitojë shëndetin publik – ndoshta jo në mënyrat që kompanitë po ndjekin për momentin. “Kur bëhet fjalë për përdorimin e formave të ndryshme të AI për kujdesin e drejtpërdrejtë të pacientit, detajet e zbatimit do të kenë shumë rëndësi,” thotë Nate Sharadin, një bashkëpunëtor në Qendrën për Sigurinë e AI. “Është e lehtë të imagjinosh mjekët duke përdorur mjete të ndryshme të AI në një mënyrë që liron kohën e tyre për ta kaluar atë ballë për ballë me pacientët e tyre. Transkriptimi vjen në mendje, por po ashtu edhe përmbledhja e të dhënave mjekësore dhe marrja fillestare. Mjekët kanë treguar se paaftësia e tyre për të kaluar kohë domethënëse me pacientët e tyre është një problem për dekada dhe po çon në djegie në të gjithë profesionin, e përkeqësuar, natyrisht, nga Covid-19.”
Sharadin sheh gjithashtu rreziqet e mundshme, megjithatë, duke përfshirë “objektet private të kujdesit afatgjatë përfitues që shkurtojnë qoshet e stafit duke u përpjekur të automatizojnë gjërat me AI”, ose “sharlatanët që shesin ekuivalentin e AI-së të shtesave të padobishme”. Ai identifikon aplikacionin Together si një shembull. “Nuk ka asnjë mënyrë që ata të zbulojnë me saktësi SpO2 (nivelet e oksigjenit në gjak) me një selfie,” thotë ai. “Jam i sigurt se ata dhe bizneset e tjera do të jenë të kujdesshëm për të treguar se produktet e tyre nuk kanë për qëllim të diagnostikojnë apo trajtojnë ndonjë sëmundje. Kjo është etiketa tipike në përputhje me FDA për shitjen e diçkaje që njerëzit nuk kanë nevojë në të vërtetë dhe që në të vërtetë nuk funksionon.
Stoyanovich pajtohet me Sharadinin se ne duhet të mendojmë mirë se çfarë saktësisht duam nga kjo teknologji, ose “çfarë boshllëku ne shpresojmë që këto mjete të mbushin” në fushën e mjekësisë. “Këto nuk janë lojëra. Ky është shëndeti i njerëzve dhe besimi i njerëzve në sistemin mjekësor”. Një cenueshmëri e madhe në këtë drejtim është privatësia e të dhënave tuaja shëndetësore. Pavarësisht nëse modelet e inteligjencës artificiale si mjeti i Google për analizimin e kollës mund të funksionojnë me besueshmëri, thotë Stoyanovich, ato “po thithin shumë informacion nga ne” dhe të dhënat mjekësore janë veçanërisht të ndjeshme. Ajo imagjinon një të ardhme në të cilën kompanitë e sigurimeve shëndetësore rrisin sistematikisht primet për klientët bazuar në informacionin e kapur nga aplikacione të tilla. “Ata do t’i përdorin këto të dhëna për të marrë vendime që më pas do të ndikojnë në aksesin e njerëzve në kujdesin mjekësor,” parashikon Stoyanovich, duke e krahasuar situatën me përdorimin “të papërgjegjshëm” dhe “arbitrar” të AI në punësim dhe punësim. “Përfundon duke i pafavorizuar njerëzit që kanë qenë historikisht të pafavorizuar.”
Stoyanovich shqetësohet gjithashtu se ekzagjerimi i efektivitetit të modeleve të AI në një mjedis klinik për shkak të disa rezultateve premtuese do të na çojë në një rrugë të rrezikshme. “Ne kemi parë shumë emocione nga rastet specifike të raportuara që, le të themi, ChatGPT ishte në gjendje të diagnostikonte një gjendje që disa mjekë e humbën dhe nuk ishin në gjendje ta diagnostikonin siç duhet,” thotë Stoyanovich. “Dhe kjo e bën atë kështu që ne tani besojmë se ChatGPT është një mjek. Por kur gjykojmë nëse dikush është një mjek i mirë, ne nuk shikojmë se sa raste kanë pasur të drejtë. Ne shikojmë sa raste kanë marrë gabim. Ne duhet të paktën t’i mbajmë këto makina në një standard të ngjashëm, por të jemi të impresionuar me një mjek që diagnostikoi një rast specifik të vështirë, kjo është marrëzi. Ne në fakt duhet të kemi një vlerësim të fortë që funksionon në çdo rast.”
Ekspertët e teknologjisë dhe shëndetit që folën me Rolling Stone në masë të madhe pajtohen se kontrollimi i dyfishtë i rezultateve të modeleve të AI shton një shtresë lodhjeje dhe joefikasiteti në kujdesin shëndetësor nga profesionistët mjekësorë. Robertson-Dunn thotë se në rastin e testeve të patologjisë – si ato që përfshijnë leximin e rrezeve X ose skanimeve MRI – “një mjek i kualifikuar mund të vlerësojë diagnozën e secilit, por kjo e kthen punën e një praktikuesi shumë të aftë në një rutinë e mërzitshme, shpirtshkatërruese, mekanike.”
Dhe, siç vëren Nsoesie, ndoshta ne mund të riformulojmë plotësisht mundësinë që paraqet AI në kujdesin shëndetësor. Në vend që të përpiqemi të masim cilësitë biologjike të individëve me makina, ne mund t’i përdorim ato modele për të mësuar diçka për rajone dhe komunitete të tëra. Nsoesie thotë se lëvizja e AI në Afrikë ka dalë me zgjidhje premtuese që përfshijnë përdorimin e AI për monitorimin e ndotjes së ajrit që ndikon në shëndetin. “Të jesh në gjendje t’i mbledhësh ato të dhëna dhe t’i përpunosh dhe t’i përdorësh ato për politikëbërje është mjaft e rëndësishme,” thotë ajo.
Kur bëhet fjalë për shëndetin publik, thotë Nsoesie, fokusi duhet të jetë në “adresimin e shkaqeve rrënjësore të sëmundjeve dhe pabarazive shëndetësore, në vend që thjesht të rregullojmë simptomat e tij”. Do të ishte më mirë, sipas saj, të përdoret teknologjia e AI për t’iu përgjigjur pyetjeve se pse kemi “popullata të veçanta me shkallë më të lartë të diabetit ose kancerit” në vend që të dizenjojmë një aplikacion që synon njerëzit me ato kushte. Zgjidhjet ideale, shton ajo, kërkojnë të bisedoni me pacientët dhe klinicistët që u shërbejnë atyre për të zbuluar se çfarë kanë vërtet nevojë dhe për të lënë kontributin e tyre të udhëheqë procesin e zhvillimit. Zhvilluesit e aplikacioneve, thotë Nsoesie, zakonisht nuk po e bëjnë atë kërkim ose nuk po kërkojnë reagime.
“Kjo është thjesht më efektive,” përfundon ajo. “Por kjo kërkon që në të vërtetë t’u jepni përparësi njerëzve dhe jo parave.”