Saktësia dhe besueshmëria e modeleve të AI varet nga cilësia e të dhënave mbi të cilat janë trajnuar. Kjo nuk mund të harrohet – veçanërisht kur këto mjete po aplikohen në mjediset e kujdesit shëndetësor, ku aksionet janë të larta.
Kur zhvillojnë ose vendosin teknologji të reja, spitalet dhe zhvilluesit e inteligjencës artificiale të kujdesit shëndetësor duhet t’i kushtojnë vëmendje të përpiktë cilësisë së grupeve të të dhënave të trajnimit, si dhe të ndërmarrin hapa aktivë për të zbutur paragjykimet, tha Divya Pathak, shefe e të dhënave në NYC Health + Hospitals, gjatë një paneli virtual. mbajtur nga Reuters Events javën e kaluar.
“Plehrat brenda janë mbeturina jashtë”, deklaroi ajo.
Ka forma të ndryshme paragjykimesh që mund të jenë të pranishme brenda të dhënave, vuri në dukje Pathak.
Për shembull, paragjykimet mund të shfaqen kur disa demografikë janë mbi ose nën-përfaqësuar në një grup të dhënash, pasi kjo anon të kuptuarit e modelit për popullsinë më të gjerë. Paragjykimet mund të lindin gjithashtu nga pabarazitë historike ose diskriminimet sistematike të pranishme në të dhëna. Për më tepër, mund të ketë paragjykime algoritmike. Këto pasqyrojnë paragjykime të qenësishme në vetë algoritmet, të cilat mund të favorizojnë në mënyrë disproporcionale grupe ose rezultate të caktuara për shkak të dizajnit të modelit ose procesit të trajnimit.
Një nga veprimet më të rëndësishme që spitalet dhe zhvilluesit e AI mund të ndërmarrin për të zbutur këto paragjykime është të shikojnë popullsinë e përfshirë në të dhënat e trajnimit dhe të sigurohen që ajo përputhet me popullsinë në të cilën po përdoret algoritmi, tha Pathak.
Për shembull, sistemi i saj shëndetësor nuk do të përdorte një algoritëm të trajnuar mbi të dhënat e pacientëve nga njerëzit që jetojnë në Nebraskën rurale. Demografia në një zonë rurale kundrejt qytetit të Nju Jorkut janë shumë të ndryshme që modelja të performojë me besueshmëri, shpjegoi ajo.
Pathak inkurajoi organizatat që zhvillojnë modele të inteligjencës artificiale të kujdesit shëndetësor për të krijuar ekipe të vlefshmërisë së të dhënave që mund të identifikojnë paragjykimet përpara se një grup të dhënash të përdoret për të trajnuar algoritmet.
Ajo gjithashtu vuri në dukje se paragjykimi nuk është vetëm një problem që zhduket pasi të jetë krijuar një bazë e të dhënave cilësore të trajnimit.
“Paragjykimi në të vërtetë ekziston në tërësinë e ciklit jetësor të AI – nga ideimi deri te vendosja dhe vlerësimi i rezultateve. Të kesh parmakët, kornizat dhe listat e duhura të kontrollit në çdo fazë të zhvillimit të AI është çelësi për të siguruar që ne jemi në gjendje të heqim sa më shumë paragjykime që përhapen gjatë atij cikli jetësor, “vuri në dukje Pathak.
Ajo shtoi se nuk beson se paragjykimet mund të hiqen fare.
Njerëzit janë të njëanshëm dhe janë ata që hartojnë algoritme si dhe vendosin se si t’i përdorin më mirë këto modele. Spitalet duhet të përgatiten për të zbutur paragjykimet sa më shumë që të jetë e mundur – por nuk duhet të kenë pritshmërinë e një algoritmi plotësisht pa paragjykime, shpjegoi Pathak.
Foto: Filografi, Getty Images