Nëse një klinicist për të cilin ju intereson mbështetet në AI për të ndihmuar në marrjen e vendimeve mjekësore, kujtojuni atyre: Parimet e ligjit kundër shkeljeve thonë se ta bësh këtë nënkupton rrezikimin e përgjegjësisë nëse një pacient padisë për dëmin e bërë.
Kujtesa vjen nga studiuesit në departamentin e anesteziologjisë në Shkollën Mjekësore Rutgers New Jersey. Saad Ali, MD, dhe bashkëautorët u botuan komentet e tyre në Instrumentimi dhe Teknologjia Biomjekësorenjë revistë e vlerësuar nga kolegët e Shoqatës për Avancimin e Instrumentimit Mjekësor (AAMI).
Duke u fokusuar kryesisht në problemin e “kutisë së zezë” dhe se si ajo i ekspozon klinicistët ndaj përgjegjësisë, Ali dhe kolegët citojnë draft-udhëzimin e vitit të kaluar nga FDA që diskuton informacionin që prodhuesit e pajisjeve mjekësore të pajisura me AI duhet të përfshijnë në literaturën e produkteve të tyre. (1)
Duke deklaruar se dokumenti i FDA-së është “vetëm një hap i parë dhe nuk trajton çështjen e mprehtë të përgjegjësisë së klinikut”, Ali dhe kolegët ofrojnë tre pika kyçe që klinicistët që përqafojnë AI-n duhet të kenë parasysh.
1. Me ndihmën e algoritmeve të mësimit të makinerive, pajisjet e pajisura me AI ka të ngjarë të bëhen më të sakta me kalimin e kohës, duke prodhuar më pak gabime dhe duke ulur normat e false pozitive. Megjithatë,
“Derisa përdorimi i AI/ML për rekomandimet e trajtimit nga klinicistët të njihet si standardi i kujdesit, alternativa më e mirë për klinikët për të minimizuar rrezikun e përgjegjësisë për neglizhencë mjekësore është ta përdorin atë si një mjet konfirmues për të ndihmuar në vendimmarrje”.
2. Kompensimi financiar zakonisht përdoret nga prodhuesit amerikanë të vaksinave për të paguar ata që kanë reaksione negative pas marrjes së vaksinave. Prodhuesit e pajisjeve të aktivizuara me AI/ML mund të jenë në gjendje të përdorin një qasje të ngjashme për të nxitur përdorimin e produkteve të tyre. Megjithatë,
“Një qasje e tillë mund t’u japë më pak nxitje prodhuesve për të siguruar besueshmërinë dhe sigurinë e produktit të tyre dhe do të kishte pak ose aspak efekt të dobishëm në kujdesin e mjekëve për produktet.”
3. Për shkak se grupet e të dhënave të trajnimit nuk janë të pakufizuara, është e kuptueshme që të gjitha pajisjet mjekësore të aktivizuara me AI/ML do të kenë një shkallë paragjykimi. Megjithatë,
“Të mos qenit transparent për disa kufizime mund të rezultojë në humbjen e besimit. Përmirësimet në etiketimin e produkteve duhet të bëhen për të përcaktuar qartë grupin e të dhënave të trajnimit të përdorur dhe për të ofruar vlerësimin e paragjykimeve të mundshme.’
Duke zgjeruar pikën e fundit, autorët shtojnë se transparenca “duket të jetë çelësi i rritjes së AI në kujdesin shëndetësor, duke nxitur besimin midis zhvilluesve të softuerit, klinicistëve dhe pacientëve”.
Ali dhe bashkëautorët inkurajojnë ofruesit dhe spitalet që të testojnë vetë rezultatet e pajisjeve mjekësore të pajisura me AI përpara se të blejnë pajisje të tilla. Ata gjithashtu i nxisin përdoruesit fundorë që të informojnë plotësisht pacientët mbi rreziqet e mundshme dhe përfitimet e pritshme kur marrin pëlqimin e pacientit.
Pajisjet e reja të aktivizuara me AI vazhdojnë të hyjnë në treg me një ritëm të shpejtë, theksojnë autorët. Ata shkruajne:
“Klinikët që ndeshen me këto pajisje duhet të jenë të sigurt se performanca e pajisjes mund të përputhet me standardin e kujdesit. Një siguri e tillë është e nevojshme për të parandaluar frikën nga përgjegjësia e keqpërdorimit nga kufizimi i përdorimit të këtyre pajisjeve novatore nga mjekët.’
Artikulli i plotë është postuar këtu (pas paywall).
Referenca:
- FDA, “Rekomandime për paraqitjen e marketingut për një plan kontrolli të paracaktuar të ndryshimit për funksionet e softuerit të pajisjes me aktivizim të inteligjencës artificiale/mësimit makinerik (AI/ML)”: Draft Udhëzues për Industrinë dhe Stafin e FDA (3 prill 2023)