Ndërsa më shumë institucione kërkojnë të përfshijnë programe të inteligjencës artificiale, më shumë vëmendje i kushtohet mënyrës se si të përdoren ato programe në mënyrë etike.
Një vëmendje e tillë është e garantuar, pasi përdorimi etik i AI është i lidhur drejtpërdrejt me besimin që publiku ka në teknologji. Hulumtimet tregojnë se disa janë mosbesues ndaj AI për shkak të kompleksitetit të saj dhe mundësisë së njëanshmërisë. Në disa industri, si lajmet dhe publikimet, zbulimi i përdorimit të AI mund të mbjellë mosbesim edhe nëse materiali është i saktë, zbuloi një studim i përbashkët nga Universiteti i Minesotës dhe Universiteti i Oksfordit.
Këto shqetësime janë vetëm disa nga faktorët në debatin gjithëpërfshirës të etikës së AI që prek gjithçka, nga privatësia e të dhënave deri te çështjet e të drejtave të autorit. Shmangia e kurtheve do të jetë thelbësore, sipas panelistëve nga një sesion 2024 i Samitit Global të Privatësisë IAPP, të cilët këshilluan të pranishmit se programet e qeverisjes së mirë dhe etike të AI do të kërkojnë kreativitet, kujdes të duhur dhe të mos lënë asnjë gur pa lëvizur gjatë themelimit.
Të gjithë këta elementë së bashku janë kyç për të nxitur inovacionin duke mbajtur të drejtat e njeriut në thelb të çdo përdorimi të AI, dhe për të “ngritjes së çdo individi, pavarësisht nga kufijtë”, tha. Njohur Udhëheqësi i praktikës globale për privatësinë dhe AI përgjegjëse Tahir Latif, CIPP/A, CIPP/E, CIPP/SHBA, CIPM, FIP, i cili moderoi panelin.
Kuptimi i parametrave
Një prioritet kryesor në ndërtimin e programit të AI është të fitoni një ndjenjë për qëllimin e një entiteti dhe çfarë rregullash mund të zbatohen për kompaninë ose industrinë. Zëvendës Zyrtarja e Agjencisë Qendrore të Inteligjencës së SHBA-së për Privatësinë dhe Liritë Civile, Jacqueline Acker, CIPP/SHBA, CIPM, tha se profesionistët mund të habiten kur shohin se çfarë mbivendosje ekziston dhe cilat vlera ndahen në mbarë botën. “Është më mirë të mendosh për atë që vlen kudo,” tha ajo.
Një gjetje e tillë faktesh mund të ndihmojë në krijimin e një kuptimi rreth asaj se cila është baza bazë për përdorimin e AI të një kompanie dhe nëse ajo duhet të marrë parasysh rregullore të ndryshme, shtoi Heather Domin, udhëheqëse globale për Iniciativat e Përgjegjshme të AI në IBM. Ajo vuri në dukje kërkesa të ndryshme për sistemet e qëllimeve të përgjithshme në urdhrin ekzekutiv të SHBA-së për AI dhe Aktin e BE-së për AI bazuar në fuqinë e tyre llogaritëse. Këto dallime mund të nënkuptojnë qindra miliona dollarë në kosto operative, tha ajo.
“Kështu që ndonjëherë duhet të mendojmë për dallime specifike juridiksionale,” tha ajo. “Por në përgjithësi, ne duam të mendojmë për qasjen bazë.”
Fillimisht blerja në të gjithë grupin
Pas krijimit dhe inventarizimit të rasteve të përdorimit të AI, kompanitë më pas mund të fillojnë procesin e ndërtimit të programit. Ky ndërtim fillon me përafrimin dhe blerjen në lidhje me përdorimin etik të AI në të gjithë një organizatë.
Kjo jo vetëm që ndihmon për ta bërë zhvillimin më të qetë, por parandalon çdo ndërprerje ose keqkuptim në rrugë, tha Zëvendës Presidentja e DoubleVerify dhe Shefi i Privatësisë Beatrice Botti, CIPP/E, CIPM. Është diçka që ajo e kuptoi sapo filloi të punonte me një ekip ndërkombëtar.
“Unë po them një gjë dhe pesë njerëz po kuptojnë pesë gjëra krejtësisht të ndryshme. Dhe ata po shkojnë në ekipet e tyre dhe në mendjet e tyre, ata po kryejnë mandatin që ne i kemi, por ata po e perceptojnë atë kështu. thelbësisht ndryshe”, tha ajo.
Ekipet e AI gjithashtu nuk duhet të kenë frikë të prekin njerëz me perspektiva të ndryshme. Acker tregoi se disa anëtarë të ekipit, si ata që merren me prokurimet, mund të sjellin një këndvështrim të ndryshëm për çështjet. Ndër këto çështje janë shqetësimet e privatësisë që mund të jenë të dobishme për njerëzit që janë mësuar t’i shohin ato përmes një lente.
“Ju mund të keni nevojë për lloje të ndryshme ekspertësh të çështjeve,” shtoi Acker.
Njohja e peizazhit rregullator
Juridiksionet ku do të vendoset teknologjia AI do të diktojnë se si është ndërtuar programi dhe etikën pas tij. Një vendosje shumëkombëshe vjen me një gamë më të gjerë të konsideratave rregullatore drejt një vizioni etik.
Domin i IBM tha se kompanitë e të gjitha madhësive dhe fushave të fokusit mund të përfitojnë nga burimet që krahasojnë rregulloret dhe kornizat për të kuptuar se çfarë funksionon më mirë për një biznes apo industri të caktuar.
“Për shembull, nëse nuk do të vendosni një produkt në treg në Evropë, mund të mos duhet të mendoni kaq shumë,” tha Domin.
Acker shtoi se profesionistët e qeverisjes së AI mund të jenë në gjendje të ndihmojnë për të kuptuar se cilat burime nevojiten për të ndjekur standarde të ndryshme. Por ajo gjithashtu tregoi se është thelbësore të jesh proaktiv me çdo rrezik rregullator, duke planifikuar kundër faktorëve të mundshëm të rrezikut menjëherë në vend që të presësh derisa zbatimi të jetë një rrezik i mundshëm.
“Ju duhet të jeni në gjendje të thoni, ‘Këtu është rreziku që ka organizata nëse nuk i kemi këto pengesa në vend,” tha Acker. “‘Le të fillojmë të ndërtojmë drejt kësaj’.”
Është gjithashtu e rëndësishme për të mbrojtur një program në të ardhmen kundër një regjimi të caktuar rregullator. Botti tha se është praktikë e mirë të njiheni me rregullore të ndryshme në rast se zgjerimi ndodh në të ardhmen.
Ekziston gjithashtu mundësia që disa rregullore të nivelit të lartë të bëhen një standard i industrisë, siç ka rregullorja e përgjithshme e BE-së për mbrojtjen e të dhënave në shumë pjesë të botës për privatësinë e të dhënave.
“Ju e dini se nëse merrni një klient në Evropë, ata do të duan të fillojnë të punojnë nesër, nuk do të presin për një vit që ju të vlerësoni kundër Ligjit të BE-së për AI dhe t’u tregoni se ku janë boshllëqet. ” ajo tha. “Nëse tashmë e dini se ku janë boshllëqet tuaja, mund të filloni të punoni për t’u siguruar që deri në kohën kur ai produkt të dalë në treg, ju ta keni kryer punën.”