Megjithëse inteligjenca artificiale ka vërtetuar aftësinë e saj për të riformuar industritë, për të ripërcaktuar përvojat e klientëve dhe për të riimagjinuar operacionet e biznesit, ajo mbart gjithashtu rreziqe të qenësishme. Dhe megjithëse robotët nuk e kanë kapërcyer botën siç parashikohej herë pas here nga filmat fantastiko-shkencor, ekziston një kërcënim shumë real për bizneset e AI që të shkojnë keq.
Një nga komponentët kryesorë për të ndihmuar që AI të sillet ashtu siç synohet është transparenca. Inteligjenca artificiale nuk mund të funksionojë në një kuti të zezë në të cilën askush nuk e kupton se si merr vendime – kështu hasni në çështje të tilla si diskriminimi i paqëllimshëm dhe paragjykimi.
Në thelbin e saj, transparenca në AI i referohet aftësisë për të kuptuar dhe gjurmuar se si sistemet e AI marrin vendime. Ka të bëjë me bërjen e qartë të funksionimit të brendshëm të algoritmeve të AI për njerëzit, veçanërisht ata që përdorin, rregullojnë ose preken prej tyre.
Këto sisteme mësojnë nga sasi të mëdha të dhënash, shpesh duke marrë vendime në mënyra që nuk janë në thelb të qarta, madje edhe për krijuesit e tyre. Nëse një algoritëm i AI funksionon si kutia e zezë e lartpërmendur, ne e quajmë këtë AI opake – nuk mund ta shohim ose ta kuptojmë. Sistemet e AI mund të përjetësojnë dhe përforcojnë pa dashje paragjykimet në të dhënat e tyre të trajnimit. Transparenca lejon ekzaminimin dhe kuptimin se si ndodhin këto paragjykime, duke çuar në sisteme më etike dhe të drejta të AI.
Ligji dhe etika: Pse transparenca është kritike
Transparenca ndërton besimin me konsumatorët, punonjësit dhe palët e interesuara. Kur përdoruesit kuptojnë se si dhe pse një sistem AI merr vendime, ata kanë më shumë gjasa ta besojnë dhe ta pranojnë atë. Por, në varësi të industrisë, niveli i opacitetit të AI ndryshon. Për shembull, në industritë shumë të rregulluara, transparenca është parësore për pajtueshmërinë ligjore dhe rregullatore. Mosrespektimi mund të nënkuptojë implikime serioze dhe gjoba të kushtueshme që mund të përmbysin një biznes.
Mjedisi rregullator shpesh është shumë më i ngadalshëm se shpejtësia e inovacionit dhe ka një hendek midis strategjive qeverisëse të rajoneve të ndryshme. Për shembull, në SHBA, ekziston mundësia që mbi 50 ligje të ndryshme të privatësisë mund të rregullojnë AI në varësi të oreksit legjislativ në secilin shtet, ndërsa në Evropë, ekziston një qasje konsensusi midis shteteve anëtare të BE-së. Kjo i bën gjërat shumë të komplikuara, në varësi të vendndodhjes së një biznesi dhe vendit ku janë klientët e tyre, dhe operimi në mënyrë transparente do të thotë pajtueshmëri më e mirë me rregulloret lokale.
Nëse pajtueshmëria rregullatore nuk i detyron bizneset të jenë transparente, çfarë do të bëjë? Përgjigja duhet të jetë etikë. Nëse transparenca është pjesë e vlerave thelbësore të një organizate dhe është e përfshirë në strategjitë e AI, ato po demonstrojnë ndjeshmëri për klientët dhe palët e interesuara, sepse biznesi i jep përparësi drejtësisë, respektit dhe privatësisë, gjë që është në interesin më të mirë të të gjithëve.
Sfidat me arritjen e transparencës në AI
Zhvillimi i modeleve më të shpjegueshme të AI është taktika thelbësore për arritjen e transparencës, por kjo zakonisht është më e lehtë të thuhet sesa të bëhet. Shumë i shohin modelet dhe algoritmet e AI si një “salcë sekrete”, që nëse ekspozohen do të ishte e barabartë me heqjen e avantazhit konkurrues: algoritmet mund të klasifikohen nga disa si pronë intelektuale.
Ekziston gjithashtu një marrëdhënie midis paqartësisë dhe fuqisë parashikuese. Modelet opake janë shpesh më të fuqishme. Si tregtar, ky është një krahasim i ngjashëm me marrëdhënien midis arritjes së audiencës dhe saktësisë në fushatat e drejtuara nga të dhënat. Sa më i gjerë të jetë audienca, aq më pak i rëndësishëm mund të jetë mesazhi, ndërsa nëse audienca është më e grimcuar, mesazhet mund të rezonojnë më shumë pavarësisht se arrijnë më pak njerëz. Është një kompromis që duhet ta analizojmë kundrejt qëllimeve dhe buxheteve tona.
Kur bëhet fjalë për modelet statistikore dhe të mësimit të makinerive, ato variojnë nga të thjeshta dhe transparente në komplekse dhe të errëta. Disa modele të AI janë tepër komplekse, siç janë rrjetet e thella nervore. Disa shembuj të teknologjisë që përdor DNN janë asistentët zanorë si Siri dhe Alexa, algoritme rekomandimi si ato të përdorura nga Netflix dhe YouTube, shërbimet e përkthimit të gjuhës dhe makinat që drejtojnë vetë.
Modelet e thjeshtuara përfshijnë regresionin linear dhe pemët e vendimit. Një pemë vendimi mund të bëhet në një copë letre të thjeshtë nga dikush që nuk është një shkencëtar i të dhënave, pasi është jashtëzakonisht e lehtë të shihet rruga e vendimit drejt një rezultati. Pemët e vendimit mund të përdoren për proceset e miratimit të kredisë, ndërsa regresioni linear përdoret në vlerësimin e kredisë dhe çmimin e pasurive të paluajtshme.
Ka një shkëmbim midis saktësisë dhe paqartësisë. Rekomandimet e Netflix do të jenë shumë më të sakta kundrejt një njeriu që përdor një pemë vendimi për të përcaktuar një miratim kredie. Dhe megjithëse ekziston një algoritëm që përdoret gjerësisht për vlerësimet e pasurive të paluajtshme, procesi ndryshon në bazë të faktorëve jashtë modelit, duke përfshirë edhe kush po kryen vlerësimin. E gjithë kjo çon në sfida në gjetjen e ekuilibrit të duhur për të arritur transparencën e vërtetë duke garantuar gjithashtu saktësi.
Strategjitë për rritjen e transparencës
Pavarësisht këtyre sfidave, ka strategji që mund të ndihmojnë në rritjen e transparencës së AI organizative. Njëra është të integroni konsideratat e transparencës në sistemet tuaja të AI që nga fillimi i procesit të zhvillimit.
Kjo shkon krah për krah me krijimin e një kulture organizative që përpiqet për transparencë. Përgjegjësia duhet të ndahet – jo vetëm nga teknologët, por nga fusha funksionale si marketingu, operacionet, shitjet, shërbimi ndaj klientit dhe më gjerë, për të përforcuar rëndësinë e saj dhe për ta bërë atë pjesë të kulturës së kompanisë.
Për më tepër, monitorimi i vazhdueshëm nga një person për të mbikëqyrur vendimet dhe performancën e AI është thelbësor në ruajtjen e transparencës. Nëse ka një problem ose shfaqet paragjykim, një auditor njerëzor mund ta kapë atë përpara se të përforcohet vazhdimisht.
Bizneset gjithashtu duhet të deklarojnë dhe të publikojnë qartë se si mblidhen, përdoren, përpunohen dhe trajtohen të dhënat, pasi sistemet e AI janë po aq të drejta dhe të sakta sa të dhënat e futura në to. Kjo jo vetëm që rrit transparencën, por gjithashtu rrit besimin e konsumatorëve. Shumica e organizatave që trajtojnë të dhënat e konsumatorëve postojnë politikat e tyre të privatësisë në internet dhe nëse bëjmë të njëjtën gjë për politikat e qeverisjes së AI, ne mund të ndërtojmë më tej besimin dhe të nxisim adoptimin.
Vendosja e standardeve të industrisë është gjithashtu e rëndësishme dhe e arritshme. Kjo kërkon që organizatat të bashkohen dhe të zhvillojnë një kornizë për praktikat më të mira të përgjegjshme të AI, ose të krijojnë organizata agnostike që zhvillojnë dhe mbajnë standarde, ofrojnë krahasime dhe kryejnë kërkime për të matur respektimin e kornizave të tilla.
Ndërsa AI bëhet gjithnjë e më i integruar në operacionet e ndërmarrjeve dhe në jetën e përditshme të konsumatorëve, transparenca do të jetë kritike për zhbllokimin e potencialit të saj të plotë. Është thelbësore për ndërtimin e besimit të konsumatorëve, sigurimin e drejtësisë për grupet e margjinalizuara dhe përmbushjen e standardeve rregullatore në të gjithë industritë. Ndërsa teknologët janë ende duke zgjidhur sfida që kontribuojnë në paqartësinë e algoritmeve të AI, ne mund të bashkohemi njëkohësisht për të krijuar kultura të përgjegjshme, praktika më të mira dhe korniza të dakorduara në ndjekje të një të ardhmeje më transparente dhe etike.
Tara DeZao është drejtore e marketingut të produkteve, adtech dhe martech, në Pegasystems Inc., e cila zhvillon softuer për menaxhimin e marrëdhënieve me klientët dhe menaxhimin e proceseve të biznesit. Ajo e shkroi këtë artikull për SiliconANGLE.
Imazhi: geralt/Pixabay
Vota juaj e mbështetjes është e rëndësishme për ne dhe na ndihmon ta mbajmë përmbajtjen FALAS.
Një klikim më poshtë mbështet misionin tonë për të ofruar përmbajtje falas, të thellë dhe relevante.
Bashkohuni me komunitetin tonë në YouTube
Bashkohuni me komunitetin që përfshin më shumë se 15,000 ekspertë #CubeAlumni, duke përfshirë CEO të Amazon.com, Andy Jassy, themeluesin dhe CEO të Dell Technologies, Michael Dell, CEO të Intel, Pat Gelsinger, dhe shumë të tjerë ndriçues dhe ekspertë.
FALEMINDERIT