(Botuar fillimisht nga Inteligjenca Artificiale me në qendër të Stanfordit më 3 prill 2024)
Ekspertët e teknologjisë, ligjit dhe të drejtave të njeriut debatojnë mbi implikimet unike të kësaj teknologjie dhe se si mund ta drejtojmë më së miri potencialin e saj për të përfituar njerëzimin.
Në nëntor 2022, OpenAI publikoi ChatGPT. Më pak se 18 muaj më vonë, subjekti i AI gjeneruese dominon pothuajse çdo sferë të jetës, publike dhe private. Politikëbërësit flasin për këtë; ekonomistët flasin për këtë; shkencëtarët socialë, prindërit, mësuesit dhe investitorët flasin për të.
Volker Türk – Komisioneri i Lartë i Kombeve të Bashkuara për të Drejtat e Njeriut – flet gjithashtu për këtë. “Ndikimet e pakrahasueshme të të drejtave të njeriut të AI-së së avancuar, duke përfshirë AI gjeneruese, tashmë po ndihen nga një numër i madh njerëzish,” tha ai në një diskutim të fundit mbi këtë temë. Për të siguruar që përfitimet e AI rrjedhin për të gjithë, “njerëzit duhet të jenë në qendër të teknologjisë”.
Türk i ofroi këto komente si folësi kryesor në Dimensionet e të Drejtave të Njeriut të AI Gjenerative, një ngjarje e 14 shkurtit e organizuar nga Qendra për të Drejtat e Njeriut dhe Drejtësinë Ndërkombëtare dhe e bashkë-sponsorizuar nga Instituti Stanford për AI me qendër në njerëz (HAI) dhe të tjerë. Pas komenteve të Türk, një panel ekspertësh që përfaqësojnë sektorët privatë dhe publikë dhe akademinë diskutuan implikimet e AI gjeneruese për të drejtat e njeriut, funksionin demokratik dhe kohezionin e përgjithshëm social. Grupi përfshinte:
- Eileen Donahoe, E dërguara Speciale dhe Koordinatorja për Lirinë Dixhitale në Byronë e Departamentit të Shtetit për Hapësirën Kibernetike dhe Politikat Dixhitale;
- Alex Walden, Shef Global i të Drejtave të Njeriut në Google;
- Peggy Hicks, Drejtore e Divizionit të Angazhimit Tematik, Procedurave Speciale dhe të Drejtës për Zhvillim të Zyrës së OKB-së për të Drejtat e Njeriut;
- Nate Persily, Bashkëdrejtor i Qendrës së Politikave Kibernetike Stanford dhe James B. McClatchy Profesor i Drejtësisë në Shkollën Juridike të Stanfordit; dhe
- Raffi Krikorian, Drejtor Kryesor i Teknologjisë në Emerson Collective.
Më poshtë janë disa pika kryesore nga biseda.
Pse AI është ndryshe
Megjithëse disa nga shqetësimet mbi AI janë konvencionale – ajo mund të nxisë dezinformimin ose të pushtojë privatësinë – ka disa mënyra në të cilat sfidat që ajo paraqet janë të panjohura për botën e politikave.
Për një, AI është ajo që Persily e quan një teknologji kryesore. “Po bëhet thelbësore për të gjitha teknologjitë e tjera, gjë që e bën atë të ndryshëm,” tha ai. “Ajo tashmë është kudo dhe do të vazhdojë të jetë kudo. Ai po rregullon të gjithë të ardhmen e ekonomisë dhe marrëdhënieve tona sociale.” Ajo është gjithashtu më e errët se teknologjitë e tjera, dhe aplikimet e saj janë shumë më të vështira për t’u parashikuar. Si një shembull, Persily tha se ekipi në OpenAI, kur lëshoi ChatGPT, nuk e imagjinonte përdorimin e tij në kodim. “Më shumë se gjysma e përdorimeve tani janë për kodim,” tha ai.
Walden i Google vuri në dukje shpejtësinë dhe shkallën e re me të cilën funksionon AI, si dhe aftësinë e saj për të mësuar dhe përshtatur. Megjithëse platforma si Google kanë qenë prej kohësh në bisedë me politikëbërësit për mënyrën e rregullimit të përmbajtjes, ajo tha, “AI e bën këtë të gjithë shumë më të komplikuar.”
Së fundi, shumë nga algoritmet themelore në AI janë me burim të hapur. Kjo është thelbësore për t’i bërë mjetet të aksesueshme përtej IP-së së korporatës, por është gjithashtu problematike. Brenda vitit të parë të lëshimit të ChatGPT, për shembull, pati një shpërthim të pornografisë së fëmijëve të krijuar nga AI – si rezultat i faktit se këto mjete ishin të disponueshme falas.
“Në disa mënyra, aspekti më demokratik i kësaj teknologjie paraqet gjithashtu rrezikun më të madh,” tha Persily.
Disa shqetësime të rënda
Të gjithë panelistët shprehën shqetësimin se si do të përdoret – dhe tashmë po përdoret – AI; tre nga këto shqetësime bënë jehonë gjatë gjithë bisedës.
Së pari, Krikorian dhe Donahoe vunë në dukje se si evolucioni i shpejtë i mjeteve të ndryshme të AI e bën praktikisht të pamundur për publikun ose politikëbërësit që të vazhdojnë. “Ka një mospërputhje të madhe midis zhvillimit dhe përthithjes së kësaj teknologjie,” tha Krikorian. “Në shumë mënyra kjo thjesht do të thotë se ne po derdhim benzinë për çdo problem tjetër.” Për shembull, para se të kemi arritur të trajtojmë çështjen në rritje të dezinformimit në internet, AI po përshpejton shpërndarjen e saj.
Së dyti, Hicks vuri në dukje se, megjithëse OKB-ja ka bërë thirrje për një pauzë në përdorimin e AI në zonat ku shkeljet e të drejtave të njeriut kanë më shumë gjasa të ndodhin, këto janë pikërisht sferat ku përparimet duket se po ecin më shpejt. Po krijohen ndarje ligjore për sektorë si siguria kombëtare dhe zbatimi i ligjit, ku praktikuesit e të drejtave të njeriut i kanë fokusuar prej kohësh energjitë e tyre, shpesh pa dobi.
“Ne i kemi shprehur këto shqetësime që shumë përpara AI gjeneruese,” tha Hicks. “Dhe ne duhet të bëjmë ende përparim në atë front.”
Së fundi, Persily sugjeroi se problemi në rritje i dezinformimit mund t’i shtyjë njerëzit jo vetëm të besojnë në gënjeshtrat, por, për shqetësim më të madh, të mos besojnë atë që është e vërtetë. “Përhapja e përmbajtjes artificiale u jep besueshmëri të gjithë atyre që duan të ndajnë realitetin,” tha ai. “Sa më shumë të mos i besojmë dëshmive para syve tanë, aq më e madhe është fuqia e gënjeshtarëve për të thënë atë që është dhe çfarë nuk është e vërtetë.”
Mendime mbi rregulloren
Diskutimi se si të rregullohet në mënyrë efektive dhe në mënyrë të drejtë AI gjeneruese u rrethua rreth disa pikave qendrore:
- OKB-ja, përmes iniciativës së saj B-Tech, ka krijuar një kornizë me të cilën kompanitë e teknologjisë mund të bashkojnë konsideratat e të drejtave të njeriut në punën që bëjnë. Kjo nismë ka marrë kohët e fundit rastin specifik të AI gjeneruese. “I vetmi grup ligjesh ndërsektoriale që kemi për të adresuar këto sfida kolosale,” tha Türk, “është korniza ndërkombëtare e të drejtave të njeriut”.
- Një zgjidhje rregullatore duhet të bazohet mbi pjesëmarrjen e gjerë. “Një nga shqetësimet e mëdha që kemi është se këto biseda duket se po zhvillohen me një fokus të tepërt në veriun global dhe mjediset në gjuhën angleze,” tha Hicks. Problemet e mundshme, nënvizoi Donahoe, janë në thelb transnacionale dhe, si të tilla, zgjidhjet duhet të hartohen në mënyrë gjithëpërfshirëse.
- Në këto mjete duhet të ndërtohet sa më shumë transparencë. Mund të mos jetë kurrë e mundur të kuptohet plotësisht funksioni i një modeli – pse rezultatet e tij janë ato që janë – por disa kontrolle mund të përshkruajnë aftësitë e modelit paraprakisht.
- Diskutimi rreth politikave dhe rregulloreve duhet të përfshijë nuanca. Hicks sugjeroi se shumica e diskutimeve të AI sot janë shumë të polarizuara: Një produkt është ose i mirë ose i keq; do ta shkatërrojë botën ose do ta shpëtojë atë; Sektori privat është problemi apo qeveria është problemi. “Ne duhet të gjejmë mënyra për t’u përfshirë në të dyja bisedat në të njëjtën kohë,” tha ajo.
Ndërsa diskutimi përfundoi, Donahoe u kërkoi secilit prej katër panelistëve të përgjigjen nëse ata ishin, në përgjithësi, më optimistë apo pesimistë për një të ardhme me AI gjeneruese. Panelistët ishin universalisht shpresëdhënës – por, mund të thuhet, me rezervë.
“Unë jam optimist për teknologjinë, por do të më duhej të thosha se jam pesimist për shoqërinë tani” është mënyra se si e shpreh Persily, duke vënë në pikëpyetje aftësinë tonë për të arritur në mënyrë efektive konsensusin rreth qeverisjes së shumë kërcënimeve në horizont. “Sikur AI ta kishte pasur këtë moment 30 vjet më parë ose nëse ne mund të merreshim me të pasi të merreshim fillimisht me ndarjet tona sociale.”