Pasi ka miratuar së fundmi Aktin e Inteligjencës Artificiale, Bashkimi Evropian është gati të sjellë në fuqi disa nga rregulloret më të ashpra në botë të AI.
Aplikacionet potencialisht të rrezikshme të inteligjencës artificiale janë cilësuar “të papranueshme” dhe do të jenë të paligjshme, me përjashtim të qeverisë, zbatimit të ligjit dhe studimit shkencor në kushte specifike.
Siç ishte e vërtetë me Rregulloren e Përgjithshme për Mbrojtjen e të Dhënave të BE-së, ky legjislacion i ri do të shtojë detyrime për këdo që bën biznes brenda 27 shteteve anëtare, jo vetëm kompanitë me bazë atje.
Ata që janë përgjegjës për shkrimin e tij kanë thënë se qëllimi është mbrojtja e të drejtave dhe lirive të qytetarëve duke nxitur gjithashtu inovacionin dhe sipërmarrjen. Por 460 faqet e publikuara të aktit përmbajnë shumë më tepër se kaq.
Nëse drejtoni një biznes që operon në Evropë ose u shet konsumatorëve evropianë, ka disa gjëra të rëndësishme që duhet të dini. Ja çfarë më bie në sy si udhëzimet kryesore për këdo që dëshiron të përgatitet për ndryshime potencialisht të rëndësishme.
Kur hyn në fuqi?
Akti i Inteligjencës Artificiale u miratua nga Parlamenti i BE-së më 13 mars dhe pritet që së shpejti të bëhet ligj kur të miratohet nga Këshilli Evropian. Do të duhen deri në 24 muaj që të zbatohet e gjitha, por zbatimi i disa aspekteve, siç janë praktikat e reja të ndaluara, mund të fillojë të ndodhë brenda gjashtë muajve.
Siç ishte rasti me GDPR, kjo vonesë është për t’u dhënë kohë kompanive për t’u siguruar që ato janë në përputhje. Pas këtij afati, ata mund të përballen me ndëshkime të konsiderueshme për çdo shkelje. Këto janë në nivele, me më seriozet e rezervuara për ata që thyejnë ndalimin e “përdorimeve të papranueshme”. Në krye janë gjobat deri në 30 milionë euro, ose 6% e xhiros globale të kompanisë (cilado që është më e lartë).
Megjithatë, potencialisht edhe më i dëmshëm do të ishte ndikimi në reputacionin e një biznesi nëse zbulohet se po shkel ligjin e ri. Besimi është gjithçka në botën e AI dhe bizneset që tregojnë se nuk mund t’u besohet, ka të ngjarë të ndëshkohen më tej nga konsumatorët.
Disa përdorime të AI do të ndalohen
Akti thotë se “AI duhet të jetë një teknologji me në qendër njeriun. Ai duhet të shërbejë si një mjet për njerëzit, me qëllimin përfundimtar të rritjes së mirëqenies njerëzore.”
Për ta bërë këtë, BE-ja ka ndaluar përdorimin e AI për një numër qëllimesh potencialisht të dëmshme, duke përfshirë:
- Përdorimi i AI për të ndikuar ose ndryshuar sjelljet në mënyra që janë të dëmshme.
- Klasifikimi biometrik për të nxjerrë bindjet politike dhe fetare ose preferencat ose orientimet seksuale.
- Sistemet e vlerësimit social që mund të çojnë në diskriminim.
- Identifikimi në distancë i njerëzve nëpërmjet biometrisë në vende publike (sistemet e njohjes së fytyrës, për shembull.)
Ka disa përjashtime. Ekziston një listë e situatave për të cilat organizatat e zbatimit të ligjit mund të vendosin AI “të papranueshme”, duke përfshirë parandalimin e terrorizmit dhe gjetjen e njerëzve të zhdukur. Ka edhe përjashtime për studime shkencore.
Akti thotë se “AI duhet të jetë një teknologji me në qendër njeriun. Ai duhet të shërbejë si një mjet për njerëzit, me qëllimin përfundimtar të rritjes së mirëqenies njerëzore.” Pra, është mirë të shihet se kufizimi i mënyrave që mund të shkaktojë dëm është vënë në qendër të ligjeve të reja.
Megjithatë, ka një sasi të mjaftueshme paqartësie dhe hapjeje rreth disa prej formulimeve, të cilat potencialisht mund t’i lënë gjërat të hapura për interpretim. A mund të konsiderohet përdorimi i AI për të synuar marketingun për produkte si ushqimi i shpejtë dhe pijet joalkoolike me përmbajtje të lartë sheqeri se ndikon në sjelljet në mënyra të dëmshme? Dhe si të gjykojmë nëse një sistem vlerësimi social do të çojë në diskriminim në një botë ku jemi mësuar të kontrollohemi nga kreditë dhe të vlerësohemi nga një mori organesh qeveritare dhe private?
Kjo është një fushë ku do të duhet të presim për më shumë udhëzime ose informacione se si do të zbatohet zbatimi për të kuptuar pasojat e plota.
AI me rrezik të lartë
Përveç përdorimeve që konsiderohen të papranueshme, akti ndan mjetet e AI në tre kategori të tjera: rrezik i lartë, i kufizuar dhe minimal.
Inteligjenca artificiale me rrezik të lartë përfshin raste përdorimi si makina vetë-drejtuese dhe aplikacione mjekësore. Bizneset e përfshira në këto fusha ose fusha të ngjashme të rrezikshme do të përballen me rregulla më të rrepta si dhe me një detyrim më të madh rreth cilësisë dhe mbrojtjes së të dhënave.
Rastet e përdorimit të kufizuar dhe me rrezik minimal mund të përfshijnë aplikime të AI thjesht për argëtim, si në videolojëra, ose në procese krijuese si gjenerimi i tekstit, video ose tingujve.
Këtu do të ketë më pak kërkesa, megjithëse do të ketë ende pritshmëri për transparencën dhe përdorimin etik të pronësisë intelektuale.
Transparenca
Akti e bën të qartë se AI duhet të jetë sa më transparente. Përsëri, këtu ka disa paqartësi – të paktën në sytë e dikujt si unë që nuk është avokat. Për shembull, vendosen përcaktime rreth rasteve kur ekziston nevoja për të “mbrojtur sekretet tregtare dhe informacionin konfidencial të biznesit”. Por është e pasigurt tani se si do të interpretohej kjo kur çështjet fillojnë të dalin para gjykatave.
Akti mbulon transparencën në dy mënyra. Së pari, ai dekreton që imazhet e krijuara nga AI duhet të shënohen qartë për të kufizuar dëmin që mund të bëhet nga mashtrimi, falsifikimet e thella dhe dezinformimi.
Ai gjithashtu mbulon vetë modelet në një mënyrë që duket veçanërisht e synuar për ofruesit e mëdhenj të teknologjisë AI si Google, Microsoft dhe OpenAI. Përsëri, kjo është e niveluar nga rreziku, me zhvilluesit e sistemeve me rrezik të lartë që detyrohen të japin informacion të gjerë mbi atë që bëjnë, si punojnë dhe çfarë të dhënash përdorin. Gjithashtu vendosen përcaktime rreth mbikëqyrjes dhe përgjegjësisë njerëzore.
Të kërkosh që imazhet e krijuara nga AI të shënohen si të tilla duket si një ide e mirë në teori, por mund të jetë e vështirë për t’u zbatuar, pasi kriminelët dhe përhapësit e mashtrimit nuk kanë gjasa të pajtohen. Nga ana tjetër, mund të ndihmojë në krijimin e një kuadri besimi, i cili do të jetë kritik për të mundësuar përdorimin efektiv të AI.
Për sa i përket teknologjisë së madhe, unë pres që kjo ka të ngjarë të zbresë në një pyetje se sa janë të gatshëm të zbulojnë. Nëse rregullatorët pranojnë kundërshtimet e mundshme se dokumentimi i algoritmeve, peshimeve dhe burimeve të të dhënave është informacion konfidencial i biznesit, atëherë këto dispozita mund të rezultojnë të jenë mjaft të pamëshirshme.
Megjithatë, është e rëndësishme të theksohet se edhe bizneset më të vogla që ndërtojnë sisteme me porosi për industri dhe tregje të veçanta, teorikisht, mund të ndikohen nga kjo. Ndryshe nga gjigantët e teknologjisë, ata mund të mos kenë fuqinë ligjore për të argumentuar rrugën e tyre në gjykatë, duke i vënë ata në disavantazh kur bëhet fjalë për inovacione. Duhet pasur kujdes për të siguruar që kjo të mos bëhet një pasojë e paqëllimshme e aktit.
Çfarë do të thotë kjo për të ardhmen e rregullores së AI?
Së pari, tregon se politikanët kanë filluar të bëjnë lëvizje kur bëhet fjalë për trajtimin e sfidave të mëdha rregullatore të ngritura nga AI. Ndërsa unë jam përgjithësisht pozitiv për ndikimin që pres të ketë AI në jetën tonë, ne nuk mund të injorojmë se gjithashtu ka një potencial të madh për të shkaktuar dëm, qëllimisht ose aksidentalisht. Pra, çdo aplikim i vullnetit politik drejt adresimit të kësaj është një gjë e mirë.
Por shkrimi dhe botimi i ligjeve është pjesa relativisht e lehtë. Ai po vendos kuadrin rregullator, zbatues dhe kulturor për të mbështetur ndryshimin që kërkon përpjekje reale.
Akti i AI i BE-së është i pari i këtij lloji, por pritet gjerësisht që ai të pasohet nga rregullime të mëtejshme në të gjithë globin, duke përfshirë Shtetet e Bashkuara dhe Kinën.
Kjo do të thotë se është thelbësore për drejtuesit e biznesit, kudo që janë në botë, të ndërmarrin hapa për t’u siguruar që janë të përgatitur për ndryshimet që po vijnë.
Dy pika kryesore nga Akti i BE-së për AI janë që çdo organizatë duhet të kuptojë se ku vendosen mjetet dhe aplikacionet e tyre në shkallën e rrezikut dhe të ndërmarrë hapa për të siguruar që operacionet e tyre të AI të jenë sa më transparente.
Për më tepër, ekziston një nevojë reale për të qëndruar të informuar mbi peizazhin rregullator vazhdimisht në ndryshim të AI. Ritmi relativisht i ngadaltë me të cilin lëviz ligji do të thotë që nuk duhet të habiteni.
Mbi të gjitha, megjithatë, besoj se mesazhi kryesor është rëndësia e ndërtimit të një kulture pozitive rreth AI etike. Sigurimi që të dhënat tuaja janë të pastra dhe të paanshme, algoritmet tuaja janë të shpjegueshme dhe çdo potencial për të shkaktuar dëm është identifikuar qartë dhe zbutur është mënyra më e mirë për t’u siguruar që jeni të përgatitur për çfarëdo legjislacioni që mund të shfaqet në të ardhmen.