Ashtu si ju, ndoshta, edhe unë e kam të vështirë të besoj se çfarë inteligjence artificiale thotë dhe bën. Por edhe nëse halucinacionet e AI janë “të zgjidhshme” dhe teknologjia jo ndikojë zgjedhjet, copëto privatësinëose shkatërrojnë njerëziminka edhe një shqetësim tjetër besimi.
Njerëzit dhe kompanitë gënjejnë për AI.
Komisioni i Letrave me Vlerë jep alarmin. Ne nje fjalimi i funditkryetari i SEC, Gary Gensler paralajmëroi se zhurma aktuale rreth AI mund të inkurajojë bizneset të përfshihen në “larjen e AI” – duke bërë pretendime mashtruese ose të rreme në lidhje me përdorimin e teknologjisë nga ana e tyre.
Ndërkohë, Komisioni Federal i Tregtisë u ka thënë kompanive që reklamojnë produktet dhe shërbimet e AI mbajnë nën kontroll pretendimet e tyre. Dhe SEC dhe Autoriteti Rregullativ i Industrisë Financiare (FINRA) kanë paralajmëruar për mashtrimet e investimeve që përfshin përdorimin e supozuar të AI.
Pra, çfarë është saktësisht larja me AI?
“Është shumë e ngjashme me larjen e gjelbër,” thotë Maya Dillon, VP dhe drejtuese e AI në Konsulentët e Kembrixhit. Mund të nënkuptojë ekzagjerim të aftësive të një oferte të AI dhe/ose nënvlerësim të kufizimeve të saj, shpjegon Dillon. Ose thirrja e diçkaje me AI kur nuk është. Ose përdorimi i fjalëve të AI për qëllime marketingu, pa ndonjë substancë të vërtetë për t’i mbështetur ato.
Sa të shqetësuar duhet të jemi?
“Nëse SEC dhe FTC dhe të tjerët po peshojnë, ka qartë një problem të keq atje,” thotë Steve Mills, shefi i etikës së AI me Boston Consulting Group.
Rregullatorët që zotohen se do t’i mbajnë kompanitë përgjegjëse për larjen e inteligjencës artificiale është një gjë. Por siç thekson Dillon, legjislacioni ekzistues mbulon vetëm të dhënat e përdorura për prodhimin e modeleve të AI, jo vetë modelet.
Për momentin, kjo i lë ofruesit dhe industrinë të vetërregullohen nëpërmjet sigurimit të AI, të cilën Kembrixh po e ndihmon zhvillimin. Sigurimi përbëhet nga procese, korniza dhe mjete që sigurojnë që sistemet e AI janë të përqendruara te njeriu, të besueshëm, të sigurt, teknikisht të fuqishëm, të sigurt dhe etikë, thotë Dillon. Qëllimi: transparencë dhe llogaridhënie në mënyrë që AI të mund t’i besohet. “Ky proces në vetvete ju detyron të provoni se zgjidhja juaj e AI në të vërtetë funksionon dhe bën atë që thotë në kanaçe.”
Në të njëjtën kohë, ofruesit e AI duhet të lejojnë një palë të tretë objektive t’i vlerësojë ato përpjekje.
Ata që blejnë produkte dhe shërbime të AI duhet të bëjnë gjithashtu detyrat e shtëpisë.
Prisni transparencë, këshillon Mills. “Nëse po shikoni katër zgjidhje, dhe tre prej tyre janë super transparente dhe një jo, kjo ju bën të filloni të bëni shumë pyetje.”
Në këtë shënim, Dillon sugjeron të shkohet drejt e drejt teknologjisë. Ju jeni duke paguar për të, kështu që mos kini turp. “Nga erdhën të dhënat që krijuan këtë algoritëm?” është një pyetje kyçe, thotë Dillon. “Si u zhvillua ky algoritëm? Si po vendoset? Dhe cilat janë rezultatet që vijnë prej tij dhe si përdoret ai informacion? Ndonjëherë janë ato pyetje të thjeshta që do t’ju mundësojnë lehtësisht të kuptoni nëse ajo që po shikoni është apo jo AI.”
Nuk ndiheni të sigurt duke gatuar shitësin në skarë? Merr ndihme. Disa firma të kapitalit të sipërmarrjes po shkojnë në atë rrugë, vëren Dillon, duke i bërë organizata të pavarura të bëjnë kujdesin e duhur teknik të AI për to.
Mills rekomandon gjithashtu të shihet nëse kompania ka ekspertë të ligjshëm të AI në staf. “A po i bëjnë ata të gjitha këto pretendime, por më pas duket se nuk kanë ekspertizën teknike për të mbështetur ato pretendime?”
Përfundimi: Nëse ajo zgjidhje e AI tingëllon shumë e mirë për të qenë e vërtetë, ndoshta është. Fusha e shitjeve nuk duhet t’ju lërë të ndiheni sikur keni nevojë për larje.
Nick Rockel
nick.rockel@consultant.fortune.com
Kjo histori u shfaq fillimisht në Fortune.com