Qeveria amerikane ka zbuluar udhëzime të reja sigurie që synojnë të forcojnë infrastrukturën kritike kundër kërcënimeve të lidhura me inteligjencën artificiale (AI).
“Këto udhëzime janë të informuara nga përpjekjet e të gjithë qeverisë për të vlerësuar rreziqet e AI në të gjashtëmbëdhjetë sektorët kritikë të infrastrukturës, dhe për të adresuar kërcënimet si nga dhe nga, dhe që përfshijnë sistemet e AI”, tha të hënën Departamenti i Sigurisë Kombëtare (DHS).
Për më tepër, agjencia tha se po punon për të lehtësuar përdorimin e sigurt, të përgjegjshëm dhe të besueshëm të teknologjisë në një mënyrë që nuk cenon privatësinë e individëve, të drejtat civile dhe liritë civile.
Udhëzimi i ri ka të bëjë me përdorimin e AI për të shtuar dhe shkallëzuar sulmet në infrastrukturën kritike, manipulimin kundërshtar të sistemeve të AI dhe mangësitë në mjete të tilla që mund të rezultojnë në pasoja të paqëllimshme, duke kërkuar nevojën për transparencë dhe praktika të sigurta nga projektimi për të vlerësuar dhe zbutur AI rreziqet.
Në mënyrë të veçantë, kjo përfshin katër funksione të ndryshme si qeverisja, harta, matja dhe menaxhimi gjatë gjithë ciklit jetësor të AI –
- Krijoni një kulturë organizative të menaxhimit të rrezikut të AI
- Kuptoni kontekstin tuaj individual të përdorimit të AI dhe profilin e rrezikut
- Zhvilloni sisteme për të vlerësuar, analizuar dhe gjurmuar rreziqet e AI
- Jepni përparësi dhe veproni sipas rreziqeve të AI për sigurinë dhe sigurinë
“Pronarët dhe operatorët e infrastrukturës kritike duhet të marrin parasysh përdorimin e tyre të IA-së në sektorin dhe kontekstin specifik kur vlerësojnë rreziqet e AI dhe zgjedhin masat e duhura zbutëse,” tha agjencia.
“Pronarët dhe operatorët e infrastrukturës kritike duhet të kuptojnë se ku ekzistojnë këto varësi nga shitësit e AI dhe të punojnë për të ndarë dhe për të përcaktuar përgjegjësitë e zbutjes në përputhje me rrethanat.”
Zhvillimi arrin javë pasi aleanca e inteligjencës Five Eyes (FVEY) e përbërë nga Australia, Kanadaja, Zelanda e Re, MB dhe SHBA lëshuan një fletë informacioni për sigurinë kibernetike duke vënë në dukje konfigurimin dhe konfigurimin e kujdesshëm të kërkuar për vendosjen e sistemeve të AI.
“Përshtatja, vendosja dhe përdorimi i shpejtë i aftësive të AI mund t’i bëjë ato objektiva shumë të vlefshëm për aktorët keqdashës kibernetikë,” thanë qeveritë.
“Aktorët, të cilët kanë përdorur historikisht vjedhjen e të dhënave të informacionit të ndjeshëm dhe pronës intelektuale për të avancuar interesat e tyre, mund të kërkojnë të bashkëveprojnë sistemet e vendosura të AI dhe t’i zbatojnë ato për qëllime keqdashëse.”
Praktikat më të mira të rekomanduara përfshijnë marrjen e hapave për të siguruar mjedisin e vendosjes, rishikimin e burimit të modeleve të AI dhe sigurinë e zinxhirit të furnizimit, sigurimin e një arkitekture të fuqishme të mjedisit të vendosjes, forcimin e konfigurimeve të mjedisit të vendosjes, vërtetimin e sistemit AI për të siguruar integritetin e tij, mbrojtjen e peshave të modelit, zbatimin kontrolle të rrepta të aksesit, kryeni auditime të jashtme dhe zbatoni prerje të fuqishme.
Në fillim të këtij muaji, Qendra e Koordinimit CERT (CERT/CC) detajoi një mangësi në bibliotekën e rrjetit nervor Keras 2 që mund të shfrytëzohej nga një sulmues për të trojanizuar një model popullor të AI dhe për ta rishpërndarë atë, duke helmuar në mënyrë efektive zinxhirin e furnizimit të aplikacioneve të varura.
Hulumtimet e fundit kanë gjetur se sistemet e AI janë të prekshme ndaj një game të gjerë sulmesh të menjëhershme të injektimit që e nxisin modelin e AI të anashkalojë mekanizmat e sigurisë dhe të prodhojë rezultate të dëmshme.
“Sulmet e menjëhershme të injektimit përmes përmbajtjes së helmuar janë një rrezik i madh sigurie, sepse një sulmues që e bën këtë mund të lëshojë komanda në sistemin AI sikur të ishte përdoruesi,” vuri në dukje Microsoft në një raport të fundit.
Një teknikë e tillë, e quajtur Crescendo, është përshkruar si një jailbreak me shumë kthesa të modelit të madh të gjuhës (LLM), i cili, ashtu si jailbreaking-i i Anthropic-it, e mashtron modelin për të gjeneruar përmbajtje me qëllim të keq duke “bërë pyetje të hartuara me kujdes ose kërkesa që gradualisht e çojnë LLM-në”. drejt një rezultati të dëshiruar, në vend që të kërkoni qëllimin menjëherë.”
Kërkesat për brejtje nga burgu LLM janë bërë të njohura në mesin e kriminelëve kibernetikë që kërkojnë të krijojnë joshje efektive për phishing, edhe kur aktorët e shteteve kombëtare kanë filluar të armatizojnë AI gjeneruese për të orkestruar spiunazhin dhe ndikimin e operacioneve.
Akoma më shqetësuese, studimet nga Universiteti i Illinois Urbana-Champaign kanë zbuluar se agjentët LLM mund të përdoren për të shfrytëzuar në mënyrë autonome dobësitë njëditore në sistemet e botës reale thjesht duke përdorur përshkrimet e tyre CVE dhe “hakojnë faqet e internetit, duke kryer detyra aq komplekse sa Nxjerrja e skemës së bazës së të dhënave të verbër dhe injeksione SQL pa reagime njerëzore.”