Microsoft prezanton veçori të reja sigurie për të mbrojtur Chatbots me AI
Sfidat janë mundësi! Dëgjuar shpesh!
Microsoft e shfrytëzoi këtë mundësi. Një zgjidhje për të luftuar të ashtuquajturat sulme të “injektimit të shpejtë” ishte një nga disa shërbime për sistemin Azure AI të gjigantit të teknologjisë. Për shembull, zbulimi i “bazueshmërisë” mund të identifikojë “halucinacionet” e inteligjencës artificiale, ndërsa mburojat e shpejta mund të identifikojnë dhe parandalojnë sulmet e shpejta të injektimit. Një nga mjetet quhet “mburojë e shpejtë” dhe qëllimi i tij është të parandalojë përpjekjet e qëllimshme për të manipuluar një model të AI për të bërë diçka që nuk duhet. “Injeksionet e menjëhershme indirekte”, në të cilat hakerat futin udhëzime të dëmshme në të dhëna, është një çështje tjetër që Microsoft po punon për të zgjidhur.
Sipas postim. Shqetësimet për materialin e papërshtatshëm dhe injeksionet e menjëhershme janë vetëm dy nga rreziqet e shumta me të cilat përballen organizatat kur vendosin AI gjeneruese. Këto teknologji synojnë të ndihmojnë në zbutjen e disa prej këtyre rreziqeve.
Lexoni blogjet më të fundit: Lundrimi i Spektrit të Realitetit: Kuptimi i VR, AR dhe MR
Veçoritë e reja në versionet e fundit përfshijnë masa mbrojtëse kundër vektorëve të sulmeve në zhvillim si jailbreaks dhe injeksione të menjëhershme dhe monitorim në kohë reale për të identifikuar dhe bllokuar përmbajtjen ose përdoruesit fyes. Roli i Microsoft-it në “betejën për AI gjeneruese” që filloi me triumfin e ChatGPTkrijuar nga partneri i Microsoft OpenAI. Ka më shumë se thjesht Big Tech duke konkurruar për titullin e kampionit të AI, edhe pse gjigantët kryesorë të teknologjisë si Google dhe Microsoft kanë një avantazh.
Forca lëvizëse prapa mjetit të ri të Microsoft
Në garën për të rrëzuar OpenAI, iniciativat me burim të hapur, partneritetet dhe theksi mbi transparencën dhe përgjegjësinë janë shfaqur si pretendentë të mundshëm. Është e zakonshme që duhet të shpenzoni para për fuqinë përpunuese dhe talentin e kërkimit për të çuar AI në kufijtë e saj. Siguria e Chatbot është përmirësuar nga Microsoft. Megjithëse AI gjeneruese ka potencial për të rritur produktivitetin dhe efikasitetin për bizneset, një sondazh i fundit nga McKinsey zbuloi se 91% e drejtuesve të korporatave janë të papërgatitur për rreziqet që vijnë së bashku me të. Këto çështje kanë qenë forca shtytëse pas mjeteve të reja të Microsoft, të cilat janë rezultat i studimit të gjerë dhe përparimeve teknologjike të ndërtuara mbi përvojën e vetë kompanisë me produkte si Kopilot. Investimi shumë miliardë dollarësh nga Microsoft në OpenAI ka qenë sigurisht një ndryshim i lojës, duke hapur një bollëk mundësish të reja për kërkimin dhe zhvillimin e AI.
Për të krijuar përmbajtje me qëllim të keq, të padëshiruar, injeksionet e menjëhershme manipulojnë sistemet e AI. Sulmet e menjëhershme direkte dhe indirekte mbrohen të dyja nga Prompt Shields të Microsoft. Programi kontrollon të dhënat e palëve të treta dhe bën thirrje për qëllime të mundshme të dëmshme duke përdorur teknika të sofistikuara të mësimit të makinerive dhe përpunimin e gjuhës natyrore. Përveç rregullimit të çështjeve të sigurisë, mjetet më të reja nga Microsoft duhet t’i bëjnë aplikacionet gjeneruese të AI më të besueshme duke i testuar automatikisht nën stres për t’u siguruar që nuk janë të prekshëm ndaj gjërave të tilla si jailbreaks.
Rregulloni konfigurimet e filtrit të përmbajtjes për të rritur sigurinë
Zhvilluesit do të jenë në gjendje të akordojnë manualisht pjesën e pasme dhe të rregullojnë konfigurimet e filtrit të përmbajtjes për të rritur sigurinë me përdorimin e monitorimit në kohë reale, një tjetër shtesë e dukshme. Kjo aftësi gjurmon hyrjet dhe daljet që aktivizojnë mekanizmat e sigurisë. Të gjitha njoftimet e mëparshme të Microsoft-it në lidhje me AI kanë riafirmuar përkushtimin e kompanisë ndaj AI përgjegjëse dhe të sigurt dhe këto teknologji të fundit nuk bëjnë përjashtim.