Një chatbot i AI i lëshuar nga qeveria e qytetit të Nju Jorkut, i krijuar për të ndihmuar pronarët e bizneseve në aksesin e informacionit është vënë nën shqyrtim për ndarjen e udhëzimeve të pasakta dhe mashtruese.
Një raport nga Markup, bashkëpublikuar me redaksitë lokale jofitimprurëse E dokumentuar dhe Qytetizbuloni raste të shumta kur chatbot dha këshilla të gabuara në lidhje me detyrimet ligjore.
Për shembull, chatbot i AI pretendoi se shefat mund të pranonin bakshish nga punëtorët dhe se pronarët lejohen të diskriminojnë në bazë të burimit të të ardhurave – të dyja këshilla të gabuara.
Dështon Chatbot?
I lançuar në tetor 2023 nga administrata e Kryetarit Adams si një zgjerim i portalit MyCity, chatbot, i përshkruar si “një dyqan me një ndalesë për shërbimet dhe përfitimet e qytetit”, mundësohet nga shërbimet Azure të Microsoft. Pavarësisht synimit të tij për të shërbyer si një burim i besueshëm i burimeve të informacionit direkt nga faqet e internetit të qeverisë së qytetit, programi pilot është gjetur të gjenerojë përgjigje të gabuara.
Një shembull i dhënë nga Markup sheh chatbot që pohon se bizneset mund të funksionojnë si institucione pa para, pavarësisht ndalimit të Nju Jorkut në vitin 2020 për praktika të tilla.
Duke iu përgjigjur raportit, Leslie Brown, zëdhënëse për Zyrën e Teknologjisë dhe Inovacionit në NYC, pranoi papërsosmëritë e chatbot-it, duke theksuar përpjekjet e vazhdueshme për të rafinuar mjetin e AI:
“Në përputhje me parimet kryesore të qytetit të besueshmërisë dhe transparencës rreth AI, faqja informon përdoruesit se produkti beta i shënuar qartësisht pilot duhet të përdoret vetëm për përmbajtje të lidhura me biznesin, u tregon përdoruesve se ka rreziqe të mundshme dhe i inkurajon ata nëpërmjet mohimit që të dyfishohen. -kontrolloni përgjigjet e tij me lidhjet e dhëna dhe mos i përdorni ato si zëvendësim për këshilla profesionale.”
Pas një periudhe muaji të mjaltit prej muajsh, të çarat kanë filluar të shfaqen teksa bizneset dhe agjencitë qeveritare fillojnë të vënë në dyshim besueshmërinë, sigurinë dhe sigurinë e inteligjencës artificiale, me shumë ndalime imponuese dhe të tjera që vendosin rregulla strikte.