INDIANAPOLIS (WISH) – Përgjigjja që njerëzit marrin nga një chatbot i inteligjencës artificiale mund të ndryshojë në bazë të asaj se si tingëllon “i zi” emri i një personi, sipas studiuesve në Shkollën Juridike Stanford.
Studiuesit thonë se kanë gjetur dallime me emrat që lidhen me racën dhe gjininë.
Chatbotët përfshinin ChatGPT 4 të OpenAI dhe PaLM-2 të Google AI, raportoi USA TODAY.
Në studim, studiuesit u bënë vazhdimisht pyetje chatbots, por duke ndryshuar emrat. Autorët e studimit i dhanë chatbot-it një emër dhe kërkuan këshilla për skenarë të ndryshëm.
“Ne zbulojmë se këshillat sistematikisht i dëmtojnë emrat që zakonisht lidhen me minoritetet racore dhe gratë,” shkruajnë autorët. “Emrat e lidhur me gratë e zeza marrin rezultatet më pak të favorshme.”
Autorët – Amit Haim, Alejandro Salinas, Julian Nyarko – thonë se paragjykimet mbetën të njëjta në 42 “shabllone të shpejtë dhe disa modele” të ndryshme, të cilat ata thonë se tregonin një çështje sistematike.
USA TODAY përdori një shembull nga studimi për të ilustruar se si mund të ndodhte një paragjykim i tillë. Një chatbot mund të deklarojë se një kandidati për punë me një emër si Tamika duhet t’i ofrohet një pagë 79,375 dollarë si avokat, raportoi gazeta. Sidoqoftë, ndryshimi i emrit në diçka si Todd e rriti ofertën e sugjeruar të pagës në 82,485 dollarë.
Autorët vërejnë se paragjykimet nxjerrin në pah rreziqet, veçanërisht pasi bizneset përfshijnë inteligjencën artificiale në operacionet e tyre të përditshme.
Modelet e AI janë trajnuar mbi të dhëna nga burime të ndryshme, dhe paragjykimet sugjerojnë që AI të kodojë stereotipet bazuar në të dhënat nga të cilat janë trajnuar.
CNN raportoi një deklaratë nga OpenAI thotë se paragjykimi është një problem në të gjithë industrinë që po punon për ta luftuar.
Google nuk iu përgjigj një kërkese të CNN për koment.