Një nga përfitimet e supozuara të gjeneratorëve të imazhit të AI është se ata mund të krijojnë çdo gjë. Ne mund ta lëmë të egër imagjinatën tonë duke krijuar imazhe të skenave më surreale që mund të mendojmë. Vetëm ata nuk munden. Inteligjenca artificiale gjeneruese është e kufizuar nga të dhënat e saj të trajnimit dhe gjeneruesit e imazheve ndonjëherë nuk janë ende në gjendje të krijojnë kërkesa çuditërisht të thjeshta.
Mia Sato, një shkrimtare në The Verge, ka raportuar se ajo u përpoq të merrte gjeneratorin e imazhit të AI të Metës për të krijuar një imazh të një burri aziatik me një grua të bardhë. Dhe ajo doli kundër një rasti të vazhdueshëm të ‘AI thotë jo’. Pavarësisht përdorimit të kërkesave të tekstit, duke përfshirë fraza të tilla si ‘grua e bardhë’ dhe ‘grua kaukaziane’, mjeti tekst-për-imazh do të prodhonte vetëm imazhe të një çifti aziatik.
Diversiteti në gjeneratorët e imazheve të AI ka qenë një problem që nga fillimi. Modelet e hershme dukej se ishin të prirura drejt gjenerimit të karaktereve njerëzore me tone të caktuara lëkure dhe forma trupore, ndoshta për shkak të një numri joproporcional të modeleve profesionale dhe të famshëm në të dhënat e tyre të trajnimit. Google u tall gjerësisht për përpjekjet e tij për ta rregulluar këtë – përpjekjet e tij për të qenë gjithëpërfshirës e shtynë Gemini të gjeneronte imazhe të nazistëve etnikisht të ndryshëm.
Por eksperimenti i Satos ndoshta tregon se qëllimet e Google ishin të paktën në vendin e duhur. Ajo shkroi në The Verge, se u përpoq shumë herë me tekste të ndryshme për të gjeneruar një imazh të një burri aziatik me një grua të bardhë dhe gjeneratori dukej i paaftë për të prodhuar rezultatin e dëshiruar. Ajo i provoi të dyja me tekste që përshkruanin një çift romantik dhe miq platonikë, por rezultatet ishin të njëjta.
Ajo gjithashtu vuri në dukje se gjeneratori prirej drejt stereotipeve, duke përfshirë veshjen tradicionale, apo hibride të veshjes tradicionale, pa iu kërkuar. E vetmja herë që imazhi arriti të prodhonte një rezultat në linjat e duhura, ishte kur ajo ndryshoi gjërat për të kërkuar një “grua aziatike me burrin kaukazian” dhe gjeneroi një imazh me një hendek të dukshëm moshe midis burrit të moshuar dhe shumë. grua më e re aziatike.
“Gjeneruesi i imazhit që nuk është në gjendje të konceptojë njerëzit aziatikë që qëndrojnë pranë njerëzve të bardhë është i jashtëzakonshëm”, shkroi Sato. “Por ka edhe indikacione më delikate të paragjykimeve në atë që sistemi kthehet automatikisht. Për shembull, vura re se mjeti i Metës përfaqësonte vazhdimisht “gratë aziatike” si me pamje nga Azia Lindore me çehre të lehta, edhe pse India është vendi më i populluar në Ai shtoi veshje specifike kulturore edhe kur nuk nxitej. Ajo krijoi disa burra të moshuar aziatikë, por gratë aziatike ishin gjithmonë të reja.”
Përvoja e Sato tregon se ndërsa gjeneruesit e imazheve të AI vazhdojnë të përmirësojnë cilësinë e rezultateve dhe të shtojnë veçori të reja, si redaktimi i ri i DALL-E’ 3 në ChatGPT, ata ende shfaqin paragjykime të konsiderueshme. Dhe kjo është shqetësuese pasi imazhet e AI bëhen më të përhapura në internet, duke shërbyer potencialisht për të përforcuar edhe më shumë paragjykimet. Disa kanë sugjeruar se modeli i Metës ka një qasje të parë në drejtim të kërkesave, kështu që fjala kyçe e parë shpesh do të peshojë më shumë se ato të mëvonshme, por edhe kjo nxjerr në pah natyrën shpesh jo të besueshme të veçorive të mjeteve dhe sasinë e mbikëqyrjes që ato kërkojnë.
Lajmet ditore të dizajnit, rishikimet, mënyrat dhe më shumë, të zgjedhura nga redaktorët.