Në garën marramendëse për të ndërtuar sisteme gjeneruese të AI, mantra e industrisë së teknologjisë ka qenë më e madhe dhe më e mirë, pa marrë parasysh çmimin.
Tani kompanitë e teknologjisë kanë filluar të përqafojnë teknologji më të vogla të AI që nuk janë aq të fuqishme, por kushtojnë shumë më pak. Dhe për shumë klientë, kjo mund të jetë një shkëmbim i mirë.
Të martën, Microsoft prezantoi tre modele më të vogla të AI që janë pjesë e një familje teknologjie që kompania e ka quajtur Phi-3. Kompania tha se edhe më i vogli nga të tre performoi pothuajse po aq mirë sa GPT-3.5, sistemi shumë më i madh që mbështeti chatbotin ChatGPT të OpenAI-t kur ai mahniti botën pas lëshimit të tij në fund të 2022.
Modeli më i vogël Phi-3 mund të përshtatet në një smartphone, kështu që mund të përdoret edhe nëse nuk është i lidhur me internetin. Dhe mund të funksionojë në llojet e çipave që fuqizojnë kompjuterët e zakonshëm, në vend të procesorëve më të shtrenjtë të prodhuar nga Nvidia.
Për shkak se modelet më të vogla kërkojnë më pak përpunim, ofruesit e mëdhenj të teknologjisë mund t’i ngarkojnë klientët më pak për t’i përdorur ato. Ata shpresojnë që kjo do të thotë që më shumë klientë mund të aplikojnë AI në vende ku modelet më të mëdha dhe më të avancuara kanë qenë shumë të shtrenjta për t’u përdorur. Megjithëse Microsoft tha se përdorimi i modeleve të reja do të ishte “thelbësisht më i lirë” sesa përdorimi i modeleve më të mëdhenj si GPT-4, ai nuk ofroi specifika.
Sistemet më të vogla janë më pak të fuqishme, që do të thotë se mund të jenë më pak të sakta ose të tingëllojnë më të sikletshme. Por Microsoft dhe kompanitë e tjera të teknologjisë po vënë bast se klientët do të jenë të gatshëm të heqin dorë nga disa performanca nëse kjo do të thotë se më në fund mund të përballojnë AI
Klientët imagjinojnë shumë mënyra për të përdorur AI, por me sistemet më të mëdha “ata janë si, “Oh, por ju e dini, ata mund të bëhen paksa të shtrenjta”, tha Eric Boyd, një ekzekutiv i Microsoft. Modelet më të vogla, pothuajse sipas definicionit, janë më të lira për t’u vendosur, tha ai.
Zoti Boyd tha se disa klientë, si mjekët apo përgatitësit e taksave, mund të justifikojnë kostot e sistemeve më të mëdha dhe më të sakta të AI, sepse koha e tyre ishte kaq e vlefshme. Por shumë detyra mund të mos kenë nevojë për të njëjtin nivel saktësie. Reklamuesit në internet, për shembull, besojnë se mund të synojnë më mirë reklamat me AI, por ata kanë nevojë për kosto më të ulëta për të qenë në gjendje të përdorin sistemet rregullisht.
“Dua që mjeku im t’i rregullojë gjërat si duhet,” tha zoti Boyd. “Situata të tjera, ku unë po përmbledh komentet e përdoruesve në internet, nëse është pak larg, nuk është fundi i botës.”
Chatbots drejtohen nga modele të mëdha gjuhësore, ose LLM, sisteme matematikore që kalojnë javë të tëra duke analizuar libra dixhitalë, artikuj të Wikipedia, artikuj lajmesh, regjistrat e bisedave dhe tekste të tjera të nxjerra nga i gjithë interneti. Duke identifikuar modelet në të gjithë atë tekst, ata mësojnë të gjenerojnë tekst vetë.
Por LLM-të ruajnë kaq shumë informacione, duke marrë atë që nevojitet për çdo bisedë kërkon fuqi të konsiderueshme kompjuterike. Dhe kjo është e shtrenjtë.
Ndërsa gjigantët e teknologjisë dhe start-ups si OpenAI dhe Anthropic janë fokusuar në përmirësimin e sistemeve më të mëdha të AI, ata po konkurrojnë gjithashtu për të zhvilluar modele më të vogla që ofrojnë çmime më të ulëta. Meta dhe Google, për shembull, kanë nxjerrë modele më të vogla gjatë vitit të kaluar.
Meta dhe Google gjithashtu kanë “burim të hapur” këto modele, që do të thotë se çdokush mund t’i përdorë dhe modifikojë ato pa pagesë. Kjo është një mënyrë e zakonshme që kompanitë të marrin ndihmë nga jashtë për të përmirësuar softuerin e tyre dhe për të inkurajuar industrinë më të madhe që të përdorë teknologjitë e tyre. Microsoft është gjithashtu i hapur për të siguruar modelet e tij të reja Phi-3.
(New York Times paditi OpenAI dhe Microsoft në dhjetor për shkelje të së drejtës së autorit të përmbajtjes së lajmeve në lidhje me sistemet e AI.)
Pasi OpenAI publikoi ChatGPT, Sam Altman, shefi ekzekutiv i kompanisë, tha se kostoja e çdo bisede ishte “cent njëshifror” — një shpenzim i madh duke marrë parasysh se çfarë shërbimesh të njohura të internetit si Wikipedia po shërbejnë për fraksione të vogla të një centi.
Tani, studiuesit thonë se modelet e tyre më të vogla të paktën mund t’i afrohen performancës së chatbot-eve kryesore si ChatGPT dhe Google Gemini. Në thelb, sistemet ende mund të analizojnë sasi të mëdha të dhënash, por ruajnë modelet që ata identifikojnë në një paketë më të vogël që mund të shërbehet me më pak fuqi përpunuese.
Ndërtimi i këtyre modeleve është një shkëmbim midis fuqisë dhe madhësisë. Sébastien Bubeck, një studiues dhe nënkryetar në Microsoft, tha se kompania ndërtoi modelet e saj të reja më të vogla duke rafinuar të dhënat që pompoheshin në to, duke punuar për të siguruar që modelet të mësonin nga teksti me cilësi më të lartë.
Një pjesë e këtij teksti u krijua nga vetë AI – ato që njihen si “të dhëna sintetike”. Pastaj kuratorë njerëz punuan për të ndarë tekstin më të mprehtë nga pjesa tjetër.
Microsoft ka ndërtuar tre modele të ndryshme të vogla: Phi-3-mini, Phi-3-small dhe Phi-3-medium. Phi-3-mini, i cili do të jetë i disponueshëm të martën, është më i vogli (dhe më i lirë), por më pak i fuqishmi. Phi-3 Medium, i cili nuk është ende i disponueshëm, është më i fuqishmi, por më i madhi dhe më i shtrenjti.
Bërja e sistemeve mjaftueshëm të vogla për t’u futur drejtpërdrejt në një telefon ose kompjuter personal “do t’i bëjë ato shumë më të shpejta dhe më pak të kushtueshme”, tha Gil Luria, një analist në bankën e investimeve DA Davidson.