Iako ste definitivno svesni ChatGPT-a i možda znate da se veliki lingvistički modeli (LLM) koriste za obuku generativne veštačke inteligencije (AI), verovatno ne znate koliki je opseg računarske snage potreban da se ovi modeli osposobe za svrsishodnu upotrebu.
Osim toga, pošto su LLM, kao što je verzija koja se koristi za ChatGPT, po pravilu zasnovani na engleskom jeziku, nedovoljno se koriste kada su u pitanju akademska istraživanja i nedostatak jezičke raznolikosti predstavlja prepreku za dalju ekspanziju.
Univerzitet u Turkuu, sa sedištem u Finskoj, želeo je da to promeni i do sada je sarađivao sa 10 univerzitetskih istraživačkih laboratorija širom Evrope, koristeći LUMI superkompjuter za izgradnju potpuno novih velikih jezičkih modela na raznim evropskim jezicima. U budućnosti se nadaju da će stvoriti temeljne modele za barem sve zvanične jezike EU, kao i za nekoliko drugih, koji će se koristiti za akademsko istraživanje i obuku.
Pokretan AMD Instinct GPU-ima i EPYC CPU-ima, LUMI superkompjuter – nedavno rangiran kao najbrži superkompjuter u Evropi, kao i jedan od energetski najefikasnijih – omogućava TurkuNLP Grupi da kreira nove modele u razumnom vremenskom roku. Da ovo stavimo u kontekst, LUMI je dva reda veličine veći od mašina prethodne generacije dostupnih u Finskoj. Ranije je timu trebalo pola godine da prethodno obuči jezički model od milijardu parametara na računaru, ali sada samo dve sedmice da LUMI obradi oko 40 milijardi tokena, koji čine znakove, slogove ili reči.
Väinö Hatanpää, stručnjak za mašinsko učenje u CSC-u, rekao je o ovome: „Računarski kapacitet i mogućnost daljeg skaliranja pomoću LUMI-ja omogućavaju našim klijentima da pomere granice mašinskog učenja/AI.”
Kompletnu studiju slučaja možete pronaći na ovoj web stranici.
You must be logged in to post a comment.