Zatvori oglas

Samsung pokušava dokazati da sposoban AI model ne mora biti velik i koštati milijune dolara za obuku. Mali model također može konkurirati, pa čak i pobijediti AI modele koji su tisuće puta veći.

Alexia Jolicoeur-Martineau, viša istraživačica umjetne inteligencije na Samsungovom naprednom institutu za tehnologiju (SAIT) u Montrealu u Kanadi, nedavno je objavila novi rad pod naslovom Manje je više (mima još), u kojem je najavljeno Kositary Rekurzijski model (TRM). Članak s punim naslovom Manje je više: Rekurzivno zaključivanje s malim mrežama otkrilo je da TRM koristi model umjetne inteligencije sa sedam milijuna parametara i dva sloja. Obučen je na gotovo tisuću primjera i još uvijek nadmašuje vodeće konkurentske modele, poput o3-mini od OpenAI-a i Gemini 2.5 Pro.

TRM je postigao iznimno dobre rezultate na ARC-AGI benchmarku na strukturiranim, vizualnim problemima temeljenim na mreži kao što su Sudoku, labirinti i zagonetke. Ovaj istraživački AI benchmark općenito se smatra vrlo teškim za modele umjetne inteligencije.

Konkretno, TRM je postigao sljedeće rezultate u ARC-AGI mjerilu:

  • Više od 87% točnosti u Sudoku-Extreme
  • 85% točnosti na zagonetkama tipa "labirint-teško"
  • 45% točnosti u ARC-AGI-1
  • 8% točnosti u ARC-AGI-2

"Ideja da se netko mora oslanjati na velike modele koje je neka velika korporacija obučila za milijune dolara za rješavanje složenih zadataka je pogrešna. Jolicoeur-Martineau je rekla na društvenoj mreži X. „Trenutno se previše pozornosti posvećuje korištenju LLM-a.“ (veliki jezik modeli) nego osmišljavanje i širenje novih smjerova", dodala je.

Ovaj model umjetne inteligencije ima za cilj dokazati da je razvoj sposobne umjetne inteligencije moguć, čak i ako nedostaju ogromna ulaganja u grafičke procesore i procesorsku snagu potrebnu za treniranje većih, višemilijardnih parametarskih modela koji je pokreću. chatcipele s LLM-om.

Danas najčitaniji

.