Luk annoncen

Samsung forsøger at bevise, at en kapabel AI-model ikke behøver at være stor og koste millioner af dollars at træne. En lille model kan også være i stand til at konkurrere med, og endda slå, AI-modeller, der er tusindvis af gange større.

Alexia Jolicoeur-Martineau, seniorforsker i kunstig intelligens ved Samsung Advanced Institute of Technology (SAIT) i Montreal, Canada, har for nylig udgivet en ny artikel med titlen "Less is More". (mder er mere), hvori den annoncerede Tiny Rekursionsmodel (TRM). Artikel med fuld titel Mindre er mere: Rekursiv ræsonnement med små netværk afslørede, at TRM bruger en kunstig intelligensmodel med syv millioner parametre og to lag. Den blev trænet på næsten tusind eksempler og klarer sig stadig bedre end førende konkurrerende modeller, såsom o3-mini fra OpenAI og Gemini 2.5 Pro.

TRM klarede sig exceptionelt godt på ARC-AGI-benchmarken på strukturerede, visuelle gitterbaserede problemer såsom Sudoku, labyrinter og puslespil. Denne AI-benchmark i forskningsøjemed anses generelt for at være meget vanskelig for kunstig intelligens-modeller.

Specifikt opnåede TRM følgende resultater i ARC-AGI-benchmarken:

  • Mere end 87% nøjagtighed i Sudoku-Extreme
  • 85% nøjagtighed på Maze-Hard-gåder
  • 45% nøjagtighed i ARC-AGI-1
  • 8% nøjagtighed i ARC-AGI-2

'Ideen om, at man skal stole på store modeller, der er trænet for millioner af dollars af en stor virksomhed for at løse komplekse opgaver, er forkert. Jolicoeur-Martineau skrev på det sociale netværk X. "Der er i øjeblikket for meget opmærksomhed på brugen af ​​LLM" (stort sprog modeller) end at designe og udvide nye retninger," tilføjede hun.

Denne AI-model har til formål at bevise, at udviklingen af ​​kapabel AI er mulig, selvom den mangler den massive investering i GPU'er og processorkraft, der er nødvendig for at træne de større parametriske modeller til flere milliarder dollars, der driver den. chatsko med LLM.

Dagens mest læste

.