Zavřít reklamu

Samsung se snaží dokázat, že schopný model umělé inteligence nemusí být velký a jeho trénování nemusí stát miliony dolarů. Malý model může být také schopen konkurovat, a dokonce i porazit modely umělé inteligence, které jsou tisíckrát větší.

Alexia Jolicoeur-Martineau, vedoucí výzkumnice v oblasti umělé inteligence na Samsung Advanced Institute of Technology (SAIT) v kanadském Montrealu, nedávno zveřejnila nový článek s názvem Less is More (méně je více), v němž oznámila Tiny Recursion Model (TRM). Článek s celým názvem Less is More: Recursive Reasoning with Tiny Networks odhalil, že TRM používá model umělé inteligence se sedmi miliony parametrů a dvěma vrstvami. Byl trénován na téměř tisíci příkladech, a přesto v některých náročných AI benchmarcích překonává přední konkurenční modely, jako je o3-mini od OpenAI a Gemini 2.5 Pro.

TRM si nadmíru dobře vedl v benchmarku ARC-AGI u strukturovaných, vizuálních problémů založených na mřížce, jako je Sudoku, bludiště nebo hádanky. Tento výzkumný AI benchmark je obecně pro modely umělé inteligence považován za velice obtížný.

TRM v benchmarku ARC-AGI konkrétně dosáhl těchto výsledků:

  • Více než 87% přesnost v Sudoku-Extreme
  • 85% přesnost v hádankách Maze-Hard
  • 45% přesnost v ARC-AGI-1
  • 8% přesnost v ARC-AGI-2

Představa, že se člověk musí spoléhat na velké modely vytrénované za miliony dolarů nějakou velkou korporací, aby mohl řešit složité úkoly, je mylná,“ uvedla Jolicoeur-Martineau na sociální síti X. „V současnosti se až moc pozornosti věnuje využívání LLM (velkých jazykových modelů) než navrhování a rozšiřování nových směrů,“ dodala.

Tento model umělé inteligence si klade za cíl dokázat, že je možný vývoj schopné umělé inteligence, i když postrádá masivní investice do grafických procesorů a výkonu potřebného k trénování větších, multimiliardových parametrických modelů, které pohánějí chatboty s LLM.

Dnes nejčtenější

.