サムスンは、優れたAIモデルは必ずしも大規模で、学習に数百万ドルもの費用がかかる必要はないことを証明しようとしています。小さなモデルでも、数千倍も規模の大きいAIモデルと競合し、さらには打ち負かすことも可能なのです。
カナダのモントリオールにあるサムスン先端技術研究所(SAIT)の人工知能の上級研究員であるアレクシア・ジョリクール=マルティノー氏は最近、「Less is More」と題した新しい論文を発表した。 (mさらに)その中で、同社は 錫y 再帰モデル (TRM)。記事の全文タイトル 少ないほど豊か:小さなネットワークによる再帰推論 TRMは700万のパラメータと2層の人工知能モデルを使用していることが明らかになりました。このモデルは1000近くの例で学習されており、o3-などの主要な競合モデルよりも優れた性能を発揮しています。mini OpenAIと Gemini 2.5 Pro。
TRMは、数独、迷路、パズルといった構造化された視覚的なグリッドベースの問題において、ARC-AGIベンチマークで非常に優れたパフォーマンスを発揮しました。この研究用AIベンチマークは、一般的に人工知能モデルにとって非常に難しいと考えられています。
具体的には、TRM は ARC-AGI ベンチマークで次の結果を達成しました。
- Sudoku-Extremeの精度は87%以上
- 迷路パズルの正解率は85%
- ARC-AGI-1の精度は45%
- ARC-AGI-2の精度は8%
"複雑な課題を解決するために、大企業が何百万ドルもかけて訓練した大規模モデルに頼らなければならないという考えは間違っている」 ジョリクール=マルティノー氏はソーシャルネットワークXでこう述べた。 「現在、LLMの活用に過度の注目が集まっています (大きな言語 モデル 新しい方向性を設計し、拡大することよりも、 彼女は付け加えた。
興味があるかもしれません
この AI モデルは、AI を動かす数十億ドル規模の大規模なパラメトリック モデルをトレーニングするために必要な GPU と処理能力への大規模な投資がなくても、有能な AI の開発が可能であることを証明することを目的としています。 chatLLM 取得済みの靴。
この記事がサムスン マガジン専用に書かれたもので、他のどこにも見つからないというのは興味深いですね 😁 客観性万歳!😅