Anúncio fechado

A Samsung está tentando provar que um modelo de IA capaz não precisa ser grande e custar milhões de dólares para ser treinado. Um modelo pequeno também pode competir e até superar modelos de IA milhares de vezes maiores.

Alexia Jolicoeur-Martineau, pesquisadora sênior em inteligência artificial no Samsung Advanced Institute of Technology (SAIT) em Montreal, Canadá, publicou recentemente um novo artigo intitulado Less is More (mhá mais), no qual anunciou Estanhoy Modelo de Recursão (TRM). Artigo com título completo Menos é mais: raciocínio recursivo com pequenas redes revelou que o TRM utiliza um modelo de inteligência artificial com sete milhões de parâmetros e duas camadas. Ele foi treinado em quase mil exemplos e ainda supera os principais modelos concorrentes, como o o3-mini da OpenAI e Gemini 2.5 Pro.

O TRM teve um desempenho excepcional no benchmark ARC-AGI em problemas estruturados e baseados em grades visuais, como Sudoku, labirintos e quebra-cabeças. Este benchmark de IA para pesquisa é geralmente considerado muito difícil para modelos de inteligência artificial.

Especificamente, a TRM alcançou os seguintes resultados no benchmark ARC-AGI:

  • Mais de 87% de precisão no Sudoku-Extreme
  • 85% de precisão em quebra-cabeças Maze-Hard
  • 45% de precisão no ARC-AGI-1
  • 8% de precisão no ARC-AGI-2

"A ideia de que é preciso confiar em grandes modelos treinados por milhões de dólares por alguma grande corporação para resolver tarefas complexas é errada”, Jolicoeur-Martineau disse na rede social X. “Atualmente, há muita atenção dada ao uso do LLM (linguagem ampla modelos) do que projetar e expandir novas direções", ela adicionou.

Este modelo de IA visa provar que o desenvolvimento de uma IA capaz é possível, mesmo que não tenha o investimento massivo em GPUs e poder de processamento necessários para treinar os modelos paramétricos maiores e multibilionários que a alimentam. chatsapatos com LLM.

O mais lido de hoje

.