O documento TRM parece ser um avanço significativo em IA. Ele destrói a fronteira de Pareto nos benchmarks ARC AGI 1 e 2 (e na resolução de Sudoku e Labirintos) com um custo estimado < $0,01 por tarefa e um custo < $500 para treinar o modelo de 7M em 2 H100s durante 2 dias. [Especificações de treinamento e teste] Para o ARC, ele foi treinado com 160 exemplos do ConceptARC. No momento do teste, utiliza a resposta mais comum de 1000 ampliações e incorpora uma forma fixa da tarefa na entrada. [Implicações para a indústria] A maioria das empresas de IA hoje utiliza LLMs de propósito geral com prompts para tarefas. Para tarefas específicas, modelos menores podem não apenas ser mais baratos, mas de qualidade muito superior! Startups poderiam (e deveriam) treinar modelos por < $1000 para "subtarefas de comprimento fixo" específicas (extração específica de PDF, previsão de séries temporais, etc.) e usá-los como uma ferramenta para o modelo geral, não apenas para aumentar o desempenho, mas para construir alguma propriedade intelectual significativa na tarefa que estão tentando automatizar.
Fonte:
26,18K