¿Podemos construir chips de IA que generen imágenes de alta calidad utilizando 10,000× menos energía que las GPU actuales? Artículo de investigación: "Una arquitectura de hardware probabilística eficiente para modelos similares a la difusión" Este trabajo revela una arquitectura CMOS completa (todas las transistores) que ejecuta de forma nativa modelos generativos de estilo difusión—no con redes neuronales que consumen mucha energía, sino con muestreo probabilístico basado en energía. Al encadenar modelos de denoising compactos (DTMs) y aprovechar la aleatoriedad física en chips estándar de 65 nm, el sistema produce imágenes comparables a las de las GPU, pero consume solo 1.6 nanojulios por muestra de Fashion-MNIST—reduciendo la energía en cuatro órdenes de magnitud. El entrenamiento se estabiliza mediante una nueva penalización adaptativa, y el enfoque se escala a silicio del tamaño de un milímetro sin hardware exótico. Resultados: Igual o supera la calidad de GAN/VAE/difusión a ~10,000× menos energía; rejillas de 70×70, pilas de 8 capas, herramientas de código abierto lanzadas. Obtén el análisis completo aquí: // alpha identified // $yne