Können wir KI-Chips entwickeln, die hochwertige Bilder mit 10.000× weniger Energie erzeugen als die heutigen GPUs? Forschungsarbeit: "Eine effiziente probabilistische Hardware-Architektur für diffusionsähnliche Modelle" Diese Arbeit enthüllt eine vollständige CMOS (All-Transistor)-Architektur, die nativ diffusionsartige generative Modelle ausführt – nicht mit energiehungrigen neuronalen Netzwerken, sondern mit energie-basiertem probabilistischem Sampling. Durch das Verketten kompakter Denoising-Modelle (DTMs) und die Ausnutzung physikalischer Zufälligkeit in Standard-65-nm-Chips produziert das System Bilder, die mit GPUs vergleichbar sind, verbraucht jedoch nur 1,6 Nanojoule pro Fashion-MNIST-Beispiel – was den Energieverbrauch um vier Größenordnungen senkt. Das Training wird durch eine neuartige adaptive Strafe stabilisiert, und der Ansatz skaliert auf millimetergroßen Silizium ohne exotische Hardware. Ergebnisse: Entspricht oder übertrifft die Qualität von GAN/VAE/Diffusion bei ~10.000× niedrigerem Energieverbrauch; 70×70 Gitter, 8-Schichten-Stapel, Open-Source-Tools veröffentlicht. Hier die vollständige Analyse: // alpha identifiziert // $yne