Kan vi bygge AI-brikker som genererer bilder av høy kvalitet ved å bruke 10 000 × mindre energi enn dagens GPUer? Forskningsartikkel: "En effektiv probabilistisk maskinvarearkitektur for diffusjonslignende modeller" Dette arbeidet avslører en full CMOS-arkitektur (all-transistor) som naturlig kjører generative modeller i diffusjonsstil – ikke med strømkrevende nevrale nettverk, men med energibasert probabilistisk prøvetaking. Ved å kjede sammen kompakte denoising-modeller (DTM-er) og utnytte fysisk tilfeldighet i standard 65 nm-brikker, produserer systemet bilder på nivå med GPU-er, men bruker bare 1,6 nanojoule per Fashion-MNIST-prøve – noe som reduserer energien med fire størrelsesordener. Treningen stabiliseres via en ny adaptiv straff, og tilnærmingen skaleres til millimeterstort silisium uten eksotisk maskinvare. Resultater: Matcher eller slår GAN/VAE/diffusjonskvalitet ved ~10 000× lavere energi; 70×70 rutenett, 8-lags stabler, åpen kildekode-verktøy utgitt. Få hele analysen her: alfa identifisert $yne