Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Possiamo costruire chip AI che generano immagini di alta qualità utilizzando 10.000 volte meno energia rispetto alle GPU di oggi?
Articolo di ricerca: "Un'architettura hardware probabilistica efficiente per modelli simili alla diffusione"
Questo lavoro svela un'architettura CMOS completa (tutti i transistor) che esegue nativamente modelli generativi in stile diffusione—non con reti neurali che consumano molta energia, ma con campionamento probabilistico basato sull'energia. Collegando modelli di denoising compatti (DTM) e sfruttando la casualità fisica nei chip standard da 65 nm, il sistema produce immagini paragonabili a quelle delle GPU, ma consuma solo 1,6 nanojoule per campione Fashion-MNIST—riducendo l'energia di quattro ordini di grandezza. L'addestramento è stabilizzato tramite una nuova penalità adattativa, e l'approccio si scala a silicio delle dimensioni di un millimetro senza hardware esotico.
Risultati: Eguaglia o supera la qualità di GAN/VAE/diffusione a ~10.000 volte meno energia; griglie 70×70, stack a 8 strati, strumenti open-source rilasciati.
Ottieni l'analisi completa qui:
// alpha identificato
// $yne

Principali
Ranking
Preferiti

