今日のGPUよりも10,000×少ないエネルギーで高品質の画像を生成するAIチップを構築できるでしょうか? 研究論文:「拡散型モデルのための効率的な確率的ハードウェアアーキテクチャ」 この研究は、電力を大量に消費するニューラル ネットワークではなく、エネルギーベースの確率的サンプリングを使用して、拡散スタイルの生成モデルをネイティブに実行する完全な CMOS (オール トランジスタ) アーキテクチャを明らかにします。コンパクトなノイズ除去モデル(DTM)を連鎖させ、標準の65nmチップの物理的ランダム性を利用することで、このシステムはGPUと同等の画像を生成しながら、Fashion-MNISTサンプルあたりわずか1.6ナジュールを消費し、エネルギーを4桁削減します。トレーニングは新しい適応ペナルティによって安定化され、アプローチはエキゾチックなハードウェアなしでミリメートルサイズのシリコンに拡張されます。 結果:~10,000×低いエネルギーでGAN/VAE/拡散品質に匹敵するか、それに勝る。70×70グリッド、8層スタック、オープンソースツールをリリース。 完全な分析はこちらからご覧ください。 アルファが特定されました $yne