$MU baru saja mengumumkan fasilitas manufaktur semikonduktor terbesar dalam sejarah AS dengan megafab memori canggih senilai $100 miliar di New York. Memori hanya satu lapisan, jadi inilah tampilan onshoring AI di seluruh tumpukan penuh: Desain Chip AI • $NVDA mendefinisikan arsitektur default untuk pelatihan AI & pangsa inferensi yang semakin meningkat • $AMD menyediakan tumpukan GPU kedua yang penting yang mencegah ekonomi AI mengandalkan satu pemasok • $GOOGL merancang TPU untuk menginternalisasi beban kerja AI dan mempertahankan margin • $AMZN membangun Trainium & Inferentia untuk mengontrol biaya inferensi di dalam AWS • $INTC merancang CPU & akselerator sambil mendorong untuk membangun kembali relevansi manufaktur domestik • $MSFT merancang silikon khusus untuk mengoptimalkan tumpukan AI Azure dari ujung ke ujung Rekan Desainer Chip AI • $AVGO mendesain bersama silikon khusus dengan hyperscaler yang mengikat komputasi, memori & jaringan ke dalam sistem AI khusus beban kerja • $MRVL memungkinkan akselerator khusus & interkoneksi berkecepatan tinggi yang disetel untuk pelatihan & inferensi AI AI Tepi • $AAPL menyematkan inferensi langsung ke perangkat konsumen • $QCOM menskalakan AI berdaya rendah di seluruh titik akhir seluler & edge EDA & IP • $SNPS, $CDNS memasok alat desain yang harus dilalui setiap chip AI canggih sebelum dapat ada • $ARM melisensikan arsitektur CPU yang disematkan di seluruh pusat data, sistem AI edge & seluler Pengecoran • $TSM adalah pabrik yang memproduksi chip yang bergantung pada seluruh tumpukan AI • $INTC adalah sumber kedua strategis yang mencoba untuk memulihkan manufaktur chip canggih Peralatan Fab Wafer • $ASML adalah pembuat raja AI karena setiap chip node canggih dibangun menggunakan mesin litografinya...