$MU anunțat recent cea mai mare fabrică de semiconductori din istoria SUA, cu o megafabrică de memorie avansată de 100 miliarde de dolari în New York. Memoria este doar un singur strat, așa că iată cum arată onshoring-ul AI pe întreaga stivă: Proiectarea cipurilor AI • $NVDA definește arhitectura implicită pentru antrenamentul AI și o pondere tot mai mare a inferenței • $AMD oferă a doua stivă critică de GPU-uri care împiedică economia AI să se bazeze pe un singur furnizor • $GOOGL proiectează TPU-uri pentru a internaliza sarcinile de lucru AI și a apăra marjele • $AMZN construiește Trainium & Inferentia pentru a controla costurile de inferență în AWS • $INTC proiectează procesoare și acceleratoare, încercând totodată să restabilească relevanța producției interne • $MSFT proiectează siliciu personalizat pentru a optimiza stack-ul AI al Azure de la un capăt la altul Co-designeri AI Chip • $AVGO co-proiectează siliciu personalizat cu hyperscalere care leagă calculul, memoria și rețelistica în sisteme AI specifice sarcinii de lucru • $MRVL permite acceleratoare personalizate și interconectări de mare viteză reglate pentru antrenament și inferență AI Edge AI • $AAPL încorporează inferența direct în dispozitivele de consum • $QCOM scalează AI cu consum redus de energie pe endpoint-uri mobile și edge EDA & IP • $SNPS, $CDNS furnizează instrumentele de proiectare prin care trebuie să treacă orice cip AI avansat înainte de a putea exista • $ARM licențiază arhitecturile CPU integrate în sistemele AI din centre de date, edge și mobile Turnători • $TSM este fabrica care produce cipurile de care depinde întregul stack AI • $INTC este a doua sursă strategică care încearcă să restabilizeze producția avansată de cipuri Echipamente de tip wafer fab • $ASML este factorul AI, deoarece fiecare cip nod avansat este construit folosind mașinile sale de litografie...