$MU acaba de anunciar a maior fábrica de semicondutores da história dos EUA, com uma megafábrica de memória avançada de US$ 100 bilhões em Nova York. A memória é apenas uma camada, então aqui está como é a localização da IA em toda a pilha: Design de Chips de IA • $NVDA define a arquitetura padrão para treinamento de IA e uma parcela crescente de inferência • $AMD fornece a segunda pilha crítica de GPUs que impede que a economia da IA dependa de um único fornecedor • $GOOGL projeta TPUs para internalizar cargas de trabalho de IA e defender margens • $AMZN constrói Trainium & Inferentia para controlar custos de inferência dentro da AWS • $INTC projeta CPUs e aceleradores enquanto busca restabelecer a relevância da manufatura doméstica • $MSFT projeta silício personalizado para otimizar a pilha de IA do Azure de ponta a ponta Co-Desenvolvedores de Chips de IA • $AVGO co-projeta silício personalizado com hiperescaladores que conectam computação, memória e redes a sistemas de IA específicos para carga de trabalho • $MRVL permite aceleradores personalizados e interconexões de alta velocidade ajustadas para treinamento e inferência de IA Edge AI • $AAPL incorpora inferência diretamente em dispositivos de consumo • $QCOM escala IA de baixo consumo em endpoints móveis e de borda EDA & IP • $SNPS, $CDNS fornece as ferramentas de design que todo chip avançado de IA precisa passar antes de existir • $ARM licencia as arquiteturas de CPU embarcadas em data centers, edge e sistemas móveis de IA Fundições • $TSM é a fábrica que fabrica os chips dos quais toda a pilha de IA depende • $INTC é a segunda fonte estratégica que tenta reestruturar a fabricação avançada de chips Equipamento de Fabricação de Wafer • $ASML é o kingmaker da IA, já que todo chip de nó avançado é construído usando suas máquinas de litografia...