$MU acaba de anunciar la mayor instalación de fabricación de semiconductores en la historia de EE. UU. con un megafábrica de memoria avanzada de $100B en Nueva York. La memoria es solo una capa, así que aquí está cómo se ve la reubicación de la IA a lo largo de toda la pila: Diseño de Chips de IA • $NVDA define la arquitectura predeterminada para el entrenamiento de IA y una parte creciente de la inferencia • $AMD proporciona la segunda pila de GPU crítica que evita que la economía de IA dependa de un solo proveedor • $GOOGL diseña TPUs para internalizar las cargas de trabajo de IA y defender los márgenes • $AMZN construye Trainium e Inferentia para controlar los costos de inferencia dentro de AWS • $INTC diseña CPUs y aceleradores mientras se esfuerza por restablecer la relevancia de la fabricación nacional • $MSFT diseña silicio personalizado para optimizar la pila de IA de Azure de extremo a extremo Co-Diseñadores de Chips de IA • $AVGO co-diseña silicio personalizado con hiperescaladores uniendo computación, memoria y redes en sistemas de IA específicos para cargas de trabajo • $MRVL habilita aceleradores personalizados y conexiones de alta velocidad ajustadas para el entrenamiento e inferencia de IA IA en el Borde • $AAPL incrusta la inferencia directamente en dispositivos de consumo • $QCOM escala IA de bajo consumo en móviles y puntos finales de borde EDA e IP • $SNPS, $CDNS suministran las herramientas de diseño por las que debe pasar cada chip avanzado de IA antes de que pueda existir • $ARM licencia las arquitecturas de CPU incrustadas en sistemas de IA de centros de datos, borde y móviles Fundiciones • $TSM es la fábrica que fabrica los chips de los que depende toda la pila de IA • $INTC es la segunda fuente estratégica que intenta reubicar la fabricación avanzada de chips Equipos de Fab de Wafer • $ASML es el rey de la IA ya que cada chip de nodo avanzado se construye utilizando sus máquinas de litografía...