Contáctanos
No se encontraron resultados.

Los 20 principales fabricantes de chips de IA: NVIDIA y sus competidores

Cem Dilmegani
Cem Dilmegani
actualizado el Feb 26, 2026
Vea nuestra normas éticas

Según nuestra experiencia ejecutando la prueba de rendimiento de GPU en la nube de AIMultiple con 10 modelos de GPU diferentes en 4 escenarios distintos, estas son las principales empresas de hardware de IA para cargas de trabajo en centros de datos. Siga los enlaces para ver nuestra justificación de cada selección:

Más de 20 fabricantes de chips de IA por categoría

Estos fabricantes de chips se centran en chips para centros de datos:

*Los modelos seleccionados se basan en los últimos anuncios.

**ACCEL fue desarrollado por científicos chinos en colaboración con Alibaba y la Corporación Internacional de Fabricación de Semiconductores de China (SMIC). 1

La clasificación se realiza por categoría. Los proveedores se clasifican según su cuota de mercado estimada dentro de las tres categorías principales (es decir, productor líder, nube pública, nube pública de IA), ya que se pueden estimar las cifras de ventas o el uso de la nube. Los proveedores de las tres últimas categorías (es decir, startup de IA, productor emergente, otros productores) se ordenan alfabéticamente.

5 proveedores de chips de IA para dispositivos móviles

*Se seleccionan los chips más populares y recientes.

5 chips de IA de borde

La demanda de procesamiento de baja latencia ha impulsado la innovación en los chips de IA para computación perimetral. Los procesadores de estos chips están diseñados para realizar cálculos de IA localmente en los dispositivos, en lugar de depender de soluciones basadas en la nube.

*Estos son los valores máximos indicados por los proveedores. TOPS significa tera operaciones por segundo.

Comprender las arquitecturas de chips de IA: GPU frente a ASIC

No todos los chips de IA son iguales. Si bien los proveedores mencionados anteriormente compiten en el mismo mercado, utilizan arquitecturas de chips fundamentalmente diferentes:

  • Las GPU (Unidades de Procesamiento Gráfico) son procesadores de propósito general que pueden manejar tanto el entrenamiento como la inferencia en una amplia gama de cargas de trabajo de IA. Los modelos NVIDIA y AMD dominan esta categoría.
  • Los ASIC (circuitos integrados de aplicación específica) están diseñados a medida para tareas específicas. Algunos admiten tanto el entrenamiento como la inferencia (TPU Google, AWS Trainium), mientras que otros son solo para inferencia (LPU Groq, AWS Inferentia).

Idea clave:

No todos los ASIC son solo para inferencia. Google TPU, AWS Trainium, Cerebras y SambaNova admiten tanto entrenamiento como inferencia, mientras que Groq LPU y AWS Inferentia se centran exclusivamente en la inferencia.

Esta distinción es importante para los compradores: las GPU ofrecen flexibilidad en diferentes cargas de trabajo de IA, mientras que los ASIC ofrecen un mejor rendimiento por vatio, pero son más difíciles de reprogramar cuando cambian las arquitecturas de los modelos.

Según TrendForce 2 las tasas de crecimiento de los envíos de servidores de IA, se prevé que los envíos de ASIC personalizados de los proveedores de servicios en la nube crezcan un 44,6 % en 2026, mientras que se espera que los envíos de GPU crezcan un 16,1 %. Esto indica un cambio en el panorama del hardware de IA, ya que los proveedores de servicios en la nube a gran escala invierten cada vez más en sus propios chips.

¿Cuáles son los principales fabricantes de chips de IA?

1. NVIDIA

NVIDIA diseña unidades de procesamiento gráfico (GPU) para el sector de los videojuegos desde la década de 1990. NVIDIA es un fabricante de chips sin fábrica propia que subcontrata la mayor parte de su fabricación a TSMC . Sus principales actividades comerciales incluyen:

Soluciones de IA para escritorio

DGX Spark (anteriormente Project Digits) es una supercomputadora de IA de escritorio para ingenieros de IA y científicos de datos que es:

  • Se estima que costará alrededor de 3.000 dólares.
  • Tiene aproximadamente el mismo tamaño que un Mac mini y funciona con el chip GB10 Grace Blackwell Superchip NVIDIA con 128 GB de memoria.
  • Capaz de gestionar la inferencia LLM y el ajuste fino de modelos con hasta 200 mil millones de parámetros, aprovechando NVLink-C2C para una comunicación de alta velocidad entre CPU y GPU.

Soluciones para centros de datos

La empresa fabrica chips de IA basados ​​en sus arquitecturas Ampere, Hopper y, más recientemente, Blackwell. Gracias al auge de la IA generativa , NVIDIA obtuvo excelentes resultados en los últimos años, alcanzó una valoración de un billón de dólares y consolidó su posición como líder en los mercados de GPU y hardware de IA. El siguiente gráfico muestra cómo han crecido los ingresos de NVIDIA en este segmento a lo largo de los años y cómo se ha convertido en la principal fuente de ingresos de la empresa.

Los conjuntos de chips NVIDIA están diseñados para resolver problemas empresariales en diversos sectores. Los chips DGX™ A100 y H100 han sido chips de IA insignia de Nvidia, diseñados para el entrenamiento y la inferencia de IA en centros de datos. 3 NVIDIA dieron seguimiento a estos con

  • Chips H200, B300 y GB300
  • Servidores HGX como el HGX H200 y el HGX B300 que combinan 8 de estos chips.
  • Las series NVL y GB200 SuperPod combinan aún más chips en grandes clústeres. 4

GPU en la nube

Gracias a la solidez de su oferta de centros de datos, NVIDIA casi tiene el monopolio del mercado de IA en la nube, ya que la mayoría de los proveedores de la nube solo ofrecen GPU NVIDIA como GPU en la nube .

NVIDIA también lanzó su oferta DGX Cloud , que proporciona infraestructura de GPU en la nube directamente a las empresas, sin pasar por los proveedores de la nube.

GPU para gráficos

Xbox utiliza un chipset desarrollado conjuntamente por NVIDIA y Microsoft. Las GPU de NVIDIA para usuarios minoristas incluyen la serie GeForce.

Novedades recientes

DGX Cloud Lepton

Presentada el 19 de mayo de 2025 en Computex, DGX Cloud Lepton de NVIDIA es una plataforma que conecta a desarrolladores de IA con proveedores de nube GPU de NVIDIA, como CoreWeave, Lambda y Crusoe. Permite un acceso flexible a recursos GPU para el entrenamiento e inferencia de modelos de IA, evitando las dependencias de los proveedores de nube tradicionales. Esto refuerza la estrategia de nube empresarial de NVIDIA. 5

NVIDIA Dinamo

Dynamo, anunciado en GTC 2025, es un nuevo marco de inferencia de código abierto diseñado para el despliegue de modelos de IA generativa de alto rendimiento y baja latencia en entornos distribuidos, aumentando el servicio de solicitudes hasta 30 veces en Blackwell, como se muestra en la figura siguiente. Este marco, compatible con herramientas populares como PyTorch y TensorRT-LLM, utiliza innovaciones como etapas de inferencia desagregadas y programación dinámica de GPU para optimizar el rendimiento y reducir los costos. Disponible en GitHub para desarrolladores e incluido en los microservicios NIM para soluciones empresariales, Dynamo facilita el servicio de IA generativa escalable y rentable desde sistemas de una a varias GPU. 6

Figura 1. Dynamo acelera significativamente el rendimiento de los modelos de IA. En concreto, proporciona una aceleración de 30x para el modelo 671B-R1 en la plataforma GB200 NVL72. Además, duplica con creces el rendimiento del modelo Llama 70B al usar GPU Hopper. 7

Servidores RTX PRO y fábrica de IA empresarial

Presentados en mayo de 2025 en Computex, los servidores RTX PRO, equipados con GPU RTX PRO 6000 Blackwell Server Edition, están diseñados para entornos de IA empresariales. Estos servidores ofrecen aceleración universal para aplicaciones de IA, diseño, ingeniería y negocios, y admiten cargas de trabajo como inferencia de IA multimodal, IA física y gemelos digitales en la plataforma Omniverse.

El diseño validado de la fábrica de IA empresarial (NVIDIA), que incorpora servidores RTX PRO, Ethernet Spectrum-X (NVIDIA), DPU BlueField (NVIDIA) y el software AI Enterprise (NVIDIA), permite a socios como Cadence, Foxconn y Lilly crear infraestructura de IA local. Esta iniciativa acelera la transición de la industria de TI, valorada en billones de dólares, hacia fábricas de IA aceleradas por GPU. 8

DeepSeek

El lanzamiento de la versión R1 de DeepSeek demostró que los modelos de última generación podían entrenarse con un número relativamente pequeño de GPU. Esto provocó una reducción en el precio de las acciones de NVIDIA. Si bien esto no constituye un consejo de inversión, puede ser positivo para NVIDIA, ya que cuanto mayor sea la utilidad de la potencia informática, más ampliamente debería utilizarse (es decir, la paradoja de Jevons). 9 ).

Sin embargo, dado que el rendimiento de los sistemas GPU mejora varias veces al año gracias a las mejoras en el diseño de los chips y la interconexión, los compradores harían bien en no comprar más allá de sus necesidades anuales, ya que esto puede llevar a tener sistemas obsoletos.

Aranceles y restricciones a la exportación

La patente NVIDIA ahora permite la exportación de procesadores de IA avanzados al mercado chino, lo que supone un cambio respecto a los requisitos anteriores que solo permitían vender versiones de menor rendimiento. Sin embargo, estas exportaciones se enfrentan a nuevos obstáculos logísticos y financieros: los chips fabricados en Taiwán ahora deben pasar por Estados Unidos para someterse a pruebas de terceros, lo que conlleva un nuevo arancel del 25 % por motivos de seguridad nacional.

A pesar de la recuperación del acceso a hardware de alta gama, los costos adicionales y la complejidad de la cadena de suministro siguen incentivando al gobierno chino y a la industria de chips a desarrollar alternativas locales competitivas. Si bien los chips chinos actualmente tienen un rendimiento inferior a la última tecnología de NVIDIA, estas barreras comerciales garantizan que el desarrollo interno siga siendo una prioridad estratégica, lo que podría poner en entredicho el dominio de mercado de NVIDIA en el futuro. 10

Competencia de mercado por inferencia

Si bien NVIDIA domina el mercado de "entrenamiento" de IA, la competencia se intensifica en el ámbito de la "inferencia", es decir, la aplicación de modelos de IA a tareas del mundo real. Empresas como AMD y numerosas startups, entre ellas Untether AI y Groq, están desarrollando chips que buscan ofrecer soluciones de inferencia más rentables, centrándose especialmente en un menor consumo de energía.

Las nuevas técnicas de IA de "razonamiento" requieren mayor potencia de cálculo. NVIDIA cree que el razonamiento favorecerá su arquitectura a largo plazo y prevé que el mercado de inferencia acabará superando con creces al mercado de entrenamiento, aunque su cuota de mercado sea menor. 11

2. AMD

AMD es un fabricante de chips sin fábrica propia con productos de CPU, GPU y aceleradores de IA.

AMD lanzó MI300 para cargas de trabajo de entrenamiento de IA en junio de 2023 y está compitiendo con NVIDIA por la cuota de mercado. Hay startups, institutos de investigación, empresas y gigantes tecnológicos que han adoptado el hardware de AMD en 2023 ya que el hardware de IA de Nvidia ha sido difícil de conseguir debido a la demanda que aumenta rápidamente, con el auge de la IA generativa desencadenado por el lanzamiento de ChatGPT . 12 13 14 15

En 2025, AMD anunció la adquisición de un talentoso equipo de ingenieros de hardware y software de IA de Untether AI, desarrollador de chips de inferencia de IA de bajo consumo energético para proveedores de computación perimetral y centros de datos empresariales. Esta operación mejora las capacidades de AMD en compilación de IA, desarrollo de kernels y diseño de chips, fortaleciendo aún más su posición en el mercado de la inferencia. Además, AMD adquirió la startup de compiladores Brium para optimizar el rendimiento de la IA en sus GPU Instinct para centros de datos, destinadas a aplicaciones empresariales. 16

AMD lanzará la serie MI350 para reemplazar a la MI300 y competir con la H200 de NVIDIA. AMD afirma que el MI325X, otro chip reciente, tiene un rendimiento de inferencia líder en el mercado. 17

AMD también está trabajando con empresas de aprendizaje automático como Hugging Face para permitir que los científicos de datos utilicen su hardware de manera más eficiente. 18

El ecosistema de software es fundamental, ya que el rendimiento del hardware depende en gran medida de la optimización del software. Por ejemplo, los usuarios AMD y NVIDIA tuvieron un desacuerdo público sobre la evaluación comparativa de H100 y MI300. El punto central del desacuerdo fue el paquete y el tipo de coma flotante que se utilizaría en la evaluación. Según las últimas evaluaciones, parece que MI300 ofrece un rendimiento superior o similar al de H100 para la inferencia en un modelo LLM de 70B. 19 20

Software

Si bien el hardware AMD está alcanzando a NVIDIA, su software se queda atrás en términos de usabilidad. Si bien CUDA funciona de inmediato para la mayoría de las tareas, el software AMD requiere una configuración significativa. 21

Ecosistema

Al igual que NVIDIA, AMD está invirtiendo selectivamente en los usuarios de sus soluciones para impulsar la adopción de su hardware. 22

3. Intel

Intel es el actor más importante en el mercado de las CPU y tiene una larga trayectoria en el desarrollo de semiconductores. A diferencia de NVIDIA y AMD, Intel utiliza su propia fundición para fabricar sus chips.

Gaudi3 es el procesador acelerador de IA más reciente de Intel. 23 Sin embargo, la previsión de ventas de Intel para Gaudi3 era de aproximadamente 500 millones de dólares para 2024, lo que es significativamente inferior en comparación con los miles de millones que AMD proyecta ganar en 2024.

Intel está experimentando problemas de gobernanza, como lo demuestra la salida de su director ejecutivo, Pat Gelsinger, en diciembre de 2024. Una parte significativa de los miembros de la junta directiva de Intel carece de experiencia en la dirección operativa de una empresa de semiconductores. 24 Tras la salida de su director ejecutivo, la estrategia de Intel en los mercados de IA y fundición sigue sin estar clara.

¿Qué proveedores de nube pública fabrican chips de IA?

4. AWS

AWS produce chips Tranium para entrenamiento de modelos y chips Inferentia para inferencia. Aunque AWS es el líder del mercado en la nube pública, comenzó a desarrollar sus propios chips después de Google.

Cientos de miles de chips Tranium2 se utilizan para formar el clúster del Proyecto Rainier, que da potencia a los modelos del desarrollador de LLM Anthropic.

5. Plataforma en la nube Google

El Cloud TPU (991259_1710__) es un chip acelerador de aprendizaje automático diseñado específicamente para impulsar productos como Translate, Photos, Search, Assistant y Gmail. También se puede usar a través de la nube (991259_1710__). (991259_1710__) anunció los TPU en 2016. 25 El último Trillium TPU es de sexta generación. 26

Google ha presentado Ironwood. Esta última generación está diseñada específicamente para "modelos de pensamiento" complejos como LLM y MoE, ofreciendo un procesamiento paralelo masivo (4614 TFLOPs por chip) y escalando hasta 42,5 Exaflops en módulos de 9216 chips. 27

Ironwood ofrece mejoras significativas con respecto a Trillium, incluyendo una eficiencia energética dos veces superior, una capacidad de memoria de alto ancho de banda seis veces mayor (192 GB/chip), un ancho de banda HBM 4,5 veces mayor (7,2 TBps/chip) y una velocidad de interconexión entre chips 1,5 veces mayor (1,2 Tbps). Además, incorpora un SparseCore mejorado para grandes integraciones. El chip Google también produce la Edge TPU, mucho más pequeña, para diferentes necesidades, diseñada para su implementación en dispositivos periféricos como teléfonos inteligentes y hardware IoT.

6. Alibaba

Alibaba fabrica chips como el Hanguang 800 para inferencia. Sin embargo, algunas organizaciones norteamericanas, europeas y australianas (por ejemplo, las del sector de defensa) podrían no preferir utilizar el chip Alibaba Cloud por razones geopolíticas.

7. IBM

IBM anunció su último chip de aprendizaje profundo, la unidad de inteligencia artificial (AIU), en 2022. 28 IBM está considerando utilizar estos chips para impulsar su plataforma de IA generativa Watsonx. 29

AIU se basa en el procesador Telum “IBM ”, que impulsa las capacidades de procesamiento de IA de los servidores mainframe Z IBM. En su lanzamiento, los casos de uso destacados de los procesadores Telum incluían la detección de fraude . 30

El artículo IBM también demostró que la combinación de computación y memoria puede generar eficiencias. Esto se demostró en el prototipo del procesador North Pole. 31

8. Huawei

El HiSilicon Ascend 910C del modelo Huawei forma parte de la familia de chips Ascend 910, presentada en 2019.

Debido a las sanciones, los laboratorios de IA en China no pueden comprar los chips más nuevos y de mayor rendimiento de empresas estadounidenses como el NVIDIA o el AMD. Por lo tanto, están experimentando con el Ascend 910C.

La nube de Huawei aloja modelos de DeepSeek, y un investigador de DeepSeek afirma que puede alcanzar el 60% del rendimiento de inferencia H100 de NVIDIA. 32 33

¿Qué proveedores de IA en la nube fabrican sus propios chips?

Estos proveedores no cuentan con nubes públicas con capacidades integrales como las de los hiperescaladores. Ofrecen servicios en la nube limitados, generalmente enfocados en la inferencia de IA. Pudimos contratar estos servicios sin necesidad de contactar con los equipos de ventas.

8. Groq

Groq fue fundada por exempleados de Google. La empresa representa LPU, un nuevo modelo de arquitectura de chips de IA, que busca facilitar la adopción de sus sistemas por parte de las empresas. La startup ya ha recaudado alrededor de 350 millones de dólares y ha producido sus primeros modelos, como el procesador GroqChip™ y el acelerador GroqCard™, entre otros.

La empresa se centra en la inferencia LLM y ha publicado pruebas de rendimiento para Llama-2 70B. 34

Recientemente, Groq obtuvo un importante compromiso de inversión de 1.500 millones de dólares de Arabia Saudita para expandir la distribución de sus chips de IA avanzados en el país. Esta inversión se utilizará para ampliar el centro de datos que Groq ya tiene en Dammam, Arabia Saudita, construido en colaboración con Aramco Digital. 35

En el primer trimestre de 2024, la compañía informó que 70.000 desarrolladores se registraron en su plataforma en la nube y crearon 19.000 nuevas aplicaciones. 36

El 1 de marzo de 2022, Groq adquirió Maxeler, empresa que ofrece soluciones de computación de alto rendimiento (HPC) para servicios financieros. 37

9. Sistemas SambaNova

SambaNova Systems se fundó en 2017 para desarrollar sistemas de hardware y software de alto rendimiento y precisión para cargas de trabajo de IA generativa de gran volumen. La empresa ha recaudado más de 1.500 millones de dólares en financiación total, incluyendo una ronda de financiación Serie E de 350 millones de dólares en febrero de 2026. 38

En febrero de 2026, SambaNova presentó el chip SN50, su última Unidad de Datos Reconfigurable (RDU), que afirma una velocidad máxima 5 veces superior a la de los chips de la competencia y un coste total de propiedad 3 veces menor en comparación con las GPU para cargas de trabajo de IA agentes. El SN50 ofrece 5 veces más capacidad de cómputo por acelerador y 4 veces más ancho de banda de red que la generación anterior SN40L, y admite una arquitectura de memoria de tres niveles para modelos de más de 10 billones de parámetros y longitudes de contexto de más de 10 millones de tokens. 39

SoftBank Corp. será el primer cliente en implementar SN50 en sus centros de datos de IA de próxima generación en Japón.

SambaNova también anunció una colaboración estratégica planificada de varios años con Intel para ofrecer soluciones de inferencia de IA, combinando los sistemas de SambaNova con los procesadores Xeon de Intel, las GPU de Intel y la red de Intel para impulsar una infraestructura de inferencia escalable como alternativa a las soluciones centradas en GPU.

Es importante destacar que SambaNova Systems también alquila su plataforma a empresas a través de SambaCloud. Este enfoque de plataforma de IA como servicio facilita la adopción de sus sistemas y fomenta la reutilización del hardware para la economía circular. 40

¿Cuáles son las principales empresas emergentes de chips de IA?

También nos gustaría presentarles algunas startups del sector de los chips de IA cuyos nombres probablemente oiremos con más frecuencia en un futuro próximo. Aunque estas empresas se fundaron hace poco tiempo, ya han recaudado millones de dólares.

10. Cerebras

Cerebras se fundó en 2015 y es el único fabricante importante de chips centrado en chips a escala de oblea. 41 Los chips a escala de oblea presentan ventajas en paralelismo en comparación con las GPU, gracias a su mayor ancho de banda de memoria. Sin embargo, el diseño y la fabricación de dichos chips es una tecnología emergente.

Los chips Cerebras incluyen:

  • El WSE-1 cuenta con 1,2 billones de transistores y 400.000 núcleos de procesamiento.
  • El WSE-2, con 2,6 billones de transistores y 850.000 núcleos, fue anunciado en abril de 2021. Utilizó el proceso de 7 nm de TSMC.
  • El WSE-3, que cuenta con 4 billones de transistores y 900.000 núcleos de IA, fue anunciado en marzo de 2024. Utiliza el proceso de 5 nm de TSMC. 42

El sistema de Celebra colabora con compañías farmacéuticas como AstraZeneca y GlaxoSmithKline, así como con laboratorios de investigación que lo utilizan para simulaciones. También está dirigido a fabricantes de modelos de lógica difusa (LLM) , ya que sus chips pueden reducir los costos de inferencia para modelos de vanguardia.

Cerebras también ofrece sus chips en su nube a las empresas.

11. Matriz d

d-Matrix adopta un enfoque novedoso, abandonando la arquitectura tradicional de von Neumann en favor del procesamiento en memoria. Si bien este enfoque tiene el potencial de resolver el cuello de botella entre la memoria y el procesamiento, se trata de una metodología nueva y aún no probada. 43

12. Rebeliones

Una startup con sede en Corea del Sur recaudó 124 millones de dólares en 2024 y se centra en la inferencia LLM. 44

Rebellions se fusionó con otra empresa coreana de diseño de semiconductores, SAPEON, y alcanzó una valoración de unicornio en 2024. 45

En julio de 2025, Rebellions obtuvo una inversión del gigante tecnológico Samsung como parte de una ronda de financiación que apuntaba a alcanzar los 200 millones de dólares, antes de su prevista salida a bolsa (IPO). La compañía ha recaudado 220 millones de dólares desde su fundación en 2020 y está colaborando con Samsung para lanzar al mercado su chip de segunda generación, Rebel-Quad (compuesto por cuatro chips Rebel AI), a finales de 2025, aprovechando el proceso de fabricación de 4 nanómetros de Samsung. 46

13. Tensorrrent

El último procesador Blackhole Tensix de Tenstorrent ofrece un rendimiento de 664 TFLOPS (BLOCKFP8), junto con 32 GB de memoria GDDR6 y un ancho de banda de memoria de 512 GB/s.

La tarjeta P150a tiene un precio de 1399 dólares e incluye cuatro puertos QSFP-DD de 800 Gbps para la compatibilidad con múltiples tarjetas. El modelo básico P100a tiene un precio inicial de 999 dólares. 47

Tensorrent ofrece una plataforma de software completamente de código abierto. La compañía recaudó 700 millones de dólares, alcanzando una valoración de más de 2600 millones de dólares, de inversores como Jeff Bezos, en diciembre de 2024. 48

14. Positrón

Positron se fundó en 2023 y se centra exclusivamente en la inferencia de modelos de transformadores. La empresa adopta un enfoque ASIC, desarrollando hardware diseñado específicamente y optimizado para arquitecturas de transformadores, en lugar de computación GPU de propósito general.

Productos:

  • Atlas (ya disponible): Un servidor de inferencia Transformer con 8 aceleradores Positron Archer Transformer y 256 GB de memoria HBM. La compañía afirma un rendimiento superior a 4 veces por vatio y superior a 3 veces por dólar en comparación con los sistemas Hopper (NVIDIA), evaluado en Llama 3.1 8B con computación BF16. 49
  • Titan (disponible en 2027): Un sistema de próxima generación con más de 8 TB de memoria, impulsado por 4 chips personalizados de Asimov, diseñado para admitir hasta 16 billones de modelos de parámetros y más de 10 millones de ventanas de contexto de tokens en un formato 4U refrigerado por aire. 50
  • Asimov (disponible en 2027): Silicio acelerador de inferencia personalizado con más de 2 TB de memoria por chip.

Positron recaudó más de 230 millones de dólares en una ronda de financiación Serie B a principios de 2026 con inversores como QIA, Arm Holdings, Arena y Jump Trading. 51

Atlas es utilizado actualmente por empresas de redes, videojuegos, moderación de contenido, CDN y Token-as-a-Service. Positron afirma que su sistema Atlas demostró una latencia de extremo a extremo tres veces menor para cargas de trabajo de inferencia de trading en comparación con sistemas H100 similares, consumiendo un tercio de la energía.

Los chips de Positron se diseñan, fabrican y ensamblan en Estados Unidos.

15. _grabado

Su enfoque sacrifica la flexibilidad en aras de la eficiencia al integrar la arquitectura del transformador directamente en sus chips.

El equipo afirma

  • Sohu ha construido el primer circuito integrado específico para transformadores del mundo.
  • Esos 8 chips Sohu pueden generar más de 500.000 tokens por segundo. Esto es un orden de magnitud mayor que lo que pueden lograr 8 chips NVIDIA B200.

Actualmente, estos datos se basan en mediciones internas del equipo. Los equipos de IA aún no han encontrado ningún punto de referencia ni referencias de clientes. Nos interesa saber:

  • ¿Qué sucede cuando el modelo queda obsoleto? ¿Los usuarios necesitan comprar un chip nuevo o se puede reconfigurar el chip antiguo con el modelo más reciente?
  • ¿Cómo realizaron su prueba de rendimiento? ¿Qué cuantización y modelo utilizaron?

Actualizaremos esta información en cuanto el equipo de _etched publique más detalles. Será interesante ver si grabar modelos en chips será sostenible, dado el lanzamiento de nuevos modelos cada pocos meses.

16. Taalas

Taalas se fundó a principios de 2023 y adopta el enfoque más extremo para la especialización en chips de IA: integra modelos individuales directamente en silicio personalizado, produciendo lo que la compañía denomina "modelos de núcleo duro". 52 La empresa afirma que puede transformar cualquier modelo de IA nunca antes visto en silicio personalizado en un plazo de dos meses.

La arquitectura de Taalas unifica el almacenamiento y el procesamiento en un solo chip con una densidad similar a la de la DRAM, eliminando la necesidad de HBM, empaquetado avanzado, apilamiento 3D, refrigeración líquida o E/S de alta velocidad. La compañía describe esto como una simplificación radical de la arquitectura de hardware.

Productos:

  • HC1 (ya disponible): Un demostrador tecnológico con Llama 3.1 8B integrado, fabricado con tecnología TSMC de 6 nm y 53 mil millones de transistores. Taalas afirma que procesa 17 000 tokens por segundo por usuario, lo que, según la compañía, es casi 10 veces más rápido que la tecnología actual, con un coste de fabricación 20 veces menor y un consumo energético 10 veces inferior en un servidor refrigerado por aire de 2,5 kW. Sin embargo, este modelo utiliza una cuantización personalizada agresiva de 3 y 6 bits, lo que provoca una degradación de la calidad en comparación con los estándares de las GPU. 53
  • HC2 (previsto): Una plataforma de segunda generación con mayor densidad, ejecución más rápida y formatos estándar de punto flotante de 4 bits para solucionar las limitaciones de cuantización de HC1.

Taalas ha recaudado más de 200 millones de dólares, pero afirma haber gastado solo 30 millones de dólares para lanzar su primer producto al mercado con un equipo de 24 personas.

17. Extrópico

Extropic recaudó 14 millones de dólares en una ronda de financiación a finales de 2023 para utilizar la termodinámica en la computación. La empresa aún no ha lanzado ningún chip.

18. Vaire

Vaire es una startup británica pionera en computación reversible, un enfoque innovador que busca crear chips de consumo energético casi nulo. A diferencia de la computación tradicional, donde la energía se pierde en forma de calor, la computación reversible recicla una parte significativa de la energía para cálculos posteriores.

Vaire ha presentado un chip de prueba capaz de recuperar el 50% de su energía, lo que demuestra el potencial de la tecnología para reducir el consumo energético de las cargas de trabajo de IA y sortear las limitaciones físicas, o barrera térmica, que suponen un reto para la fabricación moderna de semiconductores. 54

¿Cuáles son los próximos fabricantes de hardware de IA?

Si bien se trata de soluciones de hardware de IA muy interesantes, actualmente existen pocos datos de referencia sobre su eficacia, ya que son productos nuevos en el mercado.

19. Manzana

Según se informa, el proyecto ACDC de Apple se centra en la creación de chips para la inferencia de inteligencia artificial. 55 Apple ya es un importante diseñador de chips, con semiconductores de diseño propio que se utilizan en iPhones, iPads y MacBooks.

20. Meta

El acelerador de entrenamiento e inferencia (MTIA) Meta es una familia de procesadores para cargas de trabajo de IA, como el entrenamiento de los modelos LLaMa de Meta.

El modelo más reciente es Next Gen MTIA, que se basa en la tecnología de 5 nm de TSMC y, según se afirma, ofrece un rendimiento tres veces superior al de MTIA v1. MTIA se alojará en racks que contendrán hasta 72 aceleradores. 56

Actualmente, MTIA se utiliza internamente en Meta. Sin embargo, en el futuro, si Meta lanzara una solución empresarial de IA generativa basada en LLaMa, estos chips podrían impulsar dicha solución.

21. Microsoft Azure

En Hot Chips 2024, Microsoft presentó Maia 100, su primer acelerador de IA personalizado diseñado para optimizar cargas de trabajo de IA a gran escala en Azure mediante la cooptimización de hardware y software. Construido sobre el proceso N5 de TSMC con tecnología avanzada de memoria e interconexión, Maia 100 apunta a un alto rendimiento y diversos formatos de datos, ofreciendo a los desarrolladores flexibilidad a través de su SDK para la rápida implementación de modelos PyTorch y Triton. Sin embargo, el chip de IA de próxima generación de Microsoft, con nombre en clave Braga, enfrenta retrasos de 2025 a 2026 debido a cambios de diseño, limitaciones de personal y alta rotación, lo que podría resultar en una eficiencia energética inferior a la del chip Blackwell de Nvidia.

22. OpenAI

OpenAI está finalizando el diseño de su primer chip de IA con Broadcom y TSMC, utilizando la tecnología de 3 nanómetros de TSMC. El equipo directivo del chip de OpenAI tiene experiencia en el diseño de TPU en Google, y su objetivo es que el chip se produzca en masa en 2026. 57

¿Qué otros fabricantes de chips de IA existen?

23. Graphcore

Graphcore es una empresa británica fundada en 2016. La compañía anunció su chip de IA insignia, el IPU-POD256. Graphcore ya ha recibido una financiación de alrededor de 700 millones de dólares.

La empresa mantiene alianzas estratégicas con corporaciones de almacenamiento de datos como DDN, Pure Storage y Vast Data. Los chips de IA de Graphcore se utilizan en institutos de investigación como el Oxford-Man Institute of Quantitative Finance, la Universidad de Bristol y la Universidad de California en Berkeley.

La viabilidad a largo plazo de la empresa estaba en riesgo, ya que perdía aproximadamente 200 millones de dólares al año. 58 Fue adquirida por Softbank por más de 600 millones de dólares en octubre de 2024. 59

24. Mítico

Mythic se fundó en 2012 y se centra en la IA de borde. Mythic sigue un camino poco convencional, una arquitectura de computación analógica, que busca ofrecer computación de IA de borde energéticamente eficiente.

Ha desarrollado productos como el M1076 AMP y la tarjeta de acceso MM1076, y ya ha recaudado alrededor de 165 millones de dólares en financiación. 60

Mythic despidió a la mayor parte de su personal y reestructuró su negocio con la ronda de financiación que recibió en marzo de 2023. 61

25. Speedata

Fundada en 2019 en Tel Aviv, Speedata desarrolla una Unidad de Procesamiento Analítico (APU) diseñada para acelerar el análisis de macrodatos y las cargas de trabajo de IA. Se trata de una APU orientada a las cargas de trabajo de Apache Spark, con planes para dar soporte a otras plataformas importantes de análisis de datos.

Speedata recaudó 44 millones de dólares en una ronda de financiación Serie B en junio de 2025, liderada por Walden Catalyst Ventures, 83North y otros, lo que eleva su financiación total a 114 millones de dólares. La compañía afirma que su APU supera a los procesadores de propósito general y a las GPU al reemplazar racks de servidores con un solo chip, ofreciendo un rendimiento superior y una mayor eficiencia energética para el procesamiento de datos. 62

26. Axelera AI

Fundada en julio de 2021 en Eindhoven, Países Bajos, Axelera AI se especializa en tecnología de aceleración de hardware de IA para visión artificial e IA generativa. La compañía está desarrollando Titania, un chiplet de inferencia de IA basado en su arquitectura de computación digital en memoria (D-IMC), diseñado para acelerar las cargas de trabajo de IA desde el borde hasta la nube.

Axelera AI obtuvo hasta 61,6 millones de euros en financiación de la Empresa Común EuroHPC (JU) y los estados miembros en el marco del Proyecto DARE en marzo de 2025, tras una ronda de financiación Serie B previa de 68 millones de dólares. Esto eleva su financiación total a más de 200 millones de dólares en tres años. Axelera AI tiene como objetivo implementar Titania para 2028 con el fin de satisfacer la creciente demanda de soluciones de IA de alto rendimiento, rentables y sostenibles, haciendo hincapié en su capacidad para mejorar el rendimiento y la eficiencia en comparación con las soluciones tradicionales en la nube. 63

Socios de fundición y el papel de TSMC

Como la fundición líder mundial especializada en semiconductores, TSMC fabrica semiconductores basados ​​en diseños de clientes en lugar de crear sus propios chips, lo que la distingue de empresas como Samsung Foundry y Samsung Foundry Services. Si bien Samsung Foundry y Samsung Foundry Services compiten en este sector, TSMC mantiene una ventaja tecnológica.

Sus avanzadas tecnologías de proceso, en particular sus nodos pioneros de 5 nm y 3 nm, proporcionan la combinación esencial de rendimiento y eficiencia energética necesaria para las aplicaciones de IA de vanguardia, como lo demuestran sus acuerdos de fabricación con los diseñadores de chips de IA que se enumeran a continuación:

Planes de expansión

TSMC busca que Nvidia, Broadcom y TSMC inviertan en una empresa conjunta para gestionar la división de fundición de TSMC, manteniendo el control operativo pero con una participación inferior al 50%. Esta iniciativa, respaldada por la administración Trump, surge tras el anuncio de TSMC de una importante inversión en EE. UU. y tiene como objetivo revitalizar TSMC y fortalecer la fabricación de chips en el país. El acuerdo enfrenta desafíos debido a las diferencias en los procesos, pero se basa en las fortalezas de TSMC como fundición líder. 64 65

¿Cuáles son los fabricantes de chips de IA en China?

Debido a las sanciones estadounidenses que impiden a muchas empresas chinas adquirir los chips de IA más avanzados de AMD y NVIDIA, los compradores chinos han aumentado sus compras a productores locales.

Además de Huawei y Alibaba, mencionados anteriormente, estos son los principales productores de chips de IA en China:

  • Cambricon se centra en el hardware de IA y prevé unas ventas de aproximadamente 150 millones de dólares en su último año de actividad. 66
  • Baidu está utilizando chips Kunlun en su nube y está diseñando el chip de tercera generación. Kunlun 2 era comparable al NVIDIA A100.
  • Biren , fundada por exalumnos de NVIDIA, produce chips GPU BR106 y BR110.
  • Moore Threads fabrica las GPU MTT S2000.

Preguntas frecuentes

Los chips y los equipos que los fabrican son las máquinas más complejas jamás construidas por el ser humano. Si bien existen muchas empresas en el ecosistema de semiconductores, en este artículo nos centramos en diseñadores de chips como NVIDIA.
La mayoría de los diseñadores de chips subcontratan la fabricación de chips a fundiciones como TSMC. Estas fundiciones utilizan equipos de litografía fabricados por empresas como ASML para producir dichos chips. El ecosistema cuenta con el respaldo de proveedores como Arm y Synopsys, que suministran propiedad intelectual y herramientas de diseño.

Como se ha visto anteriormente, un mayor número de parámetros, un mayor tamaño de los conjuntos de datos y una mayor capacidad de cómputo han contribuido a que los modelos de IA generativa sean más precisos. Para crear mejores modelos de aprendizaje profundo e impulsar las aplicaciones de IA generativa, las organizaciones necesitan mayor capacidad de cómputo y ancho de banda de memoria.
Los chips potentes de propósito general (como las CPU) no pueden soportar modelos de aprendizaje profundo altamente paralelizados. Por lo tanto, los chips de IA (por ejemplo, las GPU) que permiten capacidades de computación paralela tienen una demanda cada vez mayor.
Las grandes empresas de servicios en la nube están respondiendo a esto diseñando sus propios chips, un proceso que lleva años. El resto debe seguir una de estas rutas para crear sus propios modelos de IA: alquilar capacidad a proveedores de GPU en la nube o comprar hardware a los principales fabricantes de chips de IA que se mencionan en este artículo.
El hardware de IA también se conoce como unidades de procesamiento neuronal (NPU), aceleradores de IA o procesadores de aprendizaje profundo (DLP).

Lecturas adicionales

También puedes consultar nuestra lista ordenable de empresas que trabajan en chips de IA .

Quizás te interese leer nuestros artículos sobre TinyML y computación acelerada .

Si tiene preguntas sobre cómo el hardware de IA puede ayudar a su negocio, podemos ayudarle:

Encuentra a los proveedores adecuados

Visita el sitio web

Referencias

Enlaces de referencia

1.
Good News For Alibaba - ACCEL Chip Outshines Nvidia's AI Chips, China Claims - Alibaba Gr Hldgs (NYSE:BAB - Benzinga
Benzinga
2.
ASIC Set to Outpace GPU? NVIDIA’s Scale-Up and Beyond | TrendForce
TrendForce
3.
DGX Platform: Built for Enterprise AI | NVIDIA
4.
DGX SuperPOD with DGX GB200 Systems | NVIDIA
5.
Nvidia Pushes Further Into Cloud With GPU Marketplace - WSJ
The Wall Street Journal
6.
NVIDIA Dynamo, A Low-Latency Distributed Inference Framework for Scaling Reasoning AI Models | NVIDIA Technical Blog
NVIDIA Developer
7.
NVIDIA Dynamo, A Low-Latency Distributed Inference Framework for Scaling Reasoning AI Models | NVIDIA Technical Blog
NVIDIA Developer
8.
NVIDIA RTX PRO Servers Speed Trillion-Dollar Enterprise IT Industry Transition to AI Factories | NVIDIA Newsroom
9.
Jevons paradox - Wikipedia
Contributors to Wikimedia projects
10.
Trump imposes 25% tariff on Nvidia AI chips and others, citing national security | Nvidia | The Guardian
The Guardian
11.
Nvidia CEO to defend AI dominance as competition intensifies | Reuters
Reuters
12.
Lamini & AMD: Paving the Road to GPU-Rich Enterprise LLMs | Lamini - Enterprise LLM Platform
13.
Anuncio de AI2 OLMo, un modelo de lenguaje abierto creado por científicos, para científicos
14.
Training LLMs at Scale with AMD MI250 GPUs | Databricks Blog
15.
Training 221B Parameter Korean LLM on 1,200 AMD MI250 GPU Cluster – Moreh
16.
Exclusive: AMD Acquires Team Behind AI Chip Startup Untether AI
17.
AMD Delivers Leadership AI Performance with AMD Instinct MI325X Accelerators :: Advanced Micro Devices, Inc. (AMD)
18.
AMD + 🤗: Large Language Models Out-of-the-Box Acceleration with AMD GPU
Hugging Face
19.
Achieving Top Inference Performance with the NVIDIA H100 Tensor Core GPU and NVIDIA TensorRT-LLM | NVIDIA Technical Blog
NVIDIA Developer
20.
Competitive performance claims and industry leadin... - AMD Community
21.
MI300X vs H100 vs H200 Benchmark Part 1: Training - CUDA Moat Still Alive
SemiAnalysis
22.
Exclusive | AMD Invests in Drug-Discovery Company Absci in Push to Sell AI Chips - WSJ
The Wall Street Journal
23.
Intel Breaks Down Proprietary Walls to Bring Choice to Enterprise GenAI Market - Intel Newsroom
Intel Corporation
24.
The Death of Intel: When Boards Fail - by Doug O'Laughlin
Fabricated Knowledge
25.
Google supercharges machine learning tasks with TPU custom chip | Google Cloud Blog
Google Cloud
26.
Introducing Trillium, sixth-generation TPUs | Google Cloud Blog
Google Cloud
27.
Ironwood: The first Google TPU for the age of inference
Google
28.
29.
Technology News | TechHQ | Latest Technology News & Analysis
TechHQ
30.
31.
‘Mind-blowing’ IBM chip speeds up AI
Nature Publishing Group UK
32.
Tech war: China’s chip firms embrace DeepSeek in AI self-sufficiency drive | South China Morning Post
South China Morning Post
33.
https://mp.weixin.qq.com/s/ETHwNxWl04mqQt04o0zO8g
34.
Groq Sets New Large Language Model Performance Record of 300 Tokens per Second per User on Meta AI Foundational LLM, Llama-2 70B
Cision PR Newswire
35.
AI chip startup Groq secures $1.5 billion commitment from Saudi Arabia | Reuters
Reuters
36.
Real-time AI Inference Demand Accelerates on GroqCloud | Groq is fast, low cost inference.
37.
38.
SambaNova Unveils Fastest Chip for Agentic AI, Collaborates with Intel, and Raises $350M+
SambaNova
39.
Introducing the SN50 RDU: Purpose-Built for Agentic Inference
SambaNova
40.
SambaCloud | Full-Stack AI Platform for Large Open-Source Models
41.
Cerebras - Wikipedia
Contributors to Wikimedia projects
42.
Cerebras Systems Unveils World’s Fastest AI Chip with Whopping 4 Trillion Transistors - Cerebras
43.
https://www.d-matrix.ai/wp-content/uploads/2023/09/d-Matrix-WhitePaper-Approved-w-cover.pdf
44.
Korean AI chipmaker Rebellions Closes $124M Series B Fundraise - Rebellions
Rebellions
45.
Rebellions and SAPEON Korea Sign Definitive Merger Agreement - Rebellions
Rebellions
46.
Samsung backs AI chip startup Rebellions ahead of IPO
CNBC
47.
Blackhole™
48.
Jeff Bezos Is Betting on AI Chip Startup Tenstorrent to Take on Nvidia (NVDA) - Bloomberg
Bloomberg
49.
Positron | About
50.
Positron | About
51.
Positron | About
52.
The path to ubiquitous AI | Taalas
53.
Products | Taalas
54.
A startup working on 'reversible computing' chip for AI says initial tests show a 50% energy savings | Fortune
Fortune
55.
Exclusive | Apple Is Developing AI Chips for Data Centers, Seeking Edge in Arms Race - WSJ
The Wall Street Journal
56.
Our next generation Meta Training and Inference Accelerator
57.
Exclusive: OpenAI set to finalize first custom chip design this year  | Reuters
Reuters
58.
GRAPHCORE LIMITED filing history - Find and update company information - GOV.UK
59.
Graphcore joins SoftBank Group to build next generation of AI compute
Graphcore
60.
Mythic company information, funding & investors | Dealroom.co
61.
AI chip startup Mythic rises from the ashes with $13M, new CEO | TechCrunch
TechCrunch
62.
Speedata, a chip startup competing with Nvidia, raises a $44M Series B | TechCrunch
TechCrunch
63.
Eindhoven-based Axelera AI secures €61.6M grant
64.
TSMC shares open lower following announcement of $100 billion investment in US | Reuters
Reuters
65.
Exclusive: TSMC pitched Intel foundry JV to Nvidia, AMD and Broadcom, sources say | Reuters
Reuters
66.
https://www.cambricon.com/index.php?m=content&c=index&a=lists&catid=326
Cem Dilmegani
Cem Dilmegani
Analista principal
Cem ha sido el analista principal de AIMultiple desde 2017. AIMultiple informa a cientos de miles de empresas (según similarWeb), incluyendo el 55% de las empresas Fortune 500 cada mes. El trabajo de Cem ha sido citado por importantes publicaciones globales como Business Insider, Forbes, Washington Post, firmas globales como Deloitte, HPE y ONG como el Foro Económico Mundial y organizaciones supranacionales como la Comisión Europea. Puede consultar más empresas y recursos de renombre que citan a AIMultiple. A lo largo de su carrera, Cem se desempeñó como consultor, comprador y emprendedor tecnológico. Asesoró a empresas en sus decisiones tecnológicas en McKinsey & Company y Altman Solon durante más de una década. También publicó un informe de McKinsey sobre digitalización. Lideró la estrategia y adquisición de tecnología de una empresa de telecomunicaciones, reportando directamente al CEO. Asimismo, lideró el crecimiento comercial de la empresa de tecnología avanzada Hypatos, que alcanzó ingresos recurrentes anuales de siete cifras y una valoración de nueve cifras partiendo de cero en tan solo dos años. El trabajo de Cem en Hypatos fue reseñado por importantes publicaciones tecnológicas como TechCrunch y Business Insider. Cem participa regularmente como ponente en conferencias internacionales de tecnología. Se graduó en ingeniería informática por la Universidad de Bogazici y posee un MBA de la Columbia Business School.
Ver perfil completo

Comentarios 2

Comparte tus ideas

Tu dirección de correo electrónico no será publicada. Todos los campos son obligatorios.

0/450
Dave
Dave
Aug 29, 2022 at 05:49

You forgot to include Tesla with their DOJO supercomputer. From the ground-up, the supercomputer was specifically designed for machine learning and image recognition - which means that every component was designed for it including, but not limited to, PCI board design, CPU, RAM, cooling, power, scalable hardware design and software. If I'm not mistaken, the AI is also the second most widely tested and used in the "wild", just below that of Google due to Google using it in their Search.

Cem Dilmegani
Cem Dilmegani
Sep 06, 2022 at 13:52

Thank you for your feedback, Dave! Here we are only covering companies that sell the chips that they produce. Therefore, companies like Tesla that build supercomputers for their own use or companies that embed chips in their products are out of our scope.

thayyil
thayyil
Mar 19, 2022 at 11:48

surprised that brainchip (akida) missing in this report. any reasons?

Cem Dilmegani
Cem Dilmegani
Nov 18, 2022 at 07:36

All included companies here raised $100+M. Last time we collected the data, that wasn't the case for akida. Why don't you reach out to us at info@aimultiple.com and let's discuss why it should be included. Thank you!