Com base na nossa experiência executando o benchmark de GPUs em nuvem da AIMultiple com 10 modelos diferentes de GPUs em 4 cenários distintos, estas são as principais empresas de hardware de IA para cargas de trabalho de data center. Siga os links para ver nossa justificativa para cada seleção:
Mais de 20 fabricantes de chips de IA por categoria
Esses fabricantes de chips se concentram em chips para data centers:
*Os modelos selecionados baseiam-se nos anúncios mais recentes.
**O ACCEL foi desenvolvido por cientistas chineses em colaboração com a Alibaba e a Semiconductor Manufacturing International Corporation (SMIC) da China.** 1
A classificação é feita por categoria. Os fornecedores são classificados pela participação de mercado estimada nas 3 principais categorias (ou seja, produtor líder, nuvem pública, nuvem pública de IA), pois os números de vendas ou o uso da nuvem podem ser estimados. Os fornecedores nas três últimas categorias (ou seja, startup de IA, produtor emergente, outros produtores) são classificados em ordem alfabética.
5 fornecedores de chips de IA para dispositivos móveis
*Os chips mais populares e recentes foram selecionados.
5 chips de IA de borda
A demanda por processamento de baixa latência impulsionou a inovação em chips de IA de borda. Os processadores desses chips são projetados para executar cálculos de IA localmente nos dispositivos, em vez de depender de soluções baseadas em nuvem.
*Estes são os valores máximos indicados pelos fornecedores. TOPS significa tera operações por segundo.
Entendendo as arquiteturas de chips de IA: GPUs vs ASICs
Nem todos os chips de IA são criados iguais. Embora os fornecedores acima concorram no mesmo mercado, eles usam arquiteturas de chips fundamentalmente diferentes:
- As GPUs (Unidades de Processamento Gráfico) são processadores de uso geral que podem lidar com treinamento e inferência em uma ampla gama de cargas de trabalho de IA. NVIDIA e AMD dominam essa categoria.
- Os ASICs (Circuitos Integrados de Aplicação Específica) são projetados sob medida para tarefas específicas. Alguns suportam tanto treinamento quanto inferência (TPU, AWS Trainium), enquanto outros são apenas para inferência (Groq LPU, AWS Inferentia).
Principal conclusão:
Nem todos os ASICs são exclusivos para inferência. O TPU Google, o AWS Trainium, o Cerebras e o SambaNova suportam tanto treinamento quanto inferência, enquanto o Groq LPU e o AWS Inferentia se concentram exclusivamente em inferência.
Essa distinção é importante para os compradores: as GPUs oferecem flexibilidade em diferentes cargas de trabalho de IA, enquanto os ASICs oferecem melhor desempenho por watt, mas são mais difíceis de reprogramar quando as arquiteturas dos modelos mudam.
De acordo com a TrendForce 2 base nas taxas de crescimento de remessas de servidores de IA, as remessas de ASICs personalizados de provedores de nuvem devem crescer 44,6% em 2026, enquanto as remessas de GPUs devem crescer 16,1%. Isso sinaliza uma mudança no cenário de hardware de IA, à medida que os hiperescaladores investem cada vez mais em seus próprios chips.
Quais são os principais fabricantes de chips de IA?
1. NVIDIA
A NVIDIA projeta unidades de processamento gráfico (GPUs) para o setor de jogos desde a década de 1990. A NVIDIA é uma fabricante de chips fabless que terceiriza a maior parte de sua produção para a TSMC . Seus principais negócios incluem:
Soluções de IA para desktop
O DGX Spark (anteriormente Project Digits) é um supercomputador de IA para desktop, destinado a engenheiros de IA e cientistas de dados, que oferece as seguintes funcionalidades:
- O custo estimado é de cerca de 3 mil dólares.
- Tem aproximadamente o mesmo tamanho que um Mac mini e é alimentado pelo Superchip Grace Blackwell GB10 NVIDIA com 128 GB de memória.
- Capaz de lidar com inferência LLM e ajuste fino para modelos com até 200 bilhões de parâmetros, aproveitando o NVLink-C2C para comunicação de alta velocidade entre CPU e GPU.
Soluções para data centers
A empresa fabrica chips de IA seguindo as arquiteturas Ampere, Hopper e, mais recentemente, Blackwell. Graças ao boom da IA generativa , a NVIDIA obteve excelentes resultados nos últimos anos, atingiu uma avaliação de um trilhão de dólares e consolidou sua posição como líder nos mercados de hardware de GPU e IA. O gráfico a seguir mostra como a receita da NVIDIA nesse segmento cresceu ao longo dos anos e como se tornou a principal fonte de renda da empresa.
Os chipsets da Nvidia, modelo NVIDIA, são projetados para solucionar problemas de negócios em diversos setores. Os chips de IA DGX™ A100 e H100 são os principais produtos da Nvidia e foram desenvolvidos para treinamento e inferência de IA em data centers. 3 NVIDIA deu seguimento a estes com
- Chips H200, B300 e GB300
- Servidores HGX, como o HGX H200 e o HGX B300, que combinam 8 desses chips.
- As séries NVL e GB200 SuperPod combinam ainda mais chips em grandes clusters. 4
GPUs na nuvem
Graças à robustez de sua oferta de data center, a NVIDIA praticamente detém o monopólio do mercado de IA em nuvem, com a maioria dos provedores de nuvem oferecendo apenas GPUs NVIDIA como GPUs em nuvem .
A NVIDIA também lançou sua oferta DGX Cloud , fornecendo infraestrutura de GPU em nuvem diretamente para empresas, sem intermediários.
GPUs para gráficos
O Xbox usa um chipset desenvolvido em conjunto pela NVIDIA e pela Microsoft. As GPUs da NVIDIA para usuários de varejo incluem a série GeForce.
Desenvolvimentos recentes
DGX Cloud Lepton
Anunciado em 19 de maio de 2025 na Computex, o DGX Cloud Lepton da NVIDIA é um marketplace que conecta desenvolvedores de IA aos provedores de nuvem com GPUs da NVIDIA, como CoreWeave, Lambda e Crusoe. Ele permite acesso flexível a recursos de GPU para treinamento e inferência de modelos de IA, eliminando a dependência de provedores de nuvem tradicionais. Isso fortalece a estratégia de nuvem da NVIDIA voltada para empresas. 5
NVIDIA Dínamo
O Dynamo, anunciado na GTC 2025, é uma nova estrutura de inferência de código aberto projetada para implantação de modelos de IA generativa de alta taxa de transferência e baixa latência em ambientes distribuídos, aumentando o atendimento de solicitações em até 30 vezes no Blackwell, conforme mostrado na figura abaixo. Essa estrutura, compatível com ferramentas populares como PyTorch e TensorRT-LLM, utiliza inovações como estágios de inferência desagregados e agendamento dinâmico de GPUs para otimizar o desempenho e reduzir custos. Disponível no GitHub para desenvolvedores e incluído nos microsserviços NIM para soluções corporativas, o Dynamo facilita o atendimento de IA generativa escalável e econômico, desde sistemas com uma única GPU até sistemas com múltiplas GPUs. 6
NVIDIA Servidores RTX PRO e Fábrica de IA Empresarial
Anunciados em maio de 2025 na Computex, os servidores RTX PRO, equipados com GPUs RTX PRO 6000 Blackwell Server Edition, foram projetados para fábricas de IA corporativas. Esses servidores oferecem aceleração universal para aplicações de IA, design, engenharia e negócios, suportando cargas de trabalho como inferência de IA multimodal, IA física e gêmeos digitais na plataforma Omniverse.
O projeto validado da Enterprise AI Factory, que incorpora servidores RTX PRO, Ethernet Spectrum-X, DPUs BlueField e o software AI Enterprise, permite que parceiros como Cadence, Foxconn e Lilly criem infraestrutura de IA local. Essa iniciativa acelera a transição da indústria de TI, avaliada em trilhões de dólares, para fábricas de IA aceleradas por GPU. 8
DeepSeek
O lançamento da versão R1 do DeepSeek mostrou que modelos de última geração podem ser treinados com um número relativamente pequeno de GPUs. Isso levou a uma redução no preço das ações da NVIDIA. Embora isso não seja uma recomendação de investimento, pode ser positivo para a NVIDIA, visto que quanto mais utilidade o poder computacional proporciona, mais amplamente ele deve ser utilizado (ou seja, o paradoxo de Jevons). 9 ).
No entanto, considerando que o desempenho dos sistemas de GPU melhora várias vezes ao ano graças a avanços no design e na interconexão dos chips, os compradores fariam bem em não comprar além de suas necessidades anuais, pois isso pode levar à posse de sistemas obsoletos.
Tarifas e restrições à exportação
A empresa NVIDIA agora está autorizada a exportar processadores de IA avançados para o mercado chinês, o que representa uma mudança em relação à exigência anterior de vender apenas versões inferiores. No entanto, essas exportações enfrentam novos obstáculos logísticos e financeiros: os chips fabricados em Taiwan agora precisam passar pelos Estados Unidos para testes de terceiros, o que acarreta uma tarifa de segurança nacional recém-imposta de 25%.
Apesar do acesso restaurado a hardware de ponta, os custos adicionais e as complexidades da cadeia de suprimentos continuam a incentivar o governo chinês e a indústria de semicondutores a desenvolverem alternativas locais competitivas. Embora os chips chineses atualmente apresentem desempenho inferior à tecnologia mais recente da China, essas barreiras comerciais garantem que o desenvolvimento doméstico permaneça uma prioridade estratégica, podendo desafiar a dominância de mercado da China no futuro. 10
Competição no mercado de inferência
Embora a NVIDIA domine o mercado de "treinamento" de IA, a competição está se acirrando na "inferência", a aplicação de modelos de IA em tarefas do mundo real. Empresas como a AMD e diversas startups, incluindo a Untether AI e a Groq, estão desenvolvendo chips que visam fornecer soluções de inferência mais econômicas, com foco especial no menor consumo de energia.
As novas técnicas de IA de "raciocínio" exigem mais poder computacional. NVIDIA acredita que o raciocínio favorecerá sua arquitetura a longo prazo e espera que o mercado de inferência eventualmente supere o mercado de treinamento em tamanho, mesmo que sua participação de mercado seja menor. 11
2. AMD
AMD é uma fabricante de chips fabless com produtos de CPU, GPU e aceleradores de IA.
A Nvidia lançou o MI300 para cargas de trabalho de treinamento de IA em junho de 2023 e está competindo com a Nvidia por participação de mercado. Existem startups, institutos de pesquisa, empresas e gigantes da tecnologia que adotaram o hardware da Nvidia em 2023, visto que o hardware de IA da Nvidia tem sido difícil de adquirir devido à demanda crescente, impulsionada pelo crescimento da IA generativa desencadeado pelo lançamento do ChatGPT . 12 13 14 15
Em 2025, a AMD anunciou a aquisição de uma talentosa equipe de engenheiros de hardware e software de IA da Untether AI, desenvolvedora de chips de inferência de IA com baixo consumo de energia para provedores de edge computing e data centers corporativos. Essa aquisição fortalece as capacidades da AMD em desenvolvimento de compiladores de IA, kernels e design de chips, consolidando ainda mais sua posição no mercado de inferência. Além disso, a AMD adquiriu a startup de compiladores Brium para otimizar o desempenho de IA em suas GPUs Instinct para data centers, voltadas para aplicações corporativas. 16
A AMD lançará a série MI350 para substituir o MI300 e competir com o H200 da NVIDIA. A AMD afirma que o MI325X, outro chip recente, possui desempenho de inferência líder de mercado. 17
A AMD também está trabalhando com empresas de aprendizado de máquina como a Hugging Face para permitir que cientistas de dados usem seu hardware de forma mais eficiente. 18
O ecossistema de software é crucial, pois o desempenho do hardware depende fortemente da otimização do software. Por exemplo, AMD e NVIDIA tiveram uma divergência pública sobre a comparação de desempenho entre H100 e MI300. O foco da divergência era o pacote e a fonte de ponto flutuante a serem usados no teste de desempenho. De acordo com os testes de desempenho mais recentes, parece que o MI300 é melhor ou equivalente ao H100 para inferência em um modelo de lógica de 70 bits. 19 20
Software
Embora o hardware AMD esteja alcançando o NVIDIA, seu software está atrasado em termos de usabilidade. Enquanto o CUDA funciona imediatamente para a maioria das tarefas, o software AMD requer configuração significativa. 21
Ecossistema
Assim como a NVIDIA, a AMD está investindo seletivamente em usuários de suas soluções para impulsionar a adoção de seu hardware. 22
3. Intel
A Intel é a empresa mais importante no mercado de CPUs e possui uma longa história no desenvolvimento de semicondutores. Diferentemente da NVIDIA e da AMD, a Intel utiliza sua própria fundição para fabricar seus chips.
Gaudi3 é o mais recente processador acelerador de IA da Intel. 23 No entanto, a previsão de vendas da Intel para o Gaudi3 era de aproximadamente US$ 500 milhões para 2024, o que é significativamente menor em comparação com os bilhões que a AMD projeta ganhar em 2024.
A empresa Intel está enfrentando problemas de governança, como demonstrado pela saída de seu CEO, Pat Gelsinger, em dezembro de 2024. Uma parcela significativa dos membros do conselho da Intel não possui experiência em liderar uma empresa de semicondutores de forma operacional. 24 Após a saída de seu CEO, a estratégia da Intel nos mercados de IA e fundição permanece incerta.
Quais provedores de nuvem pública produzem chips de IA?
4. AWS
A AWS produz chips Tranium para treinamento de modelos e chips Inferentia para inferência. Embora a AWS seja líder de mercado em nuvem pública, ela começou a desenvolver seus próprios chips após Google.
Centenas de milhares de chips Tranium2 são usados para formar o cluster do Projeto Rainier, que alimenta os modelos do desenvolvedor da LLM, Anthropic.
5. Google Plataforma em Nuvem
O Cloud TPU é o chip acelerador de aprendizado de máquina desenvolvido especificamente para alimentar produtos como Tradutor, Fotos, Busca, Assistente e Gmail. Ele também pode ser usado através da Nuvem. A Microsoft anunciou os TPUs em 2016. 25 O Trillium TPU mais recente é a 6ª geração. 26
A Google apresentou o Ironwood. Esta última geração foi projetada especificamente para "modelos de pensamento" complexos, como LLMs e MoEs, oferecendo processamento paralelo massivo (4.614 TFLOPs por chip) e escalabilidade de até 42,5 Exaflops em pods de 9.216 chips. 27
O Ironwood oferece avanços significativos em relação ao Trillium, incluindo eficiência energética 2 vezes melhor, capacidade de memória de alta largura de banda 6 vezes maior (192 GB/chip), largura de banda HBM 4,5 vezes maior (7,2 TBps/chip) e velocidade de interconexão entre chips 1,5 vezes maior (1,2 Tbps). Ele também apresenta um SparseCore aprimorado para grandes embeddings. O Google também produz o Edge TPU, muito menor, para diferentes necessidades, projetado para implantação em dispositivos de borda, como smartphones e hardware de IoT.
6. Alibaba
A Alibaba produz chips como o Hanguang 800 para inferência. No entanto, algumas organizações norte-americanas, europeias e australianas (por exemplo, aquelas da indústria de defesa) podem não preferir usar o Alibaba Cloud por razões geopolíticas.
7. IBM
A IBM anunciou seu mais recente chip de aprendizado profundo, a unidade de inteligência artificial (AIU), em 2022. 28 IBM está considerando usar esses chips para alimentar sua plataforma de IA generativa Watsonx. 29
A AIU baseia-se no “ Processador Telum IBM ”, que alimenta os recursos de processamento de IA dos servidores mainframe IBM Z. No lançamento, os casos de uso destacados para os processadores Telum incluíam a detecção de fraudes . 30
IBM também demonstrou que a fusão de computação e memória pode levar a ganhos de eficiência. Isso foi demonstrado no protótipo do processador North Pole. 31
8. Huawei
O HiSilicon Ascend 910C, com código Huawei, faz parte da família de chips Ascend 910, lançada em 2019.
Devido às sanções, os laboratórios de IA na China não podem comprar os chips mais recentes e de melhor desempenho de empresas americanas como NVIDIA ou AMD. Portanto, eles estão experimentando com o Ascend 910C.
A nuvem de Huawei está hospedando modelos de DeepSeek, e um pesquisador de DeepSeek afirma que pode atingir 60% do desempenho de inferência H100 de NVIDIA. 32 33
Quais provedores de IA em nuvem produzem seus próprios chips?
Esses provedores não possuem nuvens públicas com recursos abrangentes como os hiperescaladores. Eles oferecem serviços de nuvem limitados, geralmente focados em inferência de IA. Conseguimos contratar esses serviços sem falar com as equipes de vendas:
8. Groq
A Groq foi fundada por ex-funcionários da Google. A empresa representa as LPUs, um novo modelo de arquitetura de chips de IA, que visa facilitar a adoção de seus sistemas pelas empresas. A startup já arrecadou cerca de US$ 350 milhões e lançou seus primeiros modelos, como o processador GroqChip™ e o acelerador GroqCard™.
A empresa está focada na inferência LLM e divulgou benchmarks para o Llama-2 70B. 34
Recentemente, a Groq garantiu um investimento significativo de US$ 1,5 bilhão da Arábia Saudita para expandir a distribuição de seus chips de IA avançados no país. Esse investimento será usado para ampliar o data center da Groq em Dammam, na Arábia Saudita, construído em parceria com a Aramco Digital. 35
No primeiro trimestre de 2024, a empresa informou que 70 mil desenvolvedores se inscreveram em sua plataforma em nuvem e criaram 19 mil novos aplicativos. 36
Em 1º de março de 2022, a Groq adquiriu a Maxeler, que possui soluções de computação de alto desempenho (HPC) para serviços financeiros. 37
9. SambaNova Sistemas
A SambaNova Systems foi fundada em 2017 para desenvolver sistemas de hardware e software de alto desempenho e alta precisão para cargas de trabalho de IA generativa de alto volume. A empresa arrecadou mais de 1,5 bilhão de dólares em financiamento total, incluindo uma rodada Série E de 350 milhões de dólares em fevereiro de 2026. 38
Em fevereiro de 2026, a Microsoft apresentou o chip SN50, sua mais recente Unidade de Dados Reconfigurável (RDU), que promete velocidade máxima 5 vezes maior que a de chips concorrentes e custo total de propriedade 3 vezes menor em comparação com GPUs para cargas de trabalho de IA com agentes. O SN50 oferece 5 vezes mais poder computacional por acelerador e 4 vezes mais largura de banda de rede que a geração anterior, o SN40L, e suporta uma arquitetura de memória de três camadas para modelos com mais de 10 trilhões de parâmetros e mais de 10 milhões de comprimentos de contexto de token. 39
A SoftBank Corp. será a primeira cliente a implantar o SN50 em seus data centers de IA de última geração no Japão.
A SambaNova também anunciou uma colaboração estratégica plurianual planejada com a Intel para fornecer soluções de inferência de IA, combinando os sistemas da SambaNova com processadores Xeon da Intel, GPUs da Intel e redes da Intel para impulsionar uma infraestrutura de inferência escalável como alternativa às soluções centradas em GPUs.
É importante destacar que a SambaNova Systems também aluga sua plataforma para empresas por meio da SambaCloud. Essa abordagem de plataforma de IA como serviço facilita a adoção de seus sistemas e incentiva a reutilização de hardware para a economia circular. 40
Quais são as principais startups de chips de IA?
Gostaríamos também de apresentar algumas startups do setor de chips de IA cujos nomes provavelmente ouviremos com mais frequência em um futuro próximo. Embora essas empresas tenham sido fundadas recentemente, elas já captaram milhões de dólares.
10. Cerebras
A Cerebras foi fundada em 2015 e é a única grande fabricante de chips focada em chips em escala de wafer. 41 Os chips em escala de wafer apresentam vantagens em paralelismo em comparação com as GPUs, graças à sua maior largura de banda de memória. No entanto, o projeto e a fabricação desses chips são tecnologias emergentes.
Os chips Cerebras incluem:
- WSE-1 com 1,2 trilhão de transistores e 400 mil núcleos de processamento.
- O WSE-2, com 2,6 trilhões de transistores e 850 mil núcleos, foi anunciado em abril de 2021. Ele utiliza o processo de 7 nm da TSMC.
- O WSE-3, com 4 trilhões de transistores e 900 mil núcleos de IA, foi anunciado em março de 2024. Ele utiliza o processo de 5 nm da TSMC. 42
O sistema da Celebra funciona com empresas farmacêuticas como a AstraZeneca e a GlaxoSmithKline, além de laboratórios de pesquisa que o utilizam para simulações. Ele também tem como alvo fabricantes de LLM ( Modelos de Aprendizagem Baseados em Lógica), já que seus chips podem reduzir os custos de inferência para modelos de vanguarda.
Cerebras também oferece seus chips em sua nuvem para empresas.
11. Matriz d
A d-Matrix adota uma abordagem inovadora, abandonando a arquitetura tradicional de von Neumann em favor da computação em memória. Embora essa abordagem tenha o potencial de resolver o gargalo entre memória e computação, trata-se de uma abordagem nova e ainda não comprovada. 43
12. Rebeliões
Uma startup sediada na Coreia do Sul arrecadou US$ 124 milhões em 2024 e está focada em inferência de LLM (mestrado em direito). 44
A Rebellions fundiu-se com outra empresa coreana de design de semicondutores, a SAPEON, e alcançou o status de unicórnio em 2024. 45
Em julho de 2025, a Rebellions garantiu investimento da gigante da tecnologia Samsung como parte de uma rodada de financiamento que visava arrecadar até US$ 200 milhões, antes de uma oferta pública inicial (IPO) planejada. A empresa já arrecadou US$ 220 milhões desde sua fundação em 2020 e está colaborando com a Samsung para lançar seu chip de segunda geração, o Rebel-Quad (composto por quatro chips Rebel AI), ainda em 2025, utilizando o processo de fabricação de 4 nanômetros da Samsung. 46
13. Tensorrent
O mais recente processador Blackhole Tensix da Tenstorrent oferece 664 TFLOPS (BLOCKFP8) de desempenho, combinado com 32 GB de memória GDDR6 e largura de banda de memória de 512 GB/s.
A placa P150a tem preço sugerido de US$ 1.399 e conta com quatro portas QSFP-DD 800G para expansão com múltiplas placas. O modelo básico P100a tem preço inicial de US$ 999. 47
A TensorTorrent oferece uma plataforma de software totalmente de código aberto. A empresa captou US$ 700 milhões em dezembro de 2024, com uma avaliação de mercado superior a US$ 2,6 bilhões, junto a investidores como Jeff Bezos. 48
14. Pósitron
A Positron foi fundada em 2023 e se concentra exclusivamente na inferência de modelos Transformer. A empresa adota uma abordagem ASIC, construindo hardware específico otimizado para arquiteturas Transformer, em vez de computação de GPU de propósito geral.
Produtos:
- Atlas (já disponível para envio): Um servidor de inferência de transformadores com 8 aceleradores Positron Archer Transformer e 256 GB de HBM no total. A empresa afirma um desempenho por watt >4 vezes superior e um desempenho por dólar >3 vezes superior em comparação com sistemas Hopper, testados no Llama 3.1 8B com computação BF16. 49
- Titan (previsto para 2027): Um sistema de última geração com mais de 8 TB de memória, alimentado por 4 chips Asimov personalizados, projetado para suportar até 16 trilhões de modelos de parâmetros e mais de 10 milhões de janelas de contexto de tokens em um formato 4U com refrigeração a ar. 50
- Asimov (previsto para 2027): Chip acelerador de inferência personalizado com mais de 2 TB de memória por chip.
A Positron levantou mais de US$ 230 milhões em uma rodada de financiamento Série B no início de 2026, com investidores como QIA, Arm Holdings, Arena e Jump Trading. 51
O Atlas é atualmente utilizado por empresas de redes, jogos, moderação de conteúdo, CDN e Token como Serviço. A Positron afirma que seu sistema Atlas demonstrou latência de ponta a ponta 3 vezes menor para cargas de trabalho de inferência de negociação em comparação com sistemas H100 similares, consumindo um terço da energia.
Os chips da Positron são projetados, fabricados e montados nos Estados Unidos.
15. _gravado
Sua abordagem sacrifica a flexibilidade em prol da eficiência, incorporando a arquitetura do transformador diretamente nos chips.
A equipe afirma
- A Sohu construiu o primeiro ASIC para transformadores do mundo.
- Esses 8 chips Sohu podem gerar mais de 500.000 tokens por segundo. Isso é uma ordem de magnitude maior do que o que 8 NVIDIA B200s conseguem alcançar.
Atualmente, esses dados são baseados em medições internas da equipe. As equipes da AIMultiple ainda não encontraram nenhum benchmark ou referência de cliente. Temos curiosidade em saber:
- O que acontece quando o modelo fica obsoleto? Os usuários precisam comprar um novo chip ou o chip antigo pode ser reconfigurado com o modelo seguinte?
- Como eles executaram o teste de desempenho? Qual quantização e modelo foram utilizados?
Atualizaremos esta página assim que a equipe do _etched divulgar mais detalhes. Será interessante observar se a gravação de modelos em chips será sustentável, considerando o lançamento de novos modelos a cada poucos meses.
16. Taalas
A Taalas foi fundada no início de 2023 e adota a abordagem mais extrema para a especialização em chips de IA: integrando modelos individuais diretamente em silício personalizado, produzindo o que a empresa chama de "Modelos Hardcore". 52 A empresa afirma que pode transformar qualquer modelo de IA nunca antes visto em silício personalizado em dois meses.
A arquitetura da Taalas unifica armazenamento e computação em um único chip com densidade semelhante à da DRAM, eliminando a necessidade de HBM, encapsulamento avançado, empilhamento 3D, resfriamento líquido ou E/S de alta velocidade. A empresa descreve isso como uma simplificação radical da pilha de hardware.
Produtos:
- HC1 (já disponível): Um demonstrador tecnológico com Llama 3.1 8B integrado, construído em TSMC 6nm com 53 bilhões de transistores. A Taalas afirma que ele processa 17.000 tokens por segundo por usuário, o que, segundo a empresa, é quase 10 vezes mais rápido que o estado da arte atual, com um custo de produção 20 vezes menor e um consumo de energia 10 vezes menor em um servidor refrigerado a ar de 2,5 kW. No entanto, o modelo utiliza quantização personalizada agressiva de 3 e 6 bits, o que introduz degradação de qualidade em comparação com as GPUs convencionais. 53
- HC2 (planejado): Uma plataforma de segunda geração com maior densidade, execução mais rápida e formatos padrão de ponto flutuante de 4 bits para solucionar as limitações de quantização do HC1.
A Taalas arrecadou mais de 200 milhões de dólares, mas afirma ter gasto apenas 30 milhões de dólares para lançar seu primeiro produto no mercado com uma equipe de 24 pessoas.
17. Extrópico
A Extropic levantou US$ 14 milhões em uma rodada de investimentos no final de 2023 para usar a termodinâmica na computação. A empresa ainda não lançou um chip.
18. Vaire
A Vaire é uma startup sediada no Reino Unido, pioneira em computação reversível, uma abordagem inovadora que visa criar chips com consumo de energia próximo de zero. Ao contrário da computação tradicional, onde a energia é perdida na forma de calor, a computação reversível recicla uma parcela significativa da energia para cálculos subsequentes.
A Vaire demonstrou um chip de teste capaz de recuperar 50% da sua energia, mostrando o potencial da tecnologia para reduzir o consumo de energia das cargas de trabalho de IA e contornar as limitações físicas, ou barreira térmica, que representam um desafio para a fabricação moderna de semicondutores. 54
Quais são os próximos fabricantes de hardware de IA?
Embora essas sejam soluções de hardware de IA atraentes, atualmente existem poucos parâmetros de avaliação de sua eficácia, visto que são recém-chegadas ao mercado.
19. Apple
O projeto ACDC da Apple, segundo informações, tem como foco a construção de chips para inferência de IA. 55 A Apple já é uma grande projetista de chips, com seus semicondutores projetados internamente e usados em iPhones, iPads e MacBooks.
20. Meta
O Acelerador de Treinamento e Inferência (MTIA) é uma família de processadores para cargas de trabalho de IA, como o treinamento de modelos LLaMa.
O modelo mais recente é o Next Gen MTIA, baseado na tecnologia de 5 nm da TSMC e que, segundo a empresa, apresenta desempenho três vezes superior ao do MTIA v1. O MTIA será instalado em racks com capacidade para até 72 aceleradores. 56
O MTIA destina-se atualmente ao uso interno da Meta. No entanto, no futuro, caso a Meta lance uma oferta de IA generativa empresarial baseada em LLaMa, esses chips poderão impulsionar tal oferta.
21. Microsoft Azure
Na Hot Chips 2024, a Microsoft apresentou o Maia 100, seu primeiro acelerador de IA personalizado, projetado para otimizar cargas de trabalho de IA em larga escala no Azure por meio da co-otimização de hardware e software. Construído com o processo N5 da TSMC e com tecnologia avançada de memória e interconexão, o Maia 100 visa alto desempenho e diversos formatos de dados, oferecendo aos desenvolvedores flexibilidade por meio de seu SDK para rápida implementação de modelos PyTorch e Triton. No entanto, o chip de IA de próxima geração da Microsoft, com codinome Braga, enfrenta atrasos de 2025 para 2026 devido a mudanças de design, restrições de pessoal e alta rotatividade, podendo ficar atrás do chip Blackwell da Nvidia em eficiência energética.
22. OpenAI
A OpenAI está finalizando o projeto de seu primeiro chip de IA com a Broadcom e a TSMC, utilizando a tecnologia de 3 nanômetros da TSMC. A equipe de desenvolvimento de chips da OpenAI tem experiência no projeto de TPUs na Google e pretende iniciar a produção em massa do chip em 2026. 57
Quais são os outros fabricantes de chips de IA?
23. Graphcore
A Graphcore é uma empresa britânica fundada em 2016. A empresa anunciou seu principal chip de IA, o IPU-POD256. A Graphcore já recebeu um financiamento de cerca de US$ 700 milhões.
A empresa possui parcerias estratégicas com corporações de armazenamento de dados como DDN, Pure Storage e Vast Data. Os chips de IA da Graphcore atendem institutos de pesquisa como o Oxford-Man Institute of Quantitative Finance, a Universidade de Bristol e a Universidade da Califórnia, Berkeley.
A viabilidade da empresa a longo prazo estava em risco, pois ela estava perdendo cerca de US$ 200 milhões por ano. 58 Foi adquirida pelo Softbank por mais de 600 milhões de dólares em outubro de 2024. 59
24. Mítico
A Mythic foi fundada em 2012 e se concentra em IA de ponta. A Mythic segue um caminho não convencional, uma arquitetura de computação analógica, que visa fornecer computação de IA de ponta com baixo consumo de energia.
A empresa desenvolveu produtos como o M1076 AMP e o cartão-chave MM1076, e já angariou cerca de 165 milhões de dólares em financiamento. 60
A Mythic demitiu a maior parte de seus funcionários e reestruturou seus negócios com a rodada de financiamento em março de 2023. 61
25. Speedata
Fundada em 2019 em Tel Aviv, a Speedata desenvolve uma Unidade de Processamento Analítico (APU) projetada para acelerar cargas de trabalho de análise de big data e IA. Trata-se de uma APU voltada para cargas de trabalho do Apache Spark, com planos de suporte para outras plataformas importantes de análise de dados.
A Speedata levantou US$ 44 milhões em uma rodada de financiamento Série B em junho de 2025, liderada pela Walden Catalyst Ventures, 83North e outros, elevando seu financiamento total para US$ 114 milhões. A empresa afirma que sua APU supera processadores de uso geral e GPUs, substituindo racks de servidores por um único chip, oferecendo desempenho superior e eficiência energética para processamento de dados. 62
26. Axelera AI
Fundada em julho de 2021 em Eindhoven, na Holanda, a Axelera AI é especializada em tecnologia de aceleração de hardware para IA voltada para visão computacional e IA generativa. A empresa está desenvolvendo o Titania, um chiplet de inferência de IA baseado em sua arquitetura de Computação Digital em Memória (D-IMC), projetado para acelerar cargas de trabalho de IA da borda à nuvem.
Em março de 2025, a Axelera AI garantiu um financiamento de até € 61,6 milhões da EuroHPC Joint Undertaking (JU) e dos estados-membros no âmbito do Projeto DARE, após uma rodada de financiamento Série B anterior de US$ 68 milhões. Com isso, o financiamento total da empresa ultrapassa US$ 200 milhões em três anos. A Axelera AI pretende implementar o Titania até 2028 para atender à crescente demanda por soluções de IA de alto desempenho, custo-benefício e sustentáveis, enfatizando sua capacidade de melhorar a produtividade e a eficiência em comparação com as soluções tradicionais em nuvem. 63
Parceiros de fundição e o papel da TSMC
Como a principal fundição independente do mundo, a TSMC fabrica semicondutores com base em projetos de clientes, em vez de criar seus próprios chips, o que a diferencia de empresas como a Samsung Foundry e a TSMC Foundry Services. Embora a Samsung Foundry e a TSMC Foundry Services concorram nesse segmento, a TSMC mantém uma vantagem tecnológica.
Suas tecnologias de processo avançadas, particularmente seus nós pioneiros de 5nm e 3nm, fornecem a combinação essencial de desempenho e eficiência energética necessária para aplicações de IA de ponta, como demonstrado em suas parcerias de fabricação com os designers de chips de IA listados abaixo:
Planos de expansão
A TSMC está buscando a Nvidia, a Broadcom e a [nome da empresa] para investir em uma joint venture para administrar a divisão de fundição da [nome da empresa], mantendo o controle operacional, mas com menos de 50% de participação. Essa iniciativa, apoiada pelo governo Trump, surge após a TSMC anunciar planos para um investimento significativo nos EUA e visa revitalizar a [nome da empresa] e fortalecer a fabricação de chips no país. O acordo enfrenta desafios devido às diferenças de processo, mas se baseia nos pontos fortes da TSMC como uma fundição líder. 64 65
Quais são os fabricantes de chips de IA na China?
Devido às sanções dos EUA que impedem muitas empresas chinesas de adquirir os chips de IA mais avançados da China, os compradores chineses aumentaram suas compras de produtores locais.
Além da Huawei e da Alibaba, já mencionadas, estes são os principais produtores de chips de IA na China:
- A Cambricon concentra-se em hardware de IA e espera faturar cerca de US$ 150 milhões em seu último ano de operação. 66
- A Baidu está usando chips Kunlun em sua nuvem e está projetando o chip de 3ª geração. O Kunlun 2 era comparável ao NVIDIA A100.
- A Biren , fundada por ex-alunos da NVIDIA, produz os chips de GPU BR106 e BR110.
- A Moore Threads produz GPUs MTT S2000.
Perguntas frequentes
Os chips e os equipamentos que os fabricam são as máquinas mais complexas já construídas pela humanidade. Embora existam muitas empresas no ecossistema de semicondutores, neste artigo nos concentramos em projetistas de chips como a NVIDIA.
A maioria dos projetistas de chips terceiriza a fabricação para fundições como a TSMC. Essas fundições utilizam equipamentos de litografia produzidos por empresas como a ASML para fabricar esses chips. O ecossistema é suportado por fornecedores como a Arm e a Synopsys, que fornecem propriedade intelectual e ferramentas de projeto.
Como visto acima, o aumento no número de parâmetros, no tamanho do conjunto de dados e na capacidade computacional levou os modelos de IA generativa a se tornarem mais precisos. Para construir modelos de aprendizado profundo melhores e impulsionar aplicações de IA generativa, as organizações precisam de maior poder computacional e largura de banda de memória.
Chips de uso geral potentes (como CPUs) não conseguem suportar modelos de aprendizado profundo altamente paralelizados. Portanto, chips de IA (por exemplo, GPUs) que permitem recursos de computação paralela estão cada vez mais em demanda.
Os provedores de hiperescala estão respondendo a isso projetando seus próprios chips, um processo que leva anos. Os demais precisam seguir um destes caminhos para construir seus próprios modelos de IA: alugar capacidade de provedores de GPUs em nuvem ou comprar hardware dos principais fornecedores de chips de IA listados neste artigo.
O hardware de IA também é chamado de unidades de processamento neural (NPUs), aceleradores de IA ou processadores de aprendizado profundo (DLPs).
Leitura complementar
Você também pode consultar nossa lista classificável de empresas que trabalham em chips de IA .
Você pode gostar de ler nossos artigos sobre TinyML e computação acelerada .
Se você tiver dúvidas sobre como o hardware de IA pode ajudar sua empresa, podemos ajudar:
Encontre os fornecedores certos
Visite o site
Comentários 2
Compartilhe suas ideias
Seu endereço de e-mail não será publicado. Todos os campos são obrigatórios.
You forgot to include Tesla with their DOJO supercomputer. From the ground-up, the supercomputer was specifically designed for machine learning and image recognition - which means that every component was designed for it including, but not limited to, PCI board design, CPU, RAM, cooling, power, scalable hardware design and software. If I'm not mistaken, the AI is also the second most widely tested and used in the "wild", just below that of Google due to Google using it in their Search.
Thank you for your feedback, Dave! Here we are only covering companies that sell the chips that they produce. Therefore, companies like Tesla that build supercomputers for their own use or companies that embed chips in their products are out of our scope.
surprised that brainchip (akida) missing in this report. any reasons?
All included companies here raised $100+M. Last time we collected the data, that wasn't the case for akida. Why don't you reach out to us at info@aimultiple.com and let's discuss why it should be included. Thank you!