Inteligência Artificial Generativa Empresarial: 11 Casos de Uso e Melhores Práticas
A Inteligência Artificial Generativa (GenAI) apresenta novas oportunidades para empresas em comparação com empresas de médio porte ou startups, incluindo:
- Casos de uso de IA generativa em empresas .
- A oportunidade de construir os modelos da sua empresa sem expor dados privados a terceiros.
No entanto, a IA generativa traz desafios específicos para grandes organizações. Por exemplo:
- 36% das empresas citam preocupações com a exposição de dados proprietários ao usar LLMs comerciais. 1
- A GenAI também acelerará o desenvolvimento de novos serviços e soluções, permitindo que os concorrentes entrem nos mercados mais rapidamente e conquistem participação de mercado.
- A automação baseada em modelos generativos pode melhorar a experiência do cliente ou reduzir custos, mas também pode introduzir riscos operacionais e de reputação devido a vieses ou alucinações da IA .
Explore nossos casos de uso práticos de IA empresarial para aprender como grandes empresas podem construir, implantar e governar seus próprios modelos de IA generativa de forma eficaz.
Casos de uso de inteligência artificial generativa em empresas
A internet está repleta de casos de uso B2C, como a redação de e-mails com suporte de IA generativa, que não exigem integração profunda ou modelos especializados. No entanto, o valor empresarial da IA generativa provém das aplicações de IA corporativas listadas abaixo:
Casos de uso comuns
Gestão do Conhecimento Empresarial (EKM): Embora as PMEs e empresas de médio porte não enfrentem dificuldades para organizar seus dados limitados, as empresas da Fortune 500 ou da lista Global Forbes 2000 precisam de ferramentas de gestão do conhecimento empresarial para inúmeras aplicações. A IA generativa pode ser uma solução. As aplicações incluem:
- Extração de insights por meio da marcação de dados não estruturados, como documentos.
- Resumo de dados não estruturados.
- A busca empresarial vai além da busca por palavras-chave, levando em consideração as relações entre as palavras.
Parte da busca corporativa inclui responder a perguntas de funcionários sobre:
- Práticas da empresa (ex: políticas de RH)
- Dados internos da empresa, como previsões de vendas
- Uma combinação de dados internos e externos. Por exemplo: como possíveis sanções futuras direcionadas às vendas de sistemas MLOps para o nosso terceiro maior mercado geográfico afetariam o desempenho da nossa empresa?
Organizações de maior porte atendem clientes globais, e a capacidade de tradução automática dos LLMs é valiosa em casos de uso como:
- Localização de sites
- Criar documentação, como manuais técnicos, em grande escala para todas as regiões geográficas.
- Atendimento ao cliente multilíngue
- Monitoramento de mídias sociais direcionado a um público global.
- Análise de sentimentos multilíngue
Aplicações específicas da indústria
A maior parte do valor empresarial provavelmente virá do uso de tecnologias de IA generativa para inovação em setores específicos das empresas: isso pode se manifestar na forma de novos produtos e serviços ou novas maneiras de trabalhar (por exemplo, aprimoramento de processos com IA generativa). As listas abaixo de aplicações de IA generativa podem servir como ponto de partida:
- Serviços financeiros GenAI
- IA generativa na educação
- IA generativa da moda
- IA generativa na área da saúde
Como as empresas devem aproveitar a IA generativa?
Traçamos um caminho detalhado para que as empresas aproveitem a IA generativa. Embora a maioria das empresas possa não precisar construir seus próprios modelos, espera-se que a maioria das grandes corporações (como as da lista Forbes Global 2000) construa ou otimize um ou mais modelos de IA generativa específicos para suas necessidades de negócios nos próximos anos. O ajuste fino pode permitir que as empresas alcancem esses objetivos:
- Obtenha maior precisão personalizando detalhadamente a saída do modelo para seu próprio domínio.
- Economize custos . Modelos personalizáveis com licenças que permitem uso comercial demonstraram ser quase tão precisos quanto modelos proprietários, a um custo significativamente menor. 2
- Reduzir a superfície de ataque para seus dados confidenciais.
Empresas como a Bloomberg estão alcançando desempenho de classe mundial ao desenvolver suas próprias ferramentas generativas de IA, aproveitando dados internos. 3
Quais são as diretrizes para modelos de IA empresarial?
No mínimo, um modelo de IA generativa empresarial deve ser:
Confiável
Consistente
A maioria dos modelos de lógica latente (LLMs) atuais pode fornecer resultados diferentes para a mesma entrada. Isso limita a reprodutibilidade dos testes, o que pode levar ao lançamento de modelos que não foram suficientemente testados.
Controlado
As empresas devem hospedar ou integrar IA generativa em ambientes onde possam gerenciar a segurança e a conformidade em um nível granular (por exemplo, em infraestruturas locais ou instâncias dedicadas na nuvem). A alternativa é usar interfaces de chat online ou APIs como as APIs LLM da OpenAI.
A desvantagem de depender de APIs é que o usuário pode precisar expor dados confidenciais e proprietários ao dono da API. Isso aumenta a superfície de ataque para dados proprietários. Líderes globais como Amazon e Samsung sofreram vazamentos de dados de documentos internos e código-fonte valioso quando seus funcionários usaram o ChatGPT. 4 5
Desde então, as ofertas empresariais amadureceram significativamente:
- OpenAI Enterprise (2023) e, posteriormente, a equipe ChatGPT (2024) introduziram retenção zero de dados, conformidade com SOC 2, integração SSO/SAML e controles de administrador. 6
- Os principais fornecedores (por exemplo, Anthropic, Microsoft, Google, Cohere) agora anunciam opções de exclusão de dados do cliente, o que significa que os avisos e resultados do usuário não são usados para o treinamento do modelo.
- Os fornecedores também começaram a se alinhar aos requisitos da Lei de IA da UE (2024), que enfatiza princípios de IA responsável, como transparência, auditabilidade e gerenciamento de riscos em sistemas de IA de alto risco.
Apesar desses avanços, ainda existem riscos residuais ao depender de sistemas de nuvem de terceiros:
- Funcionários mal-intencionados ou fornecedores comprometidos ainda poderiam acessar dados corporativos.
- Configurações incorretas da API podem expor fluxos de dados sensíveis.
- A falta de clareza nos LLMs continua a representar um desafio para as equipes de compliance.
Para setores altamente regulamentados, a hospedagem própria ou a implantação privada de modelos básicos (por meio de modelos de código aberto como LLaMA-4, Mistral ou Granite) continua sendo a abordagem mais segura, embora com um custo operacional mais elevado.
Explicável
Infelizmente, a maioria dos modelos de IA generativa não consegue explicar por que fornece determinadas saídas. Isso limita seu uso, já que usuários corporativos que desejam basear decisões importantes em assistentes com IA precisam conhecer os dados que embasaram essas decisões. A IA generativa para sistemas de gestão de aprendizagem (LLMs) ainda é uma área de pesquisa.
Confiável
Alucinações (ou seja, a invenção de mentiras) são uma característica dos LLMs e dificilmente serão completamente resolvidas. Os sistemas de IA empresarial exigem os processos e mecanismos de proteção necessários para garantir que as alucinações prejudiciais sejam minimizadas, detectadas ou identificadas por humanos antes que possam prejudicar as operações da empresa.
As empresas dependem cada vez mais de pipelines de geração aumentada por recuperação (RAG) para reduzir as alucinações, fundamentando os modelos em dados confiáveis. No entanto, ainda existem desafios em infraestrutura, armazenamento e segurança, tornando o RAG não apenas uma solução paliativa, mas uma necessidade empresarial de longo prazo. 7
Seguro
Os modelos corporativos podem ter interfaces para usuários externos. Atores maliciosos podem usar técnicas como injeção de prompts para fazer com que o modelo execute ações não intencionais ou compartilhe dados confidenciais.
Ético
Formação ética
O modelo deve ser treinado com dados de origem ética, onde a Propriedade Intelectual (PI) pertence à empresa ou ao seu fornecedor e os dados pessoais são usados com consentimento.
- Questões de propriedade intelectual em IA generativa, como dados de treinamento que incluem conteúdo protegido por direitos autorais quando os direitos autorais não pertencem ao proprietário do modelo, podem levar a modelos inutilizáveis e processos judiciais.
- A utilização de informações pessoais em modelos de treinamento pode gerar problemas de conformidade. Por exemplo, o ChatGPT de OpenAI precisou divulgar suas políticas de coleta de dados e permitir que os usuários removessem seus dados após as preocupações da Autoridade Italiana de Proteção de Dados (Garante). 8
Leia sobre questões e soluções de direitos autorais em IA generativa para saber mais.
Justo
Para as empresas, modelos de negócios injustos podem acarretar diversos riscos:
- Risco regulatório: Sistemas de IA usados em recrutamento, empréstimos, seguros ou assistência médica podem violar leis antidiscriminatórias se produzirem resultados tendenciosos .
- Risco operacional: Resultados tendenciosos podem prejudicar a qualidade das decisões, como recomendar candidatos inadequados ou classificar incorretamente segmentos de clientes.
- Risco para a reputação: A exposição pública de comportamentos tendenciosos da IA pode prejudicar a confiança na marca e o relacionamento com os clientes.
- Limitações de mercado: Modelos treinados principalmente em uma única geografia, idioma ou grupo demográfico podem apresentar desempenho insatisfatório em mercados globais.
Como as empresas abordam a equidade
As empresas abordam a equidade na IA por meio de uma combinação de práticas de governança e salvaguardas técnicas:
- Eles selecionam conjuntos de dados de treinamento diversos e representativos e removem atributos sensíveis ou variáveis proxy que possam introduzir viés.
- Os modelos são avaliados usando métricas de equidade (por exemplo, paridade demográfica ou igualdade de oportunidades) e testados em casos extremos para identificar possíveis disparidades.
- As organizações também incorporam a supervisão humana, como a validação com intervenção humana para decisões de alto impacto e comitês de revisão ética de IA.
- As empresas monitoram continuamente os resultados dos modelos em produção para detectar padrões tendenciosos e retreinar os modelos à medida que novos dados ou dados mais equilibrados se tornam disponíveis.
Licenciado
A empresa precisa ter uma licença comercial para usar o modelo. Por exemplo, modelos como o LLaMa de Meta possuem licenças não comerciais, o que impede seu uso legal na maioria dos casos em uma empresa com fins lucrativos. Modelos com licenças permissivas, como o Vicuna, construído sobre o LLaMa, também acabam tendo licenças não comerciais, já que utilizam o modelo LLaMa. 9 10
Sustentável
Treinar modelos de IA generativa do zero é caro e consome muita energia , contribuindo para as emissões de carbono. Os líderes empresariais devem estar cientes do custo total da tecnologia de IA generativa e identificar maneiras de minimizar seus custos ecológicos e financeiros.
As empresas podem se esforçar para seguir a maioria dessas diretrizes, que existem em um espectro contínuo, exceto nas questões de licenciamento, preocupações éticas e controle.
- É claro como obter o licenciamento correto e evitar problemas éticos, mas esses são objetivos difíceis de alcançar.
- Para obter controle, as empresas precisam construir seus próprios modelos fundamentais; no entanto, a maioria das empresas não tem clareza sobre como fazer isso.
Como as empresas podem construir modelos fundamentais?
Existem duas abordagens para construir a infraestrutura de LLM da sua empresa em um ambiente controlado.
1- Construa seu próprio modelo (BYOM)
Essa abordagem permite um desempenho de classe mundial, com um custo de alguns milhões de dólares, incluindo os custos de computação (1,3 milhão de horas de GPU em GPUs A100 de 40 GB no caso do BloombergGPT) e da equipe de ciência de dados. 11
A implementação do BYOM (Bring Your Own Model) é adotada principalmente por empresas em setores altamente regulamentados (como finanças, saúde e defesa), onde a sensibilidade dos dados e os requisitos de conformidade superam os custos. Algumas empresas seguem uma abordagem híbrida, treinando modelos menores específicos para cada domínio e, ao mesmo tempo, utilizando modelos externos como base para raciocínio de propósito geral.
2- Aprimorar um modelo existente
A maioria das empresas adota essa abordagem devido à sua relação custo-benefício e flexibilidade. Vários métodos estão disponíveis:
2.1 - Ajustes finos
Trata-se de uma técnica de aprendizado de máquina mais barata para melhorar o desempenho de grandes modelos de linguagem pré-treinados (LLMs) usando conjuntos de dados selecionados.
O ajuste fino de instruções era anteriormente feito com grandes conjuntos de dados, mas agora pode ser realizado com um conjunto de dados pequeno (por exemplo, 1.000 prompts e respostas selecionadas, no caso do LIMA). 12 A importância de uma abordagem robusta de coleta de dados, otimizando a qualidade e a quantidade dos dados, é destacada nos primeiros experimentos comerciais de ajuste fino do LLM. 13
Os custos computacionais em artigos de pesquisa chegaram a ser de apenas US$ 100, alcançando um desempenho próximo ao de nível internacional. 14
O ajuste fino de modelos é um domínio emergente, com novas abordagens como a Intervenção em Tempo de Inferência (ITI, na sigla em inglês), uma abordagem para reduzir as alucinações do modelo, sendo publicadas semanalmente. 15
2.2 - Aprendizagem por Reforço a partir do Feedback Humano (RLHF)
Um modelo bem ajustado pode ser ainda mais aprimorado pela avaliação humana no processo. 16 17
2.3 - Geração aumentada de recuperação (RAG)
O RAG permite que as empresas transmitam informações cruciais aos modelos durante o processo de geração de respostas. Os modelos podem usar essas informações para produzir respostas mais precisas.
Frameworks contemporâneos como LangChain e LlamaIndex facilitam a integração segura de dados empresariais estruturados e não estruturados. Métodos RAG avançados agora incluem recuperação multi-hop e integração de busca em tempo real, aprimorando ainda mais a confiabilidade e a precisão factual.
As empresas estão migrando para o aterramento automático, em que os modelos se conectam automaticamente a fontes de dados em tempo real para manter os resultados atualizados. Provedores de nuvem como o Azure agora definem o RAG como a arquitetura central para copilotos, sistemas de conhecimento e aplicativos do cliente, priorizando escalabilidade e segurança. 18
Considerando os altos custos envolvidos no BYOM (Bring Your Own Model), recomendamos que as empresas utilizem inicialmente versões otimizadas de modelos existentes. A otimização de modelos de linguagem é uma área emergente, com novas abordagens sendo desenvolvidas semanalmente. Portanto, as empresas devem estar abertas à experimentação e preparadas para mudar sua abordagem.
Os melhores modelos de fundação com boa relação custo-benefício para empresas
Plataformas de aprendizado de máquina lançaram modelos básicos com licenças comerciais que se baseiam principalmente em textos da internet como fonte primária de dados. Esses modelos podem ser usados como base para construir grandes modelos de linguagem corporativos.
OpenAI GPT-5
GPT-5.4 é o modelo de vanguarda mais recente da OpenAI, projetado para trabalhos profissionais e complexos que exigem conhecimento especializado. Suas funcionalidades incluem:
- Raciocínio avançado e trabalho intelectual: Produz resultados de alta qualidade para tarefas como relatórios, planilhas, apresentações e análises em diversas áreas profissionais.
- Capacidade de codificação: Integra os pontos fortes de codificação do Codex GPT-5.3, permitindo a geração de código com qualidade de produção e alterações de software em vários arquivos.
- Fluxos de trabalho e uso de ferramentas com agentes: Permitem pesquisar e selecionar ferramentas, automatizar fluxos de trabalho com várias etapas e executar tarefas longas de forma mais confiável.
- Capacidade nativa de uso do computador: os agentes podem interagir com o software usando capturas de tela, ações do mouse/teclado ou código de automação para concluir tarefas em aplicativos e sites.
- Janela de contexto ampla: Suporta até 1 milhão de tokens, permitindo a análise de grandes bases de código, documentos extensos ou fluxos de trabalho complexos em um único prompt.
A versão GPT-5.4 apresenta melhorias significativas em diversos benchmarks. Ela alcança 83% de vitórias/empates no GDPval para tarefas de trabalho intelectual (um aumento em relação aos 70,9% da versão GPT-5.2). Em engenharia de software, atinge 57,7% no SWE-Bench Pro, indicando um sólido desempenho de codificação. Para tarefas de uso do computador, alcança 75% no OSWorld-Verified, superando a linha de base humana de 72,4%.
Também apresenta bom desempenho em pesquisas na web, com 82,7% no BrowseComp.
Além disso, as respostas de GPT-5.4 têm 33% menos probabilidade de serem falsas e 18% menos probabilidade de conter erros em comparação com GPT-5.2. 19
GPT-5.3-Codex é o modelo de codificação agentiva de OpenAI, combinando os recursos avançados de engenharia de software de GPT-5.2-Codex com o raciocínio mais amplo e o conhecimento profissional de GPT-5.2.
O modelo gerencia fluxos de trabalho de desenvolvimento complexos, como pesquisa, uso de ferramentas em várias etapas e tarefas de codificação de longa duração, em grandes bases de código.
Figura 1: Um exemplo de um prompt para geração de slides usando GPT-5.3-Codex. 20
DeepSeek
DeepSeek-V3, de DeepSeek, é um modelo MoE (~671B, licenciado sob a licença MIT) com forte desempenho em raciocínio e codificação, e é de código aberto desde março de 2025. 21
DeepSeek-V3.1 por DeepSeek (agosto de 2025) amplia as capacidades de contexto longo com um tokenizador atualizado e pesos abertos. 22
Google DeepMind
Gemini 3.1 Pro (Google DeepMind) é um modelo de linguagem de ponta projetado para raciocínio complexo, codificação e tarefas multimodais, capaz de processar informações em texto , imagens , áudio , vídeo , código e documentos .
Em diversos testes de desempenho, o Gemini Pro demonstra um excelente resultado em tarefas de raciocínio, codificação e multimodais. Ele alcança 77,1% no ARC-AGI-2 para raciocínio abstrato e 94,3% no GPQA Diamond para questões científicas de nível de pós-graduação. No Humanity's Last Exam, que avalia o raciocínio acadêmico, ele obtém 44,4% sem o uso de ferramentas.
Para codificação e engenharia de software, o modelo atinge 68,5% no Terminal-Bench 2.0 e 80,6% no SWE-Bench Verified. Ele também apresenta bom desempenho em benchmarks de conhecimento e multimodal, alcançando 92,6% no MMMLU (conhecimento multilíngue) e cerca de 80,5% no MMMU-Pro (raciocínio multimodal). 23
Meta LLaMA
O LaMA 4, desenvolvido por Meta, foi lançado como LLaMA 4 Maverick , Scout e uma prévia do Behemoth. Esses modelos são nativamente multimodais (texto e visão), suportam janelas de contexto de até 10 milhões de tokens e permanecem otimizados para eficiência. 24
Llama 3 por Meta era o modelo anterior com uma licença de uso comercial com algumas limitações para empresas muito grandes. 25
Mistral AI
Mistral 8x22B é o mais recente modelo de pesos abertos desenvolvido pela startup europeia de IA generativa Mistral. Com sua licença permissiva (Apache 2.0), que permite o uso comercial sem restrições específicas para grandes empresas, ele pode ser atraente para todos os tipos de negócios. 26 A Mistral também oferece modelos como Mistral Large, mas esse modelo tem licenciamento mais restritivo. 27
Recentemente, a Mistral expandiu sua linha de produtos para incluir modelos como o Mistral Large 3; modelos menores como o Mistral Small e o Medium; modelos de codificação especializados como o Codestral e o Devstral; e modelos de áudio como o Voxtral Transcribe 2, que oferece recursos de transcrição de fala em lote e em tempo real. 28
IBM
Os modelos Granite de IBM apresentam alto desempenho de acordo com benchmarks de geração de código e estão disponíveis sob a licença permissiva Apache 2.0. 29
O ecossistema Granite também se expandiu para incluir modelos de fala, como o Granite-4.0-1B-Speech, que oferece suporte ao reconhecimento e à tradução de fala multilíngue. 30
Databricks
O DBRX é um modelo de pesos abertos desenvolvido pela plataforma de dados Databricks. Ele vem com uma licença comercial com limitações semelhantes às dos modelos da Meta. As limitações se aplicam a empresas que atendem a mais de 700 milhões de usuários ativos. 31
Grok
O Grok-4 da xAI foi lançado em julho de 2025 com uso nativo de ferramentas, integração de busca em tempo real e uma variante "Heavy" para raciocínio avançado. O Grok 4.1 foi lançado em novembro de 2025, aprimorando o raciocínio, a coerência, a percepção de nuances emocionais/personalidades e reduzindo alucinações em comparação com o Grok 4. 32
A xAI lançou recentemente o Grok 4.20 Beta, que adiciona recursos multiagentes, permitindo a execução coordenada de tarefas por múltiplos agentes especializados. Enquanto isso, o Grok 5 está em fase de treinamento, o que sugere que novos avanços em raciocínio e capacidades de atuação de agentes estão em desenvolvimento. 33
Explore os detalhes mais recentes de benchmarks e preços dos modelos básicos para aplicações genAI empresariais:
Qual é o conjunto de tecnologias ideal para construir modelos de linguagem de grande porte?
A IA generativa é uma tecnologia de inteligência artificial e grandes empresas vêm desenvolvendo soluções de IA na última década. A experiência tem demonstrado que o uso de plataformas de Operações de Aprendizado de Máquina (MLOps) acelera significativamente os esforços de desenvolvimento de modelos.
Além de suas plataformas MLOps, as organizações empresariais podem contar com uma lista crescente de ferramentas e estruturas de Operações de Modelos de Linguagem de Grande Porte (LLMOps), como Langchain, Semantic Kernel ou watsonx.ai, para personalizar e construir seus modelos, bem como com ferramentas de gerenciamento de riscos de IA, como o Nemo Guardrails.
Nos estágios iniciais de novas tecnologias, recomendamos que os executivos priorizem plataformas abertas para construir sistemas à prova de futuro. Em tecnologias emergentes, a dependência de um único fornecedor é um risco significativo. As empresas podem ficar presas a sistemas obsoletos à medida que ocorrem mudanças tecnológicas rápidas e profundas.
Por fim, a infraestrutura de dados de uma empresa está entre as tecnologias subjacentes mais importantes para a IA generativa:
Grandes quantidades de dados internos precisam ser organizadas e formatadas.
Os esforços em prol da qualidade e da observabilidade dos dados devem garantir que as empresas tenham acesso a conjuntos de dados de alta qualidade, únicos, fáceis de usar e com metadados claros.
A utilizaçãode dados sintéticos pode ser necessária para o treinamento do modelo.
Como avaliar o desempenho de modelos de grande porte?
Sem a mensuração da eficácia, o valor dos esforços em IA generativa não pode ser quantificado. No entanto, a avaliação de modelos de aprendizado de máquina (LLM) é um problema complexo devido a questões relacionadas aos conjuntos de dados de referência, à influência desses dados nos dados de treinamento, à inconsistência das avaliações humanas e a outros fatores. 34 35 .
Recomendamos uma abordagem iterativa que aumente o investimento em avaliação à medida que os modelos se aproximam da utilização em produção:
- Use os resultados dos testes de benchmark para preparar listas restritas. Isso está disponível publicamente para um grande número de modelos de código aberto. 36 37
- Baseando-se nas pontuações Elo usadas para classificar jogadores em jogos de soma zero, como o xadrez, compare os modelos a serem selecionados. Se houver modelos com desempenho superior que não estejam disponíveis para uso (por exemplo, devido a problemas de licenciamento ou segurança de dados), eles podem ser usados para comparar as respostas de diferentes modelos. 38
Figura 2: Melhoria do aprendizado com poucos exemplos de OpenAI.
Isso também pode incluir o estímulo por meio da cadeia de raciocínio. O estímulo por meio da cadeia de raciocínio é uma técnica de engenharia de estímulos que guia um modelo de linguagem a raciocinar sobre um problema passo a passo antes de produzir uma resposta final. Ao gerar etapas de raciocínio intermediárias, o modelo consegue lidar melhor com tarefas complexas, como matemática, lógica ou tomada de decisão em várias etapas.
Essa abordagem geralmente melhora a precisão e a transparência porque o modelo divide o problema em partes lógicas menores, em vez de responder imediatamente com uma única resposta.
Figura 3: Exemplo que mostra como funciona o estímulo por meio da cadeia de raciocínio. 39
A geração aumentada de recuperação (RAG) também pode ser usada com modelos comerciais se a empresa estiver satisfeita com as políticas de segurança de dados do fornecedor do modelo base.
O ajuste fino também está disponível para melhorar ainda mais o desempenho dos modelos comerciais oferecidos por meio de APIs. 40
Etapas do modelo de pré-fundação para empresas
A construção do seu modelo empresarial pode levar meses, visto que as etapas abaixo precisam ser concluídas. Cada uma dessas etapas pode levar de semanas a meses e não podem ser totalmente paralelizadas:
- A coleta de dados pode levar semanas ou meses. Os serviços de coleta de dados com IA podem acelerar esse processo, ajudando as empresas a gerar conjuntos de dados de instruções equilibrados e de alta qualidade, além de outros dados para a construção ou o ajuste fino de modelos. Você também pode trabalhar com plataformas de crowdsourcing de dados para obter conjuntos de dados mais diversificados.
- Contratar cientistas de dados com mestrado em Direito ou consultores pode levar de semanas a meses.
- Treinamento e implantação
- Integração de modelos a processos e sistemas de negócios
Recomendamos que os líderes empresariais incentivem a experimentação com a IA de Geração (GenAI). Isso exige uma mudança de paradigma: devemos enxergar as máquinas não como robôs sem consciência, mas como cocriadoras. As organizações devem começar a usar a GenAI para fomentar essa mudança de mentalidade, educando os funcionários sobre seu potencial e capacitando-os a mudar a forma como trabalham. Como consultores costumam dizer, a chave para qualquer transformação, incluindo a transformação da IA , são as pessoas.
Figura 4: Estrutura da BCG para o lado humano da adoção da GenAI empresarial 41
As equipes podem aproveitar APIs existentes para automatizar processos em domínios onde o valor dos dados confidenciais é menor e a integração de sistemas é mais fácil. Exemplos de domínios onde as equipes podem usar a IA generativa para melhorar a produtividade e aumentar a familiaridade com a IA generativa sem precisar criar modelos próprios:
- Criação de conteúdo inédito e otimização do conteúdo gerado para campanhas de marketing.
- Geração de código para software front-end
- Inteligência artificial conversacional para engajamento e suporte ao cliente.
Sustentabilidade e custos
A IA generativa exige recursos computacionais significativos e, portanto, acarreta custos financeiros e ambientais. As empresas devem avaliar cuidadosamente essas compensações ao decidir entre construir ou otimizar modelos.
As principais considerações incluem:
- Modelagem do ciclo de vida : Pesquisas mostram que a pegada de carbono dos modelos de aprendizado de máquina abrange o treinamento, a inferência e até mesmo o próprio hardware. Ferramentas como o LLMCarbon fornecem estruturas para estimar esses custos de ponta a ponta. 42
- Controles de sustentabilidade na nuvem : Os provedores de nuvem (por exemplo, AWS) agora publicam dados sobre a intensidade de carbono de seus data centers. 43
- A escolha de regiões mais verdes ou instalações com baixo PUE (eficiência no uso de energia) pode reduzir significativamente as emissões. 44
- Relatórios do setor : Relatórios independentes (por exemplo, Stanford AI Index, MIT Tech Review) destacam que as emissões dos data centers estão aumentando, mesmo com a melhoria da eficiência. 45 Isso reforça a necessidade de dimensionar corretamente os modelos e otimizar a inferência, em vez de sempre buscar o maior modelo disponível. 46
Táticas práticas de redução de custos
As empresas estão adotando métodos como:
- Utilizando modelos menores e especializados (ajustados com base em dados internos) em vez de treiná-los do zero.
- Aplicar técnicas de eficiência como quantização (compressão de modelos) ou armazenamento em cache de requisições.
- Aproveitando o RAG, os modelos só geram dados quando necessário, em vez de serem retreinados a cada novo conjunto de dados.
- Para garantir transparência, é fundamental monitorar não apenas os custos financeiros, mas também as emissões de CO₂ e o consumo de água em cada caso de uso.
Recomendação : Os líderes empresariais devem tratar a sustentabilidade tanto como uma estratégia de controle de custos quanto como uma prioridade de conformidade. Ao alinhar a implementação da IA com as metas ESG corporativas, as empresas podem reduzir despesas e limitar o risco reputacional.
Qual é o nível de interesse em IA generativa empresarial?
Embora haja muitos indícios de que a IA generativa empresarial esteja em plena expansão (como, por exemplo, a receita gerada por consultores com IA generativa), isso ainda não se refletiu nas buscas em mecanismos de pesquisa. No entanto, há um interesse crescente em IA empresarial, provavelmente impulsionado pelo lançamento do ChatGPT.
Nível de adoção
Desde o ano passado, as principais consultorias atualizaram seus roteiros de adoção de GenAI (Inteligência Artificial Geral) para empresas, enfatizando a mudança no modelo operacional, a governança e a captura de valor em vez de apenas as ferramentas:
- 78% das organizações relatam usar IA em pelo menos uma função; as empresas estão reformulando fluxos de trabalho, nomeando líderes de governança de IA e formalizando processos de risco de modelo. 47
- A GenAI está superando o "auge da euforia", com as diretrizes do roadmap se voltando para casos de uso governados e consolidados em produtos, além de uma mentalidade de plataforma. 48
A lacuna na comercialização da IA
Embora o desempenho dos modelos melhore a cada poucas semanas, os produtos corporativos geralmente ficam para trás. Muitas soluções simplesmente adicionam IA a fluxos de trabalho existentes (por exemplo, widgets de bate-papo, preenchimento automático de formulários) em vez de criar experiências com IA em primeiro plano, projetadas desde o início.
A verdadeira oportunidade reside em repensar os produtos para que a IA se torne o modelo de interação central, e não um mero complemento. 49
Perguntas frequentes
A IA generativa inclui a saída de texto, imagem e áudio de modelos de inteligência artificial, também chamados de grandes modelos de linguagem (LLMs), modelos de linguagem, modelos de base ou modelos de IA generativa.
A Lilli AI da McKinsey utiliza dados proprietários da McKinsey para responder às perguntas dos consultores e cita suas fontes. A McKinsey adotou uma abordagem agnóstica em relação ao LLM e utiliza múltiplos LLMs de Cohere e OpenAI na Lilli.
O Walmart desenvolveu o My Assistant, um assistente de IA generativa, para seus 50.000 funcionários que não trabalham em lojas.
Se você tiver outras dúvidas ou precisar de ajuda para encontrar fornecedores, podemos ajudar:
Encontre os fornecedores certos
Visite o site
Seja o primeiro a comentar
Seu endereço de e-mail não será publicado. Todos os campos são obrigatórios.