Inteligencia artificial generativa empresarial: 11 casos de uso y mejores prácticas
La IA generativa (GenAI) presenta nuevas oportunidades para las empresas en comparación con las empresas medianas o las startups, entre las que se incluyen:
- Casos de uso de IA generativa empresarial .
- La oportunidad de crear los modelos de tu empresa sin exponer datos privados a terceros.
Sin embargo, la IA generativa plantea desafíos únicos para las grandes organizaciones. Por ejemplo:
- El 36% de las empresas mencionan su preocupación por la exposición de datos confidenciales al utilizar sistemas de gestión de propiedad intelectual comerciales. 1
- GenAI también acelerará el desarrollo de nuevos servicios y soluciones, lo que permitirá a los competidores entrar en los mercados más rápidamente y captar cuota de mercado.
- La automatización impulsada por modelos generativos puede mejorar la experiencia del cliente o reducir los costos, pero también puede introducir riesgos operativos y de reputación debido a sesgos o alucinaciones de la IA .
Explore nuestros casos prácticos de uso de IA empresarial para aprender cómo las grandes empresas pueden crear, implementar y gestionar eficazmente sus propios modelos de IA generativa.
Casos de uso de inteligencia artificial generativa empresarial
La web está repleta de casos de uso B2C, como la redacción de correos electrónicos con soporte de IA generativa, que no requieren una integración profunda ni modelos especializados. Sin embargo, el verdadero valor empresarial de la IA generativa reside en las aplicaciones de IA empresarial que se enumeran a continuación:
Casos de uso comunes
Gestión del conocimiento empresarial (EKM): Si bien las pymes y las empresas medianas no tienen dificultades para organizar sus datos limitados, las empresas Fortune 500 o Global Forbes 2000 necesitan herramientas de gestión del conocimiento empresarial para numerosos casos de uso. La IA generativa puede serles útil. Las aplicaciones incluyen:
- Extracción de información valiosa mediante el etiquetado de datos no estructurados, como documentos.
- Resumen de datos no estructurados.
- La búsqueda empresarial va más allá de la búsqueda por palabras clave, teniendo en cuenta las relaciones entre las palabras.
Parte de la búsqueda empresarial incluye responder a las preguntas de los empleados sobre:
- Prácticas de la empresa (por ejemplo, políticas de recursos humanos)
- Datos internos de la empresa, como previsiones de ventas .
- Una combinación de datos internos y externos. Por ejemplo: ¿Cómo afectarían a nuestro desempeño corporativo las posibles sanciones futuras dirigidas a las ventas de sistemas MLOps en nuestro tercer mercado geográfico más importante?
Las organizaciones más grandes prestan servicios a clientes globales y la capacidad de traducción automática de los LLM es valiosa en casos de uso como:
- localización de sitios web
- Creación de documentación, como manuales técnicos, a gran escala para todas las regiones geográficas.
- Servicio de atención al cliente multilingüe
- Monitorización de redes sociales dirigida a una audiencia global
- Análisis de sentimiento multilingüe
Aplicaciones específicas del sector
La mayor parte del valor empresarial probablemente provenga del uso de tecnologías de IA generativa para la innovación en los sectores específicos de las empresas: esto podría manifestarse en forma de nuevos productos y servicios o nuevas formas de trabajar (por ejemplo, mejora de procesos con IA generativa). Las siguientes listas de aplicaciones de IA generativa pueden servir como punto de partida:
- Servicios financieros GenAI
- IA generativa en la educación
- IA generativa de moda
- IA generativa en el sector sanitario
¿Cómo deberían las empresas aprovechar la IA generativa?
Hemos trazado una ruta detallada para que las empresas aprovechen la IA generativa. Si bien la mayoría de las empresas no necesitan crear sus propios modelos, se espera que la mayoría de las grandes corporaciones (por ejemplo, las incluidas en la lista Forbes Global 2000) desarrollen u optimicen uno o más modelos de IA generativa adaptados a sus necesidades comerciales en los próximos años. El ajuste fino puede permitir a las empresas alcanzar estos objetivos:
- Logre una mayor precisión personalizando en detalle la salida del modelo para su propio dominio.
- Ahorre costes . Se ha comprobado que los modelos personalizables con licencias que permiten su uso comercial son casi tan precisos como los modelos propietarios, pero a un coste significativamente menor. 2
- Reducir la superficie de ataque para sus datos confidenciales
Empresas como Bloomberg están generando un rendimiento de primer nivel mediante la creación de sus propias herramientas de IA generativa, aprovechando sus datos internos. 3
¿Cuáles son las directrices para los modelos de IA empresariales?
Como mínimo, un modelo de IA generativa empresarial debería ser:
Confiable
Coherente
La mayoría de los modelos LLM actuales pueden proporcionar resultados diferentes para la misma entrada. Esto limita la reproducibilidad de las pruebas, lo que puede llevar a la publicación de modelos que no han sido suficientemente probados.
Revisado
Las empresas deberían alojar o integrar la IA generativa en entornos donde puedan gestionar la seguridad y el cumplimiento normativo a un nivel granular (por ejemplo, en sus propias instalaciones o en instancias dedicadas en la nube). La alternativa es utilizar interfaces de chat en línea o API como las API LLM de OpenAI.
La desventaja de depender de las API es que el usuario podría tener que exponer datos confidenciales y de propiedad exclusiva al propietario de la API. Esto aumenta la superficie de ataque para los datos de propiedad exclusiva. Empresas líderes a nivel mundial como Amazon y Samsung sufrieron filtraciones de documentos internos y código fuente valioso cuando sus empleados utilizaron ChatGPT. 4 5
Desde entonces, las ofertas empresariales han madurado significativamente:
- OpenAI Enterprise (2023) y, posteriormente, el equipo de ChatGPT (2024) introdujeron la retención de datos cero, el cumplimiento de SOC 2, la integración de SSO/SAML y los controles de administración. 6
- Los principales proveedores (por ejemplo, Anthropic, Microsoft, Google, Cohere) ahora anuncian opciones para que los clientes no utilicen sus datos, lo que significa que las indicaciones y los resultados del usuario no se utilizan para el entrenamiento del modelo.
- Los proveedores también han comenzado a adaptarse a los requisitos de la Ley de IA de la UE (2024), que hacen hincapié en principios de IA responsable como la transparencia, la auditabilidad y la gestión de riesgos en sistemas de IA de alto riesgo.
A pesar de estos avances, persisten riesgos residuales al depender de sistemas en la nube de terceros:
- Personas malintencionadas dentro de la empresa o proveedores comprometidos aún podrían acceder a los datos corporativos.
- Las configuraciones incorrectas de la API pueden exponer flujos de datos confidenciales.
- La falta de explicabilidad en los modelos de gestión jurídica sigue suponiendo un reto para los equipos de cumplimiento normativo.
Para las industrias altamente reguladas, el autoalojamiento o el despliegue privado de modelos básicos (a través de modelos de peso abierto como LLaMA-4, Mistral o Granite) sigue siendo el enfoque más seguro, aunque con un coste operativo más elevado.
Explicable
Lamentablemente, la mayoría de los modelos de IA generativa no pueden explicar por qué generan ciertos resultados. Esto limita su uso, ya que los usuarios empresariales que desean basar la toma de decisiones importantes en asistentes con IA necesitan conocer los datos que las sustentan. La IA explicable (XAI) para modelos de aprendizaje automático (LLM) aún se encuentra en fase de investigación.
Confiable
Las alucinaciones (es decir, la invención de falsedades) son una característica de los LLM y es improbable que se resuelvan por completo. Los sistemas genAI empresariales requieren los procesos y las medidas de seguridad necesarios para garantizar que las alucinaciones dañinas se minimicen, se detecten o se identifiquen por humanos antes de que puedan perjudicar las operaciones de la empresa.
Las empresas recurren cada vez más a los sistemas de generación aumentada por recuperación (RAG) para reducir las alucinaciones, basando los modelos en datos fiables. Sin embargo, persisten desafíos en materia de infraestructura, almacenamiento y seguridad, lo que convierte a RAG no solo en una solución temporal, sino en un requisito empresarial a largo plazo. 7
Seguro
Los modelos empresariales pueden tener interfaces para usuarios externos. Los ciberdelincuentes pueden utilizar técnicas como la inyección de dependencias para que el modelo realice acciones no deseadas o comparta datos confidenciales.
Ético
Formación ética
El modelo debe entrenarse con datos de origen ético donde la propiedad intelectual (PI) pertenece a la empresa o a su proveedor y los datos personales se utilizan con consentimiento.
- Los problemas de propiedad intelectual relacionados con la IA generativa, como los datos de entrenamiento que incluyen contenido protegido por derechos de autor cuando estos no pertenecen al propietario del modelo, pueden dar lugar a modelos inutilizables y a procesos legales.
- El uso de información personal en modelos de entrenamiento puede generar problemas de cumplimiento normativo. Por ejemplo, ChatGPT de OpenAI tuvo que divulgar sus políticas de recopilación de datos y permitir a los usuarios eliminar sus datos tras las preocupaciones expresadas por la Autoridad Italiana de Protección de Datos (Garante). 8
Para obtener más información, consulte los problemas y soluciones relacionados con los derechos de autor en la IA generativa .
Justo
Para las empresas, los modelos injustos pueden generar varios riesgos:
- Riesgo regulatorio: Los sistemas de IA utilizados en la contratación, los préstamos, los seguros o la atención médica pueden infringir las leyes antidiscriminación si producen resultados sesgados .
- Riesgo operativo: Los resultados sesgados pueden degradar la calidad de las decisiones, como por ejemplo, recomendar candidatos inadecuados o clasificar erróneamente los segmentos de clientes.
- Riesgo para la reputación: La exposición pública del comportamiento sesgado de la IA puede dañar la confianza en la marca y las relaciones con los clientes.
- Limitaciones del mercado: Los modelos entrenados principalmente en una sola geografía, idioma o grupo demográfico pueden tener un rendimiento deficiente en los mercados globales.
Cómo las empresas abordan la equidad
Las empresas abordan la equidad en la IA mediante una combinación de prácticas de gobernanza y salvaguardias técnicas:
- Seleccionan cuidadosamente conjuntos de datos de entrenamiento diversos y representativos, y eliminan atributos sensibles o variables indirectas que podrían introducir sesgos.
- Los modelos se evalúan utilizando métricas de equidad (por ejemplo, paridad demográfica o igualdad de oportunidades) y se prueban en casos extremos para identificar posibles disparidades.
- Las organizaciones también incorporan la supervisión humana, como la validación con intervención humana para decisiones de alto impacto y los comités de revisión ética de la IA.
- Las empresas supervisan continuamente los resultados de los modelos en producción para detectar patrones sesgados y reentrenar los modelos a medida que se dispone de datos nuevos o más equilibrados.
Con licencia
La empresa necesita una licencia comercial para usar el modelo. Por ejemplo, modelos como LLaMa de Meta tienen licencias no comerciales que impiden su uso legal en la mayoría de los casos en una empresa con fines de lucro. Los modelos con licencias permisivas, como Vicuna, basado en LLaMa, también terminan teniendo licencias no comerciales, ya que aprovechan el modelo LLaMa. 9 10
Sostenible
Entrenar modelos de IA generativa desde cero es costoso y consume mucha energía , lo que contribuye a las emisiones de carbono. Los líderes empresariales deben ser conscientes del costo total de la tecnología de IA generativa e identificar maneras de minimizar sus costos ecológicos y financieros.
Las empresas pueden esforzarse por cumplir la mayoría de estas directrices, que se sitúan en un continuo, a excepción de las cuestiones de licencias, las consideraciones éticas y el control.
- Está claro cómo lograr una correcta concesión de licencias y evitar problemas éticos, pero son objetivos difíciles de alcanzar.
- Lograr el control requiere que las empresas construyan sus propios modelos fundamentales, sin embargo, la mayoría de las empresas no tienen claro cómo lograrlo.
¿Cómo pueden las empresas construir modelos fundamentales?
Existen dos enfoques para construir la infraestructura del programa LLM de su empresa en un entorno controlado.
1- Construye tu propio modelo (BYOM)
Este enfoque permite un rendimiento de primera clase con un coste de varios millones de dólares, incluyendo los costes de computación (1,3 millones de horas de GPU en GPU A100 de 40 GB en el caso de BloombergGPT) y los costes del equipo de ciencia de datos. 11
La implementación de BYOM (Trae tu propio negocio) es común en empresas de sectores altamente regulados (por ejemplo, finanzas, salud, defensa), donde la confidencialidad de los datos y los requisitos de cumplimiento normativo superan los costos. Algunas empresas adoptan un enfoque híbrido, entrenando modelos más pequeños específicos del dominio y utilizando modelos externos para el razonamiento de propósito general.
2- Mejorar un modelo existente
La mayoría de las empresas adoptan este enfoque debido a su rentabilidad y flexibilidad. Existen varios métodos disponibles:
2.1- Ajuste fino
Se trata de una técnica de aprendizaje automático más económica para mejorar el rendimiento de los modelos de lenguaje grandes preentrenados (LLM, por sus siglas en inglés) utilizando conjuntos de datos seleccionados.
Anteriormente, el ajuste fino de las instrucciones se realizaba con grandes conjuntos de datos, pero ahora se puede lograr con un conjunto de datos pequeño (por ejemplo, 1000 indicaciones y respuestas seleccionadas en el caso de LIMA). 12 La importancia de un enfoque sólido de recopilación de datos que optimice la calidad y la cantidad de los datos se destaca en los primeros experimentos comerciales de ajuste fino de LLM. 13
Los costes computacionales en los trabajos de investigación han llegado a ser tan bajos como 100 dólares, logrando un rendimiento casi de primera clase a nivel mundial. 14
El ajuste fino de modelos es un campo emergente con nuevos enfoques, como la Intervención en Tiempo de Inferencia (ITI), un método para reducir las ilusiones del modelo, que se publica semanalmente. 15
2.2- Aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF)
Un modelo ajustado con precisión puede mejorarse aún más mediante la evaluación con participación humana. 16 17
2.3- Generación aumentada de recuperación (RAG)
RAG permite a las empresas transmitir información crucial a los modelos durante su generación. Los modelos pueden utilizar esta información para generar respuestas más precisas.
Los marcos de trabajo contemporáneos, como LangChain y LlamaIndex, facilitan la integración segura de datos empresariales estructurados y no estructurados. Los métodos RAG avanzados ahora incluyen recuperación multi-salto e integración de búsqueda en tiempo real, lo que mejora aún más la fiabilidad y la precisión de los datos.
Las empresas están adoptando la conexión automática a tierra, donde los modelos se conectan automáticamente a fuentes de datos en tiempo real para mantener los resultados actualizados. Los proveedores de servicios en la nube como Azure ahora consideran RAG como la arquitectura central para copilotos, sistemas de conocimiento y aplicaciones de clientes, priorizando la escalabilidad y la seguridad. 18
Dados los elevados costes que implica BYOM, recomendamos a las empresas que, inicialmente, utilicen versiones optimizadas de los modelos existentes. La optimización de modelos de lenguaje es un campo emergente con nuevos enfoques que se desarrollan semanalmente. Por lo tanto, las empresas deben estar abiertas a la experimentación y preparadas para modificar su estrategia.
Modelos de cimentación rentables para empresas
Las plataformas de aprendizaje automático lanzaron modelos básicos con licencias comerciales que se basan principalmente en texto de internet como fuente de datos principal. Estos modelos pueden utilizarse como modelos base para construir modelos de lenguaje empresariales a gran escala:
OpenAI GPT-5
GPT-5.4 es el último modelo de vanguardia de OpenAI diseñado para trabajos profesionales y de conocimiento complejo. Sus capacidades incluyen:
- Razonamiento avanzado y trabajo basado en el conocimiento: Produce resultados de alta calidad para tareas como informes, hojas de cálculo, presentaciones y análisis en diversos ámbitos profesionales.
- Capacidad de codificación: Integra las fortalezas de codificación de GPT-5.3-Codex, lo que permite la generación de código con calidad de producción y cambios de software en múltiples archivos.
- Flujos de trabajo y uso de herramientas basados en agentes: Permite buscar y seleccionar herramientas, automatizar flujos de trabajo de varios pasos y ejecutar tareas largas de forma más fiable.
- Capacidad nativa de uso del ordenador: Los agentes pueden interactuar con el software mediante capturas de pantalla, acciones con el ratón/teclado o código de automatización para completar tareas en aplicaciones y sitios web.
- Ventana de contexto amplia: admite hasta 1 millón de tokens, lo que permite analizar grandes bases de código, documentos extensos o flujos de trabajo prolongados en una sola solicitud.
La versión GPT-5.4 muestra mejoras significativas en diversas pruebas comparativas. Alcanza un 83 % de victorias/empates en GDPval para tareas de trabajo intelectual (frente al 70,9 % de la versión GPT-5.2). En ingeniería de software, obtiene un 57,7 % en SWE-Bench Pro, lo que indica un sólido rendimiento de codificación. En tareas de uso informático, alcanza un 75 % en OSWorld-Verified, superando la referencia humana del 72,4 %.
También obtiene buenos resultados en las búsquedas web, con un 82,7% en BrowseComp.
Además, las respuestas de GPT-5.4 tienen un 33% menos de probabilidades de ser falsas y un 18% menos de probabilidades de contener errores en comparación con GPT-5.2. 19
GPT-5.3-Codex es el modelo de codificación de agentes de OpenAI, que combina las capacidades avanzadas de ingeniería de software de GPT-5.2-Codex con el razonamiento más amplio y el conocimiento profesional de GPT-5.2.
El modelo gestiona flujos de trabajo de desarrollo complejos, como la investigación, el uso de herramientas en varios pasos y las tareas de codificación de larga duración, en grandes bases de código.
Figura 1: Un ejemplo de una solicitud para la generación de diapositivas utilizando GPT-5.3-Codex. 20
DeepSeek
DeepSeek-V3 de DeepSeek es un modelo MoE (~671B, con licencia MIT) con un sólido rendimiento de razonamiento y codificación, y es de código abierto desde marzo de 2025. 21
DeepSeek-V3.1 por DeepSeek (agosto de 2025) amplía las capacidades de contexto largo con un tokenizador actualizado y pesos abiertos. 22
Google DeepMind
Gemini 3.1 Pro (Google DeepMind) es un modelo de lenguaje grande de vanguardia diseñado para razonamiento complejo, codificación y tareas multimodales, capaz de procesar información a través de texto , imágenes , audio , video , código y documentos .
En varias pruebas de referencia, Gemini Pro demuestra un rendimiento sólido en tareas de razonamiento, codificación y multimodales. Obtiene un 77,1 % en ARC-AGI-2 para razonamiento abstracto y un 94,3 % en GPQA Diamond para preguntas científicas de nivel de posgrado. En Humanity's Last Exam, que mide el razonamiento académico, obtiene un 44,4 % sin herramientas.
En programación e ingeniería de software, el modelo alcanza el 68,5 % en Terminal-Bench 2.0 y el 80,6 % en SWE-Bench Verified. También obtiene buenos resultados en pruebas de conocimiento y multimodales, con una puntuación del 92,6 % en MMMLU (conocimiento multilingüe) y de aproximadamente el 80,5 % en MMMU-Pro (razonamiento multimodal). 23
Meta LLaMA
LaMA 4, desarrollado por Meta, se lanza como LLaMA 4 Maverick , Scout y una versión preliminar de Behemoth. Estos modelos son multimodales de forma nativa (texto y visión), admiten ventanas de contexto de hasta 10 millones de tokens y siguen optimizados para la eficiencia. 24
Llama 3 de Meta era el modelo anterior con una licencia de uso comercial con algunas limitaciones para empresas muy grandes. 25
Mistral AI
Mistral 8x22B es el último modelo de ponderación abierta desarrollado por la startup europea de IA generativa Mistral. Gracias a su licencia permisiva (Apache 2.0), que permite su uso comercial sin restricciones específicas para grandes empresas, puede resultar atractivo para todo tipo de negocios. 26 Mistral también ofrece modelos como Mistral Large pero ese modelo tiene una licencia más restrictiva. 27
Recientemente, Mistral ha ampliado su gama de productos para incluir modelos como el Mistral Large 3; modelos más pequeños como el Mistral Small y Medium; modelos de codificación especializados como Codestral y Devstral; y modelos de audio como Voxtral Transcribe 2, que ofrece capacidades de transcripción de voz por lotes y en tiempo real. 28
IBM
Los modelos Granite de IBM ofrecen un alto rendimiento según las pruebas de generación de código y están disponibles con la permisiva licencia Apache 2.0. 29
El ecosistema Granite también se ha ampliado para incluir modelos de voz, como Granite-4.0-1B-Speech, que admiten el reconocimiento y la traducción de voz multilingües. 30
Databricks
DBRX es un modelo de ponderación abierta desarrollado por la plataforma de datos Databricks. Incluye una licencia comercial con limitaciones similares a las de los modelos de Meta. Estas limitaciones se aplican a empresas con más de 700 millones de usuarios activos. 31
Comprender
Grok-4 de xAI se lanzó en julio de 2025 con herramientas nativas, integración de búsqueda en tiempo real y una variante "Heavy" para razonamiento avanzado. Grok 4.1 se lanzó en noviembre de 2025, mejorando el razonamiento, la coherencia, la personalidad y los matices emocionales, además de reducir las alucinaciones en comparación con Grok 4. 32
xAI presentó recientemente Grok 4.20 Beta, que incorpora capacidades multiagente, permitiendo la ejecución coordinada de tareas entre múltiples agentes especializados. Asimismo, se ha informado que Grok 5 se encuentra en fase de entrenamiento, lo que sugiere que se están desarrollando nuevos avances en razonamiento y capacidades de agente. 33
Explore los detalles actualizados sobre precios y comparativas de los modelos básicos para aplicaciones genAI empresariales:
¿Cuál es el conjunto de tecnologías adecuado para construir modelos de lenguaje de gran tamaño?
La IA generativa es una tecnología de inteligencia artificial, y las grandes empresas llevan una década desarrollando soluciones de IA. La experiencia ha demostrado que aprovechar las plataformas de Operaciones de Aprendizaje Automático (MLOps) acelera significativamente el desarrollo de modelos.
Además de sus plataformas MLOps, las organizaciones empresariales pueden confiar en una lista cada vez mayor de herramientas y marcos de trabajo para operaciones con modelos de lenguaje a gran escala (LLMOps), como Langchain, Semantic Kernel o watsonx.ai, para personalizar y construir sus modelos, así como en herramientas de gestión de riesgos de IA como Nemo Guardrails.
En las primeras etapas de las nuevas tecnologías, recomendamos a los ejecutivos priorizar las plataformas abiertas para construir sistemas preparados para el futuro. En las tecnologías emergentes, la dependencia de un proveedor específico representa un riesgo importante. Las empresas pueden quedar atrapadas con sistemas obsoletos a medida que se producen cambios tecnológicos rápidos y drásticos.
Por último, la infraestructura de datos de una empresa se encuentra entre las tecnologías subyacentes más importantes para la IA generativa:
Es necesario organizar y formatear enormes cantidades de datos internos.
Los esfuerzos por mejorar la calidad y la observabilidad de los datos deben garantizar que las empresas tengan acceso a conjuntos de datos de alta calidad, únicos y fáciles de usar, con metadatos claros.
Es posible que se requieran capacidadesde datos sintéticos para el entrenamiento del modelo.
¿Cómo evaluar el rendimiento de los modelos a gran escala?
Sin medir su efectividad, no se puede cuantificar el valor de los esfuerzos en IA generativa. Sin embargo, la evaluación de modelos de aprendizaje automático (MLA) es un problema complejo debido a problemas en los conjuntos de datos de referencia, la influencia de estos en los datos de entrenamiento, la inconsistencia de las revisiones humanas y otros factores. 34 35 .
Recomendamos un enfoque iterativo que aumente la inversión en evaluación a medida que los modelos se acercan a su uso en producción:
- Utilice los resultados de las pruebas de referencia para elaborar listas de candidatos preseleccionados. Esta información está disponible públicamente para un gran número de modelos de código abierto. 36 37
- Confíe en las puntuaciones Elo utilizadas para clasificar a los jugadores en juegos de suma cero como el ajedrez y compare los modelos que se van a seleccionar. Si existen modelos de mayor rendimiento que no están disponibles (por ejemplo, debido a problemas de licencia o seguridad de datos), pueden utilizarse para comparar las respuestas de los diferentes modelos. 38
Figura 2: Mejora del aprendizaje con pocos ejemplos a partir de OpenAI.
Esto también puede incluir la generación de cadenas de pensamiento. Esta técnica de ingeniería de instrucciones guía a un modelo de lenguaje para que razone paso a paso sobre un problema antes de llegar a la respuesta final. Al generar pasos de razonamiento intermedios, el modelo puede manejar mejor tareas complejas como las matemáticas, la lógica o la toma de decisiones en varios pasos.
Este enfoque suele mejorar la precisión y la transparencia porque el modelo divide el problema en partes lógicas más pequeñas en lugar de responder inmediatamente con una sola respuesta.
Figura 3: Ejemplo que muestra cómo funciona la técnica de inducción de cadena de pensamiento. 39
La generación aumentada de recuperación (RAG) también se puede utilizar con modelos comerciales si la empresa está satisfecha con las políticas de seguridad de datos del proveedor del modelo base.
También es posible realizar ajustes finos para mejorar aún más el rendimiento de los modelos comerciales ofrecidos a través de API. 40
Pasos del modelo de prefundación para empresas
La creación de su modelo empresarial puede llevar meses, ya que es necesario completar los pasos que se describen a continuación. Cada uno de estos pasos puede tardar de semanas a meses y no se pueden ejecutar en paralelo por completo:
- La recopilación de datos puede llevar de semanas a meses. Los servicios de recopilación de datos de IA pueden acelerar este proceso ayudando a las empresas a generar conjuntos de datos de instrucciones equilibrados y de alta calidad, así como otros datos para la creación o el ajuste de modelos. También se pueden utilizar plataformas de crowdsourcing de datos para obtener conjuntos de datos más diversos.
- Contratar científicos de datos con formación en Derecho (LLM) o contratar consultores puede llevar de semanas a meses.
- Capacitación y despliegue
- Integración de modelos en procesos y sistemas empresariales.
Recomendamos a los líderes empresariales que fomenten la experimentación con la IA genómica. Esto requiere un cambio de paradigma: debemos ver las máquinas no como robots sin sentido, sino como cocreadoras. Las organizaciones deberían empezar a usar la IA genómica para impulsar este cambio de mentalidad, formando a los empleados sobre su potencial y capacitándolos para transformar su forma de trabajar. Como suelen decir los consultores, la clave de cualquier transformación, incluida la transformación por IA , reside en las personas.
Figura 4: Marco de BCG para la adopción de GenAI desde una perspectiva humana en las empresas. 41
Los equipos pueden aprovechar las API existentes para automatizar procesos en ámbitos donde el valor de los datos confidenciales es menor y la integración del sistema es más sencilla. Ejemplos de ámbitos donde los equipos pueden aprovechar GenAI para mejorar la productividad y familiarizarse con la IA generativa sin necesidad de crear sus propios modelos:
- Creación de nuevo contenido y optimización del contenido generado para campañas de marketing.
- Generación de código para software front-end
- Inteligencia artificial conversacional para la interacción y el soporte al cliente.
Sostenibilidad y costes
La IA generativa requiere importantes recursos informáticos y, por lo tanto, conlleva costes tanto económicos como medioambientales. Las empresas deben evaluar cuidadosamente estas ventajas y desventajas al decidir si desarrollar u optimizar modelos.
Entre las consideraciones clave se incluyen:
- Modelado del ciclo de vida : Las investigaciones demuestran que la huella de carbono de los modelos de aprendizaje automático abarca el entrenamiento, la inferencia e incluso el propio hardware. Herramientas como LLMCarbon proporcionan marcos para estimar estos costes de principio a fin. 42
- Controles de sostenibilidad en la nube : Los proveedores de servicios en la nube (por ejemplo, Google, Microsoft, AWS) ahora publican datos sobre la intensidad de carbono de sus centros de datos. 43
- Elegir regiones más ecológicas o instalaciones con bajo PUE (eficiencia en el uso de la energía) puede reducir significativamente las emisiones. 44
- Informes del sector : Informes independientes (por ejemplo, Stanford AI Index, MIT Tech Review) destacan que las emisiones de los centros de datos están aumentando, incluso a medida que mejora la eficiencia. 45 Esto subraya la necesidad de dimensionar correctamente los modelos y optimizar la inferencia en lugar de perseguir siempre el modelo más grande disponible. 46
Tácticas prácticas para la reducción de costes
Las empresas están adoptando métodos como:
- Utilizar modelos más pequeños y especializados (ajustados con precisión a partir de datos internos) en lugar de entrenarlos desde cero.
- Aplicar técnicas de eficiencia como la cuantización (compresión de modelos) o el almacenamiento en caché de solicitudes.
- Aprovechando RAG, los modelos solo se generan cuando es necesario, en lugar de volver a entrenarlos con cada nuevo conjunto de datos.
- Realizar un seguimiento no solo del coste financiero, sino también del CO₂ y del consumo de agua a nivel de caso de uso para garantizar la transparencia.
Recomendación : Los líderes empresariales deben considerar la sostenibilidad tanto una estrategia de control de costes como una prioridad de cumplimiento normativo. Al alinear la implementación de la IA con los objetivos ESG corporativos, las empresas pueden reducir gastos y limitar el riesgo reputacional.
¿Cuál es el nivel de interés en la IA generativa empresarial?
Aunque existen muchos indicios de que la IA generativa empresarial está en auge (por ejemplo, los ingresos de los consultores relacionados con la IA generativa), esto aún no se ha reflejado en las búsquedas en los motores de búsqueda. Sin embargo, hay un creciente interés en la IA empresarial, probablemente impulsado por el lanzamiento de ChatGPT.
Nivel de adopción
Desde el año pasado, las principales consultoras han actualizado las hojas de ruta para la adopción de la IA de generación (GenAI) en las empresas, haciendo hincapié en el cambio del modelo operativo, la gobernanza y la captura de valor, por encima de las herramientas por sí solas:
- El 78% de las organizaciones afirma utilizar la IA en al menos una función; las empresas están reestructurando los flujos de trabajo, nombrando responsables de la gobernanza de la IA y formalizando los procesos de gestión de riesgos de los modelos. 47
- La IA de nueva generación está dejando atrás el "pico de entusiasmo", y la hoja de ruta se orienta cada vez más hacia casos de uso gobernados y comercializados, así como hacia una concepción basada en plataformas. 48
Brecha de comercialización de la IA
Si bien el rendimiento de los modelos mejora cada pocas semanas, los productos empresariales suelen quedarse rezagados. Muchas soluciones simplemente incorporan IA a los flujos de trabajo existentes (por ejemplo, widgets de chat, rellenadores de formularios) en lugar de crear experiencias basadas en IA diseñadas desde cero.
La verdadera oportunidad reside en repensar los productos para que la IA se convierta en el modelo de interacción central, y no en un complemento. 49
Preguntas frecuentes
La IA generativa incluye la salida de texto, imagen y audio de modelos de inteligencia artificial, también llamados grandes modelos de lenguaje (LLM), modelos de lenguaje, modelos fundamentales o modelos de IA generativa.
La IA Lilli de McKinsey utiliza datos propios de McKinsey para responder a las preguntas de los consultores y cita sus fuentes. McKinsey adoptó un enfoque independiente del LLM y utiliza varios LLM de Cohere y OpenAI en Lilli.
Walmart desarrolló My Assistant, un asistente de inteligencia artificial generativa, para sus 50.000 empleados que no trabajan en tiendas.
Si tiene otras preguntas o necesita ayuda para encontrar proveedores, podemos ayudarle:
Encuentra a los proveedores adecuados
Visita el sitio web
Sé el primero en comentar
Tu dirección de correo electrónico no será publicada. Todos los campos son obligatorios.