Contáctanos
No se encontraron resultados.

Comparativa de los 9 principales proveedores de IA

Sıla Ermut
Sıla Ermut
actualizado el Ene 23, 2026
Vea nuestra normas éticas

El ecosistema de infraestructura de IA está creciendo rápidamente, con proveedores que ofrecen diversos enfoques para construir, alojar y acelerar modelos. Si bien todos buscan impulsar las aplicaciones de IA, cada uno se centra en una capa diferente de la arquitectura.

Comparamos los proveedores más utilizados en OpenRouter: Cerebras, DeepInfra, Fireworks AI, Groq, Nebius y SambaNova, utilizando el modelo GPT-OSS-120B. Evaluamos cada proveedor utilizando el mismo conjunto de datos de 108 preguntas, que comprende 35 preguntas de conocimiento del mundo real y 73 problemas de razonamiento matemático.

Punto de referencia de precisión de los proveedores de IA

Loading Chart

Enviamos 108 preguntas (35 preguntas de conocimiento basadas en artículos + 73 problemas matemáticos) a cada proveedor cada 5 minutos durante todo el día y calculamos los promedios de precisión diarios. Junto con estas preguntas, enviamos una pregunta de referencia específica en cada ocasión para medir las métricas de FTL y latencia de extremo a extremo.

Por razones desconocidas, la IA Fireworks no generó respuestas finales para la mayoría de las preguntas el 26 de octubre, a pesar de no tener un límite máximo de tokens. Si bien hubo una breve interrupción de 1 minuto ese día, el problema pareció afectar las respuestas durante toda la jornada. Hemos constatado que algunos proveedores a veces no generan respuestas finales por razones que aún no están claras, como se documentó anteriormente. Esta situación parece similar a incidentes anteriores.

Probamos GPT-OSS-120B en una instancia de GPU RunPod H200 y obtuvo una precisión del 98 % en el conjunto de datos que utilizamos en nuestra prueba de rendimiento. Lea nuestra metodología de prueba de rendimiento.

Punto de referencia de latencia de proveedores de IA

En los días en que aumentó la latencia para Fireworks, hubo un tiempo de inactividad de 1 minuto, pero durante el resto del día, respondió a la mayoría de las preguntas en aproximadamente 10 minutos cada una por razones desconocidas.

Comparación de latencia y coste

Identificamos los modelos más utilizados que también son los más ofrecidos por los proveedores de IA , y luego recopilamos los precios combinados de los proveedores por cada millón de tokens de entrada/salida y sus métricas de latencia del primer token.

Proveedores de IA: Comparación detallada

Integración de la canalización de datos y aprendizaje automático

Pesos y sesgos

Weights & Biases (W&B) combina el seguimiento de experimentos, la evaluación de modelos y la observabilidad de aplicaciones con una infraestructura gestionada de entrenamiento e inferencia. Originalmente concebido como un sistema de registro para flujos de trabajo de aprendizaje automático, W&B se ha expandido hasta convertirse en una oferta más integrada verticalmente tras la adquisición de CoreWeave.

Capacidades

  • Realiza un seguimiento de los experimentos, los hiperparámetros, las métricas, los conjuntos de datos y los artefactos para facilitar la reproducibilidad y la comparación entre modelos e infraestructuras.
  • Proporciona un registro de modelos con control de versiones, promoción, reversión y vinculación de linaje de modelos con datos y ejecuciones de entrenamiento.
  • Ofrece formación y optimización gestionadas, incluyendo computación GPU sin servidor para cargas de trabajo de aprendizaje por refuerzo e inteligencia artificial generativa.
  • Admite inferencia alojada para modelos de código abierto y personalizados.
  • Permite la observabilidad a nivel de solicitud para aplicaciones LLM a través de Weave, capturando indicaciones, respuestas, latencia y puntuaciones de evaluación.
  • Permite la evaluación y la comparación automatizadas, con intervención humana, entre diferentes modelos, indicaciones y proveedores.
  • Se integra con proveedores de IA de terceros, GPU autogestionadas y API externas, además de su propia infraestructura.

Limitaciones

W&B proporciona una infraestructura de IA nativa limitada a través de sus soluciones basadas en CoreWeave. Se admiten la inferencia alojada y el entrenamiento con GPU sin servidor, pero el entrenamiento de modelos a gran escala o personalizados suele requerir infraestructura externa.

Caso de uso: Ideal para equipos de IA que requieren visibilidad integral en experimentación, entrenamiento, evaluación e implementación, especialmente al comparar múltiples modelos o proveedores y mantener una observabilidad de nivel de producción sin depender completamente de un proveedor específico.

Databricks

Databricks proporciona una plataforma unificada que combina análisis de datos, aprendizaje automático y gestión de modelos.

Capacidades

  • Desarrollado sobre la infraestructura de Spark, permite la integración integral de la preparación de datos, el entrenamiento del modelo y la inferencia.
  • Utiliza MLflow para el seguimiento del modelo, incluyendo parámetros, métricas e historial de experimentos.
  • Unity Catalog garantiza el linaje y la gobernanza de los datos paraunas prácticas de IA responsables .
  • Sólida experiencia en procesamiento por lotes y comparación de modelos.

Limitaciones

  • No está optimizado para inferencias en tiempo real. El monitoreo y las métricas están diseñados para trabajos por lotes, no para la latencia por solicitud.
  • Más adecuado para gestionar procesos complejos que abarcan datos y modelos, en lugar de cargas de trabajo de IA críticas en cuanto a latencia.

Caso de uso: Resulta eficaz para empresas que necesitan integrar la IA en sus procesos de ciencia de datos, especialmente para el modelado predictivo y las aplicaciones empresariales donde se requieren gobernanza y trazabilidad.

Plataformas de alojamiento de modelos

Baseten

Baseten se posiciona como una plataforma de alojamiento de modelos para implementar y ejecutar modelos de IA, centrándose en la fiabilidad de la producción y la observabilidad detallada.

Capacidades

  • Desglosa la duración de las llamadas a la API en carga del modelo, inferencia y serialización de la respuesta, lo que permite a los desarrolladores identificar las fuentes de latencia.
  • Los arranques en frío se monitorizan a nivel de réplica para medir el impacto en el rendimiento.
  • Los usuarios configuran parámetros de autoescalado como el número de réplicas y los umbrales de concurrencia. Esto ofrece flexibilidad, pero introduce el riesgo de una configuración incorrecta, lo que puede generar costes innecesarios o una mayor latencia.
  • Este sistema proporciona un seguimiento de costes por solicitud vinculado al tipo y uso de la GPU, lo que permite comparar el rendimiento y los costes al cambiar entre hardware como las GPU A100 y H100.
  • La transmisión de registros en tiempo real está disponible, aunque las funciones de filtrado y búsqueda son limitadas.

Limitaciones

  • La monitorización es detallada a nivel de solicitud, pero la búsqueda y el filtrado de registros son básicos, lo que dificulta la depuración de grandes cargas de trabajo.
  • Una configuración incorrecta del escalado automático puede afectar directamente al coste y a la latencia.

Caso de uso: Baseten es ideal para desarrolladores de IA que buscan una observabilidad transparente para modelos de IA generativos en entornos de producción.

Parasail

Parasail ofrece una red de inferencia de IA diseñada para una utilización flexible de la GPU y una optimización de costes.

Capacidades

  • El sistema admite el cambio entre diferentes tipos de GPU, con asignación automática de recursos en función de las necesidades de la carga de trabajo.
  • El panel de control destaca las métricas de uso agregadas, incluido el tiempo de actividad y la asignación de GPU.
  • Ofrece flexibilidad de precios a través de diferentes clases de GPU, lo que permite encontrar un equilibrio entre coste y rendimiento.

Limitaciones

  • No ofrece seguimiento a nivel de solicitud. Los desarrolladores no pueden analizar el costo ni el rendimiento de las solicitudes individuales.
  • La observabilidad se mantiene a un nivel agregado, lo que limita la profundidad de la depuración.

Caso de uso: Parasail está diseñado para organizaciones que priorizan soluciones de IA flexibles y de bajo costo, pero proporciona menos información para equipos que requieren una observabilidad detallada.

DeepInfra

DeepInfra ofrece alojamientode GPU sin servidor en múltiples regiones, lo que permite la implementación escalable de modelos de IA como API.

Capacidades

  • La compatibilidad con múltiples regiones permite realizar inferencias más cerca de los usuarios finales, reduciendo la latencia.
  • Proporciona métricas de latencia y rendimiento a nivel del panel de control.
  • Ofrece precios de pago por uso con informes de costes agregados.
  • Permite la implementación de modelos de IA generativa de código abierto con API sencillas.

Limitaciones

  • No proporciona seguimiento a nivel de solicitud, lo que dificulta el análisis de la causa raíz.
  • El desglose de costes es solo global, sin detalles por solicitud ni por región.
  • Los mecanismos de control de versiones y reversión de modelos no están automatizados y requieren intervención manual.

Caso de uso: Ideal para organizaciones que implementan cargas de trabajo de IA en diferentes regiones, donde la flexibilidad de costos y la cobertura geográfica son más importantes que la depuración exhaustiva.

Juntos IA

Together AI funciona como una nube de aceleración de IA que ofrece capacidades tanto de alojamiento como de entrenamiento de modelos.

Capacidades

  • Proporciona métricas tanto a nivel agregado como a nivel de solicitud, incluyendo histogramas de latencia y desgloses de llamadas por versión.
  • El control de versiones y la función de reversión integrados permiten volver rápidamente a versiones anteriores.
  • La división del tráfico permite realizar pruebas A/B entre diferentes versiones del modelo.
  • Sólida compatibilidad con SDK y bibliotecas cliente multilingües.
  • Las integraciones de CI/CD hacen que los procesos de despliegue sean más maduros que en otras plataformas de alojamiento.

Limitaciones

  • Esta solución ofrece una mayor madurez operativa, pero conlleva una mayor complejidad del sistema en comparación con las plataformas de alojamiento más ligeras.

Caso de uso: Together AI es adecuado para empresas de IA y firmas de servicios profesionales que necesitan un control de versiones fiable, una monitorización avanzada y la integración de herramientas de IA generativa en flujos de trabajo estructurados.

Infraestructura especializada/optimizada para hardware

Cerebras

Cerebras se centra en una infraestructura de IA optimizada para hardware, construida en torno a su motor a escala de oblea (WSE).

Capacidades

  • El WSE integra millones de unidades de procesamiento en un solo chip , lo que proporciona un rendimiento extremadamente alto para las cargas de trabajo de IA.
  • Los paneles de control muestran métricas estándar como tokens por segundo y rendimiento general.
  • Adecuado para el entrenamiento y la inferencia en modelos de IA avanzados a gran escala.

Limitaciones

  • El despliegue no es instantáneo; requiere la preparación de la infraestructura.
  • Los detalles internos del hardware, como la planificación y el uso de la memoria, se ocultan a los usuarios.
  • Soporte limitado para incorporar modelos personalizados arbitrarios.

Caso de uso: Resulta eficaz para tareas de aprendizaje automático a gran escala y de alto rendimiento en laboratorios de IA, la industria de defensa o agencias gubernamentales donde el rendimiento es más importante que la flexibilidad.

SambaNova

SambaNova desarrolla soluciones de hardware y software de IA basadas en su arquitectura de flujo de datos, que está optimizada a nivel de grafo de computación.

Capacidades

  • Ofrece plataformas como SambaCloud (servicio en la nube), SambaStack (instalación local) y SambaManaged (servicio gestionado).
  • Optimizado para la inferencia y el entrenamiento de modelos de IA generativa.
  • Métricas estándar del panel de control para la latencia y el rendimiento a nivel de token.

Limitaciones

  • El despliegue requiere compatibilidad del modelo con su arquitectura, lo que exige una optimización adicional.
  • Las métricas de rendimiento internas, como el ancho de banda de la memoria, no están expuestas a los usuarios.
  • Los despliegues no son inmediatos; se requieren fases de implementación.

Caso de uso: Adecuado para empresas que necesitan soluciones basadas en IA que combinen hardware y software, especialmente en sectores que requieren una infraestructura de TI controlada.

Groq

Groq ofrece una plataforma de inferencia de IA impulsada por sus Unidades de Procesamiento del Lenguaje (LPU).

Capacidades

  • Optimizado para la generación secuencial de tokens con respuestas de transmisión de baja latencia.
  • Los paneles de control muestran el número de tokens, la latencia y las tasas de error.
  • El coste se registra a nivel de token.

Limitaciones

  • No admite la implementación de modelos personalizados. Solo están disponibles los modelos proporcionados por Groq.
  • Se dispone de herramientas de depuración mínimas; si surgen problemas de rendimiento, es necesario enviar una solicitud de soporte.
  • El funcionamiento interno de las LPU sigue siendo poco transparente.

Caso de uso: Ideal para aplicaciones donde la latencia ultrabaja es fundamental para modelos de lenguaje complejos, como la IA conversacional o los algoritmos de toma de decisiones.

Alojamiento basado en API

Fireworks IA

Fireworks AI proporciona un servicio de alojamiento ligero basado en API para modelos de IA.

Capacidades

  • Implementación rápida de modelos con puntos finales de API inmediatos.
  • Permite el ajuste fino de modelos de IA generativa.
  • Los paneles de control proporcionan métricas como la latencia de las llamadas, el uso de tokens, la tasa de errores y el número de solicitudes.

Limitaciones

  • La función de seguimiento a nivel de solicitud está ausente, lo que limita la depuración detallada.
  • Los datos de costos solo están disponibles de forma agregada, sin visibilidad por solicitud.
  • La reversión es manual; volver a versiones anteriores requiere una nueva implementación.

Caso de uso: Adecuado para desarrolladores de IA que necesitan acceso rápido a capacidades de IA generativa sin una observabilidad profunda ni una gestión de implementación compleja.

¿Qué es un proveedor de IA?

Un proveedor de IA es una empresa de inteligencia artificial que proporciona la infraestructura , los modelos y los servicios necesarios para que otros desarrollen y ejecuten soluciones basadas en IA.

Los proveedores de IA son fundamentales porque:

  • Reducir las barreras para la adopción de la IA, especialmente para las empresas que no cuentan con una amplia experiencia interna.
  • Proporcionar escalabilidad mediante la gestión de procesos complejos como el autoescalado y el entrenamiento distribuido.
  • Ofrezca eficiencia en costes con infraestructura bajo demanda en lugar de inversiones iniciales en hardware de IA.
  • Garantizar prácticas de IA responsables mediante funciones de gobernanza, trazabilidad y cumplimiento normativo.

Tipos de proveedores de IA

Los proveedores de IA se pueden agrupar en tres categorías principales:

  • Los proveedores de infraestructura de IA se centran en hardware especializado para IA, incluidos procesadores personalizados y chips de alto rendimiento, para el entrenamiento y la inferencia.
  • Las plataformas de alojamiento de modelos proporcionan acceso a modelos de IA generativa a través de API, lo que facilita la integración de la IA en las aplicaciones. Suelen ofrecer funciones como el escalado automático, la monitorización de la latencia y el ajuste fino.
  • Las plataformas de datos y aprendizaje automático hacen hincapié en la integración integral del análisis de datos, el entrenamiento de modelos y la gobernanza, con especial atención a la IA responsable.

Características clave de los proveedores de IA

En todas las categorías, la mayoría de los proveedores de IA comparten varias características fundamentales que determinan cómo aportan valor y permiten a las organizaciones adoptar las capacidades de la IA de forma eficaz:

Acceso a grandes modelos de lenguaje y otros modelos de IA generativa.

Los proveedores de IA ofrecen acceso directo a grandes modelos de lenguaje (LLM) y a una variedad de modelos de IA generativa para tareas como la generación de texto , el procesamiento del habla y el reconocimiento de imágenes . Estos modelos suelen ofrecerse a través de API, lo que facilita a las organizaciones la integración de soluciones basadas en IA en sus aplicaciones sin necesidad de contar con amplios conocimientos en el entrenamiento de modelos.

Infraestructura de IA para gestionar cargas de trabajo de IA exigentes.

Los proveedores ofrecen entornos informáticos adaptados a modelos de IA avanzados y cargas de trabajo de IA a gran escala. Esto incluye la potencia de procesamiento necesaria para el entrenamiento , el ajuste fino y la inferencia, a menudo diseñados para admitir tanto operaciones por lotes de alto rendimiento como tareas sensibles a la latencia. Dicha infraestructura permite a las empresas ejecutar procesos complejos de forma eficiente y fiable.

Paneles de control para la implementación y el monitoreo, con métricas de latencia, rendimiento y costo.

Los paneles de control son una función estándar que permite visualizar el rendimiento y la eficiencia de los sistemas de IA. Las métricas típicas incluyen la latencia por solicitud, el rendimiento general, las tasas de procesamiento de tokens y el número de errores. También se ofrece visibilidad de los costes, desde informes por solicitud hasta resúmenes agregados. Estas herramientas facilitan la gestión y optimización eficaz de los recursos.

Opciones para el ajuste fino y la gestión del modelo.

Muchas plataformas permiten ajustar modelos de IA generativa para casos de uso especializados. Esto permite a las organizaciones adaptar los modelos a las necesidades específicas de cada sector, como el modelado predictivo en la cadena de suministro o la IA conversacional en la atención al cliente. Las funciones de gestión de modelos suelen incluir control de versiones, reversión y división de tráfico para experimentos, lo que ayuda a mantener la fiabilidad durante las iteraciones en nuevas implementaciones.

Flexibilidad en los precios, a menudo basada en el pago por uso o el consumo de tokens.

En lugar de depender de grandes inversiones iniciales en hardware de IA, los proveedores suelen utilizar precios basados en el consumo. Estos precios pueden estructurarse por solicitud, por token o por tiempo de procesamiento. La flexibilidad en los precios reduce las barreras de entrada para las organizaciones que experimentan con la adopción de la IA, al tiempo que permite a las empresas ajustar el gasto a las demandas de carga de trabajo y optimizar tanto el coste como el rendimiento.

¿Qué son las pasarelas de IA?

Una puerta de enlace de IA es una plataforma de middleware que gestiona la integración, el enrutamiento y la gobernanza de modelos y servicios de IA en entornos empresariales. En lugar de proporcionar los modelos directamente, las puertas de enlace de IA actúan como un punto de entrada unificado entre las aplicaciones y diversas herramientas de IA, incluidos grandes modelos de lenguaje , sistemas de reconocimiento de imágenes y otros servicios de IA generativa.

Gestionan funciones como la estandarización de API, la orquestación de modelos, la monitorización, la aplicación de medidas de seguridad y el seguimiento de costes, lo que permite a las organizaciones controlar cómo se accede a las cargas de trabajo de IA y cómo se utilizan en diferentes proveedores.

Diferencias clave entre pasarelas de IA y proveedores de IA

Función

  • Los proveedores de IA ofrecen la infraestructura de IA, los modelos de IA y la potencia informática necesaria para ejecutarlos.
  • Las pasarelas de IA gestionan y coordinan las interacciones con esos modelos, ofreciendo coherencia y gobernanza.

Posición en la pila

  • Los proveedores de IA operan en la capa de infraestructura y modelos, proporcionando las capacidades reales de IA.
  • Las pasarelas de IA se sitúan por encima de los proveedores, conectando las aplicaciones con uno o más modelos a través de una única capa de control.

Ámbito de responsabilidad

  • Los proveedores de IA se centran en el entrenamiento, el ajuste, el alojamiento y la prestación de servicios a los modelos.
  • Las pasarelas de IA se centran en la unificación de API, el enrutamiento de cargas de trabajo, la observabilidad y la aplicación de políticas en todos los modelos.

Gobernanza y seguridad

  • Los proveedores de IA implementan mecanismos de gobernanza para sus propios modelos, como el control de versiones y la monitorización de costes.
  • Las pasarelas de IA proporcionan una gobernanza centralizada, lo que permite el cumplimiento normativo, el control de acceso y la protección de datos en múltiples modelos y proveedores.

Enfoque de despliegue

  • Los proveedores de IA ofrecen diversas opciones de infraestructura, que incluyen API en la nube, clústeres dedicados y hardware local.
  • Las pasarelas de IA proporcionan modelos de implementación (global, multinube, sidecar o micro-pasarela) que optimizan el enrutamiento del tráfico entre aplicaciones y modelos.

Metodología de evaluación comparativa

En esta prueba comparativa, se analizó el modelo GPT-OSS-120B, el modelo de código abierto más utilizado en la plataforma OpenRouter. Antes de proceder con la prueba, se estableció el rendimiento de referencia del modelo GPT-OSS-120B. El modelo se probó en un entorno autoalojado en una instancia de GPU RunPod H200 y alcanzó una precisión del 98 % en el conjunto de datos de 108 preguntas utilizado en la prueba (35 preguntas basadas en artículos + 73 problemas matemáticos).

Antes de iniciar la evaluación comparativa, se analizaron los datos de cuota de mercado de OpenRouter para identificar a los seis principales proveedores de IA con la mayor participación, y solo estos proveedores se utilizaron en la prueba. Todas las solicitudes de API se enviaron a través del mismo punto final de API OpenRouter para garantizar la coherencia en las condiciones de la prueba.

Conjunto de datos y proceso de prueba

El conjunto de datos de referencia consta de 108 preguntas. De estas, 35 son preguntas de conocimiento del mundo real extraídas de artículos de CNN News y contrastadas con datos verificados. El objetivo de esta sección es medir si el modelo recuerda con precisión información numérica como porcentajes, fechas y cantidades, y evaluar su tendencia a la inferencia. Las 73 preguntas restantes consisten en problemas de razonamiento matemático y ponen a prueba la consistencia numérica, la inferencia lógica y la precisión computacional del modelo.

Las 108 preguntas utilizadas en el proceso de prueba son aquellas que el modelo responde correctamente de forma consistente. El objetivo de esta prueba es observar el rendimiento y la degradación de la calidad del modelo en momentos específicos del día o durante cambios en la carga del sistema.

El proceso de prueba se lleva a cabo de la siguiente manera:

  • Las 108 preguntas se envían individualmente a intervalos de 5 minutos, y este proceso continúa de forma continua.
  • Las respuestas de verdadero/falso obtenidas en cada pregunta se utilizan en los cálculos de precisión.
  • Simultáneamente, con cada envío, también se envía una pregunta de referencia fija a todos los proveedores. Las métricas que se miden a partir de esta pregunta de referencia son:
    • Latencia del primer token (FTL) : El tiempo que transcurre desde que se envía la solicitud hasta que el modelo produce el primer token.
    • Latencia de extremo a extremo (latencia E2E) : El tiempo que tarda el modelo en generar completamente la respuesta.

Las solicitudes se envían simultáneamente a todos los proveedores para el mismo modelo y a través del mismo punto final de la API. El sistema de evaluación comparativa funciona cíclicamente; al final de cada día, los valores de precisión obtenidos de las 108 preguntas y los promedios diarios de los valores de latencia FTL/E2E medidos a partir de la pregunta de referencia fija se reflejan en gráficos.

Detalles de la prueba de referencia autogestionada

La prueba de rendimiento de referencia se realizó ejecutando el modelo openai/gpt-oss-120b en un entorno autoalojado en una instancia de GPU RunPod H200. El entorno de prueba se construyó utilizando la plantilla RunPod PyTorch, con el motor de inferencia vLLM (versión 0.10.2) instalado como biblioteca principal. Un componente crítico de la pila de software fue el SDK openai-harmony, que es obligatorio para codificar correctamente las indicaciones y decodificar las respuestas para la serie de modelos GPT-OSS. El motor vLLM se configuró con gpu_memory_utilization=0.85 y max_model_len=4096 para adaptarse a los requisitos de contexto y cuantización MXFP4 del modelo. Para optimizar el rendimiento, también se instaló la biblioteca flashinfer, que proporciona una aceleración significativa para la inferencia en el hardware H200.

La prueba de rendimiento se ejecutó utilizando el script test_baseline_harmony_correct.py, que procesa un conjunto de datos consolidado de 108 preguntas (35 preguntas basadas en artículos y 73 problemas matemáticos). Para cada pregunta, se construyó programáticamente una indicación utilizando el SDK openai-harmony. Esto implicó la creación de un objeto Conversation con mensajes Role.SYSTEM, Role.DEVELOPER y Role.USER distintos; el DeveloperContent incluyó específicamente la instrucción "Razonamiento: alto" para obtener respuestas detalladas. Este objeto se convirtió en identificadores de token utilizando la codificación HarmonyEncodingName.HARMONY_GPT_OSS. La inferencia se realizó con parámetros de muestreo deterministas (temperatura=0.0) y max_tokens=2048 para capturar el razonamiento completo. Los stop_token_ids se proporcionaron directamente desde el método stop_tokens_for_assistant_actions() de la codificación harmony. Finalmente, los tokens de salida del modelo fueron analizados por el SDK de Harmony para extraer la respuesta estructurada, que luego fue normalizada y validada con respecto a la verdad fundamental para calcular la precisión.

Sıla Ermut
Sıla Ermut
Analista de la industria
Sıla Ermut es analista de la industria en AIMultiple, especializada en marketing por correo electrónico y vídeos de ventas. Anteriormente trabajó como reclutadora en empresas de gestión de proyectos y consultoría. Sıla es licenciada en Psicología Social y en Relaciones Internacionales.
Ver perfil completo
Investigado por
Nazlı Şipi
Nazlı Şipi
Investigador de IA
Nazlı es analista de datos en AIMultiple. Cuenta con experiencia previa en análisis de datos en diversos sectores, donde se dedicó a transformar conjuntos de datos complejos en información útil para la toma de decisiones.
Ver perfil completo

Sé el primero en comentar

Tu dirección de correo electrónico no será publicada. Todos los campos son obligatorios.

0/450