Según análisis recientes de McKinsey, los riesgos más acuciantes de la adopción de la IA incluyen las alucinaciones de los modelos, la procedencia y autenticidad de los datos, el incumplimiento normativo y las vulnerabilidades de la cadena de suministro de la IA. 1
El aprendizaje federado (FL) se ha consolidado como una técnica fundamental para las organizaciones que buscan mitigar estos riesgos. Permite que los modelos aprendan de datos descentralizados, manteniendo la información confidencial a salvo y cumpliendo con las leyes de privacidad y localización de datos.
Descubre qué es el aprendizaje federado, cómo funciona, casos de uso comunes con ejemplos reales, posibles desafíos y sus alternativas.
Casos de uso y ejemplos de aprendizaje federado
El aprendizaje federado admite una amplia gama de sistemas de IA donde la sensibilidad de los datos, la descentralización y la adaptación en tiempo real son fundamentales. Se aplica cada vez más en IA con agentes, finanzas, aplicaciones móviles, atención médica, transporte autónomo, fabricación inteligente y robótica, lo que permite el entrenamiento colaborativo de modelos.
1. IA agencial
En lugar de recopilar datos en un único repositorio compartido, el aprendizaje federado permite que cada agente aprenda directamente de sus propias interacciones o entorno. El agente aporta entonces únicamente actualizaciones del modelo que preservan la privacidad a un proceso de aprendizaje compartido, sin exponer los datos sin procesar.
Este enfoque permite a los agentes mejorar continuamente aprendiendo de la experiencia colectiva, al tiempo que se respetan la privacidad, la propiedad de los datos y los requisitos normativos.
Como resultado, la IA con capacidad de gestión de agentes puede seguir siendo personalizada y adaptable, al tiempo que respeta la privacidad, lo que hace que el aprendizaje federado sea especialmente adecuado para entornos sensibles donde los agentes necesitan operar de forma independiente, pero aún así beneficiarse de los patrones observados en usuarios, dispositivos u organizaciones.
Ejemplo práctico: Marco de detección de intrusiones en IoT que preserva la privacidad
El rápido crecimiento de los dispositivos IoT ha permitido avances en áreas como la atención médica, las ciudades inteligentes y los sistemas industriales, pero también ha aumentado la exposición a los ciberataques y los riesgos para la privacidad.
Los sistemas tradicionales de detección de intrusiones centralizados se basan en la agregación de datos sensibles, lo que genera sobrecarga de comunicación, problemas de privacidad y puntos únicos de fallo. Para superar estas limitaciones, un estudio reciente propone un marco de detección de intrusiones de IoT que preserva la privacidad y que combina el aprendizaje federado (FL) con inteligencia artificial gentítica.
FL permite el entrenamiento descentralizado de modelos, mientras que Agentic AI añade capacidades adaptativas, de autoaprendizaje y de toma de decisiones autónomas para responder a las amenazas en constante evolución.
El sistema utiliza detección local de anomalías, agregación segura y comunicación ligera para equilibrar la precisión y la privacidad, con componentes basados en agentes que optimizan las defensas en tiempo real. 2
2. Solicitudes de financiación
El aprendizaje federado permite a las instituciones financieras entrenar modelos de IA de forma colaborativa sin compartir datos brutos, lo que permite a cada organización mantener la información confidencial a nivel local al tiempo que contribuye a un modelo compartido más sólido.
Esto resulta especialmente valioso para la detecciónde fraudes y delitos financieros, donde las amenazas abarcan múltiples bancos y regiones, pero el intercambio de datos está restringido por normativas como el RGPD y la Ley de IA de la UE.
Ejemplo de la vida real: El papel del aprendizaje federado en la mejora de la seguridad financiera.
Un artículo reciente examina el aprendizaje federado (FL) como una solución prometedora para mejorar la seguridad y la privacidad en los sistemas financieros modernos, especialmente dado que las finanzas digitales y los dispositivos habilitados para IoT, como los cajeros automáticos y los terminales de punto de venta, generan grandes volúmenes de datos confidenciales.
El artículo clasifica los casos de uso de FL según su exposición regulatoria, desde aplicaciones de menor riesgo como la optimización de carteras hasta tareas de alto riesgo como la detección de fraude en tiempo real, y destaca los éxitos recientes en la prevención del fraude y los marcos integrados con blockchain.
Si bien FL ofrece claras ventajas en términos de privacidad, cumplimiento y escalabilidad, el documento también subraya los desafíos actuales, incluida la heterogeneidad de los datos, los ataques adversarios, la interpretabilidad y la integración regulatoria.
En lo que respecta al futuro del lenguaje natural en las finanzas, el artículo identifica la combinación de lenguaje natural con tecnologías como blockchain, privacidad diferencial, computación multipartita segura y métodos cuánticos seguros como clave para lograr sistemas de IA confiables y preparados para el futuro. 3
Ejemplo de la vida real: Flor con círculo bancario
La plataforma de aprendizaje federado de Flower ayuda a las instituciones financieras a entrenar de forma colaborativa modelos de IA con datos descentralizados, mejorando así la privacidad, la seguridad, el cumplimiento normativo y la precisión predictiva para tareas como la detección de fraudes, la evaluación de riesgos y otros análisis.
Banking Circle, un banco de pagos global que procesa una parte significativa de los flujos de comercio electrónico de Europa, utiliza inteligencia artificial para gestionar sus operaciones contra el blanqueo de capitales (AML, por sus siglas en inglés) mediante la identificación automática de transacciones sospechosas para su revisión.
Con su expansión a Estados Unidos, las diferencias en los patrones de transacción y las estrictas restricciones a la transferencia de datos limitaron la eficacia de los modelos entrenados exclusivamente con datos europeos. Para solucionar esto, Banking Circle adoptó la plataforma de aprendizaje federado de Flower, lo que le permitió entrenar modelos AML en diferentes regiones sin transferir datos confidenciales a través de las fronteras.
Este enfoque permitió que el modelo estadounidense aprendiera de las experiencias europeas sin dejar de cumplir con la normativa local, y que las mejoras se fueran incorporando al sistema europeo con el tiempo. 4
3. Aplicaciones móviles
Las aplicaciones móviles utilizan sistemas de aprendizaje automático para la personalización, como la predicción de la siguiente palabra, la detección facial y el reconocimiento de voz. Sin embargo, el entrenamiento tradicional de IA centraliza los datos del usuario, lo que genera inquietudes sobre la privacidad, la seguridad y la gobernanza de datos. El aprendizaje federado aborda estos desafíos al permitir que los modelos se entrenen en una red de dispositivos sin transmitir datos brutos del usuario.
Estas son algunas de las ventajas del aprendizaje federado para aplicaciones móviles:
- Inteligencia artificial que preserva la privacidad : Los datos confidenciales del usuario permanecen en el dispositivo, lo que reduce los riesgos de exposición de datos al tiempo que mejora la precisión del modelo.
- Modelos personalizados y adaptativos : Las aplicaciones pueden ajustar los modelos de IA en función de los patrones de uso individuales sin necesidad de actualizaciones constantes en la nube.
- Menor consumo de ancho de banda : en lugar de cargar grandes conjuntos de datos, solo se comparten las actualizaciones del modelo, lo que hace que el aprendizaje federado sea eficiente para las redes móviles.
- Mayor seguridad : Al mantener los datos descentralizados, el aprendizaje federado mitiga los riesgos asociados con el almacenamiento centralizado de datos y las filtraciones.
Este enfoque ya se está utilizando en los teclados de los teléfonos inteligentes para la predicción de texto y la autocorrección, en los asistentes de voz para el reconocimiento de voz y en la autenticación biométrica para el reconocimiento facial y de huellas dactilares.
Ejemplo de la vida real: Google y mejora de los modelos de voz.
Google utiliza el aprendizaje federado para mejorar los sistemas de aprendizaje automático en el dispositivo, como la detección de "Hey Google" en el Asistente Google, lo que permite a los usuarios emitir comandos de voz. Este enfoque permite entrenar modelos de voz directamente en los dispositivos de los usuarios sin transmitir datos de audio a los servidores de Google, preservando así la privacidad del usuario.
El aprendizaje federado facilita la mejora de las capacidades de reconocimiento de voz mediante el procesamiento local de los datos, lo que garantiza que la información de audio personal permanezca en el dispositivo. 5
4. Atención sanitaria
El aprendizaje federado beneficia a la atención médica y a los seguros de salud al permitir un entrenamiento de IA potente, manteniendo al mismo tiempo la privacidad de los datos de los pacientes.
La centralización de datos tradicional, en la que los hospitales e instituciones agrupan los historiales médicos en un único repositorio, plantea importantes preocupaciones sobre la gobernanza de los datos, la seguridad y el cumplimiento de normativas como HIPAA y GDPR.
El aprendizaje federado ayuda a gestionar estos problemas al permitir la formación colaborativa de modelos entre múltiples instituciones sin necesidad de compartir datos directamente.
Este enfoque ofrece varias ventajas:
- Mayor privacidad y seguridad : Los datos confidenciales de los pacientes permanecen en su fuente original, lo que reduce los riesgos de exposición y filtraciones de datos.
- Mayor diversidad de datos : Al entrenar los modelos con conjuntos de datos de diferentes hospitales, centros de investigación e historiales clínicos electrónicos, el aprendizaje federado permite reconocer enfermedades raras y mejorar la precisión diagnóstica en poblaciones diversas.
- Inteligencia artificial médica escalable : Los modelos de aprendizaje automático se pueden perfeccionar continuamente con datos reales de múltiples instituciones, lo que da lugar a análisis predictivos más fiables y mejores resultados para los pacientes.
Ejemplo real: la plataforma federada Agentic de Lifebit.
Lifebit anunció la plataforma Agentic Federated Platform , el primer entorno de investigación confiable (TRE) totalmente basado en agentes del mundo. Actualmente en fase beta, la plataforma permite a los investigadores gestionar y analizar de forma segura datos biomédicos confidenciales mediante una única interfaz conversacional impulsada por IA.
Según Lifebit, la plataforma simplifica flujos de trabajo de investigación complejos, como la armonización de datos, la creación de cohortes y los análisis bioinformáticos, al permitir a los usuarios realizar investigaciones integrales mediante lenguaje natural. Es compatible con herramientas interactivas y de procesamiento por lotes (por ejemplo, R, Jupyter, Nextflow), ofrece documentación y solución de problemas integradas, e incluye capacidades de genómica asistidas por IA, como GWAS e identificación de objetivos.
La empresa posiciona la plataforma como más segura, auditable y fácil de usar que los sistemas TRE tradicionales, con el objetivo de acelerar la investigación manteniendo al mismo tiempo un estricto cumplimiento de los estándares de gobernanza de datos federados. 6
Ejemplo de la vida real: MELLODDY
El proyecto MELLODDY (Machine Learning Ledger Orchestration for Drug Discovery) es una iniciativa de investigación europea financiada por la Iniciativa de Medicamentos Innovadores (IMI). El proyecto reunió a 10 compañías farmacéuticas, instituciones académicas y socios tecnológicos para demostrar cómo el aprendizaje federado puede acelerar el descubrimiento de fármacos sin compartir datos confidenciales.
En lugar de agrupar conjuntos de datos propietarios, que las empresas consideran altamente sensibles, MELLODDY desarrolló una plataforma de aprendizaje automático federado que preserva la privacidad, manteniendo los datos de cada empresa detrás de su propio cortafuegos y compartiendo solo las actualizaciones del modelo, no los datos sin procesar, para el aprendizaje colaborativo.
Esta plataforma utiliza tecnologías como la infraestructura de AWS, la orquestación de Kubernetes y un registro de cadena de bloques privado para garantizar un entrenamiento de modelos seguro y rastreable entre los socios, al tiempo que protege la propiedad de los datos y los derechos de propiedad intelectual.
Al exponer los algoritmos de aprendizaje automático a una cantidad de datos muchísimo mayor que la que posee cualquier empresa individual, MELLODDY ha demostrado un rendimiento predictivo mejorado y una mayor aplicabilidad del modelo para predecir la actividad biológica y la toxicología de los fármacos candidatos. 7
Ejemplo de la vida real: Owkin
Owkin, una empresa de biotecnología, utiliza el aprendizaje federado para entrenar modelos de IA en múltiples instituciones médicas y de investigación sin centralizar datos confidenciales.
En lugar de recopilar todos los datos de los pacientes en un solo lugar, el enfoque de Owkin mantiene los datos donde están almacenados (por ejemplo, en los servidores del hospital) y traslada los algoritmos de aprendizaje automático a esos datos.
Los modelos se entrenan localmente con el conjunto de datos de cada socio, y solo se comparten las actualizaciones de los modelos, que se agregan para construir un modelo global. Esto permite que investigadores y clínicos se beneficien de un conjunto de datos más diverso que el que podría proporcionar cualquier institución individual, mejorando así el rendimiento de los algoritmos predictivos sin dejar de preservar la privacidad del paciente y la soberanía de los datos.
Owkin presenta esta técnica como particularmente poderosa para la IA colaborativa en la atención médica (como la predicción de los resultados del tratamiento) y como un medio para ampliar la medicina de precisión sin comprometer la privacidad. 8
Ejemplo de la vida real: MedPerf
El creciente impulso hacia el aprendizaje federado en la IA médica ha dado lugar a iniciativas como MedPerf, una plataforma de código abierto desarrollada por una coalición de socios industriales y académicos.
MedPerf se centra en la evaluación federada de modelos de IA, garantizando su eficacia con datos médicos diversos y reales, a la vez que se preserva la confidencialidad del paciente. Al combinar innovaciones técnicas en el aprendizaje federado con marcos de gobernanza que establecen parámetros de referencia clínicamente relevantes, estas iniciativas buscan impulsar la adopción de la IA en la atención médica sin comprometer la confianza ni la seguridad.
Figura 2: Un ejemplo de aprendizaje federado en el sector sanitario, procedente del marco de evaluación comparativa de IA federada MedPerf. 9
5. Transporte: Vehículos autónomos
Los coches autónomos se basan en una combinación de técnicas avanzadas de aprendizaje automático para navegar por entornos complejos.
La visión artificial les permite detectar obstáculos, mientras que los modelos de aprendizaje adaptativo ayudan a ajustar el comportamiento de conducción en función de condiciones como el tráfico o el terreno irregular.
Sin embargo, los enfoques tradicionales basados en la nube pueden introducir latencia y plantear riesgos de seguridad, especialmente en escenarios de tráfico de alta densidad donde las decisiones que se toman en fracciones de segundo son cruciales.
El aprendizaje federado ofrece una solución al descentralizar el procesamiento de datos y permitir el aprendizaje en tiempo real en múltiples vehículos. En lugar de depender exclusivamente de las actualizaciones en la nube, los vehículos autónomos pueden entrenar modelos de forma colaborativa manteniendo los datos localizados. Este enfoque garantiza que los vehículos perfeccionen continuamente su toma de decisiones en función de las últimas condiciones de la carretera, sin una transferencia excesiva de datos.
Al aprovechar el aprendizaje federado, los coches autónomos pueden lograr tres objetivos clave:
- Información en tiempo real sobre el tráfico y el estado de las carreteras : Los vehículos pueden procesar y compartir rápidamente información sobre peligros en la carretera, zonas de obras o cambios meteorológicos repentinos, lo que garantiza una navegación más segura.
- Toma de decisiones inmediata : La IA integrada puede reaccionar más rápido a las condiciones dinámicas de conducción, reduciendo la dependencia de servidores remotos y minimizando la latencia en momentos críticos.
- Mejora continua del modelo : a medida que más vehículos aportan sus aprendizajes localizados, los sistemas autónomos evolucionan y mejoran su precisión predictiva con el tiempo.
Mediante la integración del aprendizaje federado, los vehículos autónomos no solo pueden mejorar su capacidad de respuesta inmediata, sino también crear una inteligencia colectiva que mejora la seguridad y la eficiencia generales de los sistemas de conducción autónoma.
Ejemplo de la vida real: NVIDIA FLARE
La plataforma de aprendizaje federado de vehículos autónomos (AV) de NVIDIA, impulsada por NVIDIA FLARE, permite entrenar modelos de vehículos autónomos (AV) de forma colaborativa en diferentes países, preservando la privacidad de los datos y cumpliendo con las normativas regionales como el RGPD y la PIPL.
En lugar de la formación centralizada, que puede resultar costosa y estar restringida por las leyes de transferencia de datos, el aprendizaje federado permite entrenar los modelos localmente con datos específicos de cada país, lo que mejora el rendimiento global del modelo.
La plataforma se integra con los sistemas de aprendizaje automático existentes y opera con un servidor central en AWS en Japón, lo que permite el entrenamiento transfronterizo. Desde su lanzamiento, ha generado más de una docena de modelos de vehículos autónomos, con un rendimiento que iguala o supera al de sus homólogos entrenados localmente, y su adopción ha crecido de 2 a 30 científicos de datos en un año. 10
6. Fabricación inteligente: Mantenimiento predictivo
Con el avance de la Industria 4.0, el mantenimiento predictivo basado en IA ayuda a los fabricantes a reducir el tiempo de inactividad, prolongar la vida útil de los equipos y aumentar la eficiencia. Sin embargo, su implementación se enfrenta a desafíos, como la privacidad y la seguridad de los datos, así como las restricciones para el intercambio transfronterizo de información.
El aprendizaje federado aborda estos problemas al permitir que los fabricantes desarrollen modelos de mantenimiento predictivo sin transferir datos industriales confidenciales. En lugar de agregar información de múltiples plantas o clientes en un repositorio central, el aprendizaje federado permite que cada sitio entrene modelos localmente. Estos modelos, a su vez, aportan información valiosa a un sistema predictivo global sin exponer datos propietarios.
Entre los principales beneficios del aprendizaje federado para el mantenimiento predictivo se incluyen:
- Inteligencia artificial que preserva la privacidad : Los datos industriales permanecen en las instalaciones, lo que elimina las preocupaciones sobre compartir datos operativos confidenciales o de propiedad exclusiva con entidades externas.
- Cumplimiento normativo transfronterizo : Muchos fabricantes operan en varios países, cada uno con normativas de protección de datos diferentes. El aprendizaje federado permite cumplir con la normativa al mantener los datos localizados y, al mismo tiempo, beneficiarse de la inteligencia colectiva.
- Adaptabilidad a diversos equipos y condiciones : Los entornos de fabricación varían ampliamente según la maquinaria, la carga de trabajo y la configuración operativa. El aprendizaje federado permite adaptar los modelos predictivos a las condiciones locales, contribuyendo a una comprensión más amplia de los patrones de fallos de los equipos.
Más allá del mantenimiento predictivo, el aprendizaje federado también se está aplicando en la fabricación inteligente para el control de calidad en tiempo real, la optimización de la eficiencia energética y la monitorización ambiental, incluidas las predicciones de la calidad del aire para la detección de PM2.5 en ciudades inteligentes.
7. Robótica
La robótica depende del aprendizaje automático para la percepción, la toma de decisiones y el control, desde tareas sencillas hasta la navegación compleja. A medida que las aplicaciones se expanden, el aprendizaje continuo y la adaptabilidad son esenciales, pero el entrenamiento centralizado plantea desafíos en cuanto a la transferencia de datos, la privacidad y la comunicación, especialmente en sistemas multi-robot.
El aprendizaje federado permite que los robots mejoren sus modelos de forma colaborativa, manteniendo los datos localizados. Este enfoque descentralizado resulta especialmente útil para la navegación de múltiples robots, donde las limitaciones de ancho de banda de comunicación pueden suponer un desafío.
En lugar de depender de la transmisión constante de datos a un servidor central, el aprendizaje federado permite que los robots se entrenen con sus experiencias locales y compartan solo las actualizaciones esenciales del modelo, optimizando la eficiencia del aprendizaje sin sobrecargar los recursos de la red.
Estos son los principales beneficios del aprendizaje federado en robótica:
- Aprendizaje descentralizado para una mayor autonomía : Los robots pueden perfeccionar sus modelos de percepción y control localmente, reduciendo la dependencia de las actualizaciones basadas en la nube y permitiendo una adaptación más rápida a nuevos entornos.
- Colaboración eficiente entre múltiples robots : Los grupos de robots pueden intercambiar experiencias aprendidas sin una transferencia excesiva de datos, lo que haría que el aprendizaje federado fuera ideal para la gestión de flotas, la automatización de almacenes y la robótica de enjambre.
- Mayor privacidad y seguridad : Los datos operativos confidenciales permanecen dentro de cada sistema robótico, lo que reduce las preocupaciones sobre la exposición de datos en aplicaciones industriales o militares.
- Escalabilidad en entornos diversos : Los robots que operan en diferentes lugares, como fábricas, hospitales o zonas urbanas, pueden aportar información valiosa a un modelo global al tiempo que se adaptan a su entorno específico.
Ejemplo práctico: Aprendizaje por refuerzo federado para la navegación colectiva de enjambres robóticos.
Los recientes avances en el aprendizaje profundo por refuerzo (DRL) han mejorado la robótica al permitir el diseño automatizado de controladores, especialmente para sistemas robóticos de enjambre. Estos sistemas requieren controladores más sofisticados que las configuraciones de un solo robot para lograr un comportamiento colectivo coordinado.
Si bien el diseño de controladores basado en DRL ha demostrado ser eficaz, su dependencia de un servidor de entrenamiento central plantea desafíos en entornos del mundo real con comunicación inestable o limitada.
Para abordar este problema, un artículo reciente presentó FLDDPG, una novedosa estrategia de entrenamiento DRL basada en aprendizaje federado (FL) y adaptada a la robótica de enjambre.
Las evaluaciones comparativas realizadas bajo un ancho de banda de comunicación limitado demuestran que FLDDPG ofrece una mejor generalización en diversos entornos y robots reales, mientras que los métodos de referencia tienen dificultades bajo restricciones de ancho de banda.
Los resultados sugieren que el aprendizaje federado mejora la navegación de múltiples robots en entornos con ancho de banda de comunicación restringido, lo que aborda un desafío clave en las aplicaciones robóticas del mundo real basadas en el aprendizaje. 11
¿Qué es el aprendizaje federado?
El aprendizaje federado es un paradigma de aprendizaje automático colaborativo en el que múltiples participantes entrenan modelos utilizando datos locales y solo comparten actualizaciones de modelos o información calculada, mientras que los datos brutos permanecen en el sitio. La mayoría de los sistemas prácticos de aprendizaje federado todavía utilizan un agregador central para coordinar las rondas de entrenamiento.
En lugar de transferir datos de entrenamiento sin procesar, los participantes envían actualizaciones del modelo o gradientes para su agregación. Sin embargo, compartir las actualizaciones por sí solo no garantiza la privacidad sin técnicas adicionales como la agregación segura, la privacidad diferencial o las protecciones criptográficas.
Al mantener los datos de entrenamiento localmente y agregar la información obtenida, el aprendizaje federado mejora la privacidad de los datos al tiempo que aprovecha los datos distribuidos para mejorar la precisión del modelo.
¿Cómo funciona el aprendizaje federado?
En el aprendizaje automático, hay dos pasos: entrenamiento e inferencia.
Durante la etapa de entrenamiento :
- Los modelos locales de aprendizaje automático (ML) se entrenan con conjuntos de datos locales heterogéneos. Por ejemplo, a medida que los usuarios utilizan una aplicación de aprendizaje automático, detectan errores en las predicciones de la aplicación y los corrigen. Esto crea conjuntos de datos de entrenamiento locales en el dispositivo de cada usuario.
- Los parámetros de los modelos se intercambian periódicamente entre estos centros de datos locales. En muchos modelos, estos parámetros se cifran antes del intercambio. Las muestras de datos locales no se comparten. Esto mejora la protección de datos y la ciberseguridad.
- Se construye un modelo global compartido.
- Las características del modelo global se comparten con los centros de datos locales para integrar el modelo global en sus modelos locales de aprendizaje automático.
Por ejemplo, la solución Clara de Nvidia incluye aprendizaje federado. Clara y Nvidia EGX permiten el aprendizaje mediante la recopilación segura de actualizaciones del modelo (pero no de datos de entrenamiento) desde diferentes ubicaciones. Esto ayuda a los modelos a establecer un modelo global preservando la privacidad de los datos (véase la figura a continuación).
Figura 1: Un ejemplo de NVIDIA que demuestra cómo funciona el aprendizaje federado. 12
En la fase de inferencia , el modelo se almacena en el dispositivo del usuario, de modo que las predicciones se preparan rápidamente utilizando el modelo almacenado en dicho dispositivo.
Formación distribuida en aprendizaje federado
El aprendizaje federado y el entrenamiento distribuido son conceptos distintos: el aprendizaje federado se refiere al entrenamiento colaborativo con datos descentralizados, mientras que el entrenamiento distribuido (computación paralela entre nodos dentro de un mismo participante) es una estrategia de optimización local y no es inherente al aprendizaje federado en sí.
En el aprendizaje federado, los clientes, como hospitales, dispositivos móviles u organizaciones, entrenan modelos de forma independiente con sus datos locales y comparten únicamente las actualizaciones del modelo con un agregador central.
Algunos clientes pueden tener acceso a múltiples GPU, servidores o nodos perimetrales. Estos recursos se pueden usar en paralelo para acelerar o escalar el entrenamiento local. Esta configuración crea una jerarquía:
- En el nivel superior, varios clientes participan en el aprendizaje federado.
- A nivel local, cada cliente puede utilizar la formación distribuida a través de la infraestructura disponible en la que tenga su disposición.
A continuación se puede realizar una formación local distribuida:
- Paralelismo de datos : Cada trabajador posee una réplica del modelo y lo entrena con un subconjunto de los datos locales.
- Paralelismo de modelos : El modelo se divide entre varios nodos de trabajo, lo cual resulta útil para modelos grandes que no caben en la memoria de un solo dispositivo.
Principales ventajas de combinar la formación distribuida con el aprendizaje federado.
1. Escalabilidad mejorada
Los clientes con grandes conjuntos de datos o modelos que requieren mucha capacidad de cálculo pueden tener dificultades para completar el entrenamiento de forma eficiente en una sola máquina.
El entrenamiento distribuido permite al cliente utilizar múltiples nodos o dispositivos, mejorando así el rendimiento y admitiendo cargas de trabajo más grandes.
2. Utilización eficiente de los recursos
Las organizaciones suelen tener clústeres locales o recursos informáticos inactivos. El uso de la formación distribuida dentro del aprendizaje federado les permite aprovechar al máximo estos recursos sin necesidad de centralizar los datos.
3. Formación local más rápida
La distribución del procesamiento reduce el tiempo real necesario para actualizar los modelos locales. Esto puede acortar cada ronda de aprendizaje federado y reducir el tiempo total de entrenamiento entre los clientes.
4. Separación de intereses
La formación federada y la formación distribuida local funcionan de forma independiente. El servidor federado no necesita gestionar la programación interna ni la coordinación de los recursos del cliente. Este diseño modular simplifica tanto la implementación como el mantenimiento.
5. Diseño de sistemas flexibles
Los distintos clientes pueden elegir diferentes configuraciones de entrenamiento local en función de sus entornos informáticos. Algunos pueden usar el entrenamiento en un solo nodo, mientras que otros utilizan configuraciones distribuidas. El protocolo federado permanece sin cambios.
¿Por qué es importante ahora?
Los modelos de aprendizaje automático precisos son valiosos para las empresas, pero los sistemas tradicionales de aprendizaje automático centralizados presentan deficiencias, como la falta de aprendizaje continuo en los dispositivos periféricos y la agregación de datos privados en servidores centrales. El aprendizaje federado mitiga estos problemas.
En el aprendizaje automático tradicional, se construye un modelo central utilizando todos los datos de entrenamiento disponibles en un entorno centralizado. Esto funciona sin problemas cuando un servidor central puede gestionar las predicciones.
Sin embargo, en la informática móvil, los usuarios exigen respuestas rápidas, y el tiempo de comunicación entre el dispositivo del usuario y un servidor central puede ser demasiado lento para una buena experiencia de usuario. Para solucionar esto, el modelo puede instalarse en el dispositivo del usuario final, pero entonces el aprendizaje continuo se vuelve complicado, ya que los modelos se entrenan con un conjunto de datos completo, al que el dispositivo del usuario final no tiene acceso.
Otro problema del aprendizaje automático tradicional es que los datos de los usuarios se agregan en una ubicación central para el entrenamiento, lo que puede violar las políticas de privacidad de países específicos y hacer que los datos sean más vulnerables a las filtraciones.
El aprendizaje federado supera estos desafíos al permitir el aprendizaje continuo a través de datos locales en los dispositivos del usuario final, al tiempo que garantiza que los datos del usuario permanezcan en el dispositivo.
Recientemente, el aprendizaje federado también se ha convertido en una piedra angular del ajuste fino federado, donde las empresas adaptan modelos básicos (como Llama 3, Mistral o Gemini) a datos privados sin exponer los datos en sí.
Desafíos del aprendizaje federado
Requisitos de inversión
Los modelos de aprendizaje federado pueden requerir una comunicación frecuente entre nodos. Esto significa que la capacidad de almacenamiento y un ancho de banda elevado se encuentran entre los requisitos del sistema.
Privacidad de datos
- La privacidad de los datos es un tema importante, ya que en el aprendizaje federado no se recopilan en una sola entidad o servidor; existen múltiples dispositivos para recopilar y analizar datos. Esto puede aumentar la superficie de ataque.
- Aunque al servidor central solo se comunican los modelos, no los datos brutos, es posible que se pueda aplicar ingeniería inversa a los modelos para identificar los datos del cliente.
Limitaciones de rendimiento
- Heterogeneidad de datos: En el aprendizaje federado, se combinan modelos de diversos dispositivos para crear un modelo mejorado. Las características específicas de cada dispositivo pueden limitar la generalización de los modelos y reducir la precisión de la siguiente versión.
- Fuga indirecta de información : Los investigadores han considerado situaciones en las que uno de los miembros de la federación puede atacar maliciosamente a otros insertando puertas traseras ocultas en el modelo global conjunto.
- El aprendizaje federado es un procedimiento de aprendizaje automático relativamente nuevo. Se requieren nuevos estudios e investigaciones para mejorar su rendimiento.
Centralización
En el aprendizaje federado aún existe cierto grado de centralización, donde un modelo central utiliza la información de otros dispositivos para construir un nuevo modelo. Los investigadores proponen utilizar el aprendizaje federado basado en blockchain (BlockFL) y otros enfoques para construir modelos de aprendizaje federado de confianza cero.
¿Cuáles son las alternativas para el aprendizaje federado?
Si bien el aprendizaje federado ofrece ventajas en materia de privacidad, se han desarrollado diversos enfoques y marcos alternativos para abordar sus limitaciones y adaptarse a distintos escenarios. A continuación, se presentan algunas alternativas:
Aprendizaje automático centralizado o tradicional
En un sistema centralizado de aprendizaje automático, todos los datos de diferentes fuentes se recopilan y almacenan en una única ubicación, como un servidor en la nube o un centro de datos de la empresa. Posteriormente, el modelo se entrena utilizando este conjunto de datos combinado.
Características clave:
- El modelo tiene acceso directo a todos los datos disponibles.
- El preprocesamiento de datos y el entrenamiento del modelo se realizan en un servidor central.
- Los clientes o propietarios de los datos transfieren sus datos al sistema central para su análisis.
Ventajas:
- El proceso de formación es más sencillo de gestionar y supervisar.
- La coherencia de los datos se mantiene fácilmente porque todos los registros están en un solo lugar.
- El rendimiento del modelo puede mejorar con el acceso completo a todas las variaciones de datos.
Limitaciones:
- Pueden surgir problemas de privacidad y cumplimiento normativo cuando la transferencia de datos está restringida por ley o por la política de la empresa.
- Un único punto de fallo puede provocar la caída de todo el sistema si el servidor sufre una interrupción del servicio o una brecha de seguridad.
- La transferencia de grandes conjuntos de datos puede aumentar el uso del ancho de banda y los costos de procesamiento.
Este enfoque es el más adecuado cuando la privacidad no es una preocupación importante y todos los datos se pueden centralizar de forma segura sin conflictos normativos.
Computación segura multipartita
La computación multipartita segura (SMPC, por sus siglas en inglés) es una técnica criptográfica que permite a múltiples participantes calcular una función compartida sin revelar sus conjuntos de datos individuales. Cada participante cifra sus datos y el cálculo se realiza de forma que solo se muestra el resultado final del modelo.
Características clave:
- Las partes colaboran para entrenar un modelo manteniendo la privacidad de los datos brutos.
- Las técnicas criptográficas, como el reparto de secretos y el cifrado homomórfico, se utilizan habitualmente.
- Ningún participante tiene acceso al conjunto completo de datos.
Ventajas:
- Protege los datos confidenciales durante todo el proceso de formación.
- Permite a las organizaciones cooperar en el desarrollo de modelos incluso cuando no se pueden compartir los datos.
- Mejora el cumplimiento de las normativas de privacidad, como el RGPD.
Limitaciones:
- Los requisitos computacionales son elevados debido a las operaciones criptográficas.
- La comunicación entre las partes puede ser lenta, lo que puede afectar a la escalabilidad.
- La complejidad de la implementación aumenta con el número de participantes.
SMPC es apropiado en situaciones donde existen estrictos requisitos de privacidad y se dispone de una infraestructura informática segura.
Privacidad diferencial
La privacidad diferencial (PD) garantiza que ningún dato individual en un conjunto de datos pueda distinguirse o inferirse después del análisis. Esto se logra introduciendo aleatoriedad controlada, a menudo en forma de ruido, en los datos de entrenamiento o en las actualizaciones del modelo.
Características clave:
- La privacidad se cuantifica matemáticamente mediante un parámetro llamado épsilon (ε).
- Este método protege las contribuciones de datos individuales incluso cuando se comparte el conjunto de datos completo.
- Puede aplicarse tanto a sistemas centralizados como distribuidos.
Ventajas:
- Ofrece un nivel medible de protección de la privacidad.
- Puede combinarse con otras técnicas de aprendizaje, como el aprendizaje federado.
- Limita el riesgo de reidentificación de datos.
Limitaciones:
- El ruido excesivo puede reducir la precisión del modelo.
- Seleccionar el presupuesto de privacidad adecuado (ε) requiere un ajuste cuidadoso.
- Por sí solo, no aborda la coordinación o computación distribuida.
La privacidad diferencial es adecuada para organizaciones que necesitan un equilibrio entre la utilidad de los datos y la protección de la privacidad.
Chismes o aprendizaje entre pares
El aprendizaje por intercambio de información, también conocido como aprendizaje entre pares, elimina la necesidad de un servidor central. Cada nodo o cliente entrena un modelo local y comparte las actualizaciones directamente con los nodos vecinos. Con el tiempo, estas actualizaciones se propagan por la red y los modelos convergen.
Características clave:
- Los nodos se comunican localmente con sus pares en lugar de con un agregador central.
- Los parámetros o gradientes del modelo se intercambian de forma descentralizada.
- El aprendizaje se produce de forma asíncrona en toda la red.
Ventajas:
- No existe un único punto de fallo, ya que no hay un coordinador central.
- Puede funcionar eficazmente en redes dinámicas, como entornos IoT o de borde.
- Reduce la dependencia de una entidad central de confianza.
Limitaciones:
- La sobrecarga de comunicación puede aumentar debido a los intercambios aleatorios entre pares.
- La convergencia puede ser más lenta en comparación con la agregación centralizada.
- La supervisión y el control resultan más difíciles en sistemas totalmente descentralizados.
Este enfoque resulta eficaz para sistemas distribuidos en los que no se puede mantener ni confiar en un servidor central.
Aprendizaje dividido
El aprendizaje dividido divide un modelo de aprendizaje automático en dos o más segmentos. El primer segmento se entrena en el dispositivo del cliente utilizando datos locales, y su resultado (activaciones) se envía a un servidor, que completa el entrenamiento restante.
Características clave:
- El modelo está dividido entre clientes y un servidor central.
- Los clientes nunca comparten datos sin procesar; solo se transmiten los resultados intermedios.
- El sistema requiere coordinación entre el cliente y el servidor durante el entrenamiento.
Ventajas:
- Reduce la carga computacional para los clientes al entrenar solo una parte del modelo.
- Proporciona cierto grado de privacidad de los datos, ya que los datos sin procesar permanecen en el entorno local.
- Puede integrarse con la infraestructura en la nube existente.
Limitaciones:
- Las activaciones intermedias aún pueden revelar cierta información si son interceptadas.
- Requiere una comunicación estable entre el cliente y el servidor.
- La complejidad de la implementación aumenta en el caso de modelos complejos o con múltiples capas.
El aprendizaje dividido es adecuado para entornos con recursos limitados del cliente o cuando las restricciones de privacidad impiden compartir todos los datos.
Aprendizaje por transferencia y destilación de modelos
El aprendizaje por transferencia y la destilación de modelos permiten la colaboración sin compartir datos directamente. Cada organización o dispositivo entrena su propio modelo localmente, y luego un modelo central aprende de los resultados o predicciones de estos modelos individuales, en lugar de sus parámetros internos.
Características clave:
- El conocimiento se transfiere a través de predicciones, no a través de ponderaciones completas del modelo.
- El modelo global se perfecciona utilizando la experiencia colectiva de todos los participantes.
- Los modelos locales siguen siendo independientes y pueden continuar especializándose.
Ventajas:
- Reduce el volumen de comunicación al compartir únicamente información esencial.
- Permite flexibilidad en las arquitecturas de los modelos entre los participantes.
- Puede lograr un rendimiento razonable incluso con fuentes de datos heterogéneas.
Limitaciones:
- Durante el proceso de destilación se produce cierta pérdida de información.
- La calidad de los modelos globales depende de la precisión de los modelos locales.
- Carece de la sincronización coordinada propia del aprendizaje federado.
Este método resulta práctico cuando los datos de los clientes son muy diversos o cuando los clientes utilizan diferentes tipos de modelos.
Arquitecturas híbridas o combinadas
Los sistemas híbridos combinan elementos de diversos métodos de preservación de la privacidad para abordar desafíos específicos. Algunos ejemplos son el aprendizaje federado combinado con la privacidad diferencial, la computación multipartita segura o las arquitecturas jerárquicas en las que los agregadores regionales se comunican con un servidor central.
Características clave:
- Las diferentes capas o módulos del sistema utilizan diferentes técnicas de privacidad.
- Puede incluir agregación regional o por niveles para mayor escalabilidad.
- A menudo se adaptan para cumplir con los requisitos normativos y de rendimiento.
Ventajas:
- Ofrece flexibilidad para equilibrar la privacidad, la precisión y el coste computacional.
- Puede gestionar fuentes de datos a gran escala o distribuidas geográficamente.
- Permite a las organizaciones personalizar las arquitecturas para adaptarlas a restricciones específicas.
Limitaciones:
- La implementación es compleja debido a las interacciones entre múltiples componentes.
- El mantenimiento y la depuración del sistema requieren conocimientos especializados avanzados.
- Los protocolos de comunicación pueden volverse complejos y requerir muchos recursos.
Los enfoques híbridos resultan prácticos para grandes organizaciones que necesitan gestionar múltiples conjuntos de datos en diversas condiciones legales y técnicas.
Conclusión
Desde la atención médica y los vehículos autónomos hasta las aplicaciones móviles y la fabricación inteligente, el aprendizaje federado permite a las organizaciones aprovechar diversos conjuntos de datos sin comprometer la confidencialidad ni el cumplimiento normativo.
A pesar de su potencial, el aprendizaje federado también presenta desafíos, entre los que se incluyen las exigencias de infraestructura, las vulnerabilidades de privacidad derivadas de la inversión de modelos y las limitaciones que surgen de la heterogeneidad de los datos.
Sin embargo, la investigación en curso y los enfoques complementarios, como el aprendizaje por intercambio de información, la privacidad diferencial y los marcos descentralizados, están impulsando rápidamente el avance del campo. A medida que estas innovaciones maduren, el aprendizaje federado está llamado a desempeñar un papel fundamental en el desarrollo de una IA ética, segura y escalable en diversos sectores.
Sé el primero en comentar
Tu dirección de correo electrónico no será publicada. Todos los campos son obligatorios.