Si bien la inteligencia artificial está transformando el funcionamiento de las empresas, existen preocupaciones sobre cómo podría influir en nuestras vidas. Este no es solo un problema académico o social, sino también un riesgo para la reputación de las compañías; ninguna empresa desea verse perjudicada por escándalos relacionados con datos o ética de la IA que dañen su imagen.
Explore las cuestiones éticas que surgen con el uso de la IA, ejemplos de mal uso y los principios clave para mitigar estos problemas.
Sesgo algorítmico
Los algoritmos y los datos de entrenamiento pueden contener sesgos , al igual que los humanos, ya que estos también los generan. Estos sesgos impiden que los sistemas de IA tomen decisiones justas. Nos encontramos con sesgos en los sistemas de IA debido a dos razones:
- Los desarrolladores pueden programar sistemas de IA sesgados sin siquiera darse cuenta.
- Es posible que los datos históricos utilizados para entrenar los algoritmos de IA no sean suficientes para representar con precisión a toda la población.
Ejemplo de la vida real:
Los modelos de lenguaje a gran escala (LLM, por sus siglas en inglés) se utilizan cada vez más en los lugares de trabajo para mejorar la eficiencia y la equidad, pero también pueden reproducir o amplificar los sesgos sociales. El estudio Silicon Ceiling examina el impacto de los LLM en la contratación mediante la auditoría de los sesgos raciales y de género en el currículum vitae de OpenAI, basándose en métodos tradicionales de auditoría de currículos.
Los investigadores realizaron dos estudios utilizando nombres asociados a diferentes razas y géneros: evaluación y generación de currículos. En el Estudio 1, GPT evaluó currículos con nombres variados en múltiples ocupaciones y criterios de evaluación, revelando sesgos basados en estereotipos. En el Estudio 2, GPT generó currículos ficticios, mostrando diferencias sistemáticas: los currículos de mujeres reflejaban menos experiencia, mientras que los de personas asiáticas e hispanas incluían marcadores de inmigración.
Estos hallazgos se suman a las pruebas de sesgo en los programas de maestría en derecho, particularmente en los contextos de contratación. 1
Para construir una IA ética y responsable , es necesario eliminar los sesgos en los sistemas de IA. Sin embargo, solo el 47 % de las organizaciones realizan pruebas para detectar sesgos en los datos, los modelos y el uso humano de los algoritmos. 2
Si bien eliminar todos los sesgos en los sistemas de IA es casi imposible, dados los numerosos sesgos humanos existentes y el descubrimiento continuo de otros nuevos, minimizarlos puede ser un objetivo empresarial.
cosas autónomas
Los objetos autónomos (AuT, por sus siglas en inglés) son dispositivos y máquinas que realizan tareas específicas sin intervención humana. Entre estas máquinas se incluyen los coches autónomos , los drones y los robots. Dado que la ética robótica es un tema amplio, nos centramos en las cuestiones éticas que surgen del uso de vehículos autónomos y drones.
coches autónomos
El mercado de vehículos autónomos estaba valorado en 54.000 millones de dólares en 2019 y se prevé que alcance los 557.000 millones de dólares en 2026. 3 A pesar de su creciente valor, los vehículos autónomos plantean diversos riesgos para las directrices éticas de la IA. La responsabilidad y la rendición de cuentas de los vehículos autónomos siguen siendo objeto de debate.
Ejemplo de la vida real:
Por ejemplo, en 2018, un coche autónomo de Uber atropelló a un peatón que posteriormente falleció en el hospital. 4 El accidente fue registrado como la primera muerte relacionada con un automóvil autónomo.
Tras la investigación realizada por el Departamento de Policía de Arizona y la Junta Nacional de Seguridad del Transporte de EE. UU. (NTSB), la fiscalía determinó que la empresa no es penalmente responsable de la muerte del peatón. Esto se debe a que la conductora de seguridad estaba distraída con su teléfono celular, y los informes policiales califican el accidente como "completamente evitable".
Armas Autónomas Letales (AAL)
Las armas autónomas letales (LAW, por sus siglas en inglés) son armas impulsadas por inteligencia artificial que pueden identificar y atacar objetivos por sí solas según reglas programadas. Estos sistemas existen desde hace décadas, especialmente en aplicaciones defensivas como minas, defensa antimisiles, sistemas de vigilancia y municiones merodeadoras.
Entre las plataformas más recientes se incluyen vehículos terrestres y marítimos con capacidades autónomas, principalmente para reconocimiento, pero a veces también con funciones ofensivas.
Ejemplo de la vida real:
En el conflicto entre Ucrania y Rusia, las armas autónomas se utilizan principalmente mediante drones con inteligencia artificial y municiones merodeadoras, en lugar de sistemas totalmente independientes.
Rusia emplea municiones merodeadoras, capaces de buscar y atacar objetivos militares predefinidos de forma autónoma con un control humano mínimo una vez lanzadas. Ucrania utiliza principalmente drones semiautónomos, en los que los humanos autorizan los ataques mientras que la IA ayuda con la navegación, el seguimiento de objetivos y el ataque rápido.
Estos sistemas aumentan la velocidad y la precisión en el campo de batalla, pero reducen la supervisión humana efectiva, lo que plantea desafíos legales y éticos en virtud del derecho internacional humanitario, en particular en lo que respecta a los principios de distinción, proporcionalidad y rendición de cuentas. 5
Ejemplo de la vida real:
Desde 2018, las Naciones Unidas se han opuesto sistemáticamente a los sistemas de armas autónomas letales (LAWS, por sus siglas en inglés). El Secretario General, António Guterres, los ha calificado de política y moralmente inaceptables, e instó a su prohibición.
En 2023, reiteró la necesidad de un instrumento internacional jurídicamente vinculante para prohibir las armas totalmente autónomas y regular las demás, citando graves riesgos humanitarios, jurídicos y de derechos humanos. Expertos en derechos humanos de la ONU se han hecho eco de estas preocupaciones y han apoyado una prohibición mundial. 6
Desempleo y desigualdad de ingresos debido a la automatización
Se prevé que la automatización impulsada por la IA transforme significativamente los mercados laborales, contribuyendo a las presiones de desempleo a corto plazo y a la creciente desigualdad de ingresos si no se gestiona adecuadamente.
Las proyecciones actuales sugieren que entre el 15% y el 25% de los empleos se verán afectados de manera significativa entre 2025 y 2027 , con un desplazamiento neto de empleos de entre el 5% y el 10% tras la creación de nuevos puestos de trabajo.
Al mismo tiempo, la IA complementa el trabajo humano en áreas como la toma de decisiones, el razonamiento y la creatividad, desplazando la demanda hacia habilidades de mayor valor. Dado que más del 40 % de los trabajadores necesitarán una capacitación sustancial para 2030 , el acceso desigual a la formación continua corre el riesgo de agravar la desigualdad de ingresos entre quienes pueden adaptarse a los roles habilitados por la IA y quienes no. Lea el artículo «Pérdida de empleos por IA» para obtener más predicciones sobre el impacto de la IA en el mercado laboral actual.
Usos indebidos de la IA
Disputas sobre la gobernanza de la IA en relación con las armas autónomas
Las recientes tensiones entre las empresas de IA y los gobiernos ilustran lo difícil que resulta establecer límites al uso militar de la IA. A principios de 2026, la empresa de IA Anthropic se negó a firmar un contrato con el Departamento de Defensa de EE. UU. que permitiría al gobierno un “acceso sin restricciones” a sus modelos para “todos los fines lícitos”.
El director ejecutivo, Dario Amodei, declaró que la empresa solo participaría si se incluían dos salvaguardias: prohibir la vigilancia doméstica masiva e impedir el desarrollo de armas totalmente autónomas sin supervisión humana. 7
El desacuerdo pone de relieve preocupaciones más amplias sobre el papel de los sistemas avanzados de IA en la guerra. Si bien los grandes modelos lingüísticos no son armas en sí mismos, pueden integrarse en sistemas militares para analizar información de inteligencia, generar listas de objetivos potenciales, priorizar amenazas y recomendar acciones militares.
Las armas totalmente autónomas representan la etapa más controvertida de esta evolución. Una vez activados, estos sistemas pueden buscar, seleccionar y atacar objetivos de forma independiente utilizando sensores como cámaras y radares, así como algoritmos de inteligencia artificial.
Los críticos advierten que eliminar la intervención humana en el proceso de toma de decisiones plantea importantes problemas éticos y legales, en particular en lo que respecta a la rendición de cuentas y el cumplimiento del derecho internacional humanitario.
Prácticas de vigilancia que limitan la privacidad
“El Gran Hermano te vigila”. Esta famosa frase de la novela distópica 1984 de George Orwell fue en su día una obra de ciencia ficción. Sin embargo, hoy en día se siente cada vez más como una realidad, a medida que los gobiernos implementan la IA para la vigilancia masiva. En particular, el uso de la tecnología de reconocimiento facial en los sistemas de vigilancia ha suscitado serias preocupaciones sobre los derechos a la privacidad.
Según el Índice de Vigilancia Global mediante IA (AIGS, por sus siglas en inglés), 176 países utilizan sistemas de vigilancia basados en IA, y las democracias liberales son los principales usuarios de este tipo de vigilancia. 8
El mismo estudio muestra que el 51% de las democracias avanzadas utilizan sistemas de vigilancia basados en IA, en comparación con el 37% de los estados autocráticos cerrados. Sin embargo, esto probablemente se deba a la brecha de riqueza entre estos dos grupos de países.
Desde una perspectiva ética, la pregunta importante es si los gobiernos están abusando de la tecnología o si la están utilizando legalmente.
Ejemplos de la vida real:
Algunos gigantes tecnológicos también expresan preocupaciones éticas sobre la vigilancia mediante IA. Por ejemplo, el presidente Brad Smith publicó una entrada en su blog pidiendo la regulación gubernamental del reconocimiento facial. 9
Además, IBM dejó de ofrecer la tecnología para la vigilancia masiva debido a su potencial de mal uso, como el perfilamiento racial, que viola los derechos humanos fundamentales. 10
Manipulación del juicio humano
El análisis de datos basado en inteligencia artificial puede proporcionar información útil sobre el comportamiento humano, pero abusar de este análisis para manipular las decisiones humanas es éticamente incorrecto.
Ejemplo de la vida real:
Cambridge Analytica vendió datos de votantes estadounidenses recopilados en Facebook a campañas políticas y proporcionó asistencia y análisis a las campañas presidenciales de Ted Cruz y Donald Trump en 2016.
La información sobre la filtración de datos se dio a conocer en 2018, y la Comisión Federal de Comercio multó a Facebook con 5 mil millones de dólares debido a sus violaciones de la privacidad. 11
Proliferación de deepfakes
Los deepfakes son imágenes o vídeos generados sintéticamente en los que la imagen de una persona en un medio audiovisual se sustituye por la de otra persona.
Crear una narrativa falsa mediante deepfakes puede dañar la confianza de la gente en los medios de comunicación (que ya se encuentra en su nivel más bajo). 12 Esta desconfianza es peligrosa para las sociedades, considerando que los medios de comunicación siguen siendo la principal opción de los gobiernos para informar a la gente sobre eventos de emergencia como una pandemia mundial o un gran terremoto que causa daños y víctimas generalizadas.
Ejemplo de la vida real:
La Comisión Europea ha abierto una investigación sobre la plataforma X de Elon Musk por las acusaciones de que su herramienta de IA, Grok, se utilizó para generar imágenes deepfake sexualizadas de personas reales, tras una acción similar emprendida por el regulador británico Ofcom.
Si se determina que X ha infringido la Ley de Servicios Digitales de la UE, podría enfrentarse a multas de hasta el 6 % de sus ingresos anuales globales, y los reguladores podrían imponer medidas provisionales si no se refuerzan las salvaguardias.
Funcionarios y activistas de la UE han condenado los deepfakes por considerarlos dañinos y degradantes, en particular para las mujeres y los niños, y cuestionan si X evaluó y mitigó adecuadamente los riesgos vinculados a las potentes herramientas de IA. 13
Inteligencia artificial general (IAG) / Singularidad
La perspectiva de la inteligencia artificial general (IAG) o la singularidad plantea preocupaciones éticas sobre el valor de la vida humana a medida que las máquinas superan la inteligencia humana. Al mismo tiempo, el camino hacia la IAG sigue siendo incierto, sin consenso científico sobre si surgirá de la ampliación de arquitecturas existentes, como los transformadores, o del desarrollo de enfoques fundamentalmente nuevos, ni sobre cómo debería validarse finalmente la IAG.
Los dilemas prácticos, como si los coches autónomos deben priorizar la seguridad de los pasajeros o de los peatones, ponen de manifiesto cuestiones morales sin resolver que deben abordarse antes de que estas tecnologías se implementen a gran escala. En un sentido más amplio, la aparición de sistemas superinteligentes desafía la hegemonía humana y plantea interrogantes fundamentales sobre los derechos, las responsabilidades y los marcos morales de los seres artificiales.
Analizamos más de 8500 predicciones de científicos, emprendedores y la comunidad en general, y descubrimos que la mayoría de los expertos consideran que la IA general es inevitable. Partiendo de esta premisa, encuestas recientes a investigadores de IA estiman su llegada alrededor de 2040 , un cambio notable con respecto a las previsiones anteriores, más cercanas a 2060 , mientras que los emprendedores son aún más optimistas y proyectan plazos cercanos a 2030 .
Ética de los robots
La ética robótica, o roboética, aborda cómo los humanos diseñan, utilizan y tratan a los robots. Los debates sobre este tema existen desde la década de 1940 y giran principalmente en torno a si los robots deberían tener derechos comparables a los de los humanos y los animales.
El autor Isaac Asimov fue el primero en hablar de leyes para robots en su cuento titulado “Runaround”. Introdujo las Tres Leyes de la Robótica: 14
- Un robot no puede dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño.
- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley.
- Un robot debe proteger su existencia siempre y cuando dicha protección no entre en conflicto con la Primera o la Segunda Ley.
¿Cómo afrontar estos dilemas?
Estas son preguntas difíciles, y para abordarlas podrían ser necesarias soluciones innovadoras y controvertidas como la renta básica universal. Existen numerosas iniciativas y organizaciones que buscan minimizar el impacto negativo potencial de la IA.
Por ejemplo, el Instituto de Ética en Inteligencia Artificial (IEAI) de la Universidad Técnica de Múnich lleva a cabo investigaciones sobre IA en diversos ámbitos como la movilidad, el empleo, la atención médica y la sostenibilidad. 15
A continuación, se presentan algunas recomendaciones para mitigar las controversias que rodean los usos malintencionados de la IA:
Considere las políticas y las mejores prácticas de la UNESCO.
Política de gobernanza de datos
Esta política subraya la importancia de contar con marcos detallados para la recopilación, el uso y la gobernanza de datos, a fin de garantizar la privacidad individual y mitigar los riesgos. Asimismo, fomenta la creación de conjuntos de datos de calidad para el entrenamiento de la IA, la adopción de conjuntos de datos abiertos y confiables, y la implementación de estrategias eficaces de protección de datos.
Por ejemplo, establecer conjuntos de datos estandarizados para la IA en el sector sanitario garantiza la precisión y reduce los sesgos.
Gobernanza ética de la IA
Los mecanismos de gobernanza deben ser inclusivos, multidisciplinarios y multilaterales, e incorporar a diversos actores, como las comunidades afectadas, los responsables políticos y los expertos en IA. Este enfoque abarca la exigencia de rendición de cuentas y la reparación de los daños causados.
Por ejemplo, garantizar una contratación justa de sistemas de IA requiere auditorías continuas para abordar los sesgos.
Política de educación e investigación
Promueve la alfabetización en IA y la conciencia ética mediante la integración de la educación en IA y datos en los planes de estudio. Asimismo, prioriza la participación de los grupos marginados e impulsa la investigación ética en IA.
Por ejemplo, las escuelas podrían enseñar los fundamentos de la IA junto con la programación y el pensamiento crítico, preparando así a las futuras generaciones para afrontar las repercusiones sociales de la IA.
Salud y bienestar social
Esta política fomenta el uso de la IA para mejorar la atención médica, abordar los riesgos para la salud a nivel mundial y promover la salud mental. Destaca la necesidad de aplicaciones de IA que estén médicamente probadas, sean seguras y eficientes.
Igualdad de género en la IA
La igualdad de género tiene como objetivo reducir las disparidades de género en la IA mediante el apoyo a las mujeres en los campos STEM y evitando los sesgos en los sistemas de IA.
Por ejemplo, destinar fondos para formar a mujeres en la investigación de la IA y abordar los sesgos de género en los algoritmos de contratación laboral.
Sostenibilidad ambiental
Esta política se centra en evaluar y mitigar el impacto ambiental de la IA , como su huella de carbono y el consumo de recursos. Se fomenta el uso de la IA para la predicción y mitigación del cambio climático.
Por ejemplo, la IA se puede utilizar para controlar la deforestación y optimizar las redes de energía renovable.
Metodología de evaluación de la preparación (RAM)
Esta técnica ayuda a los Estados a evaluar su preparación para implementar políticas éticas de IA mediante la evaluación de los marcos legales, la infraestructura y la disponibilidad de recursos.
Por ejemplo, RAM puede identificar deficiencias en la regulación y la infraestructura de la IA, guiando a las naciones hacia una adopción ética de la IA.
Evaluación del impacto ético (EIA)
Este método evalúa los posibles impactos sociales, ambientales y económicos de los proyectos de IA. En colaboración con las comunidades afectadas, la EIA garantiza la asignación de recursos para prevenir daños.
Por ejemplo, una EIA podría identificar los riesgos de sesgo en un sistema de vigilancia predictiva y recomendar medidas de mitigación.
Observatorio mundial sobre ética de la IA
Se trata de una plataforma digital que ofrece análisis de los desafíos éticos de la IA y supervisa la implementación global de las recomendaciones de la UNESCO.
Por ejemplo, el observatorio podría proporcionar informes sobre el impacto social de la IA en varios países.
Formación en ética de la IA y concienciación pública.
Este enfoque fomenta la educación accesible y la participación ciudadana para mejorar la comprensión pública de la ética de la IA.
Por ejemplo, las campañas para educar a los usuarios sobre los riesgos de privacidad en las plataformas de redes sociales impulsadas por IA pueden crear ciudadanos digitales informados.
Figura 1: Áreas de la política ética de la UNESCO en materia de IA 16
Buenas prácticas recomendadas por la UNESCO
- Gobernanza inclusiva y con participación de múltiples partes interesadas:
- Involucrar a diversos grupos de interés, incluidas las comunidades marginadas, en la creación de políticas y la gobernanza de la IA.
- Utilice equipos multidisciplinarios para garantizar que las decisiones sean completas y equitativas.
- Ejemplo: Realizar consultas públicas al implementar sistemas de inteligencia artificial para la vigilancia.
- Transparencia y explicabilidad:
- Desarrollar sistemas de IA con procesos de toma de decisiones interpretables.
- Equilibrar la transparencia con las preocupaciones por la seguridad y la privacidad.
- Ejemplo: Proporcionar a los usuarios explicaciones en lenguaje sencillo sobre cómo un modelo de IA toma decisiones.
- Evaluaciones de sostenibilidad:
- Evalúe periódicamente el impacto ambiental de los sistemas de IA, incluyendo el consumo de energía y la huella de carbono.
- Ejemplo: Reducir el consumo de energía en el entrenamiento de grandes modelos de aprendizaje automático.
- Programas de alfabetización en IA:
- Educar al público y a los responsables políticos sobre las implicaciones éticas de la IA.
- Incorporar la ética de la IA en los planes de estudio educativos en todos los niveles.
- Ejemplo: Talleres sobre riesgos de privacidad en redes sociales impulsadas por inteligencia artificial.
- Auditorías continuas y mecanismos de rendición de cuentas:
- Establecer auditorías periódicas para los sistemas de IA con el fin de detectar y corregir sesgos, imprecisiones o infracciones éticas.
- Garantizar que exista un proceso claro para la reparación de daños causados por la IA.
- Ejemplo: Revisiones periódicas de las herramientas de reclutamiento basadas en IA para prevenir el sesgo de género.
Aprenda marcos de IA responsables
Aquí presentamos algunos marcos de trabajo de IA responsables para superar dilemas éticos como el sesgo de la IA:
Transparencia
Los desarrolladores de IA tienen la obligación ética de ser transparentes de forma estructurada y accesible, ya que la tecnología de IA tiene el potencial de infringir leyes y afectar negativamente la experiencia humana. Para lograr que la IA sea accesible y transparente, el intercambio de conocimientos puede ser de gran ayuda.
Por ejemplo, OpenAI fue fundada en 2015 como un laboratorio de investigación de IA sin fines de lucro por Elon Musk, Sam Altman y otros, con la misión de desarrollar "inteligencia digital" para el beneficio de la humanidad.
Sin embargo, tras su reestructuración en una Corporación de Beneficio Público (PBC), OpenAI ahora opera como una entidad con fines de lucro gobernada por una fundación sin fines de lucro. 17
Al otorgar a Microsoft una licencia exclusiva para sus modelos de vanguardia, OpenAI ha pasado de un modelo de investigación transparente y abierto a uno propietario, lo que ha generado un debate significativo sobre su misión original.
Explicabilidad
Los desarrolladores de IA y las empresas deben explicar cómo sus algoritmos llegan a sus predicciones para superar los problemas éticos que surgen con predicciones inexactas. Diversos enfoques técnicos pueden explicar cómo estos algoritmos llegan a sus conclusiones y qué factores influyen en sus decisiones.
Alineación
Numerosos países, empresas y universidades están desarrollando sistemas de IA, y en la mayoría de los ámbitos, no existe un marco legal adaptado a los recientes avances en inteligencia artificial.
La modernización de los marcos legales, tanto a nivel nacional como en instancias superiores (por ejemplo, la ONU), clarificará el camino hacia un desarrollo ético de la IA. Las empresas pioneras deberían liderar estos esfuerzos para generar claridad en su sector.
Utilice marcos y herramientas de ética de la IA.
Académicos y organizaciones se centran cada vez más en marcos éticos para guiar el uso de las tecnologías de IA. Estos marcos abordan las implicaciones morales de la IA a lo largo de su ciclo de vida, incluyendo el entrenamiento de sistemas de IA, el desarrollo de modelos de IA y el despliegue de sistemas inteligentes.
Aquí tienes una lista de herramientas que pueden ayudarte a aplicar prácticas éticas en la IA:
Herramientas de gobernanza de IA
Las herramientas de gobernanza de la IA garantizan que las aplicaciones de IA se desarrollen e implementen de acuerdo con principios éticos. Estas herramientas ayudan a las organizaciones a supervisar y controlar los programas de IA a lo largo de su ciclo de vida, abordar los riesgos relacionados con resultados poco éticos y fomentar una IA confiable.
Mediante la implementación de prácticas integrales de gobernanza de la IA, las empresas pueden gestionar mejor los riesgos potenciales y lograr el cumplimiento de la normativa sobre IA con los organismos reguladores.
LLMOps
A medida que las tecnologías de IA se vuelven más sofisticadas, aumenta la necesidad de herramientas especializadas para supervisar e implementar estos modelos.
En este contexto, las herramientas LLMOps , prácticas operativas utilizadas para gestionar grandes modelos de lenguaje, desempeñan un papel fundamental en el apoyo al uso ético de estos modelos, al ayudar a garantizar que no perpetúen las desigualdades existentes ni contribuyan a problemas como los deepfakes.
MLOps
Las herramientas MLOps (Operaciones de Aprendizaje Automático) implican la integración de modelos de IA en la producción, garantizando al mismo tiempo el cumplimiento de los estándares éticos.
Esta práctica hace hincapié en la supervisión humana de los sistemas autónomos, especialmente en áreas críticas como la atención médica y la justicia penal.
Gobernanza de datos
La gobernanza de datos es crucial para el uso ético de la IA, e implica una gestión responsable de los datos que entrena a los sistemas de IA.
Una gobernanza de datos eficaz garantiza la protección de los datos y considera las implicaciones sociales de su uso, lo que respalda las consideraciones éticas a lo largo del ciclo de vida de la IA. Esto es especialmente importante dado que las grandes empresas tecnológicas están dando forma al futuro de las tecnologías de IA.
Preguntas frecuentes
La ética de la IA es el estudio de los principios morales que guían el diseño, el desarrollo y la implementación de la inteligencia artificial. Aborda cuestiones como la equidad, la transparencia, la privacidad y la rendición de cuentas para garantizar que los sistemas de IA beneficien a la sociedad, eviten daños y respeten los derechos humanos, al tiempo que mitigan los sesgos y las consecuencias no deseadas.
La Recomendación de la UNESCO sobre la ética de la IA, adoptada en noviembre de 2021, insta a minimizar los resultados discriminatorios y sesgados en los sistemas de IA, al tiempo que promueve la equidad, la transparencia, la rendición de cuentas y el respeto de los derechos humanos.
Hace hincapié en la creación de marcos institucionales y legales para regular la IA en beneficio del interés público. Describe políticas concretas para la gobernanza de datos, la igualdad de género y el uso ético de la IA en todos los sectores. La Recomendación incluye mecanismos de seguimiento, evaluación e implementación para impulsar un cambio significativo.
Sé el primero en comentar
Tu dirección de correo electrónico no será publicada. Todos los campos son obligatorios.