Bien que l'intelligence artificielle transforme le fonctionnement des entreprises, son impact sur nos vies suscite des inquiétudes. Il ne s'agit pas seulement d'un problème académique ou sociétal, mais aussi d'un risque d'atteinte à la réputation des entreprises ; aucune ne souhaite voir sa réputation ternie par des scandales liés aux données ou à l'éthique de l'IA.
Explorez les enjeux éthiques liés à l'utilisation de l'IA, des exemples de mésusage et les principes clés pour atténuer ces problèmes.
biais algorithmique
Les algorithmes et les données d'entraînement peuvent contenir des biais , tout comme les humains, car ces derniers en génèrent également. Ces biais empêchent les systèmes d'IA de prendre des décisions équitables. On observe des biais dans les systèmes d'IA pour deux raisons principales :
- Les développeurs peuvent programmer des systèmes d'IA biaisés sans même s'en rendre compte.
- Les données historiques utilisées pour entraîner les algorithmes d'IA peuvent ne pas suffire à représenter fidèlement l'ensemble de la population.
Exemple concret :
Les grands modèles de langage (GML) sont de plus en plus utilisés en milieu professionnel pour améliorer l'efficacité et l'équité, mais ils peuvent aussi reproduire ou amplifier les biais sociaux. L'étude Silicon Ceiling examine l'impact des GML sur le recrutement en analysant les biais raciaux et sexistes dans les CV de l'entreprise OpenAI, en s'appuyant sur les méthodes traditionnelles d'analyse de CV.
Des chercheurs ont mené deux études utilisant des noms associés à différentes ethnies et genres : l’évaluation et la génération de CV. Dans la première étude, le GPT a évalué des CV portant des noms variés, couvrant de multiples professions et selon différents critères d’évaluation, révélant des biais stéréotypés. Dans la seconde étude, le GPT a généré des CV fictifs, mettant en évidence des différences systématiques : les CV des femmes reflétaient moins d’expérience, tandis que ceux des personnes d’origine asiatique et hispanique comportaient des marqueurs d’immigration.
Ces résultats viennent étayer les preuves de biais dans les programmes de maîtrise en droit, notamment dans le contexte du recrutement. 1
Pour construire une IA éthique et responsable , il est nécessaire d'éliminer les biais dans les systèmes d'IA. Pourtant, seulement 47 % des organisations testent les biais dans les données, les modèles et l'utilisation humaine des algorithmes. 2
Bien qu'il soit quasiment impossible d'éliminer tous les biais dans les systèmes d'IA, compte tenu des nombreux biais humains existants et de la découverte constante de nouveaux, les minimiser peut constituer un objectif pour une entreprise.
Choses autonomes
Les objets autonomes (AuT) sont des dispositifs et des machines qui accomplissent des tâches spécifiques sans intervention humaine. Parmi ces machines figurent les voitures autonomes , les drones et les robots. L'éthique robotique étant un vaste sujet, nous nous concentrons ici sur les problèmes éthiques liés à l'utilisation des véhicules autonomes et des drones.
Voitures autonomes
Le marché des véhicules autonomes était évalué à 54 milliards de dollars en 2019 et devrait atteindre 557 milliards de dollars d'ici 2026. 3 Malgré leur intérêt croissant, les véhicules autonomes posent divers risques pour l'éthique de l'IA. La responsabilité et l'obligation de rendre des comptes concernant les véhicules autonomes font encore débat.
Exemple concret :
Par exemple, en 2018, une voiture autonome Uber a percuté un piéton qui est décédé plus tard à l'hôpital. 4 L’accident a été enregistré comme le premier décès impliquant une voiture autonome.
Après enquête menée par la police de l'Arizona et le Bureau national de la sécurité des transports (NTSB) des États-Unis, le parquet a conclu que l'entreprise n'était pas pénalement responsable du décès du piéton. En effet, la conductrice de sécurité était distraite par son téléphone portable et, selon le rapport de police, l'accident aurait pu être totalement évité.
Armes autonomes létales (AAL)
Les armes autonomes létales (AAL) sont des armes dotées d'intelligence artificielle capables d'identifier et d'engager des cibles de manière autonome, selon des règles programmées. De tels systèmes existent depuis des décennies, notamment dans des applications défensives comme les mines, la défense antimissile, les systèmes de sentinelles et les munitions rôdeuses.
Les plateformes plus récentes comprennent des véhicules terrestres et maritimes dotés de capacités autonomes, principalement pour la reconnaissance mais parfois avec des fonctions offensives.
Exemple concret :
Dans le conflit ukraino-russe, les armes autonomes sont principalement utilisées via des drones dotés d'IA et des munitions rôdeuses plutôt que par des systèmes totalement indépendants.
La Russie utilise des munitions rôdeuses, capables de rechercher et de frapper de manière autonome des cibles militaires prédéfinies, avec un minimum d'intervention humaine après leur lancement. L'Ukraine utilise principalement des drones semi-autonomes, où les attaques sont autorisées par des humains tandis que l'IA assure la navigation, le suivi des cibles et l'engagement rapide.
Ces systèmes augmentent la vitesse et la précision sur le champ de bataille, mais réduisent la supervision humaine significative, créant des défis juridiques et éthiques au regard du droit international humanitaire, notamment en ce qui concerne les principes de distinction, de proportionnalité et de responsabilité. 5
Exemple concret :
Depuis 2018, les Nations Unies s'opposent sans relâche aux systèmes d'armes létales autonomes (SALA). Le Secrétaire général António Guterres les a qualifiés d'inacceptables sur les plans politique et moral, et a insisté sur la nécessité de leur interdiction.
En 2023, il a réaffirmé la nécessité d'un instrument international juridiquement contraignant pour interdire les armes entièrement autonomes et réglementer les autres, invoquant de graves risques humanitaires, juridiques et relatifs aux droits de l'homme. Des experts des Nations Unies en matière de droits de l'homme ont fait écho à ces préoccupations et se sont prononcés en faveur d'une interdiction mondiale. 6
Chômage et inégalités de revenus dus à l'automatisation
L'automatisation pilotée par l'IA devrait profondément remodeler les marchés du travail, contribuant à des pressions accrues sur le chômage à court terme et à un creusement des inégalités de revenus si elle n'est pas maîtrisée.
Les projections actuelles suggèrent que 15 à 25 % des emplois seront fortement perturbés d'ici 2025-2027 , avec un déplacement net d'emplois de 5 à 10 % après la création de nouveaux postes.
Dans le même temps, l'IA complète le travail humain dans des domaines tels que la prise de décision, le raisonnement et la créativité, ce qui oriente la demande vers des compétences à plus forte valeur ajoutée. Avec plus de 40 % des travailleurs nécessitant une importante mise à niveau de leurs compétences d'ici 2030 , l'inégalité d'accès à la formation continue risque d'aggraver les inégalités de revenus entre ceux qui peuvent s'adapter aux métiers liés à l'IA et ceux qui ne le peuvent pas. Consultez l'article « Pertes d'emplois liées à l'IA » pour en savoir plus sur les prévisions concernant l'impact de l'IA sur le marché du travail actuel.
Utilisations abusives de l'IA
Conflits de gouvernance de l'IA concernant les armes autonomes
Les tensions récentes entre les entreprises d'IA et les gouvernements illustrent la difficulté de limiter l'utilisation militaire de l'IA. Début 2026, l'entreprise d'IA Anthropic a refusé de signer un contrat du département américain de la Défense qui aurait permis au gouvernement d'avoir un « accès illimité » à ses modèles pour « toutes fins légitimes ».
Anthropic Le PDG Dario Amodei a déclaré que l'entreprise ne participerait que si deux garanties étaient incluses : l'interdiction de la surveillance intérieure de masse et la prévention du développement d'armes entièrement autonomes sans surveillance humaine. 7
Ce désaccord met en lumière des préoccupations plus générales concernant le rôle des systèmes d'IA avancés dans la guerre. Bien que les grands modèles de langage ne soient pas des armes en soi, ils peuvent être intégrés aux systèmes militaires pour analyser les renseignements, générer des listes de cibles potentielles, hiérarchiser les menaces et recommander des actions militaires.
Les armes entièrement autonomes représentent l'étape la plus controversée de cette évolution. Une fois activées, ces systèmes peuvent rechercher, sélectionner et attaquer des cibles de manière indépendante grâce à des capteurs tels que des caméras et des radars, ainsi qu'à des algorithmes d'intelligence artificielle.
Les critiques avertissent que l'exclusion des humains du processus décisionnel soulève d'importantes questions éthiques et juridiques, notamment en matière de responsabilité et de respect du droit international humanitaire.
Pratiques de surveillance limitant la vie privée
« Big Brother vous surveille. » Cette célèbre phrase du roman dystopique 1984 de George Orwell relevait autrefois de la science-fiction. Aujourd'hui, pourtant, elle semble de plus en plus réelle, à mesure que les gouvernements déploient l'intelligence artificielle à des fins de surveillance de masse. En particulier, l'utilisation de la technologie de reconnaissance faciale dans les systèmes de surveillance a soulevé de sérieuses inquiétudes quant au respect de la vie privée.
Selon l'indice AIGS (AI Global Surveillance Index), 176 pays utilisent des systèmes de surveillance basés sur l'IA, et les démocraties libérales sont les principaux utilisateurs de cette surveillance. 8
La même étude révèle que 51 % des démocraties avancées déploient des systèmes de surveillance par intelligence artificielle, contre 37 % dans les États autocratiques fermés. Cet écart s'explique probablement par les disparités de richesse entre ces deux groupes de pays.
D'un point de vue éthique, la question importante est de savoir si les gouvernements abusent de cette technologie ou l'utilisent de manière légale.
Exemples concrets :
Certains géants de la tech expriment également des préoccupations éthiques concernant la surveillance par intelligence artificielle. Par exemple, le président de [nom de l'entreprise manquante], Brad Smith, a publié un article de blog appelant à une réglementation gouvernementale de la reconnaissance faciale. 9
De plus, IBM a cessé de proposer cette technologie de surveillance de masse en raison de son potentiel d'utilisation abusive, comme le profilage racial, qui viole les droits humains fondamentaux. 10
Manipulation du jugement humain
L'analyse de données basée sur l'IA peut fournir des informations exploitables sur le comportement humain, mais abuser de cette analyse pour manipuler les décisions humaines est éthiquement répréhensible.
Exemple concret :
Cambridge Analytica a vendu des données d'électeurs américains collectées sur Facebook à des campagnes politiques et a fourni une assistance et des analyses aux campagnes présidentielles de Ted Cruz et Donald Trump en 2016.
L'information concernant la fuite de données a été divulguée en 2018, et la Federal Trade Commission a infligé à Facebook une amende de 5 milliards de dollars pour violation de la vie privée. 11
Prolifération des deepfakes
Les deepfakes sont des images ou des vidéos générées synthétiquement dans lesquelles une personne figurant dans une image ou une vidéo est remplacée par l'apparence de quelqu'un d'autre.
Créer un récit mensonger à l'aide de deepfakes peut nuire à la confiance du public dans les médias (qui est déjà à son plus bas niveau historique). 12 Cette méfiance est dangereuse pour les sociétés, étant donné que les médias de masse restent le principal moyen d’information des gouvernements sur les événements d’urgence tels qu’une pandémie mondiale ou un tremblement de terre majeur causant des dégâts et des pertes humaines considérables.
Exemple concret :
La Commission européenne a ouvert une enquête sur la plateforme X d'Elon Musk suite à des allégations selon lesquelles son outil d'IA, Grok, aurait été utilisé pour générer des images truquées à caractère sexuel de personnes réelles, faisant suite à une action similaire de l'autorité de régulation britannique Ofcom.
Si X est reconnu coupable d'avoir enfreint la loi européenne sur les services numériques, il pourrait se voir infliger des amendes pouvant atteindre 6 % de son chiffre d'affaires annuel mondial, et les autorités de régulation pourraient imposer des mesures provisoires si les garanties ne sont pas renforcées.
Des responsables et des militants de l'UE ont condamné les deepfakes, les qualifiant de nuisibles et dégradants, en particulier pour les femmes et les enfants, et se demandant si X avait correctement évalué et atténué les risques liés aux puissants outils d'IA. 13
Intelligence artificielle générale (IAG) / Singularité
La perspective d' une intelligence artificielle générale (IAG), ou singularité, soulève des questions éthiques quant à la valeur de la vie humaine à mesure que les machines surpassent l'intelligence humaine. Parallèlement, la voie vers l'IAG demeure incertaine, aucun consensus scientifique n'existant quant à savoir si elle résultera d'une extension d'architectures existantes telles que les transformateurs ou du développement d'approches fondamentalement nouvelles, ni quant à la manière dont l'IAG devrait être validée.
Des dilemmes pratiques, comme celui de savoir si les voitures autonomes doivent privilégier la sécurité des passagers ou celle des piétons, mettent en lumière des questions morales non résolues qui doivent être abordées avant le déploiement à grande échelle de ces technologies. Plus largement, l'émergence de systèmes superintelligents remet en cause la domination humaine et soulève des questions fondamentales concernant les droits, les responsabilités et le cadre moral des êtres artificiels.
Nous avons analysé plus de 8 500 prédictions émanant de scientifiques, d'entrepreneurs et du grand public et constaté que la plupart des experts considèrent l'intelligence artificielle générale (IAG) comme inévitable. Partant de ce constat, de récentes enquêtes menées auprès de chercheurs en IA estiment son arrivée aux alentours de 2040 , un changement notable par rapport aux prévisions antérieures qui la situaient plus près de 2060. Les entrepreneurs, quant à eux, se montrent encore plus optimistes et envisagent une échéance proche de 2030 .
Éthique des robots
L'éthique des robots, ou roboéthique, s'intéresse à la manière dont les humains conçoivent, utilisent et traitent les robots. Les débats sur ce sujet existent depuis les années 1940 et portent principalement sur la question de savoir si les robots devraient avoir des droits comparables à ceux des humains et des animaux.
L'auteur Isaac Asimov est le premier à évoquer les lois de la robotique dans sa nouvelle intitulée « Runaround ». Il y introduit les Trois Lois de la Robotique : 14
- Un robot ne peut blesser un être humain ni, par son inaction, laisser un être humain être blessé.
- Un robot doit obéir aux ordres donnés par les êtres humains, sauf si ces ordres contreviennent à la Première Loi.
- Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième Loi.
Comment résoudre ces dilemmes ?
Ce sont des questions complexes, et des solutions novatrices et controversées comme le revenu universel de base pourraient s'avérer nécessaires pour y répondre. De nombreuses initiatives et organisations s'efforcent de minimiser l'impact négatif potentiel de l'IA.
Par exemple, l'Institut d'éthique en intelligence artificielle (IEAI) de l'Université technique de Munich mène des recherches en IA dans divers domaines tels que la mobilité, l'emploi, la santé et la durabilité. 15
Voici quelques recommandations pour atténuer les controverses entourant les utilisations adverses de l'IA :
Tenir compte des politiques et des meilleures pratiques de l'UNESCO
Politique de gouvernance des données
Cette politique souligne l'importance de cadres détaillés pour la collecte, l'utilisation et la gouvernance des données afin de garantir le respect de la vie privée et d'atténuer les risques. Elle encourage la création d'ensembles de données de qualité pour l'entraînement des IA, l'adoption d'ensembles de données ouverts et fiables, et la mise en œuvre de stratégies efficaces de protection des données.
Par exemple, la mise en place d'ensembles de données standardisés pour l'IA dans le domaine de la santé garantit la précision et réduit les biais.
Gouvernance éthique de l'IA
Les mécanismes de gouvernance doivent être inclusifs, multidisciplinaires et multilatéraux, intégrant divers acteurs tels que les communautés affectées, les décideurs politiques et les experts en IA. Cette approche s'étend à la mise en œuvre des mécanismes de responsabilisation et de réparation des préjudices.
Par exemple, garantir un recrutement équitable des systèmes d'IA nécessite des audits continus pour lutter contre les biais.
politique d'éducation et de recherche
Elle favorise la culture de l'IA et la sensibilisation à l'éthique en intégrant l'enseignement de l'IA et des données dans les programmes scolaires. Elle privilégie également la participation des groupes marginalisés et encourage la recherche éthique en IA.
Par exemple, les écoles pourraient enseigner les bases de l'IA parallèlement au codage et à la pensée critique, préparant ainsi les générations futures à appréhender les impacts sociétaux de l'IA.
Santé et bien-être social
Cette politique encourage le déploiement de l'IA pour améliorer les soins de santé, faire face aux risques sanitaires mondiaux et promouvoir la santé mentale. Elle souligne la nécessité d' applications d'IA médicalement éprouvées, sûres et efficaces.
L'égalité des genres dans l'IA
L’objectif de Gender Quality est de réduire les disparités entre les sexes dans l’IA en soutenant les femmes dans les domaines STEM et en évitant les biais dans les systèmes d’IA.
Par exemple, en allouant des fonds au mentorat des femmes dans la recherche en IA et en luttant contre les biais sexistes dans les algorithmes de recrutement.
durabilité environnementale
Cette politique vise à évaluer et à atténuer l' impact environnemental de l'IA , notamment son empreinte carbone et sa consommation de ressources. Elle encourage également l'utilisation de l'IA dans la prévision et l'atténuation du changement climatique.
Par exemple, l'IA peut être utilisée pour surveiller la déforestation et optimiser les réseaux d'énergies renouvelables.
Méthodologie d'évaluation de la préparation (RAM)
Cette technique aide les États à évaluer leur capacité à mettre en œuvre des politiques éthiques en matière d'IA en analysant les cadres juridiques, les infrastructures et la disponibilité des ressources.
Par exemple, RAM peut identifier les lacunes en matière de réglementation et d'infrastructure de l'IA, guidant ainsi les nations vers une adoption éthique de l'IA.
Évaluation d'impact éthique (EIE)
Cette méthode évalue les impacts sociaux, environnementaux et économiques potentiels des projets d'IA. En collaboration avec les communautés concernées, l'EIE garantit une allocation des ressources permettant de prévenir tout dommage.
Par exemple, une évaluation d'impact environnemental pourrait identifier les risques de biais dans un système de police prédictive et recommander des mesures d'atténuation.
Observatoire mondial de l'éthique de l'IA
Il s'agit d'une plateforme numérique qui propose des analyses des défis éthiques posés par l'IA et qui surveille la mise en œuvre mondiale des recommandations de l'UNESCO.
Par exemple, l'observatoire pourrait fournir des rapports sur les impacts sociétaux de l'IA dans différents pays.
Formation à l'éthique de l'IA et sensibilisation du public
Cette approche encourage l'accès à l'éducation et l'engagement civique afin d'améliorer la compréhension publique de l'éthique de l'IA.
Par exemple, des campagnes de sensibilisation des utilisateurs aux risques liés à la protection de la vie privée sur les plateformes de médias sociaux basées sur l'IA peuvent contribuer à former des citoyens numériques informés.
Figure 1 : Domaines d'action éthiques de l'UNESCO en matière d'IA 16
Meilleures pratiques recommandées par l'UNESCO
- Gouvernance inclusive et multipartite :
- Impliquez diverses parties prenantes, y compris les communautés marginalisées, dans l'élaboration des politiques et la gouvernance de l'IA.
- Utilisez des équipes multidisciplinaires pour garantir que les décisions soient équilibrées et équitables.
- Exemple : Organiser des consultations publiques lors du déploiement de systèmes d'IA de surveillance.
- Transparence et explicabilité :
- Développer des systèmes d'IA dotés de processus de prise de décision interprétables.
- Trouver un équilibre entre transparence et respect de la sécurité et de la vie privée.
- Exemple : Fournir aux utilisateurs des explications en langage clair sur la façon dont un modèle d’IA prend des décisions.
- Évaluations de la durabilité :
- Évaluer régulièrement l'impact environnemental des systèmes d'IA, notamment leur consommation d'énergie et leur empreinte carbone.
- Exemple : Réduire la consommation d'énergie lors de l'entraînement de grands modèles d'apprentissage automatique.
- Programmes d'alphabétisation en IA :
- Sensibiliser le public et les décideurs politiques aux implications éthiques de l'IA.
- Intégrer l'éthique de l'IA dans les programmes éducatifs à tous les niveaux.
- Exemple : Ateliers sur les risques liés à la protection de la vie privée dans les médias sociaux basés sur l'IA.
- Audits continus et mécanismes de responsabilisation :
- Mettre en place des audits réguliers des systèmes d'IA afin de détecter et de corriger les biais, les inexactitudes ou les manquements à l'éthique.
- Veillez à ce qu'il existe une procédure claire de recours en cas de préjudice causé par l'IA.
- Exemple : Examens périodiques des outils de recrutement par IA pour prévenir les biais sexistes.
Apprenez les cadres d'IA responsables
Voici quelques cadres d'IA responsable pour surmonter les dilemmes éthiques tels que les biais de l'IA :
Transparence
Les développeurs d'IA ont l'obligation éthique de faire preuve de transparence de manière structurée et accessible, car cette technologie a le potentiel d'enfreindre la loi et d'avoir un impact négatif sur l'expérience humaine. Le partage des connaissances peut contribuer à rendre l'IA accessible et transparente.
Par exemple, OpenAI a été fondé en 2015 en tant que laboratoire de recherche en IA à but non lucratif par Elon Musk, Sam Altman et d'autres, avec pour mission de développer « l'intelligence numérique » au profit de l'humanité.
Cependant, suite à sa restructuration en une société d'intérêt public (PBC), OpenAI fonctionne désormais comme une entité à but lucratif régie par une fondation à but non lucratif. 17
En accordant à Microsoft une licence exclusive sur ses modèles de pointe, OpenAI est passé d'un modèle de recherche transparent et ouvert à un modèle propriétaire, suscitant un débat important sur sa mission initiale.
Explicabilité
Les développeurs d'IA et les entreprises doivent expliquer comment leurs algorithmes parviennent à leurs prédictions afin de résoudre les problèmes éthiques liés à des prédictions inexactes. Différentes approches techniques permettent d'expliquer comment ces algorithmes arrivent à leurs conclusions et quels facteurs influencent leurs décisions.
Alignement
De nombreux pays, entreprises et universités développent des systèmes d'IA, et dans la plupart des domaines, il n'existe pas de cadre juridique adapté aux récents développements de l'IA.
La modernisation des cadres juridiques, tant au niveau national qu'aux niveaux supérieurs (par exemple, l'ONU), permettra de clarifier la voie d'un développement éthique de l'IA. Les entreprises pionnières devraient mener ces efforts afin d'apporter cette clarté à leur secteur.
Utiliser des cadres et des outils d'éthique de l'IA
Les milieux universitaires et les organisations s'intéressent de plus en plus aux cadres éthiques pour encadrer l'utilisation des technologies d'IA. Ces cadres abordent les implications morales de l'IA tout au long de son cycle de vie, depuis l'entraînement des systèmes d'IA jusqu'au déploiement des systèmes intelligents, en passant par le développement des modèles d'IA.
Voici une liste d'outils qui peuvent vous aider à appliquer les pratiques éthiques de l'IA :
outils de gouvernance de l'IA
Les outils de gouvernance de l'IA garantissent que les applications d'IA sont développées et déployées conformément aux principes éthiques. Ces outils aident les organisations à surveiller et à contrôler les programmes d'IA tout au long de leur cycle de vie, à gérer les risques liés à des résultats contraires à l'éthique et à promouvoir une IA digne de confiance.
En mettant en œuvre des pratiques de gouvernance de l'IA complètes, les entreprises peuvent mieux gérer les risques potentiels et se conformer aux exigences des organismes de réglementation en matière d'IA .
LLMOps
À mesure que les technologies d'IA se perfectionnent, le besoin d'outils spécialisés pour superviser et déployer ces modèles s'est accru.
Dans ce contexte, les outils LLMOps , pratiques opérationnelles utilisées pour gérer les grands modèles de langage, jouent un rôle clé dans le soutien à l'utilisation éthique de ces modèles en contribuant à garantir qu'ils ne perpétuent pas les inégalités existantes ni ne contribuent à des problèmes tels que les deepfakes.
MLOps
Les outils MLOps (Machine Learning Operations) consistent à intégrer des modèles d'IA en production tout en garantissant le respect des normes éthiques.
Cette pratique met l'accent sur la supervision humaine des systèmes autonomes, notamment dans des domaines critiques tels que la santé et la justice pénale.
gouvernance des données
La gouvernance des données est essentielle à une utilisation éthique de l'IA, impliquant une gestion responsable des données qui permettent de former les systèmes d'IA.
Une gouvernance des données efficace garantit la protection des données et prend en compte les implications sociales de leur utilisation, favorisant ainsi le respect des principes éthiques tout au long du cycle de vie de l'IA. Ceci est d'autant plus important que les géants du numérique façonnent l'avenir des technologies d'IA.
FAQ
L'éthique de l'IA étudie les principes moraux qui guident la conception, le développement et le déploiement de l'intelligence artificielle. Elle aborde des questions telles que l'équité, la transparence, la protection de la vie privée et la responsabilité afin de garantir que les systèmes d'IA profitent à la société, évitent les préjudices et respectent les droits humains, tout en atténuant les biais et les conséquences imprévues.
La Recommandation de l’UNESCO sur l’éthique de l’IA, adoptée en novembre 2021, appelle à minimiser les résultats discriminatoires et biaisés des systèmes d’IA tout en promouvant l’équité, la transparence, la responsabilité et le respect des droits de l’homme.
Elle met l'accent sur la création de cadres institutionnels et juridiques pour encadrer l'IA au service du bien public. Elle présente des politiques concrètes en matière de gouvernance des données, d'égalité des genres et d'utilisation éthique de l'IA dans tous les secteurs. La recommandation comprend des mécanismes de suivi, d'évaluation et de mise en œuvre pour impulser un changement significatif.
Soyez le premier à commenter
Votre adresse courriel ne sera pas publiée. Tous les champs sont obligatoires.