O aumento do uso da inteligência artificial (IA) está impulsionando novas leis e padrões éticos. A Coreia do Sul tornou-se recentemente a primeira nação a implementar integralmente uma lei abrangente e independente sobre IA. 1 Devido a essas mudanças rápidas, 77% das empresas consideram a conformidade com a IA uma prioridade máxima. 2
Nossa equipe dedicou seus esforços recentes a simplificar essa complexidade, avaliando o viés da IA , selecionando ferramentas de governança de IA e auditando estudos de caso sobre ética em IA .
Descubra o que é a conformidade com a IA, por que ela é importante agora , seus desafios e exemplos reais em que os modelos não atendem aos padrões legais:
O que é conformidade com IA?
A conformidade com a IA refere-se ao processo de garantir que os sistemas de IA estejam em conformidade com todas as leis, regulamentos e padrões éticos relevantes. Isso envolve assegurar que:
- As ferramentas de IA não são utilizadas de forma ilegal, discriminatória, enganosa ou prejudicial.
- Os dados utilizados para treinar esses sistemas são coletados e utilizados de forma legal e ética.
- As tecnologias de IA são empregadas de forma responsável e para o benefício da sociedade.
benefícios da conformidade com a IA
A conformidade com a IA pode garantir:
- Conformidade regular e gestão de riscos , garantindo o uso legal e ético de sistemas de IA.
- A privacidade e a segurança dos indivíduos são garantidas através do tratamento adequado dos dados pessoais.
- Processos de tomada de decisão que levam a resultados de IA mais precisos e confiáveis.
- A interoperabilidade dos sistemas de IA facilita uma integração mais fluida com outros sistemas e tecnologias, melhorando a eficiência e a colaboração entre diferentes plataformas.
- Proteção das organizações contra potenciais riscos legais e financeiros, como multas, penalidades ou ações judiciais.
- Melhorar a reputação da organização e a confiança de clientes, partes interessadas e do público, demonstrando um compromisso com práticas éticas de IA.
Por que a conformidade com a IA é importante?
A conformidade com a IA ganha importância devido a:
- Adoção crescente de IA: as estatísticas de IA sugerem que
- Prevê-se que 90% dos aplicativos empresariais comerciais utilizem IA até o próximo ano.
- Nove em cada dez empresas líderes têm investimentos contínuos em IA.
- Aumento do interesse em IA generativa: como explicam as tendências de automação de TI.
- Desde o lançamento do ChatGPT em 2022, as empresas relataram um aumento de 97% no interesse pelo desenvolvimento de modelos generativos de IA.
- As taxas de adoção de pipelines de aprendizado de máquina para aprimorar estratégias de IA generativa aumentaram 72%.
- Necessidade de uma governança de dados eficaz: De acordo com as estatísticas de IA :
- Com a expectativa de que a IA generativa crie 10% de todos os dados gerados até 2025, uma governança de dados eficaz é crucial para garantir a integridade dos dados e a conformidade regulatória.
- Levantamento de preocupações éticas: Devido a exemplos da vida real de falta de conformidade com a IA e de práticas responsáveis de IA, como modelos tendenciosos e chatbots com comportamento discriminatório e discurso de ódio.
Para ver mais exemplos da vida real, consulte abaixo:
Exemplos reais de falta de conformidade com a IA
Aqui estão alguns exemplos reais de empresas que enfrentaram problemas de reputação e adiaram seus projetos de IA devido a consequências antiéticas. Esses exemplos levaram a investimentos em gestão de conformidade com a IA e a iniciativas de IA responsável por parte dessas empresas.
1. Deepfakes
Deepfakes são mídias geradas por IA que alteram de forma convincente aparências, vozes ou ações, e podem ser usadas de forma antiética para:
- Fraude financeira praticada por golpistas que se fazem passar por outras pessoas para realizar transferências de dinheiro não autorizadas.
- O cyberbullying consiste na criação de imagens ou vídeos falsos e prejudiciais com o intuito de assediar alguém.
- Manipulação de dados para enganar a mídia, alterar a percepção pública, influenciar eleições ou causar crises.
- Testemunho falso para produzir provas falsas em processos judiciais, arriscando condenações injustas.
- Violações de privacidade para criar conteúdo não autorizado e explícito, muitas vezes direcionado a indivíduos sem o seu consentimento.
Por exemplo, um vídeo que apresenta falsamente o Primeiro Ministro Sênior Lee Hsien Loong promovendo um produto de investimento destaca os perigos da inteligência artificial na disseminação de informações errôneas. 3 Aqui está o vídeo deepfake do Primeiro Ministro:
2. Viés de gênero em ferramentas de recrutamento baseadas em IA
Em 2018, a Amazon desativou uma ferramenta experimental de recrutamento por IA após descobrir que ela favorecia sistematicamente candidatos do sexo masculino. O problema estava relacionado a dados de treinamento tendenciosos que refletiam o desequilíbrio de gênero na área de tecnologia. 4
Esse viés gerou preocupações sobre a imparcialidade e a precisão da IA nas decisões de contratação, levando a Amazon a remover a ferramenta para evitar a perpetuação da desigualdade de gênero.
3. Preconceito racial
3.1 Viés racial no COMPAS
A ferramenta COMPAS, usada para prever a probabilidade de reincidência entre criminosos nos EUA, apresentou viés racial. 5 Uma investigação da ProPublica de 2016 revelou que o COMPAS era mais propenso a classificar réus negros como de alto risco em comparação com réus brancos, mesmo controlando fatores como antecedentes criminais e idade. Alguns dos resultados tendenciosos incluíram:
- Quase o dobro de réus negros (45%) foram classificados erroneamente como de alto risco em comparação com réus brancos (23%).
- Classificaram incorretamente mais réus brancos como de baixo risco, com 48% reincidindo em comparação com 28% dos réus negros.
3.2. Viés racial no algoritmo de saúde dos EUA
Um algoritmo de IA usado em hospitais dos EUA para prever as necessidades dos pacientes apresentou viés contra pacientes negros. 6
O algoritmo baseou suas previsões nos custos de saúde, sem levar em conta as disparidades raciais no pagamento de serviços de saúde. Como resultado, pacientes negros receberam pontuações de risco mais baixas e receberam menos cuidados em comparação com pacientes brancos com condições de saúde semelhantes. Esse viés levou ao acesso desigual a cuidados médicos necessários.
4. Comportamento discriminatório de chatbots
4.1 Tay
Em 2016, Microsoft lançou Tay, um chatbot no Twitter com o objetivo de aprender com as interações dos usuários. 7 Em 24 horas, Tay começou a publicar tweets racistas, transfóbicos e antissemitas após aprender com mensagens inflamatórias enviadas por usuários. Apesar dos esforços iniciais de filtragem de dados, o comportamento de Tay destacou os perigos de sistemas de IA aprenderem com interações públicas sem as devidas salvaguardas.
4.1 Neuro-sama
Outro exemplo é a Neuro-sama, uma VTuber com inteligência artificial que faz transmissões ao vivo na Twitch e interage com os espectadores como se fosse uma streamer humana. 9
Em 2023, seu canal na Twitch foi temporariamente banido devido a conduta odiosa, provavelmente relacionada a comentários controversos feitos pela IA, incluindo questionamentos sobre o Holocausto. Após esse incidente, o criador, Vedal, atualizou o filtro de bate-papo para evitar problemas semelhantes.
Aqui está uma imagem de Neuro-sama:
Confira mais casos de uso ético de IA e exemplos da vida real.
desafios de conformidade com IA
Aqui estão alguns desafios de conformidade com a IA que exigem a implementação de ferramentas e práticas:
1. Navegando pelas regulamentações globais
A conformidade com a IA envolve o cumprimento de uma série de regulamentações internacionais, como a Lei de IA da UE, as Ordens Executivas dos EUA e a AIDA do Canadá. Agora, a Coreia do Sul é o primeiro país a operacionalizar integralmente uma lei abrangente sobre IA. Sua nova Lei Básica de IA exige marcas d'água para conteúdo gerado por computador e supervisão rigorosa para setores de "alto impacto".
Essas mudanças criam um cenário complexo para as operações de IA. A conformidade exige um alinhamento cuidadoso dos sistemas de IA com as estruturas legais específicas de cada região para evitar penalidades.
A tabela abaixo lista os requisitos legais atuais que os modelos de IA devem cumprir:
2. Regulação baseada no risco
A Lei da UE sobre IA introduziu categorias de risco para sistemas de IA (inaceitável, alto, limitado, baixo), cada uma com obrigações regulatórias específicas. Sistemas de IA de alto risco exigem medidas de conformidade mais rigorosas, incluindo documentação completa e protocolos de transparência.
No entanto, avaliar o nível de risco de cada sistema de IA e garantir que ele atenda aos requisitos regulatórios correspondentes é um desafio. Por exemplo, 47% das organizações possuem uma estrutura de gerenciamento de riscos de IA. Contudo, 70% delas não possuem monitoramento e controles contínuos. A classificação incorreta pode levar à não conformidade e a repercussões significativas. 10
3. Gerenciar novas obrigações
Novas leis, como a Lei de Inteligência Artificial, a Diretiva de Responsabilidade por Inteligência Artificial e a Diretiva de Responsabilidade por Produtos Defeituosos, impõem responsabilidades adicionais às organizações. Essas leis exigem a implementação de mecanismos de segurança, auditorias regulares e documentação completa para sistemas de IA.
As organizações devem adaptar seus processos para atender a esses novos padrões, o que pode exigir muitos recursos e a reestruturação das práticas de conformidade existentes, considerando a abordagem baseada em risco da Lei de Inteligência Artificial.
4. Coordenação com a equipe de conformidade
A conformidade com a IA exige a colaboração de diversas equipes, incluindo as áreas jurídica, de governança de dados e de desenvolvimento técnico. Cada equipe tem um papel a desempenhar para garantir que os sistemas de IA estejam alinhados com os requisitos regulatórios.
A coordenação eficaz é essencial para evitar falhas de comunicação e garantir que todos os aspectos da conformidade sejam abordados. O monitoramento e o ajuste contínuos dos sistemas de IA para manter a conformidade aumentam a complexidade.
5. Responsabilidade transversal
A conformidade com a IA geralmente fica restrita ao Diretor de Dados (CDO) ou equivalente, mas esse foco limitado pode ser prejudicial. Apenas 4% das organizações possuem uma equipe multifuncional dedicada à conformidade com a IA. 11
Um amplo comprometimento organizacional e o envolvimento da alta direção são essenciais para estabelecer a conformidade como prioridade em todas as funções e para garantir os recursos necessários.
6. Salvaguardas técnicas
Garantir que os algoritmos de IA cumpram as diretrizes éticas, a transparência e os princípios de proteção de dados é um desafio significativo, especialmente para sistemas de alto risco.
A conformidade exige o desenvolvimento de algoritmos justos, não discriminatórios e seguros, o que pode ser tecnicamente complexo. As organizações devem investir em conhecimento especializado e ferramentas para atender a esses padrões sem prejudicar a inovação.
ferramentas de conformidade de IA
Uma ferramenta de conformidade de IA é uma plataforma centralizada onde equipes técnicas, de negócios, de risco e de conformidade podem colaborar, documentar e gerenciar a conformidade de projetos de IA para navegar no complexo cenário regulatório associado aos sistemas de IA.
Algumas tecnologias que podem alcançar a conformidade com a IA incluem:
Tecnologias de conformidade com IA abrangentes
- Ferramentas de governança de IA projetadas para monitorar, gerenciar e aplicar políticas em torno de sistemas de IA, garantindo que atendam aos padrões regulatórios.
- Plataformas de IA responsáveis ajudam a garantir que os sistemas de IA sejam éticos, transparentes e justos, auxiliando as organizações a atenderem aos requisitos de conformidade.
- LLMOps (Large Language Model Operations) fornece estruturas e ferramentas operacionais para gerenciar grandes modelos de linguagem, levando em consideração a conformidade e as questões éticas.
- MLOps (Machine Learning Operations) concentra-se na implantação de modelos de aprendizado de máquina em ambientes de produção, mantendo a confiabilidade, a governança e os fluxos de trabalho seguros.
- Governança de dados para garantir a gestão adequada dos dados, alinhando as práticas aos requisitos legais e às expectativas internas.
Tecnologias específicas de conformidade com IA
- Ferramentas de gerenciamento de privacidade de dados
Software desenvolvido para gerenciar e proteger dados sensíveis, garantindo a conformidade com regulamentações de proteção de dados como GDPR e CCPA. - Ferramentas de explicabilidade de modelos
Tecnologias que proporcionam transparência aos processos de tomada de decisão da IA, auxiliando no cumprimento dos requisitos regulamentares de explicabilidade e imparcialidade. - Plataformas de Gestão de Riscos com IA
Ferramentas que ajudam a identificar, avaliar e mitigar os riscos associados aos sistemas de IA, garantindo a conformidade com as normas regulamentares e éticas. - Ferramentas de Detecção e Mitigação de Viés
Tecnologias que detectam e reduzem o viés em modelos de IA, ajudando as organizações a atender aos requisitos de conformidade relacionados à imparcialidade e à não discriminação. - Ferramentas de monitoramento de segurança e conformidade
Soluções que monitoram continuamente sistemas de IA em busca de ameaças à segurança e conformidade com padrões regulatórios, fornecendo alertas e respostas automatizadas quando problemas são detectados.
Para saber mais sobre conformidade com a IA, clique aqui.
Explore mais sobre IA responsável, IA ética e tecnologias e desenvolvimentos relacionados à conformidade com a IA, consultando nossos:
- Inteligência Artificial Explicável (XAI): Guia para IA pronta para uso empresarial
- Inteligência Artificial Responsável: 4 Princípios e Melhores Práticas
- Ética da IA generativa: 6 principais preocupações
Seja o primeiro a comentar
Seu endereço de e-mail não será publicado. Todos os campos são obrigatórios.