Contate-nos
Nenhum resultado encontrado.

Dilemas éticos da IA com exemplos da vida real

Cem Dilmegani
Cem Dilmegani
atualizado em Mar 11, 2026
Veja o nosso normas éticas

Embora a inteligência artificial esteja mudando a forma como as empresas operam, existem preocupações sobre como ela pode influenciar nossas vidas. Isso não é apenas um problema acadêmico ou social, mas também um risco para a reputação das empresas; nenhuma empresa quer ser prejudicada por escândalos de ética envolvendo dados ou IA que comprometam sua imagem.

Explore informações sobre questões éticas que surgem com o uso da IA, exemplos de uso indevido e os principais princípios para mitigar esses problemas.

Viés algorítmico

Os algoritmos e os dados de treinamento podem conter vieses , assim como os humanos, já que estes também os geram. Esses vieses impedem que os sistemas de IA tomem decisões justas. Encontramos vieses em sistemas de IA por dois motivos:

  1. Os desenvolvedores podem programar sistemas de IA tendenciosos sem sequer perceber.
  2. Os dados históricos usados para treinar algoritmos de IA podem não ser suficientes para representar com precisão toda a população.

Exemplo da vida real:

Os grandes modelos de linguagem (LLMs, na sigla em inglês) são cada vez mais usados no ambiente de trabalho para melhorar a eficiência e a equidade, mas também podem reproduzir ou amplificar preconceitos sociais. O estudo Silicon Ceiling examina o impacto dos LLMs na contratação, auditando o viés racial e de gênero em OpenAI's GPT-3.5, com base em métodos tradicionais de análise de currículos.

Pesquisadores conduziram dois estudos utilizando nomes associados a diferentes raças e gêneros: avaliação e geração de currículos. No Estudo 1, o GPT (Global Path Testing) avaliou currículos com nomes variados em diversas ocupações e critérios de avaliação, revelando vieses baseados em estereótipos. No Estudo 2, o GPT gerou currículos fictícios, mostrando diferenças sistemáticas: currículos de mulheres refletem menos experiência, enquanto currículos de asiáticos e hispânicos incluem marcadores de imigração.

Essas descobertas reforçam as evidências de viés em mestrados em direito, particularmente em contextos de contratação. 1

Para construir uma IA ética e responsável , é necessário eliminar os vieses nos sistemas de IA. No entanto, apenas 47% das organizações testam a presença de vieses em dados, modelos e no uso humano de algoritmos. 2

Embora eliminar todos os vieses em sistemas de IA seja praticamente impossível, dados os inúmeros vieses humanos existentes e a descoberta contínua de novos, minimizá-los pode ser um objetivo de uma empresa.

Coisas autônomas

Dispositivos Autônomos (AuT, na sigla em inglês) são dispositivos e máquinas que executam tarefas específicas sem intervenção humana. Essas máquinas incluem carros autônomos , drones e robôs. Como a ética robótica é um tema amplo, focamos nas questões antiéticas decorrentes do uso de veículos autônomos e drones.

Carros autônomos

O mercado de veículos autônomos foi avaliado em US$ 54 bilhões em 2019 e a projeção é de que alcance US$ 557 bilhões até 2026. 3 Apesar de seu crescente valor, os veículos autônomos representam diversos riscos para as diretrizes éticas da IA. A responsabilidade e a prestação de contas dos veículos autônomos ainda são temas de debate.

Exemplo da vida real:

Por exemplo, em 2018, um carro autônomo da Uber atropelou um pedestre que posteriormente morreu no hospital. 4 O acidente foi registrado como a primeira morte envolvendo um carro autônomo.

Após investigação conduzida pelo Departamento de Polícia do Arizona e pelo Conselho Nacional de Segurança nos Transportes dos EUA (NTSB), os promotores decidiram que a empresa não é criminalmente responsável pela morte do pedestre. Isso porque a motorista de segurança estava distraída com o celular, e os relatórios policiais classificam o acidente como “completamente evitável”.

Armas Letais Autônomas (LAWs)

As LAWs (Armas Letais Autônomas) são armas com inteligência artificial que podem identificar e atacar alvos por conta própria, com base em regras programadas. Esses sistemas existem há décadas, principalmente em aplicações defensivas como minas, defesa antimíssil, sistemas de sentinela e munições de ataque de precisão.

Plataformas mais recentes incluem veículos terrestres e marítimos com capacidades autônomas, principalmente para reconhecimento, mas às vezes com funções ofensivas.

Exemplo da vida real:

No conflito entre a Ucrânia e a Rússia, as armas autônomas são usadas principalmente por meio de drones com inteligência artificial e munições de ataque de precisão, em vez de sistemas totalmente independentes.

A Rússia emprega munições de ataque de precisão, que podem buscar e atingir alvos militares predefinidos de forma autônoma, com mínimo controle humano após o lançamento. A Ucrânia utiliza principalmente drones semiautônomos, nos quais os humanos autorizam os ataques enquanto a inteligência artificial auxilia na navegação, rastreamento de alvos e engajamento rápido.

Esses sistemas aumentam a velocidade e a precisão no campo de batalha, mas reduzem a supervisão humana significativa, criando desafios legais e éticos sob o direito internacional humanitário, particularmente no que diz respeito aos princípios da distinção, proporcionalidade e responsabilização. 5

Exemplo da vida real:

Desde 2018, as Nações Unidas têm se oposto consistentemente aos sistemas de armas autônomas letais (LAWS). O Secretário-Geral António Guterres os classificou como politicamente e moralmente inaceitáveis e pediu sua proibição.

Em 2023, ele reiterou a necessidade de um instrumento internacional juridicamente vinculativo para proibir armas totalmente autônomas e regulamentar outras, citando sérios riscos humanitários, jurídicos e de direitos humanos. Especialistas em direitos humanos da ONU fizeram coro a essas preocupações e apoiaram uma proibição global. 6

Desemprego e desigualdade de renda devido à automação

A automação impulsionada por IA deverá remodelar significativamente os mercados de trabalho, contribuindo para pressões de desemprego a curto prazo e para o aumento da desigualdade de renda, caso não seja controlada.

As projeções atuais sugerem que 15 a 25% dos empregos enfrentarão perturbações significativas até 2025-2027 , com um deslocamento líquido de empregos de 5 a 10% após a criação de novas funções.

Ao mesmo tempo, a IA complementa o trabalho humano em áreas como tomada de decisões, raciocínio e criatividade, deslocando a demanda para habilidades de maior valor agregado. Com mais de 40% dos trabalhadores precisando de requalificação substancial até 2030 , o acesso desigual ao treinamento corre o risco de aprofundar a desigualdade de renda entre aqueles que conseguem se adaptar a funções habilitadas por IA e aqueles que não conseguem. Leia sobre a perda de empregos devido à IA para mais previsões sobre o impacto da IA no mercado de trabalho atual.

Usos indevidos da IA

Disputas sobre a governança da IA em armas autônomas

As recentes tensões entre empresas de IA e governos ilustram a dificuldade de estabelecer limites para o uso militar da IA. No início de 2026, a empresa de IA Anthropic recusou-se a assinar um contrato com o Departamento de Defesa dos EUA que permitiria ao governo "acesso irrestrito" aos seus modelos para "todos os fins legais".

O CEO da Anthropic, Dario Amodei, afirmou que a empresa só participaria se duas salvaguardas fossem incluídas: a proibição da vigilância doméstica em massa e a prevenção do desenvolvimento de armas totalmente autônomas sem supervisão humana. 7

A divergência evidencia preocupações mais amplas sobre o papel dos sistemas avançados de IA na guerra. Embora grandes modelos de linguagem não sejam armas em si, eles podem ser integrados a sistemas militares para analisar informações, gerar listas de alvos potenciais, priorizar ameaças e recomendar ações militares.

As armas totalmente autônomas representam o estágio mais controverso dessa evolução. Uma vez ativados, esses sistemas podem buscar, selecionar e atacar alvos de forma independente, utilizando sensores como câmeras e radares, além de algoritmos de inteligência artificial.

Os críticos alertam que a exclusão dos seres humanos do processo decisório levanta sérias preocupações éticas e legais, particularmente em relação à responsabilização e ao cumprimento do direito internacional humanitário.

Práticas de vigilância que limitam a privacidade

"O Grande Irmão está te observando." Essa famosa frase do romance distópico 1984 , de George Orwell, já foi ficção científica. Hoje, porém, parece cada vez mais realidade, à medida que governos utilizam inteligência artificial para vigilância em massa. Em particular, o uso da tecnologia de reconhecimento facial em sistemas de vigilância tem levantado sérias preocupações sobre os direitos à privacidade.

De acordo com o Índice Global de Vigilância por IA (AIGS), 176 países utilizam sistemas de vigilância por IA, sendo as democracias liberais os principais usuários dessa tecnologia. 8

O mesmo estudo mostra que 51% das democracias avançadas utilizam sistemas de vigilância por IA, em comparação com 37% dos estados autocráticos fechados. No entanto, isso provavelmente se deve à disparidade de riqueza entre esses dois grupos de países.

De uma perspectiva ética, a questão importante é se os governos estão abusando da tecnologia ou se a estão utilizando de forma lícita.

Exemplos da vida real:

Algumas gigantes da tecnologia também expressam preocupações éticas sobre a vigilância baseada em IA. Por exemplo, o presidente Brad Smith publicou um artigo em seu blog defendendo a regulamentação governamental do reconhecimento facial. 9

Além disso, a IBM deixou de oferecer a tecnologia para vigilância em massa devido ao seu potencial de uso indevido, como o perfilamento racial, que viola os direitos humanos fundamentais. 10

Manipulação do julgamento humano

A análise de dados baseada em inteligência artificial pode fornecer informações úteis sobre o comportamento humano, mas abusar dessa análise para manipular decisões humanas é eticamente errado.

Exemplo da vida real:

A Cambridge Analytica vendeu dados de eleitores americanos coletados no Facebook para campanhas políticas e forneceu assistência e análises às campanhas presidenciais de Ted Cruz e Donald Trump em 2016.

Informações sobre a violação de dados foram divulgadas em 2018, e a Comissão Federal de Comércio multou o Facebook em US$ 5 bilhões devido às suas violações de privacidade. 11

Proliferação de deepfakes

Deepfakes são imagens ou vídeos gerados sinteticamente nos quais uma pessoa em uma imagem ou vídeo da mídia é substituída pela imagem de outra pessoa.

Criar uma narrativa falsa usando deepfakes pode prejudicar a confiança das pessoas na mídia (que já está em seu nível mais baixo de todos os tempos). 12 Essa desconfiança é perigosa para as sociedades, considerando que os meios de comunicação de massa ainda são a principal opção dos governos para informar as pessoas sobre eventos de emergência, como uma pandemia global ou um grande terremoto que causa danos generalizados e vítimas.

Exemplo de vídeo deepfake comparando a referência e os resultados gerados.

Exemplo da vida real:

A Comissão Europeia abriu uma investigação sobre a plataforma X de Elon Musk devido a alegações de que sua ferramenta de IA, Grok, foi usada para gerar imagens deepfake sexualizadas de pessoas reais, seguindo uma ação semelhante da reguladora britânica Ofcom.

Caso se constate que a empresa X violou a Lei de Serviços Digitais da UE, poderá enfrentar multas de até 6% de sua receita anual global, e os reguladores poderão impor medidas provisórias se as salvaguardas não forem reforçadas.

Autoridades e ativistas da UE condenaram os deepfakes como prejudiciais e degradantes, especialmente para mulheres e crianças, questionando se a X avaliou e mitigou adequadamente os riscos associados a ferramentas poderosas de IA. 13

Inteligência artificial geral (AGI) / Singularidade

A perspectiva da inteligência artificial geral (IAG) ou singularidade levanta preocupações éticas sobre o valor da vida humana à medida que as máquinas superam a inteligência humana. Ao mesmo tempo, o caminho para a IAG permanece incerto, sem consenso científico sobre se ela surgirá da escalabilidade de arquiteturas existentes, como os transformadores, ou do desenvolvimento de abordagens fundamentalmente novas, nem sobre como a IAG deve ser validada em última instância.

Dilemas práticos, como a questão de se os carros autônomos devem priorizar a segurança dos passageiros ou dos pedestres, destacam questões morais não resolvidas que precisam ser abordadas antes que essas tecnologias sejam amplamente implementadas. De forma mais ampla, o surgimento de sistemas superinteligentes desafia o domínio humano e levanta questões fundamentais sobre os direitos, as responsabilidades e os marcos morais dos seres artificiais.

Analisamos mais de 8.500 previsões de cientistas, empreendedores e da comunidade em geral e descobrimos que a maioria dos especialistas considera a Inteligência Artificial Geral (IAG) inevitável. Com base nessa crença, pesquisas recentes com pesquisadores de IA estimam sua chegada por volta de 2040 , uma mudança notável em relação às previsões anteriores, mais próximas de 2060 , enquanto os empreendedores são ainda mais otimistas, projetando prazos próximos a 2030 .

Ética robótica

A ética robótica, ou roboética, aborda a forma como os humanos projetam, utilizam e tratam os robôs. Debates sobre esse tema existem desde a década de 1940, questionando principalmente se os robôs devem ter direitos comparáveis aos dos humanos e dos animais.

O autor Isaac Asimov foi o primeiro a abordar as leis da robótica em seu conto "Runaround". Ele introduziu as Três Leis da Robótica: 14

  1. Um robô não pode ferir um ser humano ou, por omissão, permitir que um ser humano sofra algum mal.
  2. Um robô deve obedecer às ordens dadas por seres humanos, exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei da Termodinâmica.
  3. Um robô deve proteger sua existência, desde que essa proteção não entre em conflito com a Primeira ou a Segunda Lei da Termodinâmica.

Como lidar com esses dilemas?

Essas são questões complexas, e soluções inovadoras e controversas, como a renda básica universal, podem ser necessárias para abordá-las. Existem inúmeras iniciativas e organizações voltadas para minimizar o potencial impacto negativo da IA.

Por exemplo, o Instituto de Ética em Inteligência Artificial (IEAI) da Universidade Técnica de Munique realiza pesquisas em IA em diversos domínios, como mobilidade, emprego, saúde e sustentabilidade. 15

Seguem algumas recomendações para mitigar as controvérsias em torno dos usos adversários da IA:

Considere as políticas e as melhores práticas da UNESCO.

Política de Governança de Dados

Esta política enfatiza a importância de estruturas detalhadas para a coleta, o uso e a governança de dados, a fim de garantir a privacidade individual e mitigar riscos. Ela incentiva a criação de conjuntos de dados de qualidade para o treinamento de IA, a adoção de conjuntos de dados abertos e confiáveis e a implementação de estratégias eficazes de proteção de dados.

Por exemplo, o estabelecimento de conjuntos de dados padronizados para IA na área da saúde garante precisão e reduz vieses.

Governança ética da IA

Os mecanismos de governança devem ser inclusivos, multidisciplinares e multilaterais, incorporando diversas partes interessadas, como as comunidades afetadas, os formuladores de políticas e os especialistas em IA. Essa abordagem se estende à responsabilização e à reparação de danos.

Por exemplo, garantir a contratação justa de sistemas de IA exige auditorias contínuas para combater o viés.

Política de educação e pesquisa

Promove a alfabetização em IA e a consciência ética ao integrar a IA e a educação em dados nos currículos escolares. Também prioriza a participação de grupos marginalizados e impulsiona a pesquisa ética em IA.

Por exemplo, as escolas poderiam ensinar os conceitos básicos de IA juntamente com programação e pensamento crítico, capacitando as futuras gerações a lidar com os impactos sociais da IA.

Saúde e bem-estar social

Esta política incentiva a implementação da IA para melhorar os cuidados de saúde, abordar os riscos globais para a saúde e promover a saúde mental. Ela destaca a necessidade de aplicações de IA que sejam comprovadas cientificamente, seguras e eficientes.

Igualdade de gênero na IA

A iniciativa "Qualidade de Gênero" visa reduzir as disparidades de gênero na IA, apoiando mulheres em áreas STEM (Ciência, Tecnologia, Engenharia e Matemática) e evitando vieses em sistemas de IA.

Por exemplo, alocar fundos para orientar mulheres na pesquisa em IA e abordar os vieses de gênero em algoritmos de recrutamento de emprego.

Sustentabilidade ambiental

Esta política centra-se na avaliação e mitigação do impacto ambiental da IA , como a sua pegada de carbono e o consumo de recursos. Incentiva-se a utilização da IA na previsão e mitigação das alterações climáticas.

Por exemplo, a IA pode ser usada para monitorar o desmatamento e otimizar as redes de energia renovável.

Metodologia de avaliação de prontidão (RAM)

Essa técnica ajuda os estados a avaliarem sua prontidão para implementar políticas éticas de IA, analisando os marcos legais, a infraestrutura e a disponibilidade de recursos.

Por exemplo, a RAM pode identificar lacunas na regulamentação e infraestrutura da IA, orientando as nações rumo à adoção ética da IA.

Avaliação de impacto ético (AIA)

Este método avalia os potenciais impactos sociais, ambientais e econômicos de projetos de IA. Em colaboração com as comunidades afetadas, a EIA garante a alocação de recursos para prevenir danos.

Por exemplo, uma EIA poderia identificar os riscos de viés em um sistema de policiamento preditivo e recomendar medidas de mitigação.

Observatório global sobre ética em IA

Refere-se a uma plataforma digital que oferece análises dos desafios éticos da IA e monitora a implementação global das recomendações da UNESCO.

Por exemplo, o observatório poderia fornecer relatórios sobre os impactos sociais da IA em vários países.

Treinamento em ética da IA e conscientização pública

Essa abordagem incentiva a educação acessível e o engajamento cívico para aprimorar a compreensão pública da ética da IA.

Por exemplo, campanhas para educar os usuários sobre os riscos à privacidade em plataformas de mídia social com inteligência artificial podem criar cidadãos digitais informados.

Figura 1: Áreas de política ética em IA da UNESCO 16

  1. Governança inclusiva e multissetorial:
    • Envolver diversas partes interessadas, incluindo comunidades marginalizadas, na criação de políticas e na governança da IA.
    • Utilize equipes multidisciplinares para garantir que as decisões sejam abrangentes e equitativas.
    • Exemplo: Realização de consultas públicas na implementação de sistemas de IA para vigilância.
  2. Transparência e explicabilidade:
    • Desenvolver sistemas de IA com processos de tomada de decisão interpretáveis.
    • Equilibrar a transparência com as preocupações de segurança e privacidade.
    • Exemplo: Fornecer aos usuários explicações em linguagem simples sobre como um modelo de IA toma decisões.
  3. Avaliações de sustentabilidade:
    • Avalie regularmente os sistemas de IA quanto ao seu impacto ambiental, incluindo o consumo de energia e a pegada de carbono.
    • Exemplo: Reduzir o consumo de energia no treinamento de grandes modelos de aprendizado de máquina.
  4. Programas de alfabetização em IA:
    • Educar o público e os legisladores sobre as implicações éticas da IA.
    • Incorpore a ética da IA nos currículos educacionais em todos os níveis.
    • Exemplo: Workshops sobre riscos de privacidade em mídias sociais com inteligência artificial.
  5. Auditorias contínuas e mecanismos de responsabilização:
    • Implementar auditorias regulares em sistemas de IA para detectar e corrigir vieses, imprecisões ou violações éticas.
    • Garantir que exista um processo claro de reparação em casos de danos causados por IA.
    • Exemplo: Revisões periódicas de ferramentas de recrutamento baseadas em IA para prevenir viés de gênero.

Aprenda sobre estruturas de IA responsáveis

Aqui estão algumas estruturas de IA responsáveis para superar dilemas éticos como o viés da IA:

Transparência

Os desenvolvedores de IA têm a obrigação ética de serem transparentes de forma estruturada e acessível, visto que a tecnologia de IA tem o potencial de infringir leis e impactar negativamente a experiência humana. Para tornar a IA acessível e transparente, o compartilhamento de conhecimento pode ser fundamental.

Por exemplo, a OpenAI foi fundada em 2015 como um laboratório de pesquisa de IA sem fins lucrativos por Elon Musk, Sam Altman e outros, com a missão de desenvolver “inteligência digital” para o benefício da humanidade.

No entanto, após sua reestruturação em uma Corporação de Benefício Público (PBC, na sigla em inglês), a OpenAI agora opera como uma entidade com fins lucrativos, governada por uma fundação sem fins lucrativos. 17

Ao conceder à Microsoft uma licença exclusiva para seus modelos de vanguarda, a OpenAI passou de um modelo de pesquisa transparente e aberto para um modelo proprietário, provocando um debate significativo sobre sua missão original.

Explicabilidade

Os desenvolvedores de IA e as empresas precisam explicar como seus algoritmos chegam às previsões para evitar problemas éticos decorrentes de previsões imprecisas. Diversas abordagens técnicas podem explicar como esses algoritmos chegam às suas conclusões e quais fatores influenciam suas decisões.

Alinhamento

Diversos países, empresas e universidades estão construindo sistemas de IA, e na maioria das áreas não existe um arcabouço legal adaptado aos recentes desenvolvimentos em IA.

A modernização dos marcos legais, tanto em nível nacional quanto em níveis mais altos (como na ONU), esclarecerá o caminho para o desenvolvimento ético da IA. Empresas pioneiras devem liderar esses esforços para criar clareza em seu setor.

Utilize estruturas e ferramentas de ética em IA.

Acadêmicos e organizações estão cada vez mais focados em estruturas éticas para orientar o uso de tecnologias de IA. Essas estruturas abordam as implicações morais da IA ao longo de todo o seu ciclo de vida, incluindo o treinamento de sistemas de IA, o desenvolvimento de modelos de IA e a implantação de sistemas inteligentes.

Segue uma lista de ferramentas que podem te ajudar a aplicar práticas éticas em IA:

ferramentas de governança de IA

As ferramentas de governança de IA garantem que os aplicativos de IA sejam desenvolvidos e implementados em conformidade com os princípios éticos. Essas ferramentas ajudam as organizações a monitorar e controlar os programas de IA ao longo de todo o seu ciclo de vida, a lidar com os riscos relacionados a resultados antiéticos e a apoiar uma IA confiável.

Ao implementar práticas abrangentes de governança de IA, as empresas podem gerenciar melhor os riscos potenciais e alcançar a conformidade com os órgãos reguladores em relação à IA .

LLMOps

À medida que as tecnologias de IA se tornam mais sofisticadas, a necessidade de ferramentas especializadas para supervisionar e implementar esses modelos tem aumentado.

Nesse contexto, as ferramentas LLMOps , práticas operacionais utilizadas para gerenciar grandes modelos de linguagem, desempenham um papel fundamental no apoio ao uso ético desses modelos, ajudando a garantir que eles não perpetuem as desigualdades existentes nem contribuam para problemas como os deepfakes.

MLOps

As ferramentas MLOps (Machine Learning Operations) envolvem a integração de modelos de IA em produção, garantindo o alinhamento com os padrões éticos.

Essa prática enfatiza a supervisão humana de sistemas autônomos, particularmente em áreas críticas como saúde e justiça criminal.

Governança de dados

A governança de dados é crucial para o uso ético da IA, envolvendo a gestão responsável dos dados que treinam os sistemas de IA.

Uma governança de dados eficaz garante a proteção dos dados e considera as implicações sociais do seu uso, apoiando considerações éticas em todo o ciclo de vida da IA. Isso é particularmente importante, visto que as grandes empresas de tecnologia moldam o futuro das tecnologias de IA.

Perguntas frequentes

A ética da IA é o estudo dos princípios morais que orientam a concepção, o desenvolvimento e a implementação da inteligência artificial. Ela aborda questões como justiça, transparência, privacidade e responsabilidade para garantir que os sistemas de IA beneficiem a sociedade, evitem danos e respeitem os direitos humanos, mitigando, ao mesmo tempo, vieses e consequências indesejadas.

A Recomendação da UNESCO sobre a Ética da IA, adotada em novembro de 2021, apela para a minimização de resultados discriminatórios e tendenciosos em sistemas de IA, promovendo simultaneamente a equidade, a transparência, a responsabilização e o respeito pelos direitos humanos.

A recomendação enfatiza a criação de estruturas institucionais e legais para governar a IA em prol do bem público. Ela define políticas concretas para a governança de dados, a igualdade de gênero e o uso ético da IA em diversos setores. A recomendação inclui mecanismos de monitoramento, avaliação e implementação para impulsionar mudanças significativas.

Cem Dilmegani
Cem Dilmegani
Analista Principal
Cem é o analista principal da AIMultiple desde 2017. A AIMultiple fornece informações para centenas de milhares de empresas (segundo o SimilarWeb), incluindo 55% das empresas da Fortune 500, todos os meses. O trabalho de Cem foi citado por importantes publicações globais, como Business Insider, Forbes e Washington Post, além de empresas globais como Deloitte e HPE, ONGs como o Fórum Econômico Mundial e organizações supranacionais como a Comissão Europeia. Você pode ver mais empresas e recursos renomados que mencionaram a AIMultiple. Ao longo de sua carreira, Cem atuou como consultor de tecnologia, comprador de tecnologia e empreendedor na área. Ele assessorou empresas em suas decisões tecnológicas na McKinsey & Company e na Altman Solon por mais de uma década. Também publicou um relatório da McKinsey sobre digitalização. Liderou a estratégia de tecnologia e a área de compras de uma empresa de telecomunicações, reportando-se diretamente ao CEO. Além disso, liderou o crescimento comercial da empresa de tecnologia avançada Hypatos, que atingiu uma receita recorrente anual de sete dígitos e uma avaliação de nove dígitos, partindo de zero, em apenas dois anos. O trabalho de Cem no Hypatos foi noticiado por importantes publicações de tecnologia, como TechCrunch e Business Insider. Cem participa regularmente como palestrante em conferências internacionais de tecnologia. Ele se formou em engenharia da computação pela Universidade Bogazici e possui um MBA pela Columbia Business School.
Ver perfil completo

Seja o primeiro a comentar

Seu endereço de e-mail não será publicado. Todos os campos são obrigatórios.

0/450