A inteligência artificial geral (IAG) ocorre quando um sistema de IA iguala as habilidades cognitivas humanas em todas as tarefas. Com base nas previsões disponíveis, respostas rápidas sobre IAG:
Será que a Inteligência Artificial Geral (IAG)/singularidade acontecerá? A maioria dos especialistas em IA considera a IAG inevitável .
Quando ocorrerá a singularidade/Inteligência Artificial Geral (IAG)? Pesquisas recentes com pesquisadores de IA preveem a IAG na década de 2040. De acordo com previsões da comunidade , a IAG é esperada por volta da década de 2030. Empreendedores preveem que isso acontecerá em poucos anos.
Analisamos as previsões de 9.800 cientistas de IA, empreendedores líderes e da comunidade na linha do tempo da Inteligência Artificial Geral (AGI):
Cronograma de inteligência geral artificial Intel
A linha do tempo acima descreve o ano previsto para a singularidade, com base em informações coletadas em 8 pesquisas e respostas de 9.800 pesquisadores de IA, cientistas e participantes de mercados de previsão:
Como você pode ver acima, os participantes da pesquisa estão cada vez mais esperando que a singularidade ocorra mais cedo do que o previsto anteriormente.
Eis como criamos este gráfico:
- Para representar graficamente o ano previsto para o desenvolvimento da IAG (Inteligência Artificial Geral) no gráfico, utilizamos a média ponderada das previsões para cada ano em cada categoria. Por exemplo, se houvesse várias previsões do Mercado de Previsões para 2022, calculamos a média ponderada delas e representamos esse valor no gráfico.
- Para as previsões individuais, incluímos as projeções de 15 especialistas em IA.
- Para previsões científicas, coletamos resultados de pesquisas de 8 artigos revisados por pares que fornecem cronogramas para a Inteligência Artificial Geral (IAG).
- Para previsões de mercado e análises de mercado, utilizamos:
- Mais de 1.100 previsões da Manifold, Kalshi e Polymarket, que são mercados de previsão online onde os participantes negociam a probabilidade e o momento de eventos futuros para obter lucro ou reputação.
- Resultados agregados de 8 especialistas da Samotsvety Forecasting. A Samotsvety Forecasting utiliza métodos quantitativos para gerar previsões probabilísticas sobre eventos do mundo real.
- 3.290 previsões submetidas em 2020 e 2022 na plataforma Metaculus de acesso público.
Outras questões-chave sobre AGI
Qual é o nosso status atual em relação à IAG (Inteligência Artificial Geral)?
Embora a inteligência artificial específica supere os humanos em tarefas específicas, uma máquina com inteligência geral ainda não existe. Alguns pesquisadores acreditam que grandes modelos de linguagem demonstram capacidades generalistas emergentes. 1 De acordo com nosso benchmark de Inteligência Artificial Geral (AGI) , as máquinas estão longe de gerar valor econômico de forma autônoma.
Como podemos alcançar a Inteligência Artificial Geral (IAG)?
Seja adicionando mais poder computacional e dados às arquiteturas atuais, como os Transformers, ou inventando novas abordagens. Ainda não há consenso científico sobre o método para alcançar a Inteligência Artificial Geral (IAG) ou para validá-la.
Abaixo, você pode ver os estudos e previsões que compõem essa linha do tempo, ou pular para a seção "Entendendo a singularidade" .
Resultados de importantes pesquisas com pesquisadores de IA
Analisamos os resultados de 8 pesquisas envolvendo mais de 4.900 pesquisadores e especialistas em IA, nas quais eles estimaram quando a IAG (Inteligência Artificial Geral)/singularidade poderia ocorrer.
Embora as previsões variem, a maioria das pesquisas indica uma probabilidade de 50% de alcançar a Inteligência Artificial Geral (IAG) entre 2040 e 2061, com algumas estimando que a superinteligência poderá surgir em algumas décadas.
Pesquisa de especialistas de 2023 sobre o progresso da IA
Em outubro, a AI Impacts entrevistou 2.778 pesquisadores de IA sobre quando a Inteligência Artificial Geral (IAG) poderia ser alcançada. Esta pesquisa incluiu perguntas quase idênticas às da pesquisa de 2022. Com base nos resultados, estima-se que a inteligência artificial de alto nível ocorra por volta de 2040 . 2
Pesquisa de especialistas de 2022 sobre o progresso da IA
A pesquisa foi realizada com 738 especialistas que publicaram trabalhos nas conferências NIPS e ICML de 2021. Especialistas em IA estimam que há 50% de chance de que a inteligência artificial de alto nível se torne realidade até 2059. 3
Especialistas também previram que o custo do hardware, o progresso algorítmico e o trabalho com conjuntos de treinamento seriam os maiores fatores para o avanço da IA.
Previsão do progresso da IA em 2019
Baobao Zhang entrevistou 296 especialistas em IA, pedindo-lhes que previssem quando as máquinas ultrapassariam o trabalhador humano mediano na execução de mais de 90% das tarefas economicamente relevantes. Metade dos entrevistados estimou que isso aconteceria antes de 2060 . 4
Pesquisa com especialistas em IA sobre o momento ideal para a implementação da Inteligência Artificial Geral (IAG) em 2019
Previsões de 32 especialistas em IA sobre o momento ideal para o desenvolvimento da Inteligência Artificial Geral (AGI). 5 são:
- 45% dos entrevistados preveem uma data anterior a 2060.
- 34% de todos os participantes previram uma data posterior a 2060.
- 21% dos participantes previram que a singularidade nunca ocorreria.
Pesquisa sobre o potencial impacto da IA no deslocamento de mão de obra em 2018
Ross Gruetzemacher entrevistou 165 especialistas em IA para avaliar o impacto potencial da IA na substituição de mão de obra. Os especialistas foram solicitados a estimar quando os sistemas de IA seriam capazes de executar 99% das tarefas pelas quais os humanos são atualmente remunerados, em um nível igual ou superior ao de um humano médio.
Metade dos entrevistados previu que esse marco seria alcançado antes de 2068 , enquanto 75% anteciparam que ocorreria nos próximos 100 anos. 6
Pesquisa realizada em 2017 com especialistas em IA nas conferências NIPS e ICML de 2015.
Em maio de 2017, 352 especialistas em IA que publicaram trabalhos nas conferências NIPS e ICML de 2015 foram entrevistados. 7
Com base nos resultados da pesquisa, especialistas estimam que há 50% de chance de a IAG (Inteligência Artificial Geral) ocorrer até 2060. Dito isso, existe uma diferença significativa de opinião dependendo da região geográfica:
- Os entrevistados asiáticos esperam uma Renda Bruta Ajustada (AGI) em 30 anos.
- Os norte-americanos esperam que isso aconteça em 74 anos.
Algumas funções importantes que deverão ser automatizadas até 2030 incluem atendentes de call center, motoristas de caminhão e vendedores no varejo.
Progresso futuro em inteligência artificial Intelpesquisa em 2012/2013
Vincent C. Muller, presidente da Associação Europeia de Sistemas Cognitivos, e Nick Bostrom, da Universidade de Oxford, que publicou mais de 200 artigos sobre superinteligência e inteligência artificial geral (IAG), realizaram uma pesquisa com pesquisadores de IA. 550 participantes responderam à pergunta: Quando é provável que a IAG se torne realidade? 8
De acordo com os resultados:
- Os especialistas em IA consultados estimam que a Inteligência Artificial Geral (IAG) provavelmente (com mais de 50% de probabilidade) surgirá entre 2040 e 2050 e é altamente provável (90% de probabilidade) que apareça até 2075.
- Uma vez alcançada a Inteligência Artificial Geral (IAG), a maioria dos especialistas acredita que ela progredirá para a superinteligência relativamente rápido, num prazo que varia de apenas 2 anos (improvável, 10% de probabilidade) a cerca de 30 anos (alta probabilidade, 75%).
Pesquisa realizada em 2009 com especialistas em IA que participaram da conferência AGI-09.
Com base nos resultados da pesquisa realizada com 21 especialistas em IA que participaram da conferência AGI-09, acredita-se que a Inteligência Artificial Geral (IAG) ocorrerá por volta de 2050 , e possivelmente antes. 9 Abaixo, você pode ver as estimativas deles em relação a conquistas específicas da IA: passar no teste de Turing, passar na terceira série, realizar descobertas científicas dignas de um Prêmio Nobel e alcançar inteligência sobre-humana.
Figura 1: Resultados da pesquisa distribuída aos participantes da conferência Artificial General Intelligence 2009 (AGI-09).
Informações da comunidade
Também avaliamos as previsões da Samotsvety Forecasting e da Metaculus Community sobre AGI, bem como os resultados de previsão de mercado da Manifold, Kalshi e Polymarket:
Previsão Samotsvety
A Samotsvety Forecasting é uma equipe de especialistas em previsão que realiza projeções probabilísticas sobre eventos do mundo real, especialmente em geopolítica, tecnologia e riscos globais, utilizando raciocínio estruturado e métodos quantitativos. Eles demonstram um sólido histórico de desempenho em importantes plataformas e torneios de previsão (como INFER/CSET-Foretell), onde sua precisão é medida por meio de métricas formais de pontuação, como o Brier Score. 10
Em janeiro de 2026, a equipe atualizou suas previsões sobre a AGI com 8 analistas. 11 Aqui estão os resultados agregados:
- 10% de probabilidade de alcançarmos a IAG em 2026
- 50% de probabilidade de alcançarmos a IAG (Inteligência Artificial Geral) até 2041.
- 90% de probabilidade de alcançarmos a IAG (Inteligência Artificial Geral) até 1164
Em uma previsão anterior, de 2022, a equipe estimou uma probabilidade de 32% de AGI (Inteligência Artificial Geral) em 20 anos (por volta de 2042) e de 73% até 2100 , ambas inferiores às projeções atuais. 12
Mercado de manifold
Em janeiro de 2026, mais de 1.100 colaboradores do mercado Manifold previram que 2035 seria o ano em que uma IA passaria pela primeira vez em um "teste de Turing adversarial de alta qualidade". 13
Mercado de Previsão de Kalshi
Os participantes do mercado de previsão Kalshi acreditavam que havia 40% de chance de que OpenAI atingisse o AGI até janeiro de 2026 . 14
Polimercado
Os resultados das previsões da Polymarket em janeiro de 2026 indicaram que existe uma probabilidade de 9% de que OpenAI atinja o AGI até 2027 . 15
Metaculus Previsões da Comunidade
Em fevereiro de 2026:
- 1.700 participantes responderam à pergunta "Quando será concebido, testado e anunciado publicamente o primeiro sistema de IA fracamente geral?", e a previsão é 21 de fevereiro de 2028 . 16
- 178 participantes responderam à pergunta "Quando uma IA passará pela primeira vez em um teste de Turing longo, informado e adversarial?" e a previsão deles é 22 de abril de 2029. 17
- 1.800 participantes responderam à pergunta "Quando o primeiro sistema de IA geral será concebido, testado e anunciado publicamente?" e a previsão deles é abril de 2033. 18
Em 2022, 81 participantes responderam à pergunta "Quando os principais especialistas preveem que a primeira Inteligência Artificial Geral Intel será desenvolvida e demonstrada?" e a previsão deles foi 2035 . 19
Insights de empreendedores de IA e pesquisadores independentes
Empreendedores da área de IA também estão fazendo estimativas sobre quando alcançaremos a singularidade, e eles se mostram mais otimistas do que os pesquisadores. Isso é esperado, visto que se beneficiam do crescente interesse em IA.
Suas opiniões divergem quanto à velocidade e ao caminho de desenvolvimento. Amodei, da OpenAI, espera que a Inteligência Artificial Geral (IAG) chegue em breve devido ao rápido progresso auto-reforçador, enquanto Hassabis, da DeepMind, considera-a plausível, mas permanece cauteloso, citando desafios não resolvidos na criatividade científica e no aprimoramento autônomo.
Aqui estão as previsões de 15 dos mais proeminentes empreendedores e pesquisadores de IA:
- Shane Legg, cofundador da DeepMind Technologies, define AGI mínima como um agente artificial capaz de executar de forma confiável toda a gama de tarefas cognitivas que um ser humano médio consegue realizar, sem falhar de maneiras que nos surpreenderiam se uma pessoa recebesse a mesma tarefa. Sua previsão, feita em janeiro de 2026, é de que há 50% de chance de a AGI mínima se tornar realidade até 2028 .
- Segundo Legg, atingir um nível mínimo de Inteligência Artificial Geral (IAG) não significa que compreendemos plenamente ou podemos reproduzir as formas mais elevadas de inteligência humana, como grandes avanços científicos ou realizações artísticas. A IAG plena só será alcançada quando a IA puder igualar todo o espectro da cognição humana. 20
- Dario Amodei, CEO da Anthropic, expressou grande confiança de que sistemas de nível de Inteligência Artificial Geral (IAG) estão se aproximando em um futuro próximo, durante o Fórum Econômico Mundial de 2026 em Davos. Ele afirmou que a IAG provavelmente ocorrerá dentro de alguns anos ( 2027), possivelmente antes do que se espera.
- Ele argumenta que os rápidos avanços na codificação e na automação da pesquisa em IA são fundamentais, permitindo que os sistemas de IA lidem com a maioria das tarefas de engenharia de software de ponta a ponta e acelerem seu próprio desenvolvimento por meio de ciclos de feedback.
- Embora reconheça limitações como a disponibilidade de hardware e o tempo de treinamento, ele considera improvável um cronograma muito mais longo e prevê uma aceleração rápida assim que esses ciclos amadurecerem. 21
- No mesmo evento, em 2026, Demis Hassabis, fundador da DeepMind, manteve uma perspectiva mais cautelosa, reiterando uma estimativa de aproximadamente 50% de chance de alcançar a Inteligência Artificial Geral (AGI) até o final da década (2030).
- Hassabis concorda que o progresso é rápido em domínios verificáveis como programação e matemática, mas enfatiza que a descoberta científica e o raciocínio criativo continuam sendo mais difíceis.
- Ele destaca as limitações não resolvidas na geração de novas perguntas e teorias e expressa incerteza sobre o autoaperfeiçoamento totalmente autônomo, particularmente em domínios complexos do mundo real, o que, em sua opinião, torna os cronogramas da Inteligência Artificial Geral (IAG) menos certos.
- Combinando os avanços da IA em raciocínio, programação e matemática, Eric Schmidt, ex-CEO da Google, acredita que estamos caminhando para a Inteligência Artificial Geral dentro de 3 a 5 anos (conforme declarado em abril de 2025). 22
- Elon Musk prevê o desenvolvimento de uma inteligência artificial mais inteligente do que a dos humanos mais inteligentes até 2026 . 23
- Em fevereiro de 2025, o empresário e investidor Masayoshi Son previu que isso aconteceria em 2 a 3 anos (ou seja, em 2027 ou 2028 ).
- Em março de 2024, o CEO da Nvidia, Jensen Huang, previu que, dentro de cinco anos, a IA igualaria ou superaria o desempenho humano em qualquer teste: 2029. 24
- Louis Rosenberg, cientista da computação, empreendedor e escritor, até 2030 .
- Ray Kurzweil, cientista da computação, empreendedor e autor de 5 best-sellers nacionais, incluindo "A Singularidade Está Próxima: Anteriormente 2045", 25 , em 2024, 2032 . 26
- Em 2023, Hinton acreditava que isso poderia levar de 5 a 20 anos. 27
- Sam Altman, CEO da OpenAI, até 2035. Ele mencionou "alguns milhares de dias" em 2024 em seu blog "A Era da Liderança".
- Ajeya Cotra, pesquisadora de IA, analisou o crescimento da computação de treinamento e estimou uma probabilidade de 50% de que a IA com capacidades semelhantes às humanas surja até 2040 . 28
- Patrick Winston, professor do MIT e diretor do Laboratório de Inteligência Artificial do MIT de 1972 a 1997, mencionou 2040, enfatizando que, embora seja uma data que ocorreria, é difícil estimar o tempo necessário para isso .
- Jürgen Schmidhuber, cofundador da empresa de IA NNAISENSE e diretor do laboratório suíço de IA IDSIA, até 2050. 29
Outros comentários e novidades sobre a IAG (Inteligência Artificial Geral).
Painel Presidencial da AAAI 2025 sobre o Futuro da Pesquisa em IA
475 participantes, principalmente da academia (67%) e da América do Norte (53%), foram questionados sobre o progresso da IA. Embora a pesquisa não tenha solicitado um cronograma para a IAG (Inteligência Artificial Geral), 76% dos participantes afirmaram que a ampliação das abordagens atuais de IA dificilmente levará à IAG. 30
OpenAI expande suas ambições em robótica
A OpenAI está intensificando seu foco em robótica como parte de seu objetivo de promover a inteligência artificial geral. A empresa está contratando especialistas em sistemas de robôs humanoides e formando uma equipe para desenvolver algoritmos que ajudem os robôs a aprender e agir de forma independente no mundo físico.
Isso marca uma mudança em relação ao foco anterior da OpenAI em modelos de linguagem e imagem. A empresa agora pretende conectar o raciocínio avançado à interação física, sugerindo que considera a robótica um passo essencial para testar e alcançar a Inteligência Artificial Geral (IAG).
Contexto e implicações
Após encerrar sua primeira equipe de robótica por volta de 2020, a OpenAI está retomando o desenvolvimento ativo na área. Contratações recentes e potenciais parcerias apontam para um esforço renovado na construção de robôs capazes de aprendizado e manipulação no mundo real.
Ao combinar modelos de IA em larga escala com dados sensoriais, a OpenAI visa criar sistemas capazes de raciocinar e operar fora de ambientes digitais. A contratação de especialistas em robótica humanoide também indica objetivos de longo prazo que vão além da automação, rumo a robôs que possam trabalhar com segurança ao lado de pessoas. 31
Relatório de Microsoft sobre os primeiros experimentos com GPT-4
Em 2023, uma pesquisa estudou uma versão inicial do modelo OpenAI, que, segundo o relatório, demonstrava maior inteligência geral do que os modelos de IA anteriores, apresentando desempenho semelhante ao humano em áreas como matemática, programação e direito. Isso gerou um debate sobre se o modelo GPT-4 seria uma forma preliminar de inteligência artificial geral . 32
O caminho para a inteligência artificial geral: relatório do MIT
O relatório "O caminho para a inteligência artificial geral", de agosto de 2025, prevê que os primeiros sistemas semelhantes à IAG (Inteligência Artificial Geral) poderão começar a surgir entre 2026 e 2028 , demonstrando raciocínio em nível humano em domínios específicos, capacidades multimodais em interfaces de texto, áudio e físicas, e autonomia limitada orientada a objetivos.
O relatório combina previsões agregadas e sugere uma probabilidade de 50% de que vários marcos generalizados, como a transferência de conhecimento e o raciocínio amplo, sejam alcançados até 2028 .
Projeções de longo prazo estimam que as máquinas poderão superar o desempenho humano em todas as tarefas economicamente relevantes por volta de 2047 , dependendo dos avanços na eficiência computacional, das inovações algorítmicas e da aprendizagem autônoma. 33
Fronteiras da IA sobre probabilidades de IAG (Inteligência Artificial Geral)
Adam Khoja e Laura Hiscott, da AI Frontiers, uma plataforma para debates e diálogos sobre IA, estimam uma probabilidade de 50% de alcançar a Inteligência Artificial Geral (IAG) até 2028 e de 80% até 2030 , usando sua definição quantitativa de IAG. 34
Khoja e Hiscott avaliam o progresso em direção à inteligência artificial geral usando uma definição desenvolvida por Khoja, Dan Hendrycks e seus coautores. 35 Sua estrutura mede dez habilidades cognitivas e atribui a GPT-4 uma pontuação de 27% e a GPT-5 uma pontuação de 57%. Isso indica que os modelos atuais estão aproximadamente na metade do caminho para o limiar AGI definido.
Khoja e Hiscott argumentam que as discussões tradicionais sobre os cronogramas da Inteligência Artificial Geral (IAG) carecem de precisão porque se baseiam em definições inconsistentes. Sua estrutura padronizada visa trazer clareza, identificando pontos fortes e fracos específicos nos modelos atuais. Eles observam que leitura, escrita, matemática e conhecimento geral atingem ou superam os níveis básicos humanos e não são mais fatores limitantes.
Os autores destacam as lacunas remanescentes no raciocínio visual, na física intuitiva, no processamento auditivo, na velocidade dependente da percepção e na memória de trabalho visual e auditiva. Eles relatam uma rápida melhora em benchmarks como o SPACE e o MindCube e sugerem que essas lacunas provavelmente podem ser sanadas por meio de pesquisas incrementais contínuas. Eles também observam que as alucinações continuam sendo uma preocupação, mas são tratáveis, considerando as diferenças de desempenho entre os principais modelos.
Segundo Khoja, Hiscott e Hendrycks, o obstáculo mais significativo que ainda persiste é a aprendizagem contínua e o armazenamento de memória a longo prazo. Os sistemas atuais não conseguem reter informações entre sessões, e a resolução dessa limitação exigirá pelo menos um avanço significativo. No entanto, os autores enfatizam que os principais laboratórios de IA estão priorizando essa área.
Aprendendo com o otimismo excessivo do passado em previsões de IA
Lembre-se de que os pesquisadores de IA foram excessivamente otimistas no passado. Exemplos incluem:
- Geoff Hinton afirmou em 2016 que não precisaríamos de radiologistas até 2021 ou 2026. Até o momento, a radiologia não foi totalmente automatizada e os hospitais precisam de milhares desses profissionais. 36
- Em 1965, Herbert A. Simon, pioneiro da inteligência artificial, afirmou: "Dentro de vinte anos, as máquinas serão capazes de realizar qualquer trabalho que um homem possa fazer." 37
- O computador de quinta geração do Japão, lançado em 1980, tinha um cronograma de dez anos com objetivos como "manter conversas informais". 38
Essa experiência histórica contribuiu para que a maioria dos cientistas atuais evitasse prever a Inteligência Artificial Geral (IAG) em prazos ambiciosos, como 10 a 20 anos, mas isso mudou com o surgimento da IA generativa .
Entenda o que é singularidade.
A inteligência artificial nos assusta e intriga. Quase toda semana, surge uma nova notícia alarmante sobre IA, como desenvolvedores com medo do que criaram ou bots sendo desativados por se tornarem inteligentes demais. 39
A maioria desses mitos resulta de pesquisas mal interpretadas por pessoas de fora dos campos da IA e da IA Gen. Alguns interessados alegam temer a IA porque podem lucrar com mais regulamentação ou porque ela pode lhes trazer mais atenção.
O maior temor em relação à IA é a singularidade (também chamada de Inteligência Artificial Geral ou AGI), um evento que se espera que traga um rápido aumento na inteligência das máquinas. Isso ocorre quando um sistema combina o pensamento em nível humano com velocidade sobre-humana e memória quase perfeita de acesso rápido. Segundo alguns especialistas, a singularidade também implica consciência na máquina.
Uma máquina desse tipo poderia se aprimorar sozinha e superar as capacidades humanas. Mesmo antes de a inteligência artificial se tornar um tópico de pesquisa em ciência da computação, escritores de ficção científica como Asimov já se preocupavam com isso. Eles estavam criando mecanismos (como as Leis da Robótica de Asimov) para garantir a benevolência das máquinas inteligentes, o que hoje é mais comumente chamado de pesquisa de alinhamento .
Por que os especialistas acreditam que a Inteligência Artificial Geral (IAG) é inevitável: Principais argumentos e evidências
Alcançar a Inteligência Artificial Geral (IAG) pode parecer uma previsão ousada, mas soa como uma meta bastante razoável quando consideramos que a inteligência humana é fixa e a inteligência artificial está em constante evolução . É apenas uma questão de tempo até que as máquinas nos superem, a menos que haja algum limite intransponível para sua inteligência. Ainda não encontramos tal limite.
A inteligência humana é imutável, a menos que consigamos, de alguma forma, fundir nossas capacidades cognitivas com as das máquinas. A startup de interfaces cérebro-computador de Elon Musk visa fazer isso, mas a pesquisa sobre essas interfaces ainda está em estágios iniciais. 40
A inteligência artificial depende de algoritmos, poder de processamento e dados.
- A capacidade de processamento tem crescido a uma taxa exponencial, à medida que o investimento em pesquisa e desenvolvimento e em centros de dados aumenta.
- Até agora, temos sido bons em fornecer às máquinas os algoritmos necessários para usar seu poder de processamento e memória de forma eficaz.
- Por fim, empresas e indivíduos estão criando dados digitais em um ritmo cada vez maior.Dados sintéticos podem corromper ou aprimorar modelos. Mesmo que os corrompam, trata-se de um problema solucionável graças à curadoria de dados.
Conquistas recentes
Opus 4.6
Em fevereiro de 2026, Claude lançou o Opus 4.6 com uma janela de contexto de 1 milhão e resultados de benchmark impressionantes.
A Anthropic também está focando em casos de uso, lançando plugins como o Claude Legal, que são arquivos Markdown para ajudar os modelos a navegar em domínios específicos. Embora tenha sido uma pequena adição ao Claude, isso desencadeou uma queda nas ações, incluindo as de SaaS e softwares jurídicos. 41
Gemini Deep Think
Outro exemplo é o modo de pensamento profundo Gemini da DeepMind, que alcançou a medalha de ouro na Olimpíada Internacional de Matemática de 2025, marcando um passo significativo na capacidade da IA de raciocinar sobre problemas complexos.
Operando inteiramente em linguagem natural, o Gemini resolveu cinco dos seis problemas dentro do prazo oficial de 4,5 horas da competição, produzindo provas claras e legíveis para humanos sem depender de ferramentas simbólicas formais.
Suas capacidades derivam de diversas inovações: o modo Deep Think permite a exploração paralela de caminhos de solução, o treinamento incorpora provas matemáticas de nível especializado e o aprendizado por reforço aprimora sua abordagem estratégica.
Esse progresso demonstra que a IA avançada agora consegue realizar raciocínios sofisticados e interpretáveis em um nível antes reservado aos melhores solucionadores de problemas humanos. 42
Opencrawl
O Opencrawl é um projeto de código aberto que transforma LLMs em agentes. Ele se tornou um dos projetos mais populares no GitHub e deu início ao ecossistema Opencrawl .
Crescimento exponencial
A analogia a seguir é útil para entender o crescimento exponencial. Embora as máquinas possam não parecer muito inteligentes agora, elas podem se tornar bastante inteligentes em um futuro próximo.
Crescimento recente nas capacidades de computação de IA
Figura 2: A figura mostra um resumo dos padrões de crescimento computacional observados em várias categorias: modelos notáveis em geral (canto superior esquerdo), modelos de vanguarda (canto superior direito), principais modelos de linguagem (canto inferior esquerdo) e principais modelos de empresas líderes (canto inferior direito).
Os recursos computacionais para o treinamento de modelos de IA aumentaram significativamente, com cerca de dois terços do desempenho dos modelos de linguagem atribuídos a melhorias na escalabilidade dos modelos.
De acordo com um artigo de 2024, 43 O crescimento do uso de computação no treinamento de modelos de IA aumentou consistentemente em cerca de 4 a 5 vezes por ano, refletindo tendências em modelos notáveis, modelos de fronteira e empresas líderes como OpenAI, Google DeepMind e Meta AI (Veja a Figura 2).
No entanto, a taxa de crescimento diminuiu um pouco desde 2018, especialmente para modelos de fronteira, mas os modelos de linguagem experimentaram um crescimento mais rápido, chegando a 9 vezes ao ano até meados de 2020, após o qual o ritmo diminuiu para 4 a 5 vezes ao ano.
A tendência geral de crescimento da computação em IA permanece forte, e as projeções sugerem que a taxa de crescimento de 4 a 5 vezes ao ano continuará, a menos que surjam novos desafios ou avanços. Esse crescimento também é observado nas estratégias de escalonamento das principais empresas de IA, embora existam pequenas variações entre elas.
Apesar de uma desaceleração no crescimento dos modelos de fronteira, os modelos maiores divulgados hoje, como o GPT-4 e o Gemini Ultra, estão em estreita consonância com a trajetória de crescimento prevista.
Se a computação clássica perder força, a computação quântica poderá preencher essa lacuna.
A computação clássica nos levou muito longe. Algoritmos de IA em computadores clássicos podem superar o desempenho humano em tarefas específicas, como jogar xadrez ou Go. Por exemplo, o AlphaGo Zero derrotou o AlphaGo por 100 a 0. O AlphaGo havia derrotado os melhores jogadores do mundo. 44 No entanto, estamos nos aproximando dos limites de velocidade que os computadores clássicos podem atingir.
A Lei de Moore, que se baseia na observação de que o número de transistores em um circuito integrado denso dobra aproximadamente a cada dois anos, implica que o custo da computação cai pela metade aproximadamente a cada 2 anos.
Por outro lado, a maioria dos especialistas acredita que a Lei de Moore está chegando ao fim nesta década. 45 No entanto, existem esforços para continuar a melhorar a eficiência da computação.
Por exemplo, DeepSeek surpreendeu os mercados globais com seu modelo R1, fornecendo um modelo de raciocínio a uma fração do custo de seus concorrentes, como OpenAI.
A computação quântica , que ainda é uma tecnologia emergente, pode contribuir para a redução dos custos computacionais após o fim da Lei de Moore. A computação quântica baseia-se na avaliação de diferentes estados simultaneamente, enquanto os computadores clássicos só conseguem calcular um estado por vez.
A natureza singular da computação quântica pode ser usada para treinar redes neurais de forma eficiente, atualmente a arquitetura de IA mais popular em aplicações comerciais. Algoritmos de IA executados em computadores quânticos estáveis têm a chance de desbloquear a singularidade.
Por que alguns especialistas acreditam que não alcançaremos a Inteligência Artificial Geral (IAG)?
Existem três argumentos principais contra a importância ou a existência da Inteligência Artificial Geral (IAG). Examinamos esses argumentos juntamente com suas refutações mais comuns:
1- Intela inteligência é multidimensional
Portanto, a IAG (Inteligência Artificial Geral) será diferente, não necessariamente superior à inteligência humana.
Isso é verdade, e a inteligência humana também difere da inteligência animal. Alguns animais são capazes de feitos mentais, como os esquilos que se lembram de onde esconderam centenas de nozes durante meses.
Yann LeCun, um dos pioneiros da aprendizagem profunda, acredita que devemos abandonar o termo AGI (Inteligência Artificial Geral) e focar em alcançar a "inteligência artificial avançada". 46 Ele argumenta que a mente humana é especializada e que a inteligência é um conjunto de habilidades e a capacidade de aprender novas habilidades. Cada ser humano só pode realizar um subconjunto de tarefas da inteligência humana. 47
Também é difícil compreender o nível de especialização da mente humana, enquanto seres humanos, já que não conhecemos e não podemos experimentar todo o espectro da inteligência.
Em áreas onde as máquinas exibiam inteligência sobre-humana, os humanos conseguiam derrotá-las explorando as fraquezas específicas das máquinas. Por exemplo, um amador conseguiu vencer um programa de Go que estava no mesmo nível de programas que derrotavam campeões mundiais, estudando e explorando as fraquezas do programa. 48
2- Intel A negligência não é a solução para todos os problemas
Ciência
Mesmo a melhor máquina, ao analisar dados existentes, pode não ser capaz de encontrar a cura para o câncer. Ela pode precisar realizar experimentos no mundo real e analisar os resultados para descobrir novos conhecimentos na maioria das áreas.
Mais inteligência pode levar a experimentos melhor planejados e gerenciados, possibilitando mais descobertas por experimento. O histórico de produtividade em pesquisa deveria demonstrar isso, mas os dados são bastante ruidosos e há retornos decrescentes em pesquisa. Nos deparamos com problemas mais complexos, como a física quântica, à medida que resolvemos problemas mais simples, como o movimento newtoniano.
Finalmente, previsões perfeitas podem não ser possíveis em alguns domínios devido à aleatoriedade inerente ou à imensurabilidade desses domínios. Por exemplo, mesmo com uma grande quantidade de dados, não somos capazes de prever certos desfechos da vida com um alto grau de precisão. 49
Economia
A Intelligência não é o único ingrediente para a geração de valor econômico.
- O QI, a medida mais aceita de inteligência humana, não está correlacionado com o patrimônio líquido para valores acima de aproximadamente US$ 40 mil (veja a imagem abaixo):
Figura 3: O QI está correlacionado com a riqueza em níveis baixos de riqueza. 50
Figura 4: O QI não está correlacionado com a riqueza se nos concentrarmos apenas nos níveis mais altos de riqueza. Este gráfico é o mesmo que o anterior, exceto que os níveis de renda líquida abaixo de US$ 40 mil foram ocultados. 51
- No mundo dos investimentos, a inteligência da equipe de uma empresa não é considerada um fator de competitividade. Presume-se implicitamente que outras empresas também sejam capazes de identificar estratégias inteligentes. Os investidores preferem empresas com vantagens competitivas injustas, como propriedade intelectual, escala, acesso exclusivo a recursos, etc. A maioria dessas vantagens competitivas não pode ser replicada apenas com inteligência.
3- A Inteligência Artificial Geral (IAG) não é possível porque não é possível modelar o cérebro humano.
Teoricamente, é possível modelar qualquer máquina computacional, incluindo o cérebro humano, com uma máquina relativamente simples que possa realizar cálculos básicos e acessar memória e tempo infinitos. Essa é a hipótese de Church-Turing, universalmente aceita e formulada em 1950. No entanto, como já mencionado, ela requer certas condições complexas: tempo e memória infinitos.
A maioria dos cientistas da computação acredita que modelar o cérebro humano exigirá menos tempo e memória do que o infinito. No entanto, não há uma maneira matematicamente sólida de provar essa crença, porque ainda não compreendemos o cérebro suficientemente bem para caracterizar com precisão seu poder computacional. Teremos que construir uma máquina assim!
Como podemos alcançar a Inteligência Artificial Geral (IAG)?
Figura 5: O horizonte temporal dos modelos de IA de ponta ao longo do tempo mostra as tarefas mais longas (em tempo equivalente ao humano) que cada modelo pode concluir com 50% de confiabilidade. 52
A figura acima mostra como as capacidades dos agentes de IA melhoraram ao longo do tempo, medindo as tarefas mais longas que eles conseguem concluir com 50% de confiabilidade.
A principal descoberta é que a capacidade dos modelos de processamento de tarefas tem crescido exponencialmente , dobrando aproximadamente a cada sete meses. Isso significa que modelos mais recentes, como o Sonnet e o o1, agora conseguem concluir tarefas que levariam quase uma hora para um humano realizar, enquanto modelos mais antigos, como o GPT-2, mal conseguiam lidar com tarefas que duravam mais do que alguns segundos.
A área sombreada reflete a incerteza estatística, mas a tendência geral é confiável. Se esse padrão continuar, os sistemas de IA poderão em breve lidar com tarefas complexas que levariam dias ou até semanas para os humanos, representando um passo significativo rumo a uma autonomia mais ampla e capacidades semelhantes às da Inteligência Artificial Geral (IAG).
Escala como caminho para a IAG (Inteligência Artificial Geral).
Os líderes dos laboratórios de IA de ponta acreditam que a ampliação das abordagens atuais baseadas em transformadores pode gerar Inteligência Artificial Geral (IAG), o que alimenta suas previsões de alcançar a IAG em poucos anos .
Uma das vias propostas para a Inteligência Artificial Geral (AGI) é ampliar arquiteturas existentes, como os transformadores, aumentando a capacidade de computação e dados, enquanto outra é desenvolver abordagens completamente novas.
Em apoio à hipótese de escalabilidade, um relatório de 2024 da Epoch AI analisou se o crescimento da computação em IA pode continuar até 2030.
Eles identificaram quatro restrições principais: disponibilidade de energia, capacidade de fabricação de chips, escassez de dados e latência de processamento (ver Figura 6).
Apesar desses desafios, eles argumentam que é viável treinar modelos que exigem até 2e29 FLOPs até o final da década, assumindo investimentos significativos em infraestrutura.
Esses avanços poderiam produzir sistemas de IA muito mais capazes do que os modelos de ponta atuais, como o GPT-4, nos aproximando da IAG (Inteligência Artificial Geral). 53
Figura 6: O gráfico ilustra os limites superiores estimados para o poder computacional de treinamento de IA até 2030, considerando restrições importantes como energia, produção de chips, dados e latência, com medianas variando de 2e29 a 3e31 FLOP.
Além da escalabilidade: a necessidade de novas arquiteturas
No entanto, cientistas influentes da área de IA, como Yann LeCun e Richard Sutton, acreditam que a ampliação de grandes modelos de linguagem não levará a uma inteligência de nível humano. 54 55 Eles acreditam que novas arquiteturas ou abordagens são necessárias para a IAG (Inteligência Artificial Geral).
Como podemos medir se já atingimos a Inteligência Artificial Geral (IAG)?
Grandes modelos de linguagem estão superando novos padrões de referência a cada semana, mas avaliar esses modelos é difícil devido a problemas como contaminação de dados e a falta de uma definição científica aceita para inteligência de nível humano.
Essas preocupações são amplificadas por descobertas de pesquisas recentes. 56 que destacam que a ampliação de LLMs não é um caminho sustentável para um melhor desempenho , especialmente em domínios científicos e de alto risco. Os autores mostram que:
- Os LLMs exibem expoentes de escala muito baixos (~0,1) , o que significa que mesmo aumentos massivos em dados ou computação produzem ganhos de precisão minúsculos .
- O poder de aprendizagem dos LLMs deriva da sua capacidade de produzir saídas não gaussianas , mas isso também leva a acúmulos de erros e previsões frágeis .
- Métricas tradicionais, como funções de perda, são pseudo-métricas que não se alinham com a verdadeira convergência ou precisão .
- Um regime de IA Degenerativa (IAD) pode surgir quando modelos, treinados com dados sintéticos ou repetitivos, acumulam erros mais rapidamente do que podem ser corrigidos.
Essas descobertas questionam a confiabilidade dos parâmetros de referência padrão e ressaltam a necessidade de estratégias de avaliação mais diversificadas e em constante evolução.
Métricas antigas como o teste de Turing não são páreo para as máquinas atuais, e novas métricas como o ARC-AGI podem não ter a capacidade de generalização de benchmarks mais abrangentes.
Métricas emergentes como ARC-AGI visam testar a abstração e a generalização, mas ainda podem apresentar falta de resiliência à contaminação de dados ou ao sobreajuste.
Além disso, como destaca o artigo, mesmo pontuações de perda "boas" podem mascarar catástrofes de informação subjacentes devido a flutuações não gaussianas e instabilidades de treinamento. 57
Como podemos acompanhar o progresso dos mestrados em Direito?
Existem algumas abordagens para a realização de benchmarking que podem superar esses desafios:
- Questões de referência atualizadas frequentemente. Exemplo prático: LiveBench
- Utilizando conjuntos de validação para evitar envenenamento de dados: benchmarks da AIMultiple, como o benchmark AGI ou o ARC-AGI.
Quais são as abordagens, além da avaliação comparativa, para determinar a Renda Bruta Ajustada (RBA)?
Existem indicadores potencialmente fortes, mas defasados, do impacto da IA, que podem ajudar a identificar a IAG (Inteligência Artificial Geral).
crescimento econômico
O CEO Satya Nadella afirma que um crescimento de 10% no mundo desenvolvido indicaria uma Renda Bruta Ajustada (RBA). 58 No entanto, seu incentivo é ter uma definição tardia de AGI, uma vez que o AGI acabaria com a parceria exclusiva de OpenAI e Microsoft. 59
Desemprego
Esperamos que a AGI
- Reduzir o emprego de trabalhadores de escritório para 10% do seu pico global, quando medido como percentagem da força de trabalho. Isso deverá ocorrer se a participação do trabalho na renda diminuir drasticamente devido à IA .
- Embora o crescimento do PIB continue
Num mundo onde as máquinas são mais inteligentes e eficientes do que os humanos, não seria racional pagar a um humano para ficar sentado em frente a um computador. Portanto, esperamos que o emprego de escritório diminua drasticamente, enquanto os humanos continuarão a prosperar em empregos no mundo físico.
Órgãos governamentais que coletam estatísticas trabalhistas classificam os empregos em categorias detalhadas, tornando o emprego de colarinho branco uma métrica fácil de rastrear.
Reunimos dados do Departamento de Estatísticas do Trabalho dos EUA sobre emprego de colarinho branco no período de 2019 a 2024. 60 Para maior clareza e consistência, categorizamos os trabalhadores de escritório nos seguintes grupos ocupacionais:
- Profissões em Arquitetura e Engenharia
- Ocupações na área de negócios e operações financeiras
- Profissões na área de Computação e Matemática
- Profissionais de saúde e ocupações técnicas
- Profissões jurídicas
- Profissões nas áreas de Ciências da Vida, Físicas e Sociais
- Cargos de gestão
- Ocupações de apoio administrativo e de escritório
- Vendas e atividades relacionadas
De acordo com nossa análise, a proporção de trabalhadores de escritório em relação ao emprego total oscilou entre 45% e 48% durante esse período.
Embora essa variação sugira uma relativa estabilidade na participação do emprego administrativo até o momento, ela não indica uma tendência de longo prazo, e esperamos mudanças mais acentuadas nos próximos anos, à medida que a automação e a adoção da IA se acelerem. Para mais previsões sobre como a IA mudará o emprego administrativo e de nível inicial, leia Perda de empregos por IA .
Será que devemos mesmo almejar a Inteligência Artificial Geral?
Há cientistas da computação que alertam que focar na Inteligência Artificial Geral (IAG) como objetivo final pode distorcer a pesquisa em IA. 61 As críticas incluem: Criar uma ilusão de consenso, ajustar excessivamente os parâmetros de referência, ignorar valores sociais intrínsecos, deixar que a euforia dite as prioridades, acumular "dívida de generalidade" (adiar questões-chave de projeto) e excluir comunidades marginalizadas e pesquisadores com poucos recursos.
Metas específicas, mensuráveis e transparentes seriam mais adequadas para o progresso da IA do que uma meta vagamente definida como AGI (Inteligência Artificial Geral).
Raciocínio matemático por trás das previsões da Inteligência Artificial Geral (IAG)
O raciocínio matemático é fundamental para compreender e prever os cronogramas da Inteligência Artificial Geral (IAG). Muitas projeções baseiam-se em tendências quantificáveis e modelos formais que orientam as expectativas sobre quando a inteligência artificial geral poderá surgir.
Leis de escala e crescimento computacional
Um componente fundamental do raciocínio matemático envolve a análise de leis de escala . Estas demonstram que o desempenho do modelo melhora de forma previsível com mais dados, parâmetros e poder computacional.
O crescimento anual consistente de 4 a 5 vezes na capacidade computacional para treinamento de IA corrobora as previsões de que a Inteligência Artificial Geral (IAG) poderá ser alcançada dentro de uma ou duas décadas, assumindo que as tendências atuais se mantenham.
Essas projeções são baseadas em ajustes empíricos às curvas de desempenho e extrapolações, sustentadas por relações de lei de potência, um conceito central na modelagem matemática.
previsão probabilística
Os pesquisadores também aplicam métodos probabilísticos às previsões da IAG (Inteligência Artificial Geral). Frequentemente, pesquisas solicitam a especialistas que estimem a probabilidade de a IAG ser desenvolvida em anos específicos, produzindo distribuições de probabilidade cumulativa.
Por exemplo, uma probabilidade de 50% até 2040 reflete um consenso em um contexto de incerteza, impulsionado por atualizações no estilo Bayesiano com base no progresso observado em IA.
Essa abordagem de raciocínio matemático captura a incerteza dos especialistas sem exigir datas precisas, permitindo revisões contínuas à medida que novos dados se tornam disponíveis.
Fundamentos teóricos
Essas previsões são baseadas em elementos teóricos do raciocínio matemático, incluindo a tese de Church-Turing, que implica que a cognição humana pode ser simulada por máquinas, e conceitos como a complexidade de Kolmogorov, que relaciona a inteligência à compressibilidade da informação.
Embora essas teorias não garantam a Inteligência Artificial Geral (IAG), elas fornecem uma estrutura para pensar sobre sua possibilidade e os requisitos computacionais envolvidos.
Mais sobre Inteligência Artificial Geral Intel
David Silver, Cientista de Pesquisa Principal na DeepMind
Ele explica que a Inteligência Artificial Geral (AGI) se refere a sistemas de IA capazes de aprender e se destacar em uma ampla gama de tarefas; assim como os humanos que podem se tornar especialistas em diversas áreas, como ciência, música ou esportes.
Ao contrário da IA restrita, limitada a uma única função, a IAG (Inteligência Artificial Geral) aspira a espelhar a adaptabilidade humana e a capacidade geral de resolução de problemas.
Ele observa que, embora a Inteligência Artificial Geral (IAG) seja um objetivo a longo prazo, alcançar uma inteligência verdadeiramente equivalente à humana provavelmente exigirá vários avanços e se desenvolverá gradualmente ao longo do tempo (veja o vídeo abaixo).
Ilya Sutskever, cofundador e Cientista-Chefe da OpenAI
Na palestra TED intitulada "A Jornada Emocionante e Perigosa Rumo à Inteligência Artificial Geral" (AGI, na sigla em inglês), ele explora o rápido progresso em direção à Inteligência Artificial Geral (AGI).
Ele prevê que a Inteligência Artificial Geral (AGI) poderá surgir nos próximos 5 a 10 anos, embora reconheça a incerteza nesse cronograma.
Sutskever destaca tanto o imenso potencial quanto os profundos riscos da Inteligência Artificial Geral (IAG), enfatizando a necessidade de alinhar seu desenvolvimento aos valores humanos. Apesar dos desafios, ele se mostra otimista de que a humanidade poderá conduzir essa poderosa tecnologia com segurança (veja o vídeo abaixo).
Ray Kurzweil, cientista da computação e empreendedor
Ele reflete sobre mais de seis décadas de progresso na IA, traçando a capacidade da humanidade de construir ferramentas que aprimoram a inteligência, desde implementos primitivos até grandes modelos de linguagem.
Ele também prevê que a Inteligência Artificial Geral chegará até 2029, levando à singularidade tecnológica em 2045. Ele destaca os avanços exponenciais no poder computacional, na medicina e na biotecnologia.
Ele também prevê avanços como curas geradas por IA, ensaios clínicos digitais e a velocidade de escape da longevidade, onde o progresso científico poderá prolongar a vida indefinidamente (veja o vídeo abaixo).
Yann LeCun, ganhador do prêmio Turing
Veja por que os mestrados em direito não conseguem nos dar inteligência de nível humano e conheça as abordagens mais recentes de IA para chegarmos lá:
Conclusão
As previsões para a Inteligência Artificial Geral (IAG) mudaram consideravelmente nos últimos anos. Enquanto pesquisas anteriores apontavam para uma chegada mais próxima de 2060, projeções recentes, especialmente de empreendedores, sugerem que ela poderá surgir já entre 2026 e 2035.
Essa mudança é impulsionada pelos rápidos avanços em grandes modelos de linguagem e pelo crescente poder computacional. No entanto, apesar desses ganhos, a IA atual ainda carece da flexibilidade e autonomia gerais associadas à inteligência humana.
Os especialistas continuam divididos sobre como a Inteligência Artificial Geral (IAG) será alcançada; alguns acreditam que escalar as arquiteturas atuais será suficiente, enquanto outros argumentam que novos métodos são necessários.
Os principais desafios incluem a alta demanda por recursos, parâmetros de referência pouco claros e questões éticas não resolvidas. A Inteligência Artificial Geral (IAG) pode estar mais próxima do que nunca, mas sua chegada ainda depende tanto de avanços tecnológicos quanto de uma supervisão cuidadosa.
Perguntas frequentes
A singularidade é um evento hipotético que se espera que resulte em um rápido aumento da inteligência das máquinas.
Para alcançar a singularidade, precisamos de um sistema que combine o pensamento em nível humano com velocidade sobre-humana e memória quase perfeita de acesso rápido.
A singularidade também deveria resultar em consciência artificial, mas como a consciência não é bem definida, não podemos ser precisos a seu respeito. Tal sistema poderia se autoaperfeiçoar e superar as capacidades humanas.
Embora singularidade seja um termo relativamente antigo, Inteligência Artificial Geral (IAG) e, especialmente, superinteligência são usados com mais frequência hoje em dia para descrever o mesmo evento.
Inteligência Artificial Geral (AGI) refere-se a um tipo de IA que pode compreender, aprender e aplicar conhecimento em uma ampla gama de tarefas intelectuais em um nível igual ou superior ao dos humanos.
Ao contrário da IA restrita, projetada para tarefas específicas como tradução de idiomas ou reconhecimento de imagens, a IAG (Inteligência Artificial Geral) possuiria habilidades cognitivas generalizadas, permitindo-lhe raciocinar, planejar e se adaptar a situações desconhecidas.
O desenvolvimento da Inteligência Artificial Geral (IAG) continua sendo um importante objetivo de pesquisa e tema de debate ético e filosófico.
Superinteligência denota um intelecto que supera significativamente as melhores mentes humanas em praticamente todos os domínios, incluindo criatividade, resolução de problemas e compreensão social.
Representa um estágio além da Inteligência Artificial Geral (IAG), onde um sistema artificial poderia superar os humanos em todas as atividades intelectuais relevantes.
O conceito levanta questões críticas sobre controle, segurança e as implicações a longo prazo para o papel da humanidade em um mundo dominado por inteligência superior.
Inteligência de Máquina Avançada (AMI) envolve sistemas de IA competentes que se aproximam ou atingem uma inteligência quase geral.
Embora ainda não possuam a flexibilidade e a autoconsciência completas associadas à Inteligência Artificial Geral (AGI), os sistemas de Inteligência Artificial Média (AMI) demonstram raciocínio, aprendizado e adaptabilidade avançados em diversas tarefas.
O termo é frequentemente usado para designar sistemas de IA que excedem as capacidades atuais de IA restrita, mas permanecem abaixo do limiar da inteligência geral completa.
Comentários 12
Compartilhe suas ideias
Seu endereço de e-mail não será publicado. Todos os campos são obrigatórios.
Does anyone know when this article was first published? I want to do a comparison of predictions vs reality for a project.
Hi Harper. The article was first published in mid-2017. But it's undergone constant updates since then to reflect the latest developments. Good luck with your project and let us know if we can help further!
I think we are far away from the point of singularity. It is not only that intelligence is multi dimensional, but also what is deemed as being intelligent (e.g., IQ, EQ) changes with time. People also change with time. So what is that point of singularity may change.
Hello, Yuvan. Thank you for your feedback.
Hello, Achieving the singularity from where we are now is relatively a simple jump, it is just time and advancements combined with a team somewhere who is dedicated to it and has the money to pull it off. The missing part of the equation would be asking the question "what is consciousness?" and understanding that. Then, understanding how to model that with non-biological machinery even at small levels, like modeling the consciousness of an amoeba or more advanced things like snakes and squirrels. Then if we know for certain what it is and how to model it, just run an adaptive evolution algorithm on itself, modeling out all of the processes in human cognition until it can beat them everywhere. Then, allow it to simply rebuild itself to continuously improve. The problem currently preventing this, is that human beings have no idea what consciousness is at all. It is a great mystery. One person thinks it is in the brain. Another thinks the brain is like a tuning fork, channeling the consciousness from somewhere else. It is a great mystery in science. When this problem is solved, then machine consciousness can be built most likely, depending on what it actually is. If consciousness is something weird, such as "human beings have spirits in other dimensions that are planned for their bodies by a supreme being. The brain creates a quantum resonant frequency that links it together with this already conscious entity, and then several universes are interacting simultaneously to create the actual experience of being self aware and sentient" well then, it will be very difficult to design a machine that does that same thing. It is more likely that we figure out how to model the resonance in the brain and then transfer an already existing consciousness of an animal or a human into a machine and keep it going, if that even makes any sense at all. However, maybe that's not how it works, and it is something simple like the holographic connection of energy patterns fluctuating in the mind - this can be modeled and a machine can be built that does these sorts of things with much more efficiency. Right now the mystery of the problem is consciousness itself. Hope that helps. I really enjoyed the robot soccer tournament. I also feel like a superhero at soccer now.
It's becoming clear that with all the brain and consciousness theories out there, the proof will be in the pudding. By this I mean, can any particular theory be used to create a human adult level conscious machine. My bet is on the late Gerald Edelman's Extended Theory of Neuronal Group Selection. The lead group in robotics based on this theory is the Neurorobotics Lab at UC at Irvine. Dr. Edelman distinguished between primary consciousness, which came first in evolution, and that humans share with other conscious animals, and higher order consciousness, which came to only humans with the acquisition of language. A machine with primary consciousness will probably have to come first. The thing I find special about the TNGS is the Darwin series of automata created at the Neurosciences Institute by Dr. Edelman and his colleagues in the 1990's and 2000's. These machines perform in the real world, not in a restricted simulated world, and display convincing physical behavior indicative of higher psychological functions necessary for consciousness, such as perceptual categorization, memory, and learning. They are based on realistic models of the parts of the biological brain that the theory claims subserve these functions. The extended TNGS allows for the emergence of consciousness based only on further evolutionary development of the brain areas responsible for these functions, in a parsimonious way. No other research I've encountered is anywhere near as convincing. I post because on almost every video and article about the brain and consciousness that I encounter, the attitude seems to be that we still know next to nothing about how the brain and consciousness work; that there's lots of data but no unifying theory. I believe the extended TNGS is that theory. My motivation is to keep that theory in front of the public. And obviously, I consider it the route to a truly conscious machine, primary and higher-order. My advice to people who want to create a conscious machine is to seriously ground themselves in the extended TNGS and the Darwin automata first, and proceed from there, by applying to Jeff Krichmar's lab at UC Irvine, possibly. Dr. Edelman's roadmap to a conscious machine is at https://arxiv.org/abs/2105.10461
I think Patrick Winston was joking when he said 20 years. From the linked quote: "I was recently asked a variant on this question. People have been saying we will have human-level intelligence in 20 years for the past 50 years. My answer: I’m ok with it. It will be true eventually." "Forced into a corner, with a knife at my throat, I would say 20 years, and I say that fully confident that it will be true eventually."
Great point! We should have read the source more carefully. I tried to explain his point better in the article.
I have the impression that the nerds that make this kind of prediction (replicate human brain) know a whole lot about computer programming but are ignorant about neuroscience/psychology. We are nor even scratching the surface about primary phenomenon, such as counsciousness / unconsciousness. How do you claim that you can replicate something that we are still far from understanding how it works?
Thank you for the comment. True, better understanding of the mind would help AGI research.
mmm... I'm not sure we can reach to this point: "benevolence of intelligent machines" Emotions and Feelings are there to guide our actions, to improve ourselves and to make a better world, can we make a machine to feel guilt of being smarter than us??
Saying human intelligence is fixed ignores that as we learn more about how the human brain works we may learn how to expand its capability's ie through some form of enhanced learning, targeted drugs, gene therapy, electro stimulation and not just direct brain computer connections being the only potential for doing this. More so currently hampered by our lack of understanding even the language you use has an effect on your cognitive ability's its one of the reasons deaf people were called dumb was the occurrence of language deprivation and how it negatively effected neurodevelopment it was a major problem when deaf children were forced to lip read instead of using sign language . But we will need more powerful AIs to achieve an understanding of our brains
People who say AGI will be here in 2060 are idiots and don't understand the flow of technology you'll see
@Vyn What do you mean? Do you mean to say it will take way before or way after 2060?
Thanks! I'll be quite happy if I get to see 2060
Intelligent doesn't solve our all problems maybe yes but certainly its essential and more intelligent you are faster you solve problems. If you are a chimp you can not even pour water to a glass. You do not even know what glass is used for. Yes if you are human being you still need to get up and grab the glass but intellegence is essential. I do not think human brain is impossible to create in a lab. I think earth is a lab. Anything found in nature can be replicate in the lab.
if P=NP then the singularity may happen also. Saying the human brain is impossible to recreate I dont agree with, but to say its intractable probably is approximately true. So P=NP, if you could solve that mystery (which is the millenial prize funnily) with an intractable calculation, that could make all the magic happen as well.
Thanks for the comment. Most computer scientists working on AI or machine learning would agree that it is possible to replicate human brain's capabilities.
The claim that "humans contribute most to the biomass" on the planet is likely to be wrong. Check out this paper for a careful estimation: https://www.pnas.org/content/115/25/6506
Thank you! That was insightful. Biology is not my strong suit, I should stick to computer science.
@AIMultiple Humble response, and great article. Thanks a ton :)
@B Thanks!