Contáctanos
No se encontraron resultados.

IAG/Singularidad: 9.800 predicciones analizadas

Cem Dilmegani
Cem Dilmegani
actualizado el Feb 24, 2026
Vea nuestra normas éticas

La inteligencia artificial general (IAG) se da cuando un sistema de IA iguala las capacidades cognitivas humanas en todas las tareas. Basándonos en las predicciones disponibles, aquí tienes algunas respuestas rápidas sobre la IAG:

¿Se producirá la IAG/singularidad? Según la mayoría de los expertos en IA, la IAG es inevitable .

¿Cuándo llegará la singularidad/IA general? Encuestas recientes a investigadores de IA predicen que la IA general llegará en la década de 2040. Según las previsiones de la comunidad , se espera que llegue alrededor de la década de 2030. Los emprendedores predicen que sucederá en pocos años.

Analizamos las predicciones de 9.800 científicos de IA, emprendedores destacados y la comunidad en general sobre la cronología de la IA general:

Artificial General Intelligencia cronológica

Loading Chart

La cronología anterior describe el año previsto para la singularidad, basándose en la información recopilada a partir de 8 encuestas y las respuestas de 9.800 investigadores de IA, científicos y participantes en mercados de predicción:

Como se puede observar más arriba, los encuestados esperan cada vez más que la singularidad se produzca antes de lo previsto.

Así es como creamos este gráfico:

  • Para representar gráficamente el año previsto de desarrollo de la IAG, utilizamos el promedio ponderado de las predicciones para cada año dentro de cada categoría. Por ejemplo, si hubo varias previsiones del Mercado de Predicciones para 2022, calculamos su promedio ponderado y representamos ese valor.
  • Para las predicciones individuales, incluimos pronósticos de 15 expertos en IA.
  • Para realizar predicciones científicas, recopilamos los resultados de encuestas de 8 artículos revisados por pares que proporcionan cronogramas para la IA general.
  • Para los mercados de predicción y las predicciones de la comunidad, utilizamos:
    • Más de 1.100 predicciones de Manifold, Kalshi y Polymarket, que son mercados de predicción en línea donde los participantes negocian sobre la probabilidad y el momento de eventos futuros para obtener ganancias o reputación.
    • Resultados agregados de 8 expertos de Samotsvety Forecasting. Samotsvety Forecasting emplea métodos cuantitativos para generar predicciones probabilísticas sobre eventos del mundo real.
    • 3.290 predicciones enviadas en 2020 y 2022 en la plataforma pública Metaculus.

Otras cuestiones clave sobre la IAG

¿Cuál es nuestra situación actual con respecto a la IAG?

Si bien la IA especializada supera a los humanos en tareas específicas, no existe una máquina con inteligencia general. Algunos investigadores creen que los grandes modelos de lenguaje demuestran capacidades generalistas emergentes. 1 Según nuestro estudio comparativo de IAG , las máquinas están lejos de generar valor económico de forma autónoma.

¿Cómo podemos alcanzar la IAG?

Ya sea aumentando la capacidad de procesamiento y el volumen de datos en arquitecturas actuales como los transformadores, o bien inventando nuevos enfoques. Aún no existe consenso científico sobre el método para lograr la IA general ni para validarla.

A continuación, puedes ver los estudios y predicciones que conforman esta cronología, o bien, pasar directamente a comprender la singularidad .

Resultados de las principales encuestas a investigadores de IA

Analizamos los resultados de 8 encuestas en las que participaron más de 4900 investigadores y expertos en IA, quienes estimaron cuándo podría producirse la IAG/singularidad.

Si bien las predicciones varían, la mayoría de las encuestas indican una probabilidad del 50% de alcanzar la IA general entre 2040 y 2061, y algunas estiman que la superinteligencia podría llegar en las próximas décadas.

Encuesta de expertos de 2023 sobre los avances en IA

En octubre, AI Impacts encuestó a 2778 investigadores de IA sobre cuándo podría alcanzarse la IA general. Esta encuesta incluyó preguntas casi idénticas a las de la encuesta de 2022. Según los resultados, se estima que la inteligencia artificial de alto nivel se logrará para 2040 . 2

Encuesta de expertos de 2022 sobre los avances en IA

La encuesta se realizó con 738 expertos que publicaron en las conferencias NIPS e ICML de 2021. Los expertos en IA estiman que hay un 50 % de probabilidades de que la inteligencia artificial de alto nivel se materialice para el año 2059. 3

Los expertos también predijeron que el coste del hardware, el progreso algorítmico y el trabajo en los conjuntos de entrenamiento serían los factores más importantes en el progreso de la IA.

Encuesta sobre la previsión del progreso de la IA en 2019

Baobao Zhang encuestó a 296 expertos en IA, pidiéndoles que predijeran cuándo las máquinas superarían al trabajador humano promedio en la realización de más del 90 % de las tareas económicamente relevantes. La mitad de los encuestados estimó que esto sucedería antes de 2060 . 4

Encuesta de expertos en IA sobre el momento oportuno para la IAG en 2019

Predicciones de 32 expertos en IA sobre el momento de la llegada de la IAG. 5 son:

  • El 45% de los encuestados predice una fecha anterior a 2060.
  • El 34% de todos los participantes predijo una fecha posterior a 2060.
  • El 21% de los participantes predijo que la singularidad nunca ocurriría.

Encuesta sobre el impacto potencial de la IA en el desplazamiento laboral en 2018.

Ross Gruetzemacher encuestó a 165 expertos en IA para evaluar el impacto potencial de la inteligencia artificial en el desplazamiento laboral. Se les pidió a los expertos que estimaran cuándo los sistemas de IA serían capaces de realizar el 99 % de las tareas por las que actualmente se remunera a los humanos, a un nivel igual o superior al de un ser humano promedio.

La mitad de los encuestados predijo que este hito se alcanzaría antes de 2068 , mientras que el 75% anticipó que ocurriría dentro de los próximos 100 años. 6

Encuesta realizada en 2017 a expertos en IA que participaron en las conferencias NIPS e ICML de 2015.

En mayo de 2017, se encuestó a 352 expertos en IA que publicaron en las conferencias NIPS e ICML de 2015. 7

Según los resultados de las encuestas, los expertos estiman que hay un 50% de probabilidad de que la IA general se produzca para 2060. Dicho esto, existe una diferencia de opinión significativa según la geografía:

  • Los encuestados asiáticos esperan que la AGI esté disponible en 30 años.
  • Los norteamericanos lo esperan dentro de 74 años.

Entre las funciones laborales importantes que se prevé que se automaticen para 2030 se incluyen las de los agentes de centros de llamadas, la conducción de camiones y las ventas minoristas.

Avances futuros en inteligencia artificial Intel encuesta en 2012/2013

Vincent C. Muller, presidente de la Asociación Europea de Sistemas Cognitivos, y Nick Bostrom, de la Universidad de Oxford, autor de más de 200 artículos sobre superinteligencia e inteligencia artificial general (IAG), realizaron una encuesta entre investigadores de IA. 550 participantes respondieron a la pregunta: ¿Cuándo es probable que se haga realidad la IAG? 8

Según los resultados:

  • Los expertos en IA encuestados estiman que la IA general probablemente surgirá (con más del 50% de probabilidad) entre 2040 y 2050, y es muy probable (90% de probabilidad) que aparezca para 2075.
  • Una vez alcanzada la IAG (Inteligencia Artificial General), la mayoría de los expertos creen que progresará hacia la superinteligencia con relativa rapidez, en un plazo que oscila entre tan solo 2 años (improbable, 10% de probabilidad) y unos 30 años (alta probabilidad, 75%).

Encuesta de 2009 con expertos en IA que participaron en la conferencia AGI-09.

Según los resultados de la encuesta realizada a 21 expertos en IA que participaron en la conferencia AGI-09, se cree que la IA general se producirá alrededor del año 2050 , y posiblemente antes. 9 A continuación se pueden ver sus estimaciones con respecto a logros específicos de IA: pasar la prueba de Turing, pasar el tercer grado, lograr avances científicos dignos del Premio Nobel y alcanzar una inteligencia sobrehumana.

Figura 1: Resultados de la encuesta distribuida a los asistentes a la conferencia Artificial General Intelligence 2009 (AGI-09).

Perspectivas de la comunidad

También evaluamos las predicciones de Samotsvety Forecasting y Metaculus Community sobre AGI, y los resultados del mercado de predicciones de Manifold, Kalshi y Polymarket:

Pronóstico de Samotsvety

Samotsvety Forecasting es un equipo de pronosticadores que realiza predicciones probabilísticas sobre eventos del mundo real, especialmente en geopolítica, tecnología y riesgos globales, utilizando razonamiento estructurado y métodos cuantitativos. Cuentan con una sólida trayectoria competitiva en las principales plataformas y torneos de pronóstico (por ejemplo, INFER/CSET-Foretell), donde su precisión se mide mediante métricas de puntuación formales como la puntuación de Brier. 10

En enero de 2026, el equipo actualizó sus predicciones sobre la IAG con la ayuda de 8 pronosticadores. 11 Aquí están los resultados agregados:

  • Hay un 10% de probabilidad de que alcancemos la IAG en 2026.
  • 50% de probabilidad de que alcancemos la IAG para 2041.
  • Hay un 90% de probabilidad de que alcancemos la IAG (Ingeniería General Aguda) para el año 2164.

En una previsión anterior de 2022, el equipo estimó una probabilidad del 32 % de que se produzca una IAG en los próximos 20 años (hacia 2042 aproximadamente) y del 73 % para 2100 , cifras inferiores a sus proyecciones actuales. 12

Mercado múltiple

En enero de 2026, más de 1100 colaboradores del mercado de Manifold predijeron que el año en que una IA superaría por primera vez una "prueba de Turing adversaria de alta calidad" sería 2035 . 13

Mercado de predicciones de Kalshi

Los participantes del mercado de predicciones Kalshi creían que hay un 40% de probabilidad de que OpenAI alcance el AGI para 2030 en enero de 2026. 14

Mercado polinario

Los resultados de las predicciones de Polymarket en enero de 2026 indicaron que hay una probabilidad del 9% de que OpenAI alcance el AGI para 2027 . 15

Metaculus Predicciones de la comunidad

A partir de febrero de 2026:

  • 1700 participantes respondieron a la pregunta "¿Cuándo se diseñará, probará y anunciará públicamente el primer sistema de IA débilmente general?" y la predicción es el 21 de febrero de 2028 . 16
  • 178 participantes respondieron a la pregunta "¿Cuándo superará una IA por primera vez una prueba de Turing adversaria larga e informada?" y su predicción es el 22 de abril de 2029. 17
  • 1.800 participantes respondieron a la pregunta "¿Cuándo se diseñará, probará y anunciará públicamente el primer sistema de IA general?" y su predicción es abril de 2033. 18

En 2022, 81 participantes respondieron a la pregunta "¿Cuándo esperan los principales pronosticadores que se desarrolle y demuestre la primera Inteligencia Artificial General Intel?" y su predicción fue 2035 . 19

Perspectivas de emprendedores de IA e investigadores individuales

Los emprendedores de IA también están haciendo estimaciones sobre cuándo alcanzaremos la singularidad, y se muestran más optimistas que los investigadores. Esto es previsible, ya que se benefician del creciente interés en la IA.

Sus opiniones difieren en cuanto a su velocidad y trayectoria de desarrollo. Amodei, de OpenAI, prevé que la IA general llegará a corto plazo debido a un rápido progreso autorreforzante, mientras que Hassabis, de DeepMind, la considera plausible, pero se mantiene cauto, citando desafíos sin resolver en la creatividad científica y la auto-mejora autónoma.

Estas son las predicciones de 15 de los emprendedores e investigadores más destacados en el campo de la IA:

  • Shane Legg, cofundador de DeepMind Technologies, define la IA general mínima como un agente artificial capaz de realizar de forma fiable todas las tareas cognitivas que un ser humano promedio puede llevar a cabo, sin cometer errores que nos sorprenderían si se le encomendara la misma tarea a una persona. Su predicción de enero de 2026 es que existe un 50 % de probabilidad de que la IA general mínima se haga realidad para 2028 .
    • Según Legg, alcanzar una IA general mínima no significa que comprendamos o podamos reproducir plenamente las formas más elevadas de inteligencia humana, como los grandes avances científicos o los logros artísticos. La IA general completa solo se logrará cuando la IA pueda igualar todo el espectro de la cognición humana. 20
  • Dario Amodei, director ejecutivo de Anthropic, expresó su firme confianza en que los sistemas de IA general (IGG) se acercan en un futuro próximo durante el Foro Económico Mundial de Davos 2026. Afirmó que la IAG probablemente se materializará en pocos años ( 2027), posiblemente antes de lo que se espera.
    • Sostiene que los rápidos avances en la codificación y la automatización de la investigación en IA son fundamentales, ya que permiten a los sistemas de IA gestionar la mayoría de las tareas de ingeniería de software de principio a fin y acelerar su propio desarrollo mediante ciclos de retroalimentación.
    • Si bien reconoce limitaciones como la disponibilidad de hardware y el tiempo de capacitación, considera improbable un plazo mucho más largo y anticipa una rápida aceleración una vez que estos ciclos maduren. 21
  • En el mismo evento en 2026, Demis Hassabis, fundador de DeepMind, mantuvo una perspectiva más cautelosa, reiterando una estimación de aproximadamente un 50% de probabilidad de lograr la IA general para finales de la década (2030).
    • Hassabis coincide en que el progreso es rápido en ámbitos verificables como la programación y las matemáticas, pero subraya que el descubrimiento científico y el razonamiento creativo siguen siendo más difíciles.
    • Destaca las limitaciones no resueltas a la hora de generar nuevas preguntas y teorías, y expresa incertidumbre sobre la auto-mejora totalmente autónoma, en particular en ámbitos complejos del mundo real, lo que, en su opinión, hace que los plazos para la IA general sean menos predecibles.
  • Combinando el progreso de la IA en razonamiento, programación y matemáticas, Eric Schmidt, ex director ejecutivo de Google, cree que nos dirigimos hacia la Inteligencia Artificial General en un plazo de 3 a 5 años (como se afirmó en abril de 2025). 22
  • Elon Musk prevé que para 2026 se haya desarrollado una inteligencia artificial más inteligente que la de los humanos más inteligentes. 23
  • En febrero de 2025, el empresario e inversor Masayoshi Son predijo que sucedería en 2 o 3 años (es decir, en 2027 o 2028 ).
  • En marzo de 2024, el CEO de Nvidia, Jensen Huang, predijo que en un plazo de cinco años, la IA igualaría o superaría el rendimiento humano en cualquier prueba: 2029. 24
  • Louis Rosenberg, científico informático, empresario y escritor, para el año 2030 .
  • Ray Kurzweil, científico informático, empresario y autor de 5 bestsellers nacionales, entre ellos The Singularity Is Near: Previously 2045, 25 , en 2024, 2032 . 26
  • En 2023, Hinton creía que podría tardar entre 5 y 20 años. 27
  • Sam Altman, CEO de OpenAI, para 2035. Mencionó “unos pocos miles de días” en 2024 en su blog “The Intelligence Age”.
  • Ajeya Cotra, investigador de IA, analizó el crecimiento de la computación de entrenamiento y estimó una probabilidad del 50% de que surja una IA con capacidades similares a las humanas para el año 2040 . 28
  • Patrick Winston, profesor del MIT y director del Laboratorio de Inteligencia Artificial del MIT de 1972 a 1997, mencionó el año 2040, enfatizando que, si bien es una fecha que ocurriría, es difícil estimarla .
  • Jürgen Schmidhuber, cofundador de la empresa de IA NNAISENSE y director del laboratorio suizo de IA IDSIA, para 2050. 29

Otros comentarios y novedades sobre la IAG

Panel Presidencial de la AAAI 2025 sobre el Futuro de la Investigación en IA

Se consultó a 475 personas, principalmente del ámbito académico (67%) y de Norteamérica (53%), sobre los avances en inteligencia artificial (IA). Si bien la encuesta no solicitaba un cronograma para la IA general (IAG), el 76% de los encuestados opinó que ampliar los enfoques actuales de IA difícilmente conduciría a la IAG. 30

OpenAI amplía sus ambiciones en robótica

OpenAI está intensificando su enfoque en la robótica como parte de su objetivo de impulsar la inteligencia artificial general. La compañía está contratando especialistas en sistemas de robots humanoides y formando un equipo para diseñar algoritmos que ayuden a los robots a aprender y actuar de forma independiente en el mundo físico.

Esto supone un cambio con respecto al enfoque anterior de OpenAI en modelos de lenguaje e imágenes. La compañía ahora busca conectar el razonamiento avanzado con la interacción física, lo que sugiere que considera la robótica un paso esencial para probar y lograr la IA general.

Contexto e implicaciones

Tras disolver su primer equipo de robótica alrededor de 2020, OpenAI retoma el desarrollo activo en este campo. Las recientes contrataciones y las posibles colaboraciones apuntan a un renovado esfuerzo por construir robots capaces de aprender y manipular en el mundo real.

Al combinar modelos de IA a gran escala con datos sensoriales, OpenAI busca crear sistemas capaces de razonar y operar fuera de entornos digitales. La contratación de expertos en robótica humanoide también indica objetivos a largo plazo que van más allá de la automatización y se orientan hacia robots que puedan trabajar de forma segura junto a las personas. 31

Informe de Microsoft sobre los primeros experimentos con GPT-4

En 2023, una investigación estudió una versión temprana del OpenAI. El informe afirmaba que mostraba una inteligencia general superior a la de modelos de IA anteriores, con un rendimiento a nivel humano en áreas como matemáticas, programación y derecho. Esto generó un debate sobre si el GPT-4 era una forma preliminar de inteligencia artificial general . 32

El camino hacia la inteligencia artificial general: informe del MIT

El informe "El camino hacia la inteligencia artificial general", publicado en agosto de 2025, prevé que los primeros sistemas similares a la IAG podrían empezar a surgir entre 2026 y 2028 , mostrando razonamiento a nivel humano en dominios específicos, capacidades multimodales a través de interfaces de texto, audio y físicas, y autonomía limitada orientada a objetivos.

El informe combina pronósticos agregados y sugiere una probabilidad del 50% de que varios hitos generalizados, como la transferencia de conocimiento y el razonamiento amplio, se alcancen para 2028 .

Las proyecciones a largo plazo estiman que las máquinas podrían superar el rendimiento humano en todas las tareas económicamente valiosas hacia el año 2047 , dependiendo de los avances en la eficiencia computacional, los avances algorítmicos y el aprendizaje autónomo. 33

Fronteras de la IA sobre probabilidades de IAG

Adam Khoja y Laura Hiscott, de AI Frontiers, una plataforma para debates y diálogos sobre IA, estiman una probabilidad del 50 % de alcanzar la IAG para 2028 y una probabilidad del 80 % para 2030 , utilizando su definición cuantitativa de IAG. 34

Khoja e Hiscott evalúan el progreso hacia la inteligencia artificial general utilizando una definición desarrollada por Khoja, Dan Hendrycks y sus coautores. 35 Su marco de trabajo mide diez habilidades cognitivas y asigna a GPT-4 una puntuación del 27 % y a GPT-5 una puntuación del 57 %. Esto indica que los modelos actuales están aproximadamente a la mitad del camino hacia el umbral de IAG definido.

Khoja e Hiscott argumentan que los debates tradicionales sobre los plazos de la IA general carecen de precisión debido a que se basan en definiciones inconsistentes. Su marco estandarizado busca aportar claridad al identificar las fortalezas y debilidades específicas de los modelos actuales. Señalan que la lectura, la escritura, las matemáticas y el conocimiento general alcanzan o superan los niveles humanos básicos y ya no constituyen factores limitantes.

Los autores destacan las deficiencias que aún persisten en el razonamiento visual, la física intuitiva, el procesamiento auditivo, la velocidad dependiente de la percepción y la memoria de trabajo visual y auditiva. Informan de una rápida mejora en pruebas de referencia como SPACE y MindCube, y sugieren que estas deficiencias probablemente puedan abordarse mediante una investigación incremental continua. También observan que las alucinaciones siguen siendo una preocupación, pero son manejables dadas las diferencias de rendimiento entre los modelos más avanzados.

Según Khoja, Hiscott y Hendrycks, el principal obstáculo que aún persiste es el aprendizaje continuo y el almacenamiento de memoria a largo plazo. Los sistemas actuales no pueden retener información entre sesiones, y superar esta limitación requerirá al menos un avance significativo. Sin embargo, los autores destacan que los principales laboratorios de IA están priorizando esta área.

Aprender de los excesos de optimismo del pasado en las predicciones de la IA

Tenga en cuenta que los investigadores de IA fueron demasiado optimistas anteriormente. Algunos ejemplos son:

  • En 2016, Geoff Hinton afirmó que no necesitaríamos radiólogos para 2021 o 2026. Hasta ahora, la radiología no se ha automatizado por completo y los hospitales necesitan miles de ellos. 36
  • En 1965, el pionero de la IA, Herbert A. Simon, afirmó: "En veinte años, las máquinas serán capaces de realizar cualquier trabajo que un hombre pueda hacer". 37
  • La quinta generación de ordenadores japoneses, lanzada en 1980, tenía un plazo de desarrollo de diez años con objetivos como "mantener conversaciones informales". 38

Esta experiencia histórica contribuyó a que la mayoría de los científicos actuales se mostraran reacios a predecir la IA general en plazos tan amplios como 10-20 años, pero esto ha cambiado con el auge de la IA generativa .

Comprender qué es la singularidad

La inteligencia artificial nos asusta y nos intriga. Casi todas las semanas, aparece en las noticias alguna noticia alarmante sobre IA, como desarrolladores que temen lo que han creado o la desactivación de bots porque se han vuelto demasiado inteligentes. 39

La mayoría de estos mitos son resultado de investigaciones malinterpretadas por personas ajenas a los campos de la IA y la IA general. Algunos interesados afirman temer a la IA porque podrían beneficiarse de una mayor regulación o porque podría atraer más atención.

El mayor temor respecto a la IA es la singularidad (también llamada Inteligencia Artificial General o IAG), un evento que se espera que provoque un rápido aumento de la inteligencia artificial. Esto se prevé cuando un sistema combine el pensamiento humano con una velocidad sobrehumana y una memoria casi perfecta de rápido acceso. Según algunos expertos, la singularidad también implica conciencia artificial.

Una máquina así podría auto-mejorarse y superar las capacidades humanas. Incluso antes de que la inteligencia artificial se convirtiera en un tema de investigación en informática, escritores de ciencia ficción como Asimov ya se preocupaban por esto. Diseñaban mecanismos (como las Leyes de Robótica de Asimov) para garantizar la benevolencia de las máquinas inteligentes, lo que hoy se conoce más comúnmente como investigación de alineación .

Por qué los expertos creen que la IA general es inevitable: Argumentos y pruebas clave

Alcanzar la IA general puede parecer una predicción descabellada, pero resulta un objetivo bastante razonable si consideramos que la inteligencia humana es fija y la inteligencia artificial está en constante crecimiento . Es solo cuestión de tiempo que las máquinas nos superen, a menos que exista un límite infranqueable para su inteligencia. Todavía no hemos encontrado tal límite.

La inteligencia humana es fija a menos que logremos fusionar nuestras capacidades cognitivas con las de las máquinas. La empresa emergente de Elon Musk, especializada en interfaces neuronales, pretende lograrlo, pero la investigación sobre interfaces cerebro-computadora se encuentra en sus primeras etapas. 40

La inteligencia artificial depende de algoritmos, capacidad de procesamiento y datos.

  • La capacidad de procesamiento ha crecido a un ritmo exponencial gracias a la gran inversión en I+D y centros de datos.
  • Hasta ahora, hemos sido buenos proporcionando a las máquinas los algoritmos necesarios para utilizar su potencia de procesamiento y su memoria de forma eficaz.
  • Finalmente, tanto las empresas como los particulares generan datos digitales a un ritmo cada vez mayor.Los datos sintéticos pueden corromper o mejorar los modelos existentes. Aun cuando los corrompen, se trata de un problema que tiene solución gracias a la gestión de datos.

Logros recientes

Opus 4.6

En febrero de 2026, Claude lanzó Opus 4.6 con una ventana de contexto de 1 millón de caracteres e impresionantes resultados en las pruebas de rendimiento.

Anthropic también se centra en casos de uso mediante el lanzamiento de complementos como Claude legal, que son archivos Markdown para ayudar a los modelos a navegar por dominios específicos. Aunque se trató de una adición menor a Claude, provocó una caída en el mercado bursátil, incluyendo el software SaaS y el software legal. 41

Géminis Pensamiento profundo

Otro ejemplo es el modo de razonamiento profundo Gemini de DeepMind, que obtuvo la medalla de oro en la Olimpiada Internacional de Matemáticas de 2025, lo que supone un paso importante en la capacidad de la IA para razonar sobre problemas complejos.

Utilizando exclusivamente lenguaje natural, Gemini resolvió cinco de los seis problemas dentro del plazo oficial de 4,5 horas del concurso, produciendo demostraciones claras y legibles para los humanos sin recurrir a herramientas simbólicas formales.

Sus capacidades se derivan de varias innovaciones: el modo Deep Think permite la exploración paralela de posibles soluciones, el entrenamiento incorpora demostraciones matemáticas de nivel experto y el aprendizaje por refuerzo perfecciona su enfoque estratégico.

Este progreso demuestra que la IA avanzada ahora puede realizar razonamientos sofisticados e interpretables a un nivel que antes estaba reservado para los mejores solucionadores de problemas humanos. 42

Opencrawl

Opencrawl es un proyecto de código abierto para convertir LLM en agentes. Se convirtió en uno de los proyectos más populares en GitHub y dio inicio al ecosistema de Opencrawl .

Crecimiento exponencial

La siguiente analogía resulta útil para comprender el crecimiento exponencial. Si bien las máquinas pueden no parecer muy inteligentes en la actualidad, podrían volverse bastante inteligentes en un futuro próximo.

Fuente: Mother Jones

Crecimiento reciente en las capacidades de computación de IA

Figura 2: La figura muestra un resumen de los patrones de crecimiento de la capacidad de cómputo observados en varias categorías: modelos notables en general (arriba a la izquierda), modelos de vanguardia (arriba a la derecha), modelos de lenguaje líderes (abajo a la izquierda) y modelos principales de empresas líderes (abajo a la derecha).

Los recursos computacionales para el entrenamiento de modelos de IA han aumentado significativamente, y aproximadamente dos tercios del rendimiento de los modelos de lenguaje se atribuyen a mejoras en la escala de los modelos.

Según un artículo de 2024, 43 El crecimiento del uso de computación en el entrenamiento de modelos de IA ha aumentado constantemente en alrededor de 4-5 veces por año, lo que refleja las tendencias en modelos notables, modelos de frontera y empresas líderes como OpenAI, Google DeepMind y Meta AI (Ver Figura 2).

Sin embargo, el ritmo de crecimiento se ha ralentizado un poco desde 2018, especialmente en el caso de los modelos de vanguardia, pero los modelos de lenguaje experimentaron un crecimiento más rápido, de hasta 9 veces al año, hasta mediados de 2020, después de lo cual el ritmo se ralentizó a 4-5 veces al año.

La tendencia general de crecimiento de la capacidad de procesamiento de la IA se mantiene sólida, y las proyecciones sugieren que la tasa de crecimiento de 4 a 5 veces al año continuará a menos que surjan nuevos desafíos o avances significativos. Este crecimiento también se observa en las estrategias de escalabilidad de las empresas líderes en IA, aunque existen ligeras variaciones entre ellas.

A pesar de la desaceleración en el crecimiento de los modelos de vanguardia, los modelos más grandes publicados hoy, como GPT-4 y Gemini Ultra, se ajustan estrechamente a la trayectoria de crecimiento prevista.

Si la computación clásica se ralentiza, la computación cuántica podría llenar ese vacío.

La informática clásica nos ha llevado muy lejos. Los algoritmos de IA en ordenadores clásicos pueden superar el rendimiento humano en tareas específicas como jugar al ajedrez o al Go. Por ejemplo, AlphaGo Zero venció a AlphaGo por 100-0. AlphaGo había derrotado a los mejores jugadores del mundo. 44 Sin embargo, nos estamos acercando a los límites de la velocidad que pueden alcanzar las computadoras clásicas.

La ley de Moore, que se basa en la observación de que el número de transistores en un circuito integrado denso se duplica aproximadamente cada dos años, implica que el coste de la computación se reduce a la mitad aproximadamente cada 2 años.

Por otro lado, la mayoría de los expertos creen que la ley de Moore está llegando a su fin durante esta década. 45 Sin embargo, se están realizando esfuerzos para seguir mejorando la eficiencia de la computación.

Por ejemplo, DeepSeek sorprendió a los mercados globales con su modelo R1 al ofrecer un modelo de razonamiento a una fracción del costo de sus competidores, como OpenAI.

La computación cuántica , que aún es una tecnología emergente, puede contribuir a reducir los costos de computación una vez que finalice la ley de Moore. La computación cuántica se basa en la evaluación simultánea de diferentes estados, mientras que las computadoras clásicas pueden calcular un estado a la vez.

La naturaleza única de la computación cuántica puede utilizarse para entrenar eficientemente redes neuronales, la arquitectura de IA más popular actualmente en aplicaciones comerciales. Los algoritmos de IA que se ejecutan en computadoras cuánticas estables tienen la posibilidad de desbloquear la singularidad.

¿Por qué algunos expertos creen que no alcanzaremos la IA general?

Existen tres argumentos principales en contra de la importancia o existencia de la IA general. Los analizamos junto con sus refutaciones más comunes:

1- Intel La competencia es multidimensional

Por lo tanto, la IA general será diferente, pero no necesariamente superior a la inteligencia humana.

Esto es cierto, y la inteligencia humana también es diferente de la inteligencia animal. Algunos animales son capaces de realizar proezas mentales, como las ardillas que recuerdan dónde escondieron cientos de nueces durante meses.

Yann LeCun, uno de los pioneros del aprendizaje profundo, cree que deberíamos dejar de usar el término IAG (Inteligencia Artificial General) y centrarnos en lograr una "inteligencia artificial avanzada". 46 Sostiene que la mente humana está especializada y que la inteligencia es un conjunto de habilidades y la capacidad de aprender nuevas habilidades. Cada ser humano solo puede realizar un subconjunto de tareas propias de la inteligencia humana. 47

También es difícil comprender el nivel de especialización de la mente humana, ya que, como seres humanos, no conocemos ni podemos experimentar todo el espectro de la inteligencia.

En áreas donde las máquinas exhibían una inteligencia sobrehumana, los humanos lograron vencerlas aprovechando sus debilidades específicas. Por ejemplo, un aficionado pudo derrotar a un programa de Go comparable a los que vencen a campeones mundiales, estudiando y explotando sus puntos débiles. 48

2- Intel La diligencia no es la solución a todos los problemas.

Ciencia

Incluso la mejor máquina que analiza los datos existentes puede no ser capaz de encontrar una cura para el cáncer. Es posible que necesite realizar experimentos en el mundo real y analizar los resultados para descubrir nuevos conocimientos en la mayoría de las áreas.

Una mayor inteligencia puede conducir a experimentos mejor diseñados y gestionados, lo que permite un mayor número de descubrimientos por experimento. La historia de la productividad investigadora debería demostrarlo, pero los datos son bastante imprecisos y los rendimientos de la investigación son decrecientes. Nos enfrentamos a problemas más complejos, como la física cuántica, a medida que resolvemos problemas más sencillos, como el movimiento newtoniano.

Finalmente, en algunos ámbitos, las predicciones perfectas pueden resultar imposibles debido a la aleatoriedad o la imposibilidad de medirlas con precisión. Por ejemplo, incluso con una gran cantidad de datos, no podemos predecir ciertos resultados vitales con un alto grado de exactitud. 49

Economía

IntelLa diligencia no es el único ingrediente para la generación de valor económico.

  • El coeficiente intelectual, la medida más comúnmente aceptada de la inteligencia humana, no está correlacionado con el patrimonio neto para valores superiores a ~$40.000 (Ver imagen a continuación):

Figura 3: El coeficiente intelectual está correlacionado con la riqueza en niveles bajos de riqueza. 50

Figura 4: El coeficiente intelectual no está correlacionado con la riqueza si solo nos centramos en los altos niveles de riqueza. Este gráfico es el mismo que el anterior, excepto que se han ocultado los niveles de ingresos netos inferiores a 40.000 dólares. 51

  • En el mundo de las inversiones, la inteligencia del equipo de una empresa no se considera un factor de competitividad. Se da por sentado que otras empresas también pueden identificar estrategias inteligentes. Los inversores prefieren empresas con ventajas competitivas injustas, como propiedad intelectual, escala, acceso exclusivo a recursos, etc. La mayoría de estas ventajas no se pueden replicar únicamente con inteligencia.

3- La IA general no es posible porque no es posible modelar el cerebro humano.

En teoría, es posible modelar cualquier máquina computacional, incluido el cerebro humano, con una máquina relativamente simple capaz de realizar cálculos básicos y acceder a memoria y tiempo infinitos. Esta es la hipótesis de Church-Turing, universalmente aceptada y formulada en 1950. Sin embargo, como se mencionó, requiere ciertas condiciones difíciles: tiempo y memoria infinitos.

La mayoría de los informáticos creen que modelar el cerebro humano requerirá menos de un tiempo y una memoria infinitos. Sin embargo, no existe una forma matemáticamente sólida de demostrar esta creencia, ya que aún no comprendemos el cerebro lo suficientemente bien como para caracterizar con precisión su capacidad computacional. ¡Tendremos que construir una máquina así!

¿Cómo podemos alcanzar la IAG?

Figura 5: El horizonte temporal de los modelos de IA de vanguardia a lo largo del tiempo muestra las tareas más largas (en tiempo equivalente a un humano) que cada modelo puede completar con un 50 % de fiabilidad. 52

La figura anterior muestra cómo han mejorado las capacidades de los agentes de IA con el tiempo, midiendo las tareas más largas que pueden completar con un 50 % de fiabilidad.

El hallazgo clave es que la longitud de las tareas que pueden manejar los modelos de frontera ha crecido exponencialmente , duplicándose aproximadamente cada siete meses. Esto significa que los modelos más recientes, como Sonnet y o1, ahora pueden completar tareas que a un humano le tomarían casi una hora, mientras que los modelos más antiguos, como GPT-2, apenas podían manejar tareas que duraban más de unos pocos segundos.

La zona sombreada refleja la incertidumbre estadística, pero la tendencia general es fiable. Si este patrón continúa, los sistemas de IA pronto podrían gestionar tareas complejas que a los humanos les llevan días o incluso semanas, lo que supondría un paso importante hacia una mayor autonomía y capacidades similares a las de la IA general.

La ampliación de escala como vía hacia la IA general

Los líderes de los laboratorios de IA de vanguardia creen que la ampliación de los enfoques actuales basados en transformadores puede dar lugar a una IAG (Inglés General Artificial), lo que alimenta sus predicciones sobre la consecución de la IAG en pocos años .

Una de las vías propuestas para lograr la IAG consiste en ampliar las arquitecturas existentes, como los transformadores, aumentando la capacidad de procesamiento y el volumen de datos, mientras que otra consiste en desarrollar enfoques completamente nuevos.

En apoyo de la hipótesis de escalabilidad, un informe de Epoch AI de 2024 analizó si el crecimiento de la capacidad de procesamiento de la IA puede continuar hasta 2030.

Identificaron cuatro limitaciones principales: disponibilidad de energía, capacidad de fabricación de chips, escasez de datos y latencia de procesamiento (véase la figura 6).

A pesar de estos desafíos, argumentan que es factible entrenar modelos que requieran hasta 2e29 FLOPs para finales de la década, suponiendo inversiones significativas en infraestructura.

Estos avances podrían producir sistemas de IA mucho más capaces que los modelos de última generación actuales, como GPT-4, acercándonos así a la IAG. 53

Figura 6: El gráfico ilustra los límites superiores estimados de la capacidad de cómputo para el entrenamiento de IA para 2030 bajo las principales restricciones de energía, producción de chips, datos y latencia, con medianas que van desde 2e29 hasta 3e31 FLOP.

Más allá de la escalabilidad: Argumentos a favor de nuevas arquitecturas

Sin embargo, científicos influyentes en inteligencia artificial, como Yann LeCun y Richard Sutton, creen que ampliar el tamaño de los modelos de lenguaje no conducirá a una inteligencia a nivel humano. 54 55 Creen que son necesarias nuevas arquitecturas o enfoques para la IAG.

¿Cómo podemos medir si hemos alcanzado la IA general?

Los grandes modelos de lenguaje superan nuevos récords cada semana, pero evaluarlos resulta difícil debido a problemas como la contaminación de datos y la falta de una definición científica aceptada para la inteligencia a nivel humano.

Estas preocupaciones se ven amplificadas por los hallazgos de investigaciones recientes. 56 que destacan que la ampliación de los modelos de aprendizaje automático no es un camino sostenible hacia un mejor rendimiento , especialmente en ámbitos científicos y de alto riesgo. Los autores demuestran que:

  • Los modelos LLM presentan exponentes de escalado muy bajos (~0,1) , lo que significa que incluso aumentos masivos en los datos o en la capacidad de cálculo producen ganancias de precisión minúsculas .
  • El poder de aprendizaje de los LLM proviene de su capacidad para producir resultados no gaussianos , pero esto también conlleva acumulaciones de errores y predicciones frágiles .
  • Las métricas tradicionales, como las funciones de pérdida, son pseudométricas que no se corresponden con la convergencia o la precisión reales .
  • Un régimen de IA degenerativa (IAD) puede surgir cuando los modelos, entrenados con datos sintéticos o repetitivos, acumulan errores más rápido de lo que pueden corregirse.

Estos hallazgos ponen en tela de juicio la fiabilidad de los parámetros de referencia estándar y subrayan la necesidad de estrategias de evaluación más diversas y en constante evolución.

Las métricas antiguas, como la prueba de Turing, no son rival para las máquinas actuales, y las nuevas métricas, como ARC-AGI, pueden carecer de la capacidad de generalización de los puntos de referencia más amplios.

Las métricas emergentes, como ARC-AGI, pretenden evaluar la abstracción y la generalización, pero aún pueden carecer de resistencia a la contaminación de datos o al sobreajuste.

Además, como destaca el artículo, incluso las puntuaciones de pérdida "buenas" pueden enmascarar catástrofes de información subyacentes debido a fluctuaciones no gaussianas e inestabilidades en el entrenamiento. 57

¿Cómo podemos hacer un seguimiento del progreso de los másteres en Derecho (LLM)?

Existen varios enfoques para realizar evaluaciones comparativas que permitan superar estos desafíos:

  • Preguntas de referencia que se actualizan con frecuencia. Ejemplo real: LiveBench
  • Utilización de conjuntos de validación para evitar la contaminación de datos: pruebas de rendimiento de AIMultiple, como la prueba de rendimiento AGI o ARC-AGI.

¿Qué enfoques, más allá de la evaluación comparativa, existen para determinar la IA general?

Existen indicadores potencialmente sólidos, aunque rezagados, del impacto de la IA, que pueden ayudar a identificar la IAG (Inglés General Informático).

Crecimiento económico

El director ejecutivo Satya Nadella afirma que un crecimiento del 10% en el mundo desarrollado indicaría una IAG (Ingeniería General Agrícola). 58 Sin embargo, su incentivo es tener una definición diferida de AGI ya que AGI pondría fin a la sociedad exclusiva de OpenAI y Microsoft. 59

Desempleo

Esperamos que AGI

En un mundo donde las máquinas son más inteligentes y eficientes que los humanos, no sería racional pagarle a una persona por sentarse frente a una computadora. Por lo tanto, prevemos que el empleo de cuello blanco se desplomará mientras que los humanos seguirán prosperando en trabajos en el mundo físico.

Los organismos gubernamentales que recopilan estadísticas laborales clasifican los empleos en categorías detalladas, lo que convierte al empleo de cuello blanco en un indicador fácil de rastrear.

Recopilamos datos de la Oficina de Estadísticas Laborales de EE. UU. sobre el empleo de trabajadores administrativos y de oficina correspondientes al período 2019-2024. 60 Para mayor claridad y coherencia, clasificamos a los trabajadores de cuello blanco en los siguientes grupos ocupacionales:

  • Ocupaciones de arquitectura e ingeniería
  • Ocupaciones relacionadas con las operaciones comerciales y financieras
  • Ocupaciones relacionadas con la informática y las matemáticas
  • Profesionales sanitarios y ocupaciones técnicas
  • Ocupaciones jurídicas
  • Ocupaciones en ciencias biológicas, físicas y sociales
  • Ocupaciones de gestión
  • Ocupaciones de apoyo administrativo y de oficina
  • Ventas y ocupaciones afines

Según nuestro análisis, la proporción de trabajadores administrativos con respecto al empleo total ha fluctuado entre el 45% y el 48% durante este período.

Si bien este rango sugiere una relativa estabilidad en la proporción de empleos de cuello blanco hasta el momento, no indica una tendencia a largo plazo, y prevemos cambios más pronunciados en los próximos años a medida que se aceleren la automatización y la adopción de la IA. Para obtener más predicciones sobre cómo la IA transformará los empleos de cuello blanco y de nivel inicial, consulte el artículo «Pérdida de empleos por IA» .

¿Deberíamos siquiera aspirar a la IA general?

Hay informáticos que advierten que centrarse en la IA general como objetivo final puede distorsionar la investigación en inteligencia artificial. 61 Las críticas incluyen: crear una ilusión de consenso, sobreajustar los puntos de referencia, ignorar los valores sociales arraigados, dejar que la publicidad dicte las prioridades, acumular una "deuda de generalidad" (posponer cuestiones clave de diseño) y excluir a las comunidades marginadas y a los investigadores con escasos recursos.

Para el progreso de la IA, sería mejor establecer objetivos específicos, medibles y transparentes que un objetivo vagamente definido como la IAG (Inglés General Agudo).

Razonamiento matemático detrás de las predicciones de la IA general

El razonamiento matemático es fundamental para comprender y predecir los plazos de la IA general. Muchas proyecciones se basan en tendencias cuantificables y modelos formales que orientan las expectativas sobre cuándo podría surgir la inteligencia artificial general.

Leyes de escala y crecimiento computacional

Un componente clave del razonamiento matemático consiste en analizar las leyes de escala . Estas leyes demuestran que el rendimiento del modelo mejora de forma predecible con más datos, parámetros y capacidad de cálculo.

El crecimiento anual constante de 4 a 5 veces en la capacidad de procesamiento para el entrenamiento de IA respalda las previsiones de que la IAG podría ser alcanzable en una o dos décadas, suponiendo que continúen las tendencias actuales.

Estas proyecciones se basan en ajustes empíricos a curvas de rendimiento y extrapolaciones, sustentadas en relaciones de ley de potencias, un concepto fundamental en la modelización matemática.

Pronóstico probabilístico

Los investigadores también aplican métodos probabilísticos a las predicciones sobre la IA general. Las encuestas suelen pedir a los expertos que estimen la probabilidad de que la IA general se desarrolle en años específicos, lo que genera distribuciones de probabilidad acumulativas.

Por ejemplo, una probabilidad del 50% para 2040 refleja un consenso en condiciones de incertidumbre, impulsado por una actualización de estilo bayesiano basada en el progreso observado de la IA.

Este enfoque de razonamiento matemático capta la incertidumbre de los expertos sin requerir fechas precisas, lo que permite una revisión continua a medida que se dispone de nuevos datos.

Fundamentos teóricos

Estas predicciones se basan en elementos teóricos del razonamiento matemático, incluida la tesis de Church-Turing, que implica que la cognición humana puede ser simulada por máquinas, y conceptos como la complejidad de Kolmogorov, que relaciona la inteligencia con la compresibilidad de la información.

Si bien estas teorías no garantizan la IA general, proporcionan un marco para reflexionar sobre su posibilidad y los requisitos computacionales que conlleva.

Más información sobre la inteligencia artificial general Intel

David Silver, científico investigador principal en DeepMind (Google)

Explica que la Inteligencia Artificial General (IAG) se refiere a sistemas de IA capaces de aprender y sobresalir en una amplia gama de tareas; al igual que los humanos que pueden convertirse en expertos en diversos campos como la ciencia, la música o los deportes.

A diferencia de la IA especializada, limitada a una sola función, la IAG aspira a reflejar la adaptabilidad humana y la capacidad general de resolución de problemas.

Señala que, si bien la IA general es un objetivo a largo plazo, alcanzar una inteligencia verdaderamente humana probablemente requerirá varios avances y se desarrollará gradualmente con el tiempo (véase el vídeo a continuación).

David Silver, de DeepMind, describe la IAG como una IA con una versatilidad similar a la humana en diversas tareas, y señala que requerirá múltiples avances y se desarrollará gradualmente con el tiempo.

Ilya Sutskever, cofundador y científico jefe de OpenAI

En la charla TED “El emocionante y peligroso viaje hacia la IAG”, explora el rápido progreso hacia la Inteligencia Artificial General (IAG).

Predice que la IA general podría surgir en los próximos 5 a 10 años, aunque reconoce la incertidumbre en este plazo.

Sutskever destaca tanto el inmenso potencial como los profundos riesgos de la IA general, haciendo hincapié en la necesidad de alinear su desarrollo con los valores humanos. A pesar de los desafíos, se muestra optimista respecto a que la humanidad pueda guiar con seguridad esta poderosa tecnología (véase el vídeo a continuación).

En su charla TED, Ilya Sutskever predice que la IA general podría llegar en un plazo de 5 a 10 años, haciendo hincapié en su potencial transformador y la necesidad urgente de alinearla con los valores humanos para garantizar un futuro seguro.

Ray Kurzweil, científico informático y emprendedor.

Reflexiona sobre más de seis décadas de progreso en inteligencia artificial, repasando la capacidad de la humanidad para construir herramientas que mejoran la inteligencia, desde implementos primitivos hasta grandes modelos de lenguaje.

También predice que la Inteligencia Artificial General llegará en 2029, lo que conducirá a la singularidad tecnológica en 2045. Destaca los avances exponenciales en la capacidad de computación, la medicina y la biotecnología.

También pronostica avances como curas generadas por IA, ensayos clínicos digitales y una velocidad de escape de la longevidad, donde el progreso científico podría extender la vida indefinidamente (vea el video a continuación).

En su charla TED, Ray Kurzweil predice la llegada de la IA general para 2029 y una singularidad tecnológica para 2045, imaginando un futuro donde los avances exponenciales de la IA revolucionarán la medicina y prolongarán la longevidad humana.

Yann LeCun, ganador del premio Turing

Descubre por qué los másteres en Derecho (LLM) no pueden proporcionarnos una inteligencia a nivel humano y conoce los últimos enfoques de IA para lograrlo:

Conclusión

Las predicciones sobre la IA general han cambiado notablemente en los últimos años. Si bien estudios anteriores situaban su llegada más cerca de 2060, las previsiones recientes, especialmente las de los emprendedores, sugieren que podría surgir ya entre 2026 y 2035.

Este cambio se ve impulsado por los rápidos avances en los modelos de lenguaje a gran escala y el creciente poder de procesamiento. Sin embargo, a pesar de estos avances, la IA actual aún carece de la flexibilidad y la autonomía propias de la inteligencia humana.

Los expertos siguen divididos sobre cómo se logrará la IA general; algunos creen que bastará con ampliar las arquitecturas actuales, mientras que otros argumentan que se necesitan nuevos métodos.

Entre los principales desafíos se encuentran la gran demanda de recursos, la falta de claridad en los parámetros de referencia y las preocupaciones éticas aún sin resolver. La IA general puede estar más cerca que nunca, pero su llegada aún depende de avances técnicos y una supervisión rigurosa.

Preguntas frecuentes

La singularidad es un evento hipotético que se espera que dé como resultado un rápido aumento de la inteligencia artificial.

Para alcanzar la singularidad, necesitamos un sistema que combine el pensamiento a nivel humano con una velocidad sobrehumana y una memoria casi perfecta y de rápido acceso.

La singularidad también debería dar lugar a la consciencia artificial, pero dado que la consciencia no está bien definida, no podemos ser precisos al respecto. Un sistema así podría auto-mejorarse y superar las capacidades humanas.

Si bien el término singularidad es relativamente antiguo, en la actualidad se utilizan con mayor frecuencia los conceptos de IAG y, sobre todo, de superinteligencia para describir el mismo fenómeno.

La Inteligencia Artificial General (IAG) se refiere a un tipo de IA que puede comprender, aprender y aplicar conocimientos en una amplia gama de tareas intelectuales a un nivel igual o superior al de los humanos.

A diferencia de la IA estrecha, diseñada para tareas específicas como la traducción de idiomas o el reconocimiento de imágenes, la IAG poseería capacidades cognitivas generalizadas, lo que le permitiría razonar, planificar y adaptarse a situaciones desconocidas.

El desarrollo de la IA general sigue siendo un objetivo de investigación importante y un tema de debate ético y filosófico.

La superinteligencia denota un intelecto que supera significativamente a las mejores mentes humanas en prácticamente todos los ámbitos, incluyendo la creatividad, la resolución de problemas y la comprensión social.

Representa una etapa posterior a la IA general, donde un sistema artificial podría superar a los humanos en cualquier actividad intelectual significativa.

Este concepto plantea cuestiones fundamentales sobre el control, la seguridad y las implicaciones a largo plazo para el papel de la humanidad en un mundo dominado por una inteligencia superior.

La Inteligencia Artificial Avanzada (AMI, por sus siglas en inglés) implica sistemas de IA competentes que se aproximan o alcanzan una inteligencia casi general.

Si bien es posible que aún no posean la flexibilidad y la autoconciencia completas asociadas con la IAG, los sistemas AMI demuestran razonamiento, aprendizaje y adaptabilidad avanzados en diversas tareas.

El término se utiliza a menudo para referirse a sistemas de IA que superan las capacidades actuales de la IA especializada, pero que se mantienen por debajo del umbral de la inteligencia general completa.

Enlaces de referencia

1.
[2311.02462] Levels of AGI for Operationalizing Progress on the Path to AGI
2.
2023 Expert Survey on Progress in AI [AI Impacts Wiki]
3.
2022 Expert Survey on Progress in AI – AI Impacts
4.
[2206.04132] Forecasting AI Progress: Evidence from a Survey of Machine Learning Researchers
5.
When Will We Reach the Singularity? - A Timeline Consensus from AI Researchers (AI FutureScape 1 of 6)
6.
AI timelines: What do experts in artificial intelligence expect for the future? - Our World in Data
7.
[1705.08807] When Will AI Exceed Human Performance? Evidence from AI Experts
8.
https://nickbostrom.com/papers/survey.pdf
9.
https://sethbaum.com/ac/2011_AI-Experts.pdf
10.
track record
11.
Update to Samotsvety AGI timelines — EA Forum
12.
Samotsvety's AI risk forecasts — EA Forum
13.
AGI When? [High Quality Turing Test] | Manifold
14.
When will OpenAI achieve AGI? Odds & Predictions
15.
OpenAI announces it has achieved AGI before 2027? Predict... | Polymarket
Polymarket
16.
When will the first weakly general AI system be devised, tested, and publicly announced?
17.
When will an AI first pass a long, informed, adversarial Turing test?
18.
When Will the First General AI Be Announced?
19.
As of July 1, 2022, when will top forecasters expect the first Artificial General Intelligence to be developed and demonstrated?
20.
The arrival of AGI | Shane Legg (co-founder of DeepMind) - YouTube
21.
The Day After AGI > World Economic Forum Annual Meeting | World Economic Forum
22.
Dr. Eric Schmidt - YouTube
23.
Tesla's Musk predicts AI will be smarter than the smartest human next year | Reuters
Reuters
24.
Nvidia CEO says AI could pass human tests in five years | Reuters
Reuters
25.
The Singularity Is Near: When Humans Transcend Biology: Kurzweil, Ray: 8601405784551: Amazon.com: Books
26.
If Ray Kurzweil Is Right (Again), You’ll Meet His Immortal Soul in the Cloud | WIRED
WIRED
27.
The "Father of Artificial Intelligence" Says Singularity Is 30 Years Away
Futurism
28.
The brief history of artificial intelligence: the world has changed fast — what might be next? - Our World in Data
29.
The "Father of Artificial Intelligence" Says Singularity Is 30 Years Away
Futurism
30.
https://aaai.org/wp-content/uploads/2025/03/AAAI-2025-PresPanel-Report-Digital-3.7.25.pdf
31.
OpenAI Ramps Up Robotics Work in Race Toward AGI | WIRED
WIRED
32.
[2303.12712] Sparks of Artificial General Intelligence: Early experiments with GPT-4
33.
https://wp.technologyreview.com/wp-content/uploads/2025/08/MITTR_ArmEBrief_V12_final.pdf
34.
AGI's Last Bottlenecks | AI Frontiers
AI Frontiers
35.
https://www.agidefinition.ai/paper.pdf
36.
Geoff Hinton: On Radiology - YouTube
37.
Artificial general intelligence - Wikipedia
Contributors to Wikimedia projects
38.
Artificial general intelligence - Wikipedia
Contributors to Wikimedia projects
39.
A guide to why advanced AI could destroy the world | Vox
Vox
40.
Brain–computer interface - Wikipedia
Contributors to Wikimedia projects
41.
Data Companies Hit by AI Selloff Push Back on Claude Threat
The Wall Street Journal
42.
Advanced version of Gemini with Deep Think officially achieves gold-medal standard at the International Mathematical Olympiad — Google DeepMind
Google DeepMind
43.
Training compute of frontier AI models grows by 4-5x per year | Epoch AI
44.
AlphaGo Zero - Wikipedia
Contributors to Wikimedia projects
45.
Moore's law - Wikipedia
Contributors to Wikimedia projects
46.
I think the phrase AGI should be retired and replaced by "human-level AI". There is no such thing as AGI. Even human intelligence is very specialized. We do not realize that human intelligence is… | Yann LeCun | 125 comments
47.
A talk I gave at MIT recently. | Yann LeCun | 139 comments
48.
Subscribe to read
Financial Times
49.
Measuring the predictability of life outcomes with a scientific mass collaboration | PNAS
50.
IQ is largely a pseudoscientific swindle (Argument Closed) | by Nassim Nicholas Taleb | INCERTO | Medium
INCERTO
51.
ScienceDirect
52.
https://arxiv.org/pdf/2503.14499
53.
Can AI scaling continue through 2030? | Epoch AI
54.
Unsupported browser
55.
Richard Sutton – Father of RL thinks LLMs are a dead end - Dwarkesh Podcast | Podcast on Spotify
56.
https://www.arxiv.org/pdf/2507.19703
57.
https://www.arxiv.org/pdf/2507.19703
58.
Inside Microsoft’s AI Bet: Satya Nadella on Leadership, Innovation and the Future - YouTube
59.
OpenAI, Microsoft Rift Hinges on How Smart AI Can Get - WSJ
The Wall Street Journal
60.
Occupational Employment and Wage Statistics (OEWS) Tables : U.S. Bureau of Labor Statistics
61.
https://arxiv.org/abs/2502.03689
Cem Dilmegani
Cem Dilmegani
Analista principal
Cem ha sido el analista principal de AIMultiple desde 2017. AIMultiple informa a cientos de miles de empresas (según similarWeb), incluyendo el 55% de las empresas Fortune 500 cada mes. El trabajo de Cem ha sido citado por importantes publicaciones globales como Business Insider, Forbes, Washington Post, firmas globales como Deloitte, HPE y ONG como el Foro Económico Mundial y organizaciones supranacionales como la Comisión Europea. Puede consultar más empresas y recursos de renombre que citan a AIMultiple. A lo largo de su carrera, Cem se desempeñó como consultor, comprador y emprendedor tecnológico. Asesoró a empresas en sus decisiones tecnológicas en McKinsey & Company y Altman Solon durante más de una década. También publicó un informe de McKinsey sobre digitalización. Lideró la estrategia y adquisición de tecnología de una empresa de telecomunicaciones, reportando directamente al CEO. Asimismo, lideró el crecimiento comercial de la empresa de tecnología avanzada Hypatos, que alcanzó ingresos recurrentes anuales de siete cifras y una valoración de nueve cifras partiendo de cero en tan solo dos años. El trabajo de Cem en Hypatos fue reseñado por importantes publicaciones tecnológicas como TechCrunch y Business Insider. Cem participa regularmente como ponente en conferencias internacionales de tecnología. Se graduó en ingeniería informática por la Universidad de Bogazici y posee un MBA de la Columbia Business School.
Ver perfil completo
Investigado por
Sıla Ermut
Sıla Ermut
Analista de la industria
Sıla Ermut es analista de la industria en AIMultiple, especializada en marketing por correo electrónico y vídeos de ventas. Anteriormente trabajó como reclutadora en empresas de gestión de proyectos y consultoría. Sıla es licenciada en Psicología Social y en Relaciones Internacionales.
Ver perfil completo

Comentarios 12

Comparte tus ideas

Tu dirección de correo electrónico no será publicada. Todos los campos son obligatorios.

0/450
Harper Ford
Harper Ford
Sep 07, 2023 at 15:32

Does anyone know when this article was first published? I want to do a comparison of predictions vs reality for a project.

Bardia Eshghi
Bardia Eshghi
Sep 11, 2023 at 05:04

Hi Harper. The article was first published in mid-2017. But it's undergone constant updates since then to reflect the latest developments. Good luck with your project and let us know if we can help further!

Yuvan Mohan
Yuvan Mohan
Apr 20, 2022 at 14:28

I think we are far away from the point of singularity. It is not only that intelligence is multi dimensional, but also what is deemed as being intelligent (e.g., IQ, EQ) changes with time. People also change with time. So what is that point of singularity may change.

Bardia Eshghi
Bardia Eshghi
Aug 23, 2022 at 07:52

Hello, Yuvan. Thank you for your feedback.

David Wood
David Wood
Mar 26, 2022 at 22:50

Hello, Achieving the singularity from where we are now is relatively a simple jump, it is just time and advancements combined with a team somewhere who is dedicated to it and has the money to pull it off. The missing part of the equation would be asking the question "what is consciousness?" and understanding that. Then, understanding how to model that with non-biological machinery even at small levels, like modeling the consciousness of an amoeba or more advanced things like snakes and squirrels. Then if we know for certain what it is and how to model it, just run an adaptive evolution algorithm on itself, modeling out all of the processes in human cognition until it can beat them everywhere. Then, allow it to simply rebuild itself to continuously improve. The problem currently preventing this, is that human beings have no idea what consciousness is at all. It is a great mystery. One person thinks it is in the brain. Another thinks the brain is like a tuning fork, channeling the consciousness from somewhere else. It is a great mystery in science. When this problem is solved, then machine consciousness can be built most likely, depending on what it actually is. If consciousness is something weird, such as "human beings have spirits in other dimensions that are planned for their bodies by a supreme being. The brain creates a quantum resonant frequency that links it together with this already conscious entity, and then several universes are interacting simultaneously to create the actual experience of being self aware and sentient" well then, it will be very difficult to design a machine that does that same thing. It is more likely that we figure out how to model the resonance in the brain and then transfer an already existing consciousness of an animal or a human into a machine and keep it going, if that even makes any sense at all. However, maybe that's not how it works, and it is something simple like the holographic connection of energy patterns fluctuating in the mind - this can be modeled and a machine can be built that does these sorts of things with much more efficiency. Right now the mystery of the problem is consciousness itself. Hope that helps. I really enjoyed the robot soccer tournament. I also feel like a superhero at soccer now.

Grant Castillou
Grant Castillou
Mar 15, 2022 at 17:28

It's becoming clear that with all the brain and consciousness theories out there, the proof will be in the pudding. By this I mean, can any particular theory be used to create a human adult level conscious machine. My bet is on the late Gerald Edelman's Extended Theory of Neuronal Group Selection. The lead group in robotics based on this theory is the Neurorobotics Lab at UC at Irvine. Dr. Edelman distinguished between primary consciousness, which came first in evolution, and that humans share with other conscious animals, and higher order consciousness, which came to only humans with the acquisition of language. A machine with primary consciousness will probably have to come first. The thing I find special about the TNGS is the Darwin series of automata created at the Neurosciences Institute by Dr. Edelman and his colleagues in the 1990's and 2000's. These machines perform in the real world, not in a restricted simulated world, and display convincing physical behavior indicative of higher psychological functions necessary for consciousness, such as perceptual categorization, memory, and learning. They are based on realistic models of the parts of the biological brain that the theory claims subserve these functions. The extended TNGS allows for the emergence of consciousness based only on further evolutionary development of the brain areas responsible for these functions, in a parsimonious way. No other research I've encountered is anywhere near as convincing. I post because on almost every video and article about the brain and consciousness that I encounter, the attitude seems to be that we still know next to nothing about how the brain and consciousness work; that there's lots of data but no unifying theory. I believe the extended TNGS is that theory. My motivation is to keep that theory in front of the public. And obviously, I consider it the route to a truly conscious machine, primary and higher-order. My advice to people who want to create a conscious machine is to seriously ground themselves in the extended TNGS and the Darwin automata first, and proceed from there, by applying to Jeff Krichmar's lab at UC Irvine, possibly. Dr. Edelman's roadmap to a conscious machine is at https://arxiv.org/abs/2105.10461

Isaac
Isaac
Nov 06, 2021 at 07:01

I think Patrick Winston was joking when he said 20 years. From the linked quote: "I was recently asked a variant on this question. People have been saying we will have human-level intelligence in 20 years for the past 50 years. My answer: I’m ok with it. It will be true eventually." "Forced into a corner, with a knife at my throat, I would say 20 years, and I say that fully confident that it will be true eventually."

Cem Dilmegani
Cem Dilmegani
Nov 06, 2021 at 11:22

Great point! We should have read the source more carefully. I tried to explain his point better in the article.

Elisa
Elisa
Aug 31, 2021 at 05:52

I have the impression that the nerds that make this kind of prediction (replicate human brain) know a whole lot about computer programming but are ignorant about neuroscience/psychology. We are nor even scratching the surface about primary phenomenon, such as counsciousness / unconsciousness. How do you claim that you can replicate something that we are still far from understanding how it works?

Cem Dilmegani
Cem Dilmegani
Sep 19, 2021 at 13:41

Thank you for the comment. True, better understanding of the mind would help AGI research.

Lulu
Lulu
Aug 25, 2021 at 15:47

mmm... I'm not sure we can reach to this point: "benevolence of intelligent machines" Emotions and Feelings are there to guide our actions, to improve ourselves and to make a better world, can we make a machine to feel guilt of being smarter than us??

Michael Hannon
Michael Hannon
Apr 02, 2021 at 02:15

Saying human intelligence is fixed ignores that as we learn more about how the human brain works we may learn how to expand its capability's ie through some form of enhanced learning, targeted drugs, gene therapy, electro stimulation and not just direct brain computer connections being the only potential for doing this. More so currently hampered by our lack of understanding even the language you use has an effect on your cognitive ability's its one of the reasons deaf people were called dumb was the occurrence of language deprivation and how it negatively effected neurodevelopment it was a major problem when deaf children were forced to lip read instead of using sign language . But we will need more powerful AIs to achieve an understanding of our brains

Vyn
Vyn
Jan 09, 2021 at 16:07

People who say AGI will be here in 2060 are idiots and don't understand the flow of technology you'll see

Chris
Chris
May 24, 2021 at 15:45

@Vyn What do you mean? Do you mean to say it will take way before or way after 2060?

Cem Dilmegani
Cem Dilmegani
Jan 10, 2021 at 16:05

Thanks! I'll be quite happy if I get to see 2060

Kutay Tezcan
Kutay Tezcan
Aug 30, 2020 at 13:33

Intelligent doesn't solve our all problems maybe yes but certainly its essential and more intelligent you are faster you solve problems. If you are a chimp you can not even pour water to a glass. You do not even know what glass is used for. Yes if you are human being you still need to get up and grab the glass but intellegence is essential. I do not think human brain is impossible to create in a lab. I think earth is a lab. Anything found in nature can be replicate in the lab.

Magnus RC Wootton
Magnus RC Wootton
Aug 22, 2020 at 21:46

if P=NP then the singularity may happen also. Saying the human brain is impossible to recreate I dont agree with, but to say its intractable probably is approximately true. So P=NP, if you could solve that mystery (which is the millenial prize funnily) with an intractable calculation, that could make all the magic happen as well.

Cem Dilmegani
Cem Dilmegani
Aug 23, 2020 at 07:44

Thanks for the comment. Most computer scientists working on AI or machine learning would agree that it is possible to replicate human brain's capabilities.

Jannes
Jannes
May 16, 2019 at 07:40

The claim that "humans contribute most to the biomass" on the planet is likely to be wrong. Check out this paper for a careful estimation: https://www.pnas.org/content/115/25/6506

AIMultiple
AIMultiple
May 27, 2019 at 17:42

Thank you! That was insightful. Biology is not my strong suit, I should stick to computer science.

B
B
Jul 01, 2020 at 09:00

@AIMultiple Humble response, and great article. Thanks a ton :)

Cem Dilmegani
Cem Dilmegani
Jul 20, 2020 at 20:29

@B Thanks!