L'intelligence artificielle générale (IAG) se définit par un système d'IA qui égale les capacités cognitives humaines dans toutes les tâches. Voici quelques réponses rapides sur l'IAG, basées sur les prédictions disponibles :
L'intelligence artificielle générale (IAG) ou la singularité se produira-t-elle ? Selon la plupart des experts en IA, l'IAG est inévitable .
Quand l'avènement de la singularité/de l'intelligence artificielle générale (IAG) se produira-t-il ? De récentes enquêtes auprès de chercheurs en IA prévoient l'IAG dans les années 2040. Selon les prévisions de la communauté scientifique , elle devrait se produire autour des années 2030. Les entrepreneurs, quant à eux, anticipent son apparition dans quelques années.
Nous avons analysé les prédictions de 9 800 scientifiques spécialisés en IA, d’entrepreneurs de premier plan et de la communauté concernant l’évolution de l’IA générale :
Chronologie de la Intelligence générale artificielle
Le calendrier ci-dessus décrit l'année prévue de la singularité, sur la base des informations recueillies lors de 8 enquêtes et des réponses de 9 800 chercheurs en IA, scientifiques et participants aux marchés de prédiction :
Comme vous pouvez le constater ci-dessus, les personnes interrogées s'attendent de plus en plus à ce que la singularité se produise plus tôt que prévu.
Voici comment nous avons créé ce graphique :
- Pour représenter graphiquement l'année de développement prévue de l'IA générale, nous avons utilisé la moyenne pondérée des prévisions pour chaque année au sein de chaque catégorie. Par exemple, s'il existait plusieurs prévisions du marché des prédictions pour 2022, nous avons calculé leur moyenne pondérée et l'avons représentée graphiquement.
- Pour les prédictions individuelles, nous avons inclus les prévisions de 15 experts en IA.
- Pour les prédictions scientifiques, nous avons recueilli les résultats d'enquêtes provenant de 8 articles évalués par des pairs qui fournissent des échéanciers pour l'AGI.
- Pour les prévisions des marchés et les analyses communautaires, nous avons utilisé :
- Plus de 1 100 prédictions provenant de Manifold, Kalshi et Polymarket, qui sont des marchés de prédiction en ligne où les participants spéculent sur la probabilité et le calendrier d'événements futurs en vue de réaliser des profits ou d'améliorer leur réputation.
- Résultats agrégés de 8 experts en prévision Samotsvety. La prévision Samotsvety utilise des méthodes quantitatives pour générer des prédictions probabilistes sur des événements du monde réel.
- 3 290 prédictions soumises en 2020 et 2022 sur la plateforme publique Metaculus.
Autres questions clés sur l'AGI
Quel est notre statut actuel concernant AGI ?
Bien que l'IA spécialisée surpasse les humains dans des tâches spécifiques, il n'existe pas de machine dotée d'une intelligence universelle. Certains chercheurs estiment que les grands modèles de langage démontrent des capacités généralistes émergentes. 1 Selon notre référentiel AGI , les machines sont loin de générer de la valeur économique de manière autonome.
Comment pouvons-nous atteindre l'AGI ?
Soit en augmentant la puissance de calcul et le volume de données des architectures actuelles comme les transformateurs, soit en inventant de nouvelles approches. Il n'existe pas encore de consensus scientifique sur la méthode pour parvenir à l'intelligence artificielle générale (IAG) ni sur celle permettant de la valider.
Vous pouvez consulter ci-dessous les études et les prédictions qui composent cette chronologie, ou passer directement à la compréhension de la singularité .
Résultats des principales enquêtes auprès des chercheurs en IA
Nous avons examiné les résultats de 8 enquêtes menées auprès de plus de 4 900 chercheurs et experts en IA, dans lesquelles ils ont estimé quand l’IA générale/la singularité pourrait se produire.
Bien que les prévisions varient, la plupart des études indiquent une probabilité de 50 % d'atteindre l'intelligence artificielle générale (IAG) entre 2040 et 2061, certaines estimant même que la superintelligence pourrait suivre dans les décennies qui viennent.
Enquête auprès d'experts de 2023 sur les progrès de l'IA
En octobre, AI Impacts a interrogé 2 778 chercheurs en IA sur la date d'avènement possible de l'intelligence artificielle générale (IAG). Ce sondage reprenait des questions quasi identiques à celles du sondage de 2022. D'après les résultats, on estime que cette intelligence artificielle de haut niveau sera disponible d'ici 2040 . 2
Enquête auprès d'experts de 2022 sur les progrès de l'IA
L'enquête a été menée auprès de 738 experts ayant publié des articles aux conférences NIPS et ICML de 2021. Les spécialistes de l'IA estiment à 50 % la probabilité de voir apparaître une intelligence artificielle de haut niveau d'ici 2059. 3
Les experts ont également prédit que le coût du matériel, les progrès algorithmiques et le travail sur les ensembles d'entraînement seraient les facteurs les plus importants du progrès de l'IA.
Enquête prévisionnelle sur les progrès de l'IA en 2019
Baobao Zhang a interrogé 296 experts en IA, leur demandant de prédire quand les machines surpasseraient un travailleur humain moyen dans l'exécution de plus de 90 % des tâches économiquement pertinentes. La moitié des répondants ont estimé que cela se produirait avant 2060 . 4
Enquête auprès d'experts en IA sur le calendrier de l'AGI en 2019
Les prédictions de 32 experts en IA sur le calendrier de l'AGI 5 sont :
- 45 % des personnes interrogées prévoient une date antérieure à 2060.
- 34 % des participants ont prédit une date postérieure à 2060.
- 21 % des participants ont prédit que la singularité ne se produirait jamais.
Enquête sur l'impact potentiel de l'IA sur les suppressions d'emplois en 2018
Ross Gruetzemacher a interrogé 165 experts en IA afin d'évaluer l'impact potentiel de l'IA sur les suppressions d'emplois. Il leur a été demandé d'estimer à quel moment les systèmes d'IA seraient capables d'effectuer 99 % des tâches actuellement rémunérées par des humains, à un niveau égal ou supérieur à celui d'un humain moyen.
La moitié des personnes interrogées prévoyaient que cette étape serait franchie avant 2068 , tandis que 75 % anticipaient qu'elle se produirait au cours des 100 prochaines années. 6
Enquête menée en 2017 auprès d'experts en IA ayant participé aux conférences NIPS et ICML de 2015
En mai 2017, 352 experts en IA ayant publié aux conférences NIPS et ICML de 2015 ont été interrogés. 7
D'après les résultats d'un sondage, les experts estiment à 50 % la probabilité que l'intelligence artificielle générale (IAG) se produise d'ici 2060. Cela dit, les avis divergent sensiblement selon les régions géographiques.
- Les répondants asiatiques prévoient que le revenu brut ajusté (RBA) sera atteint dans 30 ans.
- Les Nord-Américains s'attendent à ce que cela se produise dans 74 ans.
Parmi les fonctions professionnelles importantes qui devraient être automatisées d'ici 2030, on peut citer les agents de centres d'appels, les chauffeurs routiers et les vendeurs au détail.
Progrès futurs en intelligence artificielle Intelenquête en 2012/2013
Vincent C. Muller, président de l'Association européenne pour les systèmes cognitifs, et Nick Bostrom, de l'Université d'Oxford, auteurs de plus de 200 articles sur la superintelligence et l'intelligence artificielle générale (IAG), ont mené une enquête auprès de chercheurs en IA. 550 participants ont répondu à la question : Quand l'IAG est-elle susceptible de se concrétiser ? 8
D'après les résultats :
- Les experts en IA interrogés estiment que l'IA générale apparaîtra probablement (plus de 50 % de chances) entre 2040 et 2050 et qu'il est fort probable (90 % de chances) qu'elle apparaisse d'ici 2075.
- Une fois l'AGI atteinte, la plupart des experts pensent qu'elle évoluera vers la super-intelligence relativement rapidement, dans un délai allant de 2 ans (peu probable, 10 %) à environ 30 ans (forte probabilité, 75 %).
Enquête de 2009 auprès d'experts en IA participant à la conférence AGI-09
D'après les résultats d'une enquête menée auprès de 21 experts en IA participant à la conférence AGI-09, l'intelligence artificielle générale (IAG) devrait apparaître aux alentours de 2050 , voire plus tôt. 9 Vous pouvez voir ci-dessous leurs estimations concernant des réalisations spécifiques en matière d'IA : réussir le test de Turing, réussir la troisième année, réaliser des percées scientifiques dignes d'un prix Nobel et atteindre une intelligence surhumaine.
Figure 1 : Résultats de l'enquête distribuée aux participants de la conférence Artificial General Intelligence 2009 (AGI-09).
Perspectives de la communauté
Nous avons également évalué les prévisions de Samotsvety Forecasting et de la communauté Metaculus concernant l'AGI, ainsi que les résultats du marché des prédictions de Manifold, Kalshi et Polymarket :
Prévisions de Samotsvety
Samotsvety Forecasting est une équipe de prévisionnistes qui réalise des prédictions probabilistes sur des événements du monde réel, notamment en géopolitique, en technologie et en risques globaux, en utilisant un raisonnement structuré et des méthodes quantitatives. L'équipe affiche d'excellents résultats sur les principales plateformes et compétitions de prévision (par exemple, INFER/CSET-Foretell), où sa précision est mesurée à l'aide de métriques de notation formelles telles que le score Brier. 10
En janvier 2026, l'équipe a mis à jour ses prévisions concernant l'AGI avec l'aide de 8 prévisionnistes. 11 Voici les résultats agrégés :
- 10 % de chances d'atteindre l'IA générale en 2026
- 50 % de chances d'atteindre l'IA générale d'ici 2041
- Il y a 90 % de chances que nous atteignions l'intelligence artificielle générale d'ici 2164.
Dans une prévision antérieure datant de 2022, l'équipe estimait à 32 % la probabilité d'une intelligence artificielle générale (IAG) d'ici 20 ans (vers 2042) et à 73 % d'ici 2100 , des chiffres inférieurs à leurs projections actuelles. 12
Marché multiple
En janvier 2026, plus de 1 100 contributeurs du marché Manifold prévoyaient que l'année où une IA réussirait pour la première fois un « test de Turing adverse de haute qualité » serait 2035 . 13
Marché de prédiction de Kalshi
Les contributeurs du marché de prédiction Kalshi estimaient qu'il y avait 40 % de chances que OpenAI atteigne l'AGI d'ici 2030 en janvier 2026. 14
Polymarket
Les résultats des prévisions de Polymarket en janvier 2026 indiquaient qu'il y avait 9 % de chances que OpenAI atteigne l'AGI d'ici 2027 . 15
Meta Prédictions de la communauté Culus
En février 2026 :
- 1 700 participants ont répondu à la question « Quand le premier système d'IA faiblement général sera-t-il conçu, testé et annoncé publiquement ? » et la prédiction est le 21 février 2028 . 16
- 178 participants ont répondu à la question « Quand une IA réussira-t-elle pour la première fois un test de Turing long, informé et adverse ? » et leur prédiction est le 22 avril 2029. 17
- 1 800 participants ont répondu à la question « Quand le premier système d’IA générale sera-t-il conçu, testé et annoncé publiquement ? » et leur prédiction est avril 2033. 18
En 2022, 81 participants ont répondu à la question « Quand les meilleurs prévisionnistes prévoient-ils que la première intelligence artificielle générale Intel sera développée et démontrée ? » et leur prédiction était 2035 . 19
Points de vue d'entrepreneurs en IA et de chercheurs indépendants
Les entrepreneurs du secteur de l'IA font également des estimations sur la date à laquelle nous atteindrons la singularité, et ils sont plus optimistes que les chercheurs. Cela n'est pas surprenant, car ils profitent de l'intérêt croissant pour l'IA.
Leurs opinions divergent quant à la rapidité et à la voie de son développement. Amodei (OpenAI) prévoit l'avènement de l'IA générale à court terme grâce à des progrès rapides et auto-entretenus, tandis que Hassabis (DeepMind) la juge plausible mais reste prudent, évoquant les défis non résolus liés à la créativité scientifique et à l'amélioration autonome.
Voici les prédictions de 15 des entrepreneurs et chercheurs en IA les plus éminents :
- Shane Legg, cofondateur de DeepMind Technologies, définit l'IA minimale comme un agent artificiel capable d'accomplir de manière fiable l'ensemble des tâches cognitives qu'un humain moyen peut réaliser, sans commettre d'erreurs surprenantes si une personne était confrontée à la même tâche. En janvier 2026, il prévoyait une probabilité de 50 % que l'IA minimale devienne réalité d'ici 2028 .
- Selon Legg, atteindre une intelligence artificielle générale (IAG) minimale ne signifie pas que nous comprenons pleinement ni que nous pouvons reproduire les formes les plus élevées d'intelligence humaine, telles que les grandes découvertes scientifiques ou les réalisations artistiques. L'IAG complète ne sera atteinte que lorsque l'IA pourra égaler tout le spectre de la cognition humaine. 20
- Dario Amodei, PDG de Anthropic, a exprimé sa grande confiance quant à l'avènement prochain de systèmes d'intelligence artificielle générale (IAG) lors du Forum économique mondial de Davos de 2026. Il a déclaré que l'IAG devrait se concrétiser d'ici quelques années ( 2027), voire plus tôt que prévu.
- Il soutient que les progrès rapides en matière de codage et d'automatisation de la recherche en IA sont essentiels, permettant aux systèmes d'IA de gérer la plupart des tâches d'ingénierie logicielle de bout en bout et d'accélérer leur propre développement grâce à des boucles de rétroaction.
- Bien qu'il reconnaisse des contraintes telles que la disponibilité du matériel et le temps de formation, il juge improbable un calendrier beaucoup plus long et anticipe une accélération rapide une fois ces boucles matures. 21
- Lors du même événement en 2026, Demis Hassabis, fondateur de DeepMind, a maintenu une perspective plus prudente, réitérant une estimation d'environ 50 % de chances d'atteindre l'AGI d'ici la fin de la décennie (2030).
- Hassabis reconnaît que les progrès sont rapides dans des domaines vérifiables comme le codage et les mathématiques, mais souligne que la découverte scientifique et le raisonnement créatif restent plus difficiles.
- Il souligne les limites non résolues dans la génération de nouvelles questions et théories et exprime une incertitude quant à l'auto-amélioration entièrement autonome, en particulier dans des domaines complexes du monde réel, ce qui, selon lui, rend les échéanciers de l'AGI moins certains.
- En combinant les progrès de l'IA dans le raisonnement, la programmation et les mathématiques, Eric Schmidt, ancien PDG de Google, estime que nous nous dirigeons vers une intelligence artificielle générale Intel d'ici 3 à 5 ans (comme indiqué en avril 2025). 22
- Elon Musk prévoit le développement d'une intelligence artificielle plus intelligente que les humains les plus intelligents d'ici 2026 . 23
- En février 2025, l’entrepreneur et investisseur Masayoshi Son l’a prédit dans 2 à 3 ans (c’est-à-dire 2027 ou 2028 ).
- En mars 2024, le PDG de Nvidia, Jensen Huang, prévoyait que d'ici cinq ans, l'IA égalerait ou surpasserait les performances humaines sur n'importe quel test : 2029. 24
- Louis Rosenberg, informaticien, entrepreneur et écrivain, d'ici 2030 .
- Ray Kurzweil, informaticien, entrepreneur et auteur de 5 best-sellers nationaux, dont La Singularité est proche : Auparavant 2045, 25 , en 2024, 2032 . 26
- En 2023, Hinton estimait que cela pourrait prendre entre 5 et 20 ans. 27
- Sam Altman, PDG de OpenAI, d'ici 2035. Il a mentionné « quelques milliers de jours » en 2024 dans son blog « The Intelligence Age ».
- Ajeya Cotra, chercheur en IA, a analysé la croissance des calculs d'entraînement et a estimé à 50 % la probabilité qu'une IA dotée de capacités semblables à celles des humains émerge d'ici 2040 . 28
- Patrick Winston, professeur au MIT et directeur du laboratoire d'intelligence artificielle du MIT de 1972 à 1997, a mentionné 2040, soulignant que même s'il s'agit d'une date qui se produirait, il est difficile de l'estimer .
- Jürgen Schmidhuber, cofondateur de la société d'IA NNAISENSE et directeur du laboratoire suisse d'IA IDSIA, d'ici 2050. 29
Autres commentaires et développements concernant l'AGI
Panel présidentiel AAAI 2025 sur l'avenir de la recherche en IA
475 personnes, principalement issues du monde universitaire (67 %) et d'Amérique du Nord (53 %), ont été interrogées sur les progrès de l'IA. Bien que le sondage ne portât pas sur un calendrier pour l'IA générale, 76 % des répondants ont indiqué qu'une généralisation des approches actuelles en IA ne mènerait probablement pas à l'IA générale. 30
OpenAI développe ses ambitions en robotique
OpenAI renforce son engagement dans la robotique afin de développer l'intelligence artificielle générale. L'entreprise recrute des spécialistes des systèmes robotiques humanoïdes et constitue une équipe chargée de concevoir des algorithmes permettant aux robots d'apprendre et d'agir de manière autonome dans le monde physique.
Cela marque un tournant par rapport à l'orientation précédente de OpenAI, axée sur les modèles de langage et d'images. L'entreprise vise désormais à lier le raisonnement avancé à l'interaction physique, ce qui laisse penser qu'elle considère la robotique comme une étape essentielle vers l'expérimentation et la réalisation d'une intelligence artificielle générale.
Contexte et implications
Après avoir dissous sa première équipe de robotique vers 2020, OpenAI reprend activement ses activités de développement dans ce domaine. Des embauches récentes et des partenariats potentiels témoignent d'un regain d'efforts pour concevoir des robots capables d'apprendre et d'interagir avec leur environnement.
En combinant des modèles d'IA à grande échelle avec des données sensorielles, OpenAI vise à créer des systèmes capables de raisonner et d'opérer hors des environnements numériques. Le recrutement d'experts en robotique humanoïde témoigne également d'objectifs à long terme qui dépassent le cadre de l'automatisation et s'orientent vers des robots capables de travailler en toute sécurité aux côtés des humains. 31
Rapport de Microsoft sur les premières expériences avec GPT-4
Des recherches menées en 2023 ont porté sur une version préliminaire de l'IA 991259_1177__ (de OpenAI). Le rapport affirmait que cette IA présentait une intelligence générale supérieure aux modèles précédents, atteignant un niveau de performance humain dans des domaines tels que les mathématiques, la programmation et le droit. Ces résultats ont suscité un débat quant à savoir si GPT-4 constituait une forme préliminaire d'intelligence artificielle générale . 32
Rapport du MIT intitulé « La voie vers l'intelligence artificielle générale »
Le rapport « La voie vers l’intelligence artificielle générale » d’août 2025 prévoit que les premiers systèmes de type IAG pourraient commencer à émerger entre 2026 et 2028 , démontrant un raisonnement de niveau humain dans des domaines spécifiques, des capacités multimodales à travers le texte, l’audio et les interfaces physiques, et une autonomie limitée orientée vers un but.
Le rapport combine des prévisions agrégées et suggère une probabilité de 50 % que plusieurs étapes générales, telles que le transfert de connaissances et le raisonnement à grande échelle, seront atteintes d’ici 2028 .
Les projections à plus long terme estiment que les machines pourraient surpasser les performances humaines dans toutes les tâches économiquement importantes d'ici 2047 environ, sous réserve des progrès en matière d'efficacité de calcul, des percées algorithmiques et de l'apprentissage autonome. 33
AI Frontiers sur les probabilités de l'AGI
Adam Khoja et Laura Hiscott d'AI Frontiers, une plateforme de débats et de dialogues sur l'IA, estiment à 50 % la probabilité d'atteindre l'AGI d'ici 2028 et à 80 % la probabilité d'ici 2030 , en utilisant leur définition quantitative de l'AGI. 34
Khoja et Hiscott évaluent les progrès accomplis vers l'intelligence artificielle générale en utilisant une définition développée par Khoja, Dan Hendrycks et leurs co-auteurs. 35 Leur cadre d'évaluation mesure dix capacités cognitives et attribue à GPT-4 un score de 27 % et à GPT-5 un score de 57 %. Cela indique que les modèles actuels se situent approximativement à mi-chemin du seuil d'intelligence artificielle générale (IAG) défini.
Khoja et Hiscott affirment que les discussions traditionnelles sur les échéanciers de l'intelligence artificielle générale (IAG) manquent de précision car elles reposent sur des définitions incohérentes. Leur cadre standardisé vise à clarifier la situation en identifiant les forces et les faiblesses spécifiques des modèles actuels. Ils soulignent que la lecture, l'écriture, les mathématiques et les connaissances générales atteignent, voire dépassent, les capacités humaines de base et ne constituent plus des facteurs limitants.
Les auteurs soulignent les lacunes persistantes en matière de raisonnement visuel, de physique intuitive, de traitement auditif, de vitesse de perception et de mémoire de travail visuelle et auditive. Ils font état d'une amélioration rapide sur des plateformes de test comme SPACE et MindCube et suggèrent que ces lacunes pourront probablement être comblées par des recherches incrémentales continues. Ils observent également que les hallucinations demeurent un problème, mais qu'elles sont gérables compte tenu des différences de performance entre les principaux modèles.
D'après Khoja, Hiscott et Hendrycks, le principal obstacle restant est l'apprentissage continu et le stockage en mémoire à long terme. Les systèmes actuels ne peuvent pas conserver les informations d'une session à l'autre, et la résolution de cette limitation nécessitera au moins une avancée majeure. Cependant, les auteurs soulignent que les grands laboratoires d'IA accordent désormais la priorité à ce domaine.
Tirer les leçons des excès d'optimisme passés dans les prédictions de l'IA
Il convient de rappeler que les chercheurs en IA ont fait preuve d'un optimisme excessif par le passé. En voici quelques exemples :
- En 2016, Geoff Hinton affirmait que nous n'aurions plus besoin de radiologues d'ici 2021 ni 2026. Or, à ce jour, la radiologie n'est pas entièrement automatisée et les hôpitaux en ont besoin de milliers. 36
- En 1965, Herbert A. Simon, pionnier de l'IA, déclarait : « D'ici vingt ans, les machines seront capables d'effectuer n'importe quel travail qu'un homme peut faire. » 37
- L'ordinateur de cinquième génération japonais, lancé en 1980, avait un calendrier de développement sur dix ans et des objectifs tels que « permettre de tenir des conversations informelles ». 38
Cette expérience historique a contribué à ce que la plupart des scientifiques actuels hésitent à prédire l'IA générale dans des délais ambitieux comme 10 à 20 ans, mais cela a changé avec l'essor de l'IA générative .
Comprendre ce qu'est une singularité
L'intelligence artificielle nous intrigue et nous effraie. Presque chaque semaine, une nouvelle frayeur liée à l'IA fait la une des journaux : des développeurs s'inquiètent de leurs créations, des robots sont désactivés car ils sont devenus trop intelligents. 39
La plupart de ces idées reçues proviennent de recherches mal interprétées par les personnes extérieures aux domaines de l'IA et de l'IA générale. Certains acteurs affirment craindre l'IA car ils pourraient tirer profit d'une réglementation accrue ou être davantage sous les feux des projecteurs.
La plus grande crainte concernant l'IA est la singularité (également appelée intelligence artificielle générale ou IAG), un événement qui devrait entraîner une augmentation fulgurante de l'intelligence artificielle. Ce phénomène se produit lorsqu'un système combine une pensée de niveau humain avec une vitesse surhumaine et une mémoire quasi parfaite, rapidement accessible. Selon certains experts, la singularité implique également une conscience artificielle.
Une telle machine pourrait s'auto-améliorer et surpasser les capacités humaines. Avant même que l'intelligence artificielle ne devienne un sujet de recherche en informatique, des auteurs de science-fiction comme Asimov s'en préoccupaient. Ils concevaient des mécanismes (les lois de la robotique d'Asimov) pour garantir la bienveillance des machines intelligentes, un domaine aujourd'hui plus communément appelé recherche sur l'alignement .
Pourquoi les experts estiment que l'AGI est inévitable : arguments et preuves clés
L'idée d'atteindre l'intelligence artificielle générale (IAG) peut paraître audacieuse, mais elle semble tout à fait raisonnable si l'on considère que l'intelligence humaine est limitée tandis que l'intelligence artificielle progresse . Ce n'est qu'une question de temps avant que les machines ne nous surpassent, à moins qu'il n'existe une limite absolue à leur intelligence. Or, nous n'avons pas encore atteint une telle limite.
L'intelligence humaine est immuable tant que nous n'aurons pas fusionné nos capacités cognitives avec celles des machines. La start-up d'Elon Musk, Neural Lace, ambitionne de réaliser cela, mais la recherche sur les interfaces cerveau-ordinateur n'en est qu'à ses débuts. 40
L'intelligence artificielle repose sur des algorithmes, une puissance de traitement et des données.
- La puissance de traitement a connu une croissance exponentielle grâce aux investissements massifs dans la R&D et les centres de données.
- Jusqu'à présent, nous avons su fournir aux machines les algorithmes nécessaires pour utiliser efficacement leur puissance de traitement et leur mémoire.
- Enfin, les entreprises et les particuliers produisent des données numériques à un rythme croissant.Les données synthétiques peuvent fausser ou enrichir les modèles. Même en cas de fausser les modèles, le problème reste soluble grâce à la curation des données.
Réalisations récentes
Opus 4.6
En février 2026, Claude a publié Opus 4.6 avec une fenêtre de contexte de 1M et des résultats de référence impressionnants.
Anthropic se concentre également sur les cas d'utilisation en publiant des plugins comme Claude Legal, qui sont des fichiers Markdown destinés à aider les modèles à naviguer sur des domaines spécifiques. Bien qu'il s'agisse d'un ajout mineur à Claude, il a provoqué une chute des marchés boursiers, notamment dans le secteur des logiciels SaaS et juridiques. 41
Gémeaux Réflexion profonde
Un autre exemple est le mode de réflexion approfondie Gemini de DeepMind, qui a obtenu une médaille d'or aux Olympiades internationales de mathématiques de 2025, marquant une étape importante dans la capacité de l'IA à raisonner sur des problèmes complexes.
Fonctionnant entièrement en langage naturel, Gemini a résolu cinq des six problèmes dans le délai officiel de 4,5 heures imparti au concours, tout en produisant des preuves claires et lisibles par l'homme sans recourir à des outils symboliques formels.
Ses capacités découlent de plusieurs innovations : le mode Deep Think permet l’exploration parallèle des solutions possibles, la formation intègre des preuves mathématiques de niveau expert et l’apprentissage par renforcement affine son approche stratégique.
Ces progrès démontrent que l'IA avancée peut désormais s'engager dans un raisonnement sophistiqué et interprétable à un niveau autrefois réservé aux meilleurs experts humains en résolution de problèmes. 42
Opencrawl
Opencrawl est un projet open source visant à transformer les LLM en agents. Il est devenu l'un des projets les plus populaires sur GitHub et a donné naissance à l' écosystème Opencrawl .
Croissance exponentielle
Voici une analogie utile pour comprendre la croissance exponentielle : même si les machines ne semblent pas très intelligentes actuellement, elles pourraient le devenir dans un avenir proche.
Croissance récente des capacités de calcul de l'IA
Figure 2 : La figure montre un résumé des tendances de croissance du calcul observées dans différentes catégories : modèles notables globaux (en haut à gauche), modèles de pointe (en haut à droite), principaux modèles de langage (en bas à gauche) et meilleurs modèles des principales entreprises (en bas à droite).
Les ressources informatiques nécessaires à l'entraînement des modèles d'IA ont considérablement augmenté, environ deux tiers des performances des modèles de langage étant attribuables aux améliorations de l'échelle du modèle.
Selon un article de 2024, 43 La croissance de l'utilisation du calcul dans l'entraînement des modèles d'IA a augmenté de manière constante d'environ 4 à 5 fois par an, reflétant les tendances des modèles notables, des modèles de pointe et des entreprises de premier plan comme OpenAI, Google DeepMind et Meta AI (voir figure 2).
Toutefois, le taux de croissance a quelque peu ralenti depuis 2018, en particulier pour les modèles de pointe, mais les modèles de langage ont connu une croissance plus rapide, jusqu'à 9 fois par an jusqu'à mi-2020, après quoi le rythme a ralenti à 4-5 fois par an.
La croissance de la puissance de calcul de l'IA reste globalement soutenue, et les projections indiquent qu'un taux de croissance de 4 à 5 fois par an se maintiendra, sauf en cas de nouveaux défis ou d'avancées majeures. Cette croissance se reflète également dans les stratégies de développement des entreprises leaders en IA, malgré de légères variations entre elles.
Malgré un ralentissement de la croissance des modèles de pointe, les modèles plus importants publiés aujourd'hui, tels que GPT-4 et Gemini Ultra, s'alignent étroitement sur la trajectoire de croissance prévue.
Si l'informatique classique ralentit, l'informatique quantique pourrait combler le fossé.
L'informatique classique nous a permis de réaliser de grands progrès. Les algorithmes d'IA sur ordinateurs classiques peuvent surpasser les performances humaines dans certaines tâches, comme les échecs ou le go. Par exemple, AlphaGo Zero a battu AlphaGo sur le score de 100 à 0. AlphaGo avait vaincu les meilleurs joueurs du monde. 44 Cependant, nous approchons des limites de la vitesse que peuvent atteindre les ordinateurs classiques.
La loi de Moore, qui repose sur le constat que le nombre de transistors dans un circuit intégré dense double environ tous les deux ans, implique que le coût du calcul est divisé par deux environ tous les 2 ans.
En revanche, la plupart des experts estiment que la loi de Moore touche à sa fin au cours de cette décennie. 45 Toutefois, des efforts sont déployés pour continuer à améliorer l’efficacité du calcul.
Par exemple, DeepSeek a surpris les marchés mondiaux avec son modèle R1 en proposant un modèle de raisonnement à une fraction du coût de ses concurrents, comme OpenAI.
L'informatique quantique , technologie encore émergente, pourrait contribuer à réduire les coûts de calcul une fois la loi de Moore terminée. Elle repose sur l'évaluation simultanée de différents états, contrairement aux ordinateurs classiques qui ne traitent qu'un seul état à la fois.
La nature unique de l'informatique quantique peut être exploitée pour entraîner efficacement les réseaux neuronaux, actuellement l'architecture d'IA la plus répandue dans les applications commerciales. Les algorithmes d'IA exécutés sur des ordinateurs quantiques stables ont une chance de percer le mystère de la singularité.
Pourquoi certains experts pensent-ils que nous n'atteindrons pas l'intelligence artificielle générale (IAG) ?
Il existe trois arguments majeurs remettant en cause l'importance ou l'existence de l'IA générale. Nous les avons examinés ainsi que leurs réfutations courantes :
1- Intelligence est multidimensionnelle
Par conséquent, l'IA générale sera différente, et pas nécessairement supérieure à l'intelligence humaine.
C'est exact, et l'intelligence humaine diffère également de l'intelligence animale. Certains animaux sont capables de prouesses mentales, comme les écureuils qui se souviennent pendant des mois de l'endroit où ils ont caché des centaines de noisettes.
Yann LeCun, l'un des pionniers de l'apprentissage profond, estime que nous devrions abandonner le terme AGI et nous concentrer sur la réalisation d'une « intelligence artificielle avancée ». 46 Il soutient que l'esprit humain est spécialisé et que l'intelligence est un ensemble de compétences et la capacité d'en acquérir de nouvelles. Chaque être humain ne peut accomplir qu'une partie des tâches relevant de l'intelligence humaine. 47
Il est également difficile pour les humains de comprendre le niveau de spécialisation de l'esprit humain, car nous ne connaissons pas et ne pouvons pas expérimenter tout le spectre de l'intelligence.
Dans les domaines où les machines faisaient preuve d'une intelligence surhumaine, les humains parvenaient à les vaincre en exploitant leurs faiblesses spécifiques. Par exemple, un amateur a réussi à battre un programme de go aussi performant que ceux qui ont vaincu des champions du monde, en étudiant et en exploitant les faiblesses de ce programme. 48
2- Intelligence n'est pas la solution à tous les problèmes
Science
Même les machines les plus performantes analysant les données existantes ne pourront peut-être pas trouver de remède contre le cancer. Il leur faudra probablement mener des expériences concrètes et analyser les résultats pour acquérir de nouvelles connaissances dans la plupart des domaines.
Une meilleure intelligence permet de concevoir et de gérer des expériences plus efficaces, et donc de réaliser davantage de découvertes par expérience. L'histoire de la productivité de la recherche devrait le démontrer, mais les données sont très bruitées et les rendements de la recherche sont de plus en plus faibles. Nous sommes confrontés à des problèmes plus complexes, comme la physique quantique, à mesure que nous résolvons des problèmes plus simples, comme le mouvement newtonien.
Enfin, des prédictions parfaites sont parfois impossibles dans certains domaines en raison du caractère aléatoire ou de l'impossibilité de mesurer précisément ce domaine. Par exemple, même avec une abondance de données, nous ne pouvons pas prédire certains événements de la vie avec une grande précision. 49
Économie
IntelLa légalité n'est pas le seul ingrédient de la création de valeur économique.
- Le QI, la mesure la plus communément acceptée de l'intelligence humaine, n'est pas corrélé à la valeur nette pour les valeurs supérieures à environ 40 000 $ (voir image ci-dessous) :
Figure 3 : Le QI est corrélé à la richesse aux faibles niveaux de richesse. 50
Figure 4 : Le QI n’est pas corrélé à la richesse si l’on ne considère que les niveaux de richesse élevés. Ce graphique est identique au précédent, à ceci près que les revenus nets inférieurs à 40 000 $ ont été masqués. 51
- Dans le monde de l'investissement, l'intelligence de l'équipe d'une entreprise n'est pas considérée comme un facteur de compétitivité. On part du principe que les autres entreprises sont également capables d'identifier des stratégies efficaces. Les investisseurs privilégient les entreprises disposant d'avantages concurrentiels tels que la propriété intellectuelle, la taille critique, l'accès exclusif aux ressources, etc. La plupart de ces avantages ne peuvent être reproduits par la seule intelligence.
3- L'AGI n'est pas possible car il est impossible de modéliser le cerveau humain
En théorie, il est possible de modéliser toute machine de calcul, y compris le cerveau humain, par une machine relativement simple capable d'effectuer des calculs élémentaires et d'accéder à une mémoire et à un temps infinis. C'est l'hypothèse de Church-Turing, universellement acceptée et formulée en 1950. Cependant, comme indiqué, elle requiert certaines conditions difficiles : un temps et une mémoire infinis.
La plupart des informaticiens pensent que modéliser le cerveau humain nécessitera un temps et une mémoire inférieurs à l'infini. Cependant, il n'existe aucun moyen mathématiquement rigoureux de le prouver, car notre compréhension du cerveau est encore insuffisante pour caractériser précisément sa puissance de calcul. Il nous faudra construire une telle machine !
Comment pouvons-nous atteindre l'AGI ?
Figure 5 : L'horizon temporel des modèles d'IA de pointe au fil du temps montre les tâches les plus longues (en temps équivalent humain) que chaque modèle peut accomplir avec une fiabilité de 50 %. 52
La figure ci-dessus illustre l'amélioration des capacités des agents d'IA au fil du temps, en mesurant les tâches les plus longues qu'ils peuvent accomplir avec une fiabilité de 50 %.
Le principal constat est que la limite de longueur des tâches que les modèles peuvent traiter a connu une croissance exponentielle , doublant environ tous les sept mois. Cela signifie que les modèles plus récents, comme Sonnet et o1, peuvent désormais accomplir des tâches qui prendraient près d'une heure à un humain, tandis que les modèles plus anciens, comme GPT-2, peinaient à traiter des tâches de plus de quelques secondes.
La zone ombrée reflète l'incertitude statistique, mais la tendance générale est fiable. Si cette évolution se confirme, les systèmes d'IA pourraient bientôt prendre en charge des tâches complexes qui prennent des jours, voire des semaines, à l'humain, ce qui constituerait une avancée significative vers une plus grande autonomie et des capacités comparables à celles d'une intelligence artificielle générale.
La mise à l'échelle comme voie vers l'IA générale
Les dirigeants des laboratoires d'IA de pointe estiment que la mise à l'échelle des approches basées sur les transformateurs de courant peut aboutir à une AGI, ce qui alimente leurs prédictions quant à la réalisation d'une AGI dans quelques années .
Une des voies proposées pour accéder à l'AGI consiste à étendre les architectures existantes comme les transformateurs en augmentant la puissance de calcul et le volume de données, tandis qu'une autre consiste à développer des approches entièrement nouvelles.
À l’appui de l’hypothèse de mise à l’échelle, un rapport de 2024 d’Epoch AI a analysé si la croissance de la puissance de calcul de l’IA pouvait se poursuivre jusqu’en 2030.
Ils ont identifié quatre contraintes majeures : la disponibilité de l'énergie, la capacité de fabrication des puces, la rareté des données et la latence de traitement (voir figure 6).
Malgré ces défis, ils affirment qu'il est possible d'entraîner des modèles nécessitant jusqu'à 2e29 FLOPs d'ici la fin de la décennie, en supposant des investissements importants dans l'infrastructure.
De telles avancées pourraient produire des systèmes d'IA bien plus performants que les modèles de pointe actuels comme GPT-4, nous rapprochant ainsi de l'AGI. 53
Figure 6 : Le graphique illustre les limites supérieures estimées du calcul d'entraînement de l'IA d'ici 2030 sous des contraintes clés, la puissance, la production de puces, les données et la latence, avec des médianes allant de 2e29 à 3e31 FLOP.
Au-delà de la mise à l'échelle : plaidoyer pour de nouvelles architectures
Cependant, des scientifiques influents en IA comme Yann LeCun et Richard Sutton estiment que la mise à l'échelle de grands modèles de langage ne conduira pas à une intelligence de niveau humain. 54 55 Ils estiment que de nouvelles architectures ou approches sont nécessaires pour l'AGI.
Comment pouvons-nous mesurer si nous avons atteint l'intelligence artificielle générale (IAG) ?
Les grands modèles de langage pulvérisent chaque semaine de nouveaux records, mais leur évaluation est difficile en raison de problèmes tels que la contamination des données et l'absence de définition scientifique acceptée de l'intelligence de niveau humain.
Ces préoccupations sont amplifiées par les enseignements de recherches récentes. 56 qui soulignent que la mise à l'échelle des LLM n'est pas une voie durable vers de meilleures performances , notamment dans les domaines scientifiques et à forts enjeux. Les auteurs montrent que :
- Les LLM présentent des exposants d'échelle très faibles (~0,1) , ce qui signifie que même des augmentations massives de données ou de calcul produisent des gains de précision minuscules .
- La puissance d'apprentissage des LLM provient de leur capacité à produire des sorties non gaussiennes , mais cela conduit également à des accumulations d'erreurs et à des prédictions fragiles .
- Les métriques traditionnelles comme les fonctions de perte sont des pseudo-métriques qui ne correspondent pas à la convergence ou à la précision réelles .
- Un régime d’ IA dégénérative (DAI) peut apparaître lorsque des modèles, entraînés sur des données synthétiques ou répétitives, accumulent des erreurs plus rapidement qu’ils ne peuvent être corrigés.
Ces résultats remettent en question la fiabilité des critères de référence standard et soulignent la nécessité de stratégies d'évaluation plus diversifiées et évolutives.
Les anciennes méthodes de mesure, comme le test de Turing, ne font pas le poids face aux machines actuelles, et les nouvelles méthodes comme ARC-AGI peuvent manquer des capacités de généralisation des benchmarks plus larges.
Les nouvelles métriques comme ARC-AGI visent à tester l'abstraction et la généralisation, mais peuvent encore manquer de résilience face à la contamination des données ou au surapprentissage.
De plus, comme le souligne l'article, même de « bons » scores de perte peuvent masquer des catastrophes informationnelles sous-jacentes dues à des fluctuations non gaussiennes et à des instabilités d'entraînement. 57
Comment pouvons-nous suivre la progression des LLM ?
Il existe plusieurs approches d'analyse comparative pour surmonter ces difficultés :
- Questions de référence régulièrement mises à jour. Exemple concret : LiveBench
- Utilisation d'ensembles de test pour éviter l'empoisonnement des données : les benchmarks d'AIMultiple, comme le benchmark AGI ou ARC-AGI.
Quelles sont les approches, autres que l'analyse comparative, permettant de déterminer l'AGI ?
Il existe des indicateurs potentiellement puissants, mais retardés, de l'impact de l'IA, qui peuvent aider à identifier l'AGI.
croissance économique
Microsoft Le PDG Satya Nadella affirme qu'une croissance de 10 % dans le monde développé indiquerait une AGI. 58 Toutefois, son intérêt est d'avoir une définition retardée du RGI puisque le RGI mettrait fin au partenariat exclusif de OpenAI et Microsoft. 59
Chômage
Nous nous attendons à ce que l'AGI
- Réduire l'emploi des cols blancs à 10 % de son niveau record mondial, en pourcentage de la population active. Cette mesure devrait être prise si la part du travail dans le revenu national diminue fortement en raison de l'intelligence artificielle .
- Alors que la croissance du PIB se poursuit
Dans un monde où les machines sont plus intelligentes et plus efficaces que les humains, il serait absurde de rémunérer un humain pour qu'il reste assis devant un ordinateur. Par conséquent, nous prévoyons une chute brutale de l'emploi dans les secteurs tertiaires, tandis que les humains continueront de prospérer dans les emplois du monde physique.
Les organismes gouvernementaux qui collectent des statistiques sur le travail classent les emplois en catégories détaillées, ce qui fait de l'emploi des cols blancs un indicateur facile à suivre.
Nous avons recueilli des données auprès du Bureau des statistiques du travail des États-Unis sur l'emploi des cols blancs pour la période 2019-2024. 60 Par souci de clarté et de cohérence, nous avons classé les cols blancs dans les groupes professionnels suivants :
- Métiers de l'architecture et de l'ingénierie
- Métiers des opérations commerciales et financières
- Métiers de l'informatique et des mathématiques
- Professionnels de la santé et professions techniques
- Professions juridiques
- Métiers des sciences de la vie, des sciences physiques et des sciences sociales
- Professions de gestion
- Métiers de bureau et de soutien administratif
- Ventes et professions connexes
Selon notre analyse, le ratio des cols blancs par rapport à l'emploi total a fluctué entre 45 % et 48 % au cours de cette période.
Bien que cette fourchette suggère une relative stabilité de la part des emplois de cols blancs jusqu'à présent, elle ne reflète pas une tendance à long terme. Nous prévoyons des changements plus marqués dans les années à venir, avec l'accélération de l'automatisation et de l'adoption de l'IA. Pour plus de prévisions sur l'impact de l'IA sur l'emploi des cols blancs et les emplois de début de carrière, consultez l' article « Pertes d'emplois liées à l'IA » .
Devrions-nous même viser l'IA générale ?
Certains informaticiens avertissent que le fait de se concentrer sur l'IA générale comme objectif ultime pourrait fausser la recherche en IA. 61 Les critiques comprennent : la création d’une illusion de consensus, le surajustement des points de référence, l’ignorance des valeurs sociales intégrées, le fait de laisser le battage médiatique dicter les priorités, l’accumulation d’une « dette de généralité » (reportant les questions clés de conception) et l’exclusion des communautés marginalisées et des chercheurs sous-financés.
Des objectifs spécifiques, mesurables et transparents seraient plus bénéfiques aux progrès de l'IA qu'un objectif vaguement défini comme l'AGI.
Raisonnement mathématique sous-jacent aux prédictions de l'AGI
Le raisonnement mathématique est essentiel pour comprendre et prévoir l'évolution de l'intelligence artificielle générale. De nombreuses projections s'appuient sur des tendances quantifiables et des modèles formels qui orientent les attentes quant à l'émergence potentielle de cette intelligence.
Lois d'échelle et croissance de la puissance de calcul
Un élément clé du raisonnement mathématique consiste à analyser les lois d'échelle . Celles-ci montrent que les performances du modèle s'améliorent de façon prévisible avec l'augmentation des données, des paramètres et de la puissance de calcul.
La croissance annuelle constante de 4 à 5 fois de la puissance de calcul pour l'entraînement de l'IA soutient les prévisions selon lesquelles l'IA générale pourrait être réalisable d'ici une ou deux décennies, en supposant que les tendances actuelles se maintiennent.
Ces projections sont basées sur des ajustements empiriques aux courbes de performance et sur des extrapolations, étayées par des relations de type loi de puissance, un concept fondamental de la modélisation mathématique.
Prévision probabiliste
Les chercheurs appliquent également des méthodes probabilistes aux prédictions concernant l'intelligence artificielle générale (IAG). Les enquêtes demandent souvent à des experts d'estimer la probabilité de développement de l'IAG d'ici certaines années, ce qui permet d'établir des distributions de probabilité cumulatives.
Par exemple, une probabilité de 50 % d'ici 2040 reflète un consensus en situation d'incertitude, grâce à une mise à jour de type bayésien basée sur les progrès observés en matière d'IA.
Cette approche de raisonnement mathématique permet de saisir l'incertitude des experts sans exiger de dates précises, ce qui autorise une révision continue à mesure que de nouvelles données deviennent disponibles.
Fondements théoriques
Ces prévisions sont basées sur des éléments théoriques du raisonnement mathématique, notamment la thèse de Church-Turing, qui implique que la cognition humaine peut être simulée par des machines, et des concepts comme la complexité de Kolmogorov, qui relient l'intelligence à la compressibilité de l'information.
Bien que de telles théories ne garantissent pas l'AGI, elles fournissent un cadre de réflexion sur sa possibilité et les exigences informatiques que cela implique.
Plus d'informations sur Artificial General Intelligence
David Silver, chercheur principal chez DeepMind (référence Google).
Il explique que l'intelligence artificielle générale (IAG) fait référence aux systèmes d'IA capables d'apprendre et d'exceller dans un large éventail de tâches ; tout comme les humains qui peuvent devenir des experts dans des domaines divers tels que la science, la musique ou le sport.
Contrairement à l'IA spécialisée, limitée à une seule fonction, l'AGI aspire à refléter l'adaptabilité humaine et la capacité générale de résolution de problèmes.
Il note que si l'AGI est un objectif à long terme, atteindre une véritable intelligence de niveau humain nécessitera probablement plusieurs percées et se développera progressivement au fil du temps (voir la vidéo ci-dessous).
Ilya Sutskever, cofondateur et directeur scientifique de OpenAI
Dans la conférence TED « Le voyage passionnant et périlleux vers l'AGI », il explore les progrès rapides vers l'intelligence générale artificielle (AGI).
Il prédit que l'intelligence artificielle générale pourrait émerger d'ici 5 à 10 ans, tout en reconnaissant l'incertitude qui plane sur ce calendrier.
Sutskever souligne à la fois l'immense potentiel et les risques profonds de l'IA générale, insistant sur la nécessité d'aligner son développement sur les valeurs humaines. Malgré les défis, il se montre optimiste quant à la capacité de l'humanité à maîtriser cette technologie puissante (voir la vidéo ci-dessous).
Ray Kurzweil, informaticien et entrepreneur
Il revient sur plus de six décennies de progrès en matière d'IA, retraçant la capacité de l'humanité à construire des outils d'amélioration de l'intelligence, des instruments primitifs aux grands modèles de langage.
Il prédit également que l'intelligence artificielle générale (Intelligence) arrivera d'ici 2029, conduisant à la singularité technologique d'ici 2045. Il souligne les progrès exponentiels dans la puissance de calcul, la médecine et la biotechnologie.
Il prévoit également des avancées majeures telles que des traitements générés par l'IA, des essais cliniques numériques et une vitesse d'échappement de la longévité, où les progrès scientifiques pourraient prolonger la vie indéfiniment (voir la vidéo ci-dessous).
Yann LeCun, lauréat du prix Turing
Découvrez pourquoi les masters en droit ne peuvent pas nous donner une intelligence de niveau humain et les dernières approches en IA pour y parvenir :
Conclusion
Les prévisions concernant l'intelligence artificielle générale (IAG) ont considérablement évolué ces dernières années. Alors que les premières études situaient son apparition vers 2060, les prévisions récentes, notamment celles des entrepreneurs, suggèrent qu'elle pourrait émerger dès 2026-2035.
Cette évolution est alimentée par les progrès rapides des grands modèles de langage et la puissance de calcul croissante. Pourtant, malgré ces avancées, l'IA actuelle manque encore de la flexibilité et de l'autonomie générales associées à l'intelligence humaine.
Les experts restent divisés sur la manière dont l'intelligence artificielle générale (IAG) sera réalisée ; certains pensent que la mise à l'échelle des architectures actuelles suffira, tandis que d'autres affirment que de nouvelles méthodes sont nécessaires.
Les principaux défis résident dans les besoins importants en ressources, le manque de clarté des critères de référence et les questions éthiques non résolues. L'intelligence artificielle générale est peut-être plus proche que jamais, mais son avènement dépend encore de percées techniques et d'une supervision rigoureuse.
FAQ
La singularité est un événement hypothétique qui devrait entraîner une augmentation rapide de l'intelligence artificielle.
Pour atteindre la singularité, il nous faut un système qui combine une pensée de niveau humain avec une vitesse surhumaine et une mémoire quasi parfaite, rapidement accessible.
La singularité devrait également engendrer une conscience artificielle, mais comme la conscience est un concept mal défini, nous ne pouvons être précis à ce sujet. Un tel système pourrait s'auto-améliorer et surpasser les capacités humaines.
Bien que le terme de singularité soit relativement ancien, les termes AGI et surtout superintelligence sont aujourd'hui utilisés plus fréquemment pour décrire le même phénomène.
L'intelligence artificielle générale (IAG) fait référence à un type d'IA capable de comprendre, d'apprendre et d'appliquer des connaissances à un large éventail de tâches intellectuelles à un niveau égal ou supérieur à celui des humains.
Contrairement à l'IA spécialisée, conçue pour des tâches spécifiques telles que la traduction automatique ou la reconnaissance d'images, l'IA générale posséderait des capacités cognitives généralisées, lui permettant de raisonner, de planifier et de s'adapter à des situations inédites.
Le développement de l'IA générale demeure un objectif de recherche important et un sujet de débat éthique et philosophique.
La superintelligence désigne un intellect qui surpasse largement les meilleurs esprits humains dans pratiquement tous les domaines, y compris la créativité, la résolution de problèmes et la compréhension sociale.
Elle représente une étape au-delà de l'IA générale, où un système artificiel pourrait surpasser les humains dans toutes les activités intellectuelles importantes.
Ce concept soulève des questions cruciales concernant le contrôle, la sécurité et les implications à long terme pour le rôle de l'humanité dans un monde dominé par une intelligence supérieure.
L'intelligence artificielle avancée (AMI) implique des systèmes d'IA compétents qui approchent ou atteignent une intelligence quasi générale.
Bien qu'ils ne possèdent pas encore la flexibilité et la conscience de soi complètes associées à l'IA générale, les systèmes AMI démontrent des capacités de raisonnement, d'apprentissage et d'adaptabilité avancées dans diverses tâches.
Ce terme est souvent utilisé pour désigner les systèmes d'IA qui dépassent les capacités actuelles de l'IA spécialisée, mais qui restent en deçà du seuil de l'intelligence générale complète.
Commentaires 12
Partagez vos idées
Votre adresse courriel ne sera pas publiée. Tous les champs sont obligatoires.
Does anyone know when this article was first published? I want to do a comparison of predictions vs reality for a project.
Hi Harper. The article was first published in mid-2017. But it's undergone constant updates since then to reflect the latest developments. Good luck with your project and let us know if we can help further!
I think we are far away from the point of singularity. It is not only that intelligence is multi dimensional, but also what is deemed as being intelligent (e.g., IQ, EQ) changes with time. People also change with time. So what is that point of singularity may change.
Hello, Yuvan. Thank you for your feedback.
Hello, Achieving the singularity from where we are now is relatively a simple jump, it is just time and advancements combined with a team somewhere who is dedicated to it and has the money to pull it off. The missing part of the equation would be asking the question "what is consciousness?" and understanding that. Then, understanding how to model that with non-biological machinery even at small levels, like modeling the consciousness of an amoeba or more advanced things like snakes and squirrels. Then if we know for certain what it is and how to model it, just run an adaptive evolution algorithm on itself, modeling out all of the processes in human cognition until it can beat them everywhere. Then, allow it to simply rebuild itself to continuously improve. The problem currently preventing this, is that human beings have no idea what consciousness is at all. It is a great mystery. One person thinks it is in the brain. Another thinks the brain is like a tuning fork, channeling the consciousness from somewhere else. It is a great mystery in science. When this problem is solved, then machine consciousness can be built most likely, depending on what it actually is. If consciousness is something weird, such as "human beings have spirits in other dimensions that are planned for their bodies by a supreme being. The brain creates a quantum resonant frequency that links it together with this already conscious entity, and then several universes are interacting simultaneously to create the actual experience of being self aware and sentient" well then, it will be very difficult to design a machine that does that same thing. It is more likely that we figure out how to model the resonance in the brain and then transfer an already existing consciousness of an animal or a human into a machine and keep it going, if that even makes any sense at all. However, maybe that's not how it works, and it is something simple like the holographic connection of energy patterns fluctuating in the mind - this can be modeled and a machine can be built that does these sorts of things with much more efficiency. Right now the mystery of the problem is consciousness itself. Hope that helps. I really enjoyed the robot soccer tournament. I also feel like a superhero at soccer now.
It's becoming clear that with all the brain and consciousness theories out there, the proof will be in the pudding. By this I mean, can any particular theory be used to create a human adult level conscious machine. My bet is on the late Gerald Edelman's Extended Theory of Neuronal Group Selection. The lead group in robotics based on this theory is the Neurorobotics Lab at UC at Irvine. Dr. Edelman distinguished between primary consciousness, which came first in evolution, and that humans share with other conscious animals, and higher order consciousness, which came to only humans with the acquisition of language. A machine with primary consciousness will probably have to come first. The thing I find special about the TNGS is the Darwin series of automata created at the Neurosciences Institute by Dr. Edelman and his colleagues in the 1990's and 2000's. These machines perform in the real world, not in a restricted simulated world, and display convincing physical behavior indicative of higher psychological functions necessary for consciousness, such as perceptual categorization, memory, and learning. They are based on realistic models of the parts of the biological brain that the theory claims subserve these functions. The extended TNGS allows for the emergence of consciousness based only on further evolutionary development of the brain areas responsible for these functions, in a parsimonious way. No other research I've encountered is anywhere near as convincing. I post because on almost every video and article about the brain and consciousness that I encounter, the attitude seems to be that we still know next to nothing about how the brain and consciousness work; that there's lots of data but no unifying theory. I believe the extended TNGS is that theory. My motivation is to keep that theory in front of the public. And obviously, I consider it the route to a truly conscious machine, primary and higher-order. My advice to people who want to create a conscious machine is to seriously ground themselves in the extended TNGS and the Darwin automata first, and proceed from there, by applying to Jeff Krichmar's lab at UC Irvine, possibly. Dr. Edelman's roadmap to a conscious machine is at https://arxiv.org/abs/2105.10461
I think Patrick Winston was joking when he said 20 years. From the linked quote: "I was recently asked a variant on this question. People have been saying we will have human-level intelligence in 20 years for the past 50 years. My answer: I’m ok with it. It will be true eventually." "Forced into a corner, with a knife at my throat, I would say 20 years, and I say that fully confident that it will be true eventually."
Great point! We should have read the source more carefully. I tried to explain his point better in the article.
I have the impression that the nerds that make this kind of prediction (replicate human brain) know a whole lot about computer programming but are ignorant about neuroscience/psychology. We are nor even scratching the surface about primary phenomenon, such as counsciousness / unconsciousness. How do you claim that you can replicate something that we are still far from understanding how it works?
Thank you for the comment. True, better understanding of the mind would help AGI research.
mmm... I'm not sure we can reach to this point: "benevolence of intelligent machines" Emotions and Feelings are there to guide our actions, to improve ourselves and to make a better world, can we make a machine to feel guilt of being smarter than us??
Saying human intelligence is fixed ignores that as we learn more about how the human brain works we may learn how to expand its capability's ie through some form of enhanced learning, targeted drugs, gene therapy, electro stimulation and not just direct brain computer connections being the only potential for doing this. More so currently hampered by our lack of understanding even the language you use has an effect on your cognitive ability's its one of the reasons deaf people were called dumb was the occurrence of language deprivation and how it negatively effected neurodevelopment it was a major problem when deaf children were forced to lip read instead of using sign language . But we will need more powerful AIs to achieve an understanding of our brains
People who say AGI will be here in 2060 are idiots and don't understand the flow of technology you'll see
@Vyn What do you mean? Do you mean to say it will take way before or way after 2060?
Thanks! I'll be quite happy if I get to see 2060
Intelligent doesn't solve our all problems maybe yes but certainly its essential and more intelligent you are faster you solve problems. If you are a chimp you can not even pour water to a glass. You do not even know what glass is used for. Yes if you are human being you still need to get up and grab the glass but intellegence is essential. I do not think human brain is impossible to create in a lab. I think earth is a lab. Anything found in nature can be replicate in the lab.
if P=NP then the singularity may happen also. Saying the human brain is impossible to recreate I dont agree with, but to say its intractable probably is approximately true. So P=NP, if you could solve that mystery (which is the millenial prize funnily) with an intractable calculation, that could make all the magic happen as well.
Thanks for the comment. Most computer scientists working on AI or machine learning would agree that it is possible to replicate human brain's capabilities.
The claim that "humans contribute most to the biomass" on the planet is likely to be wrong. Check out this paper for a careful estimation: https://www.pnas.org/content/115/25/6506
Thank you! That was insightful. Biology is not my strong suit, I should stick to computer science.
@AIMultiple Humble response, and great article. Thanks a ton :)
@B Thanks!