Contattaci
Nessun risultato trovato.

AGI/Singolarità: analizzate 9.800 previsioni.

Cem Dilmegani
Cem Dilmegani
aggiornato il Feb 24, 2026
Guarda il nostro norme etiche

L'intelligenza artificiale generale (AGI) si verifica quando un sistema di IA eguaglia le capacità cognitive umane in tutti i compiti. Sulla base delle previsioni disponibili, ecco alcune risposte rapide sull'AGI:

L'intelligenza artificiale generale/la singolarità tecnologica si realizzeranno? Secondo la maggior parte degli esperti di intelligenza artificiale , l'intelligenza artificiale generale è inevitabile .

Quando avverrà la singolarità/l'intelligenza artificiale generale (AGI)? Recenti sondaggi tra i ricercatori di IA prevedono l'AGI negli anni 2040. Secondo le previsioni della comunità , l'AGI è attesa intorno agli anni 2030. Gli imprenditori prevedono che accadrà entro pochi anni.

Abbiamo analizzato le previsioni di 9.800 scienziati dell'IA, imprenditori di spicco e membri della comunità scientifica in merito alla cronologia dell'intelligenza artificiale generale (AGI):

Cronologia del generale artificiale Intelligence

Loading Chart

La cronologia sopra riportata delinea l'anno previsto per la singolarità, sulla base delle informazioni raccolte da 8 sondaggi e delle risposte di 9.800 ricercatori nel campo dell'intelligenza artificiale, scienziati e partecipanti ai mercati delle previsioni:

Come si può notare sopra, gli intervistati prevedono sempre più che la singolarità si verificherà prima di quanto previsto in precedenza.

Ecco come abbiamo creato questo grafico:

  • Per rappresentare graficamente l'anno previsto di sviluppo dell'AGI, abbiamo utilizzato la media ponderata delle previsioni per ogni anno all'interno di ciascuna categoria. Ad esempio, se nel 2022 erano presenti più previsioni di mercato, ne abbiamo calcolato la media ponderata e riportato tale valore sul grafico.
  • Per le previsioni individuali, abbiamo incluso le previsioni di 15 esperti di intelligenza artificiale.
  • Per le previsioni scientifiche, abbiamo raccolto i risultati di un sondaggio da 8 articoli sottoposti a revisione paritaria che forniscono delle tempistiche per l'intelligenza artificiale generale (AGI).
  • Per le previsioni di mercato e le previsioni basate sulle opinioni della community, abbiamo utilizzato:
    • Oltre 1.100 previsioni provenienti da Manifold, Kalshi e Polymarket, mercati di previsione online in cui i partecipanti negoziano sulla probabilità e sulla tempistica di eventi futuri per ottenere profitto o reputazione.
    • Risultati aggregati di 8 esperti di previsioni meteorologiche di Samotsvety. Samotsvety utilizza metodi quantitativi per generare previsioni probabilistiche su eventi reali.
    • 3.290 previsioni inviate nel 2020 e nel 2022 sulla piattaforma pubblica Metaculus.

Altre domande chiave sull'AGI

Qual è la nostra situazione attuale in merito all'AGI?

Sebbene l'intelligenza artificiale ristretta superi gli esseri umani in compiti specifici, una macchina con intelligenza generale non esiste. Alcuni ricercatori ritengono che i modelli linguistici di grandi dimensioni dimostrino capacità generaliste emergenti. 1 Secondo il nostro benchmark AGI , le macchine sono ben lungi dal generare valore economico in modo autonomo.

Come possiamo raggiungere l'AGI?

O aumentando la potenza di calcolo e la quantità di dati a supporto delle architetture esistenti, come i transformer, oppure inventando nuovi approcci. Non esiste ancora un consenso scientifico sul metodo per raggiungere l'intelligenza artificiale generale (AGI) o per validarla.

Qui sotto puoi consultare gli studi e le previsioni che compongono questa cronologia, oppure passare direttamente alla sezione sulla comprensione della singolarità .

Risultati delle principali indagini condotte tra i ricercatori di intelligenza artificiale

Abbiamo esaminato i risultati di 8 sondaggi che hanno coinvolto più di 4.900 ricercatori ed esperti di intelligenza artificiale, nei quali hanno stimato quando potrebbe verificarsi l'intelligenza artificiale generale/la singolarità.

Sebbene le previsioni varino, la maggior parte dei sondaggi indica una probabilità del 50% di raggiungere l'intelligenza artificiale generale (AGI) tra il 2040 e il 2061, con alcune stime che prevedono la superintelligenza entro pochi decenni.

Sondaggio di esperti del 2023 sui progressi nell'intelligenza artificiale

A ottobre, AI Impacts ha intervistato 2.778 ricercatori nel campo dell'IA per stabilire quando si potrebbe raggiungere l'intelligenza artificiale generale (AGI). Il sondaggio includeva domande pressoché identiche a quelle del sondaggio del 2022. In base ai risultati, si stima che l'intelligenza artificiale di alto livello sarà raggiunta entro il 2040 . 2

Sondaggio di esperti del 2022 sui progressi nell'IA

L'indagine è stata condotta su 738 esperti che hanno pubblicato articoli alle conferenze NIPS e ICML del 2021. Gli esperti di intelligenza artificiale stimano che ci sia una probabilità del 50% che l'intelligenza artificiale di alto livello si raggiunga entro il 2059. 3

Gli esperti hanno inoltre previsto che il costo dell'hardware, i progressi algoritmici e il lavoro sui set di dati di addestramento saranno i fattori principali per il progresso dell'IA.

Previsioni sui progressi dell'IA nel 2019

Baobao Zhang ha intervistato 296 esperti di intelligenza artificiale, chiedendo loro di prevedere quando le macchine supereranno le capacità del lavoratore umano medio nell'esecuzione di oltre il 90% delle attività economicamente rilevanti. Metà degli intervistati ha stimato che ciò accadrà prima del 2060 . 4

Sondaggio tra esperti di IA sulle tempistiche dell'AGI nel 2019

Le previsioni di 32 esperti di IA sui tempi di introduzione dell'AGI. 5 sono:

  • Il 45% degli intervistati prevede una data precedente al 2060.
  • Il 34% di tutti i partecipanti ha previsto una data successiva al 2060.
  • Il 21% dei partecipanti ha previsto che la singolarità non si verificherà mai.

Indagine sul potenziale impatto dell'IA sulla perdita di posti di lavoro nel 2018

Ross Gruetzemacher ha intervistato 165 esperti di intelligenza artificiale per valutare il potenziale impatto dell'IA sulla sostituzione del lavoro umano. Agli esperti è stato chiesto di stimare quando i sistemi di IA saranno in grado di svolgere il 99% dei compiti per i quali gli esseri umani vengono attualmente retribuiti, a un livello pari o superiore a quello di un essere umano medio.

La metà degli intervistati ha previsto che questo traguardo sarà raggiunto prima del 2068 , mentre il 75% si aspetta che si verifichi entro i prossimi 100 anni. 6

Sondaggio del 2017 sugli esperti di intelligenza artificiale intervistati alle conferenze NIPS e ICML del 2015.

Nel maggio 2017, sono stati intervistati 352 esperti di intelligenza artificiale che avevano pubblicato articoli alle conferenze NIPS e ICML del 2015. 7

In base ai risultati dei sondaggi, gli esperti stimano che ci sia una probabilità del 50% che l'intelligenza artificiale generale (AGI) si realizzi entro il 2060. Detto questo, esiste una notevole differenza di opinioni a seconda dell'area geografica:

  • Gli intervistati asiatici prevedono un'inflazione generale (AGI) tra 30 anni,
  • I nordamericani prevedono che ciò avverrà tra 74 anni.

Tra le principali mansioni lavorative che si prevede saranno automatizzate entro il 2030 figurano gli operatori dei call center, gli autisti di camion e i venditori al dettaglio.

Progressi futuri nell'indagine sull'intelligenza artificiale nel 2012/2013

Vincent C. Muller, presidente dell'Associazione europea per i sistemi cognitivi, e Nick Bostrom dell'Università di Oxford, autore di oltre 200 articoli sulla superintelligenza e sull'intelligenza artificiale generale (AGI), hanno condotto un sondaggio tra i ricercatori nel campo dell'IA. 550 partecipanti hanno risposto alla domanda: Quando è probabile che l'AGI si realizzi? 8

Secondo i risultati:

  • Gli esperti di intelligenza artificiale intervistati stimano che l'intelligenza artificiale generale (AGI) probabilmente (con oltre il 50% di probabilità) emergerà tra il 2040 e il 2050 ed è altamente probabile (con il 90% di probabilità) che compaia entro il 2075.
  • Una volta raggiunta l'intelligenza artificiale generale (AGI), la maggior parte degli esperti ritiene che si evolverà verso la superintelligenza in tempi relativamente brevi, con un arco temporale che va da un minimo di 2 anni (improbabile, probabilità del 10%) a circa 30 anni (alta probabilità, 75%).

Sondaggio del 2009 condotto tra esperti di intelligenza artificiale partecipanti alla conferenza AGI-09.

In base ai risultati del sondaggio condotto tra 21 esperti di IA partecipanti alla conferenza AGI-09, si ritiene che l'intelligenza artificiale generale (AGI) si realizzerà intorno al 2050 , e plausibilmente anche prima. 9 Di seguito potete vedere le loro stime relative a specifici traguardi raggiunti dall'IA: superare il test di Turing, superare la terza elementare, conseguire scoperte scientifiche degne del Premio Nobel e raggiungere un'intelligenza sovrumana.

Figura 1: Risultati del sondaggio distribuito ai partecipanti alla conferenza Artificial General Intelligence 2009 (AGI-09).

Approfondimenti dalla community

Abbiamo inoltre valutato le previsioni di Samotsvety Forecasting e Metaculus Community sull'AGI e i risultati di mercato delle previsioni di Manifold, Kalshi e Polymarket:

Previsioni meteo

Samotsvety Forecasting è un team di previsori che effettua previsioni probabilistiche su eventi reali, in particolare in ambito geopolitico, tecnologico e dei rischi globali, utilizzando ragionamenti strutturati e metodi quantitativi. Il team vanta una solida esperienza competitiva sulle principali piattaforme e competizioni di previsione (ad esempio, INFER/CSET-Foretell), dove la precisione delle loro previsioni viene misurata utilizzando metriche di punteggio formali come il punteggio Brier. 10

Nel gennaio 2026, il team ha aggiornato le proprie previsioni sull'AGI con 8 previsori. 11 Ecco i risultati aggregati:

  • C'è una probabilità del 10% di raggiungere l'AGI (Indice di Sviluppo Rendimentato Generale) nel 2026.
  • C'è una probabilità del 50% di raggiungere l'AGI entro il 2041.
  • 90% di probabilità di raggiungere l'AGI entro il 2164

In una precedente previsione del 2022, il team aveva stimato una probabilità del 32% di raggiungere l'intelligenza artificiale generale (AGI) entro 20 anni (entro il 2042 circa) e del 73% entro il 2100 , entrambe inferiori alle proiezioni attuali. 12

Mercato Manifold

A gennaio 2026, oltre 1.100 esperti del mercato Manifold avevano previsto che l'anno in cui un'IA avrebbe superato per la prima volta un "test di Turing avversariale di alta qualità" sarebbe stato il 2035 . 13

Mercato delle previsioni di Kalshi

Secondo quanto riportato nel gennaio 2026 dagli esperti del mercato delle previsioni di Kalshi, c'è una probabilità del 40% che OpenAI raggiunga l'AGI entro il 2030 . 14

Polymarket

I risultati delle previsioni di Polymarket di gennaio 2026 indicavano una probabilità del 9% che OpenAI raggiungesse l'AGI entro il 2027 . 15

Metaculus Previsioni della comunità

Dati aggiornati a febbraio 2026:

  • 1.700 partecipanti hanno risposto alla domanda "Quando verrà ideato, testato e annunciato pubblicamente il primo sistema di intelligenza artificiale debolmente generale?" e la previsione è il 21 febbraio 2028 . 16
  • 178 partecipanti hanno risposto alla domanda "Quando un'IA supererà per la prima volta un test di Turing lungo, informato e avversariale?" e la loro previsione è il 22 aprile 2029. 17
  • 1.800 partecipanti hanno risposto alla domanda "Quando verrà ideato, testato e annunciato pubblicamente il primo sistema di intelligenza artificiale generale?" e la loro previsione è aprile 2033. 18

Nel 2022, 81 partecipanti hanno risposto alla domanda "Quando i principali previsori prevedono che verrà sviluppata e dimostrata la prima Abilità Artificiale Generale?" e la loro previsione è stata il 2035 . 19

Spunti e riflessioni di imprenditori e ricercatori nel campo dell'IA.

Anche gli imprenditori del settore dell'IA stanno formulando stime su quando raggiungeremo la singolarità, e sono più ottimisti dei ricercatori. Ciò è prevedibile, dato che beneficiano del crescente interesse per l'IA.

Le loro opinioni divergono sulla velocità e sul percorso di sviluppo dell'intelligenza artificiale generale (AGI). Amodei di OpenAI prevede che l'AGI arriverà a breve termine grazie a un rapido progresso autoalimentante, mentre Hassabis di DeepMind la considera plausibile ma rimane cauto, citando sfide irrisolte nella creatività scientifica e nell'auto-miglioramento autonomo.

Ecco le previsioni di 15 tra i più importanti imprenditori e ricercatori nel campo dell'intelligenza artificiale:

  • Shane Legg, cofondatore di DeepMind Technologies, definisce l'AGI minima come un agente artificiale in grado di svolgere in modo affidabile l'intera gamma di compiti cognitivi di un essere umano medio, senza commettere errori che ci sorprenderebbero se a una persona venisse assegnato lo stesso compito. La sua previsione, formulata nel gennaio 2026, è che ci sia una probabilità del 50% che l'AGI minima diventi realtà entro il 2028 .
    • Secondo Legg, raggiungere un'intelligenza artificiale generale (AGI) minima non significa che comprenderemo appieno o saremo in grado di riprodurre le forme più elevate di intelligenza umana, come le grandi scoperte scientifiche o i risultati artistici. L'AGI completa si raggiungerà solo quando l'IA sarà in grado di eguagliare l'intero spettro della cognizione umana. 20
  • Dario Amodei, CEO di Anthropic, ha espresso forte fiducia nell'imminente arrivo di sistemi di intelligenza artificiale generale (AGI) al World Economic Forum di Davos del 2026. Ha affermato che l'AGI si realizzerà probabilmente entro pochi anni ( 2027), forse anche prima di quanto ampiamente previsto.
    • Sostiene che i rapidi progressi nella programmazione e nell'automazione della ricerca sull'IA siano fondamentali, in quanto consentono ai sistemi di IA di gestire la maggior parte delle attività di ingegneria del software dall'inizio alla fine e di accelerare il proprio sviluppo attraverso cicli di feedback.
    • Pur riconoscendo i limiti imposti dalla disponibilità dell'hardware e dai tempi di formazione, ritiene improbabile una tempistica molto più lunga e prevede una rapida accelerazione una volta che questi cicli saranno maturi. 21
  • Allo stesso evento nel 2026, Demis Hassabis, fondatore di DeepMind, ha mantenuto una visione più cauta, ribadendo una stima di circa il 50% di probabilità di raggiungere l'intelligenza artificiale generale (AGI) entro la fine del decennio (2030).
    • Hassabis concorda sul fatto che i progressi siano rapidi in ambiti verificabili come la programmazione e la matematica, ma sottolinea che la scoperta scientifica e il ragionamento creativo rimangono più difficili.
    • Egli mette in luce i limiti irrisolti nella generazione di nuove domande e teorie ed esprime incertezza riguardo al miglioramento autonomo completo, in particolare in ambiti complessi del mondo reale, il che, a suo avviso, rende meno certe le tempistiche dell'intelligenza artificiale generale (AGI).
  • Combinando i progressi dell'IA nel ragionamento, nella programmazione e nella matematica, Eric Schmidt, ex CEO di Google, ritiene che ci stiamo dirigendo verso l'Artificialità Generale entro 3-5 anni (come affermato nell'aprile 2025). 22
  • Elon Musk prevede che entro il 2026 verrà sviluppata un'intelligenza artificiale più intelligente di quella degli esseri umani più intelligenti. 23
  • Nel febbraio 2025, l'imprenditore e investitore Masayoshi Son lo aveva previsto entro 2-3 anni (ovvero, il 2027 o il 2028 ).
  • Nel marzo 2024, il CEO di Nvidia, Jensen Huang, predisse che entro cinque anni l'intelligenza artificiale avrebbe eguagliato o superato le prestazioni umane in qualsiasi test: 2029. 24
  • Louis Rosenberg, informatico, imprenditore e scrittore, entro il 2030 .
  • Ray Kurzweil, informatico, imprenditore e autore di 5 bestseller nazionali, tra cui The Singularity Is Near: Previously 2045, 25 , nel 2024, 2032 . 26
  • Nel 2023, Hinton riteneva che potessero volerci dai 5 ai 20 anni. 27
  • Sam Altman, CEO di OpenAI, entro il 2035. Ha menzionato "qualche migliaio di giorni" nel 2024 nel suo blog "The Intelligence Age".
  • Ajeya Cotra, ricercatore nel campo dell'intelligenza artificiale, ha analizzato la crescita della potenza di calcolo necessaria per l'addestramento dei sistemi e ha stimato una probabilità del 50% che entro il 2040 emerga un'IA con capacità simili a quelle umane. 28
  • Patrick Winston, professore del MIT e direttore del Laboratorio di intelligenza artificiale del MIT dal 1972 al 1997, ha menzionato il 2040, sottolineando che, sebbene sia una data che potrebbe verificarsi, è difficile stimarla .
  • Jürgen Schmidhuber, co-fondatore dell'azienda di intelligenza artificiale NNAISENSE e direttore del laboratorio svizzero di intelligenza artificiale IDSIA, entro il 2050. 29

Altri commenti e sviluppi riguardanti l'AGI

Tavola rotonda presidenziale AAAI 2025 sul futuro della ricerca sull'intelligenza artificiale.

A 475 intervistati, provenienti principalmente dal mondo accademico (67%) e dal Nord America (53%), è stato chiesto un parere sui progressi nell'intelligenza artificiale. Sebbene il sondaggio non richiedesse una tempistica per l'intelligenza artificiale generale (AGI), il 76% degli intervistati ha affermato che l'ampliamento degli attuali approcci all'IA difficilmente porterà all'AGI. 30

OpenAI espande le sue ambizioni nel campo della robotica

OpenAI sta intensificando la sua attenzione sulla robotica nell'ambito del suo obiettivo di far progredire l'intelligenza artificiale generale. L'azienda sta assumendo specialisti in sistemi robotici umanoidi e sta formando un team per progettare algoritmi che aiutino i robot ad apprendere e ad agire in modo indipendente nel mondo fisico.

Questo segna un cambiamento rispetto alla precedente attenzione di OpenAI sui modelli linguistici e di immagine. L'azienda ora mira a connettere il ragionamento avanzato con l'interazione fisica, suggerendo che considera la robotica un passo essenziale verso la sperimentazione e la realizzazione dell'intelligenza artificiale generale (AGI).

Contesto e implicazioni

Dopo aver sciolto il suo primo team di robotica intorno al 2020, OpenAI sta tornando allo sviluppo attivo in questo campo. Le recenti assunzioni e le potenziali collaborazioni indicano un rinnovato impegno nella costruzione di robot capaci di apprendimento e manipolazione nel mondo reale.

Combinando modelli di intelligenza artificiale su larga scala con dati sensoriali, OpenAI mira a creare sistemi in grado di ragionare e operare al di fuori degli ambienti digitali. L'assunzione di esperti di robotica umanoide indica inoltre obiettivi a lungo termine che vanno oltre l'automazione e puntano a robot in grado di lavorare in sicurezza a fianco delle persone. 31

Rapporto di Microsoft sui primi esperimenti con GPT-4

Nel 2023, una ricerca ha studiato una versione preliminare di OpenAI di GPT-4. Il rapporto affermava che mostrava un'intelligenza generale superiore rispetto ai precedenti modelli di IA, con prestazioni a livello umano in aree come la matematica, la programmazione e il diritto. Ciò ha scatenato un dibattito sul fatto che GPT-4 fosse una forma preliminare di intelligenza artificiale generale . 32

Il rapporto del MIT sulla strada verso l'intelligenza artificiale generale.

Il rapporto "The road to artificial general intelligence" dell'agosto 2025 prevede che i primi sistemi simili all'AGI potrebbero iniziare a emergere tra il 2026 e il 2028 , mostrando capacità di ragionamento di livello umano in ambiti specifici, funzionalità multimodali attraverso interfacce testuali, audio e fisiche, e un'autonomia limitata orientata a obiettivi specifici.

Il rapporto combina previsioni aggregate e suggerisce una probabilità del 50% che diversi traguardi generali, come il trasferimento di conoscenze e il ragionamento su vasta scala, saranno raggiunti entro il 2028 .

Le proiezioni a lungo termine stimano che le macchine potrebbero superare le prestazioni umane in tutti i compiti economicamente rilevanti intorno al 2047 , a condizione che si verifichino progressi nell'efficienza computazionale, scoperte algoritmiche e apprendimento autonomo. 33

Frontiere dell'IA sulle probabilità dell'AGI

Adam Khoja e Laura Hiscott di AI Frontiers, una piattaforma per dibattiti e dialoghi sull'IA, stimano una probabilità del 50% di raggiungere l'AGI entro il 2028 e dell'80% entro il 2030 , utilizzando la loro definizione quantitativa di AGI. 34

Khoja e Hiscott valutano i progressi verso l'intelligenza artificiale generale utilizzando una definizione sviluppata da Khoja, Dan Hendrycks e dai loro coautori. 35 Il loro quadro di riferimento misura dieci abilità cognitive e assegna a GPT-4 un punteggio del 27% e a GPT-5 un punteggio del 57%. Ciò indica che i modelli attuali sono circa a metà strada verso la soglia AGI definita.

Khoja e Hiscott sostengono che le discussioni tradizionali sulle tempistiche dell'intelligenza artificiale generale (AGI) mancano di precisione perché si basano su definizioni incoerenti. Il loro quadro di riferimento standardizzato mira a fare chiarezza individuando punti di forza e di debolezza specifici nei modelli attuali. Sottolineano che la lettura, la scrittura, la matematica e le conoscenze generali raggiungono o superano le capacità umane di base e non rappresentano più fattori limitanti.

Gli autori evidenziano le lacune ancora esistenti nel ragionamento visivo, nella fisica intuitiva, nell'elaborazione uditiva, nella velocità dipendente dalla percezione e nella memoria di lavoro visiva e uditiva. Riportano rapidi miglioramenti in test di riferimento come SPACE e MindCube e suggeriscono che queste lacune possano essere probabilmente colmate attraverso una continua ricerca incrementale. Osservano inoltre che le allucinazioni rimangono una preoccupazione, ma sono gestibili date le differenze di prestazioni tra i modelli principali.

Secondo Khoja, Hiscott e Hendrycks, l'ostacolo più significativo che rimane è l'apprendimento continuo e la memorizzazione a lungo termine. I sistemi attuali non sono in grado di conservare le informazioni tra una sessione e l'altra, e superare questa limitazione richiederà almeno una svolta significativa. Tuttavia, gli autori sottolineano che i principali laboratori di intelligenza artificiale stanno ora dando priorità a questo ambito.

Imparare dagli errori del passato, quando le previsioni sull'IA erano eccessivamente ottimistiche.

Tenete presente che in passato i ricercatori nel campo dell'IA erano eccessivamente ottimisti. Ecco alcuni esempi:

  • Nel 2016 Geoff Hinton sostenne che non avremmo più avuto bisogno di radiologi entro il 2021 o il 2026. Finora, la radiologia non è stata completamente automatizzata e gli ospedali hanno bisogno di migliaia di questi professionisti. 36
  • Nel 1965, Herbert A. Simon, pioniere dell'intelligenza artificiale, affermò: "Entro vent'anni, le macchine saranno in grado di svolgere qualsiasi lavoro che un uomo possa fare". 37
  • Il computer di quinta generazione giapponese del 1980 aveva un piano decennale con obiettivi quali "svolgere conversazioni informali". 38

Questa esperienza storica ha contribuito a far sì che la maggior parte degli scienziati attuali evitasse di prevedere l'intelligenza artificiale generale (AGI) con orizzonti temporali così ampi come 10-20 anni, ma la situazione è cambiata con l'avvento dell'intelligenza artificiale generativa .

Comprendere cosa sia la singolarità

L'intelligenza artificiale ci spaventa e ci incuriosisce. Quasi ogni settimana, i notiziari riportano nuove notizie allarmanti sull'IA, come sviluppatori preoccupati per ciò che hanno creato o la chiusura di bot perché diventati troppo intelligenti. 39

La maggior parte di questi miti deriva da ricerche interpretate erroneamente da chi non opera nel campo dell'IA e dell'IA generale. Alcuni soggetti interessati affermano di temere l'IA perché potrebbero trarre vantaggio da una maggiore regolamentazione o perché potrebbe attirare su di loro maggiore attenzione.

La più grande paura riguardo all'IA è la singolarità (chiamata anche intelligenza artificiale generale o AGI), un evento che si prevede porterà a un rapido aumento dell'intelligenza delle macchine. Ciò si verifica quando un sistema combina il pensiero a livello umano con una velocità sovrumana e una memoria quasi perfetta e rapidamente accessibile. Secondo alcuni esperti, la singolarità implica anche la coscienza delle macchine.

Una macchina del genere potrebbe auto-migliorarsi e superare le capacità umane. Ancor prima che l'intelligenza artificiale diventasse un argomento di ricerca nell'informatica, scrittori di fantascienza come Asimov se ne preoccupavano. Stavano elaborando meccanismi (ovvero, le Leggi della Robotica di Asimov) per garantire la benevolenza delle macchine intelligenti, un campo che oggi viene comunemente chiamato ricerca sull'allineamento .

Perché gli esperti ritengono che l'intelligenza artificiale generale sia inevitabile: argomentazioni e prove chiave

Raggiungere l'intelligenza artificiale generale (AGI) potrebbe sembrare una previsione azzardata, ma appare un obiettivo piuttosto ragionevole se si considera che l'intelligenza umana è fissa, mentre quella delle macchine è in continua evoluzione . È solo questione di tempo prima che le macchine ci superino, a meno che non esista un limite invalicabile alla loro intelligenza. Finora non abbiamo incontrato un limite del genere.

L'intelligenza umana è statica a meno che non si riesca in qualche modo a fondere le nostre capacità cognitive con quelle delle macchine. La startup di Elon Musk, Neural Lace, si propone di fare proprio questo, ma la ricerca sulle interfacce cervello-computer è ancora nelle fasi iniziali. 40

L'intelligenza artificiale dipende da algoritmi, potenza di elaborazione e dati.

  • La potenza di elaborazione è cresciuta a un ritmo esponenziale grazie ai consistenti investimenti in ricerca e sviluppo e nei data center.
  • Finora siamo stati bravi a fornire alle macchine gli algoritmi necessari per utilizzare efficacemente la loro potenza di elaborazione e la loro memoria.
  • Infine, aziende e privati creano dati digitali a un ritmo sempre maggiore.I dati sintetici possono corrompere i modelli o arricchirli. Anche se li corrompessero, si tratterebbe di un problema risolvibile grazie alla curatela dei dati.

Risultati recenti

Opus 4.6

Nel febbraio 2026, Claude ha rilasciato Opus 4.6 con una finestra di contesto di 1 milione e risultati di benchmark impressionanti.

Anthropic si sta concentrando anche sui casi d'uso rilasciando plugin come Claude Legal, che sono file Markdown per aiutare i modelli a navigare in domini specifici. Sebbene si trattasse di una piccola aggiunta a Claude, ha innescato una svendita in borsa, compresi i software SaaS e legali. 41

Gemelli Pensatore Profondo

Un altro esempio è la modalità di pensiero profondo Gemini di DeepMind, che ha ottenuto la medaglia d'oro alle Olimpiadi Internazionali di Matematica del 2025, segnando un passo significativo nella capacità dell'IA di ragionare su problemi complessi.

Operando interamente in linguaggio naturale, Gemini ha risolto cinque dei sei problemi entro il tempo limite ufficiale di 4,5 ore, producendo dimostrazioni chiare e comprensibili senza ricorrere a strumenti simbolici formali.

Le sue capacità derivano da diverse innovazioni: la modalità Deep Think consente l'esplorazione parallela di percorsi di soluzione, l'addestramento incorpora dimostrazioni matematiche di livello esperto e l'apprendimento per rinforzo affina il suo approccio strategico.

Questi progressi dimostrano che l'intelligenza artificiale avanzata è ora in grado di impegnarsi in ragionamenti sofisticati e interpretabili a un livello un tempo riservato ai migliori risolutori di problemi umani. 42

Opencrawl

Opencrawl è un progetto open source che trasforma i modelli lineari di apprendimento (LLM) in agenti. È diventato uno dei progetti più popolari su GitHub e ha dato il via all'ecosistema Opencrawl .

crescita esponenziale

Quella che segue è un'utile analogia per comprendere la crescita esponenziale. Sebbene le macchine possano non sembrare particolarmente intelligenti al momento, potrebbero diventarlo in un futuro prossimo.

Fonte: Mother Jones

Recente crescita delle capacità di calcolo dell'IA

Figura 2: La figura mostra un riepilogo dei modelli di crescita della potenza di calcolo osservati in varie categorie: modelli complessivamente più rilevanti (in alto a sinistra), modelli di frontiera (in alto a destra), modelli leader nei linguaggi di programmazione (in basso a sinistra) e modelli migliori delle aziende leader (in basso a destra).

Le risorse computazionali per l'addestramento dei modelli di intelligenza artificiale sono aumentate in modo significativo, e circa due terzi delle prestazioni dei modelli linguistici sono attribuibili ai miglioramenti in termini di scalabilità dei modelli.

Secondo un articolo del 2024, 43 La crescita dell'utilizzo della potenza di calcolo nell'addestramento dei modelli di IA è aumentata costantemente di circa 4-5 volte all'anno, riflettendo le tendenze dei modelli più noti, dei modelli di frontiera e delle aziende leader come OpenAI, Google DeepMind e Meta AI (vedi Figura 2).

Tuttavia, il tasso di crescita ha subito un rallentamento dal 2018, soprattutto per i modelli di frontiera, mentre i modelli linguistici hanno registrato una crescita più rapida, fino a 9 volte all'anno fino a metà del 2020, dopodiché il ritmo è rallentato a 4-5 volte all'anno.

Il trend generale di crescita della potenza di calcolo per l'IA rimane solido e le proiezioni suggeriscono che il tasso di crescita di 4-5 volte all'anno continuerà, a meno che non si presentino nuove sfide o scoperte rivoluzionarie. Questa crescita si riflette anche nelle strategie di scalabilità delle principali aziende del settore, sebbene con lievi differenze tra di esse.

Nonostante un rallentamento nella crescita dei modelli di frontiera, i modelli più grandi pubblicati oggi, come GPT-4 e Gemini Ultra, si allineano strettamente alla traiettoria di crescita prevista.

Se l'informatica classica rallenta, l'informatica quantistica potrebbe colmare il vuoto.

L'informatica classica ci ha portato molto lontano. Gli algoritmi di intelligenza artificiale sui computer classici possono superare le prestazioni umane in compiti specifici come giocare a scacchi o a Go. Ad esempio, AlphaGo Zero ha sconfitto AlphaGo per 100 a 0. AlphaGo aveva battuto i migliori giocatori del mondo. 44 Tuttavia, ci stiamo avvicinando ai limiti della velocità raggiungibile dai computer classici.

La legge di Moore, basata sull'osservazione che il numero di transistor in un circuito integrato ad alta densità raddoppia circa ogni due anni, implica che il costo del calcolo si dimezza approssimativamente ogni 2 anni.

D'altro canto, la maggior parte degli esperti ritiene che la legge di Moore giungerà al termine in questo decennio. 45 Tuttavia, si stanno compiendo sforzi per continuare a migliorare l'efficienza del calcolo.

Ad esempio, DeepSeek ha sorpreso i mercati globali con il suo modello R1, offrendo un modello di ragionamento a una frazione del costo dei suoi concorrenti, come OpenAI.

L'informatica quantistica , che è ancora una tecnologia emergente, può contribuire a ridurre i costi di calcolo una volta che la legge di Moore giungerà al termine. L'informatica quantistica si basa sulla valutazione simultanea di diversi stati, mentre i computer classici possono calcolare un solo stato alla volta.

La natura unica del calcolo quantistico può essere sfruttata per addestrare in modo efficiente le reti neurali, attualmente l'architettura di intelligenza artificiale più diffusa nelle applicazioni commerciali. Gli algoritmi di intelligenza artificiale in esecuzione su computer quantistici stabili hanno la possibilità di sbloccare la singolarità.

Perché alcuni esperti ritengono che non raggiungeremo l'intelligenza artificiale generale (AGI)?

Esistono 3 argomenti principali contro l'importanza o l'esistenza dell'AGI. Li abbiamo esaminati insieme alle relative confutazioni più comuni:

1- Intelligenza è multidimensionale

Pertanto, l'intelligenza artificiale generale (AGI) sarà diversa, non necessariamente superiore all'intelligenza umana.

È vero, e l'intelligenza umana è diversa anche da quella animale. Alcuni animali sono capaci di imprese mentali straordinarie, come gli scoiattoli che ricordano per mesi dove hanno nascosto centinaia di noci.

Yann LeCun, uno dei pionieri del deep learning, ritiene che dovremmo abbandonare il termine AGI e concentrarci sul raggiungimento di un'“intelligenza artificiale avanzata”. 46 Sostiene che la mente umana è specializzata e che l'intelligenza è un insieme di abilità e la capacità di apprendere nuove abilità. Ogni essere umano può svolgere solo un sottoinsieme dei compiti dell'intelligenza umana. 47

È inoltre difficile per noi umani comprendere il livello di specializzazione della mente umana, poiché non conosciamo e non possiamo sperimentare l'intero spettro dell'intelligenza.

Nei campi in cui le macchine mostravano un'intelligenza sovrumana, gli esseri umani sono stati in grado di sconfiggerle sfruttando le loro debolezze specifiche. Ad esempio, un dilettante è riuscito a battere un programma di Go di pari livello rispetto ai programmi che hanno sconfitto i campioni del mondo, studiando e sfruttando i punti deboli del programma. 48

2- Intella libertà non è la soluzione a tutti i problemi

Scienza

Anche la macchina più sofisticata nell'analizzare i dati esistenti potrebbe non essere in grado di trovare una cura per il cancro. Potrebbe essere necessario condurre esperimenti nel mondo reale e analizzarne i risultati per scoprire nuove conoscenze nella maggior parte dei campi.

Una maggiore intelligenza può portare a esperimenti meglio progettati e gestiti, consentendo un maggior numero di scoperte per esperimento. La storia della produttività della ricerca dovrebbe dimostrarlo, ma i dati sono piuttosto rumorosi e i rendimenti della ricerca sono decrescenti. Ci imbattiamo in problemi più complessi, come la fisica quantistica, mentre risolviamo problemi più semplici come il moto newtoniano.

Infine, in alcuni ambiti potrebbero non essere possibili previsioni perfette a causa della casualità o dell'impossibilità di misurazione intrinseca di tali ambiti. Ad esempio, anche con una grande quantità di dati, non siamo in grado di prevedere determinati esiti della vita con un elevato grado di precisione. 49

Economia

La fiducia non è l'unico ingrediente per la generazione di valore economico.

  • Il QI, la misura più comunemente accettata dell'intelligenza umana, non è correlato al patrimonio netto per valori superiori a circa 40.000 dollari (vedi immagine sotto):

Figura 3: Il QI è correlato alla ricchezza a bassi livelli di ricchezza. 50

Figura 4: Il QI non è correlato alla ricchezza se ci concentriamo solo sui livelli di ricchezza più elevati. Questo grafico è identico a quello precedente, tranne per il fatto che i livelli di reddito netto inferiori a 40.000 dollari sono stati nascosti. 51

  • Nel mondo degli investimenti, l'intelligenza del team di un'azienda non è considerata un fattore di competitività. Si presume implicitamente che anche le altre aziende siano in grado di individuare strategie intelligenti. Gli investitori prediligono le imprese con vantaggi competitivi sleali, quali proprietà intellettuale, economie di scala, accesso esclusivo alle risorse, ecc. La maggior parte di questi vantaggi competitivi non può essere replicata unicamente con l'intelligenza.

3- L'intelligenza artificiale generale (AGI) non è possibile perché non è possibile modellare il cervello umano.

In teoria, è possibile modellare qualsiasi macchina computazionale, incluso il cervello umano, con una macchina relativamente semplice in grado di eseguire calcoli di base e di accedere a memoria e tempo infiniti. Questa è l'ipotesi di Church-Turing, universalmente accettata e formulata nel 1950. Tuttavia, come già detto, essa richiede alcune condizioni difficili: tempo e memoria infiniti.

La maggior parte degli informatici ritiene che la modellazione del cervello umano richiederà un tempo e una memoria inferiori all'infinito. Tuttavia, non esiste un modo matematicamente valido per dimostrare questa affermazione, perché non comprendiamo ancora il cervello abbastanza bene da poterne caratterizzare con precisione la potenza di calcolo. Dovremo costruire una macchina del genere!

Come possiamo raggiungere l'AGI?

Figura 5: L'orizzonte temporale dei modelli di IA di frontiera nel tempo mostra i compiti più lunghi (in tempo equivalente a quello umano) che ciascun modello può completare con un'affidabilità del 50%. 52

La figura sopra riportata mostra come le capacità degli agenti di intelligenza artificiale siano migliorate nel tempo, misurando i compiti più lunghi che riescono a completare con un'affidabilità del 50%.

La scoperta fondamentale è che la lunghezza dei compiti che i modelli di frontiera possono gestire è cresciuta esponenzialmente , raddoppiando all'incirca ogni sette mesi. Ciò significa che i modelli più recenti, come Sonnet e o1, possono ora completare compiti che richiederebbero a un essere umano quasi un'ora, mentre i modelli più vecchi come GPT-2 riuscivano a malapena a gestire compiti più lunghi di pochi secondi.

L'area ombreggiata riflette l'incertezza statistica, ma la tendenza generale è affidabile. Se questo schema dovesse continuare, i sistemi di intelligenza artificiale potrebbero presto gestire compiti complessi che agli esseri umani richiedono giorni o addirittura settimane, segnando un passo significativo verso una maggiore autonomia e capacità simili a quelle dell'intelligenza artificiale generale (AGI).

La scalabilità come via verso l'intelligenza artificiale generale

I responsabili dei laboratori di intelligenza artificiale all'avanguardia ritengono che l'estensione su larga scala degli attuali approcci basati sui transformer possa portare all'intelligenza artificiale generale (AGI), il che alimenta le loro previsioni sul raggiungimento dell'AGI entro pochi anni .

Una delle vie proposte per arrivare all'intelligenza artificiale generale (AGI) consiste nell'ampliare le architetture esistenti, come i transformer, aumentando la potenza di calcolo e la quantità di dati, mentre un'altra prevede lo sviluppo di approcci completamente nuovi.

A sostegno dell'ipotesi di scalabilità, un rapporto del 2024 di Epoch AI ha analizzato se la crescita della potenza di calcolo dell'IA possa continuare fino al 2030.

Hanno identificato quattro principali vincoli: disponibilità di energia, capacità di produzione dei chip, scarsità di dati e latenza di elaborazione (vedere Figura 6).

Nonostante queste difficoltà, sostengono che sia possibile addestrare modelli che richiedono fino a 2e29 FLOP entro la fine del decennio, presupponendo investimenti significativi nelle infrastrutture.

Tali progressi potrebbero produrre sistemi di intelligenza artificiale di gran lunga più capaci dei modelli all'avanguardia odierni come GPT-4, avvicinandoci all'intelligenza artificiale generale (AGI). 53

Figura 6: Il grafico illustra i limiti superiori stimati per la potenza di calcolo necessaria all'addestramento dell'IA entro il 2030, tenendo conto di vincoli chiave quali potenza, produzione di chip, dati e latenza, con valori mediani compresi tra 2e29 e 3e31 FLOP.

Oltre la scalabilità: le ragioni a favore di nuove architetture

Tuttavia, influenti scienziati dell'IA come Yann LeCun e Richard Sutton ritengono che l'applicazione su larga scala di modelli linguistici complessi non porterà a un'intelligenza di livello umano. 54 55 Credono che siano necessarie nuove architetture o nuovi approcci per l'AGI.

Come possiamo misurare se abbiamo raggiunto l'AGI?

I modelli linguistici di grandi dimensioni (LLM) superano ogni settimana nuovi record, ma la loro valutazione è complessa a causa di problemi come l'avvelenamento dei dati e la mancanza di una definizione scientifica universalmente accettata di intelligenza a livello umano.

Queste preoccupazioni sono amplificate dalle scoperte emerse da recenti ricerche. 56 che evidenziano come l'ampliamento dei modelli LLM non sia un percorso sostenibile per ottenere prestazioni migliori , soprattutto in ambito scientifico e in settori ad alto rischio. Gli autori dimostrano che:

  • I modelli lineari lineari (LLM) presentano esponenti di scala estremamente bassi (~0,1) , il che significa che anche aumenti massicci di dati o di potenza di calcolo producono guadagni di precisione minimi .
  • La capacità di apprendimento dei modelli lineari lineari (LLM) deriva dalla loro abilità di produrre output non gaussiani , ma ciò comporta anche un accumulo di errori e previsioni fragili .
  • Le metriche tradizionali, come le funzioni di perdita, sono pseudo-metriche che non si allineano con la vera convergenza o accuratezza .
  • Un regime di intelligenza artificiale degenerativa (DAI) può emergere quando i modelli, addestrati su dati sintetici o ripetitivi, accumulano errori più velocemente di quanto possano essere corretti.

Questi risultati mettono in discussione l'affidabilità dei parametri di riferimento standard e sottolineano la necessità di strategie di valutazione più diversificate e in continua evoluzione.

Le vecchie metriche come il test di Turing non sono all'altezza delle macchine odierne, e le nuove metriche come ARC-AGI potrebbero non avere la capacità di generalizzazione dei benchmark più ampi.

Le metriche emergenti come ARC-AGI mirano a testare l'astrazione e la generalizzazione, ma potrebbero ancora risultare poco robuste in caso di contaminazione dei dati o overfitting.

Inoltre, come evidenziato nell'articolo, anche punteggi di perdita "buoni" possono mascherare catastrofi informative sottostanti dovute a fluttuazioni non gaussiane e instabilità di addestramento. 57

Come possiamo monitorare i progressi dei LLM?

Esistono diversi approcci al benchmarking per superare queste difficoltà:

  • Domande di benchmark aggiornate frequentemente. Esempio concreto: LiveBench
  • Utilizzo di set di test di validazione per prevenire la contaminazione dei dati: benchmark di AIMultiple, come il benchmark AGI o ARC-AGI.

Quali sono gli approcci, oltre al benchmarking, per determinare l'AGI (reddito lordo rettificato)?

Esistono indicatori potenzialmente forti, ma ritardati, dell'impatto dell'IA, che possono aiutare a identificare l'AGI.

crescita economica

L'amministratore delegato Satya Nadella sostiene che una crescita del 10% nel mondo sviluppato indicherebbe un aumento dell'AGI. 58 Tuttavia, il suo incentivo è quello di avere una definizione ritardata di AGI poiché l'AGI porrebbe fine alla partnership esclusiva di OpenAI e Microsoft. 59

Disoccupazione

Ci aspettiamo che l'AGI

In un mondo in cui le macchine sono più intelligenti ed efficienti degli esseri umani, non sarebbe razionale pagare una persona per stare seduta davanti a un computer. Pertanto, ci aspettiamo che l'occupazione nel settore dei colletti bianchi crolli, mentre gli esseri umani continuano a prosperare nei lavori del mondo fisico.

Gli enti governativi che raccolgono statistiche sul lavoro classificano le professioni in categorie dettagliate, rendendo l'occupazione nel settore dei colletti bianchi un parametro facilmente monitorabile.

Abbiamo raccolto dati dall'Ufficio di statistica del lavoro degli Stati Uniti sull'occupazione nel settore terziario per il periodo dal 2019 al 2024. 60 Per chiarezza e coerenza, abbiamo classificato i lavoratori impiegatizi nei seguenti gruppi professionali:

  • Professioni in architettura e ingegneria
  • Professioni nel settore commerciale e finanziario
  • Professioni informatiche e matematiche
  • Professionisti sanitari e tecnici
  • Professioni legali
  • Professioni nel campo delle scienze biologiche, fisiche e sociali
  • Professioni dirigenziali
  • Professioni di supporto amministrativo e d'ufficio
  • Vendite e professioni affini

Secondo la nostra analisi, il rapporto tra impiegati e occupazione totale ha oscillato tra il 45% e il 48% in questo periodo.

Sebbene questo intervallo suggerisca una relativa stabilità nella quota di occupazione impiegatizia finora, non è indicativo di una tendenza a lungo termine e ci aspettiamo cambiamenti più marcati nei prossimi anni con l'accelerazione dell'automazione e dell'adozione dell'IA. Per ulteriori previsioni su come l'IA cambierà l'occupazione impiegatizia e di livello base, leggi "Perdita di posti di lavoro dovuta all'IA" .

Dovremmo davvero puntare all'intelligenza artificiale generale (AGI)?

Alcuni informatici avvertono che concentrarsi sull'intelligenza artificiale generale (AGI) come obiettivo finale potrebbe distorcere la ricerca in questo campo. 61 Le critiche includono: la creazione di un'illusione di consenso, l'eccessivo adattamento dei parametri di riferimento, l'ignorare i valori sociali radicati, il lasciare che l'entusiasmo detti le priorità, l'accumulo di "debito di generalizzazione" (il rinvio di questioni chiave di progettazione) e l'esclusione delle comunità marginalizzate e dei ricercatori con risorse insufficienti.

Obiettivi specifici, misurabili e trasparenti sarebbero più efficaci per il progresso dell'IA rispetto a un obiettivo vagamente definito come l'AGI.

Il ragionamento matematico alla base delle previsioni sull'AGI

Il ragionamento matematico è fondamentale per comprendere e prevedere le tempistiche dell'intelligenza artificiale generale (AGI). Molte proiezioni si basano su tendenze quantificabili e modelli formali che guidano le aspettative su quando l'intelligenza artificiale generale potrebbe emergere.

Leggi di scala e crescita computazionale

Una componente fondamentale del ragionamento matematico consiste nell'analizzare le leggi di scala . Queste dimostrano che le prestazioni del modello migliorano in modo prevedibile con l'aumentare dei dati, dei parametri e della potenza di calcolo.

La crescita annua costante di 4-5 volte della potenza di calcolo per l'addestramento dell'IA avvalora le previsioni secondo cui l'intelligenza artificiale generale (AGI) potrebbe essere raggiungibile entro uno o due decenni, a condizione che le tendenze attuali continuino.

Queste proiezioni si basano su adattamenti empirici alle curve di prestazione ed estrapolazioni, supportate da relazioni di legge di potenza, un concetto fondamentale nella modellazione matematica.

Previsione probabilistica

I ricercatori applicano metodi probabilistici anche alle previsioni sull'intelligenza artificiale generale (AGI). Spesso, nei sondaggi, agli esperti viene chiesto di stimare la probabilità che l'AGI venga sviluppata entro determinati anni, producendo distribuzioni di probabilità cumulative.

Ad esempio, una probabilità del 50% entro il 2040 riflette un consenso in condizioni di incertezza, guidato da aggiornamenti di tipo bayesiano basati sui progressi osservati nell'IA.

Questo approccio di ragionamento matematico coglie l'incertezza degli esperti senza richiedere date precise, consentendo revisioni continue man mano che nuovi dati diventano disponibili.

Fondamenti teorici

Queste previsioni si basano su elementi teorici del ragionamento matematico, tra cui la tesi di Church-Turing, che implica che la cognizione umana può essere simulata dalle macchine, e concetti come la complessità di Kolmogorov, che collega l'intelligenza alla comprimibilità delle informazioni.

Sebbene tali teorie non garantiscano l'intelligenza artificiale generale (AGI), forniscono un quadro di riferimento per riflettere sulla sua possibilità e sui requisiti computazionali coinvolti.

Maggiori informazioni su Artificial General Intelligence

David Silver, ricercatore principale presso DeepMind (991259-1709).

Spiega che l'Intelligenza Artificiale Generale (AGI) si riferisce a sistemi di IA capaci di apprendere ed eccellere in una vasta gamma di compiti, proprio come gli esseri umani che possono diventare esperti in diversi campi come la scienza, la musica o lo sport.

A differenza dell'IA ristretta, limitata a una singola funzione, l'AGI aspira a replicare l'adattabilità umana e la capacità generale di risolvere i problemi.

Egli osserva che, sebbene l'intelligenza artificiale generale (AGI) sia un obiettivo a lungo termine, raggiungere una vera intelligenza a livello umano richiederà probabilmente diverse scoperte e si svilupperà gradualmente nel tempo (vedi il video qui sotto).

David Silver di DeepMind descrive l'AGI come un'intelligenza artificiale con una versatilità simile a quella umana nell'esecuzione di diversi compiti, sottolineando che richiederà molteplici scoperte e si svilupperà gradualmente nel tempo.

Ilya Sutskever, co-fondatore e responsabile scientifico di OpenAI

Nel TED Talk "L'emozionante e pericoloso viaggio verso l'AGI", esplora i rapidi progressi verso l'Intelligenza Artificiale Generale (AGI).

Prevede che l'intelligenza artificiale generale (AGI) potrebbe emergere entro i prossimi 5-10 anni, pur riconoscendo l'incertezza di questa tempistica.

Sutskever mette in luce sia l'immenso potenziale che i profondi rischi dell'intelligenza artificiale generale (AGI), sottolineando la necessità di allineare il suo sviluppo ai valori umani. Nonostante le sfide, si dichiara ottimista sul fatto che l'umanità possa guidare in modo sicuro questa potente tecnologia (vedi il video qui sotto).

Nel suo intervento al TED, Ilya Sutskever prevede che l'intelligenza artificiale generale (AGI) potrebbe arrivare entro 5-10 anni, sottolineando il suo potenziale trasformativo e l'urgente necessità di allinearla ai valori umani per garantire un futuro sicuro.

Ray Kurzweil, informatico e imprenditore

Riflette su oltre sessant'anni di progressi nell'intelligenza artificiale, ripercorrendo la capacità dell'umanità di costruire strumenti in grado di potenziare l'intelligenza, dagli utensili primitivi ai grandi modelli linguistici.

Prevede inoltre che l'intelligenza artificiale generale arriverà entro il 2029, portando alla singolarità tecnologica entro il 2045. Sottolinea i progressi esponenziali nella potenza di calcolo, nella medicina e nelle biotecnologie.

Prevede inoltre scoperte rivoluzionarie come cure generate dall'intelligenza artificiale, sperimentazioni cliniche digitali e la velocità di fuga dalla longevità, grazie alle quali il progresso scientifico potrebbe prolungare la vita indefinitamente (vedi il video qui sotto).

Nel suo intervento al TED, Ray Kurzweil prevede l'intelligenza artificiale generale (AGI) entro il 2029 e una singolarità tecnologica entro il 2045, immaginando un futuro in cui i progressi esponenziali dell'IA rivoluzioneranno la medicina e allungheranno la longevità umana.

Yann LeCun, vincitore del premio Turing

Scopri perché i modelli LLM non possono fornirci un'intelligenza di livello umano e le più recenti strategie di intelligenza artificiale per raggiungerla:

Conclusione

Le previsioni sull'intelligenza artificiale generale (AGI) sono cambiate notevolmente negli ultimi anni. Mentre i sondaggi precedenti ne collocavano l'arrivo intorno al 2060, le previsioni più recenti, soprattutto da parte degli imprenditori, suggeriscono che potrebbe emergere già tra il 2026 e il 2035.

Questo cambiamento è alimentato dai rapidi progressi nei modelli linguistici complessi e dalla crescente potenza di calcolo. Tuttavia, nonostante questi progressi, l'intelligenza artificiale odierna manca ancora della flessibilità e dell'autonomia tipiche dell'intelligenza umana.

Gli esperti restano divisi su come si raggiungerà l'intelligenza artificiale generale (AGI); alcuni ritengono che sarà sufficiente scalare le architetture attuali, mentre altri sostengono che siano necessari nuovi metodi.

Le principali sfide includono l'elevato fabbisogno di risorse, parametri di riferimento poco chiari e questioni etiche irrisolte. L'intelligenza artificiale generale (AGI) potrebbe essere più vicina che mai, ma il suo raggiungimento dipende ancora sia da progressi tecnologici che da un'attenta supervisione.

FAQ

La singolarità è un evento ipotetico che si prevede porterà a un rapido aumento dell'intelligenza artificiale.

Per raggiungere la singolarità, abbiamo bisogno di un sistema che combini il pensiero a livello umano con una velocità sovrumana e una memoria pressoché perfetta e rapidamente accessibile.

La singolarità dovrebbe anche portare alla coscienza delle macchine, ma poiché la coscienza non è ben definita, non possiamo essere precisi al riguardo. Un sistema del genere potrebbe auto-migliorarsi e superare le capacità umane.

Sebbene il termine "singolarità" sia relativamente datato, oggigiorno si usano più frequentemente i termini "intelligenza artificiale generale" (AGI) e soprattutto "superintelligenza" per descrivere lo stesso fenomeno.

L'intelligenza artificiale generale (AGI) si riferisce a un tipo di IA in grado di comprendere, apprendere e applicare conoscenze in un'ampia gamma di compiti intellettuali a un livello pari o superiore a quello degli esseri umani.

A differenza dell'IA ristretta, progettata per compiti specifici come la traduzione automatica o il riconoscimento di immagini, l'IA generale possiederebbe capacità cognitive generalizzate, che le consentirebbero di ragionare, pianificare e adattarsi in situazioni non familiari.

Lo sviluppo dell'intelligenza artificiale generale (AGI) rimane un obiettivo di ricerca significativo e oggetto di dibattito etico e filosofico.

La superintelligenza indica un intelletto che supera significativamente le migliori menti umane in praticamente tutti i campi, tra cui la creatività, la capacità di risolvere problemi e la comprensione sociale.

Rappresenta una fase successiva all'intelligenza artificiale generale (AGI), in cui un sistema artificiale potrebbe superare gli esseri umani in ogni ambito intellettuale di rilievo.

Il concetto solleva questioni cruciali in merito al controllo, alla sicurezza e alle implicazioni a lungo termine per il ruolo dell'umanità in un mondo dominato da un'intelligenza superiore.

L'intelligenza artificiale avanzata (AMI, Advanced Machine Intelligence) comprende sistemi di intelligenza artificiale competenti che si avvicinano o raggiungono un'intelligenza quasi generale.

Sebbene non possiedano ancora la completa flessibilità e autoconsapevolezza associate all'AGI, i sistemi AMI dimostrano capacità avanzate di ragionamento, apprendimento e adattabilità in diversi compiti.

Il termine viene spesso utilizzato per indicare sistemi di intelligenza artificiale che superano le attuali capacità di intelligenza artificiale ristretta, ma rimangono al di sotto della soglia dell'intelligenza generale completa.

Collegamenti di riferimento

1.
[2311.02462] Levels of AGI for Operationalizing Progress on the Path to AGI
2.
2023 Expert Survey on Progress in AI [AI Impacts Wiki]
3.
2022 Expert Survey on Progress in AI – AI Impacts
4.
[2206.04132] Forecasting AI Progress: Evidence from a Survey of Machine Learning Researchers
5.
When Will We Reach the Singularity? - A Timeline Consensus from AI Researchers (AI FutureScape 1 of 6)
6.
AI timelines: What do experts in artificial intelligence expect for the future? - Our World in Data
7.
[1705.08807] When Will AI Exceed Human Performance? Evidence from AI Experts
8.
https://nickbostrom.com/papers/survey.pdf
9.
https://sethbaum.com/ac/2011_AI-Experts.pdf
10.
track record
11.
Update to Samotsvety AGI timelines — EA Forum
12.
Samotsvety's AI risk forecasts — EA Forum
13.
AGI When? [High Quality Turing Test] | Manifold
14.
When will OpenAI achieve AGI? Odds & Predictions
15.
OpenAI announces it has achieved AGI before 2027? Predict... | Polymarket
Polymarket
16.
When will the first weakly general AI system be devised, tested, and publicly announced?
17.
When will an AI first pass a long, informed, adversarial Turing test?
18.
When Will the First General AI Be Announced?
19.
As of July 1, 2022, when will top forecasters expect the first Artificial General Intelligence to be developed and demonstrated?
20.
The arrival of AGI | Shane Legg (co-founder of DeepMind) - YouTube
21.
The Day After AGI > World Economic Forum Annual Meeting | World Economic Forum
22.
Dr. Eric Schmidt - YouTube
23.
Tesla's Musk predicts AI will be smarter than the smartest human next year | Reuters
Reuters
24.
Nvidia CEO says AI could pass human tests in five years | Reuters
Reuters
25.
The Singularity Is Near: When Humans Transcend Biology: Kurzweil, Ray: 8601405784551: Amazon.com: Books
26.
If Ray Kurzweil Is Right (Again), You’ll Meet His Immortal Soul in the Cloud | WIRED
WIRED
27.
The "Father of Artificial Intelligence" Says Singularity Is 30 Years Away
Futurism
28.
The brief history of artificial intelligence: the world has changed fast — what might be next? - Our World in Data
29.
The "Father of Artificial Intelligence" Says Singularity Is 30 Years Away
Futurism
30.
https://aaai.org/wp-content/uploads/2025/03/AAAI-2025-PresPanel-Report-Digital-3.7.25.pdf
31.
OpenAI Ramps Up Robotics Work in Race Toward AGI | WIRED
WIRED
32.
[2303.12712] Sparks of Artificial General Intelligence: Early experiments with GPT-4
33.
https://wp.technologyreview.com/wp-content/uploads/2025/08/MITTR_ArmEBrief_V12_final.pdf
34.
AGI's Last Bottlenecks | AI Frontiers
AI Frontiers
35.
https://www.agidefinition.ai/paper.pdf
36.
Geoff Hinton: On Radiology - YouTube
37.
Artificial general intelligence - Wikipedia
Contributors to Wikimedia projects
38.
Artificial general intelligence - Wikipedia
Contributors to Wikimedia projects
39.
A guide to why advanced AI could destroy the world | Vox
Vox
40.
Brain–computer interface - Wikipedia
Contributors to Wikimedia projects
41.
Data Companies Hit by AI Selloff Push Back on Claude Threat
The Wall Street Journal
42.
Advanced version of Gemini with Deep Think officially achieves gold-medal standard at the International Mathematical Olympiad — Google DeepMind
Google DeepMind
43.
Training compute of frontier AI models grows by 4-5x per year | Epoch AI
44.
AlphaGo Zero - Wikipedia
Contributors to Wikimedia projects
45.
Moore's law - Wikipedia
Contributors to Wikimedia projects
46.
I think the phrase AGI should be retired and replaced by "human-level AI". There is no such thing as AGI. Even human intelligence is very specialized. We do not realize that human intelligence is… | Yann LeCun | 125 comments
47.
A talk I gave at MIT recently. | Yann LeCun | 139 comments
48.
Subscribe to read
Financial Times
49.
Measuring the predictability of life outcomes with a scientific mass collaboration | PNAS
50.
IQ is largely a pseudoscientific swindle (Argument Closed) | by Nassim Nicholas Taleb | INCERTO | Medium
INCERTO
51.
ScienceDirect
52.
https://arxiv.org/pdf/2503.14499
53.
Can AI scaling continue through 2030? | Epoch AI
54.
Unsupported browser
55.
Richard Sutton – Father of RL thinks LLMs are a dead end - Dwarkesh Podcast | Podcast on Spotify
56.
https://www.arxiv.org/pdf/2507.19703
57.
https://www.arxiv.org/pdf/2507.19703
58.
Inside Microsoft’s AI Bet: Satya Nadella on Leadership, Innovation and the Future - YouTube
59.
OpenAI, Microsoft Rift Hinges on How Smart AI Can Get - WSJ
The Wall Street Journal
60.
Occupational Employment and Wage Statistics (OEWS) Tables : U.S. Bureau of Labor Statistics
61.
https://arxiv.org/abs/2502.03689
Cem Dilmegani
Cem Dilmegani
Analista principale
Cem è analista principale presso AIMultiple dal 2017. AIMultiple fornisce informazioni a centinaia di migliaia di aziende (secondo SimilarWeb), tra cui il 55% delle aziende Fortune 500, ogni mese. Il lavoro di Cem è stato citato da importanti pubblicazioni globali come Business Insider, Forbes, Washington Post, società globali come Deloitte e HPE, ONG come il World Economic Forum e organizzazioni sovranazionali come la Commissione Europea. È possibile consultare l'elenco di altre aziende e risorse autorevoli che hanno citato AIMultiple. Nel corso della sua carriera, Cem ha lavorato come consulente tecnologico, responsabile acquisti tecnologici e imprenditore nel settore tecnologico. Ha fornito consulenza alle aziende sulle loro decisioni tecnologiche presso McKinsey & Company e Altman Solon per oltre un decennio. Ha anche pubblicato un report di McKinsey sulla digitalizzazione. Ha guidato la strategia tecnologica e gli acquisti di un'azienda di telecomunicazioni, riportando direttamente al CEO. Ha inoltre guidato la crescita commerciale dell'azienda deep tech Hypatos, che ha raggiunto un fatturato annuo ricorrente a 7 cifre e una valutazione a 9 cifre partendo da zero in soli 2 anni. Il lavoro di Cem in Hypatos è stato oggetto di articoli su importanti pubblicazioni tecnologiche come TechCrunch e Business Insider. Cem partecipa regolarmente come relatore a conferenze internazionali di settore. Si è laureato in ingegneria informatica presso l'Università di Bogazici e ha conseguito un MBA presso la Columbia Business School.
Visualizza il profilo completo
Ricercato da
Sıla Ermut
Sıla Ermut
Analista di settore
Sıla Ermut è un'analista di settore presso AIMultiple, specializzata in email marketing e video di vendita. In precedenza, ha lavorato come reclutatrice in società di project management e consulenza. Sıla ha conseguito un Master in Psicologia Sociale e una laurea in Relazioni Internazionali.
Visualizza il profilo completo

Commenti 12

Condividi i tuoi pensieri

Il tuo indirizzo email non verrà pubblicato. Tutti i campi sono obbligatori.

0/450
Harper Ford
Harper Ford
Sep 07, 2023 at 15:32

Does anyone know when this article was first published? I want to do a comparison of predictions vs reality for a project.

Bardia Eshghi
Bardia Eshghi
Sep 11, 2023 at 05:04

Hi Harper. The article was first published in mid-2017. But it's undergone constant updates since then to reflect the latest developments. Good luck with your project and let us know if we can help further!

Yuvan Mohan
Yuvan Mohan
Apr 20, 2022 at 14:28

I think we are far away from the point of singularity. It is not only that intelligence is multi dimensional, but also what is deemed as being intelligent (e.g., IQ, EQ) changes with time. People also change with time. So what is that point of singularity may change.

Bardia Eshghi
Bardia Eshghi
Aug 23, 2022 at 07:52

Hello, Yuvan. Thank you for your feedback.

David Wood
David Wood
Mar 26, 2022 at 22:50

Hello, Achieving the singularity from where we are now is relatively a simple jump, it is just time and advancements combined with a team somewhere who is dedicated to it and has the money to pull it off. The missing part of the equation would be asking the question "what is consciousness?" and understanding that. Then, understanding how to model that with non-biological machinery even at small levels, like modeling the consciousness of an amoeba or more advanced things like snakes and squirrels. Then if we know for certain what it is and how to model it, just run an adaptive evolution algorithm on itself, modeling out all of the processes in human cognition until it can beat them everywhere. Then, allow it to simply rebuild itself to continuously improve. The problem currently preventing this, is that human beings have no idea what consciousness is at all. It is a great mystery. One person thinks it is in the brain. Another thinks the brain is like a tuning fork, channeling the consciousness from somewhere else. It is a great mystery in science. When this problem is solved, then machine consciousness can be built most likely, depending on what it actually is. If consciousness is something weird, such as "human beings have spirits in other dimensions that are planned for their bodies by a supreme being. The brain creates a quantum resonant frequency that links it together with this already conscious entity, and then several universes are interacting simultaneously to create the actual experience of being self aware and sentient" well then, it will be very difficult to design a machine that does that same thing. It is more likely that we figure out how to model the resonance in the brain and then transfer an already existing consciousness of an animal or a human into a machine and keep it going, if that even makes any sense at all. However, maybe that's not how it works, and it is something simple like the holographic connection of energy patterns fluctuating in the mind - this can be modeled and a machine can be built that does these sorts of things with much more efficiency. Right now the mystery of the problem is consciousness itself. Hope that helps. I really enjoyed the robot soccer tournament. I also feel like a superhero at soccer now.

Grant Castillou
Grant Castillou
Mar 15, 2022 at 17:28

It's becoming clear that with all the brain and consciousness theories out there, the proof will be in the pudding. By this I mean, can any particular theory be used to create a human adult level conscious machine. My bet is on the late Gerald Edelman's Extended Theory of Neuronal Group Selection. The lead group in robotics based on this theory is the Neurorobotics Lab at UC at Irvine. Dr. Edelman distinguished between primary consciousness, which came first in evolution, and that humans share with other conscious animals, and higher order consciousness, which came to only humans with the acquisition of language. A machine with primary consciousness will probably have to come first. The thing I find special about the TNGS is the Darwin series of automata created at the Neurosciences Institute by Dr. Edelman and his colleagues in the 1990's and 2000's. These machines perform in the real world, not in a restricted simulated world, and display convincing physical behavior indicative of higher psychological functions necessary for consciousness, such as perceptual categorization, memory, and learning. They are based on realistic models of the parts of the biological brain that the theory claims subserve these functions. The extended TNGS allows for the emergence of consciousness based only on further evolutionary development of the brain areas responsible for these functions, in a parsimonious way. No other research I've encountered is anywhere near as convincing. I post because on almost every video and article about the brain and consciousness that I encounter, the attitude seems to be that we still know next to nothing about how the brain and consciousness work; that there's lots of data but no unifying theory. I believe the extended TNGS is that theory. My motivation is to keep that theory in front of the public. And obviously, I consider it the route to a truly conscious machine, primary and higher-order. My advice to people who want to create a conscious machine is to seriously ground themselves in the extended TNGS and the Darwin automata first, and proceed from there, by applying to Jeff Krichmar's lab at UC Irvine, possibly. Dr. Edelman's roadmap to a conscious machine is at https://arxiv.org/abs/2105.10461

Isaac
Isaac
Nov 06, 2021 at 07:01

I think Patrick Winston was joking when he said 20 years. From the linked quote: "I was recently asked a variant on this question. People have been saying we will have human-level intelligence in 20 years for the past 50 years. My answer: I’m ok with it. It will be true eventually." "Forced into a corner, with a knife at my throat, I would say 20 years, and I say that fully confident that it will be true eventually."

Cem Dilmegani
Cem Dilmegani
Nov 06, 2021 at 11:22

Great point! We should have read the source more carefully. I tried to explain his point better in the article.

Elisa
Elisa
Aug 31, 2021 at 05:52

I have the impression that the nerds that make this kind of prediction (replicate human brain) know a whole lot about computer programming but are ignorant about neuroscience/psychology. We are nor even scratching the surface about primary phenomenon, such as counsciousness / unconsciousness. How do you claim that you can replicate something that we are still far from understanding how it works?

Cem Dilmegani
Cem Dilmegani
Sep 19, 2021 at 13:41

Thank you for the comment. True, better understanding of the mind would help AGI research.

Lulu
Lulu
Aug 25, 2021 at 15:47

mmm... I'm not sure we can reach to this point: "benevolence of intelligent machines" Emotions and Feelings are there to guide our actions, to improve ourselves and to make a better world, can we make a machine to feel guilt of being smarter than us??

Michael Hannon
Michael Hannon
Apr 02, 2021 at 02:15

Saying human intelligence is fixed ignores that as we learn more about how the human brain works we may learn how to expand its capability's ie through some form of enhanced learning, targeted drugs, gene therapy, electro stimulation and not just direct brain computer connections being the only potential for doing this. More so currently hampered by our lack of understanding even the language you use has an effect on your cognitive ability's its one of the reasons deaf people were called dumb was the occurrence of language deprivation and how it negatively effected neurodevelopment it was a major problem when deaf children were forced to lip read instead of using sign language . But we will need more powerful AIs to achieve an understanding of our brains

Vyn
Vyn
Jan 09, 2021 at 16:07

People who say AGI will be here in 2060 are idiots and don't understand the flow of technology you'll see

Chris
Chris
May 24, 2021 at 15:45

@Vyn What do you mean? Do you mean to say it will take way before or way after 2060?

Cem Dilmegani
Cem Dilmegani
Jan 10, 2021 at 16:05

Thanks! I'll be quite happy if I get to see 2060

Kutay Tezcan
Kutay Tezcan
Aug 30, 2020 at 13:33

Intelligent doesn't solve our all problems maybe yes but certainly its essential and more intelligent you are faster you solve problems. If you are a chimp you can not even pour water to a glass. You do not even know what glass is used for. Yes if you are human being you still need to get up and grab the glass but intellegence is essential. I do not think human brain is impossible to create in a lab. I think earth is a lab. Anything found in nature can be replicate in the lab.

Magnus RC Wootton
Magnus RC Wootton
Aug 22, 2020 at 21:46

if P=NP then the singularity may happen also. Saying the human brain is impossible to recreate I dont agree with, but to say its intractable probably is approximately true. So P=NP, if you could solve that mystery (which is the millenial prize funnily) with an intractable calculation, that could make all the magic happen as well.

Cem Dilmegani
Cem Dilmegani
Aug 23, 2020 at 07:44

Thanks for the comment. Most computer scientists working on AI or machine learning would agree that it is possible to replicate human brain's capabilities.

Jannes
Jannes
May 16, 2019 at 07:40

The claim that "humans contribute most to the biomass" on the planet is likely to be wrong. Check out this paper for a careful estimation: https://www.pnas.org/content/115/25/6506

AIMultiple
AIMultiple
May 27, 2019 at 17:42

Thank you! That was insightful. Biology is not my strong suit, I should stick to computer science.

B
B
Jul 01, 2020 at 09:00

@AIMultiple Humble response, and great article. Thanks a ton :)

Cem Dilmegani
Cem Dilmegani
Jul 20, 2020 at 20:29

@B Thanks!