L'intelligenza artificiale generale (AGI) si verifica quando un sistema di IA eguaglia le capacità cognitive umane in tutti i compiti. Sulla base delle previsioni disponibili, ecco alcune risposte rapide sull'AGI:
L'intelligenza artificiale generale/la singolarità tecnologica si realizzeranno? Secondo la maggior parte degli esperti di intelligenza artificiale , l'intelligenza artificiale generale è inevitabile .
Quando avverrà la singolarità/l'intelligenza artificiale generale (AGI)? Recenti sondaggi tra i ricercatori di IA prevedono l'AGI negli anni 2040. Secondo le previsioni della comunità , l'AGI è attesa intorno agli anni 2030. Gli imprenditori prevedono che accadrà entro pochi anni.
Abbiamo analizzato le previsioni di 9.800 scienziati dell'IA, imprenditori di spicco e membri della comunità scientifica in merito alla cronologia dell'intelligenza artificiale generale (AGI):
Cronologia del generale artificiale Intelligence
La cronologia sopra riportata delinea l'anno previsto per la singolarità, sulla base delle informazioni raccolte da 8 sondaggi e delle risposte di 9.800 ricercatori nel campo dell'intelligenza artificiale, scienziati e partecipanti ai mercati delle previsioni:
Come si può notare sopra, gli intervistati prevedono sempre più che la singolarità si verificherà prima di quanto previsto in precedenza.
Ecco come abbiamo creato questo grafico:
- Per rappresentare graficamente l'anno previsto di sviluppo dell'AGI, abbiamo utilizzato la media ponderata delle previsioni per ogni anno all'interno di ciascuna categoria. Ad esempio, se nel 2022 erano presenti più previsioni di mercato, ne abbiamo calcolato la media ponderata e riportato tale valore sul grafico.
- Per le previsioni individuali, abbiamo incluso le previsioni di 15 esperti di intelligenza artificiale.
- Per le previsioni scientifiche, abbiamo raccolto i risultati di un sondaggio da 8 articoli sottoposti a revisione paritaria che forniscono delle tempistiche per l'intelligenza artificiale generale (AGI).
- Per le previsioni di mercato e le previsioni basate sulle opinioni della community, abbiamo utilizzato:
- Oltre 1.100 previsioni provenienti da Manifold, Kalshi e Polymarket, mercati di previsione online in cui i partecipanti negoziano sulla probabilità e sulla tempistica di eventi futuri per ottenere profitto o reputazione.
- Risultati aggregati di 8 esperti di previsioni meteorologiche di Samotsvety. Samotsvety utilizza metodi quantitativi per generare previsioni probabilistiche su eventi reali.
- 3.290 previsioni inviate nel 2020 e nel 2022 sulla piattaforma pubblica Metaculus.
Altre domande chiave sull'AGI
Qual è la nostra situazione attuale in merito all'AGI?
Sebbene l'intelligenza artificiale ristretta superi gli esseri umani in compiti specifici, una macchina con intelligenza generale non esiste. Alcuni ricercatori ritengono che i modelli linguistici di grandi dimensioni dimostrino capacità generaliste emergenti. 1 Secondo il nostro benchmark AGI , le macchine sono ben lungi dal generare valore economico in modo autonomo.
Come possiamo raggiungere l'AGI?
O aumentando la potenza di calcolo e la quantità di dati a supporto delle architetture esistenti, come i transformer, oppure inventando nuovi approcci. Non esiste ancora un consenso scientifico sul metodo per raggiungere l'intelligenza artificiale generale (AGI) o per validarla.
Qui sotto puoi consultare gli studi e le previsioni che compongono questa cronologia, oppure passare direttamente alla sezione sulla comprensione della singolarità .
Risultati delle principali indagini condotte tra i ricercatori di intelligenza artificiale
Abbiamo esaminato i risultati di 8 sondaggi che hanno coinvolto più di 4.900 ricercatori ed esperti di intelligenza artificiale, nei quali hanno stimato quando potrebbe verificarsi l'intelligenza artificiale generale/la singolarità.
Sebbene le previsioni varino, la maggior parte dei sondaggi indica una probabilità del 50% di raggiungere l'intelligenza artificiale generale (AGI) tra il 2040 e il 2061, con alcune stime che prevedono la superintelligenza entro pochi decenni.
Sondaggio di esperti del 2023 sui progressi nell'intelligenza artificiale
A ottobre, AI Impacts ha intervistato 2.778 ricercatori nel campo dell'IA per stabilire quando si potrebbe raggiungere l'intelligenza artificiale generale (AGI). Il sondaggio includeva domande pressoché identiche a quelle del sondaggio del 2022. In base ai risultati, si stima che l'intelligenza artificiale di alto livello sarà raggiunta entro il 2040 . 2
Sondaggio di esperti del 2022 sui progressi nell'IA
L'indagine è stata condotta su 738 esperti che hanno pubblicato articoli alle conferenze NIPS e ICML del 2021. Gli esperti di intelligenza artificiale stimano che ci sia una probabilità del 50% che l'intelligenza artificiale di alto livello si raggiunga entro il 2059. 3
Gli esperti hanno inoltre previsto che il costo dell'hardware, i progressi algoritmici e il lavoro sui set di dati di addestramento saranno i fattori principali per il progresso dell'IA.
Previsioni sui progressi dell'IA nel 2019
Baobao Zhang ha intervistato 296 esperti di intelligenza artificiale, chiedendo loro di prevedere quando le macchine supereranno le capacità del lavoratore umano medio nell'esecuzione di oltre il 90% delle attività economicamente rilevanti. Metà degli intervistati ha stimato che ciò accadrà prima del 2060 . 4
Sondaggio tra esperti di IA sulle tempistiche dell'AGI nel 2019
Le previsioni di 32 esperti di IA sui tempi di introduzione dell'AGI. 5 sono:
- Il 45% degli intervistati prevede una data precedente al 2060.
- Il 34% di tutti i partecipanti ha previsto una data successiva al 2060.
- Il 21% dei partecipanti ha previsto che la singolarità non si verificherà mai.
Indagine sul potenziale impatto dell'IA sulla perdita di posti di lavoro nel 2018
Ross Gruetzemacher ha intervistato 165 esperti di intelligenza artificiale per valutare il potenziale impatto dell'IA sulla sostituzione del lavoro umano. Agli esperti è stato chiesto di stimare quando i sistemi di IA saranno in grado di svolgere il 99% dei compiti per i quali gli esseri umani vengono attualmente retribuiti, a un livello pari o superiore a quello di un essere umano medio.
La metà degli intervistati ha previsto che questo traguardo sarà raggiunto prima del 2068 , mentre il 75% si aspetta che si verifichi entro i prossimi 100 anni. 6
Sondaggio del 2017 sugli esperti di intelligenza artificiale intervistati alle conferenze NIPS e ICML del 2015.
Nel maggio 2017, sono stati intervistati 352 esperti di intelligenza artificiale che avevano pubblicato articoli alle conferenze NIPS e ICML del 2015. 7
In base ai risultati dei sondaggi, gli esperti stimano che ci sia una probabilità del 50% che l'intelligenza artificiale generale (AGI) si realizzi entro il 2060. Detto questo, esiste una notevole differenza di opinioni a seconda dell'area geografica:
- Gli intervistati asiatici prevedono un'inflazione generale (AGI) tra 30 anni,
- I nordamericani prevedono che ciò avverrà tra 74 anni.
Tra le principali mansioni lavorative che si prevede saranno automatizzate entro il 2030 figurano gli operatori dei call center, gli autisti di camion e i venditori al dettaglio.
Progressi futuri nell'indagine sull'intelligenza artificiale nel 2012/2013
Vincent C. Muller, presidente dell'Associazione europea per i sistemi cognitivi, e Nick Bostrom dell'Università di Oxford, autore di oltre 200 articoli sulla superintelligenza e sull'intelligenza artificiale generale (AGI), hanno condotto un sondaggio tra i ricercatori nel campo dell'IA. 550 partecipanti hanno risposto alla domanda: Quando è probabile che l'AGI si realizzi? 8
Secondo i risultati:
- Gli esperti di intelligenza artificiale intervistati stimano che l'intelligenza artificiale generale (AGI) probabilmente (con oltre il 50% di probabilità) emergerà tra il 2040 e il 2050 ed è altamente probabile (con il 90% di probabilità) che compaia entro il 2075.
- Una volta raggiunta l'intelligenza artificiale generale (AGI), la maggior parte degli esperti ritiene che si evolverà verso la superintelligenza in tempi relativamente brevi, con un arco temporale che va da un minimo di 2 anni (improbabile, probabilità del 10%) a circa 30 anni (alta probabilità, 75%).
Sondaggio del 2009 condotto tra esperti di intelligenza artificiale partecipanti alla conferenza AGI-09.
In base ai risultati del sondaggio condotto tra 21 esperti di IA partecipanti alla conferenza AGI-09, si ritiene che l'intelligenza artificiale generale (AGI) si realizzerà intorno al 2050 , e plausibilmente anche prima. 9 Di seguito potete vedere le loro stime relative a specifici traguardi raggiunti dall'IA: superare il test di Turing, superare la terza elementare, conseguire scoperte scientifiche degne del Premio Nobel e raggiungere un'intelligenza sovrumana.
Figura 1: Risultati del sondaggio distribuito ai partecipanti alla conferenza Artificial General Intelligence 2009 (AGI-09).
Approfondimenti dalla community
Abbiamo inoltre valutato le previsioni di Samotsvety Forecasting e Metaculus Community sull'AGI e i risultati di mercato delle previsioni di Manifold, Kalshi e Polymarket:
Previsioni meteo
Samotsvety Forecasting è un team di previsori che effettua previsioni probabilistiche su eventi reali, in particolare in ambito geopolitico, tecnologico e dei rischi globali, utilizzando ragionamenti strutturati e metodi quantitativi. Il team vanta una solida esperienza competitiva sulle principali piattaforme e competizioni di previsione (ad esempio, INFER/CSET-Foretell), dove la precisione delle loro previsioni viene misurata utilizzando metriche di punteggio formali come il punteggio Brier. 10
Nel gennaio 2026, il team ha aggiornato le proprie previsioni sull'AGI con 8 previsori. 11 Ecco i risultati aggregati:
- C'è una probabilità del 10% di raggiungere l'AGI (Indice di Sviluppo Rendimentato Generale) nel 2026.
- C'è una probabilità del 50% di raggiungere l'AGI entro il 2041.
- 90% di probabilità di raggiungere l'AGI entro il 2164
In una precedente previsione del 2022, il team aveva stimato una probabilità del 32% di raggiungere l'intelligenza artificiale generale (AGI) entro 20 anni (entro il 2042 circa) e del 73% entro il 2100 , entrambe inferiori alle proiezioni attuali. 12
Mercato Manifold
A gennaio 2026, oltre 1.100 esperti del mercato Manifold avevano previsto che l'anno in cui un'IA avrebbe superato per la prima volta un "test di Turing avversariale di alta qualità" sarebbe stato il 2035 . 13
Mercato delle previsioni di Kalshi
Secondo quanto riportato nel gennaio 2026 dagli esperti del mercato delle previsioni di Kalshi, c'è una probabilità del 40% che OpenAI raggiunga l'AGI entro il 2030 . 14
Polymarket
I risultati delle previsioni di Polymarket di gennaio 2026 indicavano una probabilità del 9% che OpenAI raggiungesse l'AGI entro il 2027 . 15
Metaculus Previsioni della comunità
Dati aggiornati a febbraio 2026:
- 1.700 partecipanti hanno risposto alla domanda "Quando verrà ideato, testato e annunciato pubblicamente il primo sistema di intelligenza artificiale debolmente generale?" e la previsione è il 21 febbraio 2028 . 16
- 178 partecipanti hanno risposto alla domanda "Quando un'IA supererà per la prima volta un test di Turing lungo, informato e avversariale?" e la loro previsione è il 22 aprile 2029. 17
- 1.800 partecipanti hanno risposto alla domanda "Quando verrà ideato, testato e annunciato pubblicamente il primo sistema di intelligenza artificiale generale?" e la loro previsione è aprile 2033. 18
Nel 2022, 81 partecipanti hanno risposto alla domanda "Quando i principali previsori prevedono che verrà sviluppata e dimostrata la prima Abilità Artificiale Generale?" e la loro previsione è stata il 2035 . 19
Spunti e riflessioni di imprenditori e ricercatori nel campo dell'IA.
Anche gli imprenditori del settore dell'IA stanno formulando stime su quando raggiungeremo la singolarità, e sono più ottimisti dei ricercatori. Ciò è prevedibile, dato che beneficiano del crescente interesse per l'IA.
Le loro opinioni divergono sulla velocità e sul percorso di sviluppo dell'intelligenza artificiale generale (AGI). Amodei di OpenAI prevede che l'AGI arriverà a breve termine grazie a un rapido progresso autoalimentante, mentre Hassabis di DeepMind la considera plausibile ma rimane cauto, citando sfide irrisolte nella creatività scientifica e nell'auto-miglioramento autonomo.
Ecco le previsioni di 15 tra i più importanti imprenditori e ricercatori nel campo dell'intelligenza artificiale:
- Shane Legg, cofondatore di DeepMind Technologies, definisce l'AGI minima come un agente artificiale in grado di svolgere in modo affidabile l'intera gamma di compiti cognitivi di un essere umano medio, senza commettere errori che ci sorprenderebbero se a una persona venisse assegnato lo stesso compito. La sua previsione, formulata nel gennaio 2026, è che ci sia una probabilità del 50% che l'AGI minima diventi realtà entro il 2028 .
- Secondo Legg, raggiungere un'intelligenza artificiale generale (AGI) minima non significa che comprenderemo appieno o saremo in grado di riprodurre le forme più elevate di intelligenza umana, come le grandi scoperte scientifiche o i risultati artistici. L'AGI completa si raggiungerà solo quando l'IA sarà in grado di eguagliare l'intero spettro della cognizione umana. 20
- Dario Amodei, CEO di Anthropic, ha espresso forte fiducia nell'imminente arrivo di sistemi di intelligenza artificiale generale (AGI) al World Economic Forum di Davos del 2026. Ha affermato che l'AGI si realizzerà probabilmente entro pochi anni ( 2027), forse anche prima di quanto ampiamente previsto.
- Sostiene che i rapidi progressi nella programmazione e nell'automazione della ricerca sull'IA siano fondamentali, in quanto consentono ai sistemi di IA di gestire la maggior parte delle attività di ingegneria del software dall'inizio alla fine e di accelerare il proprio sviluppo attraverso cicli di feedback.
- Pur riconoscendo i limiti imposti dalla disponibilità dell'hardware e dai tempi di formazione, ritiene improbabile una tempistica molto più lunga e prevede una rapida accelerazione una volta che questi cicli saranno maturi. 21
- Allo stesso evento nel 2026, Demis Hassabis, fondatore di DeepMind, ha mantenuto una visione più cauta, ribadendo una stima di circa il 50% di probabilità di raggiungere l'intelligenza artificiale generale (AGI) entro la fine del decennio (2030).
- Hassabis concorda sul fatto che i progressi siano rapidi in ambiti verificabili come la programmazione e la matematica, ma sottolinea che la scoperta scientifica e il ragionamento creativo rimangono più difficili.
- Egli mette in luce i limiti irrisolti nella generazione di nuove domande e teorie ed esprime incertezza riguardo al miglioramento autonomo completo, in particolare in ambiti complessi del mondo reale, il che, a suo avviso, rende meno certe le tempistiche dell'intelligenza artificiale generale (AGI).
- Combinando i progressi dell'IA nel ragionamento, nella programmazione e nella matematica, Eric Schmidt, ex CEO di Google, ritiene che ci stiamo dirigendo verso l'Artificialità Generale entro 3-5 anni (come affermato nell'aprile 2025). 22
- Elon Musk prevede che entro il 2026 verrà sviluppata un'intelligenza artificiale più intelligente di quella degli esseri umani più intelligenti. 23
- Nel febbraio 2025, l'imprenditore e investitore Masayoshi Son lo aveva previsto entro 2-3 anni (ovvero, il 2027 o il 2028 ).
- Nel marzo 2024, il CEO di Nvidia, Jensen Huang, predisse che entro cinque anni l'intelligenza artificiale avrebbe eguagliato o superato le prestazioni umane in qualsiasi test: 2029. 24
- Louis Rosenberg, informatico, imprenditore e scrittore, entro il 2030 .
- Ray Kurzweil, informatico, imprenditore e autore di 5 bestseller nazionali, tra cui The Singularity Is Near: Previously 2045, 25 , nel 2024, 2032 . 26
- Nel 2023, Hinton riteneva che potessero volerci dai 5 ai 20 anni. 27
- Sam Altman, CEO di OpenAI, entro il 2035. Ha menzionato "qualche migliaio di giorni" nel 2024 nel suo blog "The Intelligence Age".
- Ajeya Cotra, ricercatore nel campo dell'intelligenza artificiale, ha analizzato la crescita della potenza di calcolo necessaria per l'addestramento dei sistemi e ha stimato una probabilità del 50% che entro il 2040 emerga un'IA con capacità simili a quelle umane. 28
- Patrick Winston, professore del MIT e direttore del Laboratorio di intelligenza artificiale del MIT dal 1972 al 1997, ha menzionato il 2040, sottolineando che, sebbene sia una data che potrebbe verificarsi, è difficile stimarla .
- Jürgen Schmidhuber, co-fondatore dell'azienda di intelligenza artificiale NNAISENSE e direttore del laboratorio svizzero di intelligenza artificiale IDSIA, entro il 2050. 29
Altri commenti e sviluppi riguardanti l'AGI
Tavola rotonda presidenziale AAAI 2025 sul futuro della ricerca sull'intelligenza artificiale.
A 475 intervistati, provenienti principalmente dal mondo accademico (67%) e dal Nord America (53%), è stato chiesto un parere sui progressi nell'intelligenza artificiale. Sebbene il sondaggio non richiedesse una tempistica per l'intelligenza artificiale generale (AGI), il 76% degli intervistati ha affermato che l'ampliamento degli attuali approcci all'IA difficilmente porterà all'AGI. 30
OpenAI espande le sue ambizioni nel campo della robotica
OpenAI sta intensificando la sua attenzione sulla robotica nell'ambito del suo obiettivo di far progredire l'intelligenza artificiale generale. L'azienda sta assumendo specialisti in sistemi robotici umanoidi e sta formando un team per progettare algoritmi che aiutino i robot ad apprendere e ad agire in modo indipendente nel mondo fisico.
Questo segna un cambiamento rispetto alla precedente attenzione di OpenAI sui modelli linguistici e di immagine. L'azienda ora mira a connettere il ragionamento avanzato con l'interazione fisica, suggerendo che considera la robotica un passo essenziale verso la sperimentazione e la realizzazione dell'intelligenza artificiale generale (AGI).
Contesto e implicazioni
Dopo aver sciolto il suo primo team di robotica intorno al 2020, OpenAI sta tornando allo sviluppo attivo in questo campo. Le recenti assunzioni e le potenziali collaborazioni indicano un rinnovato impegno nella costruzione di robot capaci di apprendimento e manipolazione nel mondo reale.
Combinando modelli di intelligenza artificiale su larga scala con dati sensoriali, OpenAI mira a creare sistemi in grado di ragionare e operare al di fuori degli ambienti digitali. L'assunzione di esperti di robotica umanoide indica inoltre obiettivi a lungo termine che vanno oltre l'automazione e puntano a robot in grado di lavorare in sicurezza a fianco delle persone. 31
Rapporto di Microsoft sui primi esperimenti con GPT-4
Nel 2023, una ricerca ha studiato una versione preliminare di OpenAI di GPT-4. Il rapporto affermava che mostrava un'intelligenza generale superiore rispetto ai precedenti modelli di IA, con prestazioni a livello umano in aree come la matematica, la programmazione e il diritto. Ciò ha scatenato un dibattito sul fatto che GPT-4 fosse una forma preliminare di intelligenza artificiale generale . 32
Il rapporto del MIT sulla strada verso l'intelligenza artificiale generale.
Il rapporto "The road to artificial general intelligence" dell'agosto 2025 prevede che i primi sistemi simili all'AGI potrebbero iniziare a emergere tra il 2026 e il 2028 , mostrando capacità di ragionamento di livello umano in ambiti specifici, funzionalità multimodali attraverso interfacce testuali, audio e fisiche, e un'autonomia limitata orientata a obiettivi specifici.
Il rapporto combina previsioni aggregate e suggerisce una probabilità del 50% che diversi traguardi generali, come il trasferimento di conoscenze e il ragionamento su vasta scala, saranno raggiunti entro il 2028 .
Le proiezioni a lungo termine stimano che le macchine potrebbero superare le prestazioni umane in tutti i compiti economicamente rilevanti intorno al 2047 , a condizione che si verifichino progressi nell'efficienza computazionale, scoperte algoritmiche e apprendimento autonomo. 33
Frontiere dell'IA sulle probabilità dell'AGI
Adam Khoja e Laura Hiscott di AI Frontiers, una piattaforma per dibattiti e dialoghi sull'IA, stimano una probabilità del 50% di raggiungere l'AGI entro il 2028 e dell'80% entro il 2030 , utilizzando la loro definizione quantitativa di AGI. 34
Khoja e Hiscott valutano i progressi verso l'intelligenza artificiale generale utilizzando una definizione sviluppata da Khoja, Dan Hendrycks e dai loro coautori. 35 Il loro quadro di riferimento misura dieci abilità cognitive e assegna a GPT-4 un punteggio del 27% e a GPT-5 un punteggio del 57%. Ciò indica che i modelli attuali sono circa a metà strada verso la soglia AGI definita.
Khoja e Hiscott sostengono che le discussioni tradizionali sulle tempistiche dell'intelligenza artificiale generale (AGI) mancano di precisione perché si basano su definizioni incoerenti. Il loro quadro di riferimento standardizzato mira a fare chiarezza individuando punti di forza e di debolezza specifici nei modelli attuali. Sottolineano che la lettura, la scrittura, la matematica e le conoscenze generali raggiungono o superano le capacità umane di base e non rappresentano più fattori limitanti.
Gli autori evidenziano le lacune ancora esistenti nel ragionamento visivo, nella fisica intuitiva, nell'elaborazione uditiva, nella velocità dipendente dalla percezione e nella memoria di lavoro visiva e uditiva. Riportano rapidi miglioramenti in test di riferimento come SPACE e MindCube e suggeriscono che queste lacune possano essere probabilmente colmate attraverso una continua ricerca incrementale. Osservano inoltre che le allucinazioni rimangono una preoccupazione, ma sono gestibili date le differenze di prestazioni tra i modelli principali.
Secondo Khoja, Hiscott e Hendrycks, l'ostacolo più significativo che rimane è l'apprendimento continuo e la memorizzazione a lungo termine. I sistemi attuali non sono in grado di conservare le informazioni tra una sessione e l'altra, e superare questa limitazione richiederà almeno una svolta significativa. Tuttavia, gli autori sottolineano che i principali laboratori di intelligenza artificiale stanno ora dando priorità a questo ambito.
Imparare dagli errori del passato, quando le previsioni sull'IA erano eccessivamente ottimistiche.
Tenete presente che in passato i ricercatori nel campo dell'IA erano eccessivamente ottimisti. Ecco alcuni esempi:
- Nel 2016 Geoff Hinton sostenne che non avremmo più avuto bisogno di radiologi entro il 2021 o il 2026. Finora, la radiologia non è stata completamente automatizzata e gli ospedali hanno bisogno di migliaia di questi professionisti. 36
- Nel 1965, Herbert A. Simon, pioniere dell'intelligenza artificiale, affermò: "Entro vent'anni, le macchine saranno in grado di svolgere qualsiasi lavoro che un uomo possa fare". 37
- Il computer di quinta generazione giapponese del 1980 aveva un piano decennale con obiettivi quali "svolgere conversazioni informali". 38
Questa esperienza storica ha contribuito a far sì che la maggior parte degli scienziati attuali evitasse di prevedere l'intelligenza artificiale generale (AGI) con orizzonti temporali così ampi come 10-20 anni, ma la situazione è cambiata con l'avvento dell'intelligenza artificiale generativa .
Comprendere cosa sia la singolarità
L'intelligenza artificiale ci spaventa e ci incuriosisce. Quasi ogni settimana, i notiziari riportano nuove notizie allarmanti sull'IA, come sviluppatori preoccupati per ciò che hanno creato o la chiusura di bot perché diventati troppo intelligenti. 39
La maggior parte di questi miti deriva da ricerche interpretate erroneamente da chi non opera nel campo dell'IA e dell'IA generale. Alcuni soggetti interessati affermano di temere l'IA perché potrebbero trarre vantaggio da una maggiore regolamentazione o perché potrebbe attirare su di loro maggiore attenzione.
La più grande paura riguardo all'IA è la singolarità (chiamata anche intelligenza artificiale generale o AGI), un evento che si prevede porterà a un rapido aumento dell'intelligenza delle macchine. Ciò si verifica quando un sistema combina il pensiero a livello umano con una velocità sovrumana e una memoria quasi perfetta e rapidamente accessibile. Secondo alcuni esperti, la singolarità implica anche la coscienza delle macchine.
Una macchina del genere potrebbe auto-migliorarsi e superare le capacità umane. Ancor prima che l'intelligenza artificiale diventasse un argomento di ricerca nell'informatica, scrittori di fantascienza come Asimov se ne preoccupavano. Stavano elaborando meccanismi (ovvero, le Leggi della Robotica di Asimov) per garantire la benevolenza delle macchine intelligenti, un campo che oggi viene comunemente chiamato ricerca sull'allineamento .
Perché gli esperti ritengono che l'intelligenza artificiale generale sia inevitabile: argomentazioni e prove chiave
Raggiungere l'intelligenza artificiale generale (AGI) potrebbe sembrare una previsione azzardata, ma appare un obiettivo piuttosto ragionevole se si considera che l'intelligenza umana è fissa, mentre quella delle macchine è in continua evoluzione . È solo questione di tempo prima che le macchine ci superino, a meno che non esista un limite invalicabile alla loro intelligenza. Finora non abbiamo incontrato un limite del genere.
L'intelligenza umana è statica a meno che non si riesca in qualche modo a fondere le nostre capacità cognitive con quelle delle macchine. La startup di Elon Musk, Neural Lace, si propone di fare proprio questo, ma la ricerca sulle interfacce cervello-computer è ancora nelle fasi iniziali. 40
L'intelligenza artificiale dipende da algoritmi, potenza di elaborazione e dati.
- La potenza di elaborazione è cresciuta a un ritmo esponenziale grazie ai consistenti investimenti in ricerca e sviluppo e nei data center.
- Finora siamo stati bravi a fornire alle macchine gli algoritmi necessari per utilizzare efficacemente la loro potenza di elaborazione e la loro memoria.
- Infine, aziende e privati creano dati digitali a un ritmo sempre maggiore.I dati sintetici possono corrompere i modelli o arricchirli. Anche se li corrompessero, si tratterebbe di un problema risolvibile grazie alla curatela dei dati.
Risultati recenti
Opus 4.6
Nel febbraio 2026, Claude ha rilasciato Opus 4.6 con una finestra di contesto di 1 milione e risultati di benchmark impressionanti.
Anthropic si sta concentrando anche sui casi d'uso rilasciando plugin come Claude Legal, che sono file Markdown per aiutare i modelli a navigare in domini specifici. Sebbene si trattasse di una piccola aggiunta a Claude, ha innescato una svendita in borsa, compresi i software SaaS e legali. 41
Gemelli Pensatore Profondo
Un altro esempio è la modalità di pensiero profondo Gemini di DeepMind, che ha ottenuto la medaglia d'oro alle Olimpiadi Internazionali di Matematica del 2025, segnando un passo significativo nella capacità dell'IA di ragionare su problemi complessi.
Operando interamente in linguaggio naturale, Gemini ha risolto cinque dei sei problemi entro il tempo limite ufficiale di 4,5 ore, producendo dimostrazioni chiare e comprensibili senza ricorrere a strumenti simbolici formali.
Le sue capacità derivano da diverse innovazioni: la modalità Deep Think consente l'esplorazione parallela di percorsi di soluzione, l'addestramento incorpora dimostrazioni matematiche di livello esperto e l'apprendimento per rinforzo affina il suo approccio strategico.
Questi progressi dimostrano che l'intelligenza artificiale avanzata è ora in grado di impegnarsi in ragionamenti sofisticati e interpretabili a un livello un tempo riservato ai migliori risolutori di problemi umani. 42
Opencrawl
Opencrawl è un progetto open source che trasforma i modelli lineari di apprendimento (LLM) in agenti. È diventato uno dei progetti più popolari su GitHub e ha dato il via all'ecosistema Opencrawl .
crescita esponenziale
Quella che segue è un'utile analogia per comprendere la crescita esponenziale. Sebbene le macchine possano non sembrare particolarmente intelligenti al momento, potrebbero diventarlo in un futuro prossimo.
Recente crescita delle capacità di calcolo dell'IA
Figura 2: La figura mostra un riepilogo dei modelli di crescita della potenza di calcolo osservati in varie categorie: modelli complessivamente più rilevanti (in alto a sinistra), modelli di frontiera (in alto a destra), modelli leader nei linguaggi di programmazione (in basso a sinistra) e modelli migliori delle aziende leader (in basso a destra).
Le risorse computazionali per l'addestramento dei modelli di intelligenza artificiale sono aumentate in modo significativo, e circa due terzi delle prestazioni dei modelli linguistici sono attribuibili ai miglioramenti in termini di scalabilità dei modelli.
Secondo un articolo del 2024, 43 La crescita dell'utilizzo della potenza di calcolo nell'addestramento dei modelli di IA è aumentata costantemente di circa 4-5 volte all'anno, riflettendo le tendenze dei modelli più noti, dei modelli di frontiera e delle aziende leader come OpenAI, Google DeepMind e Meta AI (vedi Figura 2).
Tuttavia, il tasso di crescita ha subito un rallentamento dal 2018, soprattutto per i modelli di frontiera, mentre i modelli linguistici hanno registrato una crescita più rapida, fino a 9 volte all'anno fino a metà del 2020, dopodiché il ritmo è rallentato a 4-5 volte all'anno.
Il trend generale di crescita della potenza di calcolo per l'IA rimane solido e le proiezioni suggeriscono che il tasso di crescita di 4-5 volte all'anno continuerà, a meno che non si presentino nuove sfide o scoperte rivoluzionarie. Questa crescita si riflette anche nelle strategie di scalabilità delle principali aziende del settore, sebbene con lievi differenze tra di esse.
Nonostante un rallentamento nella crescita dei modelli di frontiera, i modelli più grandi pubblicati oggi, come GPT-4 e Gemini Ultra, si allineano strettamente alla traiettoria di crescita prevista.
Se l'informatica classica rallenta, l'informatica quantistica potrebbe colmare il vuoto.
L'informatica classica ci ha portato molto lontano. Gli algoritmi di intelligenza artificiale sui computer classici possono superare le prestazioni umane in compiti specifici come giocare a scacchi o a Go. Ad esempio, AlphaGo Zero ha sconfitto AlphaGo per 100 a 0. AlphaGo aveva battuto i migliori giocatori del mondo. 44 Tuttavia, ci stiamo avvicinando ai limiti della velocità raggiungibile dai computer classici.
La legge di Moore, basata sull'osservazione che il numero di transistor in un circuito integrato ad alta densità raddoppia circa ogni due anni, implica che il costo del calcolo si dimezza approssimativamente ogni 2 anni.
D'altro canto, la maggior parte degli esperti ritiene che la legge di Moore giungerà al termine in questo decennio. 45 Tuttavia, si stanno compiendo sforzi per continuare a migliorare l'efficienza del calcolo.
Ad esempio, DeepSeek ha sorpreso i mercati globali con il suo modello R1, offrendo un modello di ragionamento a una frazione del costo dei suoi concorrenti, come OpenAI.
L'informatica quantistica , che è ancora una tecnologia emergente, può contribuire a ridurre i costi di calcolo una volta che la legge di Moore giungerà al termine. L'informatica quantistica si basa sulla valutazione simultanea di diversi stati, mentre i computer classici possono calcolare un solo stato alla volta.
La natura unica del calcolo quantistico può essere sfruttata per addestrare in modo efficiente le reti neurali, attualmente l'architettura di intelligenza artificiale più diffusa nelle applicazioni commerciali. Gli algoritmi di intelligenza artificiale in esecuzione su computer quantistici stabili hanno la possibilità di sbloccare la singolarità.
Perché alcuni esperti ritengono che non raggiungeremo l'intelligenza artificiale generale (AGI)?
Esistono 3 argomenti principali contro l'importanza o l'esistenza dell'AGI. Li abbiamo esaminati insieme alle relative confutazioni più comuni:
1- Intelligenza è multidimensionale
Pertanto, l'intelligenza artificiale generale (AGI) sarà diversa, non necessariamente superiore all'intelligenza umana.
È vero, e l'intelligenza umana è diversa anche da quella animale. Alcuni animali sono capaci di imprese mentali straordinarie, come gli scoiattoli che ricordano per mesi dove hanno nascosto centinaia di noci.
Yann LeCun, uno dei pionieri del deep learning, ritiene che dovremmo abbandonare il termine AGI e concentrarci sul raggiungimento di un'“intelligenza artificiale avanzata”. 46 Sostiene che la mente umana è specializzata e che l'intelligenza è un insieme di abilità e la capacità di apprendere nuove abilità. Ogni essere umano può svolgere solo un sottoinsieme dei compiti dell'intelligenza umana. 47
È inoltre difficile per noi umani comprendere il livello di specializzazione della mente umana, poiché non conosciamo e non possiamo sperimentare l'intero spettro dell'intelligenza.
Nei campi in cui le macchine mostravano un'intelligenza sovrumana, gli esseri umani sono stati in grado di sconfiggerle sfruttando le loro debolezze specifiche. Ad esempio, un dilettante è riuscito a battere un programma di Go di pari livello rispetto ai programmi che hanno sconfitto i campioni del mondo, studiando e sfruttando i punti deboli del programma. 48
2- Intella libertà non è la soluzione a tutti i problemi
Scienza
Anche la macchina più sofisticata nell'analizzare i dati esistenti potrebbe non essere in grado di trovare una cura per il cancro. Potrebbe essere necessario condurre esperimenti nel mondo reale e analizzarne i risultati per scoprire nuove conoscenze nella maggior parte dei campi.
Una maggiore intelligenza può portare a esperimenti meglio progettati e gestiti, consentendo un maggior numero di scoperte per esperimento. La storia della produttività della ricerca dovrebbe dimostrarlo, ma i dati sono piuttosto rumorosi e i rendimenti della ricerca sono decrescenti. Ci imbattiamo in problemi più complessi, come la fisica quantistica, mentre risolviamo problemi più semplici come il moto newtoniano.
Infine, in alcuni ambiti potrebbero non essere possibili previsioni perfette a causa della casualità o dell'impossibilità di misurazione intrinseca di tali ambiti. Ad esempio, anche con una grande quantità di dati, non siamo in grado di prevedere determinati esiti della vita con un elevato grado di precisione. 49
Economia
La fiducia non è l'unico ingrediente per la generazione di valore economico.
- Il QI, la misura più comunemente accettata dell'intelligenza umana, non è correlato al patrimonio netto per valori superiori a circa 40.000 dollari (vedi immagine sotto):
Figura 3: Il QI è correlato alla ricchezza a bassi livelli di ricchezza. 50
Figura 4: Il QI non è correlato alla ricchezza se ci concentriamo solo sui livelli di ricchezza più elevati. Questo grafico è identico a quello precedente, tranne per il fatto che i livelli di reddito netto inferiori a 40.000 dollari sono stati nascosti. 51
- Nel mondo degli investimenti, l'intelligenza del team di un'azienda non è considerata un fattore di competitività. Si presume implicitamente che anche le altre aziende siano in grado di individuare strategie intelligenti. Gli investitori prediligono le imprese con vantaggi competitivi sleali, quali proprietà intellettuale, economie di scala, accesso esclusivo alle risorse, ecc. La maggior parte di questi vantaggi competitivi non può essere replicata unicamente con l'intelligenza.
3- L'intelligenza artificiale generale (AGI) non è possibile perché non è possibile modellare il cervello umano.
In teoria, è possibile modellare qualsiasi macchina computazionale, incluso il cervello umano, con una macchina relativamente semplice in grado di eseguire calcoli di base e di accedere a memoria e tempo infiniti. Questa è l'ipotesi di Church-Turing, universalmente accettata e formulata nel 1950. Tuttavia, come già detto, essa richiede alcune condizioni difficili: tempo e memoria infiniti.
La maggior parte degli informatici ritiene che la modellazione del cervello umano richiederà un tempo e una memoria inferiori all'infinito. Tuttavia, non esiste un modo matematicamente valido per dimostrare questa affermazione, perché non comprendiamo ancora il cervello abbastanza bene da poterne caratterizzare con precisione la potenza di calcolo. Dovremo costruire una macchina del genere!
Come possiamo raggiungere l'AGI?
Figura 5: L'orizzonte temporale dei modelli di IA di frontiera nel tempo mostra i compiti più lunghi (in tempo equivalente a quello umano) che ciascun modello può completare con un'affidabilità del 50%. 52
La figura sopra riportata mostra come le capacità degli agenti di intelligenza artificiale siano migliorate nel tempo, misurando i compiti più lunghi che riescono a completare con un'affidabilità del 50%.
La scoperta fondamentale è che la lunghezza dei compiti che i modelli di frontiera possono gestire è cresciuta esponenzialmente , raddoppiando all'incirca ogni sette mesi. Ciò significa che i modelli più recenti, come Sonnet e o1, possono ora completare compiti che richiederebbero a un essere umano quasi un'ora, mentre i modelli più vecchi come GPT-2 riuscivano a malapena a gestire compiti più lunghi di pochi secondi.
L'area ombreggiata riflette l'incertezza statistica, ma la tendenza generale è affidabile. Se questo schema dovesse continuare, i sistemi di intelligenza artificiale potrebbero presto gestire compiti complessi che agli esseri umani richiedono giorni o addirittura settimane, segnando un passo significativo verso una maggiore autonomia e capacità simili a quelle dell'intelligenza artificiale generale (AGI).
La scalabilità come via verso l'intelligenza artificiale generale
I responsabili dei laboratori di intelligenza artificiale all'avanguardia ritengono che l'estensione su larga scala degli attuali approcci basati sui transformer possa portare all'intelligenza artificiale generale (AGI), il che alimenta le loro previsioni sul raggiungimento dell'AGI entro pochi anni .
Una delle vie proposte per arrivare all'intelligenza artificiale generale (AGI) consiste nell'ampliare le architetture esistenti, come i transformer, aumentando la potenza di calcolo e la quantità di dati, mentre un'altra prevede lo sviluppo di approcci completamente nuovi.
A sostegno dell'ipotesi di scalabilità, un rapporto del 2024 di Epoch AI ha analizzato se la crescita della potenza di calcolo dell'IA possa continuare fino al 2030.
Hanno identificato quattro principali vincoli: disponibilità di energia, capacità di produzione dei chip, scarsità di dati e latenza di elaborazione (vedere Figura 6).
Nonostante queste difficoltà, sostengono che sia possibile addestrare modelli che richiedono fino a 2e29 FLOP entro la fine del decennio, presupponendo investimenti significativi nelle infrastrutture.
Tali progressi potrebbero produrre sistemi di intelligenza artificiale di gran lunga più capaci dei modelli all'avanguardia odierni come GPT-4, avvicinandoci all'intelligenza artificiale generale (AGI). 53
Figura 6: Il grafico illustra i limiti superiori stimati per la potenza di calcolo necessaria all'addestramento dell'IA entro il 2030, tenendo conto di vincoli chiave quali potenza, produzione di chip, dati e latenza, con valori mediani compresi tra 2e29 e 3e31 FLOP.
Oltre la scalabilità: le ragioni a favore di nuove architetture
Tuttavia, influenti scienziati dell'IA come Yann LeCun e Richard Sutton ritengono che l'applicazione su larga scala di modelli linguistici complessi non porterà a un'intelligenza di livello umano. 54 55 Credono che siano necessarie nuove architetture o nuovi approcci per l'AGI.
Come possiamo misurare se abbiamo raggiunto l'AGI?
I modelli linguistici di grandi dimensioni (LLM) superano ogni settimana nuovi record, ma la loro valutazione è complessa a causa di problemi come l'avvelenamento dei dati e la mancanza di una definizione scientifica universalmente accettata di intelligenza a livello umano.
Queste preoccupazioni sono amplificate dalle scoperte emerse da recenti ricerche. 56 che evidenziano come l'ampliamento dei modelli LLM non sia un percorso sostenibile per ottenere prestazioni migliori , soprattutto in ambito scientifico e in settori ad alto rischio. Gli autori dimostrano che:
- I modelli lineari lineari (LLM) presentano esponenti di scala estremamente bassi (~0,1) , il che significa che anche aumenti massicci di dati o di potenza di calcolo producono guadagni di precisione minimi .
- La capacità di apprendimento dei modelli lineari lineari (LLM) deriva dalla loro abilità di produrre output non gaussiani , ma ciò comporta anche un accumulo di errori e previsioni fragili .
- Le metriche tradizionali, come le funzioni di perdita, sono pseudo-metriche che non si allineano con la vera convergenza o accuratezza .
- Un regime di intelligenza artificiale degenerativa (DAI) può emergere quando i modelli, addestrati su dati sintetici o ripetitivi, accumulano errori più velocemente di quanto possano essere corretti.
Questi risultati mettono in discussione l'affidabilità dei parametri di riferimento standard e sottolineano la necessità di strategie di valutazione più diversificate e in continua evoluzione.
Le vecchie metriche come il test di Turing non sono all'altezza delle macchine odierne, e le nuove metriche come ARC-AGI potrebbero non avere la capacità di generalizzazione dei benchmark più ampi.
Le metriche emergenti come ARC-AGI mirano a testare l'astrazione e la generalizzazione, ma potrebbero ancora risultare poco robuste in caso di contaminazione dei dati o overfitting.
Inoltre, come evidenziato nell'articolo, anche punteggi di perdita "buoni" possono mascherare catastrofi informative sottostanti dovute a fluttuazioni non gaussiane e instabilità di addestramento. 57
Come possiamo monitorare i progressi dei LLM?
Esistono diversi approcci al benchmarking per superare queste difficoltà:
- Domande di benchmark aggiornate frequentemente. Esempio concreto: LiveBench
- Utilizzo di set di test di validazione per prevenire la contaminazione dei dati: benchmark di AIMultiple, come il benchmark AGI o ARC-AGI.
Quali sono gli approcci, oltre al benchmarking, per determinare l'AGI (reddito lordo rettificato)?
Esistono indicatori potenzialmente forti, ma ritardati, dell'impatto dell'IA, che possono aiutare a identificare l'AGI.
crescita economica
L'amministratore delegato Satya Nadella sostiene che una crescita del 10% nel mondo sviluppato indicherebbe un aumento dell'AGI. 58 Tuttavia, il suo incentivo è quello di avere una definizione ritardata di AGI poiché l'AGI porrebbe fine alla partnership esclusiva di OpenAI e Microsoft. 59
Disoccupazione
Ci aspettiamo che l'AGI
- Ridurre l'occupazione nel settore terziario al 10% del suo picco globale, se misurata in percentuale sulla forza lavoro totale. Ciò dovrebbe avvenire qualora la quota di reddito destinata al lavoro diminuisse drasticamente a causa dell'intelligenza artificiale .
- Mentre la crescita del PIL continua
In un mondo in cui le macchine sono più intelligenti ed efficienti degli esseri umani, non sarebbe razionale pagare una persona per stare seduta davanti a un computer. Pertanto, ci aspettiamo che l'occupazione nel settore dei colletti bianchi crolli, mentre gli esseri umani continuano a prosperare nei lavori del mondo fisico.
Gli enti governativi che raccolgono statistiche sul lavoro classificano le professioni in categorie dettagliate, rendendo l'occupazione nel settore dei colletti bianchi un parametro facilmente monitorabile.
Abbiamo raccolto dati dall'Ufficio di statistica del lavoro degli Stati Uniti sull'occupazione nel settore terziario per il periodo dal 2019 al 2024. 60 Per chiarezza e coerenza, abbiamo classificato i lavoratori impiegatizi nei seguenti gruppi professionali:
- Professioni in architettura e ingegneria
- Professioni nel settore commerciale e finanziario
- Professioni informatiche e matematiche
- Professionisti sanitari e tecnici
- Professioni legali
- Professioni nel campo delle scienze biologiche, fisiche e sociali
- Professioni dirigenziali
- Professioni di supporto amministrativo e d'ufficio
- Vendite e professioni affini
Secondo la nostra analisi, il rapporto tra impiegati e occupazione totale ha oscillato tra il 45% e il 48% in questo periodo.
Sebbene questo intervallo suggerisca una relativa stabilità nella quota di occupazione impiegatizia finora, non è indicativo di una tendenza a lungo termine e ci aspettiamo cambiamenti più marcati nei prossimi anni con l'accelerazione dell'automazione e dell'adozione dell'IA. Per ulteriori previsioni su come l'IA cambierà l'occupazione impiegatizia e di livello base, leggi "Perdita di posti di lavoro dovuta all'IA" .
Dovremmo davvero puntare all'intelligenza artificiale generale (AGI)?
Alcuni informatici avvertono che concentrarsi sull'intelligenza artificiale generale (AGI) come obiettivo finale potrebbe distorcere la ricerca in questo campo. 61 Le critiche includono: la creazione di un'illusione di consenso, l'eccessivo adattamento dei parametri di riferimento, l'ignorare i valori sociali radicati, il lasciare che l'entusiasmo detti le priorità, l'accumulo di "debito di generalizzazione" (il rinvio di questioni chiave di progettazione) e l'esclusione delle comunità marginalizzate e dei ricercatori con risorse insufficienti.
Obiettivi specifici, misurabili e trasparenti sarebbero più efficaci per il progresso dell'IA rispetto a un obiettivo vagamente definito come l'AGI.
Il ragionamento matematico alla base delle previsioni sull'AGI
Il ragionamento matematico è fondamentale per comprendere e prevedere le tempistiche dell'intelligenza artificiale generale (AGI). Molte proiezioni si basano su tendenze quantificabili e modelli formali che guidano le aspettative su quando l'intelligenza artificiale generale potrebbe emergere.
Leggi di scala e crescita computazionale
Una componente fondamentale del ragionamento matematico consiste nell'analizzare le leggi di scala . Queste dimostrano che le prestazioni del modello migliorano in modo prevedibile con l'aumentare dei dati, dei parametri e della potenza di calcolo.
La crescita annua costante di 4-5 volte della potenza di calcolo per l'addestramento dell'IA avvalora le previsioni secondo cui l'intelligenza artificiale generale (AGI) potrebbe essere raggiungibile entro uno o due decenni, a condizione che le tendenze attuali continuino.
Queste proiezioni si basano su adattamenti empirici alle curve di prestazione ed estrapolazioni, supportate da relazioni di legge di potenza, un concetto fondamentale nella modellazione matematica.
Previsione probabilistica
I ricercatori applicano metodi probabilistici anche alle previsioni sull'intelligenza artificiale generale (AGI). Spesso, nei sondaggi, agli esperti viene chiesto di stimare la probabilità che l'AGI venga sviluppata entro determinati anni, producendo distribuzioni di probabilità cumulative.
Ad esempio, una probabilità del 50% entro il 2040 riflette un consenso in condizioni di incertezza, guidato da aggiornamenti di tipo bayesiano basati sui progressi osservati nell'IA.
Questo approccio di ragionamento matematico coglie l'incertezza degli esperti senza richiedere date precise, consentendo revisioni continue man mano che nuovi dati diventano disponibili.
Fondamenti teorici
Queste previsioni si basano su elementi teorici del ragionamento matematico, tra cui la tesi di Church-Turing, che implica che la cognizione umana può essere simulata dalle macchine, e concetti come la complessità di Kolmogorov, che collega l'intelligenza alla comprimibilità delle informazioni.
Sebbene tali teorie non garantiscano l'intelligenza artificiale generale (AGI), forniscono un quadro di riferimento per riflettere sulla sua possibilità e sui requisiti computazionali coinvolti.
Maggiori informazioni su Artificial General Intelligence
David Silver, ricercatore principale presso DeepMind (991259-1709).
Spiega che l'Intelligenza Artificiale Generale (AGI) si riferisce a sistemi di IA capaci di apprendere ed eccellere in una vasta gamma di compiti, proprio come gli esseri umani che possono diventare esperti in diversi campi come la scienza, la musica o lo sport.
A differenza dell'IA ristretta, limitata a una singola funzione, l'AGI aspira a replicare l'adattabilità umana e la capacità generale di risolvere i problemi.
Egli osserva che, sebbene l'intelligenza artificiale generale (AGI) sia un obiettivo a lungo termine, raggiungere una vera intelligenza a livello umano richiederà probabilmente diverse scoperte e si svilupperà gradualmente nel tempo (vedi il video qui sotto).
Ilya Sutskever, co-fondatore e responsabile scientifico di OpenAI
Nel TED Talk "L'emozionante e pericoloso viaggio verso l'AGI", esplora i rapidi progressi verso l'Intelligenza Artificiale Generale (AGI).
Prevede che l'intelligenza artificiale generale (AGI) potrebbe emergere entro i prossimi 5-10 anni, pur riconoscendo l'incertezza di questa tempistica.
Sutskever mette in luce sia l'immenso potenziale che i profondi rischi dell'intelligenza artificiale generale (AGI), sottolineando la necessità di allineare il suo sviluppo ai valori umani. Nonostante le sfide, si dichiara ottimista sul fatto che l'umanità possa guidare in modo sicuro questa potente tecnologia (vedi il video qui sotto).
Ray Kurzweil, informatico e imprenditore
Riflette su oltre sessant'anni di progressi nell'intelligenza artificiale, ripercorrendo la capacità dell'umanità di costruire strumenti in grado di potenziare l'intelligenza, dagli utensili primitivi ai grandi modelli linguistici.
Prevede inoltre che l'intelligenza artificiale generale arriverà entro il 2029, portando alla singolarità tecnologica entro il 2045. Sottolinea i progressi esponenziali nella potenza di calcolo, nella medicina e nelle biotecnologie.
Prevede inoltre scoperte rivoluzionarie come cure generate dall'intelligenza artificiale, sperimentazioni cliniche digitali e la velocità di fuga dalla longevità, grazie alle quali il progresso scientifico potrebbe prolungare la vita indefinitamente (vedi il video qui sotto).
Yann LeCun, vincitore del premio Turing
Scopri perché i modelli LLM non possono fornirci un'intelligenza di livello umano e le più recenti strategie di intelligenza artificiale per raggiungerla:
Conclusione
Le previsioni sull'intelligenza artificiale generale (AGI) sono cambiate notevolmente negli ultimi anni. Mentre i sondaggi precedenti ne collocavano l'arrivo intorno al 2060, le previsioni più recenti, soprattutto da parte degli imprenditori, suggeriscono che potrebbe emergere già tra il 2026 e il 2035.
Questo cambiamento è alimentato dai rapidi progressi nei modelli linguistici complessi e dalla crescente potenza di calcolo. Tuttavia, nonostante questi progressi, l'intelligenza artificiale odierna manca ancora della flessibilità e dell'autonomia tipiche dell'intelligenza umana.
Gli esperti restano divisi su come si raggiungerà l'intelligenza artificiale generale (AGI); alcuni ritengono che sarà sufficiente scalare le architetture attuali, mentre altri sostengono che siano necessari nuovi metodi.
Le principali sfide includono l'elevato fabbisogno di risorse, parametri di riferimento poco chiari e questioni etiche irrisolte. L'intelligenza artificiale generale (AGI) potrebbe essere più vicina che mai, ma il suo raggiungimento dipende ancora sia da progressi tecnologici che da un'attenta supervisione.
FAQ
La singolarità è un evento ipotetico che si prevede porterà a un rapido aumento dell'intelligenza artificiale.
Per raggiungere la singolarità, abbiamo bisogno di un sistema che combini il pensiero a livello umano con una velocità sovrumana e una memoria pressoché perfetta e rapidamente accessibile.
La singolarità dovrebbe anche portare alla coscienza delle macchine, ma poiché la coscienza non è ben definita, non possiamo essere precisi al riguardo. Un sistema del genere potrebbe auto-migliorarsi e superare le capacità umane.
Sebbene il termine "singolarità" sia relativamente datato, oggigiorno si usano più frequentemente i termini "intelligenza artificiale generale" (AGI) e soprattutto "superintelligenza" per descrivere lo stesso fenomeno.
L'intelligenza artificiale generale (AGI) si riferisce a un tipo di IA in grado di comprendere, apprendere e applicare conoscenze in un'ampia gamma di compiti intellettuali a un livello pari o superiore a quello degli esseri umani.
A differenza dell'IA ristretta, progettata per compiti specifici come la traduzione automatica o il riconoscimento di immagini, l'IA generale possiederebbe capacità cognitive generalizzate, che le consentirebbero di ragionare, pianificare e adattarsi in situazioni non familiari.
Lo sviluppo dell'intelligenza artificiale generale (AGI) rimane un obiettivo di ricerca significativo e oggetto di dibattito etico e filosofico.
La superintelligenza indica un intelletto che supera significativamente le migliori menti umane in praticamente tutti i campi, tra cui la creatività, la capacità di risolvere problemi e la comprensione sociale.
Rappresenta una fase successiva all'intelligenza artificiale generale (AGI), in cui un sistema artificiale potrebbe superare gli esseri umani in ogni ambito intellettuale di rilievo.
Il concetto solleva questioni cruciali in merito al controllo, alla sicurezza e alle implicazioni a lungo termine per il ruolo dell'umanità in un mondo dominato da un'intelligenza superiore.
L'intelligenza artificiale avanzata (AMI, Advanced Machine Intelligence) comprende sistemi di intelligenza artificiale competenti che si avvicinano o raggiungono un'intelligenza quasi generale.
Sebbene non possiedano ancora la completa flessibilità e autoconsapevolezza associate all'AGI, i sistemi AMI dimostrano capacità avanzate di ragionamento, apprendimento e adattabilità in diversi compiti.
Il termine viene spesso utilizzato per indicare sistemi di intelligenza artificiale che superano le attuali capacità di intelligenza artificiale ristretta, ma rimangono al di sotto della soglia dell'intelligenza generale completa.
Commenti 12
Condividi i tuoi pensieri
Il tuo indirizzo email non verrà pubblicato. Tutti i campi sono obbligatori.
Does anyone know when this article was first published? I want to do a comparison of predictions vs reality for a project.
Hi Harper. The article was first published in mid-2017. But it's undergone constant updates since then to reflect the latest developments. Good luck with your project and let us know if we can help further!
I think we are far away from the point of singularity. It is not only that intelligence is multi dimensional, but also what is deemed as being intelligent (e.g., IQ, EQ) changes with time. People also change with time. So what is that point of singularity may change.
Hello, Yuvan. Thank you for your feedback.
Hello, Achieving the singularity from where we are now is relatively a simple jump, it is just time and advancements combined with a team somewhere who is dedicated to it and has the money to pull it off. The missing part of the equation would be asking the question "what is consciousness?" and understanding that. Then, understanding how to model that with non-biological machinery even at small levels, like modeling the consciousness of an amoeba or more advanced things like snakes and squirrels. Then if we know for certain what it is and how to model it, just run an adaptive evolution algorithm on itself, modeling out all of the processes in human cognition until it can beat them everywhere. Then, allow it to simply rebuild itself to continuously improve. The problem currently preventing this, is that human beings have no idea what consciousness is at all. It is a great mystery. One person thinks it is in the brain. Another thinks the brain is like a tuning fork, channeling the consciousness from somewhere else. It is a great mystery in science. When this problem is solved, then machine consciousness can be built most likely, depending on what it actually is. If consciousness is something weird, such as "human beings have spirits in other dimensions that are planned for their bodies by a supreme being. The brain creates a quantum resonant frequency that links it together with this already conscious entity, and then several universes are interacting simultaneously to create the actual experience of being self aware and sentient" well then, it will be very difficult to design a machine that does that same thing. It is more likely that we figure out how to model the resonance in the brain and then transfer an already existing consciousness of an animal or a human into a machine and keep it going, if that even makes any sense at all. However, maybe that's not how it works, and it is something simple like the holographic connection of energy patterns fluctuating in the mind - this can be modeled and a machine can be built that does these sorts of things with much more efficiency. Right now the mystery of the problem is consciousness itself. Hope that helps. I really enjoyed the robot soccer tournament. I also feel like a superhero at soccer now.
It's becoming clear that with all the brain and consciousness theories out there, the proof will be in the pudding. By this I mean, can any particular theory be used to create a human adult level conscious machine. My bet is on the late Gerald Edelman's Extended Theory of Neuronal Group Selection. The lead group in robotics based on this theory is the Neurorobotics Lab at UC at Irvine. Dr. Edelman distinguished between primary consciousness, which came first in evolution, and that humans share with other conscious animals, and higher order consciousness, which came to only humans with the acquisition of language. A machine with primary consciousness will probably have to come first. The thing I find special about the TNGS is the Darwin series of automata created at the Neurosciences Institute by Dr. Edelman and his colleagues in the 1990's and 2000's. These machines perform in the real world, not in a restricted simulated world, and display convincing physical behavior indicative of higher psychological functions necessary for consciousness, such as perceptual categorization, memory, and learning. They are based on realistic models of the parts of the biological brain that the theory claims subserve these functions. The extended TNGS allows for the emergence of consciousness based only on further evolutionary development of the brain areas responsible for these functions, in a parsimonious way. No other research I've encountered is anywhere near as convincing. I post because on almost every video and article about the brain and consciousness that I encounter, the attitude seems to be that we still know next to nothing about how the brain and consciousness work; that there's lots of data but no unifying theory. I believe the extended TNGS is that theory. My motivation is to keep that theory in front of the public. And obviously, I consider it the route to a truly conscious machine, primary and higher-order. My advice to people who want to create a conscious machine is to seriously ground themselves in the extended TNGS and the Darwin automata first, and proceed from there, by applying to Jeff Krichmar's lab at UC Irvine, possibly. Dr. Edelman's roadmap to a conscious machine is at https://arxiv.org/abs/2105.10461
I think Patrick Winston was joking when he said 20 years. From the linked quote: "I was recently asked a variant on this question. People have been saying we will have human-level intelligence in 20 years for the past 50 years. My answer: I’m ok with it. It will be true eventually." "Forced into a corner, with a knife at my throat, I would say 20 years, and I say that fully confident that it will be true eventually."
Great point! We should have read the source more carefully. I tried to explain his point better in the article.
I have the impression that the nerds that make this kind of prediction (replicate human brain) know a whole lot about computer programming but are ignorant about neuroscience/psychology. We are nor even scratching the surface about primary phenomenon, such as counsciousness / unconsciousness. How do you claim that you can replicate something that we are still far from understanding how it works?
Thank you for the comment. True, better understanding of the mind would help AGI research.
mmm... I'm not sure we can reach to this point: "benevolence of intelligent machines" Emotions and Feelings are there to guide our actions, to improve ourselves and to make a better world, can we make a machine to feel guilt of being smarter than us??
Saying human intelligence is fixed ignores that as we learn more about how the human brain works we may learn how to expand its capability's ie through some form of enhanced learning, targeted drugs, gene therapy, electro stimulation and not just direct brain computer connections being the only potential for doing this. More so currently hampered by our lack of understanding even the language you use has an effect on your cognitive ability's its one of the reasons deaf people were called dumb was the occurrence of language deprivation and how it negatively effected neurodevelopment it was a major problem when deaf children were forced to lip read instead of using sign language . But we will need more powerful AIs to achieve an understanding of our brains
People who say AGI will be here in 2060 are idiots and don't understand the flow of technology you'll see
@Vyn What do you mean? Do you mean to say it will take way before or way after 2060?
Thanks! I'll be quite happy if I get to see 2060
Intelligent doesn't solve our all problems maybe yes but certainly its essential and more intelligent you are faster you solve problems. If you are a chimp you can not even pour water to a glass. You do not even know what glass is used for. Yes if you are human being you still need to get up and grab the glass but intellegence is essential. I do not think human brain is impossible to create in a lab. I think earth is a lab. Anything found in nature can be replicate in the lab.
if P=NP then the singularity may happen also. Saying the human brain is impossible to recreate I dont agree with, but to say its intractable probably is approximately true. So P=NP, if you could solve that mystery (which is the millenial prize funnily) with an intractable calculation, that could make all the magic happen as well.
Thanks for the comment. Most computer scientists working on AI or machine learning would agree that it is possible to replicate human brain's capabilities.
The claim that "humans contribute most to the biomass" on the planet is likely to be wrong. Check out this paper for a careful estimation: https://www.pnas.org/content/115/25/6506
Thank you! That was insightful. Biology is not my strong suit, I should stick to computer science.
@AIMultiple Humble response, and great article. Thanks a ton :)
@B Thanks!