Dienstleistungen
Kontaktieren Sie uns
Keine Ergebnisse gefunden.

AGI/Singularität: 9.800 Vorhersagen analysiert

Cem Dilmegani
Cem Dilmegani
aktualisiert am Feb 24, 2026
Siehe unsere ethischen Normen

Künstliche allgemeine Intelligenz (AGI) liegt vor, wenn ein KI-System die menschlichen kognitiven Fähigkeiten in allen Aufgabenbereichen nachahmt. Basierend auf verfügbaren Prognosen lassen sich folgende Fragen zu AGI schnell beantworten:

Wird es zu einer AGI/Singularität kommen? Laut den meisten KI-Experten ist eine AGI unvermeidlich .

Wann wird die Singularität/AGI eintreten? Jüngste Umfragen unter KI-Forschern sagen AGI für die 2040er-Jahre voraus. Laut Prognosen aus der Community wird AGI um die 2030er-Jahre erwartet. Unternehmer gehen davon aus, dass es in wenigen Jahren soweit sein wird.

Wir analysierten die Prognosen von 9.800 KI-Wissenschaftlern, führenden Unternehmern und der Community im Hinblick auf die AGI-Zeitleiste:

Künstlicher allgemeiner Intelligence-Zeitplan

Loading Chart

Die obige Zeitleiste skizziert das voraussichtliche Jahr der Singularität, basierend auf Erkenntnissen aus 8 Umfragen und Antworten von 9.800 KI-Forschern, Wissenschaftlern und Teilnehmern an Prognosemärkten:

Wie Sie oben sehen können, gehen die Befragten zunehmend davon aus, dass die Singularität früher eintreten wird als bisher erwartet.

So haben wir dieses Diagramm erstellt:

  • Um das erwartete Jahr der AGI-Entwicklung im Diagramm darzustellen, verwendeten wir den gewichteten Durchschnitt der Prognosen für jedes Jahr innerhalb jeder Kategorie. Gab es beispielsweise mehrere Prognosen des Vorhersagemarktes für 2022, berechneten wir deren gewichteten Durchschnitt und trugen diesen Wert ein.
  • Für die einzelnen Vorhersagen haben wir Prognosen von 15 KI-Experten einbezogen.
  • Für wissenschaftliche Prognosen haben wir Umfrageergebnisse aus 8 Fachartikeln zusammengetragen, die Zeitpläne für AGI liefern.
  • Für Prognosen auf Markt- und Community-Ebene verwendeten wir:
    • Über 1.100 Vorhersagen von Manifold, Kalshi und Polymarket, Online-Vorhersagemärkten, auf denen Teilnehmer mit der Wahrscheinlichkeit und dem Zeitpunkt zukünftiger Ereignisse handeln, um Gewinn zu erzielen oder ihren Ruf zu verbessern.
    • Zusammengefasste Ergebnisse von 8 Experten von Samotsvety Forecasting. Samotsvety Forecasting verwendet quantitative Methoden, um Wahrscheinlichkeitsprognosen über reale Ereignisse zu erstellen.
    • 3.290 Vorhersagen wurden in den Jahren 2020 und 2022 auf der öffentlich zugänglichen Plattform Metaculus eingereicht.

Weitere wichtige Fragen zu AGI

Wie ist unser aktueller Stand bei AGI?

Obwohl spezialisierte KI den Menschen in bestimmten Aufgaben übertrifft, existiert keine allgemein intelligente Maschine. Einige Forscher glauben, dass große Sprachmodelle beginnende generalistische Fähigkeiten aufweisen. 1 Gemäß unserem AGI-Benchmark sind Maschinen noch weit davon entfernt, autonom wirtschaftlichen Wert zu generieren.

Wie können wir eine allgemeine künstliche Intelligenz (AGI) erreichen?

Entweder durch die Erweiterung der Rechen- und Datenkapazität bestehender Architekturen wie Transformatoren oder durch die Entwicklung neuer Ansätze. Es besteht noch kein wissenschaftlicher Konsens über die Methode zur Erreichung von AGI oder deren Validierung.

Im Folgenden sehen Sie die Studien und Vorhersagen, aus denen diese Zeitleiste besteht, oder Sie springen direkt zum Abschnitt über das Verständnis der Singularität .

Ergebnisse wichtiger Umfragen unter KI-Forschern

Wir untersuchten die Ergebnisse von 8 Umfragen mit mehr als 4.900 KI-Forschern und -Experten, in denen diese abschätzten, wann AGI/Singularität eintreten könnte.

Während die Prognosen variieren, deuten die meisten Umfragen auf eine 50%ige Wahrscheinlichkeit hin, dass AGI zwischen 2040 und 2061 erreicht wird, wobei einige schätzen, dass Superintelligenz innerhalb weniger Jahrzehnte folgen könnte.

Expertenumfrage 2023 zum Fortschritt der KI

Im Oktober befragte AI Impacts 2.778 KI-Forscher zur Frage, wann mit dem Erreichen einer allgemeinen künstlichen Intelligenz (AGI) zu rechnen sei. Die Umfrage enthielt nahezu identische Fragen wie die Umfrage von 2022. Basierend auf den Ergebnissen wird die Entwicklung einer hochentwickelten künstlichen Intelligenz voraussichtlich bis 2040 erfolgen. 2

Expertenumfrage 2022 zum Fortschritt der KI

Die Umfrage wurde unter 738 Experten durchgeführt, die auf den Konferenzen NIPS und ICML 2021 publiziert hatten. KI-Experten schätzen die Wahrscheinlichkeit, dass hochentwickelte maschinelle Intelligenz bis 2059 Realität wird, auf 50 % . 3

Experten sagten außerdem voraus, dass Hardwarekosten, algorithmischer Fortschritt und die Arbeit an Trainingsdatensätzen die größten Faktoren für den Fortschritt der KI sein würden.

Prognose der KI-Fortschritte im Jahr 2019

Baobao Zhang befragte 296 KI-Experten und bat sie um eine Prognose, wann Maschinen den durchschnittlichen menschlichen Arbeitnehmer bei der Ausführung von über 90 % der wirtschaftlich relevanten Aufgaben übertreffen würden. Die Hälfte der Befragten schätzte, dass dies vor 2060 geschehen würde. 4

Umfrage von KI-Experten zum Zeitpunkt der Einführung von AGI im Jahr 2019

Die Prognosen von 32 KI-Experten zum Zeitpunkt der Einführung von AGI 5 sind:

  • 45 % der Befragten prognostizieren ein Datum vor 2060.
  • 34 % aller Teilnehmer sagten ein Datum nach 2060 voraus.
  • 21 % der Teilnehmer sagten voraus, dass die Singularität niemals eintreten würde.

Umfrage zu den potenziellen Auswirkungen von KI auf die Arbeitsplatzverdrängung im Jahr 2018

Ross Gruetzemacher befragte 165 KI-Experten, um die potenziellen Auswirkungen von KI auf den Arbeitsplatzabbau abzuschätzen. Die Experten wurden gebeten, zu schätzen, wann KI-Systeme in der Lage sein würden, 99 % der Aufgaben, für die derzeit Menschen bezahlt werden, auf einem Niveau auszuführen, das dem eines durchschnittlichen Menschen entspricht oder dieses übertrifft.

Die Hälfte der Befragten ging davon aus, dass dieser Meilenstein vor 2068 erreicht werden würde, während 75 % erwarteten, dass dies innerhalb der nächsten 100 Jahre der Fall sein würde. 6

Umfrage unter KI-Experten auf den NIPS- und ICML-Konferenzen 2015 im Jahr 2017

Im Mai 2017 wurden 352 KI-Experten befragt, die auf den Konferenzen NIPS und ICML 2015 publiziert hatten. 7

Experten schätzen anhand von Umfrageergebnissen die Wahrscheinlichkeit, dass die allgemeine globale Intelligenz (AGI) bis 2060 eintritt, auf 50 %. Allerdings gibt es je nach Region erhebliche Meinungsverschiedenheiten:

  • Asiatische Befragte erwarten das AGI in 30 Jahren.
  • Die Nordamerikaner erwarten es in 74 Jahren.

Zu den wichtigen Berufsfeldern, die voraussichtlich bis 2030 automatisiert werden, gehören Callcenter-Mitarbeiter, Lkw-Fahrer und Verkäufer im Einzelhandel.

Zukunftsprognose für künstliche Intelligenz in der Studie 2012/2013

Vincent C. Muller, Präsident der Europäischen Gesellschaft für Kognitive Systeme, und Nick Bostrom von der Universität Oxford, der über 200 Artikel zu Superintelligenz und künstlicher allgemeiner Intelligenz (AGI) veröffentlicht hat, führten eine Umfrage unter KI-Forschern durch. 550 Teilnehmer beantworteten die Frage: Wann ist mit AGI zu rechnen? 8

Den Ergebnissen zufolge:

  • Die befragten KI-Experten schätzen, dass AGI wahrscheinlich (mit einer Wahrscheinlichkeit von über 50 %) zwischen 2040 und 2050 entstehen wird und mit hoher Wahrscheinlichkeit (mit einer Wahrscheinlichkeit von 90 %) bis 2075 auftauchen wird.
  • Sobald AGI erreicht ist, gehen die meisten Experten davon aus, dass sie sich relativ schnell zu Superintelligenz entwickeln wird, wobei der Zeitraum von nur 2 Jahren (unwahrscheinlich, 10 % Wahrscheinlichkeit) bis zu etwa 30 Jahren (hohe Wahrscheinlichkeit, 75 %) reicht.

Umfrage aus dem Jahr 2009 unter KI-Experten, die an der AGI-09-Konferenz teilnahmen.

Ausgehend von den Ergebnissen der Umfrage unter 21 KI-Experten, die an der AGI-09-Konferenz teilnahmen, geht man davon aus, dass AGI um das Jahr 2050 , möglicherweise aber auch früher, Realität werden wird. 9 Nachfolgend sehen Sie ihre Einschätzungen zu spezifischen KI-Leistungen: Bestehen des Turing-Tests, Bestehen der dritten Klasse, Erzielen von Nobelpreis-würdigen wissenschaftlichen Durchbrüchen und Erreichen übermenschlicher Intelligenz.

Abbildung 1: Ergebnisse der Umfrage unter den Teilnehmern der Konferenz Artificial General Intelligence 2009 (AGI-09).

Einblicke in die Community

Wir haben außerdem die Prognosen von Samotsvety Forecasting und der Metaculus Community auf AGI sowie die Ergebnisse des Prognosemarktes von Manifold, Kalshi und Polymarket ausgewertet:

Samotsvety-Prognose

Samotsvety Forecasting ist ein Team von Prognostikern, das mithilfe strukturierter Argumentation und quantitativer Methoden Wahrscheinlichkeitsprognosen zu realen Ereignissen erstellt, insbesondere in den Bereichen Geopolitik, Technologie und globale Risiken. Sie weisen eine starke Erfolgsbilanz auf führenden Prognoseplattformen und -wettbewerben (z. B. INFER/CSET-Foretell) auf, wo ihre Genauigkeit anhand formaler Bewertungskriterien wie dem Brier-Score gemessen wird. 10

Im Januar 2026 aktualisierte das Team seine Vorhersagen zu AGI mit 8 Prognostikern. 11 Hier die zusammengefassten Ergebnisse:

  • 10% Wahrscheinlichkeit, dass wir das AGI im Jahr 2026 erreichen
  • 50% Wahrscheinlichkeit, dass wir das AGI bis 2041 erreichen
  • 90% Wahrscheinlichkeit, dass wir das AGI bis 2164 erreichen

In einer früheren Prognose aus dem Jahr 2022 schätzte das Team die Wahrscheinlichkeit für eine allgemeine globale Intelligenz (AGI) innerhalb von 20 Jahren (bis etwa 2042) auf 32 % und bis 2100 auf 73 % . Beide Werte liegen unter den aktuellen Prognosen. 12

Manifold-Markt

Stand Januar 2026 prognostizierten über 1.100 Marktteilnehmer von Manifold das Jahr 2035 als das Jahr, in dem eine KI erstmals einen „hochwertigen, adversariellen Turing-Test“ bestehen wird. 13

Kalshi-Prognosemarkt

Die Kommentatoren des Kalshi-Prognosemarktes glaubten im Januar 2026, dass die Wahrscheinlichkeit, dass OpenAI bis 2030 ein AGI erreichen wird, bei 40 % liegt. 14

Polymarket

Ergebnisse von Polymarket-Prognosen vom Januar 2026 wiesen darauf hin, dass die Wahrscheinlichkeit, dass OpenAI bis 2027 ein AGI erreicht, bei 9 % liegt. 15

Metaculus Community Predictions

Stand: Februar 2026:

  • 1.700 Teilnehmer beantworteten die Frage „Wann wird das erste schwach allgemeine KI-System entwickelt, getestet und öffentlich angekündigt werden?“ und die Vorhersage lautet 21. Februar 2028 . 16
  • 178 Teilnehmer beantworteten die Frage „Wann wird eine KI zum ersten Mal einen langen, informierten, adversariellen Turing-Test bestehen?“ und ihre Vorhersage lautet 22. April 2029. 17
  • 1.800 Teilnehmer beantworteten die Frage „Wann wird das erste allgemeine KI-System entwickelt, getestet und öffentlich angekündigt werden?“ und ihre Prognose lautet April 2033. 18

Im Jahr 2022 beantworteten 81 Teilnehmer die Frage „Wann erwarten führende Prognostiker die Entwicklung und Demonstration der ersten Künstlichen Intelligenz?“ und ihre Vorhersage war 2035 . 19

Einblicke von KI-Unternehmern und einzelnen Forschern

KI-Unternehmer erstellen ebenfalls Schätzungen darüber, wann wir die Singularität erreichen werden, und sind dabei optimistischer als Forscher. Dies ist zu erwarten, da sie von dem gestiegenen Interesse an KI profitieren.

Ihre Meinungen über Geschwindigkeit und Entwicklungspfad gehen auseinander. Amodei von OpenAI erwartet, dass AGI aufgrund rasanter, sich selbst verstärkender Fortschritte in naher Zukunft Realität wird, während Hassabis von DeepMind dies zwar für plausibel hält, aber aufgrund ungelöster Herausforderungen in den Bereichen wissenschaftliche Kreativität und autonome Selbstverbesserung vorsichtig bleibt.

Hier sind die Prognosen von 15 der prominentesten KI-Unternehmer und -Forscher:

  • Shane Legg, Mitbegründer von DeepMind Technologies, definiert minimale AGI als einen künstlichen Agenten, der zuverlässig das gesamte Spektrum kognitiver Aufgaben bewältigen kann, die auch ein durchschnittlicher Mensch ausführen kann, ohne dabei auf eine Weise zu versagen, die uns bei einer Person, die dieselbe Aufgabe bewältigen müsste, überraschen würde. Seine Prognose vom Januar 2026 lautet, dass die Wahrscheinlichkeit für die Realisierung minimaler AGI bis 2028 bei 50 % liegt.
    • Laut Legg bedeutet das Erreichen eines minimalen AGI-Niveaus nicht, dass wir die höchsten Formen menschlicher Intelligenz, wie etwa bedeutende wissenschaftliche Durchbrüche oder künstlerische Leistungen, vollständig verstehen oder reproduzieren können. Ein vollständiges AGI-Niveau wäre erst erreicht, wenn die KI das gesamte Spektrum menschlicher Kognition abdecken könnte. 20
  • Dario Amodei, CEO von Anthropic, äußerte sich auf dem Weltwirtschaftsforum 2026 in Davos sehr zuversichtlich, dass Systeme auf dem Niveau einer allgemeinen künstlichen Intelligenz (AGI) in naher Zukunft Realität werden. Er erklärte, dass AGI wahrscheinlich innerhalb weniger Jahre ( 2027) erreicht sein wird, möglicherweise sogar früher als allgemein erwartet.
    • Er argumentiert, dass rasante Fortschritte bei der Codierung und der Automatisierung der KI-Forschung von zentraler Bedeutung sind, da sie es KI-Systemen ermöglichen, die meisten Softwareentwicklungsaufgaben von Anfang bis Ende zu bewältigen und ihre eigene Entwicklung durch Feedbackschleifen zu beschleunigen.
    • Obwohl er Einschränkungen wie die Verfügbarkeit von Hardware und die Trainingszeit anerkennt, hält er einen wesentlich längeren Zeitrahmen für unwahrscheinlich und rechnet mit einer raschen Beschleunigung, sobald diese Schleifen ausgereift sind. 21
  • Bei der gleichen Veranstaltung im Jahr 2026 vertrat Demis Hassabis, Gründer von DeepMind, eine vorsichtigere Einschätzung und bekräftigte seine Annahme, dass die Wahrscheinlichkeit, bis zum Ende des Jahrzehnts (2030) eine allgemeine allgemeine Intelligenz (AGI) zu erreichen, bei etwa 50 % liege.
    • Hassabis stimmt zu, dass die Fortschritte in überprüfbaren Bereichen wie Programmierung und Mathematik rasant sind, betont aber, dass wissenschaftliche Entdeckungen und kreatives Denken schwieriger bleiben.
    • Er hebt ungelöste Einschränkungen bei der Generierung neuer Fragen und Theorien hervor und äußert Unsicherheit über eine vollständig autonome Selbstverbesserung, insbesondere in komplexen realen Bereichen, was seiner Ansicht nach die Zeitpläne für eine AGI unsicherer macht.
  • Eric Schmidt, ehemaliger CEO von Google, glaubt, dass wir uns aufgrund der Fortschritte der KI in den Bereichen logisches Denken, Programmierung und Mathematik innerhalb von 3–5 Jahren auf eine Künstliche Allgemeine Intelligenz zubewegen ( Stand: April 2025). 22
  • Elon Musk rechnet damit, dass bis 2026 eine künstliche Intelligenz entwickelt wird, die intelligenter ist als die intelligentesten Menschen. 23
  • Im Februar 2025 sagte der Unternehmer und Investor Masayoshi Son voraus, dass es in 2-3 Jahren (d. h. 2027 oder 2028 ) so weit sein würde.
  • Im März 2024 sagte Nvidia-CEO Jensen Huang voraus, dass KI innerhalb von fünf Jahren die menschliche Leistungsfähigkeit in jedem Test erreichen oder übertreffen würde: 2029. 24
  • Louis Rosenberg, Informatiker, Unternehmer und Schriftsteller, bis 2030 .
  • Ray Kurzweil, Informatiker, Unternehmer und Autor von 5 nationalen Bestsellern, darunter „Die Singularität ist nahe: Zuvor 2045“, 25 , in 2024, 2032 . 26
  • Im Jahr 2023 glaubte Hinton, dass es 5 bis 20 Jahre dauern könnte. 27
  • Sam Altman, CEO von OpenAI, bis 2035. In seinem Blog „The Intelligence Age“ erwähnte er „ein paar tausend Tage“ im Jahr 2024.
  • Ajeya Cotra, eine KI-Forscherin, analysierte das Wachstum der Trainingsberechnungen und schätzte die Wahrscheinlichkeit, dass bis 2040 eine KI mit menschenähnlichen Fähigkeiten entstehen wird, auf 50 %. 28
  • Patrick Winston, MIT-Professor und Direktor des MIT Artificial Intelligence Laboratory von 1972 bis 1997, erwähnte das Jahr 2040 und betonte, dass es zwar ein Datum sei, das eintreten würde, es aber schwierig sei, es abzuschätzen .
  • Jürgen Schmidhuber, Mitbegründer des KI-Unternehmens NNAISENSE und Direktor des Schweizer KI-Labors IDSIA, bis 2050. 29

Weitere Kommentare und Entwicklungen zum Thema AGI

AAAI-Präsidentengremium 2025 zur Zukunft der KI-Forschung

475 Befragte, hauptsächlich aus dem akademischen Bereich (67 %) und Nordamerika (53 %), wurden zum Fortschritt der KI befragt. Obwohl die Umfrage keine Zeitvorgabe für AGI enthielt, gaben 76 % der Befragten an, dass eine Ausweitung der aktuellen KI-Ansätze wahrscheinlich nicht zu AGI führen werde. 30

OpenAI erweitert seine Robotik-Ambitionen

OpenAI verstärkt seinen Fokus auf Robotik, um die Entwicklung künstlicher allgemeiner Intelligenz voranzutreiben. Das Unternehmen stellt Spezialisten für humanoide Robotersysteme ein und bildet ein Team zur Entwicklung von Algorithmen, die Robotern helfen, selbstständig in der realen Welt zu lernen und zu handeln.

Dies markiert eine Abkehr vom bisherigen Fokus auf Sprach- und Bildmodelle. Das Unternehmen strebt nun die Verknüpfung von fortgeschrittenem Denken mit physischer Interaktion an und betrachtet Robotik damit als einen wesentlichen Schritt hin zur Erprobung und Erreichung von AGI.

Kontext und Implikationen

Nachdem das erste Robotik-Team um das Jahr 2020 aufgelöst wurde, nimmt das Unternehmen (OpenAI) die aktive Entwicklung in diesem Bereich wieder auf. Jüngste Neueinstellungen und potenzielle Partnerschaften deuten auf verstärkte Bemühungen hin, Roboter zu entwickeln, die in der Lage sind, in der realen Welt zu lernen und zu manipulieren.

Durch die Kombination von groß angelegten KI-Modellen mit Sensordaten zielt OpenAI darauf ab, Systeme zu entwickeln, die auch außerhalb digitaler Umgebungen logisch denken und agieren können. Die Rekrutierung von Experten für humanoide Robotik deutet zudem auf langfristige Ziele hin, die über die reine Automatisierung hinausgehen und Roboter in den Fokus rücken, die sicher mit Menschen zusammenarbeiten können. 31

Microsofts Bericht über frühe Experimente mit GPT-4

Eine Studie aus dem Jahr 2023 untersuchte eine frühe Version von KI-Modellen. Der Bericht behauptete, diese weise eine höhere allgemeine Intelligenz auf als frühere KI-Modelle und erreiche in Bereichen wie Mathematik, Programmierung und Recht ein menschenähnliches Niveau . Dies löste eine Debatte darüber aus, ob es sich bei KI -Modellen um eine Vorstufe künstlicher allgemeiner Intelligenz handele . 32

Der Weg zur künstlichen allgemeinen Intelligenz – ein Bericht des MIT

Der Bericht „Der Weg zur künstlichen allgemeinen Intelligenz“ vom August 2025 geht davon aus, dass erste AGI-ähnliche Systeme zwischen 2026 und 2028 entstehen könnten, die menschenähnliches Denken in bestimmten Bereichen, multimodale Fähigkeiten über Text-, Audio- und physische Schnittstellen hinweg sowie eine begrenzte zielgerichtete Autonomie aufweisen.

Der Bericht kombiniert aggregierte Prognosen und geht von einer 50%igen Wahrscheinlichkeit aus, dass mehrere allgemeine Meilensteine, wie etwa Wissenstransfer und umfassendes logisches Denken, bis 2028 erreicht werden.

Längerfristige Prognosen gehen davon aus, dass Maschinen die menschliche Leistungsfähigkeit bei allen wirtschaftlich wertvollen Aufgaben bis etwa 2047 übertreffen könnten, vorausgesetzt, es gibt Fortschritte bei der Recheneffizienz, algorithmische Durchbrüche und autonomes Lernen. 33

KI-Grenzen zu AGI-Wahrscheinlichkeiten

Adam Khoja und Laura Hiscott von AI Frontiers, einer Plattform für Debatten und Dialoge zum Thema KI, schätzen die Wahrscheinlichkeit, bis 2028 eine allgemeine allgemeine Intelligenz (AGI) zu erreichen, auf 50 % und bis 2030 auf 80 % , basierend auf ihrer quantitativen AGI-Definition. 34

Khoja und Hiscott bewerten den Fortschritt hin zu künstlicher allgemeiner Intelligenz anhand einer Definition, die von Khoja, Dan Hendrycks und ihren Mitautoren entwickelt wurde. 35 Ihr Rahmenwerk misst zehn kognitive Fähigkeiten und weist GPT-4 einen Wert von 27 % und GPT-5 einen Wert von 57 % zu. Dies deutet darauf hin, dass die aktuellen Modelle etwa die Hälfte des definierten AGI-Schwellenwerts erreichen.

Khoja und Hiscott argumentieren, dass traditionelle Diskussionen über die Entwicklung einer allgemeinen künstlichen Intelligenz (AGI) unpräzise sind, da sie auf uneinheitlichen Definitionen beruhen. Ihr standardisiertes Rahmenwerk soll Klarheit schaffen, indem es spezifische Stärken und Schwächen aktueller Modelle aufzeigt. Sie stellen fest, dass Lesen, Schreiben, Rechnen und Allgemeinwissen das menschliche Niveau erreichen oder sogar übertreffen und keine einschränkenden Faktoren mehr darstellen.

Die Autoren heben verbleibende Lücken im visuellen Denken, der intuitiven Physik, der auditiven Verarbeitung, der wahrnehmungsabhängigen Verarbeitungsgeschwindigkeit sowie des visuellen und auditiven Arbeitsgedächtnisses hervor. Sie berichten von raschen Verbesserungen bei Benchmark-Tests wie SPACE und MindCube und legen nahe, dass diese Lücken durch kontinuierliche, schrittweise Forschung geschlossen werden können. Sie stellen außerdem fest, dass Halluzinationen weiterhin ein Problem darstellen, aber angesichts der Leistungsunterschiede führender Modelle beherrschbar sind.

Laut Khoja, Hiscott und Hendrycks besteht die größte verbleibende Herausforderung im kontinuierlichen Lernen und der Langzeitspeicherung von Informationen. Aktuelle Systeme können Informationen nicht sitzungsübergreifend speichern, und die Überwindung dieser Einschränkung erfordert mindestens einen bedeutenden Durchbruch. Die Autoren betonen jedoch, dass führende KI-Forschungseinrichtungen diesem Bereich mittlerweile Priorität einräumen.

Aus dem übertriebenen Optimismus der Vergangenheit bei KI-Vorhersagen lernen

Man sollte bedenken, dass KI-Forscher früher zu optimistisch waren. Beispiele hierfür sind:

  • Geoff Hinton behauptete 2016, dass wir bis 2021 oder 2026 keine Radiologen mehr benötigen würden. Bislang ist die Radiologie jedoch noch nicht vollständig automatisiert, und Krankenhäuser benötigen Tausende von Radiologen. 36
  • KI-Pionier Herbert A. Simon sagte 1965: „Maschinen werden innerhalb von zwanzig Jahren in der Lage sein, jede Arbeit zu verrichten, die ein Mensch verrichten kann.“ 37
  • Der japanische Computer der fünften Generation hatte 1980 einen Zehnjahresplan mit Zielen wie „das Führen von zwanglosen Gesprächen“. 38

Diese historische Erfahrung trug dazu bei, dass die meisten heutigen Wissenschaftler davor zurückschreckten, AGI in gewagten Zeiträumen wie 10-20 Jahren vorherzusagen, aber dies hat sich mit dem Aufstieg der generativen KI geändert.

Verstehe, was eine Singularität ist

Künstliche Intelligenz ängstigt und fasziniert uns zugleich. Fast wöchentlich berichten die Nachrichten über neue KI-Panikmache, etwa über Entwickler, die Angst vor ihren eigenen Schöpfungen haben, oder über Bots, die abgeschaltet werden, weil sie zu intelligent geworden sind. 39

Die meisten dieser Mythen beruhen auf Forschungsergebnissen, die von Personen außerhalb der KI- und GenAI-Bereiche falsch interpretiert werden. Einige Interessengruppen behaupten, KI zu fürchten, weil sie von mehr Regulierung profitieren oder dadurch mehr Aufmerksamkeit erregen könnten.

Die größte Befürchtung im Zusammenhang mit KI ist die Singularität (auch Künstliche Allgemeine Intelligenz oder AGI genannt), ein Ereignis, das voraussichtlich einen rasanten Anstieg der maschinellen Intelligenz mit sich bringen wird. Dies ist zu erwarten, wenn ein System menschliches Denkvermögen mit übermenschlicher Geschwindigkeit und einem nahezu perfekten, schnell verfügbaren Gedächtnis kombiniert. Laut einigen Experten impliziert die Singularität auch ein maschinelles Bewusstsein.

Eine solche Maschine könnte sich selbst verbessern und menschliche Fähigkeiten übertreffen. Schon bevor künstliche Intelligenz ein Forschungsgebiet der Informatik war, beschäftigten sich Science-Fiction-Autoren wie Asimov mit dieser Frage. Sie entwickelten Mechanismen (z. B. Asimovs Robotergesetze), um das Wohlwollen intelligenter Maschinen zu gewährleisten – ein Konzept, das heute gemeinhin als Alignment-Forschung bezeichnet wird.

Warum Experten AGI für unvermeidlich halten: Wichtigste Argumente und Beweise

Die Entwicklung einer allgemeinen künstlichen Intelligenz (AGI) mag zunächst wie eine gewagte Prognose klingen, erscheint aber durchaus als realistisches Ziel, wenn man bedenkt, dass die menschliche Intelligenz begrenzt ist, die künstliche Intelligenz hingegen stetig wächst . Es ist nur eine Frage der Zeit, bis Maschinen uns übertreffen, sofern ihrer Intelligenz keine unüberwindbare Grenze gesetzt ist. Bislang sind wir auf eine solche Grenze noch nicht gestoßen.

Die menschliche Intelligenz ist unveränderlich, solange wir unsere kognitiven Fähigkeiten nicht mit denen von Maschinen verschmelzen. Elon Musks Startup Neural Lace verfolgt dieses Ziel, doch die Forschung an Gehirn-Computer-Schnittstellen befindet sich noch in einem frühen Stadium. 40

Maschinelle Intelligenz basiert auf Algorithmen, Rechenleistung und Daten.

  • Die Rechenleistung wächst exponentiell, da die Investitionen in Forschung und Entwicklung sowie in Rechenzentren enorm steigen.
  • Bislang waren wir gut darin, Maschinen mit den notwendigen Algorithmen auszustatten, damit sie ihre Rechenleistung und ihren Speicher effektiv nutzen können.
  • Schließlich erzeugen Unternehmen und Privatpersonen in immer größerem Umfang digitale Daten.Synthetische Daten können Modelle verfälschen oder erweitern. Selbst wenn sie die Modelle verfälschen, ist dies dank Datenkuratierung ein lösbares Problem.

Jüngste Erfolge

Opus 4.6

Im Februar 2026 veröffentlichte Claude Opus 4.6 mit einem Kontextfenster von 1 Million und beeindruckenden Benchmark-Ergebnissen.

Anthropic konzentriert sich auch auf Anwendungsfälle und veröffentlicht Plugins wie Claude Legal, Markdown-Dateien, die Models bei der Navigation in bestimmten Bereichen unterstützen. Obwohl dies nur eine kleine Erweiterung von Claude war, löste sie einen Kurssturz an der Börse aus, der auch SaaS- und Rechtssoftware betraf. 41

Zwillinge Tiefgründig denken

Ein weiteres Beispiel ist der Gemini Deep Think Mode von DeepMind, der bei der Internationalen Mathematik-Olympiade 2025 eine Goldmedaille errang und damit einen bedeutenden Schritt in der Fähigkeit der KI darstellte, komplexe Probleme zu lösen.

Gemini arbeitete ausschließlich mit natürlicher Sprache und löste fünf von sechs Problemen innerhalb des offiziellen 4,5-stündigen Wettbewerbszeitraums. Dabei lieferte das System klare, für Menschen lesbare Beweise, ohne auf formale symbolische Werkzeuge zurückzugreifen.

Seine Leistungsfähigkeit beruht auf mehreren Innovationen: Der Deep Think-Modus ermöglicht die parallele Erkundung von Lösungswegen, das Training beinhaltet mathematische Beweise auf Expertenniveau und Reinforcement Learning verfeinert seinen strategischen Ansatz.

Dieser Fortschritt beweist, dass hochentwickelte KI heute in der Lage ist, anspruchsvolle und interpretierbare Schlussfolgerungen auf einem Niveau zu ziehen, das einst den besten menschlichen Problemlösern vorbehalten war. 42

Opencrawl

Opencrawl ist ein Open-Source-Projekt, das LLMs in Agenten verwandelt. Es entwickelte sich zu einem der beliebtesten Projekte auf GitHub und legte den Grundstein für das Opencrawl-Ökosystem .

Exponentielles Wachstum

Die folgende Analogie veranschaulicht exponentielles Wachstum: Maschinen mögen im Moment noch nicht besonders intelligent erscheinen, aber sie können in naher Zukunft sehr intelligent werden.

Quelle: Mother Jones

Jüngstes Wachstum der KI-Rechenkapazitäten

Abbildung 2: Die Abbildung zeigt eine Zusammenfassung der beobachteten Wachstumsmuster von Compute-Modellen in verschiedenen Kategorien: insgesamt bemerkenswerte Modelle (oben links), Spitzenmodelle (oben rechts), führende Sprachmodelle (unten links) und Top-Modelle führender Unternehmen (unten rechts).

Die Rechenressourcen für das Training von KI-Modellen haben sich deutlich erhöht, wobei etwa zwei Drittel der Leistungsfähigkeit von Sprachmodellen auf Verbesserungen der Modellgröße zurückzuführen sind.

Laut einem Artikel aus dem Jahr 2024 43 Das Wachstum der Rechenleistung beim Training von KI-Modellen hat sich stetig um etwa das Vier- bis Fünffache pro Jahr erhöht, was Trends bei bemerkenswerten Modellen, Spitzenmodellen und führenden Unternehmen wie OpenAI, Google DeepMind und Meta AI widerspiegelt (siehe Abbildung 2).

Allerdings hat sich das Wachstumstempo seit 2018 etwas verlangsamt, insbesondere bei Frontier-Modellen. Sprachmodelle verzeichneten hingegen bis Mitte 2020 ein schnelleres Wachstum von bis zu 9x/Jahr, danach verlangsamte sich das Tempo auf 4-5x/Jahr.

Der allgemeine Trend beim Wachstum der KI-Rechenleistung bleibt stark, und Prognosen deuten darauf hin, dass die Wachstumsrate von 4-5x pro Jahr anhalten wird, sofern keine neuen Herausforderungen oder Durchbrüche auftreten. Dieses Wachstum spiegelt sich auch in den Skalierungsstrategien führender KI-Unternehmen wider, wenngleich es leichte Unterschiede zwischen ihnen gibt.

Trotz einer Verlangsamung des Wachstums der Grenzmodelle stimmen die heute veröffentlichten größeren Modelle, wie beispielsweise GPT-4 und Gemini Ultra, eng mit dem prognostizierten Wachstumspfad überein.

Wenn die klassische Datenverarbeitung an ihre Grenzen stößt, könnte die Quantencomputer die Lücke füllen.

Klassische Computer haben uns schon sehr weit gebracht. KI-Algorithmen auf klassischen Computern können die menschliche Leistung in bestimmten Aufgaben wie Schach oder Go übertreffen. Beispielsweise besiegte AlphaGo Zero AlphaGo mit 100:0. AlphaGo hatte zuvor die besten Spieler der Welt geschlagen. 44 Allerdings stoßen wir an die Grenzen der Rechengeschwindigkeit klassischer Computer.

Das Mooresche Gesetz, das auf der Beobachtung beruht, dass sich die Anzahl der Transistoren in einem dichten integrierten Schaltkreis etwa alle zwei Jahre verdoppelt, impliziert, dass sich die Kosten für Computer etwa alle zwei Jahre halbieren.

Die meisten Experten sind hingegen der Ansicht, dass das Mooresche Gesetz im Laufe dieses Jahrzehnts an sein Ende kommt. 45 Es gibt jedoch Bestrebungen, die Effizienz der Computertechnologie kontinuierlich zu verbessern.

Beispielsweise überraschte DeepSeek die globalen Märkte mit seinem R1-Modell, indem es ein Reasoning-Modell zu einem Bruchteil der Kosten seiner Konkurrenten, wie etwa OpenAI, lieferte.

Quantencomputing , eine noch in der Entwicklung befindliche Technologie, kann nach dem Ende des Mooreschen Gesetzes zur Senkung der Rechenkosten beitragen. Im Gegensatz zu klassischen Computern, die jeweils nur einen Zustand berechnen können, basiert Quantencomputing auf der gleichzeitigen Auswertung verschiedener Zustände.

Die einzigartigen Eigenschaften des Quantencomputings können genutzt werden, um neuronale Netze effizient zu trainieren – derzeit die beliebteste KI-Architektur in kommerziellen Anwendungen. KI-Algorithmen, die auf stabilen Quantencomputern laufen, haben das Potenzial, die Singularität zu erschließen.

Warum glauben einige Experten, dass wir die allgemeine geistige Behinderung (AGI) nicht erreichen werden?

Es gibt drei Hauptargumente gegen die Bedeutung oder Existenz von AGI. Wir haben sie zusammen mit ihren gängigen Widerlegungen untersucht:

1- Intelligence ist mehrdimensional

Daher wird AGI anders sein, aber nicht unbedingt überlegen gegenüber der menschlichen Intelligenz.

Das stimmt, und menschliche Intelligenz unterscheidet sich auch von tierischer Intelligenz. Manche Tiere sind zu erstaunlichen geistigen Leistungen fähig, wie zum Beispiel Eichhörnchen, die sich monatelang daran erinnern, wo sie Hunderte von Nüssen versteckt haben.

Yann LeCun, einer der Pioniere des Deep Learning, ist der Ansicht, dass wir den Begriff AGI in Rente schicken und uns stattdessen auf die Erreichung von „fortschrittlicher maschineller Intelligenz“ konzentrieren sollten. 46 Er argumentiert, dass der menschliche Geist spezialisiert ist und Intelligenz eine Sammlung von Fähigkeiten sowie die Fähigkeit, neue Fähigkeiten zu erlernen, darstellt. Jeder Mensch kann nur einen Teil der Aufgaben der menschlichen Intelligenz bewältigen. 47

Es ist auch für uns Menschen schwer, den Spezialisierungsgrad des menschlichen Geistes zu verstehen, da wir das gesamte Spektrum der Intelligenz weder kennen noch erfahren können.

In Bereichen, in denen Maschinen übermenschliche Intelligenz zeigten, konnten Menschen diese besiegen, indem sie maschinenspezifische Schwächen ausnutzten. So gelang es beispielsweise einem Amateur, ein Go-Programm zu schlagen, das auf dem Niveau von Go-Programmen lag, die Weltmeister besiegten, indem er die Schwächen des Programms analysierte und ausnutzte. 48

2- Intel Strenge ist nicht die Lösung für alle Probleme

Wissenschaft

Selbst die beste Maschine, die vorhandene Daten analysiert, wird möglicherweise kein Heilmittel gegen Krebs finden. In den meisten Bereichen wird es wohl notwendig sein, Experimente in der realen Welt durchzuführen und die Ergebnisse zu analysieren, um neue Erkenntnisse zu gewinnen.

Mehr Intelligenz kann zu besser konzipierten und durchgeführten Experimenten führen und somit mehr Erkenntnisse pro Experiment ermöglichen. Die Geschichte der Forschungsproduktivität sollte dies belegen, doch die Daten sind recht verrauscht, und der Forschungsnutzen nimmt mit der Zeit ab. Wir stoßen auf immer komplexere Probleme wie die Quantenphysik, während wir einfachere Probleme wie die Newtonsche Bewegung lösen.

Letztendlich sind perfekte Vorhersagen in manchen Bereichen aufgrund der inhärenten Zufälligkeit oder Unmessbarkeit dieser Bereiche nicht möglich. Beispielsweise können wir selbst mit einer Fülle von Daten bestimmte Lebensereignisse nicht mit hoher Genauigkeit vorhersagen. 49

Wirtschaft

IntelFertigkeit ist nicht die einzige Voraussetzung für die Schaffung wirtschaftlichen Werts.

  • Der IQ, das am häufigsten akzeptierte Maß für die menschliche Intelligenz, korreliert nicht mit dem Nettovermögen bei Werten über ca. 40.000 US-Dollar (siehe Abbildung unten):

Abbildung 3: Bei geringem Vermögen besteht eine Korrelation zwischen Intelligenzquotient und Vermögen. 50

Abbildung 4: Intelligenzquotient und Vermögen korrelieren nicht, wenn man nur hohe Vermögen betrachtet. Diese Grafik entspricht der obigen, nur dass Nettoeinkommen unter 40.000 US-Dollar ausgeblendet wurden. 51

  • In der Welt der Investitionen gilt die Intelligenz des Teams eines Unternehmens nicht als Wettbewerbsfaktor. Es wird stillschweigend davon ausgegangen, dass auch andere Unternehmen intelligente Strategien entwickeln können. Investoren bevorzugen Unternehmen mit unfairen Vorteilen wie geistigem Eigentum, Größe, exklusivem Ressourcenzugang usw. Die meisten dieser unfairen Vorteile lassen sich nicht allein durch Intelligenz nachbilden.

3. AGI ist nicht möglich, da es nicht möglich ist, das menschliche Gehirn zu modellieren.

Theoretisch lässt sich jede Rechenmaschine, einschließlich des menschlichen Gehirns, durch eine relativ einfache Maschine modellieren, die grundlegende Berechnungen durchführen und auf unendlich viel Speicher und Zeit zugreifen kann. Dies ist die allgemein anerkannte Church-Turing-Hypothese aus dem Jahr 1950. Wie bereits erwähnt, setzt sie jedoch bestimmte schwierige Bedingungen voraus: unendlich viel Zeit und Speicher.

Die meisten Informatiker glauben, dass die Modellierung des menschlichen Gehirns weniger als unendlich viel Zeit und Speicherplatz benötigen wird. Allerdings gibt es keinen mathematisch fundierten Beweis für diese Annahme, da wir das Gehirn noch nicht gut genug verstehen, um seine Rechenleistung präzise zu charakterisieren. Wir werden eine solche Maschine bauen müssen!

Wie können wir eine allgemeine künstliche Intelligenz (AGI) erreichen?

Abbildung 5: Der Zeithorizont von Spitzenmodellen der KI im Zeitverlauf zeigt die längsten Aufgaben (in menschenäquivalenter Zeit), die jedes Modell mit einer Zuverlässigkeit von 50 % bewältigen kann. 52

Die obige Abbildung zeigt, wie sich die Fähigkeiten von KI-Agenten im Laufe der Zeit verbessert haben, indem sie die längsten Aufgaben misst, die sie mit einer Zuverlässigkeit von 50 % erledigen können.

Die zentrale Erkenntnis ist, dass die maximale Aufgabenlänge, die Modelle bewältigen können, exponentiell zugenommen hat und sich etwa alle sieben Monate verdoppelt. Das bedeutet, dass neuere Modelle wie Sonnet und o1 nun Aufgaben lösen können, für die ein Mensch fast eine Stunde bräuchte, während ältere Modelle wie GPT-2 kaum Aufgaben bewältigen konnten, die länger als ein paar Sekunden dauerten.

Der schattierte Bereich spiegelt statistische Unsicherheiten wider, der allgemeine Trend ist jedoch zuverlässig. Setzt sich dieser Trend fort, könnten KI-Systeme schon bald komplexe Aufgaben bewältigen , für die Menschen Tage oder sogar Wochen benötigen. Dies wäre ein bedeutender Schritt hin zu umfassenderer Autonomie und Fähigkeiten ähnlich einer künstlichen allgemeinen Intelligenz (AGI).

Skalierung als Weg zu AGI

Führende Köpfe in zukunftsweisenden KI-Laboren glauben, dass die Skalierung aktueller transformatorbasierter Ansätze zu AGI führen kann, was ihre Prognosen hinsichtlich der Erreichung von AGI in wenigen Jahren bestärkt.

Ein vorgeschlagener Weg zu AGI besteht darin, bestehende Architekturen wie Transformatoren durch Erhöhung der Rechenleistung und der Datenmenge zu erweitern, während ein anderer Weg die Entwicklung völlig neuer Ansätze beinhaltet.

Zur Unterstützung der Skalierungshypothese analysierte Epoch AI in einem Bericht aus dem Jahr 2024, ob das Wachstum der KI-Rechenleistung bis 2030 anhalten kann.

Sie identifizierten vier Hauptbeschränkungen: Stromverfügbarkeit, Chip-Herstellungskapazität, Datenknappheit und Verarbeitungslatenz (siehe Abbildung 6).

Trotz dieser Herausforderungen argumentieren sie, dass es machbar sei, bis zum Ende des Jahrzehnts Modelle zu trainieren, die bis zu 2e29 FLOPs benötigen, vorausgesetzt, es werden erhebliche Investitionen in die Infrastruktur getätigt.

Solche Fortschritte könnten KI-Systeme hervorbringen, die weitaus leistungsfähiger sind als die heutigen hochmodernen Modelle wie GPT-4, und uns der AGI näher bringen. 53

Abbildung 6: Das Diagramm veranschaulicht die geschätzten Obergrenzen für den Rechenaufwand beim KI-Training bis 2030 unter Berücksichtigung wichtiger Einschränkungen wie Stromverbrauch, Chipproduktion, Datenvolumen und Latenz, wobei die Medianwerte zwischen 2e29 und 3e31 FLOP liegen.

Jenseits der Skalierung: Argumente für neue Architekturen

Einflussreiche KI-Wissenschaftler wie Yann LeCun und Richard Sutton glauben jedoch, dass die Skalierung großer Sprachmodelle nicht zu einer Intelligenz auf menschlichem Niveau führen wird. 54 55 Sie glauben, dass für AGI neue Architekturen oder Ansätze notwendig sind.

Wie können wir messen, ob wir das AGI-Ziel erreicht haben?

Große Sprachmodelle übertreffen wöchentlich neue Bestmarken, doch die Bewertung von LLMs gestaltet sich schwierig aufgrund von Problemen wie Datenvergiftung und dem Fehlen einer allgemein anerkannten wissenschaftlichen Definition für menschliche Intelligenz.

Diese Bedenken werden durch Erkenntnisse aus aktuellen Forschungsarbeiten noch verstärkt. 56 , die verdeutlichen, dass die Skalierung von LLMs kein nachhaltiger Weg zu besserer Leistung ist , insbesondere in wissenschaftlichen und risikoreichen Bereichen. Die Autoren zeigen, dass:

  • LLMs weisen extrem niedrige Skalierungsexponenten (~0,1) auf, was bedeutet, dass selbst massive Erhöhungen der Datenmenge oder des Rechenaufwands nur winzige Genauigkeitsgewinne erzielen.
  • Die Lernfähigkeit von LLMs beruht auf ihrer Fähigkeit, nicht-Gaußsche Ausgaben zu erzeugen, was jedoch auch zu Fehlerhäufungen und brüchigen Vorhersagen führt.
  • Traditionelle Metriken wie Verlustfunktionen sind Pseudo-Metriken , die nicht mit echter Konvergenz oder Genauigkeit übereinstimmen.
  • Ein Regime der degenerativen KI (DAI) kann entstehen, wenn Modelle, die mit synthetischen oder sich wiederholenden Daten trainiert wurden, Fehler schneller anhäufen, als diese korrigiert werden können.

Diese Ergebnisse stellen die Zuverlässigkeit gängiger Benchmarks in Frage und unterstreichen die Notwendigkeit vielfältigerer und sich weiterentwickelnder Evaluierungsstrategien.

Ältere Metriken wie der Turing-Test sind den heutigen Maschinen nicht gewachsen, und neuen Metriken wie ARC-AGI mangelt es möglicherweise an der Generalisierungsfähigkeit umfassenderer Benchmarks.

Neue Metriken wie ARC-AGI zielen darauf ab, Abstraktion und Generalisierung zu testen, weisen aber möglicherweise noch Defizite in der Robustheit gegenüber Datenverfälschung oder Überanpassung auf.

Darüber hinaus hebt die Studie hervor, dass selbst „gute“ Verlustwerte zugrundeliegende Informationskatastrophen aufgrund nicht-Gaußscher Schwankungen und Trainingsinstabilitäten verschleiern können. 57

Wie können wir den Fortschritt von LLM-Studierenden verfolgen?

Es gibt verschiedene Ansätze für Benchmarking, um diese Herausforderungen zu bewältigen:

  • Regelmäßig aktualisierte Benchmark-Fragen. Beispiel aus der Praxis: LiveBench
  • Verwendung von Holdout-Sets zur Verhinderung von Datenvergiftung: Benchmarks von AIMultiple, wie der AGI-Benchmark oder ARC-AGI.

Welche Ansätze gibt es neben Benchmarking, um den AGI zu bestimmen?

Es gibt potenziell starke, aber verzögerte Indikatoren für die Auswirkungen von KI, die bei der Identifizierung von AGI hilfreich sein können.

Wirtschaftswachstum

Microsoft CEO Satya Nadella behauptet, dass ein Wachstum von 10 % in der entwickelten Welt auf ein AGI hindeuten würde. 58 Sein Anreiz besteht jedoch darin, eine verzögerte Definition des bereinigten Bruttoinlandsprodukts (AGI) zu erreichen, da das AGI die exklusive Partnerschaft zwischen OpenAI und Microsoft beenden würde. 59

Arbeitslosigkeit

Wir erwarten von AGI, dass

In einer Welt, in der Maschinen intelligenter und effizienter sind als Menschen, wäre es irrational, einen Menschen dafür zu bezahlen, vor einem Computer zu sitzen. Daher ist zu erwarten, dass die Zahl der Büroarbeitsplätze stark zurückgehen wird, während Menschen in Berufen der realen Welt weiterhin erfolgreich sein werden.

Behörden, die Arbeitsmarktstatistiken erheben, klassifizieren Berufe in detaillierte Kategorien, wodurch die Beschäftigung in Angestelltenberufen zu einer leicht nachvollziehbaren Kennzahl wird.

Wir haben Daten des US Bureau of Labor Statistics zur Beschäftigung von Angestellten im Zeitraum von 2019 bis 2024 zusammengetragen. 60 Aus Gründen der Übersichtlichkeit und Einheitlichkeit haben wir Angestellte in folgende Berufsgruppen eingeteilt:

  • Berufe im Bereich Architektur und Ingenieurwesen
  • Berufe im Bereich Wirtschaft und Finanzen
  • Berufe im Bereich Informatik und Mathematik
  • Gesundheitsfachkräfte und technische Berufe
  • Juristische Berufe
  • Berufe in den Bereichen Lebens-, Natur- und Sozialwissenschaften
  • Managementberufe
  • Büro- und Verwaltungsberufe
  • Vertrieb und verwandte Berufe

Laut unserer Analyse schwankte der Anteil der Angestellten an der Gesamtbeschäftigung in diesem Zeitraum zwischen 45 % und 48 % .

Diese Spanne deutet zwar bisher auf eine relative Stabilität des Anteils von Angestellten im Büro- und Verwaltungsbereich hin, lässt aber keine Rückschlüsse auf einen langfristigen Trend zu. Wir erwarten in den kommenden Jahren deutlichere Veränderungen, da Automatisierung und KI-Einführung zunehmen. Weitere Prognosen zu den Auswirkungen von KI auf Angestellten- und Berufseinsteigerstellen finden Sie im Artikel „KI-bedingter Arbeitsplatzverlust“ .

Sollten wir überhaupt ein AGI anstreben?

Es gibt Informatiker, die davor warnen, dass die Fokussierung auf AGI als ultimatives Ziel die KI-Forschung verzerren könnte. Zu den 61 Kritikpunkten gehören: Die Erzeugung einer Illusion von Konsens, die Überanpassung von Benchmarks, das Ignorieren eingebetteter sozialer Werte, das Zulassen, dass Hype die Prioritäten diktiert, der Aufbau einer „Generalitätsschuld“ (Aufschub wichtiger Designfragen) und der Ausschluss marginalisierter Gemeinschaften und unterfinanzierter Forscher.

Spezifische, messbare und transparente Ziele wären für den Fortschritt im Bereich der KI besser geeignet als ein vage definiertes Ziel wie AGI.

Mathematische Begründung für AGI-Vorhersagen

Mathematisches Denken ist zentral für das Verständnis und die Prognose des Zeitrahmens für die Entwicklung einer allgemeinen künstlichen Intelligenz (AGI). Viele Prognosen basieren auf quantifizierbaren Trends und formalen Modellen, die Erwartungen darüber prägen, wann künstliche allgemeine Intelligenz entstehen könnte.

Skalierungsgesetze und Berechnung des Wachstums

Ein wichtiger Bestandteil mathematischer Argumentation ist die Analyse von Skalierungsgesetzen . Diese zeigen, dass sich die Modellleistung mit zunehmender Datenmenge, Parameteranzahl und Rechenleistung erwartungsgemäß verbessert.

Das stetige jährliche Wachstum des Rechenaufwands für KI-Training um das 4- bis 5-Fache stützt die Prognosen, dass AGI innerhalb von ein bis zwei Jahrzehnten erreichbar sein könnte, vorausgesetzt, die aktuellen Trends setzen sich fort.

Diese Prognosen basieren auf empirischen Anpassungen an Leistungskurven und Extrapolationen, die auf Potenzgesetzbeziehungen beruhen, einem Kernkonzept der mathematischen Modellierung.

Wahrscheinlichkeitsprognose

Forscher wenden auch Wahrscheinlichkeitsmethoden auf AGI-Vorhersagen an. In Umfragen werden Experten häufig gebeten, die Wahrscheinlichkeit der Entwicklung von AGI bis zu bestimmten Jahren einzuschätzen, woraus kumulative Wahrscheinlichkeitsverteilungen entstehen.

Eine Wahrscheinlichkeit von 50 % bis 2040 spiegelt beispielsweise einen Konsens unter Unsicherheit wider, der durch Aktualisierungen im Bayes'schen Stil auf Basis beobachteter Fortschritte im Bereich der KI erzielt wird.

Dieser mathematische Ansatz erfasst die Unsicherheit von Experten, ohne präzise Datumsangaben zu erfordern, und ermöglicht so eine fortlaufende Überarbeitung, sobald neue Daten verfügbar sind.

Theoretische Grundlagen

Diese Prognosen basieren auf theoretischen Elementen mathematischer Argumentation, darunter die Church-Turing-These, die besagt, dass menschliche Kognition durch Maschinen simuliert werden kann, und Konzepte wie die Kolmogorov-Komplexität, die Intelligenz mit der Komprimierbarkeit von Information in Beziehung setzt.

Solche Theorien garantieren zwar keine AGI, bieten aber einen Rahmen, um über deren Möglichkeit und die damit verbundenen Rechenanforderungen nachzudenken.

Mehr über Künstliche Allgemeinheit Intelligence

David Silver, leitender Wissenschaftler bei DeepMind (Google)

Er erklärt, dass Artificial General Intelligence (AGI) sich auf KI-Systeme bezieht, die in der Lage sind, zu lernen und bei einer breiten Palette von Aufgaben hervorragende Leistungen zu erbringen; ähnlich wie Menschen, die Experten in verschiedenen Bereichen wie Wissenschaft, Musik oder Sport werden können.

Im Gegensatz zu schwach ausgeprägter KI, die auf eine einzige Funktion beschränkt ist, strebt AGI danach, die Anpassungsfähigkeit und die allgemeine Problemlösungsfähigkeit des Menschen widerzuspiegeln.

Er merkt an, dass AGI zwar ein langfristiges Ziel sei, das Erreichen einer wirklich menschlichen Intelligenz aber wahrscheinlich mehrere Durchbrüche erfordern und sich allmählich über die Zeit entwickeln werde (siehe das Video unten).

David Silver von DeepMind beschreibt AGI als KI mit menschenähnlicher Vielseitigkeit bei verschiedenen Aufgaben und merkt an, dass dafür mehrere Durchbrüche nötig sein werden und sich die Entwicklung schrittweise vollziehen wird.

Ilya Sutskever, Mitbegründer und leitender Wissenschaftler von OpenAI

In seinem TED-Talk „Die aufregende und gefährliche Reise hin zu AGI“ untersucht er die rasanten Fortschritte hin zu künstlicher Allgemeinintelligenz (AGI).

Er prognostiziert, dass AGI innerhalb der nächsten 5 bis 10 Jahre entstehen könnte, räumt aber ein, dass dieser Zeitrahmen mit Unsicherheiten behaftet ist.

Sutskever hebt sowohl das immense Potenzial als auch die tiefgreifenden Risiken der künstlichen allgemeinen Intelligenz (AGI) hervor und betont die Notwendigkeit, deren Entwicklung an menschlichen Werten auszurichten. Trotz der Herausforderungen ist er optimistisch, dass die Menschheit diese mächtige Technologie sicher steuern kann (siehe Video unten).

In seinem TED-Talk prognostiziert Ilya Sutskever, dass AGI innerhalb von 5 bis 10 Jahren Realität werden könnte, und betont ihr transformatives Potenzial sowie die dringende Notwendigkeit, sie mit menschlichen Werten in Einklang zu bringen, um eine sichere Zukunft zu gewährleisten.

Ray Kurzweil, Informatiker und Unternehmer

Er blickt auf über sechs Jahrzehnte Fortschritte im Bereich der KI zurück und zeichnet die Entwicklung der Menschheit nach, die Fähigkeit besitzt, Werkzeuge zur Intelligenzsteigerung zu entwickeln – von primitiven Hilfsmitteln bis hin zu großen Sprachmodellen.

Er prognostiziert außerdem, dass die Künstliche Intelligenz bis 2029 Realität werden und bis 2045 zur technologischen Singularität führen wird. Er hebt exponentielle Fortschritte in den Bereichen Rechenleistung, Medizin und Biotechnologie hervor.

Er prognostiziert außerdem bahnbrechende Entwicklungen wie KI-generierte Heilmittel, digitale klinische Studien und die Fluchtgeschwindigkeit der Langlebigkeit, bei der der wissenschaftliche Fortschritt das Leben unbegrenzt verlängern könnte (siehe das Video unten).

In seinem TED-Talk prognostiziert Ray Kurzweil eine künstliche allgemeine Intelligenz (AGI) bis 2029 und eine technologische Singularität bis 2045. Er entwirft das Bild einer Zukunft, in der exponentielle Fortschritte in der KI die Medizin revolutionieren und die menschliche Lebenserwartung verlängern.

Yann LeCun, Turing-Preisträger

Erfahren Sie, warum LLMs uns keine Intelligenz auf menschlichem Niveau vermitteln können und welche neuesten KI-Ansätze uns helfen, dieses Ziel zu erreichen:

Abschluss

Die Prognosen für die allgemeine globale Intelligenz (AGI) haben sich in den letzten Jahren deutlich verändert. Während frühere Studien ihren Einzug eher um das Jahr 2060 ansetzten, deuten neuere Prognosen, insbesondere von Unternehmern, darauf hin, dass sie bereits 2026–2035 Realität werden könnte.

Dieser Wandel wird durch rasante Fortschritte bei großen Sprachmodellen und die wachsende Rechenleistung vorangetrieben. Trotz dieser Fortschritte mangelt es der heutigen KI jedoch noch immer an der allgemeinen Flexibilität und Autonomie, die mit menschlicher Intelligenz einhergehen.

Die Experten sind sich weiterhin uneins darüber, wie AGI erreicht werden soll; einige glauben, dass die Skalierung der aktuellen Architekturen ausreicht, während andere argumentieren, dass neue Methoden erforderlich sind.

Zu den zentralen Herausforderungen zählen der hohe Ressourcenbedarf, unklare Benchmarks und ungelöste ethische Bedenken. AGI ist möglicherweise näher denn je, doch ihre Realisierung hängt weiterhin von technischen Durchbrüchen und sorgfältiger Überwachung ab.

FAQs

Die Singularität ist ein hypothetisches Ereignis, von dem erwartet wird, dass es zu einem rasanten Anstieg der künstlichen Intelligenz führen wird.

Für die Singularität benötigen wir ein System, das menschliches Denkvermögen mit übermenschlicher Geschwindigkeit und einem schnell zugänglichen, nahezu perfekten Speicher kombiniert.

Die Singularität sollte auch zu Maschinenbewusstsein führen, doch da Bewusstsein nicht eindeutig definiert ist, können wir diesbezüglich keine präzisen Aussagen treffen. Ein solches System könnte sich selbst verbessern und menschliche Fähigkeiten übertreffen.

Während der Begriff Singularität relativ alt ist, werden heutzutage AGI und insbesondere Superintelligenz häufiger verwendet, um dasselbe Ereignis zu beschreiben.

Künstliche Intelligenz (AGI) bezeichnet eine Art von KI, die Wissen über ein breites Spektrum intellektueller Aufgaben hinweg verstehen, lernen und anwenden kann, und zwar auf einem Niveau, das dem des Menschen entspricht oder dieses übertrifft.

Im Gegensatz zu spezialisierter KI, die für bestimmte Aufgaben wie Sprachübersetzung oder Bilderkennung konzipiert ist, würde AGI über generalisierte kognitive Fähigkeiten verfügen, die es ihr ermöglichen, in ungewohnten Situationen zu argumentieren, zu planen und sich anzupassen.

Die Entwicklung von AGI bleibt ein bedeutendes Forschungsziel und Gegenstand ethischer und philosophischer Debatten.

Superintelligenz bezeichnet einen Intellekt, der die besten menschlichen Köpfe in nahezu allen Bereichen deutlich übertrifft, darunter Kreativität, Problemlösung und soziales Verständnis.

Es stellt eine Stufe jenseits der AGI dar, auf der ein künstliches System den Menschen in jeder sinnvollen intellektuellen Disziplin übertreffen könnte.

Das Konzept wirft kritische Fragen hinsichtlich Kontrolle, Sicherheit und den langfristigen Auswirkungen auf die Rolle der Menschheit in einer von überlegener Intelligenz dominierten Welt auf.

Advanced Machine Intelligence (AMI) umfasst kompetente KI-Systeme, die sich einer nahezu allgemeinen Intelligenz annähern oder diese erreichen.

Auch wenn sie noch nicht die vollständige Flexibilität und das Selbstbewusstsein von AGI besitzen, zeigen AMI-Systeme fortgeschrittene Denk-, Lern- und Anpassungsfähigkeit bei unterschiedlichsten Aufgaben.

Der Begriff wird häufig verwendet, um KI-Systeme zu bezeichnen, die über die aktuellen Fähigkeiten einer engen KI hinausgehen, aber noch unterhalb der Schwelle einer vollständigen allgemeinen Intelligenz liegen.

Referenzlinks

1.
[2311.02462] Levels of AGI for Operationalizing Progress on the Path to AGI
2.
2023 Expert Survey on Progress in AI [AI Impacts Wiki]
3.
2022 Expert Survey on Progress in AI – AI Impacts
4.
[2206.04132] Forecasting AI Progress: Evidence from a Survey of Machine Learning Researchers
5.
When Will We Reach the Singularity? - A Timeline Consensus from AI Researchers (AI FutureScape 1 of 6)
6.
AI timelines: What do experts in artificial intelligence expect for the future? - Our World in Data
7.
[1705.08807] When Will AI Exceed Human Performance? Evidence from AI Experts
8.
https://nickbostrom.com/papers/survey.pdf
9.
https://sethbaum.com/ac/2011_AI-Experts.pdf
10.
track record
11.
Update to Samotsvety AGI timelines — EA Forum
12.
Samotsvety's AI risk forecasts — EA Forum
13.
AGI When? [High Quality Turing Test] | Manifold
14.
When will OpenAI achieve AGI? Odds & Predictions
15.
OpenAI announces it has achieved AGI before 2027? Predict... | Polymarket
Polymarket
16.
When will the first weakly general AI system be devised, tested, and publicly announced?
17.
When will an AI first pass a long, informed, adversarial Turing test?
18.
When Will the First General AI Be Announced?
19.
As of July 1, 2022, when will top forecasters expect the first Artificial General Intelligence to be developed and demonstrated?
20.
The arrival of AGI | Shane Legg (co-founder of DeepMind) - YouTube
21.
The Day After AGI > World Economic Forum Annual Meeting | World Economic Forum
22.
Dr. Eric Schmidt - YouTube
23.
Tesla's Musk predicts AI will be smarter than the smartest human next year | Reuters
Reuters
24.
Nvidia CEO says AI could pass human tests in five years | Reuters
Reuters
25.
The Singularity Is Near: When Humans Transcend Biology: Kurzweil, Ray: 8601405784551: Amazon.com: Books
26.
If Ray Kurzweil Is Right (Again), You’ll Meet His Immortal Soul in the Cloud | WIRED
WIRED
27.
The "Father of Artificial Intelligence" Says Singularity Is 30 Years Away
Futurism
28.
The brief history of artificial intelligence: the world has changed fast — what might be next? - Our World in Data
29.
The "Father of Artificial Intelligence" Says Singularity Is 30 Years Away
Futurism
30.
https://aaai.org/wp-content/uploads/2025/03/AAAI-2025-PresPanel-Report-Digital-3.7.25.pdf
31.
OpenAI Ramps Up Robotics Work in Race Toward AGI | WIRED
WIRED
32.
[2303.12712] Sparks of Artificial General Intelligence: Early experiments with GPT-4
33.
https://wp.technologyreview.com/wp-content/uploads/2025/08/MITTR_ArmEBrief_V12_final.pdf
34.
AGI's Last Bottlenecks | AI Frontiers
AI Frontiers
35.
https://www.agidefinition.ai/paper.pdf
36.
Geoff Hinton: On Radiology - YouTube
37.
Artificial general intelligence - Wikipedia
Contributors to Wikimedia projects
38.
Artificial general intelligence - Wikipedia
Contributors to Wikimedia projects
39.
A guide to why advanced AI could destroy the world | Vox
Vox
40.
Brain–computer interface - Wikipedia
Contributors to Wikimedia projects
41.
Data Companies Hit by AI Selloff Push Back on Claude Threat
The Wall Street Journal
42.
Advanced version of Gemini with Deep Think officially achieves gold-medal standard at the International Mathematical Olympiad — Google DeepMind
Google DeepMind
43.
Training compute of frontier AI models grows by 4-5x per year | Epoch AI
44.
AlphaGo Zero - Wikipedia
Contributors to Wikimedia projects
45.
Moore's law - Wikipedia
Contributors to Wikimedia projects
46.
I think the phrase AGI should be retired and replaced by "human-level AI". There is no such thing as AGI. Even human intelligence is very specialized. We do not realize that human intelligence is… | Yann LeCun | 125 comments
47.
A talk I gave at MIT recently. | Yann LeCun | 139 comments
48.
Subscribe to read
Financial Times
49.
Measuring the predictability of life outcomes with a scientific mass collaboration | PNAS
50.
IQ is largely a pseudoscientific swindle (Argument Closed) | by Nassim Nicholas Taleb | INCERTO | Medium
INCERTO
51.
ScienceDirect
52.
https://arxiv.org/pdf/2503.14499
53.
Can AI scaling continue through 2030? | Epoch AI
54.
Unsupported browser
55.
Richard Sutton – Father of RL thinks LLMs are a dead end - Dwarkesh Podcast | Podcast on Spotify
56.
https://www.arxiv.org/pdf/2507.19703
57.
https://www.arxiv.org/pdf/2507.19703
58.
Inside Microsoft’s AI Bet: Satya Nadella on Leadership, Innovation and the Future - YouTube
59.
OpenAI, Microsoft Rift Hinges on How Smart AI Can Get - WSJ
The Wall Street Journal
60.
Occupational Employment and Wage Statistics (OEWS) Tables : U.S. Bureau of Labor Statistics
61.
https://arxiv.org/abs/2502.03689
Cem Dilmegani
Cem Dilmegani
Leitender Analyst
Cem ist seit 2017 leitender Analyst bei AIMultiple. AIMultiple informiert monatlich Hunderttausende von Unternehmen (laut similarWeb), darunter 55 % der Fortune 500. Cems Arbeit wurde von führenden globalen Publikationen wie Business Insider, Forbes und der Washington Post, von globalen Unternehmen wie Deloitte und HPE sowie von NGOs wie dem Weltwirtschaftsforum und supranationalen Organisationen wie der Europäischen Kommission zitiert. Weitere namhafte Unternehmen und Ressourcen, die AIMultiple referenziert haben, finden Sie hier. Im Laufe seiner Karriere war Cem als Technologieberater, Technologieeinkäufer und Technologieunternehmer tätig. Über ein Jahrzehnt lang beriet er Unternehmen bei McKinsey & Company und Altman Solon in ihren Technologieentscheidungen. Er veröffentlichte außerdem einen McKinsey-Bericht zur Digitalisierung. Bei einem Telekommunikationsunternehmen leitete er die Technologiestrategie und -beschaffung und berichtete direkt an den CEO. Darüber hinaus verantwortete er das kommerzielle Wachstum des Deep-Tech-Unternehmens Hypatos, das innerhalb von zwei Jahren von null auf einen siebenstelligen jährlichen wiederkehrenden Umsatz und eine neunstellige Unternehmensbewertung kam. Cems Arbeit bei Hypatos wurde von führenden Technologiepublikationen wie TechCrunch und Business Insider gewürdigt. Er ist ein gefragter Redner auf internationalen Technologiekonferenzen. Cem absolvierte sein Studium der Informatik an der Bogazici-Universität und besitzt einen MBA der Columbia Business School.
Vollständiges Profil anzeigen
Recherchiert von
Sıla Ermut
Sıla Ermut
Branchenanalyst
Sıla Ermut ist Branchenanalystin bei AIMultiple und spezialisiert auf E-Mail-Marketing und Vertriebsvideos. Zuvor war sie als Personalberaterin in Projektmanagement- und Beratungsunternehmen tätig. Sıla hat einen Master of Science in Sozialpsychologie und einen Bachelor of Arts in Internationalen Beziehungen.
Vollständiges Profil anzeigen

Kommentare 12

Teilen Sie Ihre Gedanken

Ihre E-Mail-Adresse wird nicht veröffentlicht. Alle Felder sind erforderlich.

0/450
Harper Ford
Harper Ford
Sep 07, 2023 at 15:32

Does anyone know when this article was first published? I want to do a comparison of predictions vs reality for a project.

Bardia Eshghi
Bardia Eshghi
Sep 11, 2023 at 05:04

Hi Harper. The article was first published in mid-2017. But it's undergone constant updates since then to reflect the latest developments. Good luck with your project and let us know if we can help further!

Yuvan Mohan
Yuvan Mohan
Apr 20, 2022 at 14:28

I think we are far away from the point of singularity. It is not only that intelligence is multi dimensional, but also what is deemed as being intelligent (e.g., IQ, EQ) changes with time. People also change with time. So what is that point of singularity may change.

Bardia Eshghi
Bardia Eshghi
Aug 23, 2022 at 07:52

Hello, Yuvan. Thank you for your feedback.

David Wood
David Wood
Mar 26, 2022 at 22:50

Hello, Achieving the singularity from where we are now is relatively a simple jump, it is just time and advancements combined with a team somewhere who is dedicated to it and has the money to pull it off. The missing part of the equation would be asking the question "what is consciousness?" and understanding that. Then, understanding how to model that with non-biological machinery even at small levels, like modeling the consciousness of an amoeba or more advanced things like snakes and squirrels. Then if we know for certain what it is and how to model it, just run an adaptive evolution algorithm on itself, modeling out all of the processes in human cognition until it can beat them everywhere. Then, allow it to simply rebuild itself to continuously improve. The problem currently preventing this, is that human beings have no idea what consciousness is at all. It is a great mystery. One person thinks it is in the brain. Another thinks the brain is like a tuning fork, channeling the consciousness from somewhere else. It is a great mystery in science. When this problem is solved, then machine consciousness can be built most likely, depending on what it actually is. If consciousness is something weird, such as "human beings have spirits in other dimensions that are planned for their bodies by a supreme being. The brain creates a quantum resonant frequency that links it together with this already conscious entity, and then several universes are interacting simultaneously to create the actual experience of being self aware and sentient" well then, it will be very difficult to design a machine that does that same thing. It is more likely that we figure out how to model the resonance in the brain and then transfer an already existing consciousness of an animal or a human into a machine and keep it going, if that even makes any sense at all. However, maybe that's not how it works, and it is something simple like the holographic connection of energy patterns fluctuating in the mind - this can be modeled and a machine can be built that does these sorts of things with much more efficiency. Right now the mystery of the problem is consciousness itself. Hope that helps. I really enjoyed the robot soccer tournament. I also feel like a superhero at soccer now.

Grant Castillou
Grant Castillou
Mar 15, 2022 at 17:28

It's becoming clear that with all the brain and consciousness theories out there, the proof will be in the pudding. By this I mean, can any particular theory be used to create a human adult level conscious machine. My bet is on the late Gerald Edelman's Extended Theory of Neuronal Group Selection. The lead group in robotics based on this theory is the Neurorobotics Lab at UC at Irvine. Dr. Edelman distinguished between primary consciousness, which came first in evolution, and that humans share with other conscious animals, and higher order consciousness, which came to only humans with the acquisition of language. A machine with primary consciousness will probably have to come first. The thing I find special about the TNGS is the Darwin series of automata created at the Neurosciences Institute by Dr. Edelman and his colleagues in the 1990's and 2000's. These machines perform in the real world, not in a restricted simulated world, and display convincing physical behavior indicative of higher psychological functions necessary for consciousness, such as perceptual categorization, memory, and learning. They are based on realistic models of the parts of the biological brain that the theory claims subserve these functions. The extended TNGS allows for the emergence of consciousness based only on further evolutionary development of the brain areas responsible for these functions, in a parsimonious way. No other research I've encountered is anywhere near as convincing. I post because on almost every video and article about the brain and consciousness that I encounter, the attitude seems to be that we still know next to nothing about how the brain and consciousness work; that there's lots of data but no unifying theory. I believe the extended TNGS is that theory. My motivation is to keep that theory in front of the public. And obviously, I consider it the route to a truly conscious machine, primary and higher-order. My advice to people who want to create a conscious machine is to seriously ground themselves in the extended TNGS and the Darwin automata first, and proceed from there, by applying to Jeff Krichmar's lab at UC Irvine, possibly. Dr. Edelman's roadmap to a conscious machine is at https://arxiv.org/abs/2105.10461

Isaac
Isaac
Nov 06, 2021 at 07:01

I think Patrick Winston was joking when he said 20 years. From the linked quote: "I was recently asked a variant on this question. People have been saying we will have human-level intelligence in 20 years for the past 50 years. My answer: I’m ok with it. It will be true eventually." "Forced into a corner, with a knife at my throat, I would say 20 years, and I say that fully confident that it will be true eventually."

Cem Dilmegani
Cem Dilmegani
Nov 06, 2021 at 11:22

Great point! We should have read the source more carefully. I tried to explain his point better in the article.

Elisa
Elisa
Aug 31, 2021 at 05:52

I have the impression that the nerds that make this kind of prediction (replicate human brain) know a whole lot about computer programming but are ignorant about neuroscience/psychology. We are nor even scratching the surface about primary phenomenon, such as counsciousness / unconsciousness. How do you claim that you can replicate something that we are still far from understanding how it works?

Cem Dilmegani
Cem Dilmegani
Sep 19, 2021 at 13:41

Thank you for the comment. True, better understanding of the mind would help AGI research.

Lulu
Lulu
Aug 25, 2021 at 15:47

mmm... I'm not sure we can reach to this point: "benevolence of intelligent machines" Emotions and Feelings are there to guide our actions, to improve ourselves and to make a better world, can we make a machine to feel guilt of being smarter than us??

Michael Hannon
Michael Hannon
Apr 02, 2021 at 02:15

Saying human intelligence is fixed ignores that as we learn more about how the human brain works we may learn how to expand its capability's ie through some form of enhanced learning, targeted drugs, gene therapy, electro stimulation and not just direct brain computer connections being the only potential for doing this. More so currently hampered by our lack of understanding even the language you use has an effect on your cognitive ability's its one of the reasons deaf people were called dumb was the occurrence of language deprivation and how it negatively effected neurodevelopment it was a major problem when deaf children were forced to lip read instead of using sign language . But we will need more powerful AIs to achieve an understanding of our brains

Vyn
Vyn
Jan 09, 2021 at 16:07

People who say AGI will be here in 2060 are idiots and don't understand the flow of technology you'll see

Chris
Chris
May 24, 2021 at 15:45

@Vyn What do you mean? Do you mean to say it will take way before or way after 2060?

Cem Dilmegani
Cem Dilmegani
Jan 10, 2021 at 16:05

Thanks! I'll be quite happy if I get to see 2060

Kutay Tezcan
Kutay Tezcan
Aug 30, 2020 at 13:33

Intelligent doesn't solve our all problems maybe yes but certainly its essential and more intelligent you are faster you solve problems. If you are a chimp you can not even pour water to a glass. You do not even know what glass is used for. Yes if you are human being you still need to get up and grab the glass but intellegence is essential. I do not think human brain is impossible to create in a lab. I think earth is a lab. Anything found in nature can be replicate in the lab.

Magnus RC Wootton
Magnus RC Wootton
Aug 22, 2020 at 21:46

if P=NP then the singularity may happen also. Saying the human brain is impossible to recreate I dont agree with, but to say its intractable probably is approximately true. So P=NP, if you could solve that mystery (which is the millenial prize funnily) with an intractable calculation, that could make all the magic happen as well.

Cem Dilmegani
Cem Dilmegani
Aug 23, 2020 at 07:44

Thanks for the comment. Most computer scientists working on AI or machine learning would agree that it is possible to replicate human brain's capabilities.

Jannes
Jannes
May 16, 2019 at 07:40

The claim that "humans contribute most to the biomass" on the planet is likely to be wrong. Check out this paper for a careful estimation: https://www.pnas.org/content/115/25/6506

AIMultiple
AIMultiple
May 27, 2019 at 17:42

Thank you! That was insightful. Biology is not my strong suit, I should stick to computer science.

B
B
Jul 01, 2020 at 09:00

@AIMultiple Humble response, and great article. Thanks a ton :)

Cem Dilmegani
Cem Dilmegani
Jul 20, 2020 at 20:29

@B Thanks!