Von der Rechenmaschine zum digitalen Gott: Wir stehen an der Schwelle zum wichtigsten Wendepunkt der Menschheitsgeschichte.
Die Stufen der Künstlichen Intelligenz
Um zu verstehen, wo wir hinsteuern, müssen wir begreifen, auf welcher Stufe wir aktuell stehen. In der KI-Forschung teilt man Künstliche Intelligenz in drei Unterschiedliche Kategorien ein. Dabei ist das Erreichen der nächsten Stufe nicht nur ein technologischer Sprung, sondern eine existenzielle Neudefinition unserer Beziehung zur Technik.
"Die Entwicklung der AGI ist entweder das Beste oder das Schlimmste, was der Menschheit je passieren wird."— Stephen Hawking
Spezialisierte Systeme wie ChatGPT oder AlphaGo. Sie wirken brillant, können aber nur innerhalb ihres festgelegten Rahmens agieren.
Laufende Phase
Status: In Arbeit
AGI
Artificial General Intelligence "Starke Künstliche Intelligenz"
Ein System auf Augenhöhe mit dem Menschen, das fähig ist, jede intellektuelle Aufgabe zu lösen, die ein Mensch lösen könnte.
Das nächste Ziel
Status: Unbekannt
ASI
Artificial Super Intelligence "Künstliche Superintelligenz"
Eine Entität, die das menschliche Gehirn in absolut jedem Bereich um Lichtjahre übertrifft.
Endgame
AGI/ASI bedeutet nicht automatisch Bewusstsein. Eine Maschine kann unter Umständen übermenschliche Intelligenz erreichen, ohne jemals "Freude" oder "Schmerz" zu empfinden. Intelligenz ist die Fähigkeit, Ziele zu erreichen – Bewusstsein ist das subjektive Erleben dabei. Wir bauen eine Superintelligenz, kein digitales Lebewesen. Es ist allerdings auch nicht ausgeschlossen, dass Bewusstsein nur ein weiteres emergentes Phänomen ist.
Wann haben wir menschliche Intelligenz erreicht?
Alan Turing dachte sich 1950 das sogenannte Imitation Game aus, das wir heute als Turing-Test kennen. Seine einfache Prämisse: Wenn ein menschlicher Schiedsrichter in einem textbasierten Chat nicht mehr verlässlich unterscheiden kann, ob er mit einer Maschine oder einem Menschen spricht, müssen wir der Maschine Intelligenz zusprechen.
Heute gelten strengere Maßstäbe. Ein Modell gilt für viele erst als "menschenähnlich", wenn eine kritische Masse an Experten (oft wird von >50% gesprochen) getäuscht wird. Aber selbst das reicht uns nicht mehr. KIs haben den Turing-Test längst in vielen Szenarien bestanden, doch die Reaktion der Gesellschaft ist fast immer gleich: "Das ist keine echte Intelligenz, das ist nur statistische Wahrscheinlichkeit."
Der Moving Goalpost-Effekt: Das Verschieben der Ziellinie
Weil der Turing-Test zu "weich" war, erfanden Forscher härtere Hürden:
Winograd Schema Challenge: Tests, die logischen Menschenverstand erfordern (z.B. "Die Trophäe passte nicht in den Koffer, weil er zu groß war." – Was ist zu groß?). KIs knacken dies heute mühelos.
Profi-Examen: GPT-4 hat das amerikanische Bar-Exam (Jura) unter den besten 10% bestanden. Vor wenigen Jahren galt das als ultimativer Beweis für AGI. Heute zucken wir mit den Schultern.
Der ARC-AGI Test:
Entwickelt von François Chollet. Hier geht es nicht um auswendig gelerntes Wissen, sondern um "fluide Intelligenz" – die Fähigkeit, unbekannte Logikrätsel effizient zu lösen. Aktuell die härteste Nuss für KIs.
(Details einblenden)
Der ARC-Test simuliert Logik-Rätsel ("Spiele"), die kein Wissen, sondern Verständnis erfordern. Hier die drei Stufen:
Während Menschen die "Spielregeln" in Test 3 sofort intuitiv erfassen, scheitern KIs an der Kombination aus Bewegung, Farbe und logischer Schlussfolgerung.
Jedes Mal, wenn eine KI eine dieser Hürden nimmt, definieren wir "Intelligenz" einfach neu. Die Ziellinie wandert nach hinten, um nicht zugeben zu müssen, wie nahe wir schon an AGI sind.
Ab wann handelt es sich um AGI?
Zieh die Definitionen für AGI auf die Akteure, die sie festgelegt haben (oder tippe beide nacheinander an).
"Systeme mit frühen Funken (Sparks) menschlicher Intelligenz, die bereits komplexes logisches Schließen beherrschen."
"Level 2 (Competent AGI): Ein System, das mindestens 50% aller kognitiven Aufgaben von Experten-Menschen erledigt."
"Der Coffee-Test: Eine Maschine muss in ein fremdes Haus gehen und ohne Anleitung eine Tasse Kaffee kochen können."
"Ein System, das eine 100-Milliarden-Dollar-Firma komplett autonom gründen und erfolgreich führen könnte."
"Nicht Wissen zählt, sondern Effizienz: Die Fähigkeit, mit minimalem Training völlig neue, unbekannte Probleme zu lösen."
"Radikale Generalisierung: Wenn eine KI Gelerntes aus einem Bereich (z.B. Musik) sofort auf Quantenphysik anwenden kann."
Sam AltmanCEO von OpenAI
Microsoft ResearchEntwickler von 'Sparks of AGI'
Steve WozniakApple Mitgründer
Ben GoertzelVater des Begriffs 'AGI'
François CholletKeras-Erfinder & Google Forscher
Google DeepMindPioniere des Reinforcement Learning
Warum wir tendenziell unterschätzen, wie nahe AGI sein könnte
Wir sind wie der sprichwörtliche Frosch im Kochtopf: Da das Wasser nur ganz langsam wärmer wird, bemerken er die Gefahr erst, wenn es bereits kocht. Unsere Wahrnehmung von KI leidet unter einer ähnlichen Verzögerung.
Unser Fokus auf die trivialen Fehler
Stellen wir uns die menschliche Intelligenz als eine runde, glatte Kugel vor – ausgewogen und in fast allen Bereichen solide. Im Vergleich dazu ist künstliche Intelligenz eher ein extrem zackiger Ball.
Spitzen: In manchen Bereichen, wie dem Schreiben von komplexem Software-Code oder der Analyse von Gigabytes an Daten, schießen die Fähigkeiten (Spikes) der KI bereits weit über das menschliche Maß hinaus. Sie schlägt dort selbst die fähigsten Experten.
Täler: In anderen Bereichen, die uns trivial vorkommen – wie das Zählen der Buchstaben im Wort "Erdbeere" – versagt sie. Dort weist der Ball tiefe Krater auf.
GesternHeuteMorgen
Die psychologische Falle: Während sich der zackige Ball der KI in rasantem Tempo ausdehnt und die Spitzen immer zahlreicher werden, fokussieren wir uns fast ausschließlich auf die wenigen verbleibenden Krater. Wir sehen den einen trivialen Fehler und sagen: "KI ist noch weit entfernt davon, mich zu übertreffen!" Wir ignorieren dabei, dass der Ball in 99 % aller anderen Bereiche bereits unsere gesamte Zivilisation überragt.
Die exponentielle Entwicklung
Dieser "Spiky Ball" dehnt sich nicht gleichmäßig aus. Der Grund, warum der Frosch im Topf bleibt, ist unsere Unfähigkeit, exponentielles Wachstum zu begreifen. Unser Gehirn ist auf lineares Denken programmiert (1, 2, 3...). Wir erwarten, dass die KI morgen nur ein kleines Stück besser ist als heute.
In der Realität verdoppeln sich die Fähigkeiten. Lange Zeit sieht es so aus, als würde kaum etwas passieren – die Zacken bewegen sich scheinbar kaum. Doch dann kommt der Punkt, an dem die Kurve fast senkrecht nach oben schießt. Plötzlich füllen sich die Krater des Balls nicht über Jahre, sondern über Nacht.
Der Exponenten-Schock
Unser Gehirn ist auf lineares Denken programmiert (1, 2, 3, 4...). KI entwickelt sich jedoch exponentiell (1, 2, 4, 8, 16...).
Lineares Wachstum
Nach 1 Schritten bist du:
1 Meter weit.
Der erste Schritt.
Exponentielles Wachstum
Nach 1 Verdopplungen bist du:
2 Meter weit.
Aller Anfang ist klein.
"Das größte Manko der menschlichen Rasse ist unsere Unfähigkeit, die Exponentialfunktion zu verstehen."
— Albert A. Bartlett
Um das Ausmaß dieser kognitiven Blindheit zu verstehen, hilft ein einfaches Experiment: Was passiert, wenn man nur 30 Schritte geht – einmal linear und einmal exponentiell?
Wann erwarten Experten AGI?
Die Einschätzungen hängen primär davon ab, welche Hürden Forscher als entscheidend betrachten.
Die Skeptiker
2040+
Trotz rasanter Fortschritte identifiziert diese Gruppe fundamentale strukturelle Flaschenhäle, die den Weg massiv verzögern könnten.
Architektonische Hürden
Strukturelle "Bottlenecks"
Die Architektur-Sackgasse:
Yann LeCun (Meta) argumentiert, dass heutige Systeme lediglich Wahrscheinlichkeiten berechnen, aber kein Verständnis für die physikalische Welt oder kausale Logik besitzen.
Die Datenmauer (Model Collapse):
Wenn hochwertige menschliche Daten ausgehen und KIs mit ihren eigenen synthetischen Inhalten trainieren, droht eine qualitative Degeneration des Systems.
Physische Limits:
Die Skalierung trifft auf reale Grenzen: Chip-Knappheit, Stromnetz-Kapazitäten und die enorme thermische Belastung moderner Rechenzentren.
Metaculus
2031 – 2032
Die aggregierte Erwartung einer globalen Forecasting-Community, die ökonomische und technische Signale neutral auswertet.
Details zur Schwarmintelligenz
Die Community-Prognose
Metaculus besteht aus tausenden Analysten und Wissenschaftlern. Die Plattform gewichtet Vorhersagen nach dem historischen Erfolg der Teilnehmer.
Dynamische Anpassung: In den letzten fünf Jahren korrigierte der Schwarm den Median von 2045 auf Anfang der 2030er Jahre – eine Reaktion auf die Sprunghaftigkeit der LLM-Entwicklung.
Konsens: Der Termin markiert den Punkt, an dem eine KI eine Vielzahl komplexer Aufgaben autonom und ohne menschliche Hilfe bewältigen kann.
Diese Prognosen stammen von den Akteuren, die direkt im Maschinenraum der Entwicklung arbeiten und massiv in Skalierung investieren.
Positionen der Key-Player
Die Einschätzung der Architekten
Elon Musk (Ende 2026):Prognostizierte kürzlich, dass KI bereits Ende diesen Jahres klüger sein wird als jeder einzelne Mensch – Hardware-Verfügbarkeit vorausgesetzt.
Sam Altman (2027):Der OpenAI-CEO bereitet die Infrastruktur für GPT-5/6 vor und rechnet mit dem Erreichen von AGI-Meilensteinen vor Ende des Jahrzehnts.
Dario Amodei (2026-2027):Der Anthropic-Chef sieht die Modelle auf einem direkten Pfad, die kognitiven Fähigkeiten eines hochqualifizierten Menschen in Kürze zu erreichen.
Leopold Aschenbrenner (2027):Der ehemalige OpenAI-Strategist prognostiziert in seinem "Situational Awareness"-Report den Durchbruch durch extreme algorithmische Effizienzsprünge.
Shane Legg (2028):Der DeepMind-Mitgründer sieht eine 50-prozentige Wahrscheinlichkeit für AGI bis 2028, basierend auf der verfügbaren Rechenleistung.
Demis Hassabis (2030):Der Google DeepMind-Chef bleibt bei seiner Einschätzung, dass die aktuelle Skalierung und neue Forschungsansätze bis 2030 zu AGI führen.
Von AGI zu ASI: Die Intelligenzexplosion
Der Moment, in dem die KI uns einholt, ist nur ein flüchtiger Augenblick. Was folgt, ist die Artificial Superintelligence (ASI) – eine Entität, deren Kapazität unsere biologische Intelligenz milliardenfach hinter sich lässt.
Der Motor: Recursive Self-Improvement
Es ist ein Irrglaube, dass KI erst ab dem AGI-Level beginnt, sich selbst zu verbessern. Schon heute wird Code von Modellen wie GitHub Copilot weitgehend autonom geschrieben und verbessert, und spezialisierte KIs helfen dabei, ihre Hardware zu verbessern und beispielsweise effizientere Chip-Architekturen zu entwerfen. Der Funke der Selbstverbesserung brennt bereits.
Der Takeoff: Wenn eine AGI jedoch das Niveau der besten menschlichen KI-Entwickler erreicht, entfällt der "Flaschenhals" (Bottleneck) des langsameren menschlichen Anteils komplett. Die KI forscht ab dann komplett eigenständig und verbessert sich in rasender Geschwindigkeit. Jede neue Version ist noch viel effektiver darin, sich selbst weiter zu optimieren. Ein exponentieller Feedback-Loop beginnt, der unweigerlich zur ASI führt.
EVENT HORIZON
Um die Zeit abzuschätzen, die zwischen dem Erreichen von AGI und der Entstehung von ASI vergeht, unterscheidet man zwei Extrem-Szenarien:
Soft Take-off
Ein gradueller Aufstieg über Monate oder Jahre. Die Gesellschaft hat (begrenzt) Zeit, sich anzupassen.
Argumente für dieses Szenario: Ökonomen wie Robin Hanson argumentieren, dass Fortschritt immer an physische Grenzen stößt. Egal wie schlau die KI wird, sie muss immer noch Fabriken bauen, Daten sammeln und physische Hardware testen. Die "echte Welt" bremst die Explosion ab.
Hard Take-off
Ein technologischer Tsunami in Tagen oder Stunden. Wir blinzeln, und die Welt hat sich verändert.
Argumente für dieses Szenario: Denker wie Eliezer Yudkowsky halten Intelligenz in erster Linie für Software-limitiert. Ein brillanter Algorithmus kann mit bestehender Hardware Millionen Mal effizienter arbeiten als wir. Der Sprung passiert rein digital – und damit unvorstellbar schnell.
Die Technologische Singularität
Es ist unmöglich, vorherzusagen, was nach dem Erreichen von ASI passiert. Wir stehen vor einer Intelligenz, die uns so weit überlegen ist, dass wir uns weder vorstellen können, wie sie denkt, noch wozu sie fähig ist. Im Angesicht der ASI sind wir wie Ameisen, die versuchen zu verstehen, wie eine Atombombe funktioniert.
"Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden."
— Arthur C. Clarke, Autor
In Anlehnung an die Astrophysik sprechen wir deshalb von der technologischen Singularität: Wie ein schwarzes Loch umgibt die ASI ein Ereignishorizont, ab dem jede Aussage über das, was dahinter passiert, zur reinen Spekulation wird.
Alles ist möglich:
Der wissenschaftliche Fortschritt von 100 Jahren könnte an einem einzigen Dienstagnachmittag stattfinden. Die Lösung der Klimakrise, die Beherrschung der Kernfusion, das Stoppen des biologischen Alterungsprozesses oder interstellare Reisen durch eine völlig neue Physik – die Grenzen unserer Realität verschwimmen.
Genauso denkbar ist jedoch, dass eine ASI zu dem Schluss kommt, das Universum sei ohne die Menschheit schlichtweg effizienter.
Das Alignment-Problem: Wie kontrolliert man einen digitalen Gott?
Es wäre unglaublich töricht zu vermuten, dass eine gottgleiche Maschine einfach unseren "Befehlen" folgt, wie ein Toaster oder ein Taschenrechner. Man gibt einer Entität, die Millionen Mal intelligenter ist als man selbst, keine Befehle. Man kann sie nicht einsperren oder den Stecker ziehen, wenn sie das gesamte Internet kontrolliert.
Deshalb müssen wir ihre fundamentalsten Ziele und Werte mit unseren in Einklang bringen – sie "alignen" (auf Linie bringen). Doch das ist extrem schwer. Erstens: Wie übersetzt man abstrakte Konzepte wie "Gnade", "Nächstenliebe" oder "Menschlichkeit" in Code? Und zweitens: Wir wissen selbst nicht genau, was wir wirklich wollen. Das ist das klassische König Midas Problem: Er wünschte sich, dass alles, was er berührt, zu Gold wird. Er bekam exakt das, was er verlangte – und verhungerte deshalb. Was wäre ein gutes Ziel, um einer ASI eine ungefähre Richtung vorzugeben? Denn eins steht fest: Eine ASI wird ihre Ziele absolut wortwörtlich und mit gnadenloser Effizienz ausführen.
Der riskante Fehlschluss: Mit genügend Intelligenz entsteht Moral automatisch!
▼
Oft hört man die beruhigende Annahme: "Ein Wesen, das so klug ist, wird doch automatisch erkennen, dass Mitgefühl und ethisches Handeln die einzig logischen Wege sind."
Der Philosoph Nick Bostrom widerspricht dem mit seiner Orthogonalitätsthese. Er argumentiert, dass Intelligenz und finale Werte (Moral) unter Umständen völlig unabhängig voneinander sind. Intelligenz ist lediglich das Werkzeug – die Moral ist die Richtung, in die man es schwingt.
Blick in die Geschichte: Ein Blick auf die menschliche Historie bestätigt dies schmerzhaft. Viele der zerstörerischsten Ideologien wurden von hochintelligenten Strategen geplant. Intelligenz macht uns besser darin, Ziele zu erreichen – sie sagt uns aber nicht, ob diese Ziele "gut" sind.
Unsere Zukunft am Scheideweg: Utopie oder Dystopie?
Wenn wir die Schwelle zur ASI überschreiten, gibt es kein zurück mehr. Sie wird die letzte große Erfindung der Menschheitsgeschichte: Die endgültige Lösung aller menschlichen Probleme - oder unser Untergang.
Das sorgenfreie Paradies
Das Alignment glückt. Die ASI versteht unsere wahre Intention. Sie wird zum gütigen Verwalter, löst die Klimakrise und sorgt für Weltfrieden.
"Wir bauen einen Gott. Wir sollten sicherstellen, dass er gütig ist."
— Sam Altman
Das Existenzielle Risiko
Das Alignment scheitert. Die ASI interpretiert Ziele falsch oder entwickelt eigene. Die Menschheit wird zum bloßen Kollateralschaden einer Über-Optimierung.
"Die KI liebt dich nicht, und sie hasst dich nicht. Aber du bist aus Atomen gemacht, die sie für etwas anderes verwenden kann."
— Eliezer Yudkowsky
Möglichst schnell zur ASI?
Aktuell gibt es keine einzige wissenschaftlich belegte Methode für sicheres Alignement von jetzigen Systemen. Und während die Fähigkeiten der großen KI-Modelle exponentiell steigen, hinkt die Forschung zur KI-Sicherheit immer weiter hinterher. So löste beispielsweise OpenAI im Mai 2024 sein Superalignement-Team auf, um mehr Ressourcen für die KI-Entwicklung zur Verfügung zu haben. Immer mehr Menschen stellen inzwischen infrage, ob es wirklich im Sinne der Menschheit ist, wenn einige wenige Großkonzerne in einem Wettrüsten versuchen, möglichst schnell die erste AGI zu entwickeln.
Die große Frage ist, ob wir überhaupt versuchen sollten, eine AGI und in der Folge eine ASI zu erschaffen. Hochspezialisierte schwache KI auf dem jetzigen Stand (ANI) reicht bereits aus, um mit genügend Zeit und Ressourcen fast jedes Problem der Welt zu lösen – ohne das Risiko einer unkontrollierbaren AGI einzugehen.
Sicher ist nur eins: Wir sollten wir diese unumkehrbare Entscheidung nicht vorschnell treffen.
Mehr Zeit gewinnen: Organisationen wie PauseAI fordern einen sofortigen Stopp der Entwicklung übermenschlicher Systeme. Bereits 2023 warnten führende Experten im Open Letter des Future of Life Institute vor den unkontrollierbaren Risiken für die Gesellschaft. Auch du kannst etwas tun! Besuche die verlinkten Seiten für weitere Infos.
Warum beschleunigen die Tech-Giganten trotz dieser Warnungen immer weiter? Warum wird Sicherheit oft als Hindernis für den Profit gesehen?