Modul 1 · KI verstehen
Predictive Processing. One-Shot Learning. Neuroplastizität. Bewusstsein. Warum das Gehirn noch immer das faszinierendste System ist, das wir kennen.
← → Navigieren · ESC zurück zur Übersicht
CC BY-SA 3.0 · N. Dilmen
Einstieg
„Glaubst du, dass KI irgendwann so gut wird wie wir?"
Ich habe eine Weile gebraucht, um zu antworten. Nicht weil die Frage schwer ist. Sondern weil sie falsch ist.
„So gut wie wir" — was bedeutet das überhaupt?
Schach? Seit 1997. Mathematik-Olympiade? 2024, erstmals durch OpenAI. Proteine falten? AlphaFold, Chemie-Nobelpreis. Wenn das gemeint ist — es ist schon passiert.
Die eigentliche Frage
Teil 1 von 6
Predictive Processing — die vielleicht tiefgreifendste Idee der modernen Neurowissenschaft
Predictive Processing · Einstieg
Ich saß in einer Gasse hinter dem Bahnhof, telefonierte halbherzig. Auf dem Weg, den ich kannte, auf Autopilot.
Dann, mitten in einem Satz — blieb ich stehen.
Aus einem Innenhof, den ich immer blind passiert hatte, kam Flamenco-Gitarre. Präzise, schnell. Ein alter Mann mit geschlossenen Augen.
Ich konnte nicht weitergehen. Das war kein bewusster Entschluss — mein Körper hatte einfach angehalten.
Das Gehirn verarbeitet Abweichungen — nicht Bestätigungen. Alles was erwartet wird, kostet kaum Energie. Überraschungen kosten alles.
Predictive Processing
Das Gehirn ist keine Maschine, die passiv auf Informationen wartet. Es tut ununterbrochen etwas Aktiveres:
Es baut ein Modell der nächsten Millisekunde.
Vorhersagefehler werden sofort eskaliert — Aufmerksamkeit, Bewusstsein. Das ist Überraschung.
Friston, K. (2010). Nature Reviews Neuroscience, 11(2).
Predictive Processing · Karl Friston
Karl Friston formulierte 2005–2010 eine einheitliche Theorie des Gehirns:
Das Gehirn minimiert kontinuierlich freie Energie — also Überraschung bzw. Vorhersagefehler. Es tut das auf zwei Wegen:
Interne Modelle an die Welt anpassen. Das Signal kommt von unten (Sinnesorgane), korrigiert die Vorhersage.
Die Welt an die Vorhersagen anpassen. Active Inference: Handle so, dass deine Vorhersagen wahr werden.
Friston, K. (2005). Phil. Trans. R. Soc. B, 360(1456). · Friston, K. (2010). Nat. Rev. Neurosci.
Feedback-Verbindungen im visuellen Kortex sind anatomisch zahlreicher als Feedforward-Verbindungen — das Gehirn schickt mehr Information nach unten als nach oben.
Predictive Processing · Vergleich
Das ist kein Kritik-Punkt, der KI schlechter macht. Es ist ein struktureller Unterschied der erklärt, warum bestimmte Fähigkeiten des Gehirns schwer zu replizieren sind.
Teil 2 von 6
Wie das Gehirn aus einem einzigen Beispiel ein ganzes Konzept aufbaut — und warum das für KI so schwer ist
One-Shot Learning · Lake et al. 2015
Brenden Lake und sein Team stellten 2015 eine einfache, aber vernichtende Frage an KI-Systeme:
Du siehst ein einziges Beispiel eines handgeschriebenen Zeichens. Kannst du es danach in neuen Schriften wiedererkennen?
Datensatz: Omniglot — 1.623 verschiedene handgeschriebene Zeichen aus 50 Alphabeten weltweit. Manchen davon hatten die Teilnehmer noch nie gesehen.
Lake, B. M., Salakhutdinov, R., & Tenenbaum, J. B. (2015). Science, 350(6266), 1332–1338.
Kinder lernen Konzepte aus wenigen Beispielen — nicht aus Millionen. Das ist der Normalfall biologischen Lernens.
One-Shot Learning · Ergebnisse
| System | Fehlerrate (One-Shot) | Bewertung |
|---|---|---|
| Mensch | 4,5 % | Referenzwert — aus einem Beispiel generalisieren |
| Bayesian Program Learning (BPL) | 3,3 % | Besser als Mensch — modelliert Strichfolgen, Kausalität |
| Bester Deep-Siamese-ConvNet | 8,0 % | Doppelt so viele Fehler wie Mensch — trotz Millionen Trainingsbeispiele |
| Einfaches CNN | 13,5 % | ~3× schlechter als Mensch |
BPL schlägt den Menschen — aber nicht durch mehr Daten. Durch ein kausaleres Modell: Es lernt wie ein Zeichen gezeichnet wird, nicht nur wie es aussieht.
Dieser Unterschied — Erscheinung vs. Kausalstruktur — ist fundamental für das Verstehen. Das Gehirn lernt, wie Dinge entstehen.
Lake et al. (2015). Science, 350(6266). · Omniglot Challenge Progress Report (2019).
One-Shot Learning · Konsequenz
Teil 3 von 6
Warum LLMs nicht verstehen — und was „Verstehen" eigentlich bedeutet
Symbol Grounding · Searle 1980
John Searle beschrieb 1980 ein Gedankenexperiment:
Eine Person sitzt in einem Zimmer. Durch einen Schlitz kommen chinesische Schriftzeichen herein. Die Person hat Regelbücher — exakt wie die Zeichen kombiniert werden. Sie gibt korrekte chinesische Antworten zurück. Von außen: perfektes Chinesisch. Von innen: kein Wort verstanden.
Syntax erzeugt keine Semantik. Korrekte Verarbeitung von Symbolen bedeutet nicht, dass man versteht, worum es geht.
Searle, J. R. (1980). Behavioral and Brain Sciences, 3(3), 417–424.
Ein Sprachmodell verarbeitet Token. Es hat gelernt, welche Token auf welche anderen folgen. Es gibt korrekte Antworten — ohne je einen Hund gesehen, einen Schmerz gespürt, eine Tasse gehoben zu haben.
dass „Hund" und „bellt" zusammengehören. Aber das Wort ist nur in anderen Wörtern verankert — nicht in sensorisch-motorischer Erfahrung.
Symbol Grounding · Harnad 1990
Stevan Harnad formulierte 1990 das Problem präzise:
Wie können Symbole in einem formalen System intrinsische Bedeutung erhalten — nicht nur abgeleitete Bedeutung durch andere Symbole?
Ein Wörterbuch definiert „Hund" durch andere Wörter. Aber wenn du nie einen Hund gesehen, gehört, gerochen hast — was ist dann die Bedeutung?
Für Menschen: Symbole sind in sensorisch-motorischer Erfahrung verankert. Für LLMs: Symbole sind nur in anderen Symbolen verankert — ein geschlossenes System.
Harnad, S. (1990). Physica D, 42(1–3), 335–346.
GPT kennt alle Kontexte in denen „Schmerz" vorkommt. Es kann darüber schreiben, Empathie imitieren, Ratschläge geben. Aber es hat nie Schmerz gespürt. Das Wort ist semantisch leer — nur statistisch reich.
LLMs können bei abweichenden Formulierungen derselben Frage komplett andere Antworten geben — weil sie Oberflächen-Muster erkennen, nicht Bedeutung.
Symbol Grounding · Empirischer Beleg
Eine 2026er Studie variierte die Oberflächenform von MMLU-Fragen minimal — gleiche Bedeutung, andere Formulierung.
Ein System das versteht sollte dieselbe Frage unabhängig von der Formulierung lösen. −57% Genauigkeit bei Oberflächenvariation ist ein direkter Beleg für Memorierung statt Reasoning.
Reasoning-Modelle (o3-mini, DeepSeek-R1) sind resistenter — aber auch hier deutlicher Leistungsabfall. Das Problem ist strukturell, nicht modellspezifisch.
arXiv 2603.16197 (2026). „Are Large Language Models Truly Smarter Than Humans?"
Teil 4 von 6
Warum das Gehirn nach massivem Verlust funktioniert — und warum neuronale Netze das nicht können
Neuroplastizität · Extremfall
Cameron Mott wurde mit 3 Jahren mit Rasmussen-Enzephalitis diagnostiziert — einer seltenen Erkrankung, bei der eine Gehirnhälfte fortschreitend zerstört wird.
Die Lösung: Hemisphärektomie — die komplette rechte Gehirnhälfte wurde entfernt.
Vier Wochen nach der OP: sie läuft aus der Klinik. Heute Schule, normale kognitive Entwicklung.
Ihre verbleibende linke Hälfte übernahm die Funktionen beider Hälften — komplett reorganisiert.
Entferne 50% der Gewichte — es kollabiert. Keine Reorganisation. Statische Struktur.
Neuroplastizität · Mechanismus
Long-Term Potentiation (LTP) ist der zelluläre Mechanismus des Gedächtnisses, erstmals beschrieben von Bliss & Lømo 1973:
Hebbsche Regel: „Cells that fire together, wire together." — gleichzeitige Aktivität stärkt die Verbindung.
Bliss, T. V. & Lømo, T. (1973). Journal of Physiology, 232(2), 331–356.
Aus: Brain Online Vault · Neuroscience textbook Fig. 13.32
Backpropagation ändert Gewichte offline, in Batches. LTP passiert in Echtzeit, kontinuierlich, lokal — ohne globales Signal, das durch das ganze Netz propagiert.
Neuroplastizität · KI-Grenze
McCloskey & Cohen beschrieben 1989 das grundlegende Problem sequenziellen Lernens in Neuronalen Netzen:
Wenn ein Netz auf Aufgabe B trainiert wird, zerstört es dabei die Repräsentationen für Aufgabe A. Das alte Wissen wird überschrieben.
Das Gehirn hat dieses Problem nicht. Warum?
Complementary Learning Systems (McClelland et al. 1995): Hippocampus speichert neue Episoden schnell, Kortex integriert sie langsam — ohne das Alte zu überschreiben.
McCloskey & Cohen (1989). Psychology of Learning and Motivation, 24. · McClelland et al. (1995).
Teil 5 von 6
Warum der Energievergleich zwischen Gehirn und KI so verblüffend ist
Energie · Das Gehirn
Raichle & Gusnard, PNAS 2002
CC BY-SA 4.0 · PiDatacenters
50 GWh Trainingsenergie ÷ (20 W × 80 Jahre) = ~3.600 Gehirne ein Leben lang. Einmaliger Trainingsvorgang. Keine Generalität.
Energie · Trainingskosten
Das ist keine Kritik an KI. Es ist eine Einladung zu fragen: Wie schafft das Gehirn so viel mit so wenig? Die Antwort liegt in der Architektur — spiking, asynchron, lokal, bidirektional.
IBM TrueNorth (2014): 1 Mio. Neuronen, 65 mW — ~400 Mrd. Synapsenoperationen/s/Watt. Intel Loihi 2 (Hala Point): geschätzt 1.000× effizienter als GPUs für neuronale Netzinferenz.
Patterson et al. (2021). arXiv 2104.10350. · Merolla et al. (2014). Science.
Teil 6 von 6
Was Neuronen in einer Petrischale uns über Lernen lehren — und was AGI eigentlich bedeuten würde
Bewusstsein · DishBrain
2022 beschrieb Brett Kagan ein Experiment, das die Grenzen zwischen biologisch und künstlich verwischte:
Menschliche Neuronen erreichten dabei ein höheres Spielniveau als Maus-Neuronen.
Kagan, B. J. et al. (2022). Neuron, 110(23), 3952–3969.
Biologische Neuronen ohne Körper, ohne Ziel, ohne Training im herkömmlichen Sinne — lernen Feedback zu optimieren. Das ist emergentes Lernen auf Zellebene.
Kein Bewusstsein, kein Erleben, kein Verstehen von Pong. Aber es zeigt: Lernen ist ein biologisch fundamentales Prinzip — nicht eine Eigenschaft von Architektur.
Bewusstsein · Theorien
Baars (1988): Bewusstsein entsteht, wenn Informationen in einem „globalen Arbeitsraum" des Gehirns weit verteilt werden — für alle Hirnregionen zugänglich gemacht.
Bewusstsein = globaler Broadcast. Lokal verarbeitete Information wird „öffentlich" im Gehirn.
Tononi (2004, 2008): Bewusstsein = integrierte Information (Φ). Jedes System mit hohem Φ hat Bewusstsein — unabhängig davon, ob es biologisch ist.
Konsequenz: Manche Tiere, vielleicht Pflanzen — und möglicherweise bestimmte KI-Architekturen — hätten Bewusstsein.
Melloni et al. (Nature, 2025): Erste adversarielle Studie GWT vs. IIT — fMRI, MEG, intrakraniales EEG. Ergebnis: Kein klarer Gewinner. Das Problem des Bewusstseins ist empirisch noch offen.
Melloni et al. (2025). Nature. · Baars (1988). · Tononi (2004, 2008).
AGI · Definition
„Wenn du zehn KI-Experten fragst, was AGI ist, bekommst du 20 verschiedene Antworten."
Die Definitionen reichen von „besseres Verständnis als jeder Mensch in jedem Themenfeld" bis zu „agiert in der Welt wie ein Mensch". Je nach Definition liegt AGI näher oder ferner.
Meine Definition: AGI braucht kontinuierliches Lernen — die Fähigkeit, neue Aufgaben ohne Katastrophisches Vergessen zu integrieren, während man sich selbstständig in einer physischen Welt bewegt.
R2D2 aus Star Wars als intuitives Bild: erkennt Zusammenhänge, bewegt sich selbstständig, scheint zu verstehen — nicht nur zu berechnen.
Das bedeutet nicht, dass AGI prinzipiell unmöglich ist. Aber „Wir haben AGI bis 2030" nach welchen Kriterien?
Synthese
Die wahre Gefahr liegt nicht darin, dass KI zu klug wird — sondern dass wir uns täuschen lassen und Verstehen mit Rechenleistung verwechseln.
KI ist mächtig. Aber wer die Unterschiede versteht, nutzt KI klüger — und überschätzt sie nicht.
Zusammenfassung · Modul 1
Modul 1 abgeschlossen
Jetzt wo du weißt, was dem Gehirn einzigartig ist — wie versucht KI das nachzubauen? Neuronale Netze, Transformer, Sprachmodelle von innen.