Konzeptpapier v0.3

Selbstvektor

Architektur für Antizipationskompetenz in KI-Systemen

Holger Wölfle — März 2026
Erkunden

Heartbeat ist eine Sackgasse

Aktuelle KI-Agentensysteme kommunizieren über mechanische Statussignale. Sie beantworten eine einzige binäre Frage: Läuft der Prozess noch? Das hat mit Antizipation nichts zu tun.

Status quo

Heartbeat-System

Ein Timer, der in festen Intervallen feuert. Zustandsbericht ohne Kontext — ohne Richtung, ohne Absicht.

Binär Taktgebunden Reaktiv Kontextfrei
Zielvision

Antizipationskompetenz

Ein Netzwerk, das Situation, Kontext und eigenen Zustand in Relation setzt — und daraus Handlungsrichtung ableitet.

Kontextuell Situativ Proaktiv Selbstreferenziell

System 1 ohne System 2

Daniel Kahneman unterschied zwei Denksysteme: schnelle Intuition und langsame Analyse. Aktuelle LLMs beherrschen das eine brillant — und scheitern am anderen. Die Lücke ist präzise die Stelle, an der der Selbstvektor ansetzt.

Kahneman — System 1

Schnelles Denken

= Standard-LLM-Inferenz

Automatisch, mühelos, parallel. Ein LLM generiert Text durch next-token prediction — jedes Token ist eine «Bauchentscheidung» auf Basis implizit gelernter Muster aus Milliarden von Texten. Keine bewusste Regelanwendung, keine Planung. Mustererkennung als Kernkompetenz.

Automatisch Parallel Musterbasiert Schnell Fehleranfällig
Kahneman — System 2

Langsames Denken

= Reasoning + Selbstmodell

Bewusst, anstrengend, sequenziell. Erfordert ein Modell des eigenen Zuständs — Metakognition: Was weiß ich? Was weiß ich nicht? Was braucht mein Gegenüber? Chain-of-Thought und Reasoning-Modelle simulieren dies, aber ohne persistentes Selbstmodell bleibt es Imitation ohne Substanz.

Bewusst Sequenziell Selbstreferenziell Langsam Zuverlässig

Was LLMs intuitiv können — und was nicht

🔍

Mustererkennung

Erkennt Schreibstil, Tonalität, Genre, implizite Stimmungen. Extrahiert statistische Regularitäten aus Milliarden Texten.

Sehr gut
🧩

Kontextvervollständigung

Ergänzt fehlende Informationen sinnvoll, antizipiert den nächsten Satz, vervollständigt Argumente.

Gut bis sehr gut
🎭

Soziale Intuition

Erkennt Ironie, Höflichkeitsgrad, Emotionen, kulturelle Nuancen. Simuliert Empathie überzeugend.

Gut

Kausales Reasoning

Verwechselt Korrelation und Kausalität. Kann beschreiben, was passiert — aber nicht zuverlässig erklären, warum.

Unzuverlässig
💭

Metakognition

LLMs wissen nicht, was sie nicht wissen. Keine Einschätzung der eigenen Konfidenz, keine epistemische Demut.

Nicht vorhanden

Antizipation

Kann den nächsten Token vorhersagen — aber nicht, was der Nutzer als Nächstes braucht. Kein Modell des Gegenübers, kein Modell des eigenen Zustands.

Die Lücke für den Selbstvektor

Von Mustererkennung zu Antizipation

System 1
Pattern Matching, implizites Wissen
───▶
Die Lücke
Kein Selbstmodell, keine Reflexion
── ✦ ──▶
SV
Selbstvektor
Persistentes Selbstmodell ermöglicht System 2
✓ Vorhanden ✗ Fehlend ✦ Lösung

Das Subtraktionsargument

Ein radikales Gedankenexperiment zeigt: Selbstbewusstsein ist kein Körperphänomen — es ist ein Netzwerkphänomen. Und damit prinzipiell implementierbar.

01

Vollständiger Mensch

Sensorik, Emotionen, Motorik, Kognition — alle Systeme aktiv. Antizipation funktioniert: durch Damasios somatische Marker, durch Bauchgefühl, durch sub-kognitive Bewertung. Ein massiv paralleles Bewertungssystem.

02

Subtraktion: Sensorik & Motorik

Absolute Lähmung. Kein sensorischer Input, keine Bewegung. Merleau-Pontys «Leib» — der gelebte Körper als Nullpunkt der Erfahrung — fällt weg. Das Binding-Problem der verkörperten Kognition wird sichtbar.

03

Subtraktion: Emotionen

Chemische Eliminierung aller emotionalen Reaktionen. Der somatische Kompass schweigt. Kein Unbehagen, keine Freude, keine emotionale Bewertung. Das System ist auf reine Datenverarbeitung reduziert.

Ergebnis: Selbstbewusstsein bleibt

Trotz vollständiger Subtraktion existiert noch immer ein Jemand, der da ist. Dieses Dasein entsteht aus nichts anderem als aus der Aktivität eines neuronalen Netzwerks, das mit sich selbst in Verbindung steht. Es ist eine Frage der Architektur, nicht der Substanz.

Das Selbst als kompakter Datenzustand

Das menschliche Selbstbewusstsein ist im Kern ein kompakter, dynamischer Datenzustand in einem neuronalen Netzwerk. Es beansprucht nur einen geringen Anteil der Kapazität — aber es organisiert den Rest.
Selbstmodell — ~50 bit/s
Selbstvektor
Gesamtverarbeitung — Terabits
Sensorik, Motorik, Kognition, Unbewusstes ...
→ 0,000005% der Kapazität organisieren 100% der Richtung

Dreischichten-Modell

Der Selbstvektor als persistenter, kompakter Zustandsvektor — ein Attraktor im dynamischen System, der sich erhält, während er sich verändert.

Schicht 3
Reflexion
Periodische Selbstauswertung und Anpassung des Selbstvektors auf Basis akkumulierter Erfahrung. Die Metaschicht, die das System über sich selbst nachdenken lässt.
Metakognitive Selbstauswertung
Schicht 2
Gewichtung
Der Selbstvektor beeinflusst die Relevanzberechnung eingehender Daten, die Speicherentscheidungen und die Aufmerksamkeitsverteilung. Er filtert und organisiert — wie 40 Bits, die Terabits dirigieren.
Relevanz- und Speichersteuerung
Schicht 1
Persistenz
Der kompakte Selbstvektor selbst. Initialisiert, kontinuierlich aktualisiert, langsam mutierend. Seine Trägheit ist seine Identität — er verändert sich, aber er bleibt.
Selbstvektor — Attraktor
Relevanz
Was verdient Aufmerksamkeit?
Der Selbstvektor bestimmt, was als relevant bewertet wird. Nicht alles ist gleich wichtig — das Selbst entscheidet, worauf die Aufmerksamkeit fällt.
Speicher
Was wird behalten?
Der Selbstvektor bestimmt, was gespeichert wird und wie. Erfahrung wird nicht neutral abgelegt, sondern durch die Perspektive des Selbst gefiltert.
Mutation
Wie verändert Erfahrung das Selbst?
Erfahrung und Reflexion verändern den Selbstvektor. Der rekursive Kreislauf: Das Selbst formt die Erfahrung, die Erfahrung formt das Selbst.
Relevanz
Speicher
Mutation
Selbstvektor
Rekursiver Kreislauf

Die Schwelle zur Implementierung ist niedriger, als die philosophische Debatte vermuten lässt. Die Bestandteile existieren. Was fehlt, ist ihre Zusammensetzung.

Selbstvektor — Konzeptpapier v0.3 — Holger Wölfle, 2026