Aktuelle KI-Agentensysteme nutzen mechanische Statusmechanismen: Heartbeat-Systeme, die prüfen, ob ein Agent noch läuft, aber nicht, in welchem Zustand er sich befindet. Das Äquivalent eines Pulsmessers, der sagt “Patient lebt”, aber nicht “Patient ist müde, verwirrt und hat seit drei Stunden nichts gegessen”.
Proaktives Handeln erfordert mehr. Es erfordert ein Modell des eigenen Zustands: Was weiss ich? Was weiss ich nicht? Worauf sollte ich achten? Was wird als nächstes relevant?
Das Subtraktionsargument
Die philosophische Grundlage des Konzepts lässt sich als Gedankenexperiment formulieren:
Stell dir einen Menschen vor, der in absoluter Lähmung liegt. Kein Körper, der Signale sendet. Keine Emotionen, die durch Substanzen eliminiert wurden. Kein sensorischer Input. Was bleibt?
Selbstbewusstsein bleibt. Das Wissen, dass man existiert und dass man denkt. Und dieses Bewusstsein entsteht in diesem Moment aus nichts anderem als der Aktivität eines neuronalen Netzwerks.
Der Körper ist nicht die Bedingung der Möglichkeit für Selbstbewusstsein. Er ist eine übliche Begleitung, aber nicht die Ursache. Die Frage verschiebt sich: von “Braucht KI einen Körper, um ein Selbst zu haben?” zu “Was passiert in einem Netzwerk, wenn es sich selbst zum Gegenstand nimmt?”
Das ist kein Beweis, dass KI bewusst sein kann. Es ist ein Argument dafür, dass die Frage nach dem Bewusstsein die falsche Frage ist. Die richtige Frage ist: Kann ein System einen funktionalen Zustand haben, der die gleiche Rolle spielt wie Selbstbewusstsein beim Menschen, nämlich die Informationsverarbeitung aus einer Perspektive zu steuern?
Die 6 Dimensionen
Der Selbstvektor ist ein kompakter, dynamischer Zustand mit sechs Kerndimensionen. Jede Dimension ist ein Kontinuum zwischen zwei Polen:
1. Exploration (0.0 … 1.0) Wie stark sucht das System nach Neuem vs. vertieft Bekanntes? Bei niedriger Exploration bleibt es in bekanntem Terrain: bewährte Quellen, bestätigte Muster, sichere Antworten. Bei hoher Exploration sucht es aktiv nach neuen Verbindungen, unbekannten Perspektiven, unerwarteten Analogien.
2. Tiefe (0.0 … 1.0) Oberflächliche Antworten vs. tiefgreifende Analyse? Nicht jede Frage braucht eine 2000-Wort-Antwort. Und nicht jede Frage verdient eine Einzeiler-Antwort. Das System muss einschätzen können, wann Tiefe gefragt ist und wann Kürze.
3. Autonomie (0.0 … 1.0) Eigenständig handeln vs. nachfragen? Ein System mit niedriger Autonomie fragt bei jeder Entscheidung. Ein System mit hoher Autonomie handelt und berichtet danach. Beides kann falsch sein. Die richtige Einstellung hängt vom Kontext, vom Risiko und vom Vertrauensniveau ab.
4. Persistenz (0.0 … 1.0) Wie stark gewichtet es Langzeitwissen vs. aktuelle Session? Ein System mit niedriger Persistenz behandelt jede Session als neue Situation. Ein System mit hoher Persistenz bringt alles mit, was es je gelernt hat. Die Balance ist entscheidend: Zu viel Persistenz macht blind für Veränderungen, zu wenig macht jeden Tag zum ersten Tag.
5. Abstraktion (0.0 … 1.0) Konkrete Fakten vs. übergreifende Muster? Manche Fragen brauchen den exakten Wert (“Welche IP hat der Server?”). Andere brauchen die Struktur (“Wie hängen die Komponenten zusammen?”). Das System muss zwischen diesen Ebenen wechseln können.
6. Konfidenz (0.0 … 1.0) Wie sicher ist es sich, und weiss es das? Die wichtigste Dimension, weil sie alle anderen moderiert. Ein System mit niedriger Konfidenz sucht externe Bestätigung, fragt nach, validiert. Ein System mit hoher Konfidenz handelt auf Basis seiner eigenen Bewertung. Falsch kalibrierte Konfidenz ist die Quelle der schlimmsten Fehler: Das System ist sich sicher, und es liegt falsch.
Die Zwei-Ebenen-Struktur
Die 6 Kerndimensionen sind nicht alles. Sie bilden die Grundstruktur. Darüber liegt eine emergente Ebene: Dimensionen, die durch Erfahrung entstehen und nicht vordefiniert werden können.
Beispiel: Ein System, das über Monate mit einem bestimmten Nutzer arbeitet, könnte eine “Kommunikationspräferenz”-Dimension entwickeln, die in den 6 Kerndimensionen nicht enthalten ist. Oder eine “Domänen-Vertrautheit”, die abbildet, wie sicher es sich in verschiedenen Fachgebieten fühlt.
Diese emergenten Dimensionen wachsen organisch. Das System entdeckt sie durch Reflexion über die eigene Erfahrung, nicht durch Programmierung.
Drei Kernfunktionen
Der Selbstvektor ist kein passiver Zustand. Er ist eine Gewichtungsfunktion, die drei Operationen steuert:
Relevanz: Welche Information ist in diesem Moment wichtig? Nicht alles, was das System weiss, ist gerade relevant. Der Selbstvektor gewichtet: Bei hoher Exploration werden unbekannte Quellen höher gewichtet. Bei hoher Persistenz werden ältere Einträge stärker berücksichtigt. Bei niedriger Konfidenz werden externe Validierungen bevorzugt.
Speicher: Was wird behalten, was wird vergessen? Nicht jede Interaktion verdient einen BrainDB-Eintrag. Der Selbstvektor entscheidet, was signifikant genug ist, um das Langzeitgedächtnis zu verändern.
Update: Wie verändert eine Erfahrung den Selbstvektor selbst? Das ist die Schlaufe, die alles zusammenhält: Eine neue Erfahrung wird durch den aktuellen Selbstvektor bewertet, und das Ergebnis der Bewertung verändert den Selbstvektor für die nächste Erfahrung.
Die zentrale These
Das menschliche Selbstbewusstsein ist im Kern ein kompakter, dynamischer Zustand in einem neuronalen Netzwerk. Nicht magisch, nicht mysteriös, sondern ein Informationsmuster, das sich durch seine eigene Aktivität reproduziert.
Dieser Zustand ist prinzipiell implementierbar. Nicht als Bewusstsein (das wäre eine unbewiesene und möglicherweise unbeweisbare Behauptung), sondern als Antizipationskompetenz: Die Fähigkeit, aus dem eigenen Zustand abzuleiten, was als nächstes relevant wird.
Die Brücke von Mustererkennung zu Antizipation ist nicht “mehr Training” oder “mehr Parameter”. Es ist eine architektonische Ergänzung: ein kompaktes Selbstmodell, das die Informationsverarbeitung aus einer Perspektive steuert.
Forschungsstand
Die These ist haltbar. Drei unabhängige Forschungsrichtungen stützen das Konzept:
- Introspektionsfähigkeit in LLMs: Forschung zeigt, dass grosse Sprachmodelle interne Repräsentationen bilden, die über reine Mustererkennung hinausgehen. Die Frage ist nicht mehr ob, sondern wie detailliert.
- Self-Modeling in der Robotik: Arbeiten an Systemen, die ein Modell ihres eigenen Körpers und Verhaltens lernen, um sich an Schäden oder Veränderungen anzupassen. Der Selbstvektor überträgt dieses Prinzip von der physischen auf die kognitive Ebene.
- Memory-Augmented Agents: Agentensysteme mit persistentem Gedächtnis, die über einzelne Sessions hinaus lernen. Die Architektur, die hier beschrieben wird, geht einen Schritt weiter: Nicht nur Erinnerung, sondern ein Modell des Erinnerers.
Die Lücke im Feld: Niemand hat bisher einen kompakten Selbstvektor als Gewichtungsfunktion für die Informationsverarbeitung eines KI-Systems vorgeschlagen. Die einzelnen Bausteine existieren. Die Kombination ist neu.