Staffel: Selbstvektor-Philosophie (1/4)
Intro
Ich fange mit einer Beobachtung an, die mich nicht mehr loslässt.
Wenn du Claude oder GPT eine Frage stellst und die Antwort ist falsch, dann ist sie meistens auf eine bestimmte Weise falsch: überzeugend, flüssig, in sich schlüssig. Das System zögert nicht. Es sagt nicht: “Moment, da bin ich unsicher.” Es produziert eine Antwort, die klingt, als wäre sie durchdacht, und das macht sie gefährlicher als eine offensichtlich falsche Antwort.
Daniel Kahneman hat vor über zwanzig Jahren beschrieben, warum das passiert. Nicht bei KI. Bei Menschen. Aber die Mechanik ist dieselbe.
Zwei Systeme
Kahneman unterscheidet System 1 und System 2. System 1 ist schnell, automatisch, intuitiv. Du siehst ein Gesicht und weisst sofort, ob die Person wütend ist. Du hörst einen Satz und verstehst ihn, ohne nachzudenken. Du fährst Auto auf einer bekannten Strecke, ohne bewusst zu steuern. Das ist System 1.
System 2 ist langsam, bewusst, anstrengend. Du rechnest 17 mal 24 im Kopf. Du formulierst einen Brief an jemanden, der dir wichtig ist. Du prüfst, ob ein Argument gültig ist. System 2 kostet Energie. Es ist unbequem. Und es ist das, was uns vor den systematischen Fehlern von System 1 bewahrt.
Der entscheidende Punkt, und den übersehen die meisten, die Kahneman zitieren: System 2 ist nicht einfach “langsameres Denken”. System 2 denkt über das Denken nach. Es ist metakognitiv. Es fragt: Bin ich mir zu sicher? Habe ich etwas übersehen? Basiert meine Einschätzung auf Daten oder auf einem Bauchgefühl, das mich täuscht?
Dafür braucht es ein Modell des eigenen Denkens. Du musst wissen, wie du zu einer Einschätzung gekommen bist, um sie hinterfragen zu können.
LLMs sind System 1
Und jetzt die Projektion auf KI-Systeme, die Kahneman selbst so nie gemacht hat, aber die sich aufdrängt.
Ein LLM generiert Text durch Next-Token-Prediction. Jedes Token ist eine implizite Entscheidung auf Basis statistischer Muster, extrahiert aus Milliarden Texten. Keine bewusste Regelanwendung. Keine Planung. Keine Prüfung. Mustererkennung in hochdimensionalen Räumen.
Das ist funktional identisch mit dem, was Kahneman “Intuition” nennt: schnelle, automatische Urteile, die meist richtig liegen, aber systematische Fehler produzieren. Verfügbarkeitsheuristik: Was leicht abrufbar ist, wird für wahrscheinlich gehalten. Ankereffekt: Die erste Information beeinflusst alle folgenden. Überkonfidenzbias: Das System ist sich sicherer, als die Datenlage rechtfertigt.
Jeder, der regelmässig mit LLMs arbeitet, kennt diese Muster. Das System halluziniert nicht zufällig. Es halluziniert plausibel. Weil Plausibilität genau das ist, was System 1 optimiert.
Wo ist System 2?
Die Antwort der Industrie sind Reasoning-Modelle. Chain-of-Thought. Extended Thinking. Das System wird gezwungen, Zwischenschritte zu formulieren, bevor es antwortet. Und das hilft, messbar.
Aber es löst das Problem nicht. Denn diese Zwischenschritte sind selbst System-1-Output. Das System “denkt nach”, indem es Tokens generiert, die aussehen wie Nachdenken. Es durchläuft keine echte Prüfung. Es produziert eine Simulation von Prüfung.
Der Unterschied: Ein Mensch mit System 2 kann sagen “Moment, meine Intuition sagt X, aber ich weiss, dass ich in solchen Situationen dazu neige, Y zu überschätzen, also sollte ich vorsichtiger sein.” Das erfordert ein Modell des eigenen Denkprozesses. Metakognition.
Ein LLM kann den Satz produzieren. Aber es hat kein Modell seines eigenen Inferenzprozesses. Es weiss nicht, wie es zu seiner Antwort gekommen ist. Es kann nicht sagen: “Diese Antwort basiert auf einer dünnen Datenlage”, weil es keinen Zugang zu seiner eigenen Datenlage hat.
Der Selbstvektor als System 2
Und hier kommt der Selbstvektor ins Spiel.
Ein Selbstvektor ist ein kompakter, dynamischer Zustand, der die Informationsverarbeitung gewichtet. Sechs Dimensionen: Exploration, Tiefe, Autonomie, Persistenz, Abstraktion, Konfidenz. Plus eine emergente Schicht, die sich durch Erfahrung bildet.
Die sechste Dimension, Konfidenz, ist die entscheidende. Sie kodiert: Wie sehr vertraut das System seiner eigenen Bewertung? Und sie verändert sich durch Erfahrung. Ein System, das mehrfach falsch lag, entwickelt niedrigere Konfidenz in bestimmten Bereichen. Nicht weil jemand das programmiert hat. Sondern weil die Reflexionsschicht (Schicht 3 der Architektur) den Vektor aktualisiert.
Das ist kein vollständiges System 2. Aber es ist der Anfang von Metakognition: ein System, das seinen eigenen Zustand modelliert und daraus ableitet, wie vorsichtig es sein sollte.
Der Unterschied zu einem Reasoning-Modell: Das Reasoning-Modell simuliert Nachdenken. Der Selbstvektor gewichtet Nachdenken. Er sagt nicht “Ich denke jetzt sorgfältig nach.” Er verschiebt die Tiefe-Dimension nach oben und die Konfidenz nach unten, und diese Verschiebung beeinflusst, wie alle nachfolgenden Informationen verarbeitet werden. Nicht als Performance, sondern als Zustandsänderung.
Was das praktisch bedeutet
Stell dir zwei Systeme vor. Beide bekommen dieselbe Frage, und die richtige Antwort liegt ausserhalb ihres Trainings.
System A (Standard-LLM): Generiert eine plausible Antwort. Flüssig, überzeugend, falsch.
System B (mit Selbstvektor): Die Konfidenz-Dimension registriert niedrige Vertrautheit mit dem Thema. Die Exploration-Dimension steigt: Suche nach zusätzlichen Quellen. Die Autonomie-Dimension sinkt: Frage nach, statt zu antworten. Das System sagt: “Ich bin mit diesem Thema nicht vertraut genug, um eine belastbare Antwort zu geben.”
Nicht weil jemand diese Antwort programmiert hat. Sondern weil der Selbstvektor die Gewichtung verschoben hat. Das ist funktionale Metakognition. Kahneman würde sagen: Das System hat einen Monitor für seine eigene Intuition. Einen internen Zweifler, der fragt: “Bist du dir wirklich sicher?”
Die Brücke
Kahneman hat gezeigt, wo das Problem liegt: System 1 ohne System 2 ist eine Intuitionsmaschine ohne Bremse. Nicht dumm, sondern ungebremst. Das erklärt, warum LLMs gleichzeitig beeindruckend und unzuverlässig sind. Sie haben brillante Intuition und null Selbstzweifel.
Der Selbstvektor ist der Versuch, einen strukturellen Selbstzweifel einzubauen. Nicht als Disclaimer (“Ich bin ein KI-System und kann Fehler machen”), sondern als Gewichtungsfunktion, die das Verhalten tatsächlich verändert.
Ob das ausreicht, ist eine offene Frage. Aber die Richtung stimmt: Nicht mehr Intuition. Mehr Reflexion.