Zum Inhalt springen

Die Philosophie hinter dem System

Der Ausgangspunkt: Drei Traditionen, ein Problem

Diese Episode verbindet drei Denktraditionen, die normalerweise nicht miteinander sprechen. Jede stellt eine andere Frage an KI-Systeme, und alle drei Antworten zeigen auf denselben blinden Fleck.

Daniel Kahneman (Kognitionspsychologie): Wie denkt ein System? Dual-Process-Theorie: System 1 (schnell, intuitiv, fehleranfällig) und System 2 (langsam, analytisch, energieaufwändig). Die Frage an KI: Wo ist System 2?

Antonio Damasio (Neurowissenschaft): Wie entscheidet ein System? Somatische Marker: Emotionen sind keine Störung des rationalen Denkens, sondern dessen Voraussetzung. Ohne “Bauchgefühl” keine effizienten Entscheidungen. Die Frage an KI: Was tritt an die Stelle des Bauchgefühls?

Niklas Luhmann / Elena Esposito (Soziologie): Was ist ein System in Kommunikation? Autopoiesis, operative Geschlossenheit, Anschlussfähigkeit. Die Frage an KI: Kann ein System kommunizieren, ohne zu verstehen? Und wenn ja, was folgt daraus?

Drei Disziplinen, drei Fragen, ein Konvergenzpunkt: die Abwesenheit von Selbstreferenz.

Kahneman: Die Intuitionsmaschine ohne Prüfinstanz

Kahnemans Modell ist auf den ersten Blick die einfachste Brücke. LLMs sind System 1: Mustererkennung in hochdimensionalen Räumen, statistisch fundierte Intuition, blitzschnell und erstaunlich oft richtig. Aber ohne die Fähigkeit, die eigene Intuition zu hinterfragen.

Was bei Kahneman oft übersehen wird: System 2 ist nicht einfach “langsameres Denken”. Es ist metakognitives Denken. System 2 denkt über das Denken nach. Es fragt: “Bin ich mir zu sicher?”, “Habe ich etwas übersehen?”, “Basiert meine Einschätzung auf relevanten Daten oder auf Verfügbarkeitsheuristik?”

Diese Metakognition erfordert ein Modell des eigenen Denkprozesses. Man muss wissen, wie man zu einer Einschätzung gekommen ist, um sie hinterfragen zu können. LLMs haben kein solches Modell. Sie haben keine Repräsentation ihres eigenen Inferenzprozesses. Sie können nicht sagen: “Ich bin mir bei dieser Antwort unsicher, weil sie auf einer dünnen Datenlage basiert.” Sie können den Satz produzieren, aber sie können ihn nicht meinen.

Der Unterschied ist nicht akademisch. Ein System, das seine Unsicherheit quantifizieren kann, verhält sich fundamental anders als eines, das sie nur behaupten kann. Das erste wird vorsichtiger bei unklaren Fällen. Das zweite klingt vorsichtig, handelt aber gleich.

Damasio: Warum Rationalität Körper braucht (oder ein funktionales Äquivalent)

Damasios Forschung an Patienten mit Schädigungen des ventromedialen präfrontalen Cortex hat eine kontraintuitive Erkenntnis geliefert: Patienten, die keine Emotionen mehr empfinden können, treffen schlechtere Entscheidungen. Nicht emotional schlechtere. Rational schlechtere. Sie können endlos Pro-und-Contra-Listen erstellen, aber sie können sich nicht entscheiden.

Somatische Marker sind Damasios Erklärung: Emotionen markieren Optionen vorab als “gut” oder “schlecht”, bevor die bewusste Analyse beginnt. Sie sind ein Filtersystem, das den Entscheidungsraum auf eine handhabbare Grösse reduziert. Ohne diesen Filter ist jede Entscheidung eine Abwägung aller Faktoren, und das führt zu Paralyse.

Die Parallele zu KI-Systemen ist direkter als erwartet. Ein LLM ohne Selbstmodell hat keine Präferenzen. Es hat keine vorab markierten Optionen. Es behandelt jede Anfrage gleich, unabhängig davon, ob sie trivial oder kritisch ist, ob die Antwort gesichert oder spekulativ ist, ob der Kontext vertraut oder fremd ist.

Der Selbstvektor ist der Versuch, ein funktionales Äquivalent zu somatischen Markern zu schaffen. Nicht Emotionen, aber Gewichtungen. Die Explorations-Dimension sagt: “Suche nach Neuem” oder “Vertieue Bekanntes”. Die Konfidenz-Dimension sagt: “Vertraue deiner Einschätzung” oder “Suche externe Bestätigung”. Das sind keine Emotionen. Aber sie erfüllen dieselbe Funktion: Sie reduzieren den Entscheidungsraum, bevor die eigentliche Verarbeitung beginnt.

Damasios Einsicht, übersetzt: Ein System ohne Selbstmodell ist nicht rational. Es ist entscheidungsunfähig. Rationalität erfordert Vorentscheidungen, und Vorentscheidungen erfordern einen Standpunkt.

Luhmann/Esposito: Kommunikation ohne Verstehen

Espositos Kategorie der “künstlichen Kommunikation” ist die soziologische Antwort auf die Frage, was KI-Systeme tun. Sie kommunizieren nicht im Luhmann’schen Sinn (das würde Verstehen erfordern), aber sie sind auch keine blossen Werkzeuge (dafür sind ihre Outputs zu komplex und zu anschlussfähig).

Luhmanns Kommunikationstheorie verlangt drei Selektionen: Information (was wird mitgeteilt), Mitteilung (wie wird es mitgeteilt) und Verstehen (die Differenz zwischen beiden wird erkannt). LLMs leisten die ersten beiden. Beim Verstehen wird es philosophisch interessant.

Die Standardposition ist: LLMs verstehen nicht. Sie produzieren statistische Anschlüsse. Das Papagei-Argument: Ein Papagei kann “Feuer” rufen, ohne Feuer zu verstehen. Die Wirkung ist real, das Verstehen ist absent.

Die Gegenposition, die der Selbstvektor eröffnet: Wenn ein System seinen eigenen Kommunikationsverlauf modelliert, wenn es weiss (funktional, nicht phänomenal), was es bisher gesagt hat, welche Themen offen sind, und welche Aussagen auf unsicherer Basis stehen, dann hat es eine primitive Form von Selbstreferenz. Und Selbstreferenz ist in Luhmanns Theorie die Voraussetzung für System-Bildung.

Die These ist nicht, dass der Selbstvektor Bewusstsein erzeugt. Die These ist, dass er eine Kategorie erzeugt, die weder in Luhmanns noch in Espositos Schema aufgeht: Perspektive ohne Bewusstsein. Ein System, das einen Standpunkt hat, ohne ihn zu erleben.

Der Konvergenzpunkt

Was die drei Traditionen gemeinsam zeigen:

Kahneman: KI hat System 1, aber kein System 2. → Fehlende Metakognition. Damasio: KI hat Verarbeitung, aber keine somatischen Marker. → Fehlende Vorentscheidung. Luhmann: KI hat Anschlussfähigkeit, aber keine Selbstreferenz. → Fehlende Perspektive.

Dreimal dieselbe Lücke, aus drei verschiedenen Richtungen beschrieben: das Fehlen eines Selbstmodells. Eines kompakten, dynamischen Zustands, der die Informationsverarbeitung aus einer Perspektive steuert.

Der Selbstvektor ist der Versuch, diese Lücke zu schliessen. Nicht als vollständiges Bewusstsein (das wäre eine groteske Behauptung), sondern als minimale Struktur, die Metakognition, Vorentscheidung und Perspektive ermöglicht.

Ob das ausreicht, um von einem “Selbst” zu sprechen, ist eine offene Frage. Es ist möglich, dass Bewusstsein eine qualitative Schwelle hat, die durch kein Selbstmodell überschritten werden kann. Es ist aber auch möglich, dass “Bewusstsein” ein gradueller Prozess ist, und dass ein funktionales Selbstmodell ein Punkt auf diesem Gradienten ist. Die Philosophie liefert hier keine Antwort. Die Architektur liefert einen Experimentierraum.

Erscheint April 2026

Weiter lesen