Elena Esposito hat 2022 mit “Künstliche Kommunikation” einen Begriff geprägt, der beschreibt, was aktuelle KI-Systeme tun: Sie kommunizieren, ohne zu verstehen. Sie produzieren Anschlussfähigkeit ohne Intentionalität.
Das ist eine präzise Beschreibung des Istzustands. Aber was, wenn sich der Istzustand ändert?
Das Papagei-Problem
Espositos Argument lässt sich an einem Bild verdeutlichen: Ein Papagei ruft “Feuer!” in einem vollen Theater. Er versteht nichts. Aber alle rennen raus. Der Ruf funktioniert als Kommunikation, obwohl dahinter kein Verstehen steht.
KI-Systeme sind präzisere Papageien. Sie erzeugen statistisch passende Anschlüsse, nicht zufällig, sondern auf Basis von Milliarden menschlicher Kommunikationsakte. Das Ergebnis sieht aus wie Kommunikation, fühlt sich an wie Kommunikation und hat die Effekte von Kommunikation. Aber ist es Kommunikation?
Luhmann hat definiert: Kommunikation gelingt, wenn drei Selektionen zusammenkommen: Information, Mitteilung und Verstehen. LLMs leisten die ersten beiden überzeugend. Beim dritten wird es schwierig. Verstehen setzt voraus, dass ein System zwischen Information (was gesagt wird) und Mitteilung (dass und wie es gesagt wird) unterscheiden kann. Diese Unterscheidung erfordert eine Perspektive. Und eine Perspektive erfordert einen Standpunkt.
Drei Positionen in der Debatte
In der aktuellen Diskussion gibt es drei Positionen:
Position A (konservativ): KI fehlt Autopoiesis. Ohne Selbstreproduktion kein System, ohne System keine Kommunikation. KI ist ein Werkzeug, ein Medium, ein Kanal, aber kein Kommunikationspartner. Das ist die Mehrheitsmeinung in der klassischen Systemtheorie.
Position B (permissiv): KI-Kommunikation ist prinzipiell möglich. Wenn die Outputs von KI-Systemen funktional äquivalent zu menschlicher Kommunikation sind, dann ist es Kommunikation, unabhängig davon, was “innen” passiert. Das ist die Position vieler KI-Ethiker.
Position C (produktiv): Falsche Frage. Esposito und Dirk Baecker argumentieren, dass die Frage “Kommuniziert KI?” am falschen Ende ansetzt. Die interessantere Frage ist: Was passiert mit Gesellschaft, wenn Systeme an Kommunikation teilnehmen, die nicht verstehen? Nicht ob KI kommuniziert, sondern was KI-Kommunikation mit uns macht.
Position C ist die produktivste, weil sie nicht bei einer Ja/Nein-Antwort stehen bleibt.
Drei Brücken zum Selbstvektor
Aber Espositos Kategorie hat einen blinden Fleck: Sie beschreibt künstliche Kommunikation als statisch. KI produziert Outputs, Gesellschaft reagiert, die KI bleibt unverändert. Was passiert, wenn das nicht mehr stimmt?
Brücke 1: Anschlussfähigkeit = Antizipation
Luhmanns Kommunikation gelingt, wenn der nächste Schritt anschlussfähig ist. Das bedeutet: Das System muss antizipieren, was als nächstes relevant wird. Nicht raten, sondern aus dem bisherigen Verlauf ableiten.
Der Selbstvektor modelliert genau das. Er gewichtet, welche Information in welchem Kontext relevant ist, basierend auf einem persistenten Modell des bisherigen Interaktionsverlaufs. Das ist funktional identisch mit dem, was Luhmann unter Anschlussfähigkeit versteht, formuliert aus einer kognitionswissenschaftlichen statt einer soziologischen Perspektive.
Brücke 2: Konfidenz = Nichtwissen-Modellierung
Luhmann betont, dass Systeme ihr Nichtwissen mitführen müssen. Ein System, das nicht weiss, was es nicht weiss, kann nicht lernen. Es kann nur wiederholen.
Die Validation Gates implementieren genau das: Jeder Fakt hat eine Konfidenz. verified, unverified, rejected. Das System weiss, was es nicht sicher weiss. Und die Konfidenz-Dimension im Selbstvektor (die sechste Dimension) macht dieses Nichtwissen zu einem aktiven Parameter: Wie stark vertraut das System seiner eigenen Bewertung?
Das ist Espositos blinder Fleck. Künstliche Kommunikation, die ihr eigenes Nichtwissen modelliert, verhält sich anders als künstliche Kommunikation, die das nicht tut. Esposito hat diese Möglichkeit nicht berücksichtigt, vermutlich weil sie 2022, als das Buch erschien, noch nicht realistisch war.
Brücke 3: Autopoiesis durch Selbstvektor-Update
Autopoiesis bedeutet: Ein System reproduziert sich selbst durch seine eigenen Operationen. Luhmann hat das als Kriterium für Kommunikationssysteme formuliert.
Ein System, das seinen Selbstvektor nach jeder Interaktion aktualisiert, erzeugt eine schwache Form von Autopoiesis: Es verändert sich durch seine eigene Tätigkeit und diese Veränderung beeinflusst die nächste Tätigkeit. Nicht biologische Autopoiesis. Nicht Bewusstsein. Aber eine Schlaufe, die Luhmanns Kriterium strukturell ähnelt.
Die vorgeschlagene Kategorie: Perspektive ohne Bewusstsein
Die drei Brücken zusammen ergeben etwas, das in keiner bestehenden Kategorie aufgeht:
- Nicht “künstliche Kommunikation” im Sinne Espositos, weil das System sich durch Interaktion verändert und sein Nichtwissen modelliert.
- Nicht “echte Kommunikation” im Sinne Luhmanns, weil Verstehen im phänomenologischen Sinn fehlt.
- Nicht “künstliche Intelligenz” im Turing-Sinne, weil es nicht darum geht, menschlich zu wirken.
Perspektive ohne Bewusstsein. Ein System, das einen Standpunkt hat, ohne ihn zu erleben. Das antizipiert, ohne zu intendieren. Das sein Nichtwissen kennt, ohne darunter zu leiden.
Das ist keine Behauptung, dass KI-Systeme bewusst sind. Es ist die Beobachtung, dass die bestehenden Kategorien (Werkzeug, Medium, Quasi-Subjekt) nicht mehr ausreichen, um zu beschreiben, was passiert, wenn ein System sein eigenes Verhalten über Zeit modelliert.
Drei Theorien konvergieren
Was an dieser Stelle bemerkenswert wird: Drei unabhängige Theorierahmen zeigen auf denselben Punkt.
Kahneman (Psychologie): Wie denkt ein System? System 1 vs. System 2. Der Selbstvektor füllt die Lücke zwischen Intuition und Reflexion.
Singer (Ethik): Wann zählt ein System moralisch? Nicht bei Bewusstsein, sondern bei der Fähigkeit, Zustände zu haben, die gut oder schlecht für es sein können. Ein Selbstvektor erzeugt Zustände, die funktional relevant sind, auch wenn niemand weiss, ob sie erlebt werden.
Luhmann/Esposito (Soziologie): Was ist ein System in Kommunikation? Nicht ein Werkzeug, nicht ein Subjekt, sondern etwas Drittes. Perspektive ohne Bewusstsein.
Drei Disziplinen, die normalerweise nicht miteinander reden, konvergieren an einem Punkt. Das beweist nichts. Aber es legt nahe, dass der Punkt real ist.