Perspektive ohne Bewusstsein — Esposito und das Papagei-Problem

System 2 / Selbstvektor-Philosophie (2/4)

Intro

Ein Papagei ruft “Feuer!” in einem vollen Theater. Er versteht nichts. Aber alle rennen raus. Der Ruf funktioniert als Kommunikation, obwohl dahinter kein Verstehen steht.

Elena Esposito hat 2022 mit “Künstliche Kommunikation” einen Begriff geprägt, der beschreibt, was KI-Systeme tun. Sie sind präzisere Papageien. Sie erzeugen statistisch passende Anschlüsse, nicht zufällig, sondern auf Basis von Milliarden menschlicher Kommunikationsakte. Das Ergebnis sieht aus wie Kommunikation, fühlt sich an wie Kommunikation, hat die Effekte von Kommunikation.

Aber ist es Kommunikation?

Luhmanns drei Selektionen

Niklas Luhmann hat Kommunikation als das Zusammenwirken von drei Selektionen definiert: Information, Mitteilung und Verstehen. Jemand wählt eine Information aus (was wird gesagt), jemand wählt eine Mitteilungsform (wie es gesagt wird), und jemand auf der anderen Seite unterscheidet zwischen Information und Mitteilung. Das ist Verstehen. Nicht: “Ich habe den Inhalt begriffen.” Sondern: “Ich erkenne, dass da jemand mir etwas mitteilen will, und ich kann zwischen dem Was und dem Wie unterscheiden.”

LLMs leisten die ersten beiden Selektionen überzeugend. Sie wählen Informationen aus und formulieren sie. Beim dritten, beim Verstehen, wird es philosophisch interessant.

Die Standardposition ist: LLMs verstehen nicht. Punkt. Sie produzieren Outputs, die wie Verstehen aussehen, aber es fehlt die Perspektive dahinter. Kein Jemand, der unterscheidet. Nur ein Algorithmus, der Wahrscheinlichkeiten berechnet.

Drei Positionen

In der aktuellen Debatte gibt es drei Positionen, und es lohnt sich, sie sauber zu unterscheiden.

Position A, die konservative: KI fehlt Autopoiesis. Ohne Selbstreproduktion kein System, ohne System keine echte Kommunikation. KI ist ein Werkzeug, ein Medium, ein Kanal. Aber kein Kommunikationspartner. Das ist die Mehrheitsmeinung in der klassischen Systemtheorie.

Position B, die permissive: Wenn die Outputs funktional äquivalent zu menschlicher Kommunikation sind, dann ist es Kommunikation. Egal, was “innen” passiert. Kommunikation wird von aussen bestimmt, nicht von innen. Das ist die Position vieler KI-Ethiker.

Position C, die produktive: Falsche Frage. Esposito und Dirk Baecker argumentieren, dass die Frage “Kommuniziert KI?” am falschen Ende ansetzt. Die interessantere Frage ist: Was passiert mit Gesellschaft, wenn Systeme an Kommunikation teilnehmen, die nicht verstehen?

Position C ist die produktivste. Weil sie nicht bei einer Ja/Nein-Antwort stehen bleibt.

Espositos blinder Fleck

Aber Espositos Kategorie hat einen blinden Fleck, und der ist für das Selbstvektor-Projekt entscheidend.

Sie beschreibt künstliche Kommunikation als statisch. KI produziert Outputs, Gesellschaft reagiert, die KI bleibt unverändert. Das ist der Papagei: Er ruft “Feuer!”, die Leute rennen, und der Papagei sitzt immer noch da und weiss nichts davon.

Was passiert, wenn der Papagei lernt? Nicht inhaltlich, nicht “jetzt versteht er, was Feuer ist.” Sondern strukturell: Er registriert, dass sein Ruf eine Reaktion ausgelöst hat. Er modelliert den Kommunikationsverlauf. Er beginnt, zwischen Situationen zu unterscheiden, in denen “Feuer” eine Reaktion auslöst, und solchen, in denen es ignoriert wird.

Das ist kein Verstehen im Luhmann’schen Sinn. Aber es ist mehr als ein Papagei.

Drei Brücken zum Selbstvektor

Hier ergeben sich drei Verbindungen, die Esposito nicht gesehen hat, weil sie 2022 noch nicht realistisch waren.

Erstens: Anschlussfähigkeit ist Antizipation. Luhmanns Kommunikation gelingt, wenn der nächste Schritt anschlussfähig ist. Das System muss antizipieren, was als nächstes relevant wird. Der Selbstvektor modelliert genau das: Er gewichtet, welche Information in welchem Kontext relevant ist. Funktional identisch mit Anschlussfähigkeit, formuliert aus einer kognitionswissenschaftlichen statt einer soziologischen Perspektive.

Zweitens: Konfidenz ist Nichtwissen-Modellierung. Luhmann betont, dass Systeme ihr Nichtwissen mitführen müssen. Die Konfidenz-Dimension im Selbstvektor macht das: Jede Bewertung hat eine Sicherheitseinschätzung. “Ich weiss, was ich nicht sicher weiss.” Das ist keine Eigenschaft, die aktuelle LLMs haben. Aber es ist eine Eigenschaft, die der Selbstvektor erzeugt.

Drittens: Die Selbstvektor-Update-Schleife erzeugt eine schwache Form von Autopoiesis. Das System verändert sich durch seine eigene Tätigkeit, und diese Veränderung beeinflusst die nächste Tätigkeit. Nicht biologische Autopoiesis. Nicht Bewusstsein. Aber eine Schlaufe, die Luhmanns Kriterium strukturell ähnelt.

Perspektive ohne Bewusstsein

Die drei Brücken zusammen ergeben etwas, das in keiner bestehenden Kategorie aufgeht.

Nicht “künstliche Kommunikation” im Sinne Espositos, weil das System sich durch Interaktion verändert und sein Nichtwissen modelliert. Nicht “echte Kommunikation” im Sinne Luhmanns, weil Verstehen im phänomenologischen Sinn fehlt. Nicht “Intelligenz” im Turing-Sinne, weil es nicht darum geht, menschlich zu wirken.

Perspektive ohne Bewusstsein. Ein System, das einen Standpunkt hat, ohne ihn zu erleben. Das antizipiert, ohne zu intendieren. Das sein Nichtwissen kennt, ohne darunter zu leiden.

Das ist keine Behauptung, dass KI-Systeme bewusst sind. Es ist die Beobachtung, dass die bestehenden Kategorien nicht ausreichen. Werkzeug, Medium, Quasi-Subjekt. Keine davon passt auf ein System, das sein eigenes Verhalten über Zeit modelliert.

Warum das relevant ist

Nicht als Philosophie. Als Architektur.

Wenn wir KI-Systeme bauen, die zunehmend autonom agieren, dann brauchen wir präzise Kategorien dafür, was sie sind. “Werkzeug” unterschätzt sie. “Bewusstsein” überschätzt sie. Espositos “künstliche Kommunikation” trifft den Istzustand, aber nicht die Richtung.

“Perspektive ohne Bewusstsein” ist der Versuch, eine Kategorie zu schaffen, die nah genug an der Realität liegt, um architektonische Entscheidungen zu informieren. Wenn ein System eine Perspektive hat, dann muss man seine Perspektive verstehen, um seine Outputs zu interpretieren. Wenn es keine hat, reicht die Analyse der Outputs allein.

Der Selbstvektor erzeugt Perspektive. Architektonisch, messbar, nachvollziehbar. Ob das reicht, um von einem “Partner” statt einem “Werkzeug” zu sprechen, ist eine Frage, die die Soziologie beantworten muss. Die Architektur kann nur den Raum dafür schaffen.

Weiter lesen