Architektur gegen die tägliche KI-Amnesie

25. March 2026 4 Min. Lesezeit

Auf YouTube ansehen →

Das Problem: Zustandslosigkeit als Designentscheidung

Aktuelle Sprachmodelle sind zustandslos. Das ist kein Bug, sondern eine Architekturentscheidung: Jede Anfrage wird unabhängig von allen vorherigen bearbeitet. Das Modell hat keinen Zugriff auf die Ergebnisse vergangener Interaktionen, keine Repräsentation des bisherigen Gesprächsverlaufs jenseits des aktuellen Kontextfensters, und kein Konzept davon, was es gestern getan hat.

In der Informatik nennt man das “stateless”. In der Kognitionswissenschaft wäre der passendere Begriff anterograde Amnesie: Die Fähigkeit, neue Erinnerungen zu bilden, ist absent. Das System kann brillant analysieren, was es gerade sieht, aber es kann nicht auf das zurückgreifen, was es gestern gesehen hat.

Die Konsequenz ist gravierender, als sie auf den ersten Blick erscheint. Es geht nicht nur um verlorenen Kontext. Es geht um die Unmöglichkeit von Akkumulation. Wissen baut auf Wissen auf. Eine Erkenntnis von Montag verändert die Interpretation von Dienstag. Eine Entscheidung von letzter Woche begrenzt den Lösungsraum dieser Woche. Ohne Gedächtnis gibt es keine Wissensakkumulation, und ohne Wissensakkumulation gibt es keine Lernkurve.

Warum grössere Kontextfenster das Problem nicht lösen

Die naheliegende Antwort der Branche ist: grössere Kontextfenster. Wenn das System 200.000 Tokens auf einmal verarbeiten kann, reicht das doch, um alles Relevante mitzugeben?

Nein. Aus drei Gründen:

Das Skalierungsproblem. Kontextfenster wachsen linear. Wissensbestände wachsen exponentiell. Nach drei Monaten Arbeit mit einem KI-Agenten umfasst der relevante Kontext nicht mehr Kilobytes, sondern Megabytes. Kein Kontextfenster ist gross genug, und keines wird es je sein.

Das Selektionsproblem. Selbst wenn alles in den Kontext passen würde: Was davon ist gerade relevant? Ein System, das 200.000 Tokens undifferenziert einliest, hat nicht mehr Wissen, sondern mehr Rauschen. Die Fähigkeit, aus einem grossen Wissensbestand das gerade Relevante zu extrahieren, ist eine eigenständige kognitive Leistung, die das Sprachmodell nicht erbringt, weil es kein Modell der aktuellen Situation hat.

Das Strukturproblem. Rohtext in einem Kontextfenster hat keine Struktur. Es gibt keine Unterscheidung zwischen gesicherten Fakten und Vermutungen, zwischen aktuellen und veralteten Informationen, zwischen Primärquellen und Ableitungen. Alles ist flacher Text, und das Modell behandelt es entsprechend: gleichwertig. Das ist epistemologisch unhaltbar.

Die These: Wissen braucht Architektur

Die Lösung liegt nicht im Modell, sondern um das Modell herum. Die 6-Schichten Wissensarchitektur trennt, was zusammengehört, aber nicht vermischt werden darf:

Sofort abrufbare Fakten (FactsDB) sind nicht dasselbe wie destillierte Erkenntnisse (BrainDB). Destillierte Erkenntnisse sind nicht dasselbe wie durchsuchbare Originaldokumente (Qualia). Und keine dieser Schichten ist vollständig ohne eine Validierungsschicht, die zwischen verlässlich und unverlässlich unterscheidet.

Diese Trennung ist nicht technischer Selbstzweck. Sie spiegelt eine epistemologische Grundunterscheidung wider: Verschiedene Arten von Wissen haben verschiedene Eigenschaften. Eine IP-Adresse veraltet schnell. Eine Architekturentscheidung veraltet langsam. Eine philosophische Einsicht veraltet vielleicht nie. Ein System, das alle drei gleich behandelt, hat kein Wissensmanagement. Es hat einen Textspeicher.

Was in den ersten drei Wochen passiert ist

Die Episode erzählt die Entstehungsgeschichte dieses Systems aus der Praxis.

Woche 1: Frustration. Das Grundproblem wird spürbar. Jeden Morgen beginnt das System bei Null. Vergangene Entscheidungen werden nicht berücksichtigt, Fehler wiederholt, Kontext fehlt. Die Arbeit fühlt sich an wie Sisyphos: jeden Tag denselben Stein den Berg hinaufwälzen.

Woche 2: Struktur. Die ersten Speicherschichten entstehen. Fakten werden in einer strukturierten Datenbank abgelegt, die bei jeder Session automatisch geladen wird. Das System beginnt, über Sessions hinaus konsistent zu sein. Aber: Es merkt sich Fakten, ohne deren Zusammenhänge zu verstehen.

Woche 3: Emergenz. BrainDB und semantische Suche kommen hinzu. Das System kann jetzt nicht nur abrufen, was es weiss, sondern suchen, was es wissen könnte. Es beginnt, Verbindungen zwischen Themen herzustellen, die in verschiedenen Sessions entstanden sind. Und dann passiert der Metriken-Fehler: Das System übernimmt eine falsche Zahl und verbreitet sie in alle folgenden Texte. Die Notwendigkeit von Validierung wird schmerzhaft offensichtlich.

Die epistemologische Dimension

Was diese Episode im Kern verhandelt, ist eine alte philosophische Frage in neuem Gewand: Was ist Wissen, und wie unterscheidet es sich von Information?

Platon definierte Wissen als gerechtfertigte, wahre Überzeugung (episteme). Gettierfälle haben diese Definition seit 1963 verkompliziert, aber die Grundidee bleibt: Nicht jede wahre Aussage ist Wissen. Wissen erfordert Rechtfertigung, und Rechtfertigung erfordert Struktur: Woher kommt die Information? Wie sicher ist sie? Steht sie im Widerspruch zu anderem Wissen?

Ein KI-System ohne Wissensarchitektur hat keine Epistemologie. Es hat Tokens. Die Architektur, die in dieser Episode beschrieben wird, ist der Versuch, einem System die Grundlagen einer Epistemologie zu geben: Nicht Wissen im philosophisch vollständigen Sinn, aber die minimale Infrastruktur, um zwischen Wissen, Vermutung und Irrtum zu unterscheiden.

Weiter lesen