6-Schichten Wissensarchitektur

20. March 2026 5 Min. Lesezeit

Die meisten KI-Agenten leiden unter chronischer Amnesie. Sie antworten brillant, aber morgen wissen sie nichts mehr davon. Das Problem ist nicht das Modell, sondern die fehlende Wissensinfrastruktur.

Stell dir vor, du arbeitest mit einem Berater zusammen, der jeden Morgen vergisst, wer du bist, was ihr gestern besprochen habt und welche Entscheidungen gefallen sind. Du würdest ihn feuern. Aber genau so arbeiten die meisten KI-Systeme: Jede Session beginnt bei Null.

Die Lösung ist keine bessere KI. Die Lösung ist eine Architektur, die Wissen unabhängig vom Modell speichert, strukturiert und validiert.

Die 6 Schichten

Schicht 1: FactsDB (Hot Memory)

Was ist JETZT wahr?

Strukturierte Key-Value-Fakten mit sofortigem Zugriff. IP-Adressen, aktuelle Rollen, Projektstatus, Konfigurationen. Das Äquivalent eines Kurzzeitgedächtnisses, das bei jedem Gespräch automatisch geladen wird.

Warum eine eigene Schicht? Weil nicht jede Information gleich ist. “Der Server hat die IP 192.168.0.166” ist ein Fakt, der sofort verfügbar sein muss, ohne Suche, ohne Kontext, ohne Interpretation. Wenn ein System erst in Tausenden von Dokumenten suchen muss, um die aktuelle IP zu finden, ist es zu langsam für den Arbeitsalltag.

FactsDB ist bewusst simpel: Entität, Schlüssel, Wert. Keine Prosa, keine Interpretation, keine Nuancen. Das ist die Stärke: Was hier steht, ist entweder aktuell oder falsch. Graustufen gibt es nicht.

Schicht 2: BrainDB (Deep Storage)

Was haben wir GELERNT?

Destilliertes Wissen aus Hunderten von Interaktionen. Recherche-Ergebnisse, Entscheidungen und deren Begründungen, Debug-Lösungen, Architektur-Entscheidungen. Volltextsuche, Relationen zwischen Einträgen, ein vollständiger Changelog.

Der entscheidende Unterschied zu einer Notiz-App: BrainDB speichert nicht Rohdaten, sondern Erkenntnisse. Nicht “ich habe 30 Minuten über Validation Gates nachgedacht”, sondern “Gate 3 (Contradiction Check) darf kein Blocker sein, weil Widersprüche manchmal gewollt sind”. Das ist destilliertes Wissen, extrahiert aus Stunden von Arbeit und auf einen Satz komprimiert.

Jeder Eintrag hat Metadaten: Quelle (primär oder abgeleitet?), Tags, Zeitstempel, Relationen zu anderen Einträgen. Das System weiss nicht nur WAS es gelernt hat, sondern WANN und WOHER. Und seit dem Validation-Gates-Incident auch: WIE SICHER.

Was steht in den DATEIEN?

Hybride Suche über alle Projektdokumente. Nicht nur Stichwortsuche (“finde alle Dateien mit dem Wort Validation”), sondern semantische Suche (“finde alles, was mit Qualitätssicherung von Wissen zu tun hat”). Cross-lingual, also eine deutsche Frage findet auch englische Dokumente und umgekehrt.

Warum reicht BrainDB nicht? Weil nicht alles destilliert werden kann. Manchmal braucht man den Originaltext, den vollständigen Kontext, das Dokument, aus dem eine Erkenntnis stammt. Qualia durchsucht alle Dateien im Projektverzeichnis, ohne dass sie manuell indexiert werden müssen.

Die Kombination aus BrainDB (destilliert, strukturiert, schnell) und Qualia (vollständig, kontextreich, semantisch) ist entscheidend. BrainDB sagt “Validation Gates wurden am 26.03. eingeführt”. Qualia findet das 20-seitige Konzeptpapier, das erklärt, warum.

Schicht 4: Coaching Layer

Wer arbeitet hier eigentlich?

Ein KI-Coach, der Arbeitsmuster erkennt, Energiezyklen versteht und ehrlich zurückmeldet, was er sieht. ADHS-bewusst, energie-bewusst, direkt ohne zu verletzen.

Warum ist das eine eigene Schicht? Weil Coaching eine andere Perspektive erfordert als Wissenssuche. Die ersten drei Schichten antworten auf Fragen. Der Coach stellt Fragen: “Du schiebst das seit drei Wochen. Ist das eine bewusste Entscheidung?” Er aggregiert über alle anderen Schichten und erkennt Muster, die in keiner einzelnen Schicht sichtbar sind.

Schicht 5: Validation Gates

Stimmt das auch?

6 Gates, die jeder Fakt passieren muss, bevor er als verlässlich gilt. Source-Pinning, Contradiction Check, Temporal Validation, Confidence Scoring, Scope-Prüfung, Provenance-Tracking. Entstanden aus einem konkreten Fehler, bei dem das System seine eigenen aufbereiteten Zahlen als Rohdaten interpretiert hat.

Diese Schicht ist das implementierte System 2: Die langsame, analytische Prüfinstanz, die System 1 (das LLM) fehlt. Nicht durch mehr Nachdenken, sondern durch deterministische Regeln, die gegen externe Fakten prüfen.

Schicht 6: Temporal Decay

Ist das noch aktuell?

Kontrolliertes Vergessen. Nicht alles muss ewig bleiben. Eine IP-Adresse von vor sechs Monaten ist wahrscheinlich veraltet. Eine Architektur-Entscheidung von vor sechs Monaten ist wahrscheinlich noch gültig. Das System unterscheidet zwischen diesen Fällen.

Temporal Decay ist das Gegenstück zu den Validation Gates: Wo Gates prüfen, ob neue Information verlässlich ist, prüft Temporal Decay, ob bestehende Information noch relevant ist. Zusammen bilden sie einen Lebenszyklus für Wissen: Aufnahme, Validierung, Nutzung, Verfall.

Menschliches Gedächtnis funktioniert ähnlich. Wir vergessen die meisten Details, behalten aber die Essenz. Ein System, das nichts vergisst, ertrinkt irgendwann in veralteten Daten. Ein System, das alles vergisst, ist der KI-Agent ohne Gedächtnis, mit dem wir angefangen haben.

Warum 6 Schichten und nicht 3?

Die naheliegende Frage: Ist das nicht überkompliziert? Reichen nicht Fakten + Dokumente + Suche?

Die Antwort kam aus der Praxis, nicht aus der Theorie. Das System begann mit 3 Schichten. Dann passierte der Metriken-Fehler, und Validation Gates wurden nötig. Dann wurde klar, dass veraltete Fakten ein Problem sind, und Temporal Decay kam dazu. Dann wurde der Coach als eigenständige Perspektive erkennbar, die eine eigene Schicht braucht.

Jede Schicht löst ein Problem, das die anderen nicht lösen können. Keine Schicht ist redundant. Und jede Schicht ist unabhängig: Das Modell kann ausgetauscht werden, die Wissensschichten bleiben.

Designprinzip

Alles lokal. Kein Cloud-Lock-in. Das Modell ist austauschbar, die Wissensschicht bleibt. Wenn morgen ein besseres LLM erscheint, werden die Prompts angepasst. Die Fakten, das Wissen, die Muster, die Validierung, das alles bleibt intakt.

Das ist der eigentliche Wert: Nicht das Modell, sondern die Wissensinfrastruktur um das Modell herum. Modelle kommen und gehen. Wissen akkumuliert.

Visualisierung ansehen