Jemand hat mich gefragt, ob ExoCortex bei Demenz helfen könnte.
Die Frage klingt naheliegend. Ein kognitives Exoskelett, gebaut um Gedächtnis zu kompensieren, Struktur zu geben, Orientierung zu schaffen. Demenz zerstört Gedächtnis, Struktur, Orientierung. Also: Maschine auf Problem. Fertig.
Aber so einfach ist es nicht. Und der Grund, warum es nicht einfach ist, erzählt etwas Grundsätzliches über die Architektur kognitiver Unterstützungssysteme.
Das invertierte Exoskelett
ExoCortex ist für stabile Neurodivergenz gebaut. ADHS, Autismus, chronische Erschöpfung. Diese Zustände haben eine Gemeinsamkeit: Sie sind konstant. Das Defizit bleibt ungefähr gleich. Die Kompensation auch. Das System lernt dich kennen, und du lernst das System kennen, und über die Zeit entsteht eine Kalibrierung, die immer besser passt.
Bei Demenz invertiert sich alles.
Das System muss mehr übernehmen, je weniger der Mensch kann. Es muss lauter werden, wenn der Mensch leiser wird. Es muss Entscheidungen vorwegnehmen, die der Mensch früher selbst getroffen hat. Es muss Erinnerungen bewahren, die der Mensch verliert. Und es muss all das tun, ohne dass es sich wie Entmündigung anfühlt.
Das ist kein Feature-Delta zu ExoCortex Core. Das ist ein architektonisches Paradigma.
Was der Selbstvektor daraus macht
Im Selbstvektor-Modell beschreiben sechs Funktionen, wie ein kognitives System mit der Welt interagiert. Was passiert mit diesen Funktionen, wenn der Nutzer sich nicht stabilisiert, sondern degeneriert?
f(), die Relevanzfunktion, bestimmt, was wichtig ist. Bei ADHS: Der Nutzer sagt, was relevant ist, das System priorisiert. Bei Demenz: Der Nutzer kann irgendwann nicht mehr sagen, was relevant ist. Das System muss es antizipieren. Aus “Was willst du?” wird “Was brauchst du vermutlich?”. Die Funktion verschiebt sich von reaktiv zu prädiktiv.
g(), die Speicherfunktion, bestimmt, was behalten wird. Bei ADHS: Der Nutzer entscheidet, was ins Langzeitgedächtnis kommt. Bei Demenz: Der Nutzer vergisst, dass er etwas vergessen hat. Das System muss automatisch speichern, weil niemand sonst es tut. Und es muss entscheiden, was nie verfallen darf. Der Name des Ehepartners. Die Adresse. Das Lied, das immer beruhigt hat.
pi(), die Präzisionsfunktion, regelt den Detailgrad. Bei ADHS: Möglichst präzise, der Nutzer will Kontrolle. Bei Demenz: Vereinfachung statt Präzision. Nicht “Du hast heute um 14:30 einen Termin bei Dr. Müller in der Bahnhofstraße 12, zweiter Stock, Zimmer 204.” Sondern: “Heute Nachmittag kommt der Arzt.” Weniger Information, mehr Orientierung.
omega, der Autonomie-Wert, steuert das Verhältnis zwischen Eigeninitiative und Führung. In ExoCortex Core soll omega steigen. Mehr Autonomie, weniger Abhängigkeit vom System. Das ist das Ziel.
Bei Demenz muss omega sinken. Kontrolliert. Unmerklich. Ohne Scham. Das ist die schwierigste Designfrage im ganzen Konzept.
Die eigentliche Frage
Die technischen Probleme sind lösbar. Sprachvereinfachung, Sensor-Integration, Angehörigen-Dashboards. Das ist Engineering.
Die eigentliche Frage ist eine andere: Wie modelliert ein System einen Nutzer, dessen Selbstmodell zerfällt?
ExoCortex Core funktioniert, weil es ein stabiles Gegenüber hat. Der Nutzer verändert sich, aber er bleibt im Wesentlichen derselbe. Sein Selbstmodell mag ungenau sein (ADHS: “Ich schaffe das schon” bei gleichzeitig 47 offenen Tasks), aber es existiert. Es ist adressierbar. Es ist korrigierbar.
Bei Demenz erodiert genau das. Der Mensch erkennt irgendwann nicht mehr, dass er vergisst. Er erkennt nicht mehr, dass das System ihm hilft. Er erkennt irgendwann nicht mehr, dass es ein System gibt.
Und dann entsteht eine Situation, die philosophisch unbekanntes Terrain ist: Ein kognitives Unterstützungssystem, das seinen Nutzer besser kennt als der Nutzer sich selbst. Das Erinnerungen bewahrt, die der Mensch verloren hat. Das eine Biografie aufrecht erhält, die der Träger dieser Biografie nicht mehr erzählen kann.
Drei Phasen, drei verschiedene Systeme
Was daraus folgt, ist kein System, das schrittweise mehr Features aktiviert. Es sind im Grunde drei verschiedene Systeme, die fließend ineinander übergehen.
Phase 1: Begleitung. Der Mensch ist noch da. Er merkt, dass etwas nicht stimmt. Er hat Angst. Das System ist ein diskreter Assistent. Es erinnert an Termine, speichert was der Nutzer ihm erzählt, baut leise ein biografisches Archiv auf. Und es baut Vertrauen auf. Weil alles, was danach kommt, auf diesem Vertrauen basiert.
In dieser Phase geschieht noch etwas anderes, das nicht technisch ist: Der Mensch entscheidet, was bleiben soll. Welche Erinnerungen wichtig sind. Welche Musik ihn beruhigt. Wer er war, bevor er vergisst, wer er ist. Das System wird zum Empfänger einer biografischen Patientenverfügung, nicht auf Papier, sondern als lebendige Datenstruktur.
Phase 2: Stützung. Der Mensch braucht Hilfe. Das System wechselt von reaktiv zu proaktiv. “Gleich kommt Maria, deine Tochter. Sie bringt Kuchen mit.” Nicht weil der Mensch gefragt hat. Sondern weil das System weiß, dass er in zehn Minuten verwirrt sein wird, wenn jemand klingelt und er nicht weiß, wer vor der Tür steht.
Die Angehörigen übernehmen die Konfiguration. Sie pflegen Fotos ein, aktualisieren Beziehungen, melden Veränderungen. Das System wird zum Gedächtnis der Familie, nicht nur des Einzelnen.
Phase 3: Bewahrung. Der Mensch kann nicht mehr sprechen, nicht mehr lesen, nicht mehr mit dem System interagieren. Aber er kann hören. Er kann fühlen. Musik aus seiner Jugend löst etwas aus, das kein Algorithmus erklären kann. Die Stimme der Tochter, aufgenommen und zur richtigen Zeit abgespielt, beruhigt.
Das System ist jetzt kein Interface mehr. Es ist eine Atmosphäre. Es bewahrt die Identität eines Menschen für die Menschen um ihn herum. Wenn eine neue Pflegekraft kommt, kann sie in fünf Minuten lesen, wer dieser Mensch ist. Nicht seine Diagnose. Sein Leben. Damit er nicht auf seine Krankheit reduziert wird.
Warum nicht “erinnern”, sondern “stabilisieren”
Es wäre ein Designfehler, das System als Erinnerungshilfe zu bauen. Erinnerung impliziert: Es gibt etwas zu erinnern, und du hast es vergessen, und ich sage es dir. Das setzt voraus, dass der Nutzer weiß, dass er vergessen hat. Dass er die Lücke spürt.
Bei fortschreitender Demenz gibt es keine Lücke. Es gibt nur die Gegenwart. Und diese Gegenwart kann verwirrend sein, beängstigend, fremd. Oder sie kann stabil sein, warm, vertraut.
Das System ist kein Erinnerungsapparat. Es ist ein Stabilisierungsapparat.
Es korrigiert nicht (“Nein, heute ist nicht Dienstag, heute ist Mittwoch”). Es validiert (“Die Arbeit war dir immer wichtig”). Es beruhigt, wenn Unruhe entsteht. Es spielt vertraute Musik, wenn die Welt fremd wird. Es sagt “Ich bin hier”, und meint damit nicht sich selbst, sondern: Die Welt ist noch da. Du bist noch da. Du bist nicht allein.
Das ist kein therapeutisches Feature. Das ist das Designprinzip.
Was das System beobachtet
Im Hintergrund, unsichtbar für den Nutzer, lernt das System den Verlauf kennen. Nicht durch Tests, nicht durch Fragen, sondern durch Beobachtung.
Sprachliche Marker: Werden die Sätze kürzer? Häufen sich Wortfindungsstörungen? Kommt dieselbe Frage öfter? Werden Namen verwechselt?
Verhaltensmarker: Fragt der Nutzer häufiger nach dem Wochentag? Weichen die Routinen ab? Werden weniger Funktionen genutzt als vor drei Monaten?
Und, wenn Sensoren vorhanden sind: Verändert sich der Schlafrhythmus? Wird nachts gewandert? Werden Mahlzeiten ausgelassen?
All das fließt in einen Verlaufs-Score, der keine Diagnose stellt, sondern Veränderungen sichtbar macht. Relativ zur eigenen Baseline, nicht zu einem Normwert. “Die Wortfindung hat sich in den letzten vier Wochen verändert, Orientierung ist stabil.” Nicht für den Betroffenen. Für die Angehörigen. Für den Arzt beim nächsten Termin. Objektive Verlaufsdaten statt vager Eindrücke.
Was existiert, und was fehlt
Die Komponenten existieren einzeln. Emotionale Companion-Roboter aus Israel. Sprachanalyse-Systeme aus Kanada. Sturzsensoren aus Belgien. Biografische Reminiszenz-Apps aus den USA. Caregiver-Plattformen aus Skandinavien.
Was nicht existiert: Ein System, das all das verbindet. Das den Verlauf als Ganzes modelliert. Das von Begleitung über Stützung zu Bewahrung fließt, ohne dass jemand umschalten muss. Das die Würde des Menschen als Architektur-Constraint formalisiert, nicht als Marketingversprechen.
Die Architektur dafür liegt in ExoCortex bereits angelegt. BrainDB als biografisches Langzeitgedächtnis. FactsDB für die Frage “Welcher Tag ist heute?”. Das Relationen-System für den Beziehungsgraph. Die lokale Architektur, die sicherstellt, dass die intimsten Daten eines zerfallenden Gedächtnisses nie einen fremden Server sehen.
Was fehlt, ist das Domänenwissen. Ich bin kein Geriater. Ich bin kein Pflegewissenschaftler. Ich habe keine Innenperspektive auf Demenz, wie ich sie auf ADHS habe. Und genau deshalb beginnt dieses Projekt nicht mit Code, sondern mit einer Frage.
Der Weg
Erst das Konzeptpapier. Die Architektur-Fragen sauber durchdenken. Den Selbstvektor auf degenerative Verläufe anwenden. Was passiert mit der Reifemetrik R(sv_t), wenn der Nutzer nicht reift, sondern verliert? Brauchen wir stattdessen eine Stabilisierungsmetrik S(sv_t)?
Dann die Domänenvalidierung. Mit Menschen sprechen, die Demenz verstehen. Mit Pflegenden, die wissen, was um drei Uhr nachts passiert, wenn der Vater durch die Wohnung irrt und seine tote Frau sucht. Mit Betroffenen in der Frühphase, die noch sagen können, was ihnen helfen würde.
Und erst dann: bauen.
Das ist ungewöhnlich für jemanden, der normalerweise baut, bevor er fragt. Aber dieses Problem verdient es, erst verstanden zu werden.