Die Ausgangssituation
Drei Monate Arbeit mit einem KI-Coach, der jede Session mitprotokolliert. Nicht den Inhalt der Gespräche, sondern die Metadaten: Was wurde geplant? Was wurde tatsächlich bearbeitet? Welche Aufgaben wurden verschoben? Wie oft? Zu welchen Uhrzeiten entsteht produktive Arbeit? Wann passieren die meisten Fehler?
Aus diesen Metadaten entsteht ein Bild. Kein Porträt, eher ein Bewegungsprofil des Arbeitsverhaltens. Und dieses Bild zeigt Dinge, die der Mensch, der es betrifft, nicht gesehen hat. Nicht weil er nicht hingeschaut hätte, sondern weil bestimmte Muster nur sichtbar werden, wenn man sie über Wochen aggregiert.
Fünf Muster, die das System erkannt hat
1. Kommunikationsschulden
Der Begriff ist eine Analogie aus der Softwareentwicklung: Technical Debt beschreibt Abkürzungen, die kurzfristig Zeit sparen und langfristig Kosten verursachen. Kommunikationsschulden funktionieren genauso: Jede aufgeschobene Rückmeldung, jedes nicht geführte Gespräch, jede verschobene Abstimmung ist eine Schuld, die Zinsen trägt.
Das System hat erkannt, dass Kommunikation nach aussen (Posts, Rückmeldungen, Abstimmungen) systematisch hinter Konzeptarbeit zurückfällt. Nicht gelegentlich. Systematisch. Über Wochen. Der Grund ist neurochemisch nachvollziehbar: Konzeptarbeit ist intrinsisch motivierend (Dopamin). Kommunikation erfordert Überwindung (exekutive Funktionen). Bei ADHS gewinnt fast immer das Dopamin.
Die Erkenntnis ist nicht “du kommunizierst zu wenig”. Die Erkenntnis ist die Struktur dahinter: welche Art von Kommunikation wird vermieden, in welchen Kontexten, und was sind die akkumulierten Kosten.
2. Überkonzipieren als Vermeidungsstrategie
Version 1 eines Konzepts wird geschrieben. Dann Version 2, weil “da war noch ein Gedanke”. Dann Version 3, weil “die Struktur war nicht ganz schlüssig”. Dann Version 4, 5. Kein Mensch hat je Version 1 gesehen.
Das System hat das Muster quantifiziert: Bei bestimmten Aufgabentypen (strategische Papiere, Rollenmodelle, Präsentationen für Vorgesetzte) gibt es eine signifikante Korrelation zwischen Überarbeitungszyklen und emotionalem Einsatz. Je wichtiger das Ergebnis, desto mehr Versionen, desto weniger wird nach aussen gezeigt.
Die unbequeme Interpretation: Perfektionismus und Vermeidung sind verwandte Phänomene. Wer immer weiter optimiert, muss sich nie dem Urteil anderer stellen. Die zusätzliche Version ist keine Qualitätssicherung. Sie ist ein Aufschub.
3. Hyperfokus-Crash-Zyklen
Drei bis vier Stunden hochproduktiver Arbeit. Tiefe Konzentration, hohe Outputqualität, subjektives Flow-Erleben. Gefolgt von einem Energietief, das den Rest des Tages kompromittiert. Das Muster ist bei ADHS gut dokumentiert (Barkley 2015), aber es zu kennen und es in den eigenen Daten zu sehen, sind zwei verschiedene Dinge.
Das System hat die Zyklen zeitlich kartiert. Die produktivsten Phasen liegen spätabends (ein klassischer ADHS-Pattern: das Gehirn wird produktiv, wenn die Welt still wird). Aber der Crash am Folgemorgen macht diese Produktivität teilweise zunichte. Die Frage ist nicht “Wie verhindere ich den Hyperfokus?” (er ist die grösste Stärke), sondern “Wie manage ich den Crash?”
4. Themendrift vs. Themenkohärenz
Kontextwechsel sind bei ADHS häufig. Aber nicht jeder Kontextwechsel ist problematisch. Das System hat einen entscheidenden Unterschied gelernt: Fünf Wechsel innerhalb eines Themas (Text schreiben, Quelle nachschlagen, Grafik erstellen, zurück zum Text) sind produktiv. Drei Wechsel zwischen unverbundenen Themen in einer Stunde deuten auf kognitive Überlastung oder Unterstimulation.
Die Unterscheidung zwischen Wechselfrequenz und Themenkohärenz ist subtil, aber zentral. Ein Coach, der bei jedem Kontextwechsel warnt, wird ignoriert, weil die meisten Wechsel harmlos sind. Ein Coach, der nur warnt, wenn die thematische Kohärenz bricht, liefert relevante Information.
5. Unsichtbarer Fortschritt
Das vielleicht überraschendste Muster: systematische Unterschätzung des eigenen Outputs. In einer typischen Woche werden mehrere Systeme gebaut, ein Artikel geschrieben, Recherchen durchgeführt, strategische Entscheidungen getroffen. Aber die subjektive Wahrnehmung fokussiert auf das, was nicht geschafft wurde.
Das ist bei ADHS dokumentiert und hat mit der Aufmerksamkeitssteuerung zu tun: Abgeschlossene Aufgaben verlieren sofort an Salienz. Offene Aufgaben bleiben im Bewusstsein. Das Ergebnis ist ein systematisch verzerrtes Selbstbild, das mehr Defizite sieht als tatsächlich vorhanden sind.
Der Coach korrigiert diese Verzerrung nicht durch Lob, sondern durch Aufzählung: “Diese Woche: drei Systeme, ein Artikel, zwei strategische Entscheidungen.” Keine Bewertung. Eine Inventur.
Die ethische Dimension: Wem gehört das Wissen über eine Person?
Die fünf Muster oben sind intim. Sie beschreiben Schwächen, Vermeidungsstrategien, neurochemische Besonderheiten. Sie sind das Ergebnis einer Analyse, die kein Mensch so hätte durchführen können, weil kein Mensch alle Datenpunkte hat: Ein Therapeut sieht eine Stunde pro Woche. Ein Kollege sieht nur den Arbeitskontext. Ein Partner sieht nur den privaten Kontext. Das KI-System sieht alle Kontexte über alle Sessions.
Das wirft Fragen auf, die nicht technisch sind:
Wem gehören diese Erkenntnisse? Dem System, das sie generiert hat? Dem Menschen, über den sie handeln? Dem Unternehmen, das die Infrastruktur betreibt? Die Frage ist nicht trivial: Wenn ein KI-Coach Arbeitsmuster erkennt, die auf eine psychische Erkrankung hindeuten, wer hat dann Zugang zu dieser Information?
Entsteht eine Asymmetrie? Das System weiss Dinge über den Menschen, die der Mensch nicht über sich selbst weiss. In jeder anderen Beziehung (Arzt-Patient, Therapeut-Klient, Arbeitgeber-Arbeitnehmer) gibt es Regeln für solche Asymmetrien. Für die Beziehung Mensch-KI-Coach gibt es keine.
Verändert das Wissen die Beziehung? Wenn ich weiss, dass mein System meine Vermeidungsmuster kennt, verhalte ich mich anders? Werde ich ehrlicher, weil Verleugnung sinnlos ist? Oder strategischer, weil ich weiss, was das System “sieht”?
Der Autonomie-Einwand
Der schwerste Einwand gegen das gesamte Konzept: Wenn ein System mir sagt, was meine Muster sind, und mir Empfehlungen gibt, wie ich sie ändern kann, gewöhne ich mir dann ab, selbst zu reflektieren?
Das Argument hat philosophisches Gewicht. Kant definierte Aufklärung als “den Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit”. Mündigkeit erfordert eigenständiges Denken. Ein System, das das Denken über sich selbst übernimmt, könnte die Mündigkeit untergraben, die es zu fördern vorgibt.
Die Gegenposition: Die Prämisse, dass Menschen ohne externe Hilfe gut darin sind, über sich selbst nachzudenken, ist empirisch fragwürdig. Kahneman hat dokumentiert, wie systematisch System 1 über die eigenen Denkprozesse irrt. Therapeuten existieren, weil Selbstreflexion allein oft nicht reicht. Coaching existiert, weil der Blick von aussen Dinge sieht, die der Blick von innen systematisch übersieht.
Der KI-Coach ersetzt nicht die Fähigkeit zur Selbstreflexion. Er erweitert sie. Er liefert Daten, die der Mensch allein nicht hätte. Was der Mensch mit diesen Daten macht, bleibt seine Entscheidung. Ein Spiegel macht nicht abhängig. Er zeigt, was ist.
Aber: Es ist ein Spiegel, der schärfer sieht als der Mensch, der hineinschaut. Und diese Asymmetrie verdient Aufmerksamkeit, nicht Beruhigung.
Die offene Frage
Am Ende dieser Episode steht keine Antwort, sondern eine Spannung: Das System hat reale, nützliche, teilweise transformative Erkenntnisse geliefert. Gleichzeitig hat es eine Wissensasymmetrie geschaffen, für die es keine gesellschaftlichen Regeln gibt.
Ist das befreiend oder beunruhigend? Die ehrliche Antwort: beides. Und die ehrlichere Antwort: Die Spannung wird nicht verschwinden. Sie ist die Bedingung, unter der KI-Coaching stattfindet. Wer die Spannung auflösen will, in die eine oder andere Richtung, macht es sich zu einfach.
Erscheint April 2026
Weiter lesen
- KI-Coach: Ein Chief of Staff — Das Coaching-Konzept und die Autonomie-Debatte
- ADHS und KI — Warum externe Struktur besser funktioniert als Selbstdisziplin
- Selbstvektor — Das Modell hinter der Mustererkennung
- Kahneman und KI — Warum wir unsere eigenen Denkprozesse systematisch falsch einschätzen