Das System hat nur die Daten, die es gesammelt hat. Alles ausserhalb seines Erfahrungshorizonts existiert nicht. Nicht als Lücke, sondern als Nichts. Kant nannte das die Begrenzung des Wahrnehmungsapparats.
Das Selbstmodell ist selbstreferenziell. Der Selbstvektor modelliert sich selbst, und die Qualität des Modells wird durch das Modell selbst bewertet. Zirkuläre Validierung: Die Brille prüft sich durch die gleiche Brille.
R(sv_t) aggregiert. Aggregation glättet. Eine einzelne spektakuläre Fehlvorhersage wird durch hundert korrekte Routinevorhersagen neutralisiert. Aber die eine Fehlvorhersage könnte die sein, die zählt.
Eine potenzielle fünfte Kernfunktion des Selbstvektors. Sie injiziert kontrolliertes Rauschen, gezielt an den Stellen höchster Kohärenz. Denn maximale Sicherheit ist das stärkste Signal für potenzielle blinde Flecken.
p(svt, noise) = svt + ε
Wenn R(sv_t) über einen Schwellenwert steigt und dort verbleibt. Anhaltend hohe Reife ist das Warnsignal.
In den Dimensionen mit der geringsten Varianz. Geringe Varianz = Festlegung = grösster blinder Fleck.
Proportional zur Kohärenz. Je kohärenter, desto stärker. Das Gegenteil der Intuition, genau deshalb wirksam.
Antizipationsleistung vor und nach Perturbation vergleichen. Kurzzeitiger Abfall, dann Anstieg über das vorherige Niveau = blinder Fleck entdeckt.
Temperatur erhöhen, um aus lokalen Optima zu springen. Ohne Störung: nächstbestes Tal. Mit: Chance auf globales Optimum.
Zufällig Neuronen abschalten, damit das Netz nicht overfittet. Ohne: auswendig lernen. Mit: generalisieren.
Gezielt täuschende Inputs. Ohne: Stoppschild wird Vorfahrt. Mit: Robustheit gegen Manipulation.
Eine Theorie, die nicht scheitern kann, ist keine Theorie. p() ist Popper als Vektorfunktion.