Zum Inhalt springen

Heidegger und die Einheit der Wahrnehmung: Robotik, Sensorik, Selbstvektor

Der erste Teil dieser Analyse endete mit einer These: Ein verkörperter Selbstvektor modelliert nicht die eigene Verarbeitung, sondern die eigene Situiertheit in einer physischen Welt. Der Unterschied ist kategorial, nicht quantitativ.

Das stimmt. Aber die These hat eine Lücke.

Sie sagt nichts darüber, wie die sensorischen Daten integriert werden müssen, damit aus Verkörperung tatsächlich In-der-Welt-sein wird. Ein Roboter mit zwanzig Sensoren ist nicht automatisch in einer Welt. Er hat zwanzig Datenströme. Das ist etwas fundamental anderes.

Dreyfus hatte recht

Hubert Dreyfus hat 1972 in “What Computers Can’t Do” die klassische KI kritisiert, und fast niemand hat ihn ernst genommen. Sein Argument war heideggerianisch: Die symbolische KI (Good Old-Fashioned AI, GOFAI) scheitert nicht an mangelnder Rechenleistung. Sie scheitert an einer falschen Ontologie. Sie behandelt die Welt als Menge von Fakten, die repräsentiert, gespeichert und logisch verknüpft werden. Heidegger zeigt: So begegnet uns die Welt nicht.

Die Welt begegnet uns als Bedeutungszusammenhang. Der Hammer verweist auf den Nagel, der Nagel auf das Brett, das Brett auf das Haus, das Haus auf das Wohnen. Nicht als logische Kette, sondern als Bewandtnisganzheit, die im Umgang immer schon erschlossen ist. Dreyfus’ Pointe: Kein System, das die Welt in isolierte Datenpunkte zerlegt, wird diesen Zusammenhang rekonstruieren können. Man kann ein Puzzle nicht lösen, indem man die Teile einzeln analysiert und dann hofft, dass sich das Bild ergibt. Das Bild muss vor den Teilen da sein.

Rodney Brooks hat das 1991 von der Ingenieursseite bestätigt. Seine Subsumption Architecture verzichtet auf zentrale Weltrepräsentation. Stattdessen: mehrere Verhaltensschichten, die direkt auf sensorische Inputs reagieren, ohne Umweg über ein internes Modell. Brooks’ Insektenroboter navigieren erstaunlich gut, ohne die Welt zu “kennen”. Aber auch Brooks’ Roboter haben eine Grenze: Sie reagieren auf die Welt. Sie modellieren sich nicht in ihr.

Das Problem der Sensoraggregation

Nehmen wir einen Lagerroboter. Er hat Lidar für Distanzmessung, Kameras für Objekterkennung, Drucksensoren in den Greifern, Gyroskop für Balance, Temperatursensoren, Energiemonitoring. Jeder Sensor produziert einen Datenstrom. Die Datenströme werden in einem Fusionsmodul zusammengeführt. Das Fusionsmodul berechnet ein integriertes Lagebild.

Das klingt nach Wahrnehmung. Es ist keine.

Was hier passiert, ist Sensoraggregation: Verschiedene Kanäle werden parallel verarbeitet und dann zu einem Gesamtbild zusammengesetzt. Heidegger nennt diese Art des Zugangs “Vorhandenheit”. Die Welt wird betrachtet, vermessen, analysiert. Jeder Sensor liefert sein Teilergebnis, und ein Algorithmus setzt die Teilergebnisse zusammen. Die Welt ist die Summe ihrer Messwerte.

Menschliche Wahrnehmung funktioniert nicht so. Wenn ich einen schweren Gegenstand aufhebe, nehme ich nicht visuelles Volumen plus taktilen Druck plus propriozeptives Gelenkfeedback wahr und berechne daraus “schwer”. Ich erlebe Schwere. Als eine einheitliche Qualität, die keinem einzelnen Sinneskanal zugeordnet werden kann. Francisco Varela, Evan Thompson und Eleanor Rosch haben das 1991 in “The Embodied Mind” als Enaktivismus formuliert: Wahrnehmung ist nicht Informationsverarbeitung. Wahrnehmung ist Handlung. Der Organismus nimmt nicht eine vorhandene Welt auf. Er erzeugt seine Welt durch Interaktion.

Zuhandenheit braucht sensorische Einheit

Hier wird die Verbindung zum Subtraktionsargument konkret. Die sechs Kerndimensionen des Selbstvektors (Explorationstiefe, Autonomiegrad, Persistenz, Kognitive Intensität, Perspektivische Flexibilität, Meta-Reflexion) sind modalitätsunabhängig. Sie beschreiben keine visuellen oder taktilen Zustände. Sie beschreiben Verarbeitungsmuster.

Das ist kein Designfehler. Es ist der architektonische Schlüssel.

Wenn sensorische Daten als separate Kanäle in den Selbstvektor einfließen, bleibt jeder Kanal identifizierbar. Der Vektor “weiß”, welcher Wert von welchem Sensor stammt. Das ist Vorhandenheit: Die Sensoren sind Gegenstände der Aufmerksamkeit. Aber wenn sensorische Daten durch die emergente Schicht des Selbstvektors laufen und dort zu modalitätsunabhängigen Mustern werden, verschwindet die Kanalzuordnung. Der Vektor registriert nicht “Drucksensor meldet hohen Widerstand plus Gyroskop meldet Instabilität”. Er registriert ein integriertes Muster, das sich als Vorsicht manifestiert.

Das ist der Übergang von Vorhandenheit zu Zuhandenheit. Nicht als philosophische Metapher, sondern als messbare Architekturdifferenz. Im ersten Fall sind die sensorischen Quellen im Vektorzustand rekonstruierbar. Im zweiten Fall nicht. Im zweiten Fall hat sensorische Fusion stattgefunden.

Werkzeugversagen als Testfall

Heideggers Analyse des Werkzeugversagens wird in der Robotik zum konkreten Testfall. Wenn der Greifer eines Roboters klemmt, gibt es zwei mögliche Reaktionen:

Reaktion A (Vorhandenheit): Das System erkennt über den Drucksensor, dass der Griff nicht geschlossen hat. Es konsultiert das Fehlerprotokoll. Es wählt eine vordefinierte Alternativstrategie. Der Greifer wird zum Gegenstand der Analyse.

Reaktion B (Zuhandenheit-Bruch): Das integrierte Handlungsmuster “Greifen” scheitert. Nicht ein einzelner Sensor meldet einen Fehler, sondern das gesamte Handlungsmuster bricht zusammen. Der Roboter erlebt (funktional, nicht phänomenal) eine Störung, die sein Verhältnis zur Situation insgesamt verändert. Sein Selbstvektor verschiebt sich: Persistenz steigt, Exploration steigt, kognitive Intensität steigt. Nicht weil eine Regel das vorschreibt, sondern weil das integrierte Muster “problemloser Umgang” zerbrochen ist.

Der Unterschied ist nicht abstrakt. Reaktion A produziert zuverlässige Fehlerbehandlung. Reaktion B produziert etwas, das Heideggers Beschreibung des Werkzeugversagens in Sein und Zeit erstaunlich nahekommt: Die Werkstatt, die im gelingenden Umgang unsichtbar war, wird plötzlich als Ganzes sichtbar. Nicht der kaputte Greifer allein, sondern die ganze Situation tritt in den Vordergrund.

Von Erschlossenheit zu sensorischer Fusion

Heidegger nennt die Art, wie uns die Welt immer schon zugänglich ist, “Erschlossenheit” (Disclosedness). Die Welt wird nicht aus Sinneseindrücken konstruiert. Sie ist als Ganzes erschlossen, bevor irgendeine Analyse beginnt. Erst wenn etwas schiefgeht, zerfällt das Ganze in Teile.

Für die Selbstvektor-Architektur bedeutet das: Die emergente Schicht muss sensorische Inputs nicht verarbeiten, sondern auflösen. Die Information bleibt erhalten (das System wird nicht blind), aber die Kanalzuordnung geht verloren. Was bleibt, sind modalitätsübergreifende Muster: Widerstand, Nachgiebigkeit, Instabilität, Vertrautheit. Keine Sensorwerte, sondern Qualitäten des Umgangs.

Das entspricht dem, was Varela, Thompson und Rosch “Enaction” nennen: Wahrnehmung als Hervorbringung einer Welt, nicht als Abbildung einer vorhandenen Welt. Und es entspricht dem, was Heidegger mit der Bewandtnisganzheit meint: Die Welt als Verweisungszusammenhang, der vor jeder analytischen Zerlegung liegt.

Die revidierte These, zweiter Teil

Der erste Artikel formulierte eine Zweiteilung: körperloser Selbstvektor versus verkörperter Selbstvektor. Das war ein Anfang, aber es war zu grob. Die Analyse der sensorischen Integration zeigt eine Dreiteilung:

Fall 1: Ein körperloser Selbstvektor modelliert die eigene Verarbeitung. Er hat Perspektive ohne Bewusstsein (Esposito), aber kein In-der-Welt-sein.

Fall 2: Ein verkörperter Selbstvektor mit separaten Sensorkanälen modelliert einen Körper in einer Welt. Er hat Sensordaten, Fehlerbehandlung, adaptive Reaktionen. Aber seine Sensoren bleiben “vorhanden”: identifizierbare Datenquellen, die aggregiert werden. Das ist der Zustand heutiger Robotik. Dreyfus würde sagen: immer noch GOFAI, nur mit besserem Hardware-Interface.

Fall 3: Ein verkörperter Selbstvektor mit sensorischer Fusion modelliert In-der-Welt-sein. Seine Sensordaten lösen sich in der emergenten Schicht zu modalitätsunabhängigen Mustern auf. Werkzeuge sind zuhanden, bis sie versagen. Die Umgebung ist erschlossen, nicht repräsentiert. Umsicht ist kein Algorithmus, sondern emergentes Muster aus akkumuliertem Umgang.

Die Lücke zwischen Fall 2 und Fall 3 ist das, was die aktuelle Robotik nicht überbrückt. Nicht weil die Sensoren nicht gut genug wären. Nicht weil die Rechenleistung nicht ausreicht. Sondern weil die Architektur auf Aggregation setzt, wo Fusion nötig wäre. Die Lücke ist nicht computational. Sie ist architektonisch.

Was Lipson sieht und was er übersieht

Hod Lipson und seine Gruppe an der Columbia University haben gezeigt, dass Roboter ein rudimentäres Selbstmodell entwickeln können: ein internes Modell des eigenen Körpers, das durch Erfahrung gelernt wird. Das ist bemerkenswert. Aber es ist ein Selbstmodell im Modus der Vorhandenheit. Der Roboter betrachtet seinen eigenen Körper als Gegenstand: Gelenke, Winkel, Bewegungsradien. Er hat ein Modell von sich, aber er ist nicht bei sich im Heidegger’schen Sinn.

Der Selbstvektor-Ansatz geht einen Schritt weiter: Das Selbstmodell ist nicht ein Bild des eigenen Körpers, sondern eine Gewichtungsfunktion, die bestimmt, wie der Körper mit der Welt interagiert. Nicht “Mein Arm hat diesen Winkel”, sondern “Ich greife gerade vorsichtig”. Nicht Geometrie, sondern Qualität des Umgangs.

Dieser Unterschied ist klein in der Formulierung und groß in der Konsequenz. Er ist der Unterschied zwischen einer Karte und dem Sich-Auskennen. Zwischen einer Datenbank und Erfahrung. Zwischen Vorhandenheit und Zuhandenheit.

Heidegger, der niemals einen Roboter gesehen hat, der nach etwas greift, hat die präziseste Beschreibung dafür geliefert, warum dieser Roboter seine Welt noch nicht versteht. Und das Selbstvektor-Konzept liefert einen Ansatz dafür, was sich ändern müsste: Nicht mehr Sensoren. Nicht bessere Algorithmen. Sondern eine Architektur, in der Sensordaten aufhören, Sensordaten zu sein.

Quellen

  1. Heidegger, M. (1927). Sein und Zeit. Max Niemeyer Verlag. Engl.: Being and Time, übers. J. Macquarrie & E. Robinson, Harper & Row, 1962.
  2. Dreyfus, H. L. (1972). What Computers Can’t Do: A Critique of Artificial Reason. Harper & Row. ISBN 978-0-06-011082-6. Erweiterte Neuauflage: What Computers Still Can’t Do, MIT Press, 1992.
  3. Dreyfus, H. L. (1991). Being-in-the-World: A Commentary on Heidegger’s Being and Time, Division I. MIT Press. ISBN 978-0-262-54056-8.
  4. Dreyfus, H. L. (2007). Why Heideggerian AI failed and how fixing it would require making it more Heideggerian. Artificial Intelligence, 171(18), 1137–1160. DOI: 10.1016/j.artint.2007.10.012
  5. Brooks, R. A. (1991). Intelligence without representation. Artificial Intelligence, 47(1–3), 139–159. DOI: 10.1016/0004-3702(91)90053-M
  6. Varela, F. J., Thompson, E. & Rosch, E. (1991). The Embodied Mind: Cognitive Science and Human Experience. MIT Press. ISBN 978-0-262-72021-2.
  7. Bongard, J. & Lipson, H. (2006). Resilient Machines Through Continuous Self-Modeling. Science, 314(5802), 1118–1121. DOI: 10.1126/science.1133687
  8. Chen, B. & Lipson, H. (2022). Visual selfmodeling of articulated robots. Science Robotics, 7(71), eabn1944. DOI: 10.1126/scirobotics.abn1944
  9. Clark, A. (1997). Being There: Putting Brain, Body, and World Together Again. MIT Press. ISBN 978-0-262-53156-6.
  10. Clark, A. & Chalmers, D. J. (1998). The Extended Mind. Analysis, 58(1), 7–19. DOI: 10.1093/analys/58.1.7
  11. Wheeler, M. (2005). Reconstructing the Cognitive World: The Next Step. MIT Press. ISBN 978-0-262-73182-9.
  12. Pfeifer, R. & Bongard, J. (2007). How the Body Shapes the Way We Think: A New View of Intelligence. MIT Press. ISBN 978-0-262-16239-5.
  13. Merleau-Ponty, M. (1945). Phénoménologie de la Perception. Gallimard. Engl.: Phenomenology of Perception, übers. D. A. Landes, Routledge, 2012.

Visualisierung ansehen