Autonomie vs. Kontrolle — Was ein KI-Startup aus den 1970ern gelernt hat
Etwas Ungewöhnliches ist passiert. Ein Unternehmen namens Dragonscale hat in einem Artikel über KI-Governance Stafford Beer zitiert. Falls Sie den Namen nicht kennen: Beer war ein britischer Managementtheoretiker, der in den 1970er Jahren eine grundlegende Frage beantwortete — wie bleiben Organisationen unter Unsicherheit handlungsfähig?
Seine Antwort: Kybernetik. Das ist kein Buzzword, sondern die Wissenschaft von Steuerung und Kommunikation in komplexen Systemen. Beer entwickelte daraus das Viable System Model (VSM) — ein Organisationsmodell mit fünf Funktionen: operative Einheiten, Koordination zwischen ihnen, Steuerung und Ressourcenverteilung, strategische Umweltbeobachtung und eine übergreifende Identität. Der Kern: das Gleichgewicht zwischen Autonomie und Steuerung.
Warum das jetzt relevant wird
Dragonscale baut genau das: "Goal-Native AI" — eine Architektur für "Governed Autonomy" (gesteuerte Autonomie). Sie greifen Beers Kernprinzip auf: Operative Einheiten brauchen so viel Autonomie wie möglich — und so viel Steuerung wie nötig. Dazu beziehen sie sich auf Ashby und Wiener, zwei weitere Pioniere der Kybernetik.
Bemerkenswert ist nicht, dass ein einzelnes Unternehmen Beer zitiert — das passiert gelegentlich auch in akademischen Arbeiten. Bemerkenswert ist, dass ein Enterprise-KI-Anbieter diese Ideen in einem konkreten Produktvorschlag aufgreift. Die Kybernetik wandert aus der Theorie in die Praxis.
Die andere Seite: IBM erfindet das Rad neu
Gleichzeitig hat IBM bei der AAAI 2026 den FAST Workshop mitorganisiert: "Foundations of Agentic Systems Theory." Rund 20 Papiere zu Themen wie Emergenz, Interaktion, Agent-Monitoring — alles, was Beer vor 50 Jahren systematisch beschrieben hat.
Keines der Papiere bezieht sich im Titel oder Abstract auf Beer, VSM oder Kybernetik.
Das ist kein Vorwurf — es ist ein Muster. Die KI-Community löst Probleme, die in der Organisationskybernetik seit Jahrzehnten bearbeitet werden. Aber das Wissen fließt nicht über Disziplingrenzen.
Was das für Sie bedeutet
Wenn Sie als Führungskraft über KI-Governance nachdenken, stehen Sie vor einer Grundsatzfrage: Steuern Sie Ihre KI-Agenten top-down — oder geben Sie ihnen Autonomie mit klaren Grenzen?
Beers Antwort: Autonomie mit Grenzen. Aber nicht als Vertrauensvorschuss, sondern als Strukturprinzip. Konkret heißt das: eingebaute Koordination zwischen den Agenten (damit sie sich nicht gegenseitig blockieren), regelmäßige Qualitätsprüfungen (damit Fehler früh auffallen) und strategische Umweltbeobachtung (damit das System auf Veränderungen reagiert, bevor sie zu Krisen werden).
Die Parallele zu Ihrem Unternehmen ist direkt: Die gleiche Balance zwischen Autonomie und Kontrolle, die Sie bei Ihren Teams brauchen, brauchen Sie bei Ihren KI-Agenten. Die Unternehmen, die das zuerst verstehen, werden die Frage nicht in zehn Jahren nochmal selbst beantworten müssen.
Drei Quellen zum Vertiefen
- Dragonscale: "What Is Goal-Native AI?" (Feb 24, 2026) — Der Artikel, der Beer in die KI-Governance bringt
- IBM FAST Workshop (AAAI 2026, Jan 27) — Rund 20 Papiere, null Kybernetik
- Espejo & Harnden (1989): The Viable System Model — Für alle, die es von der Quelle wissen wollen
Viable Signals erscheint 2-3 Mal pro Woche. Kuratiert von Norman Hilbert (Supervision Rheinland) mit Unterstützung des Viable System Generator.