·4 min read

Agents > Workflows: Warum die Bitter Lesson auch für AI-Architekturen gilt

Von Airflow zu Agentic AI: Warum deterministische Workflows ein Auslaufmodell sind und was Rich Suttons Bitter Lesson für moderne KI-Architekturen bedeutet.

Die Hassliebe begann mit Airflow

Bevor AI zum Hype-Thema wurde, habe ich im Bereich Big Data und Data Engineering gearbeitet. Meine erste intensive Begegnung mit graph-basierten Workflow-Tools war Apache Airflow – und damit begann eine Hassliebe, die bis heute anhält.

Die Komplexität, die in einer Airflow-Instanz (oder ihrer Google-Cloud-Variante Cloud Composer) in einem deutschen Konzern entstehen kann, übersteigt regelmäßig die konzeptuellen Fähigkeiten der meisten Beteiligten. Das Wissen, wie diese Systeme funktionieren, liegt isoliert bei wenigen Data Engineers. Diese kämpfen sich mühsam durch verschachtelte Logiken, Custom Connectors und historisch gewachsene Abhängigkeiten.

Das Ergebnis ist vorhersehbar: Bottlenecks, Inselwissen, technische Schulden. Wehe, diese Schlüsselpersonen verlassen den Konzern.

Die Relevanz dieser Prozesse ist dabei oft kritisch. Was als Marketing-PoC vor zehn Jahren begann, ist heute der Produktionsprozess für die Aussteuerung von Millionen-Euro-Budgets. Wehe, wenn das System einmal ausfällt.

Die neue Welle – gleiches Muster, neues Versprechen

Moderne Workflow-Tools wie n8n, Make, Zapier oder Power Automate reihen sich in diese Tradition ein. Der Unterschied: Sie kommen mit dem Versprechen, diesmal mithilfe von KI wirklich alles effizienter zu machen.

Aber ändert das etwas am grundlegenden Problem?

Ich glaube nicht. Denn der Ansatz, die Constraints einer Aufgabe deterministisch zu denken und in einen Workflow zu gießen, war von vornherein der falsche.

Der Paradigmenwechsel: Agentic AI

Was wir seit Anfang 2026 sehen, verändert die Spielregeln. Die Fähigkeiten der Foundation Models sind inzwischen so gut, dass sie viele Aufgaben ohne explizite Guidance und Guardrails lösen können. Allen voran im Software Engineering – einem Bereich, der lange als zu komplex für Automatisierung galt.

Agentic AI heißt, sich von der Idee zu lösen, man müsse dem Agenten helfen, sein Ziel zu erreichen. In Wahrheit übersteigen die Fähigkeiten dieser Agenten unsere eigenen oft bei Weitem.

Boris Cherny, Head of Claude Code bei Anthropic, hat es in Lenny Rachitskys Podcast so formuliert:

"The more general model will always outperform the more specific one in the long run."

Die Bitter Lesson

Dieser Satz ist keine neue Erkenntnis. Er ist die Kernaussage von Rich Suttons Essay "The Bitter Lesson" aus dem Jahr 2019 – einer Seite Text, die zu den einflussreichsten Schriften der modernen KI-Forschung gehört.

Suttons These: In 70 Jahren KI-Forschung haben sich immer die Methoden durchgesetzt, die auf Skalierung und Generalität setzen. Nie die, die versuchen, menschliches Wissen explizit einzubauen.

Es war so bei Search. Es war so bei Computer Vision. Und es ist jetzt so bei Agents.

Die "bittere Lektion" ist, dass unsere Intuition uns täuscht. Wir glauben, dass domänenspezifisches Wissen, handkodierte Regeln und sorgfältig designte Pipelines den Unterschied machen. Die Geschichte der KI zeigt das Gegenteil: Brute-Force-Methoden mit genug Compute und Daten gewinnen.

Was gibt es dann noch zu bauen?

Das führt zu einer unbequemen Frage für alle, die gerade AI-Architekturen entwerfen.

Wir investieren viel Zeit in "fancy AI Orchestrators". Komplexe n8n-Workflows mit Dutzenden Knoten. Chains mit fünf aufeinander aufbauenden Schritten. Prompt-Templates mit 2000 Tokens Kontext, die wir upfront reinpumpen.

Folgen wir der Bitter Lesson konsequent, wird das alles wahrscheinlich in Kürze überflüssig. Der bessere Ansatz: Gib dem Modell Tools, definier ein Ziel, und lass es den Weg selbst finden.

Weniger vorkauen, mehr laufen lassen.

Weniger ist mehr. Das Modell holt sich, was es braucht.

Die eigentliche Erkenntnis

Für mich ist das die zentrale Einsicht: Nicht was wir bauen, ist die Frage. Sondern wie wenig wir bauen müssen, damit es funktioniert.

Context Engineering und Tool-Integrationen (etwa via MCP) sind die Kernkonzepte der Stunde. Sie definieren, welche Informationen und Fähigkeiten der Agent abrufen kann. Aber die Orchestrierung, die Abfolge, die Entscheidungslogik – das überlassen wir dem Modell.

Das fühlt sich kontraintuitiv an. Wir sind es gewohnt, Systeme zu designen, Kontrolle auszuüben, Edge Cases abzufangen. Aber die Bitter Lesson lehrt uns: Diese Intuition ist falsch. Scale schlägt Struktur.

Das zu akzeptieren ist unbequem. Aber wer früher akzeptiert, baut bessere Systeme.