Dumm und fleißig

Warum eine 100 Jahre alte Matrix für Ihre KI-Strategie relevant ist

Erschienen: 09.2025 Lesezeit: 6:30 min

Schon mal einer KI eine einfache Frage gestellt und statt einer Antwort legt sie plötzlich los, als müsste sie die Welt retten?

Mir ist das kürzlich mit Cursor AI passiert. Ich wollte nur eine zweite Meinung zu einem Stück Code. Stattdessen fing der Agent an zu programmieren und hatte bereits drei Dateien in die falsche Richtung geändert, bevor ich auf Stopp drücken konnte.

Mein erster Gedanke: Bist du dumm?

Aber dann wurde mir klar: die treffendere Beschreibung war dumm und fleißig.

Und diese Kategorie ist lange bekannt. In Managementkreisen gibt es ein verbreitetes Zitat des Generals Kurt von Hammerstein-Equord.

„Ich unterscheide vier Arten. Es gibt kluge, fleißige, dumme und faule Offiziere. Meist treffen zwei Eigenschaften zusammen. Die einen sind klug und fleißig, die müssen in den Generalstab. Die nächsten sind dumm und faul; sie machen in jeder Armee 90 % aus und sind für Routineaufgaben geeignet. Wer klug ist und gleichzeitig faul, qualifiziert sich für die höchsten Führungsaufgaben, denn er bringt die geistige Klarheit und die Nervenstärke für schwere Entscheidungen mit. Hüten muss man sich vor dem, der gleichzeitig dumm und fleißig ist; dem darf man keine Verantwortung übertragen, denn er wird immer nur Unheil anrichten.“

Meist wird diese kleine Matrix als humorvolle Anekdote aus dem Management erzählt, als eine Möglichkeit für Führungskräfte, über ihren eigenen Stil nachzudenken.

Heute jedoch kann sie einem anderen Zweck dienen: Sie kann uns dabei helfen, strategischer über künstliche Intelligenz nachzudenken.

Die „Dummheit“ der KI

Dummheit ist hier nicht als Beleidigung gemeint, sondern im Sinne Kants, der Dummheit als einen Mangel an Urteilskraft beschreibt. Somit als Unfähigkeit, Wissen sinnvoll anzuwenden.

Große Sprachmodelle sind statistische Maschinen ohne echten Kontext. Sie erzeugen Wörter auf Grundlage von Wahrscheinlichkeitsverteilungen, nicht auf Grundlage von Verständnis. Schon wenige Token genügen, um ganze Handlungsketten auszulösen, doch Zweifel existiert in solchen Systemen nicht. Was wie Intelligenz erscheint, ist in Wirklichkeit unermüdliche Berechnung – ausgeführt ohne Bewusstsein und ohne Zögern. Das kann beeindruckend wirken, doch es als Intelligenz zu bezeichnen, verleiht den Modellen einen Nimbus, den sie nicht verdienen.

Und weil sie statistischen Abkürzungen folgen, wählen sie meist den Weg des geringsten Widerstands. Wenn in den Trainingsdaten Workarounds überwiegen, werden genau diese reproduziert. Strukturelle Ursachen bleiben unangetastet.

Das steht in starkem Gegensatz zu der Art und Weise, wie sich die meisten Unternehmen selbst beschreiben. Mit hochmotivierten Mitarbeitenden und bahnbrechenden Ideen. Beide Eigenschaften gelten als Zeichen von Kreativität und Innovation. In der Natur der KI existieren solche Qualitäten jedoch nicht. Sie hat keine Motivation. Sie erzeugt nichts Originelles. Sie führt Muster mit unermüdlicher Energie aus. Sie ist eine Maschine. Es ist ihr egal.

Das Gegenteil von klug und faul

Der Versuch, diese Dummheit zu überwinden, bringt uns dem idealen Quadranten von klug und faul nicht näher. Er führt uns in die entgegengesetzte Richtung. Jede Erweiterung eines Prompts verstärkt die Scheuklappen des Modells. Jede Iteration stößt auf bestehende Muster in den Trainingsdaten und verstärkt diese. Um den Mangel an Kontext auszugleichen, sind mehr Rechenleistung, mehr Daten und mehr Energie nötig. Das Ergebnis ist keine Eleganz, sondern massiver Aufwand. Statt mit weniger mehr zu erreichen, erreichen wir mit mehr weniger – oder im besten Fall dasselbe.

Angesichts der Tatsache, dass KI-Unternehmen von enormen Kapitalströmen getragen werden, birgt dieses Problem erhebliche Risiken. Die Kosten sind nicht nur heute hoch, sondern auch strukturell unvorhersehbar. Jede neue Modellgeneration erfordert mehr Hardware, mehr Energie und mehr Kühlleistung. Statt sich einer Effizienzgrenze anzunähern, steigt die Kostenkurve weiter an. Ein Ende dieser Richtung ist bisher nicht absehbar.

Das ist kein hypothetisches Szenario, sondern der strukturelle Entwicklungspfad heutiger großer Sprachmodelle. Sie verbessern sich ausschließlich durch statistisches Skalieren: mehr Daten, mehr Parameter, mehr Rechenleistung. Das Ergebnis ist eine Technologie, die umso teurer wird, je mehr man sie nutzt.

Versuche, dieses Problem zu beheben - sei es durch effizientere Architekturen, Retrieval-Augmented Generation oder hybride symbolische Ansätze - bleiben an dasselbe statistische Paradigma gebunden. Sie können die Spirale verlangsamen, ändern aber nicht ihren Verlauf. Die Modelle bleiben fleißig, ohne wirklich klug zu sein. In Hammersteins Worten: Sie verharren im gefährlichsten Quadranten - dumm und fleißig.

Für einzelne Unternehmen entsteht daraus eine strategische Falle. Das Versprechen kurzfristiger Einsparungen kann sich zu einer tiefen Abhängigkeit entwickeln. Sobald Prozesse, Werkzeuge und Fähigkeiten auf KI ausgerichtet sind, können steigende Kosten oder veränderte Rahmenbedingungen diese Abhängigkeit in eine Sackgasse führen. Was heute wie Fortschritt aussieht, kann sich morgen als strategische Belastung erweisen.

Kontrolle rund um die Uhr

Stellen Sie sich vor, Sie hätten eine solche Mitarbeiterin oder einen solchen Mitarbeiter im Team: dumm und fleißig. Sie würden dieser Person niemals die Verantwortung für kritische Projekte überlassen, ohne Kontrolle. Dasselbe gilt für KI. Der Unterschied besteht darin, dass eine KI eventuell weniger Fehler pro Arbeitseinheit macht, aber in einem so großen Umfang produziert, dass die Kontrolle selbst zur Überforderung wird.

Ganz gleich, in welchem Bereich, die Überwachung der Ergebnisse füllt ganze Arbeitstage. Entwicklerinnen bereinigen Code, Journalisten prüfen maschinell erzeugte Fakten. Das erinnert stark an das, was David Graeber in seinem Buch Bullshit Jobs als „Duct-Tapers“ bezeichnet hat – Flickschuster, die an Symptomen statt an Ursachen arbeiten. Für Graeber ist der Begriff Bullshit Job nicht abwertend. Er sorgte sich vielmehr um die Menschen, die in solche Rollen gedrängt werden. Diese Arbeit vergeudet nicht nur vorhandenes Talent, sondern schreckt auch zukünftige Mitarbeitende ab. Wer würde jahrelang studieren, nur um die Arbeit einer Maschine zu korrigieren?

Und dann stellen Sie sich ein Unternehmen vor, dessen verbleibende Belegschaft nur noch weiß, dass etwas funktionieren sollte, aber nicht mehr, wie. Fähigkeiten erodieren, wenn menschliche Arbeit darauf reduziert wird, maschinelle Ergebnisse zu korrigieren oder zu überwachen. Wissen, das einst im Unternehmen fest verankert war, der Ursprung seines Erfolgs, wird schrittweise ausgelagert. Zurück bleibt ein Team, das zwar Knöpfe drücken kann, aber die Grundlagen seiner eigenen Produkte und Dienstleistungen nicht mehr versteht. Was in Schlagzeilen oder sozialen Medien wie Fortschritt wirkt, verdeckt in Wahrheit eine gefährliche Erosion realer Fachkompetenz. Wie sollte sich ein solches Unternehmen weiterentwickeln? Wie könnte es seine Wettbewerber übertreffen, die mit denselben Problemen kämpfen?

Was tun – und was nicht

Was sollten Führungskräfte also konkret tun? Die Antwort lautet nicht, KI zu verbieten, sondern sie klug zu nutzen. Effizienz entsteht, wenn Technologie Menschen unterstützt. Das bedeutet, die eigene Belegschaft mit ihrer Expertise in jede Einführungsentscheidung einzubeziehen, statt Anbietern blind zu vertrauen. Ehrliche Einschätzungen entstehen nur, wenn der Fortschritt als gemeinsames Ziel verstanden wird. Angst vor Stellenabbau hingegen kann diese Offenheit verzerren.

Dabei helfen einige einfache Grundsätze:

  • Steigern Sie Effizienz, indem Sie Menschen unterstützen statt sie zu verdrängen.

  • Ziehen Sie klare Grenzen: Entwürfe, Prototypen oder Routinetätigkeiten können Aufgaben für KI sein, zentrale Entscheidungen, Compliance oder geistiges Eigentum gehören nicht in Maschinenhand.

  • Bewerten Sie Kosten und Risiken fortlaufend. Nicht nur in Bezug auf ROI, sondern auch auf Energieverbrauch, Abhängigkeiten und rechtliche Unsicherheiten.

  • Bewahren und pflegen Sie Wissen im Unternehmen, statt es in eine Blackbox auszulagern. Technische Leitplanken können Risiken mindern, ändern aber nicht die grundlegende Abhängigkeit von statistischer Vorhersage.

  • Experimentieren Sie im Kleinen und skalieren Sie nur mit Vorsicht.

Und ebenso gilt:

  • Verfolgen Sie keine kurzfristigen Einsparungen auf Kosten langfristiger Stabilität.

  • Lassen Sie nicht zu, dass Verkaufsversprechen die Expertise der eigenen Leute übertönen.

  • Lagern Sie Ihr Kernwissen nicht an eine statistische Maschine aus. Auch nicht, wenn sie mit Sicherheitsmechanismen versehen oder als „enterprise-ready“ vermarktet ist.

  • Unterschätzen Sie nicht die versteckten Kosten von Kontrolle, Abhängigkeit und Talentverlust.

  • Beachten Sie, dass Trainingsdaten manipuliert werden können, wodurch verborgene Schwachstellen im Betrieb entstehen.

Das sind keine radikalen Forderungen, sondern Leitplanken, die Unternehmen davor bewahren, massive Rechenleistung mit Intelligenz zu verwechseln.

Zurück zu Hammerstein-Equord

Als letzte Empfehlung möchte ich Sie noch einmal an die fast hundert Jahre alte Matrix von Hammerstein erinnern. Wenn sie Ihnen bisher geschmeichelt hat, lassen Sie sich nun auch von ihr leiten, wenn sie Ihnen den scheinbar einfacheren Weg versperrt. Was einst wie eine amüsante Management-Anekdote klang, kann heute als Kompass für strategische Entscheidungen dienen.

Der Quadrant von dumm und fleißig wird nicht weniger gefährlich, nur weil die Energie aus Prozessoren statt aus menschlicher Anstrengung stammt. Diese Einsicht bedeutet nicht, KI abzulehnen, sondern sich der Illusion zu widersetzen, dass unermüdlicher Output mit Intelligenz gleichzusetzen sei.

Hammersteins Gedanke hat überdauert, weil er außerhalb gewohnter Denkmuster lag.
Wenn ein preußischer General die Faulheit loben konnte, sollten es Ihnen leicht fallen, sich nicht von maschineller Betriebsamkeit täuschen zu lassen.