Was passiert, wenn wir unser Denken komplett auslagern? Wenn wir nur einfacher schneller werden, aber unser Domänenwissen nach bis nach verlieren? Eine kleine Ode an Langsamkeit und Selbermachen.

Vor ein paar Wochen habe ich eine Analyse erstellt. Markteinschätzung für einen Kunden, kein Mammutprojekt. Ich hab Claude geöffnet, den Kontext reingeladen, die Struktur vorgegeben und 20 Minuten später lag etwas vor mir, das gut war. Wirklich gut. Ich hab es geprüft, ein paar Punkte angepasst, dem Kunden geschickt.
Dann hab ich mich gefragt: Hätte ich das auch alleine hingekriegt? Die ehrliche Antwort: Ich weiss es nicht mehr genau.
Das ist nicht das Gespräch das die meisten führen. Der Diskurs dreht sich um Jobs. Wie viele verschwinden. In welchem Tempo. In welchen Branchen. Das sind legitime Fragen aber sie sind auch bequeme Fragen, weil sie die Verantwortung irgendwo draussen verorten. Bei Systemen, Unternehmen, dem Fortschritt.
Meine Frage ist unbequemer und persönlicher: Was passiert mit dem, was zwischen meinen Ohren ist, wenn ich einen wachsenden Teil davon auslagere?
Die Kognitionswissenschaft hat dafür eine ziemlich klare Antwort. Robert Bjork nennt es «desirable difficulties», erwünschte Widerstände. Das Ringen mit einem Problem, das Scheitern am ersten Entwurf, die frustrierende Stunde mit einer leeren Seite: Das ist nicht Zeitverschwendung. Das ist der Ort, wo Denken Form annimmt. Wo man versteht, nicht nur weiss. Wer diesen Schritt systematisch überspringt, holt den Output schneller und verliert dabei etwas, das im Output nicht sichtbar ist.
Das klingt theoretisch. Es ist es nicht.
Clark und Chalmers haben 1998 die Extended-Mind-These formuliert: Kognition endet nicht am Schädelknochen. Ein Notizbuch, ein Taschenrechner, ein Stadtplan, das alles kann Teil des kognitiven Systems sein. Wir denken mit und durch externe Objekte.
KI ist das bisher mächtigste externe kognitive Werkzeug. Stimmt also, mit einem Vorbehalt, den Clark und Chalmers noch nicht im Blick hatten: Ein Notizbuch lügt nicht. Eine KI produziert überzeugend klingende Fehler. Die Prothese funktioniert nur, wenn der Träger gut genug ist, die Outputs zu beurteilen. Wer das nicht kann, hat keine Prothese. Er hat eine Abhängigkeit.
Das ist der Massstab, den ich inzwischen für mich verwende. Nicht: Nutze ich KI? Sondern: Könnte ich es noch ohne? Und weiss ich, wann das nötig wäre?
Jede grössere Technologietransformation hat ein erkennbares Muster hinterlassen. Gutenbergs Druckerpresse veränderte nicht einfach die Buchproduktion, sie veränderte, wer legitimerweise Wissen besitzen durfte. Taylors Scientific Management erhöhte nicht einfach die Produktivität: Er zerteilte Arbeit in Einzelschritte und trennte das Denken von der Ausführung. Der PC dezentralisierte Wissen und verschob Machtstrukturen in Unternehmen, die sich das nicht gewünscht hatten.
Was dabei falsch eingeschätzt wurde, fällt fast immer gleich aus: Überschätzt: die Geschwindigkeit der vollständigen Disruption. Unterschätzt: wie tief die kulturellen und strukturellen Verschiebungen gehen. Und konstant falsch: die Annahme, dass das Wissen das man hat, einen schützt. In jeder Transformation wurde genau das entwertet, was die bisherige Elite auszeichnete.
Robert Solow sagte 1987: «You can see the computer age everywhere except in the productivity statistics.» Die Produktivitätsgewinne durch den PC kamen zwischen 1995 und 2005, nicht als die Maschinen eingeführt wurden, sondern als Prozesse und Strukturen wirklich neu gedacht wurden. Das Werkzeug war zehn Jahre früher da. Das Denken kam nach.
Ich gehe davon aus, dass es diesmal gleich läuft. Die meisten Unternehmen setzen KI heute auf alte Prozesse auf. Die eigentlichen Gewinne kommen, wenn das kippt. Das dauert.
Das Kasparov-Experiment interessiert mich mehr.
2005 gab es ein Freestyle-Schachturnier, bei dem Amateurspieler mit KI-Unterstützung gegen Grossmeister ohne KI gewannen. Mensch plus Maschine schlug die Maschine allein. Kasparov hat das Ergebnis 2010 analysiert und dem Konzept einen Namen gegeben: «Centaur», ein Begriff für das Hybrid aus menschlichem Urteil und maschineller Rechenleistung.
Was dabei gerne weggelassen wird: Der Centaur funktioniert nur, wenn der menschliche Teil gut genug ist, die KI-Züge zu beurteilen. Ein Amateur ohne Schachverständnis mit dem besten Engine wird besser spielen als ohne aber er wird den Grossmeister mit mittelmässigem Engine nicht schlagen. Der Mensch muss das Spiel verstehen.
Eine BCG-Studie aus 2023 hat genau das gezeigt, auf professionelle Wissensarbeit übertragen. KI-unterstützte Berater schnitten bei klar umrissenen, strukturierten Aufgaben besser ab. Bei komplexen, unstrukturierten Problemen: schlechter. Weil sie dem Output zu sehr vertraut haben. Das steht selten in den Zusammenfassungen der Studie.
Die Art wie wir «KI-Kompetenz» messen, misst das Falsche.
Der Diskurs hat sich auf Adoption fokussiert: wie viele nutzen es, wie oft, wie intensiv. Ein Berater, der KI täglich nutzt aber die Outputs nicht beurteilen kann, ist nicht KI-kompetent. Er ist KI-abhängig. Ein Berater, der KI selten nutzt aber weiss was die Grenzen sind und wann er sie braucht, der ist in einer stärkeren Position.
Das Wort dafür ist Urteilsautonomie. Und es ist genau die Kompetenz, die durch unreflektierten KI-Einsatz am meisten erodiert und am wenigsten gefördert wird.
Urteilsvermögen entsteht durch Erfahrung mit schwierigen Problemen, durch das Durchdenken von Fragen ohne vorschnelle Antwort, durch das Scheitern an eigenen Einschätzungen. Genau die Tätigkeiten, die das aufbauen, werden jetzt als erste durch KI übernommen, vor allem für Berufseinsteiger. Die Lernpfade fallen weg, bevor man weiss dass man sie gebraucht hätte.
Ich nutze KI täglich. Ich werde das nicht ändern.
Aber ich will nach einer Regel in der Zukunft arbeiten: Für alles was mein Kernurteil betrifft: Diagnosen, Einschätzungen, das was ich dem Kunden sage wenn er fragt «was denkst du?», schreibe ich zuerst selbst. Oft ist es schlechter als der KI-Entwurf. Das ist in Ordnung. Es ist der Beweis, dass ich noch weiss wie das geht.
Das klingt fast rührend altmodisch. Aber ich kenne genug Leute, die GPS nutzen seit zehn Jahren und heute in einer fremden Stadt hilflos sind wenn das Signal weg ist. Orientierungssinn verlernt man still.
Urteilsvermögen auch.
Ob du KI nutzt, ist nicht die Frage. Weisst du noch wann du ohne musst und kannst du das dann noch?
*Belege für die zitierten Konzepte und Studien. Wo kein Direktlink existiert, Primärquelle mit Fundstelle.*
Bjork, Robert A. — Desirable Difficulties, Bjork Lab, UCLA — Forschungsübersicht zu «desirable difficulties» und Gedächtnisbildung.
https://bjorklab.psych.ucla.edu/research/
Clark, Andy & Chalmers, David J. (1998) — The Extended Mind, *Analysis*, 58(1), 7–19. Verfügbar auf Chalmers' eigener Seite.
https://consc.net/papers/extended.html
Newport, Cal — Deep Work (2016), Grand Central Publishing. Konzept der Pseudo-Produktivität und kognitiver Tiefe.
https://www.calnewport.com/books/deep-work/
Dell'Acqua, Fabrizio et al. (2023) — Navigating the Jagged Technological Frontier, Harvard Business School Working Paper. Die BCG-Studie zu KI-Unterstützung bei strukturierten vs. unstrukturierten Aufgaben.
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4573321
Peng, Sida et al. (2023) — The Impact of AI on Developer Productivity: Evidence from GitHub Copilot, Microsoft Research / arXiv. Die +55%-Studie zu Entwicklerproduktivität.
https://arxiv.org/abs/2302.06590
Kasparov, Garry (2010) — The Chess Master and the Computer, *New York Review of Books.* Kasparovs eigene Analyse des «Centaur»-Experiments und der Grenzen von Mensch-Maschine-Kollaboration.
https://www.nybooks.com/articles/2010/02/11/the-chess-master-and-the-computer/
Solow, Robert M. (1987) — «We'd Better Watch Out», *New York Times Book Review*, 12. Juli 1987, S. 36. Quelle des Zitats zum Solow-Paradox.
Kein Direktlink verfügbar — digitalisiert zitiert in zahlreichen akademischen Papieren unter «Solow productivity paradox».
Taylor, Frederick Winslow (1911) — The Principles of Scientific Management, Harper & Brothers. Digitalisiert und frei zugänglich.
https://archive.org/details/principlesofscie00tayl

Luca Conconi ist Co-Inhaber von BEYONDER und berät Schweizer KMUs beim strategischen Einsatz von künstlicher Intelligenz. Seine Basis: zehn Jahre Transformationsprojekte in der Druckindustrie. Vom ERP-Rollout bis zur durchautomatisierten Produktionskette. Als Projektleiter, der den Überblick behält, Veränderungen steuert und dafür sorgt, dass Systeme im Alltag funktionieren. Heute bringt er dieses Prozessdenken in die KI-Beratung: Strategie, Datenhygiene und Automation, immer mit dem Menschen im Zentrum. Er schreibt über die Schnittstelle von Technologie und Unternehmensrealität, lieber unbequem als gefällig. Wer Veränderung will und Experimente wagt, ist bei ihm richtig.