0 | Einleitung: Die Erosion der Erfahrung und der selbstverstärkende Substitutionseffekt
0.1 Das Narrativ der Substitution und die Verschiebung der Fragestellung
Die öffentliche Debatte über Künstliche Intelligenz (KI) im Arbeitsmarkt wird von der Substitutionsquote dominiert: der von Unternehmen wie Klarna oder IBM kommunizierten Zahl ersetzter Vollzeitstellen (FTE). Dieses Narrativ, das sich in der Ankündigungsökonomie widerspiegelt, suggeriert eine klare ökonomische Logik: KI übernimmt Routinen, senkt Kosten.
Dieser Essay wird sich nicht primär der Frage widmen, ob diese Zahlen empirisch stimmen. Stattdessen richten wir den Blick auf einen strukturell weitreichenderen Wandel: die Erosion der Erfahrungswelt. Das eigentliche Problem liegt nicht im Wegfall fertiger Jobs, sondern im Wegfall der Einstiegsaufgaben – jener einfachen, regelgebundenen, oft monotonen Routinetätigkeiten, die traditionell als Übungsfeld für Anfänger:innen dienten.
0.2 Das KI-Paradoxon der Expertise
Berufliche Expertise entsteht durch Reibung an der Realität und das Ansammeln von implizitem Wissen (tacit knowledge). Sie speist sich aus den tausend Wiederholungen, durch die man lernt, Fehler zu antizipieren, Randfälle zu erkennen und Systemgrenzen intuitiv zu durchschauen. Die Qualifizierung basiert damit auf einer institutionalisierten Ineffizienz: Die Junior-Rolle ist eine geschützte Lernposition, in der man Zeit zum Üben und Scheitern hat – eine Ineffizienz, die historisch häufig unter dem Deckmantel vermeintlich vollwertiger Produktivarbeit kaschiert wurde, indem Betriebe so taten, als seien Juniors bereits „richtige“ Leistungsträger, während sie de facto noch lange übten.
Hier liegt das KI-Paradoxon der Expertise:
- KI optimiert: Sie automatisiert effizient genau diese standardisierten Routinen.
- Expertise braucht Ineffizienz: Wenn diese Lernfelder verschwinden, fehlt die notwendige Erfahrungsdichte zur Kalibrierung des Urteilsvermögens.
0.3 Die selbstverstärkende Vulnerabilität
Die Erosion der Lernkette führt nicht nur zu einem Mangel an systemischem Bauchgefühl. Sie schafft eine strukturelle Vulnerabilität der nächsten Fachkräftegeneration. Wer in dieser neuen Arbeitswelt nur noch die KI bedient – also die Rolle der „UI des KI-Systems“ übernimmt und Prompts formuliert –, erwirbt lediglich eine beschränkte, oberflächliche Kompetenz.
Dies macht die Fachkraft von morgen zur leichtesten Beute für die übernächste KI-Generation.
Die Aufgabe, einen präzisen Prompt zu formulieren oder die Ausgabe der KI zu glätten, ist selbst höchst standardisierbar. Wenn die einzige erworbene Qualifikation die Interaktion mit der aktuellen KI ist, wird diese Interaktion zur logischsten und leichtesten nächsten Stufe der Automatisierung. Die unterbrochene Lernkette fungiert so als Katalysator der Substitution: Sie bildet genau jene Arbeitskräfte aus, die von intelligenten Systemen am einfachsten ersetzt werden können.
0.4 Aufbau des Essays
Zur Untermauerung dieser These wird zunächst (Kapitel 1) die Rhetorik der Substitution anhand konkreter Unternehmensfälle kritisch beleuchtet. Daraufhin wird die Forschungsfrage formuliert (Kapitel 2) und die unterbrochene Lernkette in der Softwareentwicklung als Paradigma diskutiert (Kapitel 3 bis 6). Schließlich wird die Analyse auf andere Berufsfelder übertragen (Kapitel 7), um die allgemeinen Muster der Erosion und Refiguration zu identifizieren und politische und didaktische Konsequenzen aufzuzeigen.
1. News der Vergangenheit: Drei KI-Substitutionsfälle – und was sie tatsächlich zeigen
Bevor die Frage nach der Zukunft beruflicher Expertise gestellt werden kann, lohnt der Blick auf konkrete Fälle, in denen Unternehmen öffentlich behaupten, menschliche Arbeit durch KI zu substituieren. Diese Fälle sind nicht nur empirische Ereignisse, sondern auch Diskursakte: Sie inszenieren ein bestimmtes Verhältnis von Technologie, Effizienz und Arbeit – und sind gerade deshalb ambivalent.
1.1 Klarna: KI-Triumph und nachträgliche Korrekturen
Ende Februar 2024 meldete Klarna, der hauseigene KI-Assistent im Kundensupport erledige inzwischen das Äquivalent von 700 Vollzeitstellen, bearbeite zwei Drittel aller Kundenanfragen und liege bei der Kundenzufriedenheit „auf dem Niveau“ menschlicher Agents.Klarna+2OpenAI+2
Diese Erzählung wurde von Medien bereitwillig aufgegriffen und in die Formel „KI erledigt die Arbeit von 700 Menschen“ kondensiert.ITSG Global+1
Seit 2025 zeigt sich jedoch eine zweite Bewegung: Tech- und Wirtschaftsportale berichten, Klarna korrigiere den Automatisierungskurs teilweise, reassigne Mitarbeitende aus Marketing und Engineering in den Kundensupport und reagiere damit auf Qualitätsprobleme und Überdehnungen der ursprünglichen KI-Strategie.Tech.co+2Business Insider+2
Wichtig ist die Ambivalenz:
- Klarna hält kommunikativ am Narrativ des KI-Erfolgs fest (700 FTE-Äquivalente, 24/7-Support, Multi-Language).
- Gleichzeitig werden intern Menschen zurück in den Support verlagert, weil die rein KI-basierte Lösung offenbar nicht alle Qualitätsanforderungen erfüllt.
Der Fall beweist also nicht, dass „KI gescheitert“ wäre, sondern zeigt: Hinter der scheinbar klaren Zahl „700 ersetzte FTE“ verbirgt sich ein Pendeln zwischen Kostendruck, Qualitätsanspruch und Reputationsrisiko.
1.2 IBM: AI als Label einer Einstellungsbremse
IBM kündigte im Frühjahr 2023 an, die Neueinstellung in bestimmten Backoffice-Bereichen – insbesondere HR und andere nicht kundenorientierte Rollen – zu pausieren, da rund 30 % dieser Tätigkeiten (etwa 7.800 Stellen) in den nächsten fünf Jahren „durch AI und Automatisierung“ ersetzt werden könnten.Tech Monitor+3Bloomberg+3Reuters+3
Hier ist entscheidend:
- Es handelt sich primär um ein Einstellungs-Moratorium, nicht um einen abrupten Massenabbau: Die Arbeitsmarktwirkung entsteht durch Nicht-Ersatz freiwerdender Stellen.
- Der Sammelbegriff „AI and automation“ bündelt klassische Rationalisierungsinstrumente (Standardsoftware, Prozessoptimierung, Offshoring) und KI im engeren Sinn unter einem einzigen, medial attraktiven Label.
IBM ist damit weniger ein Beweisfall „präziser KI-Substitution“, sondern ein Beispiel für Ankündigungsökonomie: KI fungiert als Signatur moderner Effizienzpolitik.
1.3 BT: „55.000 Stellen weniger“ – und 10.000 „durch KI“
BT Group kündigte 2023 an, die Belegschaft bis 2030 von etwa 130.000 auf 75.000–90.000 Beschäftigte zu reduzieren, also bis zu 55.000 Stellen abzubauen. Ein Teil davon – in der Größenordnung von 10.000 Rollen – soll explizit durch KI ersetzt werden, vor allem in Kundenservice und Netzwerkdiagnostik.Business Insider+3The Guardian+3Reuters+3
Unter der Oberfläche zeigt sich:
- Ein Großteil der Reduktion ist auch Folge technologischer Zyklen (Fertigstellung des Glasfaserausbaus, Abschaltung alter Mobilfunkstandards) und allgemeiner Kostenziele.Reuters+1
- Die aktuelle CEO Allison Kirkby deutet an, dass der KI-Effekt sogar größer ausfallen könnte als ursprünglich prognostiziert.Reuters+1
Auch hier verschwimmen Ursachen: AI ist Teil des Rationalisierungsbündels, zugleich aber semantischer Fokuspunkt, unter dem sehr heterogene Kostensenkungsmaßnahmen subsumiert werden.
1.4 Zwischenfazit
Diese Fälle zeigen:
- KI-gestützte Systeme greifen bevorzugt dort ein, wo standardisierte, regelgebundene Tätigkeiten dominieren – häufig genau in den Zonen, in denen früher Berufseinsteiger:innen erste Berufserfahrungen sammelten.
- Diese Fälle zeigen, dass die KI-Substitution eine doppelte Natur besitzt: Einerseits liefert die Technologie reale Produktivitätsgewinne und trägt faktisch zum Stellenabbau bei, indem sie standardisierte Prozesse effizienter gestaltet. Andererseits fungiert das Label „KI“ als diskursive Ressource (Ankündigungsökonomie), mit der Stellenabbau modernisiert und gegenüber Investoren legitimiert wird. Die tatsächliche Zahl der durch reine generative KI ersetzten Stellen ist dabei oft empirisch schwer von klassischen Rationalisierungsmaßnahmen (Offshoring, Prozessoptimierung) zu trennen, wird aber unter dem medial attraktiven KI-Label gebündelt. Beides – reale Effekte und diskursive Überhöhung – prägt das Verhältnis von KI und Arbeit.
Vor diesem Hintergrund stellt sich die Frage nach der Reproduktion beruflicher Expertise umso zugespitzter.
2. Forschungsfrage: Wie werden Expert:innen noch hervorgebracht? – am Beispiel der Softwareentwicklung
Die leitende Frage dieses Essays lautet:
Wie werden berufliche Expert:innen überhaupt noch hervorgebracht, wenn jene einfachen, repetitiven Aufgaben, die traditionell als Übungsfeld für Anfänger dienten, zunehmend an Maschinen delegiert werden – konkret im Feld der Softwareentwicklung?
Zwei Begriffsklärungen sind zentral:
- Berufliche Expertise meint mehr als korrektes Regelbefolgen. Sie bezeichnet die über viele Situationen hinweg ausgebildete Fähigkeit, unter Zeitdruck, Unsicherheit und Widersprüchen tragfähige Entscheidungen zu treffen – also ein Bündel aus Erfahrungswissen, Intuition und reflektierter Theorieanwendung.
- Übungsfeld bezeichnet eine Zone mittlerer Komplexität, in der Lernende an realen, aber noch relativ risikoarmen Aufgaben operieren: Bugfixes, kleinere Features, Refactorings, Tests, Dokumentation; typische Domäne von Junior-Entwickler:innen.
Historisch waren diese Übungsfelder eng mit „einfachen“ Programmieraufgaben verschränkt. Das ist kein Naturgesetz, sondern eine kontingente institutionelle Lösung. Gerade deshalb ist die Frage offen:
- Was geschieht, wenn generative KI diese Aufgaben teilweise übernimmt?
- Entsteht dann eine Lernlücke, in der die mittlere Stufe zwischen Theorie und komplexer Berufspraxis ausfranst?
- Oder gelingt ein Leapfrogging, bei dem Einsteiger:innen dank KI schneller auf ein höheres Abstraktionsniveau gehoben werden, ohne wichtige Erfahrungsqualitäten zu verlieren?
Die Softwareentwicklung ist dafür paradigmatisch, weil sie zugleich Objekt der Automatisierung (KI schreibt Code) und Infrastruktur für die Automatisierung anderer Branchen ist.
3. Unterbrochene Lernkette – Refiguration der Junior-Rolle
Unter Lernkette sei die institutionalisierte Sequenz von Lernstationen verstanden: Studium oder Autodidaktentum → Juniorrolle → Mid-Level → Senior/Architektur. Jede dieser Stufen soll idealerweise gleichzeitig zur Wertschöpfung beitragen und Lernprozesse ermöglichen.
3.1 Juniorrolle als ambivalente Lernposition
Im idealtypischen Bild ist die Juniorrolle eine institutionalisierte Lernposition:
- Reale Verantwortung,
- aber begrenzte Reichweite: klar umrissene Tickets, starke Code-Reviews, überschaubare Module.
In dieser Zone entsteht das, was man mit Polanyi als tacit knowledge bezeichnen könnte: verkörpertes, schwer explizierbares Erfahrungswissen. Es speist sich aus hunderten, tausenden Mikroentscheidungen, Fehleinschätzungen und Korrekturen:
- Wie liest man fremden, historisch gewachsenen Code?
- Welche Code-Struktur „riecht“ nach späteren Performanceproblemen?
- Wo verläuft die Grenze zwischen pragmatischem Hack und langfristig toxischer technischen Schuld?
Gleichzeitig hat diese Zone eine Schattenseite: In der Praxis ist sie oft von schlecht strukturierter Arbeit, knappen Deadlines und mangelndem Mentoring geprägt – kurz: von der altbekannten Logik „Lehrjahre sind keine Herrenjahre“. Ein Teil der „stupiden“ Wiederholung ist didaktisch wertvoll, ein anderer Teil schlicht ausbeuterisch.
3.2 Wie KI diese Zone angreift
Generative KI dringt genau in jene Aufgabenbereiche vor, die traditionell Juniors zugewiesen waren:
- Routinecode (CRUD, Standardzugriffe, einfache Integrationen),
- einfache Tests und Boilerplate,
- mechanische Refactorings und Hilfsdokumentation.
Damit verschiebt sich das Kalkül in den Unternehmen:
- Ein Senior mit KI-Assistenz kann viele dieser Tätigkeiten schneller und zuverlässiger erledigen als eine Gruppe von Einsteigern.
- Juniorstellen erscheinen – zumindest kurzsichtig – als Kostentreiber ohne unmittelbar klaren „Return“.
Die Folge ist eine Kompression der Lernkette:
- Einstiegspositionen werden seltener oder stärker verdichtet (hohe Erwartung an sofortige Produktivität).
- Die Phase, in der man relativ risikolos an mittlerer Komplexität scheitern und lernen kann, schrumpft oder verschiebt sich in unbezahlte Räume (Open Source, private Projekte).
3.3 Gegenposition: Leapfrogging statt Pflicht zur „Schinderei“
Das stärkste Gegenargument lautet: Vielleicht ist es didaktisch sogar produktiv, wenn KI die stumpfen Routinen abräumt. Historisch mussten Entwickler:innen Assembler oder manuelle Speicherverwaltung beherrschen; heute arbeiten viele erfolgreich auf höheren Abstraktionsebenen ohne diese Tiefenschichten – und dennoch mit solidem Systemverständnis.
Übertragen:
- Vielleicht ist das manuelle Programmieren immer neuer CRUD-Formulare tatsächlich eine historische Altlast.
- Vielleicht kann KI Juniors schneller an Architekturfragen, Datenmodellierung und Domänenlogik heranführen.
Diese Leapfrogging-Hypothese verweist auf eine reale Chance: Es wäre ein Missverständnis, Lernintensität mit maximaler Quantität monotoner Tätigkeiten zu verwechseln.
Aber sie wirft eine harte Anschlussfrage auf, die sich exemplarisch an einem konkreten Feld illustrieren lässt: SQL.
3.4 SQL als Beispiel: Warum „stupide“ Wiederholung kognitiv tief ist
Nehmen wir den Fall eines SQL-Entwicklers. Hier ist die Behauptung nicht, dass monotone Schinderei der alleinige Weg zur Expertise sei. Wir behaupten vielmehr, dass die notwendige Erfahrungsdichte – die Konfrontation mit hunderten oder tausenden Variationen eines Problems (z. B. SELECTs, JOINs, Subqueries) – historisch fast immer über Routinearbeit erworben wurde.
Wer nie diese Vielzahl von Fällen selbst durchdacht, geschrieben und optimiert hat, entwickelt selten jene intuitive Blickschärfe, mit der erfahrene Senior:innen auf einen Query schauen und sofort „sehen“, wo es klemmt. Es geht also nicht um die Romantisierung der Monotonie, sondern um die didaktische Notwendigkeit einer hohen Falldichte und der daraus entstehenden perzeptuellen Chunks.
Ein konkretes, praxisnahes Beispiel belegt dies: In manchen SQL-Dialekten ist es ein gravierender Fehler, Stored Procedures mittels verketteter String-Parameter anzusteuern – ein Muster, das direkt zu Sicherheits- und Wartbarkeitsproblemen führt. Erfahrene Entwickler:innen erkennen diesen Fehler auf den ersten Blick als Anti-Pattern; für Juniors sind es oft Stunden des Debuggens und Suchens.
Erfahrung zeigt: Viele generative Modelle reproduzieren genau diesen Fehler mit großer Regelmäßigkeit – gerade weil sie nur Muster imitieren, ohne die zugrundeliegende Dialektlogik und die Sicherheitsimplikationen zu repräsentieren. Sie „wissen“, dass es Parameter gibt, sie „wissen“, dass man Strings verketten kann – aber ihnen fehlt eine robuste, explizite Regelrepräsentation, dass im betreffenden Dialekt genau diese Kombination unzulässig oder gefährlich ist.
Wer nun versucht, mit Hilfe von KI eine systematische Schulung zu einem spezifischen SQL-Dialekt zu erzeugen, trifft schnell an Grenzen: Die KI kann zwar allgemeine Syntax und Standardbeispiele liefern, gerät aber ins Schleudern, wenn es um dialektspezifische Fallstricke und deren systematische didaktische Aufbereitung geht. Das Modell verfügt über viel immanentes Musterwissen, aber nicht über ein konsistentes, explizites Regelsystem.
Genau hier wird deutlich, warum die Konfrontation mit Problemen – etwa beim Schreiben und Optimieren von SQL-Statements – kognitiv tief ist:
- Durch vielfache Wiederholung ähnlicher Probleme bilden sich perzeptuelle Chunks: Muster, die man erkennt, bevor man sie analytisch durchdrungen hat.
- Diese Mustererkennung basiert auf der Durcharbeitung konkreter Fälle – nicht auf abstrakten Belehrungen allein.
Die zentrale Frage lautet daher: Wie kann diese notwendige Erfahrungsdichte durch alternativen Lernformen (Simulationen, strukturierte Projekte, KI-gestützte, variierte Übungen) generiert werden, ohne dass die Lernenden auf die zeitaufwendige, oft unproduktive Schinderei an schlecht strukturierten Aufgaben angewiesen sind?
4. Die „Information Gap“ als Bildungs- und Ungleichheitsregime
Unter Information Gap verstehe ich hier nicht eine bloße Lücke im Zugang zu Daten, sondern eine strukturelle Ungleichheit in der Fähigkeit, Informationen in Qualifikation zu überführen. Es geht um die ungleiche Verteilung von:
- schulischen Angeboten,
- familiären Ressourcen (Zeit, Geld, kulturelles Kapital),
- und symbolischer Vertrautheit mit Technik.
4.1 Von der Digital Divide zur Kompetenzkluft
In vielen Ländern ist der klassische „Digital Divide“ – wer Zugang zum Netz hat und wer nicht – weitgehend überbrückt. Die neue Spaltung verläuft entlang anderer Linien:
- Manche Schulen bieten durchgehende Informatik, Projektunterricht, Robotik, Programmier-AGs.
- Andere beschränken „digitale Bildung“ auf Office, Präsentationssoftware und eine diffuse Medienkompetenz.
Ähnliches gilt für den familiären Kontext:
- Ressourcestarke Familien finanzieren Geräte, Kurse, Camps, bauen eine Kultur des Experimentierens auf.
- Andere kämpfen mit knappen Budgets, Mehrfachbelastungen, fehlenden Vorbildern; Technik bleibt dort eher Konsumfläche als Gestaltungsraum.
4.2 Meritokratie-Mythos und selektive Lernökologien
Open Source, Online-Tutorials und „Selbstlernen“ erscheinen oberflächlich als egalitäre Räume: „Jeder kann, wenn er will.“
In der Praxis sind sie sozial hochselektiv:
- Sie setzen Zeit voraus, oft abends oder am Wochenende – ein Luxus, den nicht alle haben.
- Sie verlangen ein Minimum an Vorwissen, Englischkompetenz, technischer Sozialisation.
- Sie erfordern die psychologische Robustheit, sich in öffentlichen, teils harten Feedbackkulturen zu exponieren.
Damit produziert die Information Gap eine Professionalisierungs-Gap:
- Wer früh strukturierte, wiederholte Praxis im Programmieren erwirbt, kann KI später als Verstärker nutzen.
- Wer diesen Zugang nicht hatte, bleibt eher in der Rolle des „Tool-Bedieners“, dem die Kriterien fehlen, KI-Ausgaben kritisch zu beurteilen oder zu verbessern.
- Wer durch Information Gap in der Lernkette bereits früh ausfällt, landet später mit höherer Wahrscheinlichkeit in genau den Rollen, die als erste automatisiert werden.
4.3 Ökonomische Logik der Privatisierung: Wer profitiert, wer zahlt?
Die Erosion institutionalisierter Juniorrollen ist kein Zufall, sondern folgt einer ökonomischen Rationalität der Kostenverlagerung:
Wer profitiert:
- Unternehmen sparen unmittelbar: Keine Ausbildungskosten, keine „unproduktive“ Lernzeit, keine Mentoring-Kapazitäten
- Senior-Entwickler:innen mit KI-Zugang können ihre Produktivität steigern und damit ihre Marktposition festigen
- Bildungsanbieter (kommerzielle Bootcamps, Plattformen) erschließen einen wachsenden Markt verzweifelter Berufseinsteiger:innen
Wer trägt die Kosten:
- Individuen müssen Zeit, Geld und psychische Ressourcen in unbezahlte oder teure Lernphasen investieren
- Besonders betroffen: Menschen aus unteren Einkommensschichten, mit Sorgearbeit, ohne familiäres Sicherheitsnetz
- Langfristig die Gesellschaft: sinkende Kompetenzqualität, verschärfte Ungleichheit, Erosion sozialer Mobilität
Die entstehende Machtasymmetrie:
Die Spaltung verläuft nicht mehr primär zwischen „Tech-Affinen“ und „Tech-Fernen“, sondern zwischen:
- Denen, die KI-Kompetenz plus Domänenexpertise besitzen (können KI kritisch einsetzen, Fehler erkennen, bleiben schwer ersetzbar)
- Denen, die nur KI bedienen (haben „Kompetenzillusion“, werden selbst zur nächsten Automatisierungsstufe)
Diese zweite Gruppe entsteht gerade dort, wo die Lernkette bereits unterbrochen ist: Wer mangels Übungsfeld nur lernt, Prompts zu schreiben, erwirbt genau jene Qualifikation, die am leichtesten zu automatisieren ist.
Das Ergebnis ist ein selbstverstärkender Mechanismus:
- Unternehmen automatisieren Einstiegsaufgaben → sparen Kosten
- Lernende müssen selbst für Qualifikation sorgen → sozial selektiv
- Wer sich nicht leisten kann, gut zu lernen → bleibt in Prompt-Bediener-Rolle
- Diese Rolle wird als nächste automatisiert → Zyklus beginnt von vorn
Die Privatisierung der Lernarbeit ist damit nicht nur ungerecht, sondern systemisch ineffizient: Sie produziert eine Generation von Fachkräften, die für den nächsten Automatisierungsschub besonders vulnerabel sind.
5. KI-unterstütztes Lernen: Potenzial, aber keine Abkürzung
Populär ist die didaktische Vision: „Lernende formulieren Pseudocode, die KI erledigt die Implementierung.“ Diese Idee verführt durch Effizienz, ist aber kognitiv riskant.
5.1 Warum „Pseudocode + KI“ nicht reicht: Die Kompetenzillusion
Die didaktische Vision, Lernende könnten „Pseudocode formulieren, den Rest erledigt die KI“, verfängt durch Effizienz, ist aber kognitiv riskant, da sie zur Kompetenzillusion führt.
Programmierenlernen bedeutet mehr, als nur funktionierende Lösungen zu produzieren. Es geht darum:
- Kontroll- und Datenflüsse zu verstehen und zu visualisieren;
- Typische Fehlerbilder und Randfälle vorausschauend zu erkennen;
- Performance-, Sicherheits- und Wartbarkeitsfragen in die Architektur mitzudenken;
- Langfristige Architekturentscheidungen kritisch zu durchschauen.
Diese Fähigkeiten beruhen auf mentalen Modellen der Programmausführung, die ausschließlich durch aktives Tun, Debuggen, Scheitern und Variation entstehen – nicht allein durch die Konsumtion fertiger Lösungen.
Wenn generative KI frühzeitig die Implementierung, einen Großteil des Debuggings und sogar Optimierungsschritte übernimmt, entsteht die Kompetenzillusion: Lernende können vermeintlich „produktiv“ arbeiten, ohne die tiefen Systemzusammenhänge verstanden zu haben.
Wer in dieser Rolle verharrt, reduziert sich auf die Funktion der „UI des KI-Systems“: Er formuliert Absichten (Prompts), kann die Antworten aber nur sehr eingeschränkt prüfen, bewerten oder in einem komplexen Kontext verbessern. Dies ist nicht nur didaktisch unbefriedigend, sondern schafft eine strukturelle Vulnerabilität:
Das SQL-Beispiel illustriert das besonders deutlich: Ein Junior, der nur generierten SQL-Code ausführt, ohne die Erfahrung vieler problematischer Queries, entwickelt kein „Fehler-Radar“ für Sicherheitslücken oder Performance-Probleme. Die Fähigkeit, kritisch zu urteilen (Warum ist dieser Query langsam? Warum ist er unsicher?), bleibt unterentwickelt.
Die Kompetenzillusion ist somit nicht die unvermeidliche Folge des Einsatzes von KI. Sie entsteht vielmehr dort, wo KI die Lernarbeit substituiert, anstatt sie zu vertiefen – also in Abwesenheit einer bewussten didaktischen Rahmung. Wird die KI hingegen als reflektierter Tutor eingesetzt, der Fehler erklärt, Alternativen aufzeigt und echte Kompetenz fördert, kann sie Lernprozesse sogar beschleunigen. Das Risiko liegt in der passiven Konsumtion, nicht im Werkzeug selbst.
5.2 Immanentes Musterwissen vs. explizite Systematik
Sprachmodelle sind – technisch betrachtet – statistische Musterlernmaschinen: Sie optimieren die Wahrscheinlichkeit des nächsten Tokens.
Didaktisch entscheidend ist die Unterscheidung zwischen:
- immanentem Wissen: Das Modell hat „gesehen“, dass in vielen Texten bestimmte Kombinationen von Befehlen, Parametern, Patterns vorkommen; es kann diese reproduzieren.
- expliziter Systematik: Ein konsistentes, regelhaftes Verständnis, welche Konstruktion in welchem Dialekt zulässig, effizient oder sicher ist – und warum.
In der Praxis zeigt sich:
- Für generische Themen (Grundsyntax, Standard-SQL) wirken die Antworten systematisch.
- Für spezialisierte Themen (dialektspezifische Stored-Procedure-Regeln, edge cases der Parametrisierung, Performance-Tuning) bricht diese Systematik weg: Die Modelle produzieren Code, der „von weitem richtig aussieht“, aber in Details immer wieder denselben Fehler reproduziert – etwa die genannten verketteten Strings als Parameter.
Versucht man nun, die KI als Didaktikmaschine einzusetzen – z. B. zur automatischen Generierung von Schulungsunterlagen für einen bestimmten SQL-Dialekt – zeigt sich genau das Problem:
- Die KI kann Inhaltsverzeichnisse und grobe Gliederungen vorschlagen.
- Sie kann Standardkapitel „Joins“, „Indices“, „Stored Procedures“ füllen.
- Aber sie erfasst viele Themengebiete nur rudimentär, verwechselt Regeln, abstrahiert zu früh oder reproduziert Anti-Patterns.
Mit anderen Worten: Das System verfügt über beeindruckendes Musterwissen, aber nur brüchige Regelkenntnis. Für ernsthafte didaktische Systematik reicht das (noch) nicht.
5.3 Was KI realistisch leisten kann – und was (noch) nicht
Damit lässt sich die Rolle von KI im Lernen präziser fassen:
- KI kann erklären, variieren, Beispiele liefern, Gegenbeispiele generieren.
- Sie kann als Tutor fungieren: Code kommentieren, alternative Lösungen anbieten, auf mögliche Probleme hinweisen.
- Sie kann als Übungsgenerator dienen – aber nur, wenn ein menschlicher Experte zuvor die Systematik vorgibt (Fehlerfamilien, Schwierigkeitsstufen, Dialektregeln).
Was sie derzeit nicht verlässlich leisten kann, ist die autonome Konstruktion eines vollständig kohärenten Curriculums, insbesondere in hochspezifischen technischen Domänen.
Deshalb gilt:
KI kann helfen, notwendige Wiederholung zu verstärken und zugänglicher zu machen,
aber sie kann die dahinterliegenden didaktischen Strukturen nicht aus sich heraus erfinden – dazu braucht es weiterhin menschliche Domänen- und Lehrkompetenz.
Ohne diese menschliche Kuratierung besteht die Gefahr, dass Lernende zwar viele KI-generierte Beispiele sehen, aber an den falschen Stellen wiederholen – und so genau jene Intuition nicht ausbilden, die für Seniorität nötig wäre.
6. Programmieren als schulische Allgemeinbildung – im Sinne von „Computational Literacy“
Wenn nahezu alle Berufe in digitale Infrastrukturen eingebunden sind, wird eine bestimmte Form technischer Kompetenz zur Allgemeinbildung. Statt verkürzt zu sagen „alle müssen programmieren“, bietet sich der Begriff computational literacy an.
6.1 Was „computational literacy“ umfasst
Computational literacy bezeichnet ein Bündel aus:
- algorithmischem Denken: Probleme formal und in Schritte zerlegen, Randfälle antizipieren, Alternativen vergleichen;
- Datenkompetenz: Grundverständnis von Datenstrukturen, Datenspeicherung, statistischer Verzerrung, Datenschutz;
- Systemverständnis: Wie interagieren Dienste, APIs, Netzwerke, Datenbanken, Caches? Was bedeuten Latenz, Ausfall, Skalierung?
- Logik- und Modellkompetenz: grundlegende formale Strukturen, Aussagenlogik, einfache Beweisideen und Modellkonstruktionen;
- KI-Literacy: grundlegende Einsicht in Funktionsprinzipien, Fehlermodi und Bias generativer Modelle.
Programmieren – im Sinne konkreten Codes – ist hier Mittel und nicht Selbstzweck: Man nutzt Code, um abstraktere Einsichten in Struktur, Verfahren, Modellbildung zu gewinnen.
6.2 Das didaktische Dilemma: Systemverständnis ohne „Schule des Codes“?
Zugleich lässt sich ein zentrales Dilemma nicht wegdefinieren:
Systemverständnis entsteht empirisch selten im luftleeren Raum abstrakter Modelle. Die Fähigkeit, über Performance, Robustheit oder Sicherheit zu urteilen, ist in der Praxis fast immer an eine Phase gebunden, in der Menschen mit konkretem Code, mit Fehlermeldungen, mit missratenen Entwürfen ringen – also an genau jene „Maurerarbeit“, die die Architektur erst verstehbar macht.
Insofern wäre es pädagogisch naiv zu glauben, man könne Lernende direkt auf die Ebene von Systemarchitektur, Datenflüssen und KI-Ökosystemen heben, ohne dass sie zuvor in irgendeiner Form durch eine „Schule des Codes“ gegangen sind: durch wiederholtes, auch stupides Üben, durch Konfrontation mit typischen Fehlerfamilien, durch das mühsame Erarbeiten dessen, was erfahrene Entwickler:innen später als „Bauchgefühl“ bezeichnen.
Damit muss eine unbequeme Einsicht ausgesprochen werden:
Wir verfügen derzeit über keine ausgearbeitete Didaktik, die dieses Dilemma glaubwürdig auflöst. Wir wissen schlicht nicht, wie man – um im Bild zu bleiben – Architekt:innen hervorbringt, die nie Maurer:innen waren. Die wenigen Versuche, „architekturnahe“ Ausbildung ohne tiefere Codierpraxis zu etablieren, bleiben entweder oberflächlich oder fallen durch die Hintertür doch wieder auf klassische Programmierübungen zurück.
Computational Literacy bedeutet daher nicht, Code zu umgehen, sondern Code gezielt als Übungsmedium einzusetzen: nicht um Syntaxkataloge auswendig zu lernen, sondern um genau jene Erfahrungsdichte zu erzeugen, aus der sich später Systemintuition speisen kann. Wie eine Pädagogik aussieht, die diese „Schule des Codes“ mit KI-Unterstützung so gestaltet, dass sie zugleich effizienter und weniger ausbeuterisch wird, ist gegenwärtig keine beantwortete, sondern eine offene Forschungsfrage.
6.3 Schule als Gegenkraft zur Information Gap
Curricular hätte das drei Konsequenzen:
- Verpflichtende, spiralförmige Verankerung: Algorithmisches Denken und einfache Programmierkonzepte bereits in der Primarstufe, progressive Vertiefung in Sek I und Sek II.
- Projektorientierung: Fächerübergreifende Projekte (z. B. Datenauswertung in Sozialkunde, Simulationen in Physik, einfache KI-Experimente in Informatik), um abstrakte Konzepte in reale Kontexte zu binden.
- Reflexive KI-Bildung: Nicht nur „Nutzung von Chatbots“, sondern Analyse ihrer Fehler, Verzerrungen, Grenzen – einschließlich der Frage, warum ein Modell beispielsweise in einem bestimmten SQL-Dialekt immer wieder denselben Fehler reproduziert.
So könnte Schule die Information Gap verkleinern, indem sie wenigstens ein Grundinventar an computational literacy für alle bereitstellt – unabhängig von familiären Ressourcen.
6.4 Die Rolle der Hochschulen: Zwischen Grundlagenforschung und Professionalisierung
Hochschulen stehen in einem Spannungsfeld: Sie sollen einerseits Grundlagenbildung (theoretisches Wissen, wissenschaftliches Denken) bieten, andererseits auf Berufspraxis vorbereiten. KI verschärft diese Spannung.
Die traditionelle Arbeitsteilung gerät unter Druck:
Früher galt grob:
- Hochschule: Theorie, Algorithmen, formale Grundlagen
- Berufseinstieg: Praxis, Werkzeuge, Erfahrung
Diese Grenze verschwimmt, wenn KI bereits in der Hochschulbildung allgegenwärtig ist – und wenn Berufseinstiege (Juniorrollen) erodieren.
Drei mögliche Reaktionen:
1. „Mehr Praxis“
Hochschulen könnten verstärkt projektbasiert arbeiten, KI-Werkzeuge integrieren, realistische Codebasen verwenden.
Risiko: Ohne die oben beschriebene didaktische Systematik droht auch hier Kompetenzillusion. Studierende „liefern ab“ (mit KI-Hilfe), ohne tiefes Verständnis.
2. „Mehr Theorie“
Hochschulen könnten sich auf formale Grundlagen konzentrieren: Algorithmen, Komplexität, formale Methoden, theoretische Informatik.
Risiko: Die Lücke zur Praxis wächst. Absolvent:innen haben Theorie, aber keine Erfahrung – und finden keinen Einstieg mehr, weil Juniorrollen fehlen.
3. „Metareflexive Kompetenz“
Hochschulen könnten explizit Lernkompetenz vermitteln:
- Wie lerne ich systematisch neue Technologien?
- Wie erkenne ich Grenzen von KI-Systemen?
- Wie baue ich Expertise auf, wenn klassische Übungsfelder fehlen?
Das wäre vielversprechend – aber erfordert eine didaktische Innovation, die selbst Gegenstand der Forschung sein muss.
Die Forschungsagenda: KI-gestützte Didaktik
Hochschulen sollten nicht nur lehren, sondern erforschen, wie Lernen unter KI-Bedingungen funktioniert:
- Welche Übungsformen erzeugen nachweislich tiefes Systemverständnis?
- Wie kann KI als Tutor (nicht als Ersatz) eingesetzt werden?
- Wie lässt sich „Erfahrungsdichte“ effizient erzeugen?
- Welche Rolle spielt Fehlerkultur, Debugging, Scheitern?
Die empirische Grundlage fehlt noch – und sie zu schaffen, wäre eine genuin wissenschaftliche Aufgabe.
Hochschulen als „Lernlabore“:
Eine mögliche Rolle wäre:
- Hochschulen entwickeln und evaluieren neue Lernarchitekturen
- Sie bilden nicht nur Fachkräfte, sondern auch Ausbilder:innen aus (die später in Unternehmen, Bootcamps, Schulen arbeiten)
- Sie schaffen offene Bildungsressourcen (kuratierte Übungssets, Fehlerklassifikationen, didaktische Frameworks)
So würden sie zur Infrastruktur der Expertise-Reproduktion – nicht nur für Hochschulabsolvent:innen, sondern für die gesamte Bildungslandschaft.
7. Jenseits der Softwareentwicklung: Übertrag auf andere Berufsfelder
Die bisherige Analyse hat die Softwareentwicklung als paradigmatischen Fall betrachtet. Das ist heuristisch sinnvoll, weil hier KI-gestützte Systeme besonders früh und sichtbar in die Produktionsprozesse eingreifen und weil sich das Problem unterbrochener Lernketten an der Figur des „Junior-Entwicklers“ besonders klar fassen lässt.
Doch die strukturellen Mechanismen – die Erosion von Einstiegsaufgaben, die Verschiebung von Lernarbeit ins Unsichtbare, die Verstärkung der Information Gap – sind keineswegs auf die Tech-Branche beschränkt. Vielmehr lassen sie sich in unterschiedlichen Variationen in einer Vielzahl von Berufen beobachten.
7.1 Wissensarbeit allgemein: Von der Sachbearbeitung zur „Prompt-Arbeit“
In vielen klassischen Bürojobs – Sachbearbeitung, Administration, Reporting, Controlling – bestehen die traditionellen Einstiegsaufgaben aus standardisierbaren Routinetätigkeiten: Daten in Systeme übertragen, Standardbriefe verfassen, einfache Auswertungen erstellen, Protokolle schreiben.
KI-gestützte Systeme greifen hier in sehr ähnlicher Weise ein wie in der Softwareentwicklung:
- Textgeneratoren erstellen Mails, Schreiben, Protokolle;
- Tabellen- und BI-Tools automatisieren Standardreports;
- Workflow-Systeme orchestrieren Abläufe, sodass nur noch „Ausnahmen“ menschlich bearbeitet werden.
Damit verschiebt sich der Einstieg in diese Berufe:
- Die „stupide“ Routinearbeit, an der früher Anfänger:innen die formalen Logiken der Organisation (Formulare, Fristen, Zuständigkeiten) erlernten, wird reduziert oder automatisiert.
- Gefragt sind plötzlich Mitarbeitende, die sofort komplexe Fälle, Sonderkonstellationen und Grenzfälle bearbeiten können – also genau jene Situationen, für die früher jahrelange Erfahrung nötig war.
Auch hier stellt sich die Frage:
Wer erwirbt künftig das implizite Wissen darüber, wie eine Organisation „wirklich funktioniert“, wenn die formalen Einstiegsaufgaben zunehmend an Systeme delegiert werden und Lernende nur noch mit den schwierigsten Restfällen in Berührung kommen?
7.2 Gesundheits- und Pflegeberufe: Standardisierung und Reibung am Einzelfall
Im Gesundheitswesen lässt sich eine ähnliche Spannung beobachten, wenn auch in einem stärker regulierten Feld:
- KI-gestützte Systeme unterstützen Diagnostik (z. B. Bildanalyse), triagieren Symptome, schlagen Therapiepfade vor.
- Dokumentation und Abrechnung werden teilautomatisiert; Formulare füllen sich „von selbst“ aus elektronischen Patientenakten.
Die klassischen Einstiegsaufgaben für junge Ärzt:innen oder Pflegekräfte – Anamnesen aufnehmen, Standarddokumentation erledigen, Beobachtungsprotokolle führen – könnten durch solche Systeme entwertet oder verkürzt werden. Damit geht jedoch ein zentrales Moment verloren:
- Die wiederholte, scheinbar monotone Konfrontation mit typischen Verlaufsbildern, Standardfällen, Routinedokumentation dient in der Praxis als Schule des klinischen Blicks: Sie schärft jene Intuition, mit der später „auf den ersten Blick“ auffällige Konstellationen erkannt werden.
Wenn KI diese Routine zunehmend filtert und vorverarbeitet, laufen Lernende Gefahr, direkt in hochkomplexe Entscheidungssituationen hineingezogen zu werden, ohne zuvor die vielen „normalen“ Fälle durchlaufen zu haben, an denen sich klinisches Urteilsvermögen kalibriert. Die Analogie zur Softwareentwicklung drängt sich auf: Der Sprung von der Theorie zur seltenen Ausnahme ohne die Schule der Normalfälle gefährdet die Qualität der Expertise.
7.3 Juristische und administrative Berufe: von Standardfällen zu Edge Cases
Auch in juristischen Berufen wird deutlich:
- KI-Tools generieren Vertragsentwürfe, fassen Rechtsprechung zusammen, erstellen Standard-Schreiben, strukturieren Argumentationslinien.
- Ein Großteil der klassischen Einstiegsarbeit von Referendar:innen und jungen Anwält:innen – Recherchen, Entwürfe, Standardtexte – wird zumindest teilautomatisierbar.
Der verbleibende menschliche Arbeitsanteil verschiebt sich Richtung:
- Grenzfälle, Auslegungskonflikte, komplexe Mehrparteienkonstellationen;
- strategische Beratung, normative Bewertung, Mandantenkommunikation.
Auch hier stellt sich die Lernkettenfrage:
Wenn die „einfachen“ Fälle, an denen man die Logik eines Rechtsgebiets und die Praxis der Subsumtion trainiert, zunehmend von Systemen vorstrukturiert werden, besteht das Risiko, dass junge Jurist:innen früh mit hochkomplexen Fällen konfrontiert werden, ohne die Breite der Standardfälle durchlaufen zu haben, die das eigene Rechtsgefühl schärfen.
7.4 Handwerk, Industrie, technische Dienste: Automatisierung und Erfahrungswissen
Selbst in stärker materiell verankerten Berufen – Handwerk, Wartung, industrielle Produktion – zeigt sich eine analoge Bewegung:
- Sensorik und Predictive-Maintenance-Systeme schlagen vor, wann welches Bauteil zu warten ist.
- Assistenzsysteme leiten Schrittfolgen an, Robotik übernimmt standardisierte Handgriffe.
Traditionell erwarben Fachkräfte ihr Erfahrungswissen unter anderem daran, dass sie viele ähnliche Fälle immer wieder sahen: Geräusche von Maschinen, typische Verschleißbilder, häufige Defekte. Aus dieser Wiederholung entsteht die Fähigkeit, aus einem leisen Klackern, einem Geruch, einem minimal abweichenden Laufverhalten auf ein drohendes Problem zu schließen.
Wenn KI- und Assistenzsysteme nun einen Großteil dieser Diagnostik vorfiltern, kann es passieren, dass Nachwuchskräfte nur noch mit eindeutig markierten Problemfällen in Berührung kommen – und damit genau jene perzeptive Feinabstimmung nicht ausbilden, die ältere Fachkräfte auszeichnet.
7.5 Gemeinsamer Nenner: Wegfall der „Normalfälle“ als Lernraum
Über all diese Felder hinweg lässt sich ein Strukturmuster erkennen: KI-gestützte Systeme übernehmen zunehmend die standardisierbarsten Teile der Normalfälle und Routineabläufe oder filtern diese vor. Menschen werden tendenziell auf Ausnahmen, Grenzfälle und hohe Komplexität verschoben.
Damit kippt das traditionelle Verhältnis von Lernen und Arbeiten: Früher wurde Intuition an der Masse des Gewöhnlichen ausgebildet; heute droht durch die Filterung und Vorverarbeitung der KI eine Verdünnung der direkten Normalfallkontakte. Die Leitbegriffe des Essays – Lernkette, Übungsfeld, tacit knowledge – beschreiben deshalb ein allgemeines Muster der KI-gestützten Arbeitswelt: eine strukturelle Verschiebung der Erfahrungsbasis.
8. Mischszenario: Zwischen Krise und Refiguration
Die Zukunft beruflicher Professionalisierungswege im Zeichen der KI wird weder in einer einfachen Verdrängungsdystopie („KI nimmt uns alle Jobs“) noch in einer reibungslosen Fortschrittserzählung („KI befreit uns von aller stumpfen Arbeit“) aufgehen, sondern in einem Mischszenario, in dem krisenhafte und refigurierende Dynamiken ineinander greifen. Die Softwareentwicklung ist dabei nur der paradigmatische Fall; die beschriebenen Mechanismen betreffen in Variation ebenso Verwaltung, Recht, Gesundheitsberufe, Handwerk und andere Formen qualifizierter Arbeit.
8.1 Krisenhafte Tendenzen
Erosion von Einstiegs- und Juniorrollen
In vielen Berufsfeldern – nicht nur in der Software – werden klassische Einstiegspositionen knapper, verdichtet oder in prekäre Zonen verschoben: befristete Projekte, Werkverträge, formal „praktikumsförmige“ Beschäftigung ohne echte Ausbildungsperspektive. Überall dort, wo KI und Automatisierung Normalfälle und Routineaufgaben übernehmen, geraten genau jene Positionen unter Druck, in denen traditionell Anfänger:innen ihre ersten Übungsfelder fanden.
Verlagerung des Lernens in den Privatbereich
Wer sich ernsthaft professionalisieren will, ist zunehmend darauf angewiesen, Lernarbeit außerhalb regulierter Beschäftigungsverhältnisse zu leisten: in Open-Source-Projekten, Side Projects, Bootcamps, Zusatzkursen. Diese Räume sind – trotz ihrer Zugänglichkeit – strukturell ressourcenabhängig: Zeit, Geld, psychische und soziale Stabilität werden vorausgesetzt. Damit verschiebt sich ein Teil der Berufsausbildung in eine Zone informeller, un- oder unterbezahlter Lernarbeit.
Kompetenzdünnung
Ohne gezielt gestaltete Übungsfelder droht eine Generation von Expert:innen „light“: Menschen, die KI-Tools kompetent bedienen, aber komplexe Systeme – seien es Softwarelandschaften, juristische Problemkonstellationen, klinische Verläufe oder industrielle Anlagen – nur begrenzt durchdringen. Besonders deutlich wird dies in Bereichen, die stark von implizitem Erfahrungswissen leben: Performance-Tuning (z. B. in SQL), Security, Datenmodellierung, klinisches Urteilsvermögen, Fehlerdiagnostik in technischen Systemen. Wo die Normalfälle nicht mehr in großer Zahl durchlaufen werden, fehlt die Kalibrierung der Intuition.
8.2 Refigurierende Tendenzen
Parallel zu diesen Erosionsprozessen entstehen – teils bereits sichtbar, teils als Entwurf – neue Formen von Lernarchitekturen, die das Wegbrechen traditioneller Juniorrollen zumindest teilweise abfedern könnten. Diese Modelle liefern den empirischen Beweis, dass Lernketten neu organisiert werden können, müssen aber vom Ausnahmefall zur Norm werden.
Die Kernstrategie ist die gezielte Erzeugung von Erfahrungsdichte durch didaktisch kuratierte, KI-gestützte Übungsfelder:
1. KI-gestützte Lernplattformen als Multiplikatoren
KI-gestützte Lernplattformen können als mächtige Multiplikatoren fungieren, indem sie Wiederholungsübungen in hoher Varianz generieren, Fehler analysieren und personalisiertes Feedback geben – in der Programmierung ebenso wie in anderen Domänen (z. B. Standardfall-Varianten in der Juristerei, Diagnostikübungen in der Medizin).
- Voraussetzung: Ohne menschliche Systematik (Curricula, Fehlerklassifikationen, Domänenregeln) bleiben diese Plattformen oberflächlich. Mit dieser Systematik kann KI jedoch viele Lernende strukturiert durch jene „tausend Fälle“ führen, die für Intuition nötig sind – etwa jene „tausend SQL-Statements“, an denen sich Performanceradar und Fehlerinstinkt ausbilden – nur unter besseren didaktischen Bedingungen als im Ad-hoc-Projektfeuer. KI ersetzt in diesem Szenario nicht das Üben, sondern skaliert gezielt gut entworfenes Üben.
2. Konkrete Modelle der Refigurierung
Einige Ansätze zeigen in der Praxis, wie sich diese Multiplikation organisieren lässt:
- Variationsreiches Drill mit menschlicher Kuratierung: Senior-Expert:innen definieren eine systematische Taxonomie kritischer Fehlerklassen (z. B. SQL: Injection-Risiken, Performance-Fallen). Auf dieser Basis generiert KI hunderte Übungsaufgaben mit kontrollierten Variationen. Die Lernenden lösen die Aufgaben selbst, während die KI als Erklärungs-Tutor fungiert (Fehleranalyse, Alternativen aufzeigen). Menschliche Reviews ergänzen das System in kritischen Phasen.
- Duale Modelle und geschützte Lernzonen: Programme wie duale Studiengänge oder Traineeprogramme definieren die Juniorrolle neu als explizite Lernposition mit bewusst reduzierter Produktivitätserwartung. KI wird als Pair-Programmer eingesetzt (nicht als Ersatz): Der Junior schreibt Code, die KI kommentiert und schlägt Verbesserungen vor. Seniors erhalten explizit Zeit für Mentoring als definierter Teil ihrer Rolle, um die Verantwortungsübergabe graduell zu steuern.
- Simulationsbasierte Bootcamps: Statt fiktiver „Code-Katas“ setzen diese Programme auf realistische, anonymisierte Legacy-Systeme als Übungsfeld. Lernende arbeiten an typischen Szenarien („Finde den Performance-Engpass“, „Schließe die Sicherheitslücke“). Die KI fungiert hier als Diagnostik-Helfer, der fragt „Hier ist ein Problem – warum?“, statt direkt die Lösung zu liefern.
3. Ausblick
Diese Modelle existieren bisher nur punktuell und experimentell. Wir wissen noch nicht, ob sie systematisch skalierbar sind, ob sie wirklich die gleiche Tiefe an Expertise hervorbringen wie traditionelle Lernketten, und welche Kosten sie verursachen – vor allem aber, wer diese Kosten trägt. Aber sie zeigen: Refigurierung ist kein Hirngespinst, sondern eine tastende Praxis. Die entscheidende Frage bleibt, ob diese Refigurierung neuer Lernpfade schneller voranschreitet als die Erosion der alten, erfahrungsbasierten Pfade.
8.3 Politische und institutionelle Hebel
Realpolitisch ist es wenig aussichtsreich, Unternehmen direkt zu verpflichten, vermeintlich „ineffiziente“ Juniorstellen vorzuhalten. Doch es existieren indirekte Hebel, mit denen Anreizstrukturen verschoben werden können:
- Förderprogramme und steuerliche Anreize für nachweislich qualifizierende Ausbildungsstellen – nicht nur in technischen Berufen, sondern generell in KI-exponierten Professionen.
- Kriterien bei öffentlicher Auftragsvergabe: Unternehmen, die systematisch Nachwuchs ausbilden und Lernpfade institutionalisieren, können bevorzugt werden – ein Hebel, der insbesondere in regulierten Sektoren (Infrastruktur, Gesundheit, Verwaltung) wirksam wäre.
- Kooperative Ausbildungsmodelle zwischen Hochschulen, Betrieben und öffentlichen Einrichtungen**, in denen KI-Werkzeuge bewusst didaktisch eingebettet werden: Praxisphasen, simulierte Normalfälle, strukturierte Wiederholung statt Zufallslernen.
All dies hebt die ökonomische Logik nicht auf – kurzfristige Effizienz bleibt ein starker Treiber –, kann sie aber modulieren: weg von einer reinen Kurzfristorientierung hin zu einer geteilten Verantwortung für die Reproduktion von Expertise, verstanden als öffentlich relevantes Gut.
9. Fazit
Die untersuchten Unternehmensfälle illustrieren weniger eine einfache Gleichung „KI ersetzt x-tausend Jobs“, als vielmehr die Verflechtung von Rationalisierungspraxis und KI-Narrativ – konzentriert in jenen Zonen, in denen traditionell Einstiegs- und Juniorrollen angesiedelt waren. Die scheinbar technologische Entscheidung ist damit zugleich eine Entscheidung über Lernwege.
Am Beispiel der Softwareentwicklung wird ein doppelter Befund sichtbar, der sich in Variation auf andere Berufe übertragen lässt:
- Die historische Lernkette – viel Routinearbeit als Eintrittspreis für spätere Seniorität – ist weder naturgegeben noch normativ unantastbar. Teile dieser „Lehrjahre“ erscheinen rückblickend eher als Schinderei denn als didaktisch durchdachte Phase.
- Zugleich bleibt die pädagogische Notwendigkeit massiver, strukturierter Wiederholung bestehen: Expertise – etwa im Performance-Tuning von SQL, in der klinischen Beurteilung von Befunden, in der juristischen Subsumtion oder in der technischen Diagnose – entsteht nicht ohne hunderte, tausende Begegnungen mit ähnlichen Problemen, aus denen sich perzeptuelles und implizites Wissen bildet.
Generative KI verschärft dieses Spannungsfeld:
- Sie kann Wiederholung unterstützen, Beispiele variieren, Alternativen aufzeigen;
- sie ersetzt jedoch nicht jene tiefe Erfahrungsarbeit, aus der Architektur- und Systemkompetenz historisch hervorgegangen sind – weder in der Softwarearchitektur noch in Organisations-, Rechts- oder Therapiearchitektur.
Entscheidend ist dabei eine epistemische Ehrlichkeit:
Wir besitzen derzeit keine ausgereifte Didaktik, die Architektur- oder Systemwissen ohne eine vorgängige Phase „maurerhafter“ Praxis – also ohne intensiven Kontakt mit den scheinbar stupiden Normalfällen – zuverlässig erzeugen könnte. Wir wissen schlicht noch nicht, wie man Architekt:innen bildet, die nie Maurer:innen waren. Ob und wie sich eine solche Didaktik unter KI-Bedingungen entwickeln lässt, ist selbst Teil der offenen Problemstellung – nicht bereits deren Lösung.
Daraus ergibt sich eine Doppelaufgabe:
- Bildungspolitisch: Es braucht eine ernst gemeinte Konzeption von computational literacy (und analogen Formen domänenspezifischer Literacy) als Allgemeinbildung: Code und andere Formen konkreter Praxis als Übungsmedium, nicht als Selbstzweck; Systemverständnis und KI-Literacy als gemeinsame Grundlage für alle, unabhängig vom späteren Berufsweg.
- Arbeitsmarkt- und organisationspolitisch: Es müssen neue Formen von Übungsfeldern entstehen – in Unternehmen, Bootcamps, Hochschulverbünden, professionellen Communities –, in denen die notwendige Wiederholung nicht einfach verschwindet, sondern bewusst, fair und lernwirksam gestaltet wird.
Zwischen der Gefahr einer „intuitionslosen“ Generation von Fachkräften – hochgradig tool-kompetent, aber tiefenblind – und der Chance einer neu konfigurierten Lernlandschaft ist nichts entschieden.
Ob KI zur Erosion beruflicher Expertise beiträgt oder zu ihrer Refiguration, hängt nicht primär an der Modellgüte– also nicht daran, ob das nächste System noch größer, noch flüssiger, noch benchmarkstärker ist –, sondern daran, ob wir bereit sind, die unscheinbare, aber entscheidende Zone der „stupiden Wiederholung“ didaktisch ernst zu nehmen – und sie mit Hilfe von KI neu zu organisieren, statt sie stillschweigend zu opfern.





