Matthias Richter: „2025 war neben allem anderen auch das Jahr der Coding Agents. Erst kam Vibe Coding, kurz darauf Claude Code, dann Codex CLI, dann Gemini CLI und viele andere. Das wirft Fragen auf: Wie ändert der Einsatz von LLMs die Softwareentwicklung? Werden wir in Zukunft noch selbst programmieren oder „nur“ noch generierten Code abnicken? Dieses Thema eignet sich hervorragend für starke Meinungen und damit zur Lagerbildung.
Die Optimisten sehen eine goldene Zukunft, in der dank Claude und Co. alle ihre eigenen Ideen in Code gießen können. So schlecht wie heute werden die Tools nie wieder sein, sagen sie. Getrieben von der Hoffnung auf mehr Produktivität schreiben manche Unternehmen ihren Entwickler:innen bereits den Einsatz von LLMs vor.
Die Pessimisten sehen darin allenfalls Katzengold. Sie verweisen auf Studien, wonach Coding Agents menschliche Entwickler:innen nicht schneller, sondern langsamer machen. Sie weisen darauf hin, wie schlecht, ja gar gefährlich, generierter Code ist. Die Schadenfreude ist groß, wenn ein Agent mit zu viel Agency Produktionsdatenbanken löscht oder halluzinierte Fakten in Berichte schmuggelt. Die Wahrheit liegt wohl irgendwo zwischen diesen Extremen.
Ich glaube, Coding Agents sind ein unglaublich mächtiges Werkzeug. Ich glaube auch, dass wir menschlichen Agenten nach wie vor gebraucht werden. Dieser Glaube stützt sich auf Erfahrungen, die ich sowohl in privaten Projekten, als auch im professionellen Umfeld gesammelt habe. Um das Problem auf den Punkt zu bringen: LLMs verstehen nicht, was sie produzieren.
Es sieht zwar danach aus und das „selbstsichere“ Auftreten hat etwas Ansteckendes. Ich musste aber allzu oft feststellen, dass es hier mehr Schein als Sein ist. Generierter Code verrottet schnell. LLMs haben nicht dieses Gefühl für den Code, das man nur durch lange Beschäftigung mit demselben bekommt. Das ist im Nachhinein natürlich offensichtlich. LLMs modellieren kein Verständnis, sondern Wahrscheinlichkeiten von Symbolfolgen. Sie generieren Symbole, die gut zu dem passen, was bereits da ist. Mit Programmiersprachen klappt das außergewöhnlich gut, weil diese Sprachen hochgradig strukturiert und von regelmäßigen Mustern durchsetzt sind. Generierter Code sieht plausibel aus, weil er es ist, jedenfalls syntaktisch. Nur die Semantik ...
Für mich bedeutet das alles Folgendes: Die Maschinen brauchen uns. Sie brauchen uns, um zu verstehen, um Ziele zu setzen und das „große Ganze“ im Blick zu behalten. Agenten können uns Wege aufzeigen und Vorschläge machen, aber die Bewertung und Entscheidung liegt immer noch bei uns.
LLMs sind Werkzeuge, deren Einsatz wir lernen müssen. Sie nehmen uns Arbeit ab, ja. Doch wir werden immer noch Anforderungen erarbeiten, immer noch Lösungen suchen und immer noch Pläne schmieden. Und ja, wir werden immer noch selbst Code schreiben. Nur der Fokus wird sich verschieben: Mehr planen, weniger selbst umsetzen. So betrachtet nähert sich unser Job als Softwareentwickler:in dem anderer Ingenieur:innen immer mehr an. Und ich denke, das ist gut.“