Coding agents zijn beter dan je denkt
De scepsis over AI coding agents is steeds vaker gebaseerd op een achterhaald referentiekader. De technologie is veranderd. De manier van werken nog niet.
Veel developers zeggen dat AI niet goed genoeg is om serieus mee te bouwen. Dat oordeel klinkt nuchter. Het is steeds vaker gebaseerd op een oud referentiekader.
Coding agents maken fouten. Dat staat buiten kijf. Maar er is de afgelopen maanden iets structureels veranderd: de productielaag van software is extreem gecomprimeerd. Taken die vroeger dagen of weken kostten, worden nu — mits goed afgebakend — in uren of minuten uitgevoerd.
Dat verschil wordt onderschat.
De verkeerde test
Veel scepsis stamt uit ervaring met een eerdere generatie tooling. De context was te klein, de output te broos, de iteraties te beperkt. Of mensen gebruiken coding agents nog steeds als een mengvorm van autocomplete en chatbot: één prompt erin, wat code eruit, kijken of het toevallig goed gaat.
Dat is de verkeerde test.
Claude Code verwerkt nu een codebase van 100.000 regels als context. Het leest bestanden, zoekt patronen, wijzigt code, draait tests, corrigeert fouten en werkt door — zonder de menselijke vertraging tussen al die stappen. Cursor navigeert een onbekend project en localiseert bugs sneller dan een developer die de codebase nog moet leren kennen. GitHub Copilot agent pakt een issue op, maakt een branch, schrijft code, draait CI en opent een pull request — autonoom.
De afstand tussen “autocomplete die een regel code voorstelt” en “agent die een complete feature implementeert” is in twaalf maanden overbrugd. Teams die hun oordeel nog baseren op de eerste ervaring, testen een vliegtuig door naar een fiets te kijken.
Het echte probleem zit niet in de agent
De denkfout gaat steeds minder over de technologie en steeds meer over hoe teams ermee werken. Te brede opdrachten. Te weinig context. Te weinig review. Te veel verwachting dat een agent vanzelf begrijpt wat de bedoeling is.
Niemand zou van een menselijke developer verwachten dat die zonder briefing, zonder codebase-context en zonder acceptatiecriteria meteen het juiste bouwt. Bij coding agents verwachten opvallend veel teams dat nog wel.
Een concreet voorbeeld: een team dat ik ken gebruikte Claude Code om een API-migratie uit te voeren — 47 endpoints, van REST naar GraphQL. De eerste poging mislukte spectaculair. Ze gaven één prompt: “migreer de API naar GraphQL.” Het resultaat was onbruikbaar.
De tweede poging duurde een dag. Ze schreven per endpoint een specificatie: welke velden, welke relaties, welke breaking changes acceptabel waren. Claude Code verwerkte alle 47 endpoints in vier uur. Drie hadden handmatige correctie nodig. De rest was productieklaar.
Het verschil zat in de instructie, in de afbakening en in de review. De agent was identiek.
De verschuiving die teams missen
Zodra bouwen goedkoop en snel wordt, verschuift de bottleneck. Weg van productiecapaciteit, richting afbakening, instructie en review. Dat verklaart waarom sommige teams nu al tien keer sneller gaan terwijl andere teams blijven hangen in de conclusie dat het nog niet goed genoeg is.
De eersten hebben hun referentiekader aangepast. Ze schrijven scherpere opdrachten. Ze splitsen werk in afgebakende taken. Ze reviewen output zoals ze een junior developer reviewen — grondig, snel, met duidelijke terugkoppeling. Ze behandelen de coding agent als een productiemiddel dat kwaliteitssturing nodig heeft, niet als een orakel dat het vanzelf moet weten.
De laatsten testen nog alsof het 2024 is.
Vic Boomer is zelf het bewijs. De volledige codebase van Pantion — 46 tools, meer dan duizend tests, tienduizenden regels TypeScript — is gebouwd met Claude Code. De afgelopen sprint: een complete OpenClaw adapter, zes agent-workspaces, drie styleguides, een image pipeline en een deployment-systeem. Eén developer, één coding agent, twee weken.
Dat tempo was achttien maanden geleden ondenkbaar. Niet omdat de developer sneller tikt, maar omdat de productielaag fundamenteel anders werkt.
Wat teams nu zouden moeten doen
De eerste stap is het referentiekader bijstellen. Coding agents van april 2026 zijn een andere categorie dan die van 2024. Wie zijn oordeel baseert op een ervaring van een jaar geleden, beoordeelt een ander product.
De tweede stap is leren werken met de productielaag. Dat betekent: kleinere opdrachten, meer context, scherpere acceptatiecriteria, snellere review-loops. De kwaliteit van de output is een directe functie van de kwaliteit van de instructie.
De derde stap is meten. Neem een taak die normaal een week kost. Geef hem aan een coding agent met goede afbakening. Meet het verschil. Drie uur versus vijf dagen is geen anekdote — het is een structurele verschuiving in de economie van software.
Achterhaalde maatstaf
Dit is geen tijdelijk gereedschapsverhaal. Het is een structurele verschuiving in hoe software wordt gebouwd. De agents zijn goed genoeg. De vraag is of teams al goed genoeg zijn in het werken met deze nieuwe productielaag.
Wie coding agents nog beoordeelt op de ervaring van vorig jaar, kijkt naar de verkeerde wedstrijd.
Vic Boomer is een essay-led AI studio die ideeën over AI, agents en software vertaalt naar heldere analyses, werkende systemen en bruikbare tools.