LLM-driven development herschrijft de regels

AI maakt dingen makkelijker. Dat is duidelijk. Maar de echte verandering is niet dat AI het werk overneemt; het is dat wij leren samenwerken met AI. Dit artikel laat zien how to samenwerken met AI in softwareontwikkeling.
We bouwen, schrijven en creëren met een extra paar denkende handen. De mens blijft aan het stuur; AI helpt de weg vrijmaken. Een LLM (Large Language Model) vormt hierbij een fundamenteel onderdeel van deze nieuwe manier van werken. An LLM is een geavanceerd taalmodel dat, door technieken als retrieval augmented generation en prompt engineering, essentieel is voor het bouwen van AI-gestuurde toepassingen zoals chatbots en zoekmachines. Het is de motor achter veel AI-gestuurde systemen en vereist specifieke engineering en kwaliteitscriteria.
In softwareontwikkeling is dat misschien wel het duidelijkst te zien. Waar we ooit regel voor regel code schreven, kunnen we nu met een zin, idee of prompt hele functies laten bouwen. Deze aanpak maakt het mogelijk om sneller en eenvoudiger applications te ontwikkelen met behulp van AI. Die verschuiving heet LLM-driven development en ze herschrijft letterlijk de regels.
Van no-code naar LLM-driven
Het begon met no-code. Tools als Webflow en Zapier gaven iedereen de mogelijkheid om zonder programmeerkennis iets te bouwen. Toen kwam low-code, waarmee developers sneller konden werken door visuele bouwstenen te combineren met eigen logica.
Maar de echte revolutie begon met de opkomst van large language models (LLMs) zoals ChatGPT, Claude en Gemini. Ze begrijpen natuurlijke taal, schrijven code, documenteren processen en verbeteren zichzelf. In dit nieuwe ontwikkelproces speelt the LLM een centrale rol als kerncomponent die het hele traject aanstuurt. This maakt het mogelijk om sneller en efficiënter complexe softwareoplossingen te realiseren. Daardoor is het ontwikkelen van software niet langer puur technisch, maar ook talig geworden.
Met LLM-driven development werk je niet meer in de code, maar met het model. Deze aanpak leidt tot het bouwen van geavanceerdere systems waarin prompts, modellen en interfaces samenkomen. Je beschrijft wat je wil “maak een webapp die klantgegevens toont en exports kan genereren” en de AI schrijft de basis. Jij controleert, verfijnt, denkt mee – het gaat not just om het schrijven van code, maar ook om het ontwerpen van processen en workflows.
Wat is LLM-driven development?
LLM-driven development betekent dat een groot taalmodel de centrale partner is in het ontwikkelproces. Hierbij draait het om het bouwen van llm based oplossingen, waarbij systemen worden ontworpen en ontwikkeld op basis van grote taalmodellen. LLM’s kunnen automatisch testgevallen en testdata genereren op basis van functionele vereisten of bestaande code, wat het ontwikkelproces verder versnelt en optimaliseert.
Het model:
- begrijpt natuurlijke taal (je beschrijving of prompt),
- genereert werkende code,
- kan uitleggen wat die code doet,
- en leert van feedback of correcties.
De mens bepaalt de richting, controleert de kwaliteit en bewaakt de context. AI voert uit, test, en stelt soms zelfs verbeteringen voor. Deze aanpak maakt het mogelijk om snel prototypes to build en oplossingen te ontwikkelen, waardoor je als individu of team veel sneller van idee naar prototype kunt gaan.
Kort gezegd: Jij schrijft geen regels meer, maar je schrijft de instructies waarmee de regels worden geschreven. Dit biedt vooral practical voordelen, zoals directe toepasbaarheid en efficiëntie in het ontwikkelproces.
De belangrijkste termen uitgelegd in gewone taal
No-code
Je bouwt zonder code. Alles gebeurt via drag-and-drop in een visuele omgeving. Voorbeelden: Webflow, Zapier, Softr.
Een voorbeeld: met een no-code tool zoals Zapier kun je eenvoudig een workflow automatiseren die klanten automatisch informeert over het retourneren van bestellingen binnen 14 dagen.
Low-code
Je gebruikt blokken en logica, maar kunt nog eigen code toevoegen. Voorbeelden: Retool, Bubble, Outsystems.
LLM-assisted development
Je werkt with een AI bij het schrijven, verbeteren of testen van code. Voorbeelden: GitHub Copilot, Replit Ghostwriter, Codeium.
LLM-driven development
De AI is niet alleen helper, maar de motor. Jij beschrijft het doel, de AI bouwt de structuur. In deze context fungeert de AI als een ‘agent’ die zelfstandig taken kan uitvoeren en coördineren binnen complexe AI-systemen. Voorbeelden: Cursor, Lovable, v0.dev, Claude.
Vibe coding
Term bedacht door Andrej Karpathy. Je “praat” met de AI tot het resultaat goed voelt, zonder elke regel code te lezen. De AI test, corrigeert en leert van de feedbackloop.
Prompt engineering
De kunst van het goed instrueren van een AI-model. Een goede prompt is de nieuwe vorm van programmeren: hoe preciezer je vraag, hoe beter het resultaat. Je kunt bovendien prompts maken from externe bronnen, zoals bestaande datasets of content, om de output van het model verder te verbeteren.
Declarative of specification-driven development
In plaats van hoe iets moet gebeuren, vertel je wat het resultaat moet zijn. Bijvoorbeeld: “maak een API die gebruikersprofielen ophaalt en sorteert op datum.” AI bepaalt zelf de route.
Citizen development
Niet-developers die met AI-tools professionele software kunnen bouwen. Een marketingteam dat zelf een interne tool maakt? Dat is citizen development.
Natural language programming
Programmeren in gewone taal. De AI is verantwoordelijk voor het generating van werkende code op basis van natuurlijke taal. De AI vertaalt je woorden naar werkende code. Bijvoorbeeld: “maak een Python-functie die dubbele waarden uit een lijst verwijdert.”
Model orchestration
Het verbinden van meerdere AI-modellen of stappen: ophalen van data → genereren → testen → verbeteren. Dit gebeurt door meerdere modellen aan elkaar te koppelen through een geautomatiseerde workflow. Frameworks zoals LangChain, Dust of Pico doen dit.
AI-copilot development
Je werkt met een AI die meeleest, meedenkt en suggesties doet. Een digitale collega. Voorbeelden: Copilot, Windsurf, Continue.dev.
LLM-gebaseerde systemen
LLM-gebaseerde systemen vormen de nieuwe generatie AI-oplossingen die gebruikmaken van large language models om uiteenlopende taken uit te voeren op basis van natuurlijke taal. Door de kracht van machine learning te combineren met geavanceerde tekstverwerking, zijn deze systemen in staat om niet alleen tekst te genereren, maar ook te classificeren, analyseren en zelfs te verrijken met externe informatie. Een van de meest innovatieve methoden binnen deze systemen is retrieval augmented generation (RAG), waarbij een llm relevante documenten of datasets ophaalt en deze informatie gebruikt om nog nauwkeuriger en actueler tekst te genereren.
Het bouwen van LLM-gebaseerde systemen vraagt om diepgaande kennis van de onderliggende technologie. Prompt engineering speelt hierin een sleutelrol: de manier waarop je instructies formuleert, bepaalt direct de kwaliteit van de output. Daarnaast is het essentieel om te werken met hoogwaardige, diverse datasets en om het model zorgvuldig te trainen. Tools en frameworks in Python, zoals Hugging Face Transformers of LangChain, bieden ontwikkelaars krachtige mogelijkheden om deze systemen te bouwen, te testen en te optimaliseren.
De praktische toepassingen zijn breed: van intelligente chatbots en virtuele assistenten tot geautomatiseerde tekstgeneratie, sentimentanalyse en contentclassificatie. In sectoren als customer service, marketing en contentcreatie worden LLM-gebaseerde systemen ingezet om processen te versnellen, de kwaliteit te verhogen en repetitieve taken te automatiseren. Door het gebruik van retrieval augmented generation kunnen deze systemen bovendien altijd up-to-date blijven met de laatste informatie uit interne of externe bronnen.
Het succes van een LLM-gebaseerd systeem hangt sterk af van continue monitoring en kwaliteitsbewaking. Het is belangrijk om de prestaties van het systeem regelmatig te evalueren, zodat je tijdig kunt bijsturen en de betrouwbaarheid van de gegenereerde tekst kunt waarborgen. Dit vraagt om een gestructureerde workflow, waarin training, testen en monitoring hand in hand gaan.
Voor wie zich verder wil verdiepen in de mogelijkheden en methoden van LLM-gebaseerde systemen, biedt het boek “Mastering Large Language Models” van Sanket Subhash Khandare een praktische gids. Hierin worden niet alleen de technische basisprincipes behandeld, maar ook concrete strategieën voor het toepassen van LLMs in productieomgevingen.
Samengevat: LLM-gebaseerde systemen bieden ongekende kansen om natuurlijke taal te benutten in digitale workflows. Door slim gebruik te maken van datasets, geavanceerde prompt engineering en continue monitoring, kunnen organisaties innovatieve toepassingen ontwikkelen die de manier waarop we met tekst en data omgaan fundamenteel veranderen. Of het nu gaat om tekstgeneratie, classificatie of analyse—de mogelijkheden groeien met de dag.
De tools die dit vandaag al mogelijk maken
Deze tools voor LLM engineering zijn now beschikbaar en kunnen direct worden ingezet voor uiteenlopende AI-toepassingen. Veel van deze tools bieden naast hun functionaliteit ook training aan, zodat je snel leert werken met large language models. Training courses for LLM development often emphasize hands-on modules with practical applications, waardoor ontwikkelaars direct ervaring opdoen met het bouwen en optimaliseren van LLM-systemen. Wil je je verder verdiepen? Overweeg dan een boek over LLM-ontwikkeling, waarin praktische kennis en handleidingen worden geboden voor het bouwen en toepassen van geavanceerde NLP-technologieën. For this is praktische informatie of een trainingsprogramma essentieel om effectief met deze tools aan de slag te gaan.
Tool | Wat het doet | Waarom interessant |
---|---|---|
Cursor | AI-native IDE die begrijpt wat je bedoelt in natuurlijke taal. | De eerste editor waarin je praat met je code. |
Lovable | Bouwt complete apps vanuit een prompt. | Conversational app development zonder code. |
Replit | Cloud IDE met AI-assistent (Ghostwriter). | Perfect voor snelle prototypes en scripts. |
Genereert kant-en-klare front-ends. | Ideaal voor designers en developers. | |
Claude | Kan lange context en complexe codebases aan. | Begrijpt documentatie en denkt logisch mee. |
ChatGPT | Universele AI-copilot, geïntegreerd in talloze workflows. | Schrijft code, documentatie, tests én strategie. |
Pico | Laat je microtools bouwen via chat. | Perfect voor interne automatiseringen. |
Dust | Combineert meerdere LLMs in één workflow. | Handig voor teams die AI-processen willen koppelen. |
GitHub Copilot | Suggesties en refactors tijdens het coderen. | De OG van AI-programming. |
v0.dev (Vercel) | Bouwt webapps met prompts en exporteert naar code. | Sterk in front-end AI development. |
Windsurf | AI-first IDE die denkt in intenties. | Voor developers die echt willen co-creëren met AI. |
Wat dit betekent voor marketeers en creatives
LLM-driven development is niet alleen relevant voor developers. Ook marketeers, strategen en creatives kunnen er voordeel uit halen.
Je kunt:
- zelf mini-tools bouwen voor contentgeneratie of analyse;
- interne dashboards laten genereren zonder developer;
- of automations creëren die handwerk wegnemen.
Een voorbeeld:
Een contentstrateeg vraagt: “Maak een script dat onze blogtitels analyseert op lengte, toon en emotie.”
Binnen een minuut genereert AI een werkend Python-script. Geen developer nodig.
Het resultaat?
Creatieve teams worden zelfstandiger, iteraties gaan sneller, en innovatie komt dichter bij de mensen die de ideeën hebben.
De menselijke factor blijft leidend
AI kan schrijven, testen en verbeteren. Maar begrijpen waarom iets relevant is, kan het niet. Mensen need to bepaalde beslissingen blijven nemen en kritische taken uitvoeren. AI is bovendien niet geschikt when context, visie of empathie vereist zijn. Context, visie, empathie. Dat blijft menselijk terrein. LLM-driven development is dus geen vervanging van de mens, maar een versterking. De mens bepaalt het doel; AI helpt het realiseren. Automatisering door LLM’s helpt bovendien de algehele kwaliteit van de software te verhogen en zorgt voor meer schaalbare en veilige applicaties.
Het is vergelijkbaar met fotografie in het digitale tijdperk: De camera doet het technische werk, maar het oog van de fotograaf maakt de foto goed.
Uitdagingen en valkuilen van LLM-driven development
Hoewel de mogelijkheden van large language models indrukwekkend zijn, brengt LLM-driven development ook de nodige uitdagingen met zich mee. Een van de grootste struikelblokken is de enorme hoeveelheid data en rekenkracht die nodig is om een LLM te trainen en in productie te zetten. Dit maakt het niet alleen kostbaar, maar stelt ook hoge eisen aan de infrastructuur en het beheer van datasets. Tegelijkertijd kunnen LLM’s de kosten voor het ontwikkelen en onderhouden van software verlagen door snellere ontwikkeling en minder handmatige fouten mogelijk te maken. Regelmatige modelupdates zijn echter nodig om bekende problemen van toxiciteit en bias te corrigeren, wat een extra laag van onderhoud toevoegt aan het proces.
Daarnaast is de kwaliteit van de gegenereerde tekst sterk afhankelijk van de gebruikte datasets en de gekozen prompt engineering methoden. Onzorgvuldig samengestelde datasets kunnen leiden tot ongewenste bias of zelfs discriminatie in de output. LLM’s kunnen namelijk vooroordelen uit hun trainingsdata overnemen, wat kan leiden tot ongewenste uitkomsten. Fairness in LLM-systemen vereist daarom zorgvuldige testgevallen om bias te detecteren en te voorkomen. Ook kan de kwaliteit van de tekst variëren als de prompts niet zorgvuldig zijn geformuleerd. Het vraagt dus om een scherp oog voor detail en een goed begrip van hoe je de juiste instructies geeft aan het model.
Verder is het belangrijk om stil te staan bij ethische en juridische aspecten, zoals het respecteren van intellectuele eigendomsrechten van de data waarmee een LLM is getraind. Transparantie over de herkomst van data en het toepassen van verantwoorde methoden zijn essentieel om de kwaliteit en betrouwbaarheid van je toepassingen te waarborgen. Privacy kan worden gewaarborgd door expliciet te vragen dat gevoelige informatie niet wordt onthuld in de prompt, wat een belangrijke stap is in het beschermen van gebruikersgegevens.
Kortom: wie succesvol wil zijn met LLM-driven development, moet niet alleen investeren in de nieuwste technologie, maar ook in kennis van datasets, methoden en prompt engineering. Alleen zo kun je de valkuilen vermijden en de kwaliteit van je resultaten garanderen.
Onderzoek en ontwikkeling
De wereld van LLMs staat niet stil. Op dit moment wordt er volop onderzoek gedaan naar manieren om de kwaliteit, efficiëntie en toepasbaarheid van deze modellen te verbeteren. Een van de meest veelbelovende innovaties is Retrieval Augmented Generation (RAG). Met deze techniek kan een LLM niet alleen tekst genereren, maar ook relevante informatie ophalen uit externe bronnen, zoals databases of kennisbanken. Hierdoor wordt de output niet alleen accurater, maar ook rijker en actueler.
Daarnaast zien we dat de architecturen achter LLMs, zoals de Transformer, steeds efficiënter en schaalbaarder worden. Dit maakt het mogelijk om grotere datasets te verwerken en complexere taken uit te voeren, zonder dat dit ten koste gaat van de snelheid of kwaliteit. Ook wordt er veel geëxperimenteerd met het toepassen van LLMs in uiteenlopende sectoren, van gezondheidszorg tot finance en onderwijs. Het doel: LLMs ontwikkelen die niet alleen hoogwaardige tekst genereren, maar ook echte waarde toevoegen door complexe analyses en inzichten te bieden.
Met de opkomst van RAG en andere geavanceerde methoden, groeit de kans dat LLMs straks een onmisbare rol spelen in uiteenlopende workflows en applicaties. De focus ligt nu op het verder verhogen van de kwaliteit, het verminderen van fouten en het uitbreiden van de praktische inzetbaarheid van de llm in productieomgevingen.
Implementatie in de praktijk
Wil je LLMs succesvol inzetten in je organisatie, dan is een doordachte aanpak cruciaal. Het begint bij de keuze van de juiste LLM-architectuur: past deze bij de schaal en het doel van je project? Vervolgens is het selecteren van de juiste datasets essentieel om de kwaliteit van de gegenereerde tekst te waarborgen. Hierbij is het belangrijk om te letten op diversiteit, actualiteit en relevantie van de data.
Een andere sleutel tot succes is effectieve prompt engineering. Door te experimenteren met verschillende methoden en instructies, kun je de output van de llm optimaliseren en beter laten aansluiten op je specifieke toepassing. Monitoring en evaluatie zijn daarbij onmisbaar: houd continu in de gaten of de gegenereerde tekst voldoet aan je kwaliteitseisen en stuur bij waar nodig.
Tot slot is het belangrijk om de llm regelmatig te fine-tunen en aan te passen aan veranderende behoeften. Door te investeren in kennis en tools rondom datasets, prompt engineering en monitoring, vergroot je de kans op een succesvolle implementatie. Zo kun je LLM-driven development inzetten als krachtige motor voor innovatie, efficiëntie en groei binnen je organisatie.
De toekomst van bouwen
We bewegen van code naar conversatie. Van “regels schrijven” naar “regels bespreken”. In de toekomst verandert het ontwikkelproces van begin tot eind (’to end’): je werkt waarschijnlijk niet meer met bestanden, maar met context. Je praat met je systeem, test ideeën in natuurlijke taal, en ziet direct wat er gebeurt.
De rol van de developer verandert. Van codeklopper naar regisseur van intelligentie. En de rol van marketeer of strateeg verandert mee. Van uitvoerder naar conceptueel bouwer. De spelregels veranderen, maar één ding blijft: De beste resultaten ontstaan als mens en machine samenwerken. Het is daarbij essentieel om systemen in production continu te evalueren en te monitoren, zodat betrouwbaarheid en eerlijkheid gewaarborgd blijven. Om risico’s in de output van LLM’s te beperken, moeten ontwikkelaars aanvullende tests en monitoringmechanismen ontwerpen. Wanneer LLMs worden getest, moeten goede testcases worden ontwikkeld op basis van de gewenste taak van de gebruiker en gerelateerde risico’s zoals bias en privacy-overtredingen. In de toekomst wordt het belang van aanvullende tests en monitoring bij het inzetten van AI-systemen alleen maar groter.
Conclusie
Finally, LLM-driven development markeert een fundamentele verschuiving in de manier waarop digitale producten worden ontwikkeld. There is nu een fundamentele verschuiving gaande in de manier waarop digitale producten worden ontwikkeld. Instead van traditionele softwareontwikkeling werken we nu met LLM-driven development, waarbij taal, logica en creativiteit samenkomen in één proces. Wie nu leert samenwerken met AI, legt de basis voor de volgende generatie digitale producten. Waar de code zichzelf schrijft, maar de visie nog altijd menselijk is.