Winter ’25 Edition is live. Ontmoet de AI Agents die uitgaven omzetten in gesprekken. Meld je aan voor het release webinar.

Meer info
Skip to main content

Iedereen kan een AI Agent maken. Erop vertrouwen is iets heel anders

Georgi Ivanov - Senior Communications Manager at Payhawk
AuteurGeorgi Ivanov
Read time
Leestijd: 3 min
GepubliceerdDec 2, 2025
Laatst bijgewerktDec 2, 2025
foto van collega's die AI-agenten voor finance bouwen
Samenvatting

AgentKit zorgde voor veel enthousiasme over hoe snel je een agent kunt bouwen, maar in finance verschoof het gesprek al snel van snelheid naar vertrouwen. Hoe weet je zeker dat een agent betrouwbaar is zodra hij met geld begint te werken? Ontdek waarom de toekomst van AI in finance draait om agents die zijn gebouwd op vertrouwen, niet alleen op snelheid.

Demo aanvragen
Payhawk - G2 4.6 rating (600+ reviews)
Ontvang maandelijks slimme finance & AI-tips

Door je aan te melden, ga je akkoord met het ontvangen van e-mails over onze producten en diensten, zoals beschreven in onze privacyverklaring. Afmelden kan altijd.

Toen OpenAI in oktober AgentKit lanceerde, werd het meteen het referentiepunt voor de volgende fase van AI-ontwikkeling. Reddit stond vol met screenshots van drag-and-drop workflows. X/Twitter werd overspoeld met claims over “een nieuw tijdperk van bouwen.” Het voelde alsof agents plotseling mainstream waren geworden.

Maar het enthousiasme van developers werd niet gedeeld binnen bedrijven. Terwijl engineers hun eerste demo’s deelden, stelden business leaders al stevige vragen. Wat gebeurt er wanneer deze agents financiële systemen raken, uitgaven goedkeuren of accounts reconciliëren, of wanneer ze falen terwijl ons geld op het spel staat? Het gesprek viel uiteen in twee kampen. De ene kant gefixeerd op hoe snel je een agent kunt bouwen, de andere bezorgd over of je hem kunt vertrouwen zodra hij beslissingen begint te nemen.

AgentKit werd daardoor zowel een mijlpaal als een spiegel. Het liet zien hoe ver de industrie is gekomen, en tegelijk hoe weinig duidelijkheid er nog is rond betrouwbaarheid, governance en accountability.

Slimmer groeien met AI Agents

De nieuwe tweedeling in AI: snelheid versus vertrouwen

AgentKit verdient erkenning voor het toegankelijker maken van het bouwen van agents. Het geeft developers een gedeelde taal voor agent-design: visuele koppelingen, sneller prototypen en een gezamenlijke interface tussen modellen, data en tools. Voor teams die vroege proof-of-concepts willen shippen is het een grote stap vooruit.

Maar die voordelen gelden vooral voordat de eerste echte deployment plaatsvindt.

AgentKit leeft binnen een gesloten stack en leunt op de eigen modellen van OpenAI. De kern is lineair ontworpen: elke stap wacht op de vorige. Dat maakt debuggen eenvoudig tijdens tests, maar het wordt star zodra echte workflows beginnen af te wijken. Het werkt prima voor een productdemo, maar valt vaak uiteen zodra workflows vertakken, overlappen of uit volgorde raken.

Je ziet hetzelfde patroon al in developer-forums. De eerste week is euforie, de tweede frustratie. Zoals een engineer zei: “Je kunt een agent in een dag bouwen, maar je krijgt hem niet draaiende voor een maand.”

Het moeilijke deel is niet het bouwen van de agent. Het moeilijke deel is hem stabiel, zichtbaar en uitlegbaar houden zodra hij live gaat. AgentKit verhoogt de ondergrens van wat iedereen kan bouwen. De bovengrens, agents waar je echt op kunt vertrouwen, blijft voorbehouden aan teams die vanaf dag één voor vertrouwen ontwerpen.

Early adopters en de illusie van snelheid

De afgelopen maanden hebben early adopters van AgentKit laten zien hoe snel teams agents kunnen bouwen en shippen. Hun demo’s gaan breed rond: agents die facturen coderen in enkele uren, procurement-workflows in één sprint, en teams die hun voortgang bijna in realtime documenteren. De snelheid wekt de indruk dat iteratiesnelheid op zichzelf een voordeel is.

Maar snelheid is geen garantie voor veerkracht.

Een “speed moat” hangt af van perfecte omstandigheden. Een stack die nooit uitvalt, een model dat nooit rate-limiting toepast, externe systemen zonder vertraging en beleidsregels die nooit veranderen.

Finance werkt niet zo. Finance beloont consistentie, traceerbaarheid en herstelvermogen wanneer dingen misgaan. Eén modelstoring, een mislukte API-call of een approval flow die uit de pas loopt kan weken van snelle iteratie tenietdoen.

Veel early adopters bouwen in een gesloten ecosysteem voor orchestration. Dat maakt versie één eenvoudiger, maar concentreert ook het risico. Wanneer elke agent leunt op dezelfde routinglogica en dezelfde provider, kan één storing zich razendsnel door het hele systeem verspreiden.

Engineers die deze frameworks testen beschrijven ze hetzelfde: “geweldig voor demo’s, kwetsbaar voor workflows die niet mogen breken.”

In finance heb je niets aan snel lanceren als het daarna uit elkaar valt. Het echte voordeel zit in systemen die blijven werken, ook als het even tegenzit. Snelheid zonder back-ups en controle is geen voordeel, maar een sprint zonder uithoudingsvermogen.

Waarom meer data niet meer intelligentie betekent

In veel delen van de AI-wereld geldt een simpele overtuiging: hoe meer data een systeem ziet, hoe slimmer het wordt. Meer gebruikers, meer interacties, meer trainingsdata. Maar in finance werkt dat niet.

Financiële data laat zich niet zomaar generaliseren. Elke organisatie heeft zijn eigen rekeningschema’s, approvalflows, ERP-inrichting en wettelijk kader. Regels voor uitgaven zijn lokaal, specifiek en vaak juridisch bindend. Wat in het ene bedrijf een goed patroon lijkt, kan in een ander bedrijf een beleidsfout of zelfs een overtreding zijn.

Een AI die “leert” van het ene bedrijf en dat toepast bij een ander, kan in een consumentenapp nog prima werken. In finance is het een risico.

Slimmere finance-AI draait daarom niet om steeds meer data verzamelen. Het draait om context: begrijpen wat het beleid is, welke permissies gelden, welke stappen verplicht zijn en waarom. Een agent moet beslissingen kunnen uitleggen, herleiden en, als het nodig is, terugdraaien.

In finance creëert alleen controle vertrouwen. En vertrouwen is de enige factor die op lange termijn echt groeit.

Autonomie binnen duidelijke beleidsgrenzen

Als AgentKit het makkelijker heeft gemaakt om agents te bouwen, ligt de volgende uitdaging in hun gedrag. De systemen die ertoe doen in finance volgen geen vaste scripts. Ze nemen beslissingen binnen duidelijke grenzen. Ze weten wat ze zelf mogen doen, wat ze moeten bevestigen en wanneer ze moeten stoppen en escaleren.

Dit is autonomie binnen beleid: agents die hun eigen route plannen, maar altijd binnen de regels blijven.

Deze agents kunnen complexe workflows afhandelen zonder dat ze vastlopen in strakke takjes. Ze kunnen van model wisselen als prestaties dalen, ze onthouden de status zodat retries geen dubbel werk veroorzaken, en ze leggen uit waarom ze doen wat ze doen. En als iets buiten hun mandaat valt, escaleren ze met volledige context.

Het is pragmatische autonomie: vrijheid binnen beleid, met controle op elke stap.

Die filosofie zit diep in Payhawk. Lang voordat “agentic AI” synoniem werd voor innovatie, werkten verschillende van onze founders al aan software die informatie dynamisch kon verzamelen, volledigheid kon bevestigen en daarna kon handelen.

Dat werk is beschreven in een patent (Cognitive Flow), toegekend in 2021. Het schetst agents die niet in rechte lijnen bewegen, maar zich aanpassen aan wat ze weten en wat ze nog moeten achterhalen.

Dat vroege werk voorspelde precies het probleem waar de industrie nu mee worstelt. De meeste agents kunnen praten, maar weinig kunnen verantwoordelijk handelen.

Cognitive Flow was een vroege oplossing, een blauwdruk voor adaptief redeneren en gecontroleerde uitvoering. Vandaag vormt diezelfde “verzamelen → bevestigen → acteren”-logica de kern van hoe Payhawk financiële agents bouwt die kunnen werken over kaarten, facturen, procurement, reizen en ERP-systemen zonder de keten van vertrouwen te breken.

Het doel is niet snelheid op zichzelf. Het doel is betrouwbaarheid die groeit naarmate het systeem langer draait.

De trust layer: gedragsbeoordeling

Autonomie werkt pas als je kunt aantonen dat het zich goed gedraagt.

De meeste AI-metrics van vandaag, zoals accuracy, latency en benchmarkscores, meten prestaties in isolatie. Ze zeggen weinig over wat er gebeurt wanneer een workflow halverwege faalt of wanneer omstandigheden veranderen en beleidsgrenzen worden getest.

In finance zijn dat precies de momenten die ertoe doen.

Daarom ontwikkelt Payhawk gedragsbeoordeling als de trust layer voor enterprise agents. In plaats van te testen hoe goed een agent een prompt beantwoordt, meten we hoe goed hij functioneert binnen een gecontroleerd proces.

Het doel is niet intelligentie beoordelen, maar betrouwbaarheid.

Voor een agent geld mag aanraken, moet het vier basisvragen kunnen beantwoorden:

  1. Koos het de juiste tool voor de taak?
  2. Herstelde het van fouten of herhaalde het ze?
  3. Bleef het binnen de beleidsgrenzen?
  4. Wanneer menselijke input nodig was, escaleerde het met voldoende context om het snel op te lossen?

Deze gedragingen bouwen vertrouwen op en bepalen verantwoordelijkheid.

Accuracy publiceren is makkelijk. Gedragsbetrouwbaarheid moet je verdienen. Het is wat een glanzende demo scheidt van een systeem waar een CFO mee kan werken.

Zoals een CFO die vroege agents testte, zei: “Ik vind snelheid niet relevant. Ik wil dat het nooit twee keer iets doet zonder toestemming.”

Gedragsbeoordeling is nog geen product. Het is een standaard die we voorstellen, een werkprincipe voor de volgende fase van finance-automatisering. Zodra je kunt meten hoe een agent zich gedraagt onder druk, kun je eindelijk met vertrouwen resultaten beloven.

De volgende grens: vertrouwen

Elke technologische golf begint met snelheid. De eerste movers rennen om te laten zien wat mogelijk is. Iedereen daarna probeert in te halen. Maar de grens blijft daar nooit lang.

Zodra prototypes infrastructuur worden, verschuift de vraag. Van "hoe snel kunnen we het bouwen" naar "hoe zeker kunnen we zijn dat het werkt".

Dat is waar agentic AI vandaag staat. De industrie heeft het “build”-probleem opgelost. Iedereen kan modellen, data en API’s verbinden tot iets dat slim lijkt.

De echte uitdaging nu, en de uitdaging die de komende jaren zal bepalen, is bewijzen dat deze systemen consistent blijven werken wanneer de inzet hoog is.

Finance is de stresstest voor die shift. Finance vergeeft geen shortcuts en viert geen iteratie om de iteratie. Het beoordeelt technologie zoals auditors een grootboek beoordelen. Op traceerbaarheid, nauwkeurigheid en verantwoordelijkheid onder druk.

Daarom wordt de volgende fase van agentic AI niet bepaald door grotere modellen of snellere canvasses. Het wordt bepaald door vertrouwen, door systemen die autonoom kunnen handelen binnen de grenzen van beleid en bewijs.

De industrie weet al hoe je agents bouwt. De echte vraag nu is hoe je ze kunt vertrouwen. Want uiteindelijk zorgt innovatie voor beweging in markten, maar vertrouwen bouwt ze.

Leer waarom de AI Agents van Payhawk verder gaan dan snelheid en zorgen voor gecontroleerde, betrouwbare automatisering. Ontdek waarom Payhawk’s native AI Agents verder gaan dan snelheid en betrouwbare, gecontroleerde automatisering leveren.

Georgi Ivanov - Senior Communications Manager at Payhawk
Georgi Ivanov
Senior Communications Manager
LinkedIn
Bekijk alle artikelen van Georgi

Georgi Ivanov is een voormalig CFO die nu marketing- en communicatiestrateeg is. Hij leidt de merkstrategie en AI-thought leadership bij Payhawk, waar hij zijn financiële kennis combineert met een vooruitstrevende manier van vertellen.

Bekijk alle artikelen van Georgi

Gerelateerde artikelen