Rapporten laten genereren met AI
Introductie
Tijdens mijn stage bij Sera Business Design heb ik gewerkt aan het ontwerpen van een AI-functionaliteit waarmee gebruikers zelfstandig rapporten kunnen genereren binnen Dataduiker. In de bestaande situatie werden rapporten vaak handmatig opgesteld door medewerkers van Sera, wat tijd kostte en zorgde voor een sterke afhankelijkheid van support. Het doel van dit project was om gebruikers meer zelfstandigheid te geven door middel van AI, zonder dat dit ten koste gaat van controle of betrouwbaarheid.
Binnen dit project lag de focus niet op de technische werking van AI, maar op het ontwerpen van een interface die gebruikers ondersteunt bij het formuleren van de juiste vraag. Door gebruikers te begeleiden in dit proces, kan AI worden ingezet als hulpmiddel in plaats van een black box. De aanleiding, doelstellingen en scope van dit project zijn vastgelegd in het plan van aanpak (Zie bijlage 1, Plan van aanpak, Pagina 1–4).
Context en probleem
Binnen Dataduiker is veel data beschikbaar over zwembaden, lessen en cursisten. Hoewel deze data waardevol is, blijkt het voor gebruikers lastig om hier zelfstandig bruikbare rapporten uit te halen. In de huidige situatie nemen klanten daarom regelmatig contact op met Sera om rapporten te laten samenstellen, wat zorgt voor extra werkdruk en vertraging in het proces (Zie bijlage 2, Onderzoeksrapportage, Pagina 1–3).
Uit deskresearch en analyse blijkt daarnaast dat het gebruik van AI sterk afhankelijk is van de kwaliteit van de input. Veel gebruikers hebben moeite met het schrijven van goede prompts: zij weten niet welke informatie zij moeten specificeren, hoe gedetailleerd hun vraag moet zijn of hoe zij de gewenste output moeten beschrijven. Dit leidt tot onduidelijke of onbetrouwbare resultaten, waardoor het vertrouwen in AI-gegenereerde rapporten afneemt (Zie bijlage 2, Onderzoeksrapportage, Pagina 4–7).
Een ander belangrijk probleem is het gebrek aan controle en transparantie. Gebruikers geven aan dat zij AI-output sneller vertrouwen wanneer zij zelf invloed hebben op de structuur van het rapport en begrijpen waar de data vandaan komt. Zonder duidelijke begeleiding voelt een AI-interface al snel overweldigend of onbetrouwbaar. Op basis van het onderzoek zijn daarom ontwerprichtlijnen opgesteld waarin begeleiding, voorspelbaarheid en controle centraal staan (Zie bijlage 2, Onderzoeksrapportage, Pagina 12–14).
Het kernprobleem binnen dit project is daarmee niet alleen hoe AI rapporten kan genereren, maar vooral hoe gebruikers op een toegankelijke en betrouwbare manier worden geholpen bij het stellen van de juiste vraag.
Het doel
Het doel van dit project was om een AI-functionaliteit te ontwerpen waarmee gebruikers zelfstandig rapporten kunnen genereren binnen Dataduiker, zonder afhankelijk te zijn van ondersteuning vanuit Sera. Daarbij lag de focus niet op het maximaliseren van AI-mogelijkheden, maar op het ondersteunen van gebruikers bij het stellen van de juiste vraag (Zie bijlage 1, Plan van aanpak, Pagina 3–4).
Uit het onderzoek bleek dat de kwaliteit van AI-gegenereerde rapporten sterk afhankelijk is van de kwaliteit van de input. Onduidelijke of onvolledige input leidt direct tot onbruikbare output, ook wel aangeduid als het principe garbage in, garbage out. Veel gebruikers hebben moeite met het formuleren van hun vraag en weten niet welke informatie zij moeten specificeren, waardoor AI-output snel onbetrouwbaar aanvoelt (Zie bijlage 2, Onderzoeksrapportage, Pagina 4–7).
Een belangrijke doelstelling binnen dit project was daarom het begeleiden van gebruikers bij het invoeren van hun input. De interface moest gebruikers helpen om gestructureerd en doelgericht informatie aan te leveren, zodat de kans op onbruikbare AI-output wordt verkleind. Op deze manier fungeert AI als hulpmiddel dat gebruikers ondersteunt, in plaats van een systeem dat afhankelijk is van technische kennis.
Daarnaast was het een expliciete doelstelling om gebruikers het gevoel van controle te laten behouden. Gebruikers moeten begrijpen welke keuzes zij maken en wat de invloed daarvan is op het gegenereerde rapport. Door vooraf duidelijk te maken hoe de input wordt gebruikt en welke structuur het rapport krijgt, wordt het proces voorspelbaar en betrouwbaar (Zie bijlage 2, Onderzoeksrapportage, Pagina 12–14).
Op basis van deze doelstellingen zijn ontwerpcriteria opgesteld die richting gaven aan het verdere ontwerp. De interface moet begeleiding bieden bij het formuleren van input, inzicht geven in de opbouw van het rapport en aansluiten op bestaande workflows binnen Dataduiker. Daarnaast moest de oplossing technisch haalbaar blijven binnen de scope van het project (Zie bijlage 1, Plan van aanpak, Pagina 5-7).
Deze doelstellingen en ontwerpcriteria vormden het kader voor alle verdere ontwerpkeuzes binnen dit project en zorgden ervoor dat de focus bleef liggen op gebruiksvriendelijkheid, betrouwbaarheid en praktische toepasbaarheid.
Onderzoek & Analyse
Om het probleem rondom AI-gegenereerde rapporten goed te begrijpen, is er binnen dit project zowel deskresearch als analyse van gebruikersbehoeften uitgevoerd. Het doel van dit onderzoek was om inzicht te krijgen in waarom gebruikers moeite hebben met het zelfstandig genereren van rapporten en welke rol AI hierin op een verantwoorde manier kan spelen (Zie bijlage 2, Onderzoeksrapportage, Pagina 1–3).
Uit deskresearch bleek dat de kwaliteit van AI-output sterk afhankelijk is van de kwaliteit van de input. Wanneer gebruikers hun vraag vaag of onvolledig formuleren, leidt dit vrijwel altijd tot onbruikbare of onbetrouwbare resultaten. Dit principe, ook wel bekend als garbage in, garbage out, bleek een belangrijke oorzaak van het lage vertrouwen in AI-gegenereerde rapporten (Zie bijlage 2, Onderzoeksrapportage, Pagina 4–7). Veel gebruikers beschikken niet over de kennis of ervaring om effectieve prompts te schrijven, waardoor AI zonder begeleiding onvoldoende toegevoegde waarde biedt.
Naast deskresearch is gekeken naar de context waarin gebruikers werken met data binnen Dataduiker. Gebruikers hebben vaak een concrete informatiebehoefte, maar weten niet hoe zij deze moeten vertalen naar een goede AI-vraag. Daarbij bleek dat gebruikers behoefte hebben aan structuur en voorspelbaarheid. Zij willen vooraf begrijpen welke data wordt gebruikt en hoe het rapport wordt opgebouwd, voordat de AI daadwerkelijk iets genereert (Zie bijlage 2, Onderzoeksrapportage, Pagina 8–11).
Uit de analyse kwam naar voren dat vertrouwen een cruciale factor is bij het gebruik van AI. Gebruikers ervaren AI als betrouwbaarder wanneer zij zelf invloed hebben op het proces en wanneer de stappen duidelijk en navolgbaar zijn. Zonder deze transparantie voelt AI al snel als onvoorspelbaar en oncontroleerbaar. Op basis van deze inzichten zijn ontwerprichtlijnen geformuleerd waarin begeleiding, controle en duidelijkheid centraal staan (Zie bijlage 2, Onderzoeksrapportage, Pagina 12–14).
Deze onderzoeksinzichten vormden de basis voor de verdere ontwerpkeuzes binnen dit project. Door het probleem niet te benaderen vanuit technologie, maar vanuit gebruikersbehoeften, kon een oplossing worden ontwikkeld die AI inzet als ondersteunend hulpmiddel in plaats van als zelfstandige beslisser.
Onderzoek & Analyse
Om het probleem rondom AI-gegenereerde rapporten goed te begrijpen, is binnen dit project zowel deskresearch als analyse van gebruikersbehoeften uitgevoerd. Het doel van dit onderzoek was om inzicht te krijgen in waarom gebruikers moeite hebben met het zelfstandig genereren van rapporten en hoe bestaande AI-oplossingen dit probleem momenteel proberen op te lossen (Zie bijlage 2, Onderzoeksrapportage, Pagina 1–3).
Een belangrijk onderdeel van het onderzoek was het analyseren van bestaande AI-software en AI-interfaces. Hierbij is gekeken naar hoe andere tools omgaan met het formuleren van input, het genereren van output en het bieden van begeleiding aan gebruikers. Uit deze analyse bleek dat veel AI-oplossingen sterk leunen op vrije tekstinvoer, waarbij van gebruikers wordt verwacht dat zij zelf een goede prompt schrijven. Voor ervaren gebruikers kan dit werken, maar voor de meeste gebruikers vormt dit juist een drempel (Zie bijlage 2, Onderzoeksrapportage, Pagina 4–7).
Deze manier van werken versterkt het probleem van garbage in, garbage out: wanneer gebruikers niet precies weten welke informatie zij moeten invoeren, leidt dit tot onbruikbare of onbetrouwbare output. In meerdere bestaande AI-tools ontbreekt duidelijke begeleiding, waardoor gebruikers onzeker worden over hun input en minder vertrouwen hebben in het resultaat.
Daarnaast is gekeken naar AI-software die werkt met meer gestructureerde invoer, zoals vaste stappen, keuzemogelijkheden of vooraf gedefinieerde parameters. Deze oplossingen bleken gebruikers meer houvast te geven en het vertrouwen in de gegenereerde output te vergroten. Tegelijkertijd bleek dat te veel complexiteit of technische terminologie juist weer kan zorgen voor verwarring (Zie bijlage 2, Onderzoeksrapportage, Pagina 8–11).
Naast de analyse van bestaande AI-software is onderzoek gedaan naar de specifieke context van Dataduiker. Gebruikers werken hier met concrete datasets en hebben vaak een gerichte informatiebehoefte, maar missen de kennis om deze om te zetten in een goede AI-vraag. Uit de analyse bleek dat gebruikers behoefte hebben aan een balans tussen vrijheid en begeleiding: voldoende structuur om fouten te voorkomen, maar genoeg flexibiliteit om eigen vragen te kunnen stellen (Zie bijlage 2, Onderzoeksrapportage, Pagina 12–14).
Deze onderzoeksinzichten vormden de basis voor de verdere ontwerpkeuzes binnen dit project. Door zowel gebruikersbehoeften als bestaande AI-oplossingen te analyseren, kon een ontwerpstrategie worden ontwikkeld die inspeelt op de beperkingen van huidige AI-interfaces en AI inzet als ondersteunend hulpmiddel in plaats van een losse prompt-input.
Ontwerpstrategie
Op basis van de onderzoeksinzichten is een duidelijke ontwerpstrategie opgesteld voor de AI-rapportenfunctionaliteit. Het centrale uitgangspunt binnen deze strategie was het verminderen van het risico op garbage in, garbage out door gebruikers actief te begeleiden bij het formuleren van hun input. In plaats van gebruikers zelf een vrije prompt te laten schrijven, moest de interface structuur en houvast bieden (Zie bijlage 2, Onderzoeksrapportage, Pagina 12–14).
Een belangrijke strategische keuze was het ontwerpen van een stapsgewijze flow, waarin gebruikers stap voor stap worden meegenomen bij het samenstellen van hun rapport. Door complexe keuzes op te splitsen in kleinere beslissingen, wordt de cognitieve belasting verlaagd en wordt het voor gebruikers duidelijker welke informatie nodig is. Deze aanpak sluit aan bij inzichten uit de analyse van bestaande AI-software, waaruit bleek dat volledig vrije invoer vaak leidt tot onduidelijke of onbetrouwbare output (Zie bijlage 2, Onderzoeksrapportage, Pagina 4–7).
Daarnaast is binnen de ontwerpstrategie bewust gekozen voor transparantie en voorspelbaarheid. Gebruikers moeten vooraf kunnen begrijpen welke data wordt gebruikt en hoe het rapport wordt opgebouwd. Door inzicht te geven in de structuur van het rapport voordat het wordt gegenereerd, blijft de gebruiker in controle en voelt de AI niet als een ondoorzichtige oplossing. Deze keuze is direct gebaseerd op de behoefte aan vertrouwen en controle die uit het onderzoek naar voren kwam (Zie bijlage 2, Onderzoeksrapportage, Pagina 8–11).
Tot slot is er binnen de ontwerpstrategie rekening gehouden met technische haalbaarheid en aansluiting op bestaande workflows binnen Dataduiker. De AI-functionaliteit moest geen losstaande tool worden, maar een logisch onderdeel van de bestaande rapportagefunctionaliteit. Door dit vanaf het begin mee te nemen in de strategie, konden ontwerpkeuzes worden gemaakt die realistisch en schaalbaar zijn binnen de scope van het project (Zie bijlage 1, Plan van aanpak, Pagina 5–7).
Deze ontwerpstrategie vormde het kader voor de verdere uitwerking en iteraties van de AI-rapportenfunctionaliteit en zorgde ervoor dat alle ontwerpkeuzes consistent waren met de onderzoeksinzichten en projectdoelstellingen.
Ontwerp en Iteraties
De opdracht binnen dit project was om gebruikers in staat te stellen zelfstandig rapporten te genereren met behulp van AI. Op basis van de onderzoeksinzichten is gekozen voor een oplossing waarbij gebruikers starten met het invoeren van een eigen beginprompt, waarna de AI via een wizard gerichte vervolgvragen stelt om de vraag verder te verduidelijken en te specificeren. Deze aanpak combineert vrijheid voor de gebruiker met begeleiding vanuit het systeem.
In de eerste iteratie is een low-fidelity wireframe opgesteld waarin de volledige gebruikersflow is uitgewerkt. Deze flow beschrijft hoe gebruikers starten met een beginprompt en vervolgens stap voor stap door de wizard worden geleid tot het genereren van een rapport (zie Figuur 1, de flow van het rapporten genereren). De wireframe diende als basis om de logica en volgorde van stappen te bepalen, zonder afleiding van visuele details.
Na het vaststellen van de flow is het ontwerp verder uitgewerkt naar een hogere mate van detail. In deze iteratie is de flow vertaald naar een visueel ontwerp in Figma, waarbij de structuur van de wireframe is behouden (zie Figuur 2 en Figuur 3, wireframes omgezet naar Figma design). In deze uitwerking is aandacht besteed aan visuele hiërarchie, leesbaarheid en het duidelijk presenteren van vervolgvragen binnen de wizard.
Tijdens deze iteratie is daarnaast gewerkt aan het inzichtelijk maken van de relatie tussen de beginprompt en de vervolgvragen. De oorspronkelijke prompt bleef zichtbaar binnen de flow, zodat gebruikers konden volgen hoe hun input werd aangescherpt. Ook is een rapportagesamenvatting toegevoegd waarin vooraf wordt getoond welke input en data worden gebruikt (zie Figuur 4). Dit draagt bij aan transparantie en verifieerbaarheid van de AI-output.
Door het ontwerp iteratief te ontwikkelen van wireframe naar visuele uitwerking kon de gekozen oplossing verder worden aangescherpt, terwijl de kern van de flow intact bleef. Deze aanpak maakte het mogelijk om het ontwerp vervolgens realistisch te valideren met gebruikers.

Figuur 1, de flow van het rapporten genereren


Figuur 4, wireframes omgezet naar Figma design


Figuur 3, wireframes omgezet naar Figma design

Figuur 5, wireframes omgezet naar Figma design
Validatie en Feedback
Om te toetsen of het ontwerp van de AI-rapportenfunctionaliteit aansloot bij de verwachtingen en werkwijze van gebruikers, is de flow getest met gebruikers. Omdat de AI-functionaliteit op dat moment nog niet technisch was geïmplementeerd, is gekozen voor een gesimuleerde testopzet. De werking van de AI werd hierbij handmatig nagebootst, zodat gebruikers de volledige flow konden doorlopen alsof deze functioneel was (Zie bijlage 2, Onderzoeksrapportage, Pagina 15–17).
Tijdens de tests startten gebruikers met het invoeren van een beginprompt, waarna zij via de wizard vervolgvragen beantwoordden om hun rapport verder te specificeren. De AI-output werd tijdens de test handmatig gegenereerd en ingevoerd in het Figma-prototype. Deze aanpak maakte het mogelijk om de gebruikservaring en begrijpelijkheid van de flow te testen, maar bracht ook beperkingen met zich mee. Het begeleiden van de gebruiker, het verwerken van AI-output en het vastleggen van observaties vonden gelijktijdig plaats, waardoor de testopzet minder vloeiend verliep (Zie bijlage 2, Onderzoeksrapportage, Pagina 16).
Ondanks deze beperkingen verliepen de gebruikerstests positief. Gebruikers gaven aan dat de flow intuïtief en gemakkelijk te volgen was. Met name de combinatie van een vrije beginprompt en een wizard met gerichte vervolgvragen werd als logisch ervaren. Deze aanpak hielp gebruikers om hun vraag stap voor stap te verduidelijken, zonder dat zij zelf een complexe prompt hoefden te formuleren (Zie bijlage 2, Onderzoeksrapportage, Pagina 17–18).
Daarnaast werd de rapportagesamenvatting aan het einde van de wizard positief ontvangen. Gebruikers gaven aan dat dit overzicht hielp om te controleren welke input was gebruikt en welke data onderdeel zou zijn van het rapport. Deze stap droeg bij aan het vertrouwen in de AI-output en maakte het resultaat beter verifieerbaar (Zie bijlage 2, Onderzoeksrapportage, Pagina 18).
Tijdens de tests kwamen ook duidelijke verbeterpunten naar voren. Gebruikers gaven aan dat het onduidelijk was waar AI-gegenereerde rapporten na afloop zouden worden opgeslagen en hoe deze later konden worden teruggevonden. Daarnaast bleek dat gebruikers behoefte hebben aan een efficiëntere manier om rapporten te hergebruiken, met name wanneer rapporten periodiek worden gegenereerd. Deze inzichten vormden belangrijke input voor verdere doorontwikkeling van het ontwerp (Zie bijlage 2, Onderzoeksrapportage, Pagina 18–19).
Resultaat en Impact
Op basis van de gebruikerstests zijn verschillende aanpassingen doorgevoerd in het ontwerp van de AI-rapportenfunctionaliteit. Tijdens het testen werd duidelijk waar gebruikers vastliepen of twijfelden, en deze inzichten zijn direct vertaald naar verbeteringen in de flow en structuur van het ontwerp (Zie bijlage 2, Onderzoeksrapportage, Pagina 18–19).
Een van de belangrijkste inzichten was dat het voor gebruikers onduidelijk was waar AI-gegenereerde rapporten na afloop werden opgeslagen. In de eerste versie was het genereren van een AI-rapport losstaand van de bestaande rapportagefunctionaliteit. Om de rapporten een vaste en logische plek te geven zijn AI-rapporten geïntegreerd in de bestaande EREPORTS-module. Bij het aanmaken van een nieuw rapport kunnen gebruikers nu kiezen of zij een rapport willen maken via de bestaande databronnen of via de AI-functionaliteit (zie Figuur 6, Rapport genereren met gegevensbron of AI).
Na het genereren wordt het AI-rapport opgeslagen tussen de overige rapporten binnen EREPORTS (zie Figuur 7, Overzicht EREPORTS module met AI rapporten geïntegreerd). Hierdoor kunnen gebruikers hun rapporten eenvoudig terugvinden en delen met collega’s, zonder dat zij hoeven te onthouden hoe het rapport is aangemaakt.
Daarnaast kwam uit de tests naar voren dat gebruikers behoefte hebben aan hergebruik. Met name bij rapporten die periodiek worden gemaakt, zoals wekelijkse overzichten, bleek het opnieuw formuleren van dezelfde prompt omslachtig. Op basis van deze feedback is een hergebruikfunctie ontworpen waarmee bestaande AI-rapporten opnieuw kunnen worden gebruikt (zie Figuur 8, Overzicht rapporten met hergebruik prompt knop). Dit maakt het proces sneller en verlaagt de drempel om AI-rapporten vaker in te zetten (Zie bijlage 3, Onderzoeksrapportage, Pagina 18).
Ook de controle over het eindresultaat is verder aangescherpt. Aan het einde van de wizard krijgt de gebruiker nu een duidelijke samenvatting te zien van alle input en keuzes die zijn gemaakt. In deze stap kan de gebruiker controleren of het rapport aansluit bij de oorspronkelijke vraag, voordat het rapport definitief wordt gegenereerd (zie Figuur 9, AI chatbot geeft overzicht voordat hij rapport genereert). Deze extra controle stap werd tijdens de tests als prettig ervaren en draagt bij aan meer vertrouwen in de AI-output (Zie bijlage 3, Onderzoeksrapportage, Pagina 17–18).
Op basis van deze aanpassingen is een nieuwe wireframe opgesteld waarin de aangepaste flow van het genereren en opslaan van AI-rapporten is uitgewerkt (zie Figuur 10, Aangepast flow uitgetekend). Deze wireframe laat zien hoe de AI-functionaliteit nu logisch is ingebed in het bestaande rapportageproces en vormt de basis voor verdere visuele uitwerking.
De doorgevoerde verbeteringen zorgen ervoor dat de AI-rapportenfunctionaliteit minder aanvoelt als een los experiment en meer als een volwaardig onderdeel van Dataduiker. Gebruikers behouden overzicht, kunnen rapporten hergebruiken en krijgen meer controle over het eindresultaat, waardoor AI concreter en praktischer wordt ingezet in hun dagelijkse werk.



Figuur 7, Overzicht EREPORTS module met AI rapporten geïntegreerd
Figuur 6, Rapport genereren met gegevensbron of AI

Figuur 8, Overzicht rapporten met hergebruik prompt knop

Figuur 9, AI chatbot geeft overzicht voordat hij rapport genereert

Figuur 10, Aangepast flow uitgetekend
Reflectie
Terugkijkend op dit project heb ik veel geleerd over het ontwerpen van AI-functionaliteit binnen een bestaande applicatie. In het begin was de opdracht breed geformuleerd: gebruikers rapporten laten genereren met AI. Dat gaf ruimte, maar vroeg ook om scherpe keuzes. Door eerst onderzoek te doen naar gebruikers en bestaande AI-oplossingen, werd duidelijk dat de grootste uitdaging niet in de AI zelf zat, maar in hoe gebruikers hun vraag formuleren en vertrouwen krijgen in het resultaat.
Een belangrijk leerpunt voor mij was het belang van begeleiding zonder controle over te nemen. In mijn ontwerp heb ik ervoor gekozen om gebruikers zelf een beginprompt te laten schrijven, maar hen daarna via een wizard te ondersteunen bij het verduidelijken van hun vraag. Deze balans tussen vrijheid en structuur bleek goed te werken tijdens de tests en sluit aan bij hoe gebruikers al gewend zijn om met AI te werken. Tegelijkertijd leerde ik dat kleine ontwerpkeuzes, zoals een samenvattingsstap of hergebruikfunctie, een grote impact kunnen hebben op vertrouwen en efficiëntie.
De gebruikerstests waren voor mij extra leerzaam, omdat ik werkte met een gesimuleerde AI-opzet. Het testen op deze manier was soms omslachtig, maar het dwong me om scherp te observeren waar gebruikers vastliepen en welke onderdelen juist goed werkten. Een inzicht dat mij verraste, was de sterke behoefte aan herhaalbaarheid. De wens om rapporten periodiek opnieuw te kunnen genereren had ik vooraf onderschat, maar bleek voor gebruikers essentieel.
Daarnaast heb ik geleerd hoe belangrijk het is om nieuwe functionaliteit goed te laten aansluiten op bestaande workflows. Door AI-rapporten te integreren in de bestaande EREPORTS-module voelt de oplossing minder als een los experiment en meer als een logisch onderdeel van het systeem. Dit heeft mijn kijk op ontwerpen binnen bestaande software verder aangescherpt.
Als ik dit project opnieuw zou doen, zou ik eerder testen en mogelijk meerdere varianten van de flow verkennen voordat ik deze valideer. Tegelijkertijd ben ik tevreden over hoe ik van onderzoek naar ontwerp en iteratie ben gegaan, en hoe feedback direct heeft geleid tot concrete verbeteringen. Dit project heeft mij laten zien dat het ontwerpen van AI vooral draait om duidelijkheid, vertrouwen en praktische toepasbaarheid voor de gebruiker.
Bijlagen
Bijlage 1, Plan van aanpak
Bijlage 2, Onderzoeksrapportage