Dashboards die zeggen wat je nog niet wist
Databronnen koppelen, dashboards op maat en AI-analyses bovenop je eigen data. Voor MKB en scale-ups die meer uit hun cijfers willen halen dan een Excel-export per maand.
De meeste bedrijven hebben geen datatekort, ze hebben een datachaos. Klantgegevens in het CRM, omzet in de boekhouding, advertentie-data bij Meta en Google, voorraad in het ERP, supporttickets in een aparte tool, en de export van vorige week in een Excel op iemands bureaublad. Iedere maand wordt er met de hand een rapportje gemaakt waar niemand echt op vertrouwt. Beslissingen worden genomen op gevoel, omdat de cijfers te veel werk zijn om los te trekken. Dat kan beter, en het hoeft niet duur of ingewikkeld te zijn.
Wij koppelen je databronnen, ruimen op wat opgeruimd moet worden, en bouwen dashboards die elke ochtend kloppen zonder dat iemand iets moet exporteren. Daarbovenop zetten we AI-analyses waar dat zinvol is: anomalie-detectie op transacties, klantsegmentatie op gedrag, voorspellingen op cashflow of voorraad, AI-samenvattingen die elke maandag in je inbox staan met "wat is er deze week veranderd, en waarom". AI bovenop data is alleen waardevol als de data goed is, dus we zijn eerlijk over het opruimwerk dat soms eerst moet.
De technische stack is bewust open en niet-exotisch. BigQuery, Postgres of DuckDB als warehouse, dbt voor de modellering, Fivetran of Airbyte voor connectoren naar je bestaande tools, en Looker Studio, Metabase of Hex voor dashboards. Voor AI-analyses gebruiken we Claude of GPT via API, met een natural-language interface zodat collega's zonder SQL-kennis ook vragen aan de data kunnen stellen. Code en dashboards staan in jouw repository, niet bij ons. Geen vendor-lock-in, geen black box, en zelf onderhouden kan altijd.
We werken voor MKB en scale-ups in heel Nederland: e-commerce die wil weten welke advertentie-euro's renderen, productiebedrijven met voorraad-vraagstukken, dienstverleners die klantverloop willen voorspellen, accountants die rapportages voor hun klanten willen automatiseren. AVG-conform werken zit standaard in onze aanpak: pseudonimiseren waar het kan, geen klantdata naar externe AI zonder DPA, en een verwerkingsregister dat je bij een audit kunt laten zien. Beginnen kan klein, met één dashboard op één bron, en uitgroeien naar een volledige data-laag als het waarde oplevert.
Wat krijg je
Databronnen koppelen
Je data zit verspreid: CRM, ERP, boekhouding (Twinfield, Exact, AFAS), advertentieplatformen, eigen databases, marketing-tools. Elke bron heeft een eigen export, eigen formaat, eigen updatemoment. Samenvoegen lukt nu alleen handmatig.
We koppelen je bronnen via Fivetran, Airbyte of custom connectoren naar één warehouse (BigQuery, Postgres of DuckDB). Daily of hourly refresh, audit-trail per bron, en gestructureerd zodat je marketing-data en sales-data eindelijk in dezelfde rij naast elkaar staan. Voor accountants met boekhoud-data zie ook /ai-accountants.
Custom dashboards op maat
Standaard-dashboards van leveranciers laten zien wat zij denken dat belangrijk is, niet wat jij wil weten. Excel-exports zijn elke maand handwerk en raken zo verouderd. Je hebt iets nodig dat past bij hoe jullie sturen.
Dashboards in Looker Studio, Metabase, Hex of jouw bestaande BI-tool (Power BI, Tableau). Eigen metrics, eigen segmentatie, eigen drill-down. Cross-systeem-rapportages waar marketing-uitgaven en sales-CRM samen zichtbaar zijn. Geen one-size-fits-all sjabloon. Voor e-commerce performance & klantgedrag zie /ai-e-commerce.
AI-analyses & voorspellingen
Een dashboard laat zien wat er gebeurd is. Maar je wil weten wat er gaat gebeuren, en welke uitschieters je niet zelf zou opmerken. Anomalie-detectie, klantsegmentatie, voorspelling van cashflow en voorraad, sentiment-analyse op reviews.
AI-laag bovenop je schone data. Cashflow-voorspelling op basis van facturatie- en betaalgedrag. Klantsegmentatie via clustering op gedrag, niet alleen demografie. Anomalie-detectie die elke nacht draait en je waarschuwt bij afwijkingen. Sentiment op supporttickets en reviews. Met back-tests zodat je weet hoe goed het werkt.
Geautomatiseerde rapportages
Iemand bouwt elke maandag of elke maand met de hand een rapport. Dat kost uren, het is foutgevoelig, en het hangt aan één persoon. Als die persoon ziek is of vertrekt, ben je het kwijt.
Wekelijkse of maandelijkse rapportages die automatisch in je inbox of in Slack landen. Inclusief AI-gegenereerde executive samenvatting: "wat is er deze week veranderd, en waarom". Per ontvanger gefilterd, zodat verkoop andere cijfers ziet dan finance. Klaar om door te sturen, zonder dat iemand er nog naar hoeft te kijken.
Data-quality audits & cleanup
Voordat je iets bouwt op je data wil je weten of die data klopt. Dubbelingen, lege velden, foute formats, achterhaalde categorieën, definities die door de jaren heen verschoven zijn. Een dashboard op vieze data is erger dan geen dashboard.
Data-quality audit per bron: welke velden zijn betrouwbaar, waar zit de ruis, welke definities moeten we vastpinnen. Dimensional modeling met dbt zodat de logica eenmalig staat. Geautomatiseerde dbt-tests die op elke refresh checken of de data aan de regels voldoet. Eerst kijken welke data je hebt en mag gebruiken? AI Quickscan op /ai-strategie. Voor onderwijs (leerresultaten / schooldata) zie /ai-onderwijs, voor marktanalyse in vastgoed /ai-makelaars.
Wat je eraan hebt
- Eén warehouse waar al je bronnen samenkomen, dagelijks ververst
- Dashboards die elke ochtend kloppen zonder handmatige export
- AI-analyses bovenop je eigen data: voorspelling, segmentatie, anomalie-detectie
- Geautomatiseerde rapportages naar e-mail of Slack, met AI-samenvatting
- Data-quality tests die afwijkingen vangen voordat jij ze in een grafiek ziet
- Open stack zonder vendor-lock-in, code en dashboards in jouw repository
- Werkt naast je bestaande BI (Power BI, Tableau) of vervangt die volledig
- AVG-conform: pseudonimisatie, retentie, DPA, verwerkingsregister bijwerkt
- Cross-systeem-inzicht: marketing-uitgaven en sales-omzet in één rapport
- Zelf overdraagbaar als je later een eigen data-collega aanneemt
Veelgestelde vragen
Onze data is een rommeltje. Kunnen jullie dat eerst opruimen?
Ja, en vaak is dat ook waar we beginnen. Een dashboard op vieze data geeft mooie grafieken die niets zeggen, of erger: cijfers die elkaar tegenspreken. We doen eerst een data-quality audit: welke bronnen heb je, welke velden zijn betrouwbaar, waar zitten dubbelingen, lege records, foute formats, achterhaalde definities. Daarna richten we een lichte modelleerlaag in (vaak met dbt) waar de logica eenmalig staat: wat is een actieve klant, hoe tellen we omzet, wat hoort bij welke campagne. Pas op die schone laag bouwen we dashboards en AI-analyses. Dat klinkt als omweg maar is goedkoper dan twee keer iets bouwen op data waar je niet op kunt vertrouwen. We zijn eerlijk: soms is dit voorwerk groter dan het dashboard zelf, en daar zeggen we dat ook van.
Welke tools gebruiken jullie en zit er vendor-lock-in?
We werken met BigQuery, Postgres of DuckDB als warehouse, dbt voor de modellering, Fivetran of Airbyte voor connectoren (of custom scripts als dat goedkoper is), en Looker Studio, Metabase of Hex voor dashboards. Voor AI-analyses gebruiken we Claude of GPT via API. Dit is bewust een open stack: je SQL-modellen draaien op elke warehouse, dbt is open source, je dashboards kunnen we wegzetten in een tool die jij zelf kunt beheren. We leveren altijd documentatie en code in jouw repository, niet in een platform waar je vast zit. Als je later van leverancier wisselt, of het zelf wil overnemen, kan dat. Geen black box.
Hoe zit het met AVG voor klantgedrag-analyse?
Klantsegmentatie en gedragsanalyse vallen onder de AVG zodra je persoonsgegevens verwerkt, ook als het alleen e-mail of klant-ID is. Belangrijk: een grondslag moet helder zijn. Voor analyses op je eigen klantdata is dat meestal gerechtvaardigd belang of uitvoering van overeenkomst, mits je het kunt onderbouwen en de impact op de klant beperkt is. We helpen die afweging maken en documenteren. Voor zwaardere profilering met geautomatiseerde besluitvorming gelden strengere regels (artikel 22 AVG). Praktische maatregelen die we standaard inrichten: pseudonimiseren waar het kan, retentietermijnen op datasets, geen klantdata naar externe AI-leveranciers zonder DPA, en een verwerkingsregister-update zodat je het kunt verantwoorden bij een audit. Voor twijfelgevallen: de AI Quickscan kijkt eerst welke data je mag gebruiken op /ai-strategie.
Kunnen we dashboards zelf onderhouden of zijn we afhankelijk?
Zelf onderhouden is het uitgangspunt. We bouwen dashboards in tools die je zonder ons kunt openen, aanpassen en delen, zoals Looker Studio (gratis, Google-account) of Metabase (open source, eigen server). De SQL-modellen daaronder staan in dbt en zijn versiebeheerd in jouw GitHub of GitLab, dus iedere collega met SQL-kennis kan ze lezen en wijzigen. We schrijven uitleg bij elke metric: wat telt mee, wat niet, en waarom. Als je een interne data-collega hebt of inhuurt, kan die het overnemen. We blijven graag betrokken voor de zware AI-analyses en nieuwe bronnen, maar dat is een keuze, geen verplichting.
Wat is het verschil tussen een data warehouse en een data lake?
Een data warehouse is een gestructureerde opslag voor schone, gemodelleerde data — typisch SQL-tabellen waar dashboards en rapportages op draaien. Voorbeelden: BigQuery, Snowflake, Postgres, DuckDB. Een data lake is een rauwere opslag, vaak in een goedkoop bestandssysteem (S3, GCS), waar data in zijn oorspronkelijke vorm landt voordat hij gemodelleerd wordt. Voor de meeste MKB-bedrijven is een data warehouse genoeg. Een data lake (of "datalake") wordt pas zinvol bij hoge volumes ongestructureerde data — bijvoorbeeld logbestanden, afbeeldingen, of sensordata waar je later iets mee wil. We adviseren bijna altijd te beginnen bij een eenvoudig warehouse (BigQuery is goedkoop tot je er niet meer onder uit komt) en pas uit te bouwen naar een lake-architectuur als de use cases dat rechtvaardigen. Dataverwerking en data-quality is overal hetzelfde principe: schoon model, herleidbare definities, geteste pipelines.
Werkt dit ook met onze bestaande BI (Power BI, Tableau)?
Ja. We werken vaak met Looker Studio, Metabase of Hex omdat dat sneller en goedkoper is voor het MKB, maar als jullie al fors investeren in Power BI of Tableau dan bouwen we daar gewoon op verder. De warehouse en de dbt-modellen werken hetzelfde, alleen de visualisatie-laag verschilt. Wat we vaak zien: het dashboard-werk in Power BI is prima, maar de data eronder is een wirwar van Excel-exports en handmatige stappen. Daar zit de winst, niet in de visualisatie. We pakken dan de pipeline aan en houden Power BI als presentatie-laag. Hetzelfde geldt voor Tableau, Qlik, of Pyramid.
Kunnen jullie AI-analyses bovenop bestaande data zetten?
Ja, en dat is vaak waar de meeste waarde zit. Als je data al schoon staat in een warehouse, dan kunnen we daar bovenop bouwen: anomalie-detectie (welke transacties wijken af van het patroon), klantsegmentatie op gedrag (clustering met machine learning), voorspellingen (cashflow, voorraad, klantverloop), sentiment-analyse op reviews of supporttickets, en natural-language interfaces ("vraag aan je data hoeveel orders we vorige maand hadden uit Brabant"). We sluiten aan op je bestaande tabellen, voegen geen nieuwe systemen toe als het niet hoeft, en leveren de output terug in dashboards die je al kent of in geautomatiseerde rapportages naar e-mail of Slack.
Hoe weten we of de inzichten kloppen?
Drie checks die we standaard inbouwen. Een: elk getal in een dashboard heeft een definitie en een herleidbare query. Je kunt altijd doorklikken naar de onderliggende rijen om te kijken of het klopt. Twee: dbt heeft tests (uniqueness, niet-null, referentiele integriteit, business-rules) die op elke run draaien. Als de data afwijkt krijgen we een alert voor jij het in het dashboard ziet. Drie: voor AI-analyses (voorspellingen, segmentaties) doen we een back-test op historische data en laten zien hoe goed de output overeenkomt met wat er werkelijk gebeurde. Geen blind vertrouwen op een model. Als de back-test slecht is, dan zeggen we dat ook. Een goed dashboard zegt wat je niet wist, maar het moet wel kloppen.
Laten we kennismaken.
Benieuwd wat AI voor jou kan doen? Stuur een bericht of plan direct een gesprek in. We reageren altijd binnen 1 werkdag.
Telefoon / WhatsApp
+31 85 124 95 22Locatie
Middelburg, Zeeland
Kantooruren
Ma - Vr, 09:00 - 17:00