- Introductie
- Vereisten
- Snel aan de slag
- Structuur van KvK
- Data Flow
- Database Schema
- Functionaliteit
- Ontwikkelaarsgids
- Roadmap
- KvK API Documentatie
De Kamer van Koophandel (KvK) biedt meerdere APIs die samen informatie verstrekken over bedrijven. Uitvoerige documentatie is hier te vinden: https://developers.kvk.nl/documentation
Veel overheidsinstanties hebben een wettelijke taak voor vergunningsverlening, toezicht en handhaving (VTH) en gebruiken deze informatie voor validatie en opslag in hun systemen. Het controleren bij aanvraag gaat vaak met eenmalige KvK-bevragingen, maar signalen dat bedrijven hun statuten wijzigen of ophouden te bestaan zijn ook relevant.
Voor met name de laatste categorie is er synergie te behalen door het eenduidig opzetten van bevragingen en volgen van bedrijfsmutaties. Dit project maakt het bevragen-, opslaan- en werken met deze informatie eenvoudig, eenduidig en deelbaar. Het idee is dat elke instantie met een eigen KvK subscription op hun eigen infrastructuur in korte tijd een eenvoudig werkende en compliant omgeving heeft opgezet waar direct mee gewerkt kan worden.
[NB] Dit project vereist een KVK API key om te functioneren. Verkrijg een key via KvK Portaal. Voor het volgen van mutaties is een additioneel abonnement nodig.
Installeer het pakket en start direct met KvK-gegevens opvragen:
pip install kvk-connectfrom kvk_connect import KVKApiClient, KVKRecordService
client = KVKApiClient(api_key="your_kvk_api_key")
service = KVKRecordService(client)
basisprofiel = service.get_basisprofiel("12345678")NB: De package naam is kvk-connect, maar imports werken met kvk_connect (underscore) in Python.
Voor omgevingen die op basis van pre-built images uit GHCR willen deployen, zoals Portainer icm Watchtower, is er een docker-compose file. Lokaal bouwen is dan niet nodig.
cp .env.docker.example .env.docker
# Bewerk .env.docker met KVK API-sleutel, SQL-connectiestring en KVK_VERSION
# Start services (haalt images op van ghcr.io/minbzk/)
docker compose -f docker-compose.prod.yaml up -dDe images bevatten Watchtower-labels, zodat een draaiende Watchtower-instantie updates automatisch oppakt. Hierbij wordt gemonitord op de laatste 'latest' image, als deze afwijkt wordt deze automatisch gedeployed en de services restart.
Start een stand-alone lokale instantie met docker compose:
# Clone en configureer
git clone https://github.com/MinBZK/kvk-connect.git
cd kvk-connect
# Environment instellen
cp .env.docker.example .env.docker
# Bewerk .env.docker met je KvK API-sleutel en alle POSTGRES_* settings, PostgreSQL zal met deze waarden initieren.
# Start services (PostgreSQL + alle apps)
docker compose -f docker-compose.local.yaml up -d
# Check logging met
docker compose logs -f .Op poort 5432 draait nu een PostgreSQL instantie met een kvkconnect db zoals uitgelegd onder Database Schema, deze wordt actueel gehouden door de container-apps, zie Data Flow.
Idem als hierboven, maar gebruik nu de docker-compose.db.yaml file en zet andere variabelen.
cp .env.docker.example .env.docker
# Bewerk .env.docker met je KvK API-sleutel en SQL Connectie string naar externe DB.
# Start services
docker compose -f docker-compose.db.yaml up -dVoor externe databases moet de database, gebruikersnaam en rechten eerst aangemaakt worden alvorens verbinding gemaakt kan worden.
Clone het project, installeer afhankelijkheden en voer de volledige development workflow uit:
git clone https://github.com/MinBZK/kvk-connect.git
cd kvk-connect
just install # Bibliotheek + dev tools installeren
just check-all # Alle checks uitvoeren (lint, type, tests)
just test # Tests met coverage
just bump patch # Versie bumpen
just tag v0.1.5 # Release-tag makenAlle build, lifecycle, run en development-taken zijn als recipes gedefinieerd in Justfile als single source of truth. Installeer just en draai just zodat je alle gedefinieerde recipes te zien krijgt:
$ just
Available recipes:
[deployment]
build # build the distribution packages
bump tag # bump the version in pyproject.toml use: patch, minor, or major
deploy version # publish the package to PyPI
tag tag msg # create and push a git tag use: tag name and message
[docker]
docker-build env='local' # Docker compose up ('local' by default, use 'db' external db build)
docker-down env='local' # Docker compose down
docker-logs env='local' *service # View logs from Docker services
docker-restart env='local' # Restart Docker services
docker-up env='local'
[lifecycle]
install # First install
update # Update dependencies
[qa]
check-all # Perform all checks [alias: a]
cov # Run tests and measure coverage
lint # Run linters
pc # Check pre-commit hooks
test *args # Run tests [alias: t]
typing # Check types-
Basisprofiel: Algemene informatie over een bedrijf, zoals naam, KVK nummer, RSIN, oprichtingsdatum, rechtsvorm, eigenaar, etc.
- Uniek kenmerk: kvk_nummer
-
Basisprofiel_historie: Elke wijziging over tijd aan een basisprofiel
- Uniek kenmerk: kvk_nummer
-
Vestigingen: Elke kvkNummer heeft 0 of meer vestigingen.
- Uniek kenmerk: kvk_nummer met vestigingsnummmer of '0000000' als er geen vestiging bestaat.
-
Vestigingen_historie: Elke wijziging aan een vestiging van een basisprofiel
-
Vestigingsprofiel: Informatie over een specifieke vestiging van een bedrijf, zoals post- en bezoek-adres en locatie
- Uniek kenmerk: vestiging_nummer
-
Vestigingsprofiel_historie: Elke wijziging aan een vestigingsprofiel over tijd.
-
Signalen: KvK lijst van mutatie-signalen. Hiermee wordt informatie gegeven welk kvknummer een mutatie heeft verwerkt. De Signaal informatie zelf wordt vooralsnog niet verwerkt. Deze mutaties zijn input voor de 4 apps om nieuwe informatie op te halen.
- NB: Voor deze mutaties is een losse subscription nodig bij de KvK.
--
De vijf Docker apps werken onafhankelijk van elkaar samen om de KVK data actueel te houden:
- Rate-Limiting
- We volgen de door KvK gestelde limiet op API calls. Zowel in de kvk-connect library en in docker-compse via een rate limiting gateway.
- Exponential back-off bij tijdelijke downtime of overschreiden van de rate-limit
- Command Line Interface:
- Handmatig ophalen van eenmalige informatie.
- Seeden van de basis profielen middels een CSV file.
- Automatisch volgen van mutatiesignalen middels pull requests.
- Database agnotisch
- SQLAlchemy ondersteund een lange lijst van DB implementaties: Zie https://docs.sqlalchemy.org/en/21/dialects/index.html. Getest met SQLLite, MS SQL en PostgreSQL
- We hebben twee docker-compose scripts:
- 'local': Volledig self contained containers met PostgreSQL
- 'ext': Zelfde functionaliteit, maar met connectie naar externe database.
- Databases met tabellen worden automatisch aangemaakt, indexen en constraints worden toegevoegd voor optimale werking.
- Wijzigingshistorie per veld
- Bij elke sync worden gewijzigde velden vastgelegd in aparte historietabellen (
basisprofielen_historie,vestigingsprofielen_historie,vestigingen_historie). - Identieke re-fetches genereren geen nieuwe rij. Verwijderde vestigingen worden als afzonderlijk 'verwijderd'-event opgeslagen.
- Bij elke sync worden gewijzigde velden vastgelegd in aparte historietabellen (
- HelmChart voor deploy
- PowerBI rapport welke aangesloten kan worden en direct kan werken met de opgehaalde data.