Maart 2026
AI: kansen, grenzen en verantwoordelijkheden
Kunstmatige intelligentie heeft zich in korte tijd ontwikkeld van experimentele technologie tot een alledaags hulpmiddel in de zakelijke dienstverlening. Ook installatieadviseurs maken er steeds vaker gebruik van. Niet alleen om informatie samen te vatten of teksten te herschrijven, maar ook om complexe vraagstukken sneller te doorgronden, varianten te vergelijken, tekeningen te analyseren, en rapportages te maken. Daarmee is AI stilletjes onderdeel geworden van het adviesproces.
Installatieadviseurs werken met informatie die zelden vrijblijvend is. Ontwerpen van gebouwgebonden installaties, gegevens over energievoorziening, ventilatie, koeling of beveiliging raken direct aan de werking en veiligheid van gebouwen en hun bewoners en/of gebruikers. Voeg daar klantnamen, projectbudgetten en contractuele afspraken aan toe en het is duidelijk dat AI niet zomaar als een neutraal hulpmiddel kan worden gezien. Het gebruik ervan vraagt om afwegingen die verder gaan dan gemak en snelheid.
Snelle opmars
De meeste professionals die met AI werken, doen dit via algemeen toegankelijke diensten zoals ChatGPT, Google Gemini of Microsoft Copilot. Deze toepassingen zijn gebaseerd op zogenoemde LLM’s (large language models): grootschalige taalmodellen die zijn getraind op enorme hoeveelheden tekst. Ze zijn in staat om context te herkennen, verbanden te leggen en op een overtuigende manier tekst te genereren.
Ook voor adviseurs zijn dat aantrekkelijke eigenschappen. Een bestek van honderd pagina’s kan in korte tijd worden samengevat, wet- en regelgeving kan worden toegelicht in begrijpelijke taal en conceptadviezen zijn snel opgesteld. De drempel om deze tools te gebruiken is laag, zeker omdat veel ervan (nagenoeg) gratis zijn.
Dit is ook precies waar het risico begint. Deze modellen zijn ‘gesloten’: de gebruiker heeft geen inzicht in de werking, trainingsdata of interne beslisprocessen. Wat er met ingevoerde gegevens gebeurt, is grotendeels afhankelijk van de voorwaarden en instellingen van de aanbieder. Wie daar niet actief naar kijkt, loopt het risico aannames te doen die niet kloppen.
Gratis, zakelijk of enterprise?
Een belangrijk, maar vaak onderschat onderscheid is dat bij veel gratis AI-chatbots geldt dat ingevoerde data kunnen worden gebruikt om de modellen verder te verbeteren. Dat betekent niet dat een specifieke tekst één-op-één elders opduikt, maar wel dat informatie statistisch kan worden meegenomen in verdere training.
Voor een installatieadviseur kan dat problematisch zijn. Projectinformatie, zelfs wanneer die niet direct herleidbaar lijkt, kan allerlei gevoelige gegevens bevatten. Denk aan beschrijvingen van installaties in zorginstellingen, datacenters of industriële omgevingen. In zakelijke versies van deze tools wordt doorgaans expliciet vastgelegd dat data niet voor training worden gebruikt en alleen tijdelijk worden verwerkt. Maar die garanties gelden alleen als de juiste licentie wordt gebruikt én de instellingen correct zijn geconfigureerd.
In de praktijk blijkt dat niet iedere gebruiker zich hiervan bewust is. AI wordt vaak ingezet zoals men een zoekmachine gebruikt: snel, tussendoor en zonder serieuze controle van voorwaarden. Voor adviesbureaus is dat een risico, omdat zij niet alleen hun eigen belangen vertegenwoordigen, maar ook die van opdrachtgevers.
Inmiddels is er een groeiend aanbod van Europese AI-oplossingen.
Europese alternatieven
De zorgen rond datagebruik en afhankelijkheid van Amerikaanse technologiebedrijven hebben de afgelopen jaren geleid tot een groeiend aanbod van Europese AI-oplossingen. Bedrijven als Mistral positioneren zich nadrukkelijk als Europees alternatief, met modellen en diensten die binnen de Europese Unie worden ontwikkeld en gehost. Ook Nederlandse initiatieven, zoals GreenPT, spelen in op de behoefte aan meer grip op data en naleving van Europese wetgeving.
Het belangrijkste verschil met de grote Amerikaanse aanbieders zit niet zozeer in de functionaliteit, maar in de governance. Europese aanbieders benadrukken doorgaans dat ingevoerde gegevens niet worden gebruikt voor training, dat data binnen de EU blijven en dat zij volledig onder AVG/GDPR vallen. Voor bedrijven die werken voor publieke opdrachtgevers of in sectoren met strenge compliance-eisen, kan dat een doorslaggevend argument zijn.
Tegelijkertijd is het belangrijk om ook hier niet in simplificaties te vervallen. Europees betekent niet automatisch veilig, net zoals Amerikaans niet automatisch onveilig is. Het gaat om de concrete afspraken, de technische inrichting en de mate van transparantie. Een Europese tool die onduidelijk is over datastromen kan in de praktijk risicovoller zijn dan een goed ingerichte enterprise-oplossing van een grote Amerikaanse aanbieder.
Open source
Dan is er ook nog open source-AI. Open source-modellen maken hun broncode en soms ook hun modelstructuur openbaar. Dat biedt organisaties de mogelijkheid om de technologie zelf te hosten en volledig te controleren waar data worden verwerkt en opgeslagen. In theorie is dit de meest vergaande vorm van databeheersing.
Nu is een tool als Ollama op een server installeren en vervolgens open source-modellen als LLaMA 3 of Qwen downloaden niet ingewikkeld. Voor organisaties klinkt dat aantrekkelijk voor projecten waarin vertrouwelijkheid cruciaal is.
Open source brengt echter ook verantwoordelijkheden met zich mee. Zelf een AI-model ‘draaien’, betekent dat men zelf verantwoordelijk is voor beveiliging, updates, toegangsbeheer en logging. Zonder voldoende IT-kennis of ondersteuning kan dat juist nieuwe kwetsbaarheden introduceren.
Daarom is een tussenvorm misschien wel zo interessant: Europese of private AI-diensten die wel meer transparantie en controle bieden, maar technisch worden beheerd door Europese hostingpartijen. Voor veel bedrijven is dat vaak realistischer dan volledig zelf beheren.
Veilig toepassen
In de dagelijkse praktijk ontstaat al snel een grijs gebied. AI kan prima worden ingezet voor algemene uitleg van bijvoorbeeld normen, het herschrijven van niet-vertrouwelijke teksten of het structureren van openbare informatie. Problemen ontstaan vooral wanneer projectspecifieke details worden ingevoerd. Dat geldt niet alleen voor expliciete klantgegevens, maar ook voor technische beschrijvingen die indirect herleidbaar zijn.
Een tekst over ‘een ziekenhuis in het zuiden van het land’ lijkt misschien anoniem, maar kan in combinatie met technische details alsnog herleidbaar en dus gevoelig zijn. Adviseurs doen er daarom goed aan om altijd te bedenken welke context zij prijsgeven. AI begrijpt context immers juist bijzonder goed.
Projectinformatie kan allerlei gevoelige -gegevens bevatten
Ontwerpsoftware
Een relatief nieuw aandachtspunt is de integratie van AI in CAD-, BIM- en andere ontwerpsoftware. Steeds vaker bevat deze programmatuur intelligente assistenten die ontwerpkeuzes analyseren, fouten signaleren of suggesties doen. Voor tal van bureaus aantrekkelijk, omdat het direct in het primaire werkproces plaatsvindt.
Maar juist die integratie maakt minder zichtbaar waar data naartoe gaan. Vaak werken deze AI-modellen via cloudplatforms van de softwareleverancier, die op hun beurt weer gebruikmaken van infrastructuur van hyperscalers. Deze hyperscalers – grootschalige cloudserviceproviders – bieden via wereldwijd verspreide datacenters enorme hoeveelheden dataverwerkings-, opslag- en netwerkresources. De bekendste voorbeelden hiervan zijn Amazon Web Services (AWS), Microsoft Azure en Google Cloud. Dit betekent dat projectgegevens mogelijk buiten de eigen organisatie worden verwerkt, soms zelfs buiten Europa. Met alle risico’s van dien.
Voor bedrijven is het daarom belangrijk om verder te kijken dan de gebruikersinterface. Contracten, verwerkingsovereenkomsten en technische documentatie geven vaak inzicht in hoe AI-functies zijn ingericht. Dat vraagt tijd en aandacht, maar is essentieel om onaangename verrassingen te voorkomen.
Overigens zijn er wel degelijk ontwikkelaars van ontwerp- en andere technische software die op een verantwoorde manier met de integratie van AI omgaan. Bijvoorbeeld door open source-modellen in hun software te integreren. Of samen te werken met Europese AI-leveranciers, zoals het eerder genoemde Mistral.
Steeds vaker bevat ook ontwerpsoftware AI-tools die ontwerpkeuzes analyseren, fouten signaleren of suggesties doen.
Digitale soevereiniteit
Lastig is dat veel software die wordt gebruikt in de technieksector inmiddels is gebouwd op de cloudplatformen van grote technologiebedrijven. Denk aan Microsoft Dynamics 365, dat door steeds meer leveranciers wordt gebruikt als basis voor ERP-, CRM- en projectsystemen.
Technisch gezien kunnen de gegevens die met dat soort cloudsystemen worden verwerkt, worden opgeslagen in Europese datacenters. Dat wordt door bedrijven als Microsoft vaak gepresenteerd als oplossing voor datalocatievraagstukken ofwel digitale soevereiniteit. Juridisch ligt het echter complexer. Microsoft is een Amerikaans bedrijf en valt onder Amerikaanse wetgeving. In bepaalde omstandigheden kan dat betekenen dat het concern gegevens toegankelijk moet maken voor Amerikaanse autoriteiten, ook als ze fysiek in Europa staan. Daarbij kent de Amerikaanse wetgeving de zogenaamde ‘Gag order’, waarbij het bedrijven verboden is hun klanten te informeren over eventuele data die ze – ook van klanten buiten de Verenigde Staten – moeten overdragen aan de autoriteiten.
Aansprakelijkheid
Voor installatieadviseurs die werken voor opdrachtgevers met strikte eisen rond datagebruik is dit geen theoretische discussie. Het raakt direct aan aansprakelijkheid, contractuele verplichtingen en reputatie.
De vraag waar data staan en wie er juridisch zeggenschap over hebben, wordt steeds relevanter. In sectoren als zorg, overheid en kritieke infrastructuur is het vaak een harde eis dat gegevens binnen de EU blijven en uitsluitend onder Europese wetgeving vallen. Bedrijven die in deze sectoren actief zijn, moeten dat kunnen uitleggen en onderbouwen. Dit betekent dat zij de software en clouddiensten waarmee zij werken heel bewust moeten kiezen. Zelfs Office 365 geeft dan in principe al problemen.
Belangrijk om -verder te kijken dan de -gebruikersinterface
AI voegt daar een extra laag aan toe. Niet alleen de opslag, maar ook de verwerking van data wordt complexer. Modellen analyseren, combineren en interpreteren informatie op manieren die niet altijd transparant zijn. Dat maakt het des te belangrijker om vooraf bewust duidelijke keuzes te maken.
NIS2
Veel risico’s rond AI-gebruik zijn te beperken met bewuste keuzes en duidelijke afspraken. Dat begint bij het controleren van de instellingen in de gebruikte tools. Veel AI-diensten bieden de mogelijkheid om datagebruik voor training uit te schakelen, maar die optie is niet altijd standaard actief. Bovendien verschilt het per product en per licentie wat precies wordt uitgesloten.
Het is dus belangrijk om binnen een organisatie vast te leggen hoe AI mag worden gebruikt. Niet als rigide verbod, maar als kader dat duidelijk maakt welke toepassingen acceptabel zijn en welke niet. Hou er bovendien rekening mee dat klanten steeds vaker eisen zullen gaan stellen op dit punt. Dat moet ook wel, want bijvoorbeeld NIS2 geeft duidelijk aan dat we niet alleen onze eigen systemen veilig moet hebben en houden, maar dat we ook verantwoordelijk zijn voor de security bij partijen met wie we samenwerken – leveranciers, maar bijvoorbeeld ook onderaannemers of partners.
Professioneel
De inzet van AI is geen hype die vanzelf weer verdwijnt. Dat is een houding die bij met name oudere werknemers en adviseurs nog wel eens opvalt. Het tegendeel is waar: AI zal steeds verder integreren in software, werkprocessen en advieswerk. Voor adviseurs betekent dit dat wat soms wel ‘AI-geletterdheid’ wordt genoemd, onderdeel wordt van professioneel vakmanschap. We moeten niet alleen weten wat een tool kan, maar ook begrijpen wat de implicaties zijn van het gebruik ervan.
Wie die verantwoordelijkheid serieus neemt, kan AI inzetten als waardevolle ondersteuning zonder onnodige risico’s te nemen. Dat vraagt tijd, aandacht, kritische vragen aan leveranciers en soms zelfs het overstappen op andere aanbieders van software- en AI-diensten. Maar juist dat onderscheidt de professionele adviseur van de toevallige gebruiker. In een sector waarin vertrouwen en betrouwbaarheid centraal staan, is dat geen luxe, maar juist een vereiste.
8 tips voor slim en verantwoord AI-gebruik
1. Ga er altijd van uit dat een AI-tool een externe partij is. Behandel elke AI-toepassing alsof je informatie deelt met een derde partij buiten je organisatie.
2. Gebruik openbare AI (gratis ChatGPT enzovoort) alleen voor generieke en niet-herleidbare informatie. Vermijd het invoeren van projectspecifieke details, unieke ontwerpkeuzes of situaties die indirect te herleidbaar zijn tot een specifieke klant of locatie.
3. Controleer of ingevoerde data wordt gebruikt voor training. Kijk bij elke AI-tool of ingevoerde gegevens worden gebruikt om modellen te trainen. Gebruik bij voorkeur zakelijke versies waarbij dit expliciet is uitgesloten.
4. Wees extra terughoudend met tekeningen, schema’s en technische details. CAD-bestanden, BIM-modellen, installatieschema’s en beveiligingsconfiguraties bevatten vaak gevoelige informatie, ook als er geen klantnaam bij staat.
5. Check waar AI-functies in ontwerpsoftware hun werk doen. Als AI is geïntegreerd in CAD-, BIM- of calculatiesoftware, vraag dan na waar de analyse plaatsvindt: lokaal, op servers van de leverancier of via een hyperscaler.
6. Maak onderscheid tussen Europese, open source en hyperscaler-AI. Europese en private AI-oplossingen bieden vaak meer duidelijkheid over datalocatie en juridische zeggenschap. Open source kan veilig zijn, maar alleen als hosting en beheer professioneel zijn ingericht.
7. Leg intern vast welke AI-tools zijn toegestaan en waarvoor. Zorg voor duidelijke afspraken: welke tools mogen worden gebruikt, voor welke taken en met welk type gegevens?
8. Stel gerichte vragen aan software- en AI-leveranciers. Laat deze antwoorden vastleggen in contracten of verwerkersovereenkomsten, zeker bij projecten voor zorg, overheid of kritieke infrastructuur.
Tekst: Robbert Hoeffnagel
Fotografie: Getty images/tadamichi/Thai Liang Lim/mixmagic/Laurance Dutton/Camrocker of delihayat of Tero Vesalainen
Meer weten over innovatieve technieken en ontwikkelingen?
Meld u dan nu aan voor onze gratis nieuwsbrief.