Eind vorig jaar kondigde Stabel aan dat één op de drie (34,5%) Belgische bedrijven gebruikmaken van AI. Dat percentage klimt tot 3 op de 4 bij bedrijven met meer dan 250 werknemers. Anderzijds blijkt uit onderzoek van Gartner dat het gebruik van technologie door werknemers buiten de controle van IT hard toeneemt: naar verwachting zal in 2027 zo’n 75% van de werknemers gebruikmaken van niet-goedgekeurde publieke GenAI-tools. Dat brengt risico’s met zich mee voor organisaties, ook wel ‘shadow AI’ genoemd.
Shadow AI verwijst naar het ongeautoriseerd of ad-hoc gebruik van AI-tools binnen een organisatie, vaak buiten IT-governance om. Dat brengt risico’s met zich mee op het gebied van veiligheid, privacy en compliance. Vooral op plekken waar corporate tools minder gebruiksvriendelijk zijn, neemt shadow AI sterk toe.
Dat ongeautoriseerd gebruik van AI-tools gebeurt niet vanuit kwade wil. Shadow AI ontstaat vooral wanneer werknemers oplossingen zoeken die wél werken als de officiële technologie tekortschiet. Sommige organisaties blokkeren bepaalde tools of houden medewerkers strak in de gaten, maar dat werkt zelden écht. In een AI-gedreven organisatie draait volwassen gebruik niet om toezicht, maar om vertrouwen.
Het draait om vertrouwen
Om vertrouwen te creëren is het belangrijk dat werkgevers rekening houden met drie kernaspecten.
Ten eerste moeten ze zorgen voor transparantie en duidelijke governance. Medewerkers moeten weten welke regels gelden, waarom die er zijn en hoe hun gegevens worden beschermd. Maar het gaat verder dan regels alleen. Ze moeten ook begrijpen hoe AI-systemen werken en welke beslissingen ze ondersteunen. Door open te zijn over algoritmes, datagebruik en mogelijke risico’s ontstaat begrip en dus vertrouwen. Onduidelijkheid hierover is een voedingsbodem voor shadow AI.
Daarnaast is praktische training onmisbaar. AI is inmiddels onderdeel van het dagelijks werk. Uit eerder onderzoek van Acerta Consult blijkt dat één op de drie werkgevers nog geen AI-opleiding heeft gegeven en ook geen plannen hebben om die te organiseren. Er is nochtans wel interesse op de werkvloer: 60% van de Belgische werknemers staat ervoor open om opleidingen te krijgen rond het gebruik van AI in zijn werk. IT moet daarom continu duidelijk maken hoe, wanneer en met welke tools medewerkers AI veilig kunnen gebruiken. Dat vraagt om meer dan theoretische uitleg of standaard e-learning.
Effectieve training geeft concrete voorbeelden, laat gevolgen van misbruik zien en biedt ruimte om veilig te experimenteren. Pas dan kiezen medewerkers voor de officiële tools in plaats van eigen oplossingen.
Ten slotte is een uitstekende gebruikerservaring onmisbaar. Trage, onduidelijke of omslachtige AI-oplossingen winnen het nooit van persoonlijke alternatieven. Organisaties moeten investeren in systemen die krachtig én eenvoudig te gebruiken zijn. Denk aan heldere interfaces, goede integratie met bestaande workflows en snelle toegang tot relevante data. Een betrouwbaar, efficiënt en gebruiksvriendelijk systeem is het beste middel tegen shadow AI.
Van vertrouwenskloof naar een sterke digitale organisatie
Kortom, een effectieve AI-strategie werkt alleen als medewerkers begrijpen hoe de technologie werkt, erop vertrouwen en actief meedoen aan verantwoord gebruik. Iedere organisatie is anders, maar het doel blijft hetzelfde: de voordelen van AI benutten, zoals snelheid, creativiteit en efficiëntie, terwijl de risico’s beheersbaar blijven. Leiders moeten daarbij één ding erkennen: de grootste kwetsbaarheid in het AI-tijdperk is niet de technologie, maar het gebrek aan vertrouwen. Shadow AI ontstaat zodra dat vertrouwen wegvalt. Wie die kloof weet te dichten met openheid, bescherming en een sterke gebruikerservaring, bouwt aan een digitale organisatie die klaar is voor de toekomst.
Bron: Erol Çakular, Director, Global Specialty Sales, Dell Technologies Benelux

Catégorie:
Tags: 

