Nieuws
.
25/4/2023

De ethische aspecten van AI

Wanneer we AI in een bedrijfscontext toepassen, spelen ethische overwegingen vaak een belangrijke rol. Hoewel “ethisch” voor velen waarschijnlijk klinkt als een theoretische nagedachte, hebben een aantal van deze overwegingen toch zeer belangrijke, praktische gevolgen. Sterker, deze overwegingen staan vaak centraal in hoe we AI ontwikkelen. Zeker dus de moeite om eens van dichterbij te bekijken.

Deze pagina toont een overzicht van vier belangrijke ethische overwegingen binnen het domein van AI, namelijk: jobverlies, discriminatie, transparantie, en privacy. Voor elke overwegingen bespreken we wat het precies inhoudt, waarom je het best in rekening neemt, en welke stappen je zelf kan zetten om ze in rekening te nemen. Natuurlijk, elk van deze vier overwegingen verdienen een studie op zichzelf, maar we geven hieronder de belangrijkste aspecten mee, zo kun jij snel aan de slag met AI.

Jobverlies

Het automatiseren van een groot deel jobs die momenteel door mensen worden uitgevoerd, vormt een grote bezorgdheid binnen (en buiten) het domein van AI. Deze automatisatie roept al snel de vraag op: wat gebeurt er met de mensen wiens job de AI vervangt?

Het is belangrijk om de kwestie van jobverlies omwille van AI in de bredere context van technologische ontwikkelingen te zien. Wanneer we de technologische ontwikkelingen over de laatste 50 jaar en verder bekijken, zien we dat deze bezorgdheid namelijk al langer wordt geuit. De komst van het internet, robots, maar ook de mechanisatie van de textielindustrie in de 19de eeuw, brachten deze bezorgdheden al naar boven.

Door de bredere context van technologische ontwikkelingen in rekening te nemen, krijgen we een beter zicht op relevante bezorgheden en hoe we mensen kunnen bijstaan in de overgang naar een AI-gedreven economie. Bepaalde jobs zullen hoogstwaarschijnlijk verdwijnen of aanzienlijk veranderen, net zoals dat het geval was bij de komst van eerdere technologische innovaties. Begrijpelijk zorgt dat voor veel onrust bij mensen wiens job verdwijnt, maar anderzijds zullen weinig mensen nu pleiten geen internet of textielmachines te willen omdat het jobs bedreigt. Het is belangrijk dus om de juiste, praktische balans te vinden tussen deze twee perspectieven. Hieronder bespreken we een aantal aspecten die belangrijk zijn bij het vinden van deze balans.

Oningevulde jobs

Het is belangrijk op te merken dat veel vacatures vandaag niet ingevuld geraken, wat leidt tot kritische personeelstekorten. Er zijn simpelweg niet genoeg mensen beschikbaar of geïnteresseerd in bepaalde jobs. Enerzijds zitten we in een economie waarin enorm veel werk verricht moet worden. Denk daarbij aan grote internationale warenhuizen zoals die van het Chinese e-commerce bedrijf Alibaba waar dagelijks honderdduizenden pakketjes worden aangenomen, verwerkt, en verzonden. Zonder automatisatie, zouden deze grote hoeveelheden aan pakketjes onmogelijk allemaal afgehandeld kunnen worden. Anderzijds zijn veel jobs heel banaal, waardoor mensen hier weinig voeling mee hebben. Denk bijvoorbeeld aan het het simpelweg overtypen van cijfers naar een excel-formulier.

De vergrijzing, samen met de enorme groei van 'nieuwe’ jobs, zorgen voor een verdere arbeidskrapte. Ook is er voor bepaalde jobs steeds meer specialisatie en expertise nodig. Bedrijven vinden dan niet de juiste profielen voor deze jobs, en mensen opleiden – als je ze al kan vinden - kost tijd en geld. AI kan daarom een belangrijke rol spelen om de arbeidskrapte in de markt op te vangen. Dat hoeft niet meteen door mensen hun job één op één te vervangen, maar door mensen bijvoorbeeld bij te staan in de job die ze al hebben.

Samenwerking van mensen en AI

Omdat veel jobs niet ingevuld geraken, leggen sommigen eerder de nadruk op de samenwerking tussen mensen en AI. Wanneer we naar science fiction films kijken, krijgen we misschien al snel het idee dat AI elke job kan uitvoeren. Dit perspectief is momenteel echter niet realistisch. AI is namelijk heel goed in het uitvoeren van repetitieve, monotone taken in een voorspelbare omgeving, iets wat voor veel mensen minder aantrekkelijk oogt. Ook is AI goed in het snel en grondig analyseren van data, iets waar mensen minder goed in zijn.

Waar mensen doorgaans AI in overtreffen, zijn zaken zoals creatieve, kritische, en probleemoplossende taken in complexe omgevingen. Creatief betekent hier niet de nieuwste Picasso maken, maar eerder creatieve keuzes maken. In de fiche klantensegmentatie geven we bijvoorbeeld aan dat AI kan helpen om data te analyseren om nieuwe klantensegmenten te vinden. Denk bijvoorbeeld aan het ontdekken dat educatie en inkomstenniveau belangrijk zijn in voedingskeuzes. Maar een mens kan de vertaalslag maken dat dit een impact heeft op de marketingcampagne en zo de nodige acties in gang zetten.

Ook is een AI zich doorgaans niet bewust van de context waarin het functioneert (zoals we verder bespreken in de sectie Discriminatie). Een AI is bijvoorbeeld niet in staat om te erkennen dat een probleem of een context volledig nieuw of onbekend is. Een mens is in staat om te beseffen dat een situatie compleet nieuw is, bijvoorbeeld wanneer een machine een gedrag vertoont dat niet uitgelegd werd tijdens een opleiding. Een computer heeft dit besef echter niet. Hierdoor maakt een AI soms fouten die voor een mens heel duidelijk zijn. Als je een AI laat doen, kan dat aanzienlijk negatieve gevolgen hebben. Denk bijvoorbeeld aan een autonoom voertuig dat een stilstaand voertuig voor zich niet herkent. Daar heb je dus een mens nodig die uiteindelijk de belangrijke keuzes maakt.

In deze zin doen we er goed aan om niet te veel zwart wit te denken, waarbij ofwel mensen of wel AI een job doen. De sleutel is om de juiste combinatie te vinden tussen mensen en AI. Vandaag de dag gebruiken veel mensen nu bijvoorbeeld ook dagdagelijks computers voor hun werk, terwijl dat 40 jaar geleden zeker niet het geval was. AI zorgt in die zin ook voor veel nieuwe banen, omdat de AI niet op zichzelf kan runnen.

Negatieve impact

Hoewel AI dus zeker voordelen bieden, is het toch onvermijdelijk dat veel mensen negatieve gevolgen zullen ondervinden. Voor bedrijven is het namelijk aantrekkelijk om te kiezen voor bijvoorbeeld slimme robots in plaats van menselijke arbeidskrachten wanneer het kostenplaatje de helft goedkoper uitvalt. Dit zie je in bepaalde supermarkten de laatste jaren ook gebeuren, waar klanten hun eigen boodschappen scannen en afrekenen bij een self-checkout kassa. Dergelijke automatisering kan natuurlijk leiden tot banenverlies of veranderingen in functies voor veel werknemers.

Helaas zijn het juist vaak de kwetsbaarste groepen die de grootste impact zullen ondervinden van deze veranderingen. Denk bijvoorbeeld aan mensen met een lage opleiding of oudere werknemers, die mogelijk minder makkelijk kunnen meebewegen met de snelle technologische ontwikkelingen. Zo kan de opkomst van AI een nieuwe digitale kloof veroorzaken, vergelijkbaar met de kloof die ontstond met de opkomst van computers en het internet.

Stappen om te nemen

Bij de overgang naar een AI-gedreven maatschappij is het dus belangrijk om de negatieve impact op werknemers zo goed mogelijk te reduceren. Bedrijven spelen hierbij een cruciale rol en dienen zich voor te bereiden op deze veranderingen een positieve vertrouwenscultuur onder werknemers te creëren.

Organiseer opleidingen en workshops

Eén manier om dit te doen, is door opleidingen en workshops te voorzien die werknemers stap voor stap beter maken in het omgaan met AI. Aangezien de implementatie van AI op de werkvloer zelden van de ene op de andere dag zal plaatsvinden, krijgt het bedrijf de kans om mee te groeien met de ontwikkelingen op het gebied van AI. Op deze manier kunnen de werknemers, maar ook de bedrijven zich aanpassen aan de nieuwe technologieën en de veranderingen die het met zich meebrengt.  

Zoek naar samenwerkingen tussen mens en AI

Een andere manier om de negatieve impact van AI op werknemers te verminderen, is door te kijken naar hoe de kwaliteiten van werknemers kunnen worden gecombineerd met de kwaliteiten van AI. Zoals eerder benadrukt, werkt AI het beste in combinatie met mensen. Daarom is het voor bedrijven essentieel om te onderzoeken waar werknemers goed in zijn en hoe AI hen kan ondersteunen om het beste uit hen te halen en tegelijkertijd de voordelen van AI te benutten.

Volg relevante richtlijnen op

Tot slot is het belangrijk om de richtlijnen van overheden en relevante instanties op te volgen. Naarmate AI zich ontwikkelt en wordt geïmplementeerd, zullen richtlijnen en wetten veranderen. Denk bijvoorbeeld aan een zogenaamde robotbelasting voor robotten die mensen vervangen, zoals in België reeds al is voorgesteld. Bedrijven doen er goed aan zich bewust te zijn van deze veranderingen en zich aan te passen aan de nieuwe richtlijnen. Zo verminder je de negatieve impact op je werknemers, maar ben je zelf ook altijd up-to-date.

Discriminatie

Een tweede belangrijk aspect van ethiek binnen AI is discriminatie. AI wordt aangedreven door algoritmen, en deze algoritmen kunnen snel (onbedoeld) mensen uitsluiten of benadelen. Zo is er het bekende voorbeeld van het gebruik van AI om de straf van een beschuldigde in een rechtbank te bepalen, waarbij minderheden vaak benadeeld worden en langere straffen krijgen. Een ander voorbeeld is het helpen detecteren van borstkanker, waarbij etnische achtergrond een impact heeft op de weefseldikte. Als gevolg presteert AI minder goed voor sommige etniciteiten bij het detecteren van borstkanker.

Hoewel deze voorbeelden niet van toepassing lijken te zijn op dagelijkse AI-toepassingen binnen bedrijven, is discriminatie wel degelijk relevant in AI-implementaties. Het concept van discriminatie kan op verschillende manieren terugkomen binnen AI die ook jij implementeert. Laten we enkele fiches als uitgangspunt nemen en bespreken.

Voorbeelden van discriminatie in AI

In de fiche prijszetting geven we aan dat je met AI de juiste prijs van een product kunt voorspellen op basis van verschillende factoren. Zo kun je makkelijk producten prijzen in een online winkel afhankelijk van het type klant. Een AI stelt dan bijvoorbeeld voor om nieuwe klanten een goedkopere prijs te laten zien dan bestaande klanten. Dat klinkt logisch. Maar wat als je AI ontdekt dat het een hogere prijs kan vragen aan mensen die meer nood hebben aan je product, zoals personen die belangrijke medicijnen nodig hebben? En wat als achteraf blijkt dat deze groep mensen net een kwetsbare groep is? Dan kom je toch al snel op ethische vraagstukken uit, die overigens een reële impact hebben op het gevoel van vertrouwen van je klanten.

Als een tweede voorbeeld, bespreken we de fiche beveiliging. In deze fiche bespreken we hoe je met behulp van beeldherkenning mensen in foto's en video's kunt detecteren. Dat is gemakkelijk om bijvoorbeeld te controleren of werknemers veiligheidsnormen (zoals het dragen van een helm) naleven of niet. Echter staat deze technologie bekend om mensen met een donkere huidskleur minder goed te herkennen. Het kan dus zijn dat wanneer je deze technologie toepast in je bedrijf, onbewust mensen met een donkere huidskleur meer waarschuwingen gaat geven.

Als laatste voorbeeld bespreken we de fiche marketing op maat gemaakt. Hierbij stellen we dat AI kan helpen om je marketingboodschap beter af te stemmen op je doelgroep. Door foto's van gerechten op bijvoorbeeld Instagram te analyseren, kan je bijvoorbeeld gepersonaliseerde recepten voorstellen aan je doelpubliek. Het risico bestaat echter dat deze Instagram-foto's vaker ongezonde gerechten tonen bij lage-inkomensdoelgroepen. In dat geval kan de AI deze discriminatie overnemen en de gepersonaliseerde recepten ongezonder maken voor mensen met een laag inkomen. Als voedingsbedrijf dat gezonde voeding promoot, is dergelijke discriminatie onacceptabel.

Discrimineren als een essentieel onderdeel van AI

Discrimineren – in de louter technische zin van het woord – ligt aan de basis van hoe artificiële intelligentie werkt. Een AI onderscheidt namelijk bepaalde delen van data van andere delen, wat technisch gezien neerkomt op discriminatie. Een AI merkt met andere woorden dus verschillen en gelijkenissen in data op, wat cruciaal is voor zijn functie. Dit is belangrijk om op te merken, omdat discriminerende AI vaak gebouwd is op al reeds discriminerende (niet-representatieve) data.  

In het bovengenoemde voorbeeld van AI die minderheden langere straffen geeft, is het probleem ontstaan omdat de AI is getraind op historische gegevens van menselijke vonnissen, waaruit bleek dat minderheden doorgaans een langere straf krijgen. Waar het dus problematisch wordt, is wanneer we aannemen dat AI op de hoogte is van de gevoeligheden rondom discriminatie. Een AI is zich niet bewust van wat kwetsbare groepen zijn of wat moreel correct is of niet.

Een tweede aspect dat vaak over het hoofd wordt gezien, is dat AI geen statisch product is dat je maakt en dan als afgerond beschouwt. In veel gevallen moet je de AI constant voeden met nieuwe data. Dit brengt verschillende uitdagingen met zich mee, omdat je niet helemaal zeker kunt zijn van wat er in die data staat en wat de AI daarmee kan doen. Het kan dus zijn dat de eerste versie van je AI geen kwaadaardige discriminatie vertoont, maar dat dit wel gebeurt naarmate er nieuwe data binnenkomt. Het is daarom van groot belang om regelmatig te controleren of je AI naar behoren functioneert.

Stappen om te nemen

Voor je AI in productie zet, is het dus belangrijk om na te denken over de negatieve impact die AI-gedreven discriminatie kan hebben op je werknemers, je klanten en de maatschappij. Het is aan bedrijven om stappen te nemen om discriminatie in je AI-systemen te vermijden. Hier zijn enkele stappen die je kunt nemen om discriminatie in AI te vermijden.

Zorg voor representatieve data

We gaven het hierboven aan, maar representatieve data is van cruciaal belang om discriminatie te vermijden. Representatief betekent ruwweg dat de data waarop je je AI bouwt de uiteindelijke productieomgeving van je AI reflecteert. Maar vaak sluipt er snel niet-representatieve data in je systeem. Bijvoorbeeld  je huidige personeelsbestand bestaat vooral uit Westerse personen die werken in je lokale afdeling. De data die je hier capteert is niet altijd representatief voor je AI systemen in je nieuwe afdeling in de Caraïben Zorg daarnaast ook dat de data die je gebruikt voor het trainen van de AI-systemen van hoge kwaliteit is en vrij is van fouten en inconsistenties.

Implementeer diversiteit en inclusie in het ontwikkelteam

Het is belangrijk om een divers team te hebben dat de AI-systemen ontwikkelt en test. Dit kan helpen om zogenaamde ‘blinde vlekken’ te verminderen en ervoor te zorgen dat verschillende perspectieven worden overwogen. In het bovengenoemde voorbeeld van een beelddetectiesystem dat mensen met een donkere huidkleur minder goed herkent, zal dit probleem doorgaans sneller opvallen voor teamleden die zelf een donkere huidkleur hebben. Het moeilijke is natuurlijk dat je niet op voorhand weet welke aspecten belangrijk zullen zijn. Denk dus ook, afhankelijk van je AI-systeem, aan verschillen zoals leeftijd, geografie, financiële achtergrond, expertise, enzoverder.

Controleer regelmatig je AI en maak je AI zo transparant mogelijk

Om te voorkomen dat discriminerende resultaten optreden, is het belangrijk om de AI-systemen regelmatig te monitoren en indien nodig corrigerende maatregelen te nemen. Zoals eerder opgemerkt, zijn AI-systemen doorgaans niet statisch, maar leren ze continu van nieuw binnenkomende data. Het is daarnaast ook belangrijk om methoden te gebruiken die de besluitvorming van het AI-systeem transparanter maken, zodat je beter kunt begrijpen hoe en waarom discriminerende beslissingen worden genomen. In de praktijk kan het echter lastig zijn om precies te begrijpen welke redeneringen een AI gebruikt. Dit brengt ons bij het volgende punt: transparantie.

Transparantie

Wanneer we een traditioneel computerprogramma ontwikkelen, is het doorgaans relatief eenvoudig om vast te stellen waar het programma ongewenst gedrag vertoont. Met de juiste software tools en expertise is het ontleden van een traditioneel computerprogramma mogelijk, hoewel het wel wat tijd en energie kan vergen.

Een AI-programma betreft daarentegen een unieke uitdaging. Vaak verwijzen we naar AI als een zogenaamde ‘black box’ of zwarte doos, wat duidt op de bijna ondoorgrondelijke interne werking van een AI. Als een AI dan ongewenst gedrag vertoont, is het zeer moeilijk te ontleden waar in de AI dit gedrag juist vandaan komt. Omdat het moeilijk te ontleden is waar het gedrag nu net vandaan komt, is het ook vaak moeilijk om de verantwoordelijke voor deze gevolgen te achterhalen.

Bij het ontwikkelen van een AI, werken we doorgaans met enorme hoeveelheden data. De AI analyseert deze data vervolgens met de verwachting om bepaalde patronen te herkennen. Waar een ontwikkelaar van een traditioneel computerprogramma regels aan het programma meegeeft, zoekt een AI zelf deze regels. Deze methode werkt bijzonder effectief en is één van de belangrijkste redenen van het recente succes van AI.

Een groot nadeel van een AI zelf de regels te laten bepalen, is de moeilijkheid in het begrijpen van welke regels de AI uiteindelijk heeft bepaald. Neem bijvoorbeeld een beelddetectieapplicatie waarin een AI een gezicht op een foto dient te herkennen. De AI ziet de foto enkel als een collectie van pixels, zonder daarbij gezichtskenmerken zoals ogen conceptueel te herkennen. Om het heel simpel te stellen, ziet de AI ogen als een mathematisch patroon van zwarte pixels met daarrond een groep witte pixels. Dat is zeer moeilijk te vertalen naar mensentaal, zeker in complexere, meer realistische voorbeelden.

Als ontwikkelaar weet je dus niet altijd waarom de AI specifiek iets doet. En dat brengt gevaren met zich mee. Zo is er een voorbeeld waarbij een beelddetectiesysteem het gezicht van mensen met een Aziatische afkomst niet kon herkennen omwille van anatomische verschillen rondom de ogen dan de ogen op de voorbeeldfoto's waarop het systeem getraind was. De AI leek op het eerste zicht ogen te herkennen, maar niets was dus minder waar, het herkende simpelweg één type patroon van ogen. Dat is natuurlijk problematisch.

Vertrouwen

Wanneer we niet weten hoe een AI conclusies vormt, stuiten we snel op het concept van vertrouwen. Wanneer een AI soms fouten maakt en we hebben weinig idee hoe en wanneer het deze fouten maakt, kunnen we de AI dan eigenlijk wel vertrouwen? En als we besluiten het te vertrouwen, wie is er dan verantwoordelijk en aansprakelijk voor de fout die het maakt?

Neem bijvoorbeeld de fiche optimaliseren van productieparameters. In deze fiche geven we aan dat met behulp van AI je je productieproces kunt optimaliseren door sensorendata te analyseren en machines fijner af te stellen. Dat is een populaire en effectieve toepassing van AI, maar stel nu dat de AI plots beslist om de productielijn volledig stil te leggen. Je kijkt naar je productielijn, maar alles lijkt in jouw ogen in orde te zijn. Wat doe je dan? Heeft de AI daadwerkelijk iets opgespoord, en hoe is deze dan tot deze conclusie gekomen. En wie is er verantwoordelijk voor de kosten die gemaakt worden?

Als tweede voorbeeld nemen we autonome voertuigen. Een autonome auto is bijvoorbeeld ontworpen door het heel veel foto's en video's van verkeerssituaties te laten zien. Zo herkennen ze voetgangers die ze eerder gezien te hebben op de foto's en in de video’s. Maar waarom een AI deze nu als voetgangers herkent – heeft bijvoorbeeld een hoofd, twee benen en een arm – is onduidelijk. Zo is er het bekende experiment waarbij twee op de drie personen een AI vertrouwde die wolven en husky's in foto's kon herkennen. In werkelijkheid was de AI echter getraind om de sneeuw in de achtergrond van de foto's met wolven te herkennen.

Stappen om te nemen

In de AI-strategie van de Europese Unie (EU), nemen de concepten van vertrouwen en transparantie een centrale plaats in. AI-systemen moeten namelijk zo “explainable” of transparant mogelijk worden gebouwd. Op deze manier hoopt de EU zo de risico's van AI te beperken.

Implementeer praktische hulpmiddelen

Hoewel het niet eenvoudig is om de black box van AI transparant te maken, bestaan er praktische tools die je kunnen helpen. Grote softwarebedrijven zoals Google hebben verschillende tools ontwikkeld om dieper in de black box te kunnen kijken, zoals de Explainable AI console en de What-If Tool. Met deze tools kun je onder meer je data verkennen en datapunten aanpassen om te zien hoe dit van invloed is op de voorspellingen. Zo krijg je snel inzicht in eventuele discrepanties in je data en hoe je AI deze data verwerkt. Andere populaire tools en methoden om je AI transparanter te maken, zijn onder meer SHAP, LIME en ELI5.

Hou een 'human in the loop’

Het is belangrijk om de beperkingen van AI te erkennen. Hoewel AI de afgelopen jaren enorm krachtig is geworden, is het nog steeds niet zoals we het vaak zien in sciencefictionfilms. Het is daarom essentieel om bij belangrijke beslissingen altijd een mens in het proces te betrekken die de voorspellingen van de AI controleert voordat ze worden doorgevoerd – een zogenaamde human in the loop. Dit betekent dat je misschien niet meteen begrijpt waarom de AI iets heeft voorspeld, maar het voorkomt wel mogelijke negatieve effecten. Dit sluit ook goed aan bij de discussie over jobverlies, waarin we hebben vastgesteld dat AI vaak het beste werkt wanneer het wordt gecombineerd met menselijke input.

Privacy

Privacy is een belangrijk en complex onderwerp dat zich richt op de bescherming van persoonlijke informatie. AI-algoritmen hebben namelijk toegang tot enorme hoeveelheden gegevens, waaronder persoonlijke informatie. Het is daarom cruciaal om te zorgen voor de bescherming van de privacy van individuen.

Ondanks dat het lijkt alsof AI alleen iets van de laatste jaren is, bestaat het eigenlijk al geruime tijd. Het is echter pas recent zo populair en krachtig geworden vanwege de enorme hoeveelheden digitale data die beschikbaar is geworden. Denk bijvoorbeeld aan de enorme hoeveelheid foto's, video's en teksten die via het internet, goedkope camera's en smartphones zijn gemaakt. En het verwerken van al die voorbeelddata maakt een AI-systeem net zo krachtig.

Vaak zijn er echter persoonsgegevens of gevoelige informatie verborgen in die enorme hoeveelheid data. Het is daarom van groot belang om bij de ontwikkeling van een AI-systeem op een verantwoorde manier om te gaan met deze gegevens. Dit omvat alle fasen van de productiecyclus van AI, namelijk het verzamelen, opslaan en verwijderen van de data.

In de fiche marketing op maat gemaakt bespreken we het voorbeeld van hoe Coca-Cola de gegevens van een drankfontein gebruikte om een nieuwe dranksmaak te ontwikkelen. Dat is een heel leuk voorbeeld, maar je moet natuurlijk wel verzekeren dat klanten op de hoogte zijn dat deze data verzameld wordt en hoe deze verder gebruikt wordt. Hetzelfde geldt voor bijvoorbeeld het gebruik van de aankoopdata van klanten, of foto's die klanten online delen.

Maar ook hoe je de AI uiteindelijk inzet is belangrijk voor privacy te waarborgen. Denk bijvoorbeeld aan de fiche veiligheid en hygiëne, waarin we stellen dat je met AI je werknemers automatisch kunt waarschuwen voor gevaarlijke situaties op de werf. Dan moet je eerst natuurlijk aftoetsen of je wel de toelating hebt om je werknemers te filmen. Beeldherkenning, en specifiek gezichtsherkenning, is dan ook een heel gevoelig onderwerp wanneer we spreken over AI en privacy.

Stappen om te nemen

Wanneer we over privacy en data spreken, spreken we al snel over GDPR. GDPR – oftewel General Data Protection Regulation - is een wet die de privacy en bescherming van persoonlijke gegevens van burgers van de Europese Unie regelt. De wet vereist dat organisaties die gegevens verwerken op een bepaalde manier verzamelen, opslaan, gebruiken en beveiligen. Voor bedrijven die in de EU werkzaam zijn, is deze wetgeving dus heel belangrijk wanneer we over AI en privacy spreken. Hoewel de wisselwerking tussen AI en GDPR nog in ontwikkeling is, geven we hier alvast enkele richtlijnen mee:

Verzamel data op de correcte manier

Zorg ervoor dat je data op de correctie manier verzameld. Dat betekent onder anderen dat de toestemming tot verzamelen hebt mensen van wiens data je verzamelt, maar ook dat deze mensen weten hoe je deze data zal gebruiken. Wanneer er gevoelige gegevens worden verzameld, is het vaak belangrijk om de data te anonimiseren.

Sla je data veilig op

Het is belangrijk om robuuste beveiligingsmaatregelen te implementeren om ervoor te zorgen dat gegevens niet in verkeerde handen vallen. Dat is niet altijd even makkelijk, zelfs overheden en grote technologiebedrijven vallen ten prooi aan hackers die data stelen. Neem dus alle mogelijke stappen om je data veilig te stellen. Maak ook de afweging van welke data je nu exact nodig hebt. Indien gevoelige gegevens niet belangrijk zijn voor jouw AI-systeem, heeft het weinig zin om ze op te slaan met het risico dat ze gestolen worden.

Beheer de data op de juiste manier

Binnen de GDPR-wetgeving hebben mensen het zogenaamde "recht op inzage”. Dat betekent dat mensen op elk moment de mogelijkheid moeten hebben om te zien welke data van hun verzameld is en wat er precies met die data gebeurt. Dit slaat dus voornamelijk terug over het bieden van transparantie. Ook hou je best rekening met het recht van mensen om hun data te kunnen verwijderen en welke impact dat zou hebben op je AI-systeem.

De hele case in detail verder lezen? Inclusief alle nodige code? Download dan snel hier onze case.

De hele case in detail verder lezen? Inclusief alle nodige code? Download dan snel hier onze case.

De hele case in detail verder lezen? Inclusief alle nodige code? Download dan snel hier onze case.

Download hier het kaartspel en de AI-dee canvas.

Van theorie naar praktijk

Met artificiële intelligentie neem je data-driven beslissingen. Wil jij je voorraad accurater voorspellen, inkoopgedrag efficiënter sturen of HR-processen optimaliseren? AI geeft jouw bedrijf op elk vlak een duw in de rug. Ontdek ons aanbod aan toepassingen die je razendsnel van theorie naar praktijk loodsen.

OPLOSSINGEN