Artificial Intelligence gaat steeds meer menselijke taken overnemen. Van AI-systemen voor predictive maintenance van machines, fraudedetectie en het herkennen van risicosituaties in de openbare ruimte tot het diagnosticeren van tumoren en het beoordelen van kredietaanvragen. In deze blog leg ik in vijf tips uit hoe je om gaat met de risico's.
De toepassingen kunnen - net als mensen - leren van hun ervaringen en zich aanpassen aan veranderende omstandigheden. Dat gebeurt initieel op basis van grote hoeveelheden historische ‘trainingsdata’. Later wordt gewerkt met live-data waarmee het model is te verfijnen, te verbeteren en zo nodig aan te passen. De kwaliteit van de data is dus doorslaggevend voor de kwaliteit van een AI-systeem. Met name wanneer het systeem zelfstandig beslissingen neemt, ontstaan risico’s. Hoe zijn die te reduceren?
Artificial Intelligence is een strategisch speerpunt voor veel bedrijven, maar de risico’s zijn vaak nog niet onder controle. Reden hiervoor is dat het bouwen van een AI-toepassing iets totaal anders is dan het ontwikkelen van traditionele softwarepakketten. Een AI-systeem functioneert doorgaans autonoom, waardoor de mogelijkheid bestaat dat het ‘ontspoort’ en dus foute of discutabele beslissingen neemt. Dat brengt grote risico’s mee voor de continuïteit van de organisatie en de bestendigheid van klantrelaties. Om dat te voorkomen is aandacht geboden voor de kwaliteit en het eigenaarschap van de data waarmee het AI-model ontwikkeld wordt. Daarnaast mag de werking van het model geen black box zijn en is de organisatorische inbedding belangrijk. Hier de tips om deze risico’s af te dekken.
Werken met de schone, complete en recente datasets is een harde eis bij het ontwikkelen van AI-toepassingen. Dat geldt met name voor de initiële trainingsdata waarmee het model wordt opgezet, maar ook voor de data waarmee het later wordt geperfectioneerd. Soms zijn de gegevens afkomstig uit verschillende bronnen. Dan kan het nodig zijn om ze op te schonen, te ontdubbelen of om te zetten naar één bestandsformaat. Wanneer een AI-systeem operationeel is en dus met live-data werkt, moet het feedback krijgen. Onvolkomenheden die eindgebruikers signaleren dienen gemonitord en direct verwerkt te worden.
Wanneer AI-systemen operationeel zijn worden ze gevoed met live-data, bijvoorbeeld over beursontwikkelingen of sensordata van ‘connected machines’. Dan moet duidelijk zijn wie verantwoordelijk is voor de kwaliteit van de data. Wanneer het eigenaarschap niet is belegd, gaan betrokkenen ten onrechte op elkaar vertrouwen en kunnen onbevoegden iets veranderen aan een dataverzameling of het applicatielandschap. Daardoor ontstaat het risico dat het model zich niet meer gedraagt als in de setting waarop het getraind is (en dus niet goed meer functioneert). Daarnaast moeten klanten en prospects in het kader van de AVG toestemming geven voor het gebruik van persoonlijke gegevens en kunnen nagaan waarvoor deze gebruikt worden.
Stel dat een verzekeraar wil bepalen hoe hoog de premie van onroerend goed moet zijn en daarbij alleen met data werkt over de grootte van het gebouw en de omgeving ervan. Het AI-model neemt dan bijvoorbeeld niet mee hoeveel mensen er werken en of er veel kostbare apparatuur staat.
Een ander voorbeeld is een AI-systeem voor schadeafhandeling. Dit systeem ontdekte dat het opgetelde schadebedrag van rode auto’s relatief hoog is. De verzekeraar heeft niet rücksichtslos de premies gedifferentieerd op kleur (omdat mensen met een rode auto kennelijk agressief rijden). In plaats daarvan is uitgezocht dat in het bestand met trainingsdata toevallig een aantal peperdure rode Ferrari’s zaten die total loss waren gereden. Kortom, maak tijd voor validatie en eventuele bijstelling van besliscriteria. Zorg dat je snapt wat het model doet en waarom. Dat vraagt om de combinatie van datakennis en business kennis.
Roep niet ‘we moeten iets met AI’ maar formuleer een duidelijk doel en tijdspad. Kies voor een stapsgewijze aanpak en begin met een aansprekende business case. Op basis hiervan is een succesvol Proof-of-Concept te realiseren. Formeer “dedicated teams” voor innovatie waarin alle betrokkenen en specialismen zijn vertegenwoordigd.
Benoem een eindverantwoordelijke voor AI-projecten, bijvoorbeeld een Chief Digital Officer, en leg het eigendom van de business case bij de business, bijvoorbeeld bij de CFO of CMO. Laat het IT-personeel de juiste cursussen volgen en zorg voor ondersteuning van specialisten als dat niet mogelijk is. Externe experts moeten bekend zijn met de nieuwste AI-technologieën en data science toepassingen.
Bedenk ook dat het inzetten van AI kan leiden tot taakverandering of banenverlies. Maak lijnmedewerkers duidelijk dat ze door de komst van AI meer als kenniswerker ingezet gaan worden. Ze gaan verantwoordelijker werk doen waarin ze hun talenten beter kunnen etaleren en verder kunnen groeien.
Hoe sterk de functionaliteit van AI-toepassingen ook is, ze worden niet of onvoldoende gebruikt voor beslissingsondersteuning wanneer er geen goede training en support is. Eindgebruikers moeten niet alleen hulp en informatie krijgen bij het gebruik van de tools, maar ook bij het integreren van AI in hun werkprocessen. Het team dat implementaties verzorgt moet dus zowel op technologisch- als bedrijfsmatig vlak ondersteuning kunnen bieden. De vorm waarin dit gebeurt dient vooraf goed doordacht te worden.
De Nationale Benchmark Data-innovatie in de Industrie geeft je antwoord op die vraag. We hebben onderzocht wat de huidige situatie is ten aanzien van datagebruik, maar ook welke kansen en knelpunten bedrijven in de industriële waardeketen signaleren bij het gebruik van data bij innovatieprojecten.
Je kunt nog steeds deelnemen aan het assessment en ziet direct wat jouw scores zijn ten opzichte van andere bedrijven. Na afloop van de onderzoeksperiode ontvang je kosteloos een rapport waarin de belangrijkste uitkomsten te vinden zijn.
Neem hier deel aan het assesment voor een vergelijking met concurrenten: www.valid.nl/benchmark