De getallen zijn overweldigend. Google voert elke minuut ruim 3,6 miljoen zoekopdrachten uit, YouTube serveert in die tijd 4,1 miljoen video’s, Uber maakt bijna 46.000 ritjes en webwinkel Amazon zet ruim een kwart miljoen dollar om. Alleen de Amerikanen zijn al goed voor 2,6 miljoen gigabyte aan data. Per minuut. Elke klik, swipe of view genereert gegevens.
En dan tellen we nog niet eens de koelkasten, cv-ketels, hartslagmeters en andere apparaten mee die continu data verzamelen, al dan niet verbonden via het Internet of Things. Of al die miljarden sensoren die nu en in de toekomst worden aangebracht op bruggen, treinen, lantaarnpalen en snelwegen, om permanent data door te sturen.
Als de wereld ergens geen gebrek aan heeft, dan is het aan data. De bakken met data zijn vele zettabytes groot – 1 zettabyte is een miljoen petabytes, een petabyte is een miljoen gigabyte – en groeien snel. Negentig procent van álle data in de wereld is in de afgelopen twee jaar gegenereerd. Data zijn overal en gaat in toenemende mate ons leven bepalen, daar twijfelt niemand aan. En dat de informatiestromen businesskansen bieden, spreekt bijna vanzelf. Maar waar de grote corporates data lakes aanleggen, meren vol data, en hun teams laten onderzoeken op wat voor manier ze die gegevens voor hun business kunnen laten werken, is het voor veel ondernemers zoeken.
Dat ervaart ook Georges De Feu CEO van de Belgische scale-up LynxCare (foto rechts, naast co-founder Dries Hens), big-datamarktleider in de Belgische zorgsector. Met artificiële intelligentieplatformen stelt LynxCare ziekenhuizen in staat om op een efficiënte geautomatiseerde manier meer inzicht te krijgen in hun data, deze efficiënt te verwerken en te visualiseren in real-time digitale dashboards. De oplossingen van LynxCare zorgen voor meer inzicht en transparantie voor patiënt, arts en ziekenhuis. Zo zijn artsen in staat beslissingen te nemen op basis van actuele data en hun patiënten hierover te kunnen informeren.
Ook De Feu ervaart dat organisaties het moeilijk hebben om de grote hoeveelheden data te verwerken en er zinvolle analyses mee te verrichten. ‘Data mining in healthcare heeft met heel wat belemmeringen af te rekenen. Er zijn heel veel verschillende types data, die ook nog eens verspreid zitten over verschillende legacysystemen. In een ziekenhuis heeft elke afdeling, elk labo, elke arts zijn eigen data. Als je data wilt gebruiken om de kwaliteit van de dienstverlening in kaart te brengen en te verbeteren moet je eerst al die verschillende datasilo’s gaan verwerken. De variabiliteit van de data is heel hoog in de zorg en de gevraagde analyses zijn ook niet evident. Het gaat niet om het aantal websitesbezoekers of het aantal kliks op een Facebookpost. De analyses in de zorg moeten gedaan worden door mensen met een klinische achtergrond’, aldus De Feu.
Organisaties beschikken over meer data dan ze vaak zelf beseffen
Beginnend bij het begin: hoe kom je aan kwalitatief goede data? Grofweg hebben ondernemers drie opties: je verzamelt zelf relevante gegevens, je koopt ze in of grijpt je kans om bij gratis aanbieders van data te shoppen. Data shoppen is helemaal niet nodig zeggen specialisten. Organisaties beschikken over meer data dan ze vaak zelf beseffen. Via de eigen systemen die elke ondernemer gebruikt, kómt al veel data binnen. Voor analyses die je bedrijfsvoering verbeteren heb je lang niet altijd gigantische datasets nodig. Het grote probleem met data is dat organisaties hun verschillende datasets niet aan elkaar koppelen. Als ze dat wel zouden doen, zouden ze tot heel interessante conclusies kunnen komen.
Een belangrijke bron is vanzelfsprekend het verkeer op online kanalen, die via Google Analytics en socialmediatools als Hootsuite, zijn te analyseren. Wanneer ontstaat er engagement? Welke posts op Twitter of mijn blog doen het goed en waarom? Wat is de toon van de online reviews? Wanneer zijn mijn klanten online? Hoeveel klanten laten op het laatste moment een vol webwinkelmandje achter en om wat voor producten gaat het dan? Die laatste informatie zal vaak via een crm-systeem voor het beheer van klantrelaties binnenstromen. De transactiegeschiedenis biedt een schat aan inzichten in de gewoonten, voorkeuren en het betaalgedrag van bestaande klanten, en biedt mogelijkheden om aan segmentatie te doen en je klantinformatie te verfijnen van pure persoonsgegevens tot uitgebreidere klantprofielen met relevante informatie.
Ook ondernemers die een deel van hun business offline afhandelen, kunnen hun eigen database vullen met bruikbare klantinformatie. Dat data verzamelen kan beginnen met een week lang bijhouden hoeveel mensen op welk tijdstip de winkel binnenlopen en die gegevens in Excel zetten. Je (digitale) kassagegevens of bankafschriften in kaart brengen via een serie grafieken geeft ook al veel inzicht. Of denk aan de kapper die geen idee heeft waar zijn klanten eigenlijk wonen en altijd maar blind folders verspreidt in de wijde omgeving: met een korte gerichte enquête weet hij precies wie zijn klanten zijn, hoe vaak ze doorgaans komen en waar ze wonen – daarmee kan hij veel gerichter promotie-acties uitvoeren. Data hoeven niet altijd big te zijn, als ze maar relevant zijn.
En dat is blijkbaar een heikel punt voor organisaties. ‘Ze gaan er te vaak van uit dat data relevant zijn, net omdat ze beschikbaar zijn: we kunnen het meten, dus het zal wel relevant zijn. Maar uiteraard moet het net andersom: welke data zijn relevant voor onze organisatie? En wat moeten we meten om aan die data te geraken?’ liet prof. dr. Philippe Baecke onlangs optekenen in ons magazine MT. De grootste uitdaging voor organisaties is en blijft dus: met welke data kan ik mijn business versnellen? Dat vergt – zoals alles – creativiteit van de ondernemer zelf.
De vraag voor de meeste ondernemers is dus vooral met welke data – en vooral met welke inzichten die je uit de koppeling van verschillende datasets zou kunnen halen – je écht waarde kunt genereren. Want daar draait het om in je organisatie: waarde scheppen voor je klanten en als het even kan zelfs meerwaarde.
Het klopt volgens De Feu wel dat er heel wat bedrijven bezig zijn met big data of zich bewust zijn van het feit dat ze iets moeten doen met de massa data waarop ze zitten, maar dat is onvoldoende. ‘Weten dat je veel data hebt, is een goede eerste stap. Maar het is toch nog iets anders dan operationele systemen laten draaien om continu en geautomatiseerd je data te verzamelen en te analyseren. Het aantal bedrijven dat zoiets effectief realiseert, is klein’, zegt De Feu.
Een probleem dat zich daarbij stelt, ligt ook deels bij de leveranciers van oplossingen voor big data. Er zijn heel weinig bedrijven die een all-in oplossing voor big data aanbieden, zoals LynxCare dat doet voor healthcare. ‘Veel kleinere bedrijven trachten verschillende problemen aan te pakken en bieden bijvoorbeeld een oplossing voor datavisualisatie, text mining, maar een effectief platform om alle gestructureerde en ongestructureerde data te verwerven bieden ze zelden. Onze klanten zoeken een ready-to-use platfom, geen blokkendoos waarmee ze zelf hun oplossing moeten bouwen.’
‘Je ziet bedrijven als Google en Amazon voorzichtige stappen zetten in de richting van zo’n platform. Maar dat zal bijvoorbeeld niet werken in onze sector, omdat er heel veel kennis nodig is om de analyses relevant te maken. Het is precies daarom dat een derde van onze mensen een klinische achtergrond heeft als apotheker, arts, verpleegkundige. De andere twee derde heeft een achtergrond in engineering. Alleen door die sterke combinatie kunnen wij relevante oplossingen bieden.’
De explosie aan data zit hem vooral in de vele verschillende soorten nieuwe data die er blijven bijkomen
Een ander heikel punt is een gebrek aan kennis over big data. Uit onderzoek blijkt dat veel ondernemers wel inzien dat die stortvloed aan data kansen biedt, ook voor bedrijven die in de kern niet digitaal zijn, maar het ontbreekt ze aan tijd, geld en kennis om ermee aan de slag te gaan. Zo’n 71 procent van de ondervraagde ondernemers zegt bijvoorbeeld nauwelijks software te gebruiken om interne of externe databronnen te koppelen en zo tot inzichten te komen. Terwijl net daar de kansen voor het grijpen liggen: in het combineren van databronnen.
Dat kan volgens De Feu wel kloppen. Ook ziekenhuizen hadden tot voor een paar jaar geen idee wat ze met hun data konden doen: ‘Ze zijn vooral gericht op het verbeteren naar hun zorg. Er was tot voor kort gewoonweg geen vraag naar data en de analyse ervan. Vandaag echter worden ziekenhuizen gefinancierd op basis van de dienstverlening aan patiënten. Ze moeten met andere woorden kunnen aantonen hoe goed ze het doen. Data worden ineens heel erg relevant.’
Dat het de gebrekkige manier waarop organisaties met hun data omgaan een kwestie van budget is, gelooft De Feu echter niet. Toch niet wanneer het over ziekenhuizen gaat. Een gemiddeld ziekenhuis in Europa draait een jaarlijkse omzet van 200 à 300 miljoen euro. Dat zijn dus grote ondernemingen die zoals elke onderneming gericht zijn op winstmarges. Ze moeten dus gaan zoeken naar tools en data om hun processen te verbeteren.’
De Feu verwijst naar een publicatie van McKinsey uit 2015: ‘Toen bleek al dat binnen het volledige healthcarebudget 12 tot 17 procent kon worden bespaard door beter met big data om te gaan. Als je weet dat 20 procent van alle ziekenhuisuitgaven naar administratie gaat en dat van die 20 procent nog eens 20 à 25 procent naar dataverwerking gaat, dan kom je dus aan 5 procent van het totale budget of iets van een 10 tot 15 miljoen euro. Die kost is zo hoog vanwege de variabiliteit van enorme volumes data en omdat data nog grotendeels manueel verwerkt wordt in ziekenhuizen. Dat is een absurde besteding van middelen. In de plaats van dat te besteden aan inefficiëntie, zouden ze dat beter investeren in nieuwe technologieën…’
Als we weten dat 90 procent van alle beschikbare data de voorbije twee jaar werd gegenereerd en exponentieel toeneemt, moet er dringend efficiënter met data worden omgegaan. ‘De groei aan data kan je geen halt toeroepen en dat is ook niet nodig’, meent De Feu. ‘Integendeel, hoe meer relevante data hoe meer en beter de inzichten die je krijgt over je business. We hebben bij Lynxcare alle data die we van ziekenhuizen krijgen nodig om de zorg te verbeteren. Inzake data storage is er ook geen enkel probleem. De enige uitdaging zit in de data efficiënt verwerken. Dat is niet zozeer een kwestie van volume, maar de variabiliteit. De explosie aan data zit hem vooral in de vele verschillende soorten nieuwe data die er blijven bijkomen. Denk bijvoorbeeld aan Internet of Things, speech-to-text, imaging data…’
‘We moeten in de eerste plaats technieken ontwikkelen om de variabiliteit onder controle te krijgen. Vandaag zijn het nog mensen die de datavariabiliteit onder controle proberen te houden, vroeger waren het administratieve krachten die aan dataverwerking deden, vandaag zijn het technische mensen die de verschillende soorten data moeten mergen. Maar er moeten daarvoor geautomatiseerde oplossingen komen, zodat niet de hele IT-afdeling aan data mapping zit te doen. Maar dat is wel wat er vandaag aan het gebeuren is’, zegt De Feu.
Dus in de plaats van technologie te gebruiken om data te genereren, waar we vervolgens toch geen blijf mee weten, lijkt het interessanter diezelfde technologie ook te gaan gebruiken om data geautomatiseerd te verwerken. De Feu: ‘Artificial Intelligence moet getraind worden. Je moet die aanvankelijk sturen naar bepaalde inzichten of tonen hoe het bepaalde deviaties kan detecteren. Maar om een algoritme te trainen zodat het relevante data en inzichten uit uw bedrijfsdata haalt, heb je de kennis van experten nodig. Opdat onze technologie goed zou werken, hebben we mensen met een klinische achtergrond nodig. Alleen zo kunnen we met ons platform relevante data selecteren en analyseren.’