Datamanagement voor de smart pensioensector: waardevol of risicovol?

Leestijd vanaf hier 31 minuten

Inleiding: data als concept, en als vakgebied

Data zijn altijd al een onlosmakelijk onderdeel van onze maatschappij geweest. Vrijwel alle sectoren verzamelen al vele jaren data, zo ook de pensioensector. Wat nieuw is, zijn de hoeveelheid data, de variëteit aan verschillende databronnen en dat data-science technieken en data-integriteitsanalyses en -onderzoeken expliciet ingezet worden om besluitvorming te faciliteren. Het begrip data is in onze visie een concept c.q. een vak, dat meerdere thema’s/domeinen bevat zoals datamanagement en data-science [bron]Te vergelijken met risicomanagement als vak en domein en meerdere disciplines heeft als financieel en niet-financieel risicomanagement en daarbinnen weer specifieke risicocategorieën als IT-risico, integriteitsrisico, klimaatrisico, etc..

Complexiteit in denken rondom data
De term data is van zichzelf niet nieuw, het is echter wel een nieuw concept. De term data gaat al sinds de 17ᵉ eeuw mee en is een breed begrip.

In essentie is het een retorische term, zonder een waardevolle betekenis. Data hebben in de kern altijd een arbitrair element in zich. Ze kunnen alleen relevant zijn in relatie tot een bepaalde context en tot de wijze van interpretatie door de gebruiker(s). Data zijn, als een set van principes, basisvoorwaarden voor argumentatie aan de ene kant én feiten aan de andere kant [bron]Borgman, C.L., Big Data, Little Data, No Data, Scholarship in the Networked World. De term data is wat ons betreft een inclusief begrip en tegelijkertijd een breed en lastig thema om te definiëren.

Enkele van de thema’s binnen het concept data zijn datamanagement en data-science. We zullen in hoofdstuk 3 onze specifieke definitie van en onze visie op datamanagement geven. We kunnen data classificeren naar observationele data, gecomputeriseerde data, experimentele data, niet tijdgebonden data, dataclassificatie en opgeslagen data. Ook hier speelt weer het arbitraire element. Elke categorisering is namelijk het resultaat van bepaalde criteria en naamgeving van de data. We kunnen ook zeggen dat data verschillende type bronnen kennen: primair, secundair en tertiair. Data kunnen gecreëerd worden door personen, machines, computers, modellen, software en vanuit de logische relatie tussen data. Data kunnen gestructureerd en ongestructureerd zijn, data kunnen gemanaged worden op verschillende abstractieniveaus, en data kunnen niet volledig reproduceerbaar of traceerbaar zijn. In de bijlage geven wij een overzicht van de termen en begrippen binnen data-science, als introductie.

Een belangrijk aspect is hoe data onderdeel zijn van het startpunt voor wat data kunnen zijn voor iemand, voor een bepaald doel, gegeven een bepaalde tijd. Data vormen geen zuiver concept, noch een begrip op zichzelf. Data dienen te allen tijde bezien te worden in de context [bron]Borgman, C.L., Big Data, Little Data, No Data, Scholarship in the Networked World.

De definitie van data
In dit whitepaper hanteren wij de volgende definitie: data zijn overdraagbare kenniselementen, die via gestructureerde en/of ongestructureerde vastgelegde bronnen zijn verkregen en op een persoonlijk of machinale wijze zijn verwerkt voor een bepaald doel, teneinde een (strategisch) besluit te faciliteren of als procesoptimalisatie gehanteerd te worden. Beleving en betekenis geven aan data is de essentiële stap naar de toekomst toe, in onze visie.

Betekenis: slimme datatechnieken stellen ons tegenwoordig in staat om veel meer te doen dan alleen het vastleggen van de jarenlange historische data die de sector tot haar beschikking heeft: we hebben nu de mogelijkheid om de eigen, interne, data te koppelen aan externe databronnen. Het verrijken van eigen data geeft betekenis aan uw besluitvorming op strategisch en operationeel niveau: van kwantiteit aan data-gegevens naar kwaliteit van data-informatie over de tijd en te gebruiken in managementinformatie.

Beleving: door data op een persoonlijke wijze te visualiseren en te presenteren, kunnen besluitvormingsprocessen door pensioenfondsbestuurders integraal plaatsvinden en krijgen data een beleving. Het gaat hier om de weergave van de kwalitatieve data-informatie in managementinformatie op een dusdanige wijze dat verklarende teksten minder nodig zijn.

We kunnen betekenis en beleving creëren door data op de juiste manier te verzamelen, te koppelen, te bewerken en er analyses op los te laten om er inzichten uit te halen. Denk aan het koppelen van uw eigen beleggingsresultaten aan de gemiddelde resultaten in uw branche zodat u, waar nodig, uw strategie kunt aanscherpen. Moderne datatechnieken maken optimaal datamanagement mogelijk en zorgen dat u, als pensioenfondsbestuur, besluiten neemt op basis van integere en juiste data en zo uw beheerste en integere bedrijfsvoering verbetert, versterkt en verdiept.

Door de toenemende digitalisering en betere toegankelijkheid van data zien we dat data steeds meer een centrale positie innemen in bestuurlijke cycli. De hoeveelheid, variëteit en behoefte aan slimme datatoepassingen nemen daarmee ook toe. Enerzijds biedt dit dus kansen voor organisaties die in staat zijn waarde uit (hun) data te halen en zo tot betere besluitvorming te komen. Anderzijds brengt deze nieuwe ontwikkeling ook risico’s met zich mee. Denk aan risico’s rondom kwetsbaarheden, privacy en cybercrime. Daarmee ligt er een nieuw vraagstuk bij u als pensioenfondsbestuur op tafel: het rendementsvraagstuk ten aanzien van data. Oftewel: welke betekenis en beleving geeft u aan datamanagement: waardevol of risicovol? Wat is hierop uw antwoord?

Tijdslijnen
De toenemende digitalisering en datamassa brengen ook slimme datatoepassingen met zich mee die nieuwe kennisdomeinen creëren. Zo is data-science niet meer weg te denken uit de maatschappij. We zitten er middenin zonder dit altijd te realiseren. Een voorbeeld van data-science is dat, door het gebruik van computers en het toepassen van complexe berekeningen, tijdslijnen en gebruikersprofielen gecreëerd worden. Deze tijdslijnen en profielen zijn, door het gebruik van algoritmes, de basis van veel socialmediatoepassingen. Door het gebruik van allerlei slimme technieken zijn nepnieuws en nepvideo’s bijna niet meer te onderscheiden van echte. Er zijn, om hier goed mee om te kunnen gaan, weer andere slimme datatoepassingen nodig. Het gaat om het hebben van de juiste data op het juiste moment om zo de juiste beslissing te kunnen nemen. Het gaat dus om integere data.

Datakwaliteit als waarde voor besluitvorming
Juiste data leiden tot betere besluitvorming. Foute data leiden tot foute besluitvorming. Wie meer wil doen met data, moet dan ook allereerst vertrouwen krijgen in haar data door aan de slag te gaan met een essentieel thema van datamanagement, namelijk het creëren van optimale datakwaliteit als een kernactiviteit. Binnen de pensioensector krijgt het vraagstuk datakwaliteit, mede door de strategische discussies over het nieuwe en meer individuele pensioenstelsel aan de ene kant, en toezicht thema’s aan de andere kant, veel meer aandacht. Daarnaast hebben diverse operationele incidenten in pensioenadministraties en onjuiste communicatie met deelnemers het reputatievraagstuk aangescherpt. De praktijk stelt dan ook steeds vaker de vraag of de datakwaliteit wel op orde is. Het resultaat daarvan is dat de politiek, toezichthouders als De Nederlandsche Bank (DNB) en Autoriteit Persoonsgegevens (AP), consumentenprogramma’s en pensioenfondsen zelf het vraagstuk datakwaliteit hoger op de agenda hebben gezet.

Wist u dat DNB in 2025 smart supervisor wenst te zijn?
DNB op haar beurt wil zich de komende jaren als toezichthouder transformeren naar een ‘smart supervisor’. Zo wil ze de technologische mogelijkheden beter benutten (digitale strategie van DNB) door routinematige taken zoveel mogelijk te automatiseren en datagedreven te werken. Dit is onderdeel van de nieuwe toezichtmethodologie die wordt ontwikkeld door DNB [bron⁴].

Smart pensioenfonds in 2025?
Deze ambitie van DNB zal effect hebben op uw besturing. Kan dit betekenen dat u ook voor 2025 klaar moet zijn en een smart pensioenfonds moet zijn? Het worden van een smart pensioenfonds vraagt om een aantal gerichte stappen. Deze stappen worden in het vervolg van dit whitepaper voor u uiteengezet, met een terugblik naar de eerste twee hoofdstukken. Bent u er klaar voor om een smart pensioenfonds te worden?

Waar te beginnen?
In de praktijk blijkt het oplossen van vraagstukken binnen het concept data om diverse redenen een uitdaging. Herkent u dat het begrip data in beginsel een eenvoudig begrip lijkt, maar dat het als concept/vak in de praktijk erg breed is? En merkt u dat de discussie over data veelal wordt geleid vanuit de operationele mogelijkheden bij uw (externe) uitbestedingspartners, maar niet begint bij uw eigen visie op data en datamanagement? Of ziet u weer een vraag van DNB in de vragenlijst niet-financiële risico’s?

Een gestructureerde aanpak van het vakgebied data, waarbinnen uw eigen visie leidend is, is essentieel om het thema datamanagement succesvol in te zetten. Wat is uw eerste stap om te komen tot een visie op data?

Leeswijzer
Data als concept en vakgebied
In dit whitepaper hanteren wij de volgende denkstructuur als het gaat om het vak data. Wij noemen het vak, dat ook als concept gezien kan worden: data. Het is hiermee een parapluterm, een eerste laag in het data-denken. Vergelijkt u het met de term risicomanagement. Dat is ook een vak, een concept, en heeft een brede lading en uitwerking.

Datamanagement en data-science zijn thema’s binnen het vakgebied data
Het vak kent een aantal thema’s/domeinen. Dit zijn thema’s als datamanagement, data-science en data-tooling. Thema’s ontstaan wanneer we het werkveld van data opknippen in behapbare onderdelen, die elk weer een bepaalde diepgang kennen. Dit is de tweede laag in het data-denken.

Datakwaliteitsvraagstukken als tastbaar product van het thema datamanagement
Als derde laag in het data-denken geldt dat er sprake is van een zogenaamde discipline/kernactiviteit c.q. vraagstuk, zoals datakwaliteit en data-controls.

Data als geregistreerd record, als ingevoerde gegeven
De vierde laag is het niveau van datavelden: de datarecords. Dit zijn gegevens, opgeslagen in gestructureerde en/of ongestructureerde vorm, die geregistreerd worden, denk aan man, vrouw, geboortedatum, arbeidsongeschiktheidspercentage, burgerlijke staat en tekst uit beleidsdocumenten. Het is de basis waarop het hele concept van data is gebaseerd. In de volksmond noemen we de datavelden en data-records (als technische term) ook data.

In de praktijk wordt met de term data dus gerefereerd aan het concept data (eerste laag) en aan de specifieke datavelden (vierde laag). Dit maakt het niet altijd duidelijk en zorgt voor verwarring. De context waarin de term data gebruikt wordt, zorgt dan voor de oplossing. Zoals eerder gerefereerd: data vormen geen zuiver concept, noch een begrip op zichzelf. Data dienen te allen tijde bezien te worden in de context [bron]Borgman, C.L., Big Data, Little Data, No Data, Scholarship in the Networked World.

 

De begrippen in het kort:

  1. Data als vak en concept
  2. Datamanagement als thema en domein binnen het vak data
  3. Datakwaliteit als discipline/kernactiviteit binnen het domein datamanagement
  4. Data als dataveld, als geregistreerde records

Om u, als pensioenfondsbestuurder, te challengen én te faciliteren bij de gedachtevorming over het vak data en de hiermee samenhangende onderwerpen, hebben wij dit whitepaper geschreven.

In dit whitepaper geven wij onze visie op het vak/concept data en geven wij antwoord op de drie belangrijke W-vragen rondom data in de uitvoering en uitwerking:

  1. Wat is data voor een pensioenfonds?
  2. Waarom zou u als pensioenfondsbestuur datamanagement toe moeten passen?
  3. Wanneer en in welke processen kunt u datamanagement inzetten en borgen?

In dit whitepaper zetten wij, vanuit onze kennis en ervaring op het vakgebied van data én het pensioendomein, onze visie op het thema datamanagement uiteen.

“Een gestructureerde aanpak van het vakgebied data, waarbinnen uw eigen visie leidend is, is essentieel om vervolgens datamanagement als thema succesvol in te zetten.”

 

Wat is het concept data voor een pensioenfonds?

Om antwoord te kunnen geven op de W-vragen 2 en 3 is het zaak eerst het concept data vanuit verschillende perspectieven in relatie tot een pensioenfonds te bezien én onze visie daarop aan u toe te lichten.

In de kracht van herhaling: data zijn een onlosmakelijk onderdeel van onze maatschappij. Data zijn namelijk overal om ons heen en kennen allerlei vormen. Denk aan platte data (de vierde laag als aangegeven in het hoofdstuk hiervoor), uit tabellen, aan spraakdata van telefoongesprekken, aan beeldmateriaal en aan data van transacties. Daarbij komt dat we tegenwoordig niet alleen de beschikking hebben over de eigen data, maar ook externe bronnen kunnen raadplegen. Denk bijvoorbeeld aan bronnen als het UWV, DNB en de Europese Centrale Bank. Allemaal voorbeelden van de vierde laag-denken in het concept data.

Een bottom-up benadering
Door alle beschikbare data (de vierde laag) te inventariseren, te ontsluiten, te combineren en te analyseren met data(kwaliteit) analyse technieken (de derde laag) zetten we data om in feiten en informatie, waarbij de transformatie plaatsvindt van datavelden naar een visie op hoe deze data te structuren langs de lijnen van datamanagement (tweede laag). Dat noemen we datamanagement: datamanagement is het gestructureerde proces van het produceren, vastleggen, onderhouden, actualiseren, beheren, beveiligen en analyseren van data. Naar onze mening met als uiteindelijke doel om deze data zodanig om te zetten naar informatie en feiten, dat op basis hiervan strategische en operationele beslissingen genomen kunnen worden. De interactie tussen alle genoemde lagen noemen wij het concept van data (eerste laag). Om de vier aangegeven lagen in samenhang in te zetten in de bestuurlijke cycli, is het van groot belang om een visie te hebben, top down of bottom up. Om zo de trap van boven naar beneden te lopen of van beneden naar boven, en het concept data te laten werken voor uw fonds.

Onze visie op data als concept, een top down-benadering
Het juiste pensioen uitkeren aan de juiste persoon op de juiste datum, op de juiste bankrekening. Helder communiceren. Kiezen voor het beleggingsfonds dat het beste aansluit op uw doelstellingen. Zomaar enkele van uw kerntaken waarvan uw deelnemers, terecht, verwachten dat u ze goed uitvoert. In onze visie is het vertalen van het concept data van vitaal belang om deze kernprocessen ten uitvoer te kunnen brengen.

Om het concept data optimaal te implementeren is er in onze optiek sprake van drie succesfactoren:

1. Bestuurder:
Het begint bij u. Het gaat hier om het gegeven dat iemand binnen het bestuur, op basis van deskundigheid en geschiktheid, het vak data in zijn of haar portefeuille heeft. En zo een gericht aanspreekpunt vormt. Te vergelijken met een sleutelfunctiehouder risicobeheer, audit of actuariaat. Een persoon die het vak, meer dan de andere bestuursleden, voor ogen heeft. Het gaat hierbij niet om een techneut pur sang, maar om een persoon die de lenigheid en intrinsieke nieuwsgierigheid heeft voor dit vakgebied. Hij of zij moet ook de techniek en theorie kunnen volgen en begrijpen, en het bestuur hierin op begrijpelijke wijze kunnen meenemen. Anderszins kunt u dit vergelijken met professionals als actuarissen en beleggingsprofessional. Allemaal professionals die heel goed de techniek van hun vak snappen, met de formules en rekensommen, en tegelijkertijd begrip hebben van onder meer de zaken onder motorkap, de ontwikkelingen op het vakgebied, en de wijze waarop datamodellen worden gebouwd en gestructureerd. Het is daarbij naar onze mening niet nodig om zelf te kunnen programmeren. Wie is uw aanspreekpunt in het bestuur voor data? Besturen hebben ook (steeds vaker) al een aanspreekpunt voor IT. Dit takenpakket zou uitgebreid kunnen worden met data.

2. Bestuur:
Het gaat hier om bestuurlijk eigenaarschap en bestuurlijke verantwoordelijkheid. Het bestuur moet eigenaarschap hebben en aanspreekbaar en accountable zijn op de resultaten en op hoe data een plaats krijgen in de besluitvorming (besturing). De visie van alle bestuurders als collectief is hierbij een cruciaal thema.

Van Bestuurder, zijnde het individueel perspectief, naar het bestuur, het collectief perspectief. Wederom te vergelijken met de sleutelfunctiehouders. Het bestuur is als collectief verantwoordelijk voor bijvoorbeeld risicomanagement en actuariaat, ook al zijn er deskundigen in het bestuur. Dit geldt ook voor data.

3. Besturing:
Het gaat hier om het proces rondom, de techniek achter en de borging van de datacyclus in de besturing van het fonds. Hoe zorgt u dat er sprake is van bewustzijn en beleving? Hoe geeft u betekenis aan de rol van datamanagement in de besturingscyclus? Te denken valt aan bijvoorbeeld:

3.1: Maximale datakwaliteit: als uw data niet op orde zijn, neemt u de verkeerde beslissingen. Optimale datakwaliteit is dan ook een zogenaamde hygiënefactor.

3.2: Continue monitoring van datakwaliteit: iedere kwaliteitsmeting is slechts een momentopname. Data die nu goed zijn, zijn dat volgende maand niet meer. Bijvoorbeeld omdat er continu nieuwe data bij komen. Denk aan deelnemers die verhuizen of van baan veranderen. Het monitoren van de datakwaliteit moet dus een continu proces zijn.

Deze drie-eenheid van denken en handelen – bestuurder, bestuur en besturing – is volgens ons cruciaal voor de begripsvorming, herkenning en relevantie van wat data kan betekenen voor de toekomst van uw fonds, en voor beheerste en integere bedrijfsvoering.

In vier stappen naar optimale data-implementatie
Het concept data, met als één van de vraagstukken het realiseren van optimale datakwaliteit door een goede inrichting van datamanagement, is geen statisch en eenmalig proces. Het vraagt om een doorlopend geheel van monitoring, beoordeling en verbetering. Om dit proces goed vorm te geven, zijn meerdere facetten van belang. Deze facetten zijn onderverdeeld naar vier kwadranten: [bron]Vier domein zijn synchroon aan het RAVC – denk- en werkmodel, ook te hanteren als blauwdruk voor datamanagement.

  1. Databewustzijn
  2. Datastrategie
  3. Data governance
  4. Dataprocessen

1. Databewustzijn: begripsvormings- en herkenningsfase
Databewustzijn of ‘data awareness’ is een belangrijke eerste stap vóórdat u überhaupt met data aan de slag gaat. Het is van essentieel belang om antwoord te hebben op de volgende vragen:

  • Wat verstaat het bestuur onder data als concept?
  • Wat zijn de termen en begrippen die gehanteerd worden in dit vak? Datamanagement heeft, net als het beleggingsdomein, het actuarieel domein en het domein van integraal risicomanagement, zijn eigen begrippenkader. De fase van herkenning, van begrijpen wat de definities betekenen, is cruciaal om gezamenlijk een taal te creëren en elkaar binnen het bestuur te begrijpen.
  • Welke data zijn voor uw pensioenfondsbestuur van essentieel belang? Welke data heeft u nodig om minimaal uw kerntaken goed uit te kunnen voeren?
  • Wat is uw kennisniveau? Het gehele bestuur dient immers voldoende van de materie af te weten om uitgangspunten en beleid vast te kunnen stellen en countervailing power versus uitbestedingspartijen te hebben.
  • Staat het thema data periodiek op de bestuursagenda?
  • Maken data integraal onderdeel uit van het besluitvormingsproces?

Studiedag
Samengevat is het van belang om continu aandacht te schenken aan het onderwerp data, dit onderwerp expliciet op de bestuursagenda te plaatsen én de gehele organisatie te doordringen van het belang ervan. Dit zou u kunnen realiseren via een studiedag, waarbij u deze vragen met uw bestuurders bespreekt, als eerste stap in het proces. Heeft u al een studiedag gepland over dit onderwerp?

2. Datastrategie: proportioneel stappenplan bepalen
Het concept data is breed. Daarom is het essentieel om een heldere datastrategie te formuleren, die aansluit bij uw doelstellingen. Welke stappen gaat u zetten om te komen tot een voor u zo goed mogelijk werkplan? Dit werkplan/stappenplan moet passen bij de proportionaliteit van uw fonds en bij de wijze waarop u werkt. Pragmatisch en toch effectief. Het stappenplan moet inzicht geven in hoe u weet dat u handelt op basis van de juiste data. Zou dit een vast gegeven moeten zijn aan tafel van de besluitvormers? Iets dat uw deelnemers als vanzelfsprekend mogen aannemen? Wij menen van wel. Met data kunt u echter nog veel meer. Het kan u helpen bij het nemen van betere beleidsbeslissingen en leiden tot het bieden van echte toegevoegde waarde voor uw deelnemers. Denk bijvoorbeeld aan op maat gemaakte communicatie, klachtenafhandeling of financieel inzicht voor uw deelnemer, specifiek aan zijn of haar situatie. Of het bepalen van de risicohouding van uw deelnemer (wettelijk of bij een overgang van DB naar DC).

3. Data governance: inrichtingsvraagstuk
Dit facet gaat over de data-inrichting in de gehele governance van het fonds. Er zijn immers meerdere spelers in de keten. Zo zijn uw uitvoerders bezig met data, uw accountant en certificerende actuaris kijken naar beheerste en integere bedrijfsvoering, en ook uw tweedelijnsfunctionarissen treden op als onder andere de sleutelfunctiehouder risicobeheer. Ieder is betrokken vanuit zijn eigen rol, en dit geldt ook voor de Raad van Toezicht (RvT)/Visitatiecommissie (VC), Verantwoordingsorgaan (VO), De Nederlandsche Bank (DNB), Autoriteit Financiële Markten (AFM) en Autoriteit Persoonsgegevens (AP), compliance functionaris en de sleutelfunctiehouder Internal Audit. Hoe gaat u uw data-organisatie zo inrichten dat er geen lacunes zijn en zaken niet dubbel gebeuren? 

Een hulpmiddel kan zijn dat u nadenkt over zes verschillende rollen binnen uw fonds:

Deze rollen kunnen in samenspraak met adviseurs plaatsvinden, die ieder een van deze rollen op zich kunnen nemen. Afhankelijk van de volwassenheid van het fonds zal deze rol in de tijd evalueren. Uiteraard is het hierbij zo dat er sprake kan zijn van een combinatie van rollen. Van belang is om de rol van de uitvoerder en wat zij doet, mee te nemen bij de inrichting. Hierbij is het cruciaal om na te denken over de eigen verantwoordelijkheid en niet alleen te varen op wat de uitvoerder aangeeft.

Borging vindt niet alleen plaats in de (samenwerking tussen) functies en rollen, maar ook in beleid. Het is evident om beleid te hebben op het gebied van data. Dit kan ook onderdeel zijn van uw IT-beleid, waarbij u de verantwoordelijkheid, visie op data, proces en uitvoering beschrijft. U beschrijft hiermee de opzet, het bestaan en de werking van uw bestuurlijke datacyclus. Heeft u dit al beschreven in uw beleid?

4. Dataprocessen: monitoringsvraagstuk
Tot slot is het van belang om de diverse processen rondom de data van uw fonds in kaart te brengen en te borgen zodat bijvoorbeeld datakwaliteit in deze processen wordt meegenomen. Immers, slechte datakwaliteit is veelal het gevolg van slechte processen rondom datamanagement en het niet goed inrichten van het concept data. Er zijn bijvoorbeeld geen richtlijnen hoe een bepaald dataveld geregistreerd moet worden en wie hiervoor verantwoordelijk is. Medewerkers vullen dan naar eigen inzicht dit soort type datavelden in, waardoor analyse lastig wordt.

Uiteraard is ook het daadwerkelijk meten, beoordelen en monitoren van uw datakwaliteit essentieel. Dit begint met het definiëren van datakwaliteit-controls. U kunt dit proces beschouwen als het verloop van de ‘Opzet’, naar het ‘Bestaan’, naar de ‘Werking’ waarbij deze het volgende inhouden:

  • De opzet: wat is uw visie over data als concept?
  • Het bestaan: wie gaat wat doen en waar beschrijven we dit?
  • De werking: toetsen of er sprake is van bijvoorbeeld goede datakwaliteit op basis van uw eigen beleid en visie, of dat er alleen naar eigen interne data gekeken wordt en er geen koppeling gemaakt wordt met externe databronnen. Deze kunnen de besluitvorming sterk verrijken en verschillende inzichten bij elkaar brengen.

Samenvattend denk- en werkmodel [bron⁸]Vier kwadranten zijn synchroon aan het RAVC – denk- en werkmodel, ook te hanteren als blauwdruk voor datamanagement.

In hoofdstuk 5 gaan wij expliciet in op de verschillende controls die u kunt gebruiken voor het meten van uw datakwaliteit. Ook vertellen we u daar hoe moderne methoden en technieken u kunnen helpen in dit proces. Heeft u al een abonnement om uw datakwaliteit periodiek te meten?

[9] Dit volwassenheidsmodel voor data is gebaseerd op het IRM-volwassenheidsmodel van DNB en vertaald naar data onderdelen.

Naast deze vragen zijn er de volgende drie invalshoeken van relevantie om mee te nemen in uw overwegingen.

1: Performance- versus conformance-denken
Het implementeren van data als vak vraagt om lenigheid van het gehele bestuur. Doordat het een nieuw onderwerp is, kan het onwennig aanvoelen en wordt er in de praktijk al gauw naar de uitvoerder gekeken. Dit is wellicht begrijpelijk, echter in onze visie niet wenselijk. Als bestuurder en bestuur heeft u een eigen verantwoordelijkheid om data een plaats in de besturing van uw fonds te geven. En niet alleen als DNB ernaar gaat vragen; dit noemen wij het conformance denken. In onze visie moet u het intrinsiek belangrijk vinden om te besturen en te besluiten op basis van integere data: dit noemen wij het performance denken. Uiteraard zijn beide manier van denken belangrijk. Echter, wat is het anker voor u? Wacht u totdat DNB aangeeft dat u iets moet doen, of zet u zelf stap voor stap een richting in het data-denken? En hoe dan: bottom up of top down (zie het hoofdstuk hiervoor)?

Los van de performance- en conformance-vraag is het van belang om uw risicobereidheid voor data-integriteit expliciet te bepalen.

2: Risicobereidheid voor data-integriteit
Wat is uw risicohouding en risicobereidheid voor data? De antwoorden op deze vragen komen ook tot uiting in uw risicohouding (risk attitude) en risicobereidheid (risk appetite) rondom data te expliciteren: welke risico’s bent u bereid te nemen en wat zijn uw zogenaamde ‘stoepranden’ op het gebied van data [bron]Zie hiervoor het RAVC denk en werkmodel? Met welke technologische ontwikkelingen houdt u rekening, in het bijzonder rondom het vak data? En wat is de impact daarvan op uw risicoprofiel? Dit zijn vragen die integraal onderdeel zijn van uw datastrategie. Waar zit u qua risico-rendementsdenken (risicohouding) als het gaat over data en nieuwe technologie? Bent u risicomijdend of -zoekend? Of gebalanceerd?

3: Samenhang met andere beleidsdocumenten van het fonds
Eerder beschreven wij al dat er beleid zou moeten zijn voor data. Dit zou ons inziens goed opgenomen kunnen worden in het IT-beleid van uw fonds. Elementen die dan minimaal beschreven zouden moeten worden, zijn:

  1. Wat is onze visie op data?
  2. Wat is onze ambitie?
  3. Wat is het gestructureerde proces rondom data: datamanagement?
  4. Wat is de datavertrouwelijkheid, dataclassificatie?
  5. Wat is de governance?
  6. Wat is uw werkprogramma (met meetindicatoren) voor data?
  7. Wat is het monitorings- en evaluatieplan?

Het beleid heeft verder raakvlakken met onder andere de volgende beleidsstukken van het fonds:

  1. ABTN: samenvatting van de essentiële zaken voor data.
  2. Uitbestedingsbeleid: wat is uw normenkader voor data naar uw uitvoerders?
  3. IRM-beleid: wat is het risicoprofiel bezien vanuit data?
  4. Beleggingsbeleid: hoe raakt data de beleggingscommissie?
  5. Communicatiebeleid: hoe gaat het fonds om met data van de stakeholders?
  6. Actuarieel beleid: hoe worden de modellen gevalideerd op juistheid van data- uitkomsten?
  7. Integriteitsbeleid/gedragscode: hoe gaat het bestuur om met data?

‘Het realiseren van optimale datakwaliteit is geen statisch eenmalig proces, maar juist een doorlopend geheel van monitoring, beoordeling, evaluatie en verbetering.”

 

Insert case transitie:
Transitie van pensioenuitvoerder
De vraag van de klant:
Hoe kunnen we de transitie van de ene naar de andere pensioenuitvoerder zo soepel mogelijk laten verlopen, ook bezien vanuit de wens dat de juiste data naar de nieuwe uitvoerder overgaat?

De oplossing:
Een van de bepalende factoren, binnen het al dan niet soepel verlopen van dit soort transities, is datakwaliteit. Wanneer die niet op orde is, leidt dit tot vertragingen, hoge kosten en onderlinge wrijving tussen de oude en de nieuwe pensioenuitvoerder. Wij hebben, via moderne technieken zoals proces mining en machine learning, operationele risico’s in kaart gebracht zodat de data gecontroleerd werden voordat de daadwerkelijke transitie plaatsvond. Eventuele fouten zijn zo tijdig opgelost. Daarnaast hebben we de kosten rondom de gehele transitie weten te beheersen, zodat de kosten per deelnemer niet stegen en er geen sprake was van rechtszaken dan wel claims.

Relevantie:
De transitie is vlot en probleemloos verlopen. Zonder stagnaties en onderlinge discussies over verantwoordelijkheid. De nieuwe uitvoerder is met de juiste data en een schone lei begonnen. De deelnemer krijgt waar hij/zij recht op heeft. De wendbaarheid van de pensioenadministratie bij zo’n grote verandering krijgt op deze manier een stresstest. Het resultaat is wel dat door deze aanpak (operationele transitie) dit fonds inzicht heeft in de juiste data over zijn deelnemers en meer dan voorheen klaar is voor de transitie naar een nieuw pensioenstelsel.

Nu helder is wat het concept data inhoudt en wat onze visie erop is, lichten we graag het ‘waarom’ van het managen van data toe: datamanagement!

Waarom zou u datamanagement moeten toepassen?

Niemand kan om de toenemende digitalisering heen: het is een brede maatschappelijke ontwikkeling. Door deze digitalisering ontstaat er steeds meer inzicht in de beschikbare data op operationeel niveau, de vierde laag zoals besproken in hoofdstuk één. Dat u daarmee iets doet, wordt simpelweg verwacht van iedere professionele organisatie. Ook binnen de pensioensector. De sector zal in deze dynamische omgeving ook aandacht moeten geven aan de zorgvuldige bescherming, governance en de kwaliteit van data.

Wist u dat DNB in 2025 smart supervisor wenst te zijn?
DNB op haar beurt wil zich de komende jaren als toezichthouder transformeren naar een ‘smart supervisor’. Zo willen ze de technologische mogelijkheden beter benutten (digitale strategie van DNB) door routinematige taken zoveel mogelijk te automatiseren en datagedreven te werken. Dit is onderdeel van de nieuwe toezichtmethodologie die wordt ontwikkeld door DNB [bron¹¹].

Smart pensioenfonds in 2025?
Deze ambitie van DNB zal effect hebben op uw besturing. Kan dit betekenen dat u ook voor 2025 klaar moet zijn en een smart pensioenfonds moet zijn? Wilt u ook data-gedreven werken om zaken slimmer en efficiënter te doen? En wat betekent dit voor uw datamanagement? Het worden van een smart pensioenfonds vraagt om een aantal gerichte stappen. Deze stappen worden in het vervolg van dit whitepaper voor u uiteengezet, met een terugblik naar de eerste twee hoofdstukken. Bent u er klaar voor om een smart pensioenfonds te worden?

In hoofdstuk twee gaven wij u top down- en bottom up-benadering van het concept data. Afhankelijk van uw keuze voor top down of bottom up zult u al gauw op het domein van datamanagement komen, om invulling te geven aan het retorische concept van data.

In hoofdstuk één gaven wij u inzicht in data als concept, met als belangrijk begrip dat data in essentie een retorische term is, zonder een waardevolle betekenis. Om deze betekenis wel te kunnen geven, is datamanagement essentieel. Datamanagement vertaalt uw visie en zienswijze naar praktische en werkende normenkaders en principes.

Onze definitie van datamanagement
Zoals eerder aangegeven, is de definitie van datamanagement als volgt: datamanagement is het gestructureerde proces van het produceren, vastleggen, onderhouden, actualiseren, beheren, beveiligen en analyseren van data. Naar onze mening met als uiteindelijke doel om deze data zodanig om te zetten naar informatie en feiten, dat op basis hiervan strategische en operationele beslissingen genomen kunnen worden.

Datamanagement heeft twee belangrijke functies binnen organisaties: objectivering en professionalisering.

  1. Datamanagement maakt objectivering mogelijk:

    Zo verhoogt u bestuurlijke effectiviteit en verlaagt u risico’s. Als pensioenfondsbestuur ben u actief binnen een maatschappelijk relevante sector en beheert u geld van anderen. Het is dan ook essentieel dat u uw beslissingen en beleid baseert op heldere data. Juist omdat er sprake is van ongekende hoeveelheden data in de pensioensector is het te makkelijk en erg gevaarlijk om er zomaar vanuit te gaan dat al deze data ook kloppen. Via datamanagement verzekert u zichzelf van juiste en integere data. Op basis daarvan kunt u enerzijds de juiste beslissingen nemen, en anderzijds deze beslissingen objectiveren naar de buitenwacht.

  1. Datamanagement speelt een grote rol bij de professionalisering van organisaties:
    Waar we vroeger de fouten uit processen haalden via steekproeven, kunnen we nu 100% controles uitvoeren op volledigheid, formaat en plausibiliteit. Zonder hogere kosten, integendeel. Dit maakt dat we alles kunnen controleren en iedere fout kunnen herstellen. In onze visie zal de pensioensector (moeten) meegaan in deze ontwikkeling.

Uiteraard staan deze twee functies ten dienste van uw ambitie, volwassenheid en risicohouding. Afhankelijk van uw visie, risico-rendementsdenken en professionaliteit kunt u datamanagement inrichten.

Wat als u niets doet?
Bij de vraag ‘waarom zou u datamanagement toepassen’, kunt u zichzelf ook direct afvragen wat er gebeurt als u het niet doet. Om de gevolgen van het niet toepassen van datamanagement in kaart te brengen, kijken we vanuit uw verantwoordelijkheid en vanuit de wet- en regelgeving. We noemen dit respectievelijk, zoals in hoofdstuk 2 beschreven: performance en conformance. We voegen er in dit hoofdstuk één element aan toe: socialformance.

Performance: U zet datamanagement in omdat u dit zelf wilt. Het is een wezenlijk onderdeel van uw visie en u zet het in om uw ambities te realiseren. U wenst te conformeren aan uw eigen ambitie en visie.

Conformance: U bent bezig met data en datamanagement omdat de wet- en regelgeving u dit oplegt. U wenst te conformeren aan de geldende wet- en regelgeving.

Socialformance: U bent bezig met data en datamanagement omdat het maatschappelijk en sociaal gewenst is dat u op de juiste manier met data omgaat. U wenst te conformeren aan de maatschappelijke en sociale wensen.

 

Performance:

  • Klachten kunnen u lang nagedragen worden. U wilt klachten dan ook graag snel en goed afhandelen. Maar wat als een klacht intern niet de juiste routing volgt en daardoor blijft liggen? Het kan uw reputatie schaden en het kan u deelnemers kosten.
  • Of u wilt snel kunnen reageren op kansen die zich voordoen in de beleggingsmarkt om zo waarde te creëren voor uw deelnemers. Echter, uw gegevens zijn verouderd. En omdat u niet de meest recente cijfers heeft, kunt u niet tijdig reageren op nieuwe marktkansen. Daardoor loopt u resultaten mis. Wat zou u dan doen? Denk aan het belang van een robuuste pensioenadministratie, nu en in de toekomst.

Conformance:

  • Regelmatig voert DNB zelf onderzoek uit. In grote lijnen kijkt DNB naar het beleid, de governance, de processen en de controle van de datastromen, alsmede de IT-infrastructuur en het applicatielandschap. Indien zij ontdekken dat uw fonds zich ergens niet aan de regels houdt, niet compliant is aan, dan kan dit leiden tot negatieve publiciteit in de media en dus tot imagoschade.
  • Of u gebruikt uw wettelijk verplichte financiële verslaglegging om beleidsbeslissingen beter te kunnen nemen. Echter, binnen uw financiële verslaggeving krijgt u verschillende antwoorden op dezelfde vraag. Dit komt door inconsistente gegevens, wisselende actualiteit van gegevens en onduidelijke gegevensdefinities. Wat zou u dan doen? Onvoldoende datakwaliteit heeft effect op bijvoorbeeld uw operationele kosten, de strategische wendbaarheid en de reputatie.

Socialformance:

  • U bewaart de data van deelnemers langer dan wettelijk toegestaan. En stel dat hier, buiten de wettelijke termijnen om, een datalek plaatsvindt? En men zich afvraagt waarom u data langer dan de wettelijke termijn bewaart? En of dit sociaal en maatschappelijk wel wenselijk is?
  • Daarnaast is de maatschappelijke aandacht voor het tegengaan van witwassen nog steeds hoog, omdat integer handelen cruciaal is voor het vertrouwen in de financiële sector. En ook duurzaamheid blijft een speerpunt van DNB, als de identificatie en beheersing van klimaatrisico’s. Hoe zijn deze verankerd in het beleid van fondsen? Gebruik van externe databronnen is hier erg behulpzaam bij.

Deze drie perspectieven/formance-begrippen meenemen in het structuren van uw databeleid is volgens ons daarom essentieel. Op de vraag of niets doen ook een optie is, is uw antwoord? Indien wij hier een retorische vraag van zouden maken, dan is antwoord uiteraard: neen. Niets doen, is geen optie. De vervolgvraag kan dan zijn: met welke intensiviteit en hoe snel? Het antwoord daarop is dat dit afhangt van uw visie en ambitie. Ongeacht uw visie, moet het (datamanagement) wel een doel dienen. U moet niet iets doen voor niets. Werken naar een bepaald doel is hierbij de relevantie. Deze relevantie wordt ingegeven door drie tafels.

Datamanagement aan drie tafels:

  1. Bestuurstafel en zijn adviseurs
  2. Pensioenuitvoerder
  3. Vermogensbeheerder

1: Bestuurstafel en zijn adviseurs
Het inrichten van datamanagement begint aan de tafel van het bestuur. De visie en ambitie zijn al meerdere malen geaccentueerd in dit whitepaper. Het is dan ook een belangrijk onderdeel. De elementen die dan een rol spelen, zijn hoe u invulling wenst te geven aan het concept data en daarna aan datamanagement.

In essentie:

  1. moet u bepalen of u bottom up of top down het proces wenst te doorlopen of bepalen dat u wilt beginnen met het uitwerken van een casus als een oefening;
  2. dient u het stappenplan op basis van de vier kwadranten (hoofdstuk 2) te volgen, en de hierbij behorende vragen uit te werken;
  3. moet u betekenis en beleving geven aan de drie formance-begrippen (dit hoofdstuk);
  4. moet u bij de drie bovenstaande stappen steeds een keuze maken in de snelheid en effectiviteit in relatie tot de aard, omvang en complexiteit van uw fonds.

Wij geven u graag onze top vier mee, die wij in de praktijk zien en waarvoor u aandacht kunt vragen aan uw eigen bestuurstafel:

  1. Heeft u gedefinieerd wat de kritische data-elementen voor uw pensioenfonds zijn voor de uitvoering? Heeft u samen meetindicatoren vastgesteld voor de kwaliteit van deze velden en meet u periodiek of de data voldoet hieraan?
  2. Weten wij zeker of willen wij zeker weten of de data van onze deelnemers goed zijn in de systemen van onze uitvoerders?
  3. Volgen wij de incidenten van alle uitvoerders regelmatig en zien we hier datamanagementproblemen naar boven komen?
  4. Hoe komt datamanagement terug in het werkplan van de verschillende commissies van het bestuur?

2: Pensioenuitvoerder
Uw pensioenuitvoerder zou vanuit haar eigen verantwoordelijkheid datakwaliteit en datamanagement hoog op de agenda hebben moeten staan. In de praktijk zien we dat dit jarenlang niet altijd in volle omvang gebeurd is. Dit heeft ook te maken met de volwassenheid bij de uitvoeringsorganisaties zelf en de dialoog met pensioenfondsbesturen. Doordat fondsbesturen in de afgelopen vijf jaren meer en meer leidend zijn geworden, zien we ook dat uitvoerders een stap naar voren moeten zetten. Mede ingegeven door de normatieve druk (conformance) van toezichthouders is deze professionaliteit in de sector versterkt. Uiteraard geldt dit niet voor de fondsen die een performance- en socialformance-strategie hadden, echter wel voor de fondsen die enkel en alleen een conformance-strategie hadden. Het is hierbij niet een kwestie van goed of fout, slechts een constatering in de tijd. Hierbij zien wij in de praktijk dat over de hele linie fondsen hedendaags meer en meer de strategie van drie-formance hanteren en de dialoog aangaan met toezichthouders over nut en noodzaak. Om dit gesprek te kunnen voeren, is het essentieel een eigen normenkader en visie te hebben. Immers de eerste vraag die de toezichthouder kan stellen, is: 

op basis van welke ambitie en visie gaat u een bepaalde richting uit?

Wij geven u graag onze top drie mee, die wij in de praktijk zien waar u aandacht voor kunt vragen bij uw uitvoerder:

  1. Is de basisadministratie op orde (hygiënefactor), ondanks een wirwar aan verschillende partijen, systemen, tabellen en datavelden?
  2. Is de tijdlijn van ”life-events” bij een deelnemer goed inzichtelijk? Denk aan arbeidsongeschiktheid of uitdiensttreding van deelnemers?
  3. Op basis waarvan beoordeelt uw uitvoerder de data? Is dit op basis van steekproeven, business rules of gaat uw uitvoerder een stap verder en is zij een smart uitvoerder, die data-gedreven te werk gaat en met behulp van algoritmes data als afwijkend kan aanmerken?

3: Vermogensbeheerder
Ook bij de vermogensbeheerder is het van belang om datamanagement goed te volgen en in te richten. Hoe vaak krijgt u van uw vermogensbeheerders een rapportage over bijvoorbeeld incidenten die ontstaan door slecht datamanagement? Of hoe vaak is de pricingdata verkeerd opgenomen? Als we kijken naar de administratie, wordt dit vaak dubbel bijgehouden en zijn er vrijwel geen grote issues (qua relevantie minder van belang). Dit komt ook doordat in de regel deze administraties veelal eenvoudiger zijn dan pensioenadministratie qua events in de tijd en complexiteit van datastructuren.

Hieronder een drietal zaken die datamanagement zouden kunnen raken:

  1. Tegenover de relatieve administratie staat dat de data ten behoeve van beleggingsbeslissingen zeer relevant zijn. Waar komen die data vandaan, en wat zeggen ze (data-model)? Bijvoorbeeld: wat zeggen de data over ESG-ratings of klimaatimpact? En wie heeft die opgesteld en wat zegt dat over de betrouwbaarheid van de data?
  2. Maar ook: welke non-financial data worden er gebruikt in het beleggingsproces, en wat is de kwaliteit daarvan? (Dit gaat vaak nog ad-hoc, terwijl financial data zeer geavanceerd zijn).
  3. Ook in het balansbeheer en ALM is datakwaliteit een belangrijk onderdeel. Welke data worden onderliggend gebruikt en wat is de kwaliteit daarvan (bijvoorbeeld hoe up-to-date is de data). Enerzijds zijn dat ‘ruwe data’ over financiële markten, anderzijds data die uit modellen komen (gegenereerde data). Zijn deze data goed gemodelleerd en welke validatie heeft hier plaatsgevonden?

Excel past niet meer bij deze tijdsgeest en snelheid

We zien dat adviseurs, pensioenuitvoerders en vermogensbeheerders nog te vaak Excel-bestanden of Excel- modellen hanteren. Dit is wat ons betreft niet meer passend bij de gevraagde beheersing en snelheid waarmee sommige besluiten genomen moeten worden. De volatiliteit in de markten vraagt om een andere manier van scenario’s en doorrekeningen dan de sector (vanuit historie) gewend is. Welke validatie hebben de Excel-rekenregels gehad? Wat is hierop het antwoord van uw adviseurs, pensioenuitvoerder en vermogensbeheerders? Hoe lang staat u als bestuur toe dat uw adviseurs met Excel complexe berekeningen maken, die niet transparant zijn voor u als bestuurder? Vanuit datamanagement noemen we dit end-user-computing (EUC). Data- en validatie -controls zijn essentieel.

Uiteraard komen de uitkomsten van de dialoog over datamanagement van de pensioenuitvoerder en de vermogensbeheerder op de tafel van het bestuur. De vraag is dan of u kunt valideren of de uitkomsten gewenst zijn of niet? Het van tevoren nadenken over een eigen normenkader en structuur helpt u, zodat u niet ter plekke op basis van een voorbeeld een besluit moet nemen. Uiteraard, ook in dit geval geldt, dat dit wel kan. Vanuit pragmatisme al helemaal. Wenst u te besturen van voorbeeld naar voorbeeld? Of wenst u te besturen op basis van uw visie en principes?

Het samenspel vanuit datamanagement zou, als voorbeeld, vastgelegd kunnen worden in een soort van een RACI-tabel. Uiteraard zijn er meerdere wegen die naar Rome leiden als het gaat om het maken van een dergelijke RACI. Als voorbeeld illustreren wij er een op de basis van onze definitie en de elementen die hierin van belang zijn. U kunt er ook voor kiezen om een RACI te maken op basis van datastromen: deelnemersdata, werkgeversdata, UPO-data, et cetera. Wat zou een RACI zijn dat past bij uw natuurlijke habitat?

Toepassen juiste pensioenregeling
De vraag van de klant:

Onze deelnemers genieten een pensioenregeling met een bijzonder karakter. Hoe kunnen we zorgen dat hier geen fouten insluipen?

De oplossing:
Wij hebben een data applicatie gebouwd die de data uit diverse Excel-bestanden met elkaar combineert en vervolgens deze miljoenen datarecords analyseert. Dit proces gebeurt maandelijks en automatisch. Vervolgens rapporteren we via een dashboard aan het bestuur. Dit dashboard laat zien waar het eventueel fout gaat, en of het algehele proces verbetert. 

Relevantie:
Door de verschillende databronnen slim bij elkaar te brengen en de juiste programmatuur toe te passen, detecteren we eventuele fouten tijdig en ontvangt iedere deelnemer de juiste pensioenregeling. Tevens hebben wij data-controls gemaakt waardoor het risico van end-user-computing is geminimaliseerd. 

“Datamanagement zorgt voor objectivering en speelt een grote rol bij de professionalisering van de pensioensector.”


Het belang van datakwaliteit en de toegevoegde waarde van datamanagement mogen duidelijk zijn. Maar wanneer en hoe past u het toe en kunt u het borgen? We beantwoorden voor u graag deze derde W-vraag.

Wanneer en in welke processen kunt u datamanagement borgen?

Er is geen twijfel over mogelijk: het datalandschap binnen de pensioensector is complex. Daarbinnen zijn diverse momenten en manieren waarop u datamanagement kunt opnemen en borgen. Kortom: datamanagement moet goed geborgd worden in uw datalandschap.

Graag schetsen wij eerst het datalandschap waarin u zich begeeft. Het betreft hierbij een niet-limitatief overzicht.

Data en systemen over:

  • Premie-inning
  • Informatie over uw deelnemers
  • Informatie over werkgevers
  • Informatie over uw beleggingsportefeuille
  • Informatie in uw pensioenadministratie
  • Betaling van pensioengelden
  • Interfaces tussen de verschillende systemen, in- en externe koppelingen.
  • Belastingdienst
  • Toezichthouders
  • Banken
  • Informatie richting sociale partners (bij bpf-en), werkgever (bij opf-en) en beroepsverenigingen (bij brp-en)

In essentie gaat het dan om:

  1. Deelnemersgegevens en life-events van deze deelnemers
  2. Premie-aangifte en incasso processen 
  3. Administratie van de pensioenen
  4. Excasso
  5. Data naar stakeholders, waaronder toezichthouders

Een complexe omgeving vraagt ook om een gedegen mate van controle. Binnen uw datalandschap kunt u kritische data-elementen signaleren en diverse controls inrichten om de verschillende facetten van datakwaliteit, bijvoorbeeld volledigheid, juistheid en plausibiliteit, te meten en zo grip te houden op het kwaliteitsniveau.

De controls
Gaat u de datakwaliteit binnen uw datalandschap meten, dan helpt het om bij aanvang een nulmeting van uw datalandschap te maken. U maakt dan een overzicht en data-model van de verschillende partijen, systemen, databronnen, tabellen en datavelden, (eind)gebruikers en kritische data-elementen zoals persoonsgegevens. Hoe classificeert u uw data? Welke data zijn kritische data-elementen en essentieel voor het uitvoeren van uw taken? En wat betekent dit voor de risico-toleranties die u hanteert ten aanzien van de datakwaliteit van deze kritische data-elementen? Uw resultaat is een duidelijk overzicht met koppeling van de verschillende beschikbare datakwaliteit controls aan de kritische data-elementen, waarvoor u de meetindicatoren heeft opgesteld. Daarmee houdt u overzicht en grip op de zaken die u wel maar ook niet controleert.

Maar aan wat voor datakwaliteit controls moet u dan denken? Wij geven u een beknopte weergave van deze controls en zoomen hierbij in op enkele elementen uit het datalandschap hierboven:

1: Controle op de koppeling met externe bronnen
U krijgt uit bijvoorbeeld de Basisregistratie Personen (BRP), SUAG en van werkgever(s) data door over uw deelnemers. Denk bijvoorbeeld aan datavelden als het adres, het geslacht, maar voor actieve deelnemers ook de loonaangifte.

Heeft u gecontroleerd of deze data juist is overgenomen in alle verschillende systemen in uw pensioenadministratie? En heeft u gecontroleerd dat er geen verschillende vastleggingen van basisgegevens voor dezelfde deelnemer plaatsvinden? Lopen bijvoorbeeld de arbeidsongeschiktheids-en uitdiensttreding meldingen mee met deze externe bronnen?

2: Controle op de basis
Zijn er vervolgens controles uitgevoerd om te zorgen dat de basishygiëne van deze datavelden in orde is? Denk aan vragen als:

  • Hoeveel procent van het dataveld geslacht is daadwerkelijk gevuld?
  • Van hoeveel procent van de deelnemers hebben we het actuele adres?
  • Hoeveel procent van het dataveld geboortedatum en bankrekeningnummer heeft een dataformaat dat je zou verwachten bij deze datavelden?
  • Hebben we vervolgens de verschillende databases gecontroleerd op consistentie? Komen dezelfde datavelden met dezelfde waardes voor dezelfde deelnemer in de verschillende systemen hetzelfde voor of zijn deze verschillende met kans op fouten tot gevolg?

3: Controle op logische waardes
In de volgende stap kunt u bepaalde datavelden controleren op logische waardes. Denk bijvoorbeeld aan controle of het parttimepercentage zich tussen de 0 en 100% bevindt, het geslacht de waarde man/vrouw kent of dat de geboortedatum zich binnen logische grenzen van de huidige datum bevindt. 

4: Controle met data-gedreven plausibiliteitcontroles
In deze fase gaan we nog een stap verder in onze controles en gebruiken data-gedreven plausibiliteitscontroles. Deze data-gedreven controles zijn gericht op het detecteren van afwijkingen binnen subpopulatie groepen en het signaleren van processen waarin veel handmatige verwerkingen worden gedaan. Bij het signaleren van afwijkingen binnen subpopulaties kunt u bijvoorbeeld denken aan: welke jaaropbouw van deelnemers wijkt significant af ten opzichte van de groep actieve deelnemers van dezelfde leeftijd, binnen dezelfde functiegroep en met een soortgelijk salaris? Maar ook: welk salaris uit de loonaangifte bij dezelfde deelnemer wijkt significant af binnen zijn eigen patroon van loonaangiftes?

Op papier verlopen processen altijd rechtlijnig en zonder problemen en aanpassingen. De praktijk is echter weerbarstiger. Processen waarin veel handmatige verwerkingen/afwijkingen plaats vinden ten opzichte van het papieren proces, zijn aanleiding om nader te onderzoeken. Immers, indien veel handmatige aanpassingen in het proces worden gedaan neemt de kans op fouten, en dus een lagere datakwaliteit, voor u toe. Hiervoor dient u allereerst deze processen te identificeren. Een goed middel hiervoor is process mining, een methodiek die ook DNB als smart supervisor gebruikt bij haar datakwaliteit assessments.

5: Controle op juistheid
Om te zorgen voor nog meer comfort bij de datakwaliteit van de verschillende data-elementen, controleren wij bepaalde variabelen in de administratie exact op juistheid aan de hand van de fonds- en externe documenten. Denk bijvoorbeeld aan de controle van de maximering van het pensioengevend salaris voor een bepaald boekjaar. Of exacte narekening van de jaarlijkse pensioenaangroei van de individuele deelnemer, kijkend naar bijvoorbeeld variabelen als salaris, diensttijd en reglement. Of de leeftijd van de deelnemer voldoet aan de startleeftijd (bijvoorbeeld 21 jaar) zoals opgenomen in het reglement.

6: Controle op tijdigheid
Datakwaliteit heeft ook betrekking op het hebben van integere data op het juiste moment om te kunnen voldoen aan de wettelijk verplichte communicatie met deelnemers. Heeft u bijvoorbeeld onafhankelijk laten controleren of bepaalde acties tijdig verwerkt zijn. Hierbij controleren we hoeveel procent van de mutaties na melding in externe systemen van bijvoorbeeld de GBA en het UWV tijdig is verwerkt. Een andere controles is of start- en stopbrieven binnen de aangewezen termijnen zijn uitgestuurd door uw uitvoerder.

7: Controle op de verantwoording
Tot slot stellen we de vraag of de gegevens, gebruikt in de communicatie met stakeholders, overeenkomen met de data in de systemen. Bijvoorbeeld: komen de data op de daadwerkelijk uitgestuurde UPO’s (brieven) overeen met de pensioenadministratie?

Wanneer u de controles 1 tot 5 goed uitvoert, bereikt u een steeds toenemend niveau van comfort. U kunt er dan steeds geruster op zijn dat uw datakwaliteit op orde is. Voert u aanvullend controles 6 en 7 uit? Dan heeft u uiteindelijk elk detail van uw datakwaliteit in beeld en kunt u het optimaal beheersen. Door deze controles periodiek uit te voeren blijft u in control van het proces en bent u pro-actief bezig met het meten van uw datakwaliteit in plaats van te wachten totdat incidenten zich voordoen. Laat u al periodiek uw datakwaliteit onafhankelijk controleren?

Om het proces rondom datakwaliteit-controls te vergemakkelijken en te versnellen, kunt u terugvallen op diverse moderne datamethoden en technieken, vanuit onder andere het domein data-science. In de bijlage vindt u de vier belangrijkste op een rijtje.

De koppeling met andere thema’s aan uw bestuurstafel

Nu u zicht heeft op wanneer en binnen welke processen u datamanagement in uw organisatie kunt borgen, is het ook zaak u ervan bewust te zijn dat datamanagement diverse andere thema’s binnen uw organisatie raakt en kan versterken. Het gaat hierbij om inspiratie en niet om een uitputtende lijst.

Risicomanagement & Compliance
De essentie van risicomanagement is uw vastgelegde risicoprofiel. Dit is de optelsom van uw risicohouding, risicobereidheid, risicotolerantie, strategische risico’s en essentiële operationele risico’s. Dit risicoprofiel is uw normenkader in de aansturing van uw uitbestedingspartijen en richtinggevend in uw beleid. Datamanagement is essentieel om uw risicoprofiel te kunnen meten. Een voorbeeld: u kunt als bestuur bepalen dat in de verzending van brieven naar uw deelnemers een foutpercentage in de adressen van 1% acceptabel is. Maar om te weten of u dit haalt, is het zaak dat u metingen uitvoert. Met goed datamanagement heeft u zicht op dit foutpercentage en kunt u meten of u binnen uw aangegeven risico-toleranties blijft.

Scenariomanagement
Bij scenariomanagement streeft u ernaar u zo goed als mogelijk op strategisch niveau voor te bereiden op verschillende gebeurtenissen. De vraag is daarbij steeds: als dit scenario plaatsvindt, hoe goed zijn wij dan voorbereid? Hoe stevig staat uw pensioenfonds bijvoorbeeld in de schoenen tijdens een pandemie? Om de scenario’s te schrijven, maar ook om te controleren of u er goed op voorbereid bent, zijn data onmisbaar. Zo hebben de Europerse Centrale Bank en de Wereldbank heel veel data beschikbaar die u inzicht geven in de mogelijke scenario’s en de mate waarin u voorbereid bent op de gevolgen daarvan.

Actuariaat
Als pensioenfonds heeft u een uitgebreide administratie rondom al uw deelnemers. Zit er in deze administratie in de eerste invoer een fout? Dan werkt die fout door in alles wat u daarna met deze informatie doet. Via een goede controle op de brondata kunt u een sneeuwbaleffect voorkomen. Een ander voorbeeld is de premievrijstelling bij arbeidsongeschiktheid. Op basis van welke data is het compensatiebeleid vastgesteld [bron¹²]? 

Investment
Vroeger werden veel investeringsbeslissingen genomen op aannames en we-denken-dat-zinnen. In de huidige maatschappij kan dat niet meer. Iedere beslissing die u neemt, moet u kunnen onderbouwen. Heeft u bijvoorbeeld als ambitie dat u alleen nog wilt beleggen in fondsen die ieder jaar 5% minder CO2-uitstoot realiseren, dan is het zaak dat u dit ook meet. Het simpelweg voor waar aannemen omdat het beleggingsfonds een groen label hanteert, is niet langer voldoende. Vraagt u daarom ook door bij uw vermogensbeheerders naar definitie van datavelden? Heeft u zicht op hoe bijvoorbeeld ESG-scores echt worden samengesteld en past deze wijze van meten bij u?

Transities
Het succes van transities valt of staat onder meer bij de datakwaliteit. Is die niet op orde? Dan resulteert dit in vertragingen, hoge kosten en onderlinge wrijving. Bij de transitie van de ene pensioenuitvoerder naar de andere, is het dan ook zaak dat de data op orde zijn. De administratie moet van maximaal kwaliteitsniveau zijn om de overdracht zo soepel mogelijk te laten verlopen.

Voorkomen foutieve communicatie met deelnemers
De vraag van de klant:
Wij hebben in het verleden grote hoeveelheden verkeerde brieven naar onze deelnemers gestuurd. Denk aan verkeerde adresseringen en verkeerde uitkeringsbedragen. Hoe kunnen we dit voorkomen?

De oplossing:
Via moderne datatechnieken scannen wij de inhoud van brieven en zetten we deze af tegen de gegevens in de administratie. Deze check laat direct fouten zien, waarop vervolgens gehandeld kan worden. 

Relevantie:
Door de verschillende databronnen slim bij elkaar brengen en de juiste programmatuur op te stellen, vermindert het aantal fouten drastisch en ontvangt iedere deelnemer de juiste pensioenregeling. Het gehele proces verloopt automatisch en men heeft er dan ook geen omkijken naar.

Data-integriteit voordat we een ERB uitvoeren
De vraag van de klant:
Wij willen gaan oefenen met een ERB, voordat we een wettelijke ERB gaan uitvoeren. Is het mogelijk om een nulmeting te maken van onze data in de systemen? Zodat we zeker weten dat de data die wij gaan modelleren (financieel en niet-financieel) juist zijn.

De oplossing:
Via moderne datatechnieken hebben wij alle datavelden van de basisadministratie bekeken en de nulmeting uitgevoerd. 

Relevantie:
Door de verschillende databronnen slim bij elkaar te brengen en de juiste programmatuur op te stellen, hebben wij een 100%-controle gedaan. Hierdoor zijn de fouten uit het verleden hersteld en kan het bestuur op een integere wijze gaan werken met de data voor de oefen-ERB, vooruitlopend op de wettelijke ERB. 

“Wanneer u op de juiste momenten en op de juiste manier controls inbouwt, bereikt u een steeds toenemend niveau van comfort in datakwaliteit.”

De drie W-vragen rondom datamanagement zijn nu beantwoord. Nu bent u aan zet. Bent u klaar om een smart pensioenfonds te worden?

Wat is uw volgende stap?

In dit whitepaper hebben wij stapsgewijs het vakgebied data en het bijbehorende thema datamanagement toegelicht. Zoals u heeft kunnen lezen, is het verbeteren van uw datakwaliteit een wezenlijke eerste stap om meer waarde uit uw data te (kunnen) halen als pensioenfonds.

Eerder stelden wij u de volgende vraag: welke betekenis en beleving geeft u aan datamanagement: waardevol of risicovol?

Ons antwoord daarop: dit is afhankelijk van uw keuze van inrichting. Top down of bottom up. Beide keuzes komen elkaar onderweg tegen. De vraag is alleen welke past het beste bij u? Uiteraard kunt u ook een hybride implementatie voor ogen hebben. Stap voor stap en door te oefenen. Hoe? Door bijvoorbeeld het organiseren van een studiedag. Tijdens deze dag kunt u de essentiële vragen op het vakgebied van data en datamanagement beantwoorden en tegelijkertijd een casus uitwerken voor een onderwerp als arbeidsongeschiktheid of een nulmeting doen op uw basisadministratie.

Het implementeren van het concept data zal zorgen voor optimale datakwaliteit. Hierdoor zal ongekend veel waarde worden gehaald uit datamanagement. De business case is zo positief gemaakt, zowel op operationeel als op strategisch niveau. Dit nog los van het feit dat uw deelnemers er simpelweg op moeten kunnen vertrouwen dat de persoonlijke data die u beheert en de data waarnaar u handelt op orde zijn.

Maar waar staat u nu zelf? Om dat in kaart te brengen, kunt u zichzelf de volgende vragen stellen:

  • Heeft u al een kennissessie data(management) op de bestuursagenda staan voor tijdens een studiedag?
  • Heeft u binnen het bestuur iemand aangewezen als verantwoordelijke voor het thema data, bijvoorbeeld de IT-portefeuillehouder?
  • Heeft u het monitoren van de datakwaliteit periodiek op de bestuursagenda staan, met een soort van onafhankelijk datakwaliteit-abonnement?
  • Heeft u al een heldere visie geformuleerd op de drie formance-niveaus?
  • Is er consensus binnen uw bestuur over de visie op data? En als dit niet zo is, heeft u dan al een plan van aanpak om dit gat te dichten?
  • Weet u al hoe u uw visie gaat bereiken?
  • Weet u wat belangrijker is voor u: kwantiteit aan data-gegevens of kwaliteit van data-informatie over de tijd. En heeft u hierop actie genomen?
  • Weet u al wat u morgen anders gaat doen of welke stap u morgen echt gaat zetten?

Beantwoord u veel vragen met ja? Dan bent u op de goede weg. Geeft u regelmatig ‘nee’ als antwoord, dan valt er nog veel winst te behalen voor uw bestuur op het vlak van data en datamanagement.

Wij hebben in dit whitepaper een aantal handvatten gegeven om een stap te zetten om het concept data en het thema datamanagement te herkennen en te implementeren. Uiteraard is het zo dat u al diverse zaken doet die niet de stempel van data of datamanagement hebben gehad. Het is dan ook niet de bedoeling om te theoretiseren, maar wel om de dialoog over dit relatieve concept voor de pensioensector te accentueren en te faciliteren.

Bijlage 1:

Algemene begrippen binnen het vakgebied data voor deze white paper.

  1. Data
    Data zijn overdraagbare kenniselementen, die zijn opgeslagen in gestructureerde en/of ongestructureerde vorm en op een persoonlijk of machinale wijze zijn verwerkt voor een bepaald doel, teneinde een (strategisch) besluit te faciliteren of voor procesoptimalisatie gebruikt te worden
  1. Informatie
    Data vormt de basis voor informatie. Om uit data informatie te verkrijgen, dient de data omgezet te worden naar een formaat dat geanalyseerd kan worden. Vervolgens dient de context, betekenis en samenhang van de data duidelijk te zijn om de data te analyseren, te interpreteren en om te zetten naar informatie.
  1. Data science
    Door ontsluiting, verrijking, analyse én het selecteren van de juiste business toepassing kan data waarde toevoegen aan een organisatie. Data science is het proces, waarin deze elementen doorlopen worden om te komen van data tot waarde. Het bevindt zich daarmee op het snijvlak van drie onderdelen, namelijk computervaardigheden, wiskunde en statistiek en domein kennis. Data science is een thema binnen het concept data.
  1. Datamanagement
    Datamanagement is een gestructureerd proces van het produceren, vastleggen, onderhouden, actualiseren, beheren, beveiligen en analyseren van data. Een activiteit binnen het thema datamanagement is datakwaliteit.
  1. Datalandschap
    Het datalandschap is het geheel aan partijen, systemen, tabellen, datavelden en de uiteindelijke stakeholders voor het pensioenfonds.
  1. Datamodel
    Met een datamodel wordt grafisch beschreven hoe de data in de systemen zijn gestructureerd, welke relaties er tussen de verschillende entiteiten (tabellen) bestaan en hoe deze logisch met elkaar te koppelen vallen.
  1. Gestructureerde en ongestructureerde data
    Data komt in twee verschillende vormen, namelijk gestructureerd en ongestructureerd. Van gestructureerde data is sprake als de gegevens zodanig georganiseerd en gestructureerd zijn dat deze direct gebruikt en geïnterpreteerd kunnen worden door machine en/of mens. Denk bijvoorbeeld aan uw pensioen- en uitkeringenadministraties en Excel-tabellen van bijvoorbeeld het Centraal Bureau van de Statistiek.

Ongestructureerde data kent dit formaat en deze structuur (nog) niet. Daarbij kunt u bijvoorbeeld denken aan data die ‘verstopt’ zit in geüploade foto’s van loonaangiftes, websites van potentiële werkgevers die vallen onder uw verplichtstelling, nieuwsberichten en social media (tekst) en de gesprekken die uw klachtenafhandeling met uw deelnemers voert (spraak).

Bijlage 2: 

Data Science methoden en technieken om u te helpen
Wij hebben u in dit whitepaper een overzicht gegeven van de datakwaliteit-controls die u kunt uitvoeren. Om dit proces te vergemakkelijken en te versnellen, kunt u terugvallen op diverse moderne methoden en technieken, onder andere uit het domein data science. Hieronder zetten wij voor u de vier belangrijkste op een rijtje.

  1. Application programming interfaces (API’s)
    Op dit moment worden datakwaliteitsmetingen veelal uitgevoerd op basis van ad-hoc aangeleverde bestanden uit administratiesystemen. Concreet zijn dit vaak diverse Excel- en/of CSV-formaatbestanden. Hierbij moeten steeds losse bestanden worden aangeleverd, gekoppeld, verwerkt en geanalyseerd. Dit proces is tijdrovend, kostbaar, lastig te auditen en het vergroot de kans op fouten zoals datalekken en verkeerde koppelingen tussen bestanden. Deze methode is dan ook niet geschikt voor continue monitoring van datakwaliteit.

    Dit proces kan verbeterd en versneld worden door direct de data te ontsluiten uit de administratiesystemen via Application Programming Interfaces (API’s). Een API is een verzameling definities op basis waarvan een computerprogramma kan communiceren met een ander programma. Zo kunnen diverse databasesystemen, openbare dataportalen, web services en software applicaties als het ware met elkaar praten. Zo ontstaat niet alleen een efficiënter proces voor alle partijen, maar worden ook de risico’s in het proces geminimaliseerd.

  1. Cloud computing
    Een pensioenfonds kent veelal meerdere systemen met honderdduizenden, zo niet miljoenen, regels met data erin. Om de datakwaliteit te kunnen meten, dienen de data uit deze systemen vergeleken en gecombineerd te worden en dienen berekeningen uitgevoerd te worden. Bij een integrale controle gaat het dan al gauw om tientallen miljoenen berekeningen. Omdat bijvoorbeeld programma’s als Excel niet gemaakt zijn voor deze aantallen, vraagt dit om het gebruik van specifieke software en tooling.

    Onze ervaring is dat dergelijke vraagstukken vaak voorkomen bij organisaties, zowel binnen als buiten de pensioensector. Om deze vraagstukken op te lossen, gebruiken wij moderne, zogeheten general-purpose programmeertalen zoals Python en cloud computing power. Het gebruik van dergelijke tools maakt het mogelijk om geavanceerde en integrale controles uit te voeren op de datakwaliteit.

  1. Statistische en wiskundige methodieken
    In de regel vindt controle van datakwaliteit binnen de pensioensector plaats door het gebruik van business rules. Bijvoorbeeld: is het parttimepercentage tussen de 0 en 100%? Of heeft deze deelnemer geen negatieve uren gewerkt deze maand? Op basis van deze controles zou een basisniveau van datakwaliteit in de administratie gewaarborgd moeten zijn. Door gebruik te maken van slimme statistische en wiskundige methodieken kan meer datagedreven gekeken worden naar de datakwaliteit. Zo wordt deze naar een hoger niveau getild. Hieronder volgen drie concrete (niet-limitatieve) voorbeelden die u kunt toepassen bij datakwaliteitsvraagstukken.

Fuzzy matching:
Tekstvelden in verschillende bronsystemen die exact dezelfde betekenis hebben, zijn in de praktijk vaak niet hetzelfde. Immers, een typefout is zo gemaakt en de variëteit aan verschillen is lastig te vangen in business rules. Daardoor kan het moeilijk zijn om data uit verschillende bestanden en/of systemen (exact) met elkaar te verbinden. In dergelijke situaties kan de methodiek fuzzy matching helpen.

Deze methodiek geeft een matching-percentage tussen tekstvelden, waarbij rekening wordt gehouden met zaken als typefouten, voor- en achtervoegsels en afkortingen. Daardoor kunnen tekstvelden toch met elkaar verbonden worden, ondanks dat de tekst niet 100% overeenkomt. Zo is het bijvoorbeeld mogelijk is om “Jansen bakker” te matchen met “Bakker Jansen” en voorkomt u dat deze deelnemer twee brieven thuis krijgt.

Outlier detectie:
De pensioensector gebruikt in zijn systemen business rules om afwijkende datapunten te detecteren conform vooraf gespecificeerde regels. Business rules focussen zich op fouten die reeds gemaakt én bekend zijn. Echter, hiermee worden onbekende en/of nieuwe fouten niet altijd uit aangeleverde data gehaald. Door datagedreven te werken en gebruik te maken van outlier detectie-methodieken spoort u ook deze nieuwe fouten op, kunt u ze verhelpen en voorkomen dat ze nogmaals voorkomen.

Deze methodiek wordt reeds gebruikt bij bijvoorbeeld banken om frauduleus gedrag te identificeren en betreffende klanten te blokkeren, en bij de AIVD om hackers te blokkeren. In relatie tot de pensioenadministratie zou dit bijvoorbeeld toegepast kunnen worden in de UPA-aangifteketen om zo te detecteren of er foutieve informatie wordt aangeleverd.

Process mining:
Een belangrijk onderdeel in datakwaliteit vormen de processen rondom data. Immers, goede processen waarborgen een goede datakwaliteit. De wetenschap dat uw data op orde zijn, maakt u vervolgens minder afhankelijk van de huidige uitvoerder: een eventuele transitie zal dan makkelijker zijn. De eerste stap hierin is het beschrijven en documenteren van de processen rondom de data. De tweede stap, het meten van hoe processen rondom data in werkelijkheid (en dus niet op papier) plaatsvinden, is ingewikkelder. Het meten van de processen is mogelijk door gebruik te maken van process mining.

Process mining reconstrueert hoe de processen daadwerkelijk hebben plaatsgevonden op basis van de logboeken in de systemen van de pensioenuitvoerder. Daarbij is het vervolgens mogelijk om te meten hoe lang het heeft geduurd voordat bepaalde processen zijn afgerond. Daarmee is proces mining tevens geschikt voor een pensioenfonds om onafhankelijk te meten of haar uitvoerder heeft voldaan aan de criteria rondom tijdige (wettelijke) verwerking van allerlei mutaties (SLA-afspraak). Ook de DNB heeft in recente bijeenkomsten en publicaties aangegeven dat zij gebruikmaakt van process mining om een oordeel te kunnen vormen over de datakwaliteit bij pensioenfondsen.

  1. Artificial intelligence
    In ons dagelijks leven komen we steeds meer toepassingen tegen van artificial intelligence (AI). Van apps met beeldherkenning om te helpen bij het vroegtijdig herkennen van kwaadaardige moedervlekken en spraakgestuurde virtual assistents zoals Alexa en Google Home, tot Netflix die ons een nieuwe film aanbeveelt. Ook voor het pensioendomein ligt AI dichterbij dan we denken.

    Wij zien veel mogelijkheden voor pensioenfondsen om AI in te zetten om te komen tot hogere klanttevredenheid, operational excellence en een hogere datakwaliteit. Op het gebied van datakwaliteit hebben wij hieronder een (niet-limitatieve) lijst van toepassingen op AI-gebied opgenomen die u zou kunnen gebruiken:

Image recognition:
Heeft u als pensioenfonds nog een papieren archief, facturen van werkgevers die met de post binnenkomen, of loonaangiftes van deelnemers die allemaal anders zijn? Middels image recognition is het mogelijk de informatie uit de papieren documenten rechtstreeks om te zetten in digitale records, zónder dat daarbij handmatige invoer nodig is. Hierdoor wordt aan de voorkant de kans op (handmatige) fouten verkleind. Zo voorkomt u een lagere datakwaliteit en bespaart u tijd.

Text mining:
Stuurt u als pensioenfonds slechts eenmaal in de zoveel tijd communicatie en individuele informatie naar uw deelnemers en/of werkgevers? En wilt u zeker weten dat de informatie op bijvoorbeeld het UPO exact overeenkomt met de gegevens in de pensioenadministratie? Dan kan tekst mining u helpen met het extraheren, verwerken en vergelijken van de data in uw administratiesystemen.

Speech-to-text:
Hecht u veel waarde aan de correcte, tijdige en transparante afhandeling van vragen en klachten van uw deelnemers? Dan zijn goede data van essentieel belang. Door de AI-techniek, speech-to-text, in te zetten op deze processen wordt het gesprek met de deelnemer automatisch omgezet in een gesprekverslag. Vervolgens wordt hier een digitaal record van gemaakt waarmee uw deelnemer goed, snel en correct geholpen kan worden.

Predictive models:
Voorspellende modellen spelen een belangrijke rol in datakwaliteit. Zij kunnen bijvoorbeeld het verwachte loonbedrag in de UPA-keten iedere maand op individueel niveau voorspellen.

Deep fake:
Dit is een techniek voor het genereren van nieuwe beelden op basis van artificial intelligence. Hierbij worden bestaande afbeeldingen en video´s gecombineerd.

Meer relevante kennis?

Volgt u onze kennispagina op onze site al? Daar staan meerdere artikelen en blogs.

Disclaimer
Hoewel deze uitgave met grote zorgvuldigheid is samengesteld, aanvaarden AethiQs B.V. en alle andere entiteiten, samenwerkingsverbanden, personen en praktijken die handelen onder de naam ‘AethiQs’, geen enkele aansprakelijkheid voor de gevolgen van het gebruik van de informatie uit deze uitgave zonder hun medewerking. De aangeboden informatie is bedoeld ter algemene informatie en kan niet worden beschouwd als advies. Indien in dit document wordt verwezen naar een mannelijke vorm, kan het net zo goed een vrouwelijk verwijzing zijn. Niets uit deze uitgave mag zonder akkoord van de schrijver en AethiQs worden gebruikt, gedeeld of gekopieerd voor andere doeleinden.

© Alle rechten voorbehouden aan AethiQs. Juni 2020.