Uit het Data Quality 2023 Study-onderzoek blijkt dat een aanzienlijke 34% van de organisaties die hebben gereageerd zich in de ‘Data Aware’-fase bevindt, wat aangeeft dat ze zich in de beginfase bevinden van het erkennen van het belang van data, maar deze nog niet volledig hebben geïntegreerd in hun besluitvorming. processen.
De meest geavanceerde fase, ‘Data Driven’, waarbij data volledig worden geïntegreerd in die processen op alle organisatieniveaus, wordt echter door 16% van de organisaties van de respondenten bereikt. Deze fase vertegenwoordigt het hoogtepunt van datavolwassenheid, waarbij data worden gebruikt als een cruciaal onderdeel van de bedrijfsstrategie en -activiteiten.
Het onderzoek, samengesteld door SD Times en Melissa, leverancier van oplossingen voor datakwaliteit en adresbeheer, leverde in totaal 218 volledige reacties op. De dataset bood een uitgebreid overzicht van verschillende aspecten van datakwaliteitsmanagement, inclusief uitdagingen waarmee organisaties worden geconfronteerd, de tijd die wordt besteed aan problemen met datakwaliteit, datavolwassenheidsniveaus binnen organisaties en de impact van internationale karaktersets.
Als het gaat om het meest voorkomende probleem bij het beheren van data, vormen internationale karaktersets de meest voorkomende uitdaging: 28,1% van de respondenten beschouwt dit als hun belangrijkste uitdaging op het gebied van datakwaliteit. Interessant genoeg werden internationale karaktersets met respectievelijk 28% en 37,5% zeer prominent vermeld als zowel de zeer moeilijke als de minst moeilijke uitdagingen binnen hun organisatie.
Internationale karaktersets brengen unieke uitdagingen met zich mee op het gebied van datakwaliteitsbeheer, voornamelijk vanwege de complexiteit en diversiteit van de talen en scripts die ze omvatten. Een van de belangrijkste problemen is codering, waarbij voor verschillende talen verschillende standaarden zoals UTF-8 of ASCII vereist zijn.
Onjuiste of niet-overeenkomende codering kan leiden tot onleesbare tekst, informatieverlies en complicaties bij de gegevensverwerking en -opslag. Bovendien kan de integratie en consolidatie van gegevens uit meerdere internationale bronnen leiden tot inconsistenties en corruptie, een probleem dat vooral relevant is in mondiale organisaties.
De tweede en derde moeilijkste uitdagingen voor organisaties waren onvolledige gegevens en duplicaten, waarbij respectievelijk 22% en 23% van de respondenten dit de hoogste moeilijkheidsscore gaf.
Uit het onderzoek van dit jaar, het derde in zijn soort, blijkt dat organisaties nog steeds worstelen met dezelfde problemen waarmee ze al die tijd worstelden. “Voor mij toont dit aan dat organisaties het probleem op macroniveau nog steeds niet begrijpen”, zegt David Rubinstein, hoofdredacteur van D2 Emerge, het moederbedrijf van SD Times. “Er moet een ‘all-in’ benadering zijn van datakwaliteit, waarbij data-architecten, ontwikkelaars en de zakelijke kant een rol spelen om ervoor te zorgen dat hun data accuraat, actueel, beschikbaar en volledig geïntegreerd zijn om een enkel overzicht van data te bieden. glas waar alle belanghebbenden van kunnen profiteren.”
Volgens het onderzoek gaf 54% van de respondenten aan zich volledig bezig te houden met meerdere gebieden van datakwaliteit. Dit suggereert een alomvattende benadering van datakwaliteitsmanagement, waarbij professionals betrokken zijn bij een reeks taken in plaats van zich te specialiseren in slechts één gebied.
De belangrijkste betrokkenheidsgebieden zijn onder meer Data Quality Management (48,9%), Data Quality Input (45,9%) en Data Integratie (47,9%).
Data Quality Management omvat het toezicht houden op en het waarborgen van de nauwkeurigheid, consistentie en betrouwbaarheid van gegevens. Data Quality Input richt zich op de beginfase van gegevensinvoer en -verwerving en zorgt ervoor dat gegevens vanaf het begin correct en bruikbaar zijn. Data-integratie omvat het combineren van gegevens uit verschillende bronnen en het bieden van een uniform beeld.
Een kleiner deel van de respondenten, 33,6%, is betrokken bij het kiezen van Data Validation API Services/API Data Quality Solutions, wat het technische aspect weerspiegelt van het garanderen van datakwaliteit via applicatieprogrammeerinterfaces en gespecialiseerde softwareoplossingen.