Unternehmen erleben grade, wie das Zeitalter der Daten anbricht. Heutzutage werden in einer Woche mehr Daten produziert als den zurückliegenden 2.000 Jahren Menschheitsgeschichte zusammengenommen. Schätzungen gehen von knapp drei Milliarden GByte pro Tag aus. Jede verschickte E-Mail, jede Business-Anwendung, jede Suchanfrage im Internet, jeder Security-Scan und jeder Cloud-Service erzeugt eine ganze Menge Daten. Multipliziert mit der Anzahl der Nutzer ergibt das einen explosionsartigen Anstieg von Informationen.
In den Unternehmen setzt sich allmählich die Einsicht durch, dass sich Daten zum eigenen Vorteil nutzen lassen. Aber die Erkenntnisse, die ein Unternehmen aus den Daten gewinnen kann, sind nur so gut wie die Daten selbst. Schlechte Daten führen letztendlich zu schlechten Entscheidungen. Die englische Redewendung „Garbage in – Garbage out“ trifft durchaus zu.
Mögliche Gründe für schlechte Daten sind zahlreich: Die Daten kommen aus vielen unterschiedlichen Quellen, das wachsende Volumen lässt sich schwer handhaben, und die Zahl der vermeintlichen Datenprofis, die damit umgehen, steigt. Die Datenproliferation über eine stetig zunehmende Anzahl von Clouds und digitalen Kanälen birgt zudem eine potenzielle Gefahr für Unternehmen: Datenlecks, Datenverletzungen, fehlerhafte und inkonsistente Daten sind an der Tagesordnung, und der Weg zu guten Daten erscheint steinig und lang. Ohne ein sinnvolles Datenqualitätsmanagement führen Big-Data-Technologien nur zu einer schnelleren Analyse des Datenmülls. Hier kommen die Data Quality Tools ins Spiel. […]
Fachartikel für com! professional