Der Wert von Daten und die Art und Weise, wie sie von Unternehmen genutzt werden, haben sich über die Jahre verändert – und dies gilt auch für die Datenmodellierung. Im modernen Kontext ist die Datenmodellierung eine Funktion der Daten-Governance und -intelligenz, die es Unternehmen ermöglicht, Datenbestände mit den Geschäftsfunktionen, denen sie dienen, in Einklang zu bringen.
Datenmodellierung war schon immer die beste Möglichkeit, um komplexe Datenquellen zu verstehen und Designstandards zu automatisieren. Heute geht das Konzept jedoch weit über diese Bereiche hinaus: Es kann den Gesamterfolg von Daten-Governance in jedem Unternehmen beschleunigen und sicherstellen. Mit dem richtigen Ansatz fördert die Datenmodellierung die Kohärenz und damit den Erfolg von Datenstrategien in Unternehmen.
Vereinfacht gesagt, setzen Unternehmen Datenmodellierung ein, um ein klares Bild ihrer Daten zu erhalten und diese in einer organisierten, leicht zu visualisierenden Weise optimal nutzen zu können. Dies wiederum führt zu besseren Entscheidungen, treibt die Entwicklung zuverlässigerer Anwendungen voran, hilft dem Unternehmen bei der Einhaltung von Datenschutzvorschriften und fördert die Innovation. Unternehmen, die beispielsweise Initiativen zur künstlichen Intelligenz (KI) vorantreiben wollen, werden ohne hochwertige Daten und einwandfrei definierte Datenmodelle nicht weit kommen.
Datenmodellierung wird schon seit Jahrzehnten eingesetzt, um Daten zu definieren, zu kategorisieren und zu standardisieren, damit sie von Informationssystemen genutzt werden können. Dies ist in einer modernen Datenlandschaft, in der Daten strukturiert oder unstrukturiert und sowohl lokal als auch in der Cloud gespeichert sein können, wichtiger denn je. Angesichts riesiger Datenmengen ist die automatische Erzeugung von Datenmodellen und Datenbankdesigns eine kostengünstige Möglichkeit, die Effizienz zu steigern, Fehler zu reduzieren und gleichzeitig die Produktivität umfassend zu steigern.
Natürlich haben unterschiedliche Organisationen unterschiedliche Bedürfnisse. Für einige erfüllt der Legacy-Ansatz für Datenbanken die Anforderungen ihrer aktuellen Datenstrategie und ihres Reifegrads. Andere benötigen NoSQL-Datenbanken, weil diese mehr Flexibilität bieten – und sind damit auch auf die entsprechende Datenmodellierung angewiesen. Wenn Daten im Unternehmen einfach zugänglich und verständlich sind, erhöht sich der Wert der Datenbestände, wodurch wiederum Return on Investment und Return on Opportunity steigen. Beides ist jedoch ohne Datenmodellierung nicht möglich, die das Rückgrat für das Metadatenmanagement und eine angemessene Data Governance bildet.
Die drei charakteristischen Eigenschaften von Big Data sind die sogenannten „3 Vs“: Volume (Datenmenge), Variety (Vielfalt) und Velocity (Geschwindigkeit, mit der sie verarbeitet werden müssen). Der Wert von Daten wächst mit dem Kontext, und auch dieser ist Bestandteil der Daten. Das bedeutet, dass es einen Anreiz gibt, größere Datenmengen zu erzeugen und zu speichern.
Typischerweise führt ein Anstieg der Datenmenge zu mehr Datenquellen und -typen. Durch die Zunahme von Volumen und Vielfalt lassen sich Daten immer schwieriger so verwalten, dass sie einen Einblick ermöglichen.
Ohne gebührende Sorgfalt können die oben genannten Faktoren für datengesteuerte Organisationen zu einer chaotischen Umgebung führen.
Daher muss der richtige Ansatz für die Datenmodellierung es Benutzern ermöglichen, beliebige Daten von überall aus (auf Englisch „anywhere“) einzusehen – eine Best Practice für Data Governance und Management, die wir als Any² („any-squared“) bezeichnen.
Unternehmen, die den Any²-Ansatz anwenden, können stärkere Kohärenz, Klarheit und verbesserte Wiederverwendbarkeit bei umfangreichen Datenintegrationen, Stammdatenmanagement, Metadatenmanagement, Big Data und Business Intelligence/Analytics-Initiativen erwarten.
Der erwin Data Modeler von Quest ist in mehreren Versionen erhältlich, mit zusätzlichen Optionen zur Verbesserung der Qualität und Agilität der Datenfunktionen. Er bietet eine moderne und anpassbare Modellierungsumgebung, Unterstützung für alle großen und aufstrebenden DBMS-Plattformen wie Azure Synapse, Couchbase, Cassandra, MongoDB, Snowflake und MariaDB, automatisches Harvesting von Datenmodellen und Namensstandards für die Integration in die erwin Data Intelligence Suite von Quest sowie weitere zeitsparende Automatisierungsaufgaben.