データの価値と組織での利用方法が年々変化するのに伴い、データモデリングも変化しています。 現代においては、データモデリングはデータガバナンスおよびインテリジェンスの機能であり、組織が提供するビジネス機能にデータ資産を合わせることができるようにします。
簡単に言えば、組織がデータモデリングに頼るのは、整理され、可視化が容易な方法で所有データの全体像を確認して最大の効果を得るためです。 より適切な意思決定をサポートし、より堅牢なアプリケーション開発を促進することで、組織は、データ規制の準拠を維持し、イノベーションを促進できます。 例えば、企業が人工知能(AI)イニシアチブを推進したくても、高品質のデータと明確に定義されたデータモデルがなければ、うまくはいきません。
何十年もの間、データモデリングは、情報システムで活用できるように、データを定義、分類、標準化するために用いられてきました。 これは、最新のデータ環境ではかつてないほど重要になっています。構造化データも非構造化データもあり、オンプレミスにもクラウドサービスにもデータが存在する可能性があるからです。 大量のデータを前にして、データモデルとデータベース設計を自動的に生成することは、全体的な生産性を高めながら、効率を高めてエラーを減らすコストパフォーマンスの高い方法です。
もちろん、組織が異なればニーズも異なります。 従来型のデータベースアプローチで十分、現在のデータ戦略と成熟度のニーズを満たしている組織もあります。 一方、NoSQLデータベースの方が高い柔軟性が得られることから、NoSQLデータベース、ひいてはNoSQLデータモデリングを必要とする組織もあります。 データをビジネスに導入し、アクセスと理解を容易にすることで、データ資産の価値が高まり、投資収益率と機会収益率が向上します。 しかし、メタデータ管理と適切なデータガバナンスのバックボーンを提供するデータモデリングがなければ、どちらも不可能です。
ビッグデータの3つの定義プロパティは、データの量(Volume)、種類(Variety)、および処理速度(Velocity)を表す「3つのV」として知られています。 データの価値はコンテキストに合わせて増え、こうしたコンテキストはデータの中で見つかります。 これは、より大量のデータを生成して保存することにインセンティブがあることを意味します。
通常、データ量が増えるにつれ、データソースの数と種類も増えていきます。 また、データの量と種類が増えると、洞察が提供されるように管理することがますます難しくなります。
相当な注意を払わないと、上記の要因から、データ駆動型の組織は混沌とした環境に陥りかねません。
したがって、データモデリングへの正しいアプローチは、ユーザが任意のデータをどこからでも表示できるようにすることであり、このデータガバナンスと管理のベストプラクティスを私たちは「any-squared」(Any²)と呼んでいます。
Any²アプローチを採用した組織は、大規模なデータ統合、マスターデータ管理、メタデータ管理、ビッグデータ、およびビジネスインテリジェンス/分析のイニシアチブにおいて、一貫性、明確性、成果物再利用の向上を期待できるようになります。