製品資料

インフォマティカ・ジャパン株式会社

インフォマティカ・ジャパン株式会社

ビッグデータプロジェクトの重要課題、データ品質の向上に必要な4つのステップ

ビッグデータプロジェクトが世界的に進められる一方で、データ品質に関する懸念が浮上している。解決策とされるデータレイクも、問題を自動的に解決してくれるわけではない。データの信頼性を高めるためには、何が必要だろうか。

要約

 世界中の企業が戦略的な理由からビッグデータプロジェクトを進める一方、データ品質に関する問題が浮上している。Forbes Insightsによる最新のレポートでは、CEOの84%が意思決定の際に利用するデータ品質に懸念を持っており、データブローカーについての調査では、顧客データの71%が不正確であることが判明している。

 こうした中、多くの企業が解決策として注目しているのが、データレイクだ。しかし、データ品質の小さなエラーでもインサイトの精度や一貫性を損なう恐れがあることを考慮すると、リポジトリにデータを取り込むだけでなく、ある時点でクレンジングと構造化は必ず行わなければならない。そこで導入を検討したいのが、機械学習と人工知能を使用し、精度の低いデータの検出/修正を自動化するデータ管理ソリューションだ。

 また、その他にも、統一ルールを採用してユニバーサルに作業を行う、データのプロファイリングと追跡を容易にするなど、品質確保のために企業がやるべきことは多い。本資料では、ビッグデータ活用にデータ品質が重要な理由や粗悪なデータの根本原因など、データ品質を高める上で知っておきたい4つのポイントを詳しく解説する。

アンケート