データ品質ファイアウォールとは、誤り、重複、または低品質のデータの侵入からコンピュータシステムを保護するソフトウェアの使用です。ガートナーは2017年、低品質データによって組織が年間平均1,500万ドルの損失を被っていると推定しました。[ 1 ]従来の技術ではデータ品質ソフトウェアの緊密な統合が必要でしたが、現在ではサービス指向アーキテクチャにおける疎結合技術によってこれを実現できます。
データ品質ファイアウォールは、データベースの正確性と一貫性を保証します。このアプリケーションは、有効かつ高品質なデータのみがシステムに、あるいは場合によっては組織のパラメータに入力されることを保証します。[ 2 ]データファイアウォールは、データベースまたはデータレイクを間接的に損傷から保護します。データベースの整合性とセキュリティは不可欠であるため、これは非常に重要です。データ品質ファイアウォールは、システムに送信されたデータの品質に関するリアルタイムのフィードバック情報を提供します。
データ品質プロセスの主な目標は、エラーや無効なデータを取得し、それらを処理して重複を排除し、最後に有効なデータをユーザーにエクスポートし、データベースへのバックアップコピーを確実に保存することです。データ品質ファイアウォールは、ネットワークセキュリティファイアウォールと同様の役割を果たします。品質に問題のあるデータをフィルタリングすることで、パケットが指定されたポートを通過できるようにし、残りの有効なデータはデータベースに保存できるようにします。つまり、ファイアウォールはデータソースとデータベースの間に位置し、データの抽出、処理、読み込みの全プロセスにわたって機能します。
データストリームが正確または信頼できると判断されるには、正確な妥当性チェックを受ける必要があります。こうしたチェックは、時間的、形式的、論理的、そして予測的な観点から行われます。