粒度計算

粒度コンピューティングは、情報処理における新たなコンピューティングパラダイムであり、「情報グラニュール」と呼ばれる複雑な情報エンティティの処理に関係します。情報グラニュールは、データの抽象化や情報またはデータからの知識導出のプロセスで発生します。一般的に、情報グラニュールとは、通常は数値レベルで発生し、類似性、機能的または物理的な隣接性、区別不能性、一貫性などにより一緒に配置されるエンティティの集合です。

現時点では、粒度コンピューティングは、一貫した手法や原則の集合というよりも、むしろ理論的な視点です。理論的視点として、粒度コンピューティングは、様々な解像度やスケールのデータに存在する知識を認識し、活用するデータへのアプローチを推奨します。この意味で、粒度コンピューティングは、知識や情報を抽出し、表現する解像度において柔軟性と適応性を提供するあらゆる手法を包含します。

造粒の種類

サイクロンの衛星画像。
マンハッタンの衛星画像。

前述のように、粒度コンピューティングはアルゴリズムやプロセスではなく、「粒度コンピューティング」と呼ばれる特定の手法も存在しません。粒度レベルの違いによって、データ内の様々な興味深い規則性がどのように現れるかを認識するデータ解析手法です。これは、解像度の異なる衛星画像で異なる特徴が際立つのと同様です。例えば、低解像度の衛星画像では、サイクロンなどの大規模な気象現象を表す興味深い雲模様に気づくかもしれません。一方、高解像度の画像では、これらの大規模な気象現象は見逃され、代わりにマンハッタンの街路の興味深い模様のような、より小規模な現象に気づくでしょう。これは一般的にすべてのデータに当てはまります。解像度や粒度が異なると、異なる特徴や関係性が浮かび上がります。粒度コンピューティングの目的は、この事実を利用して、より効果的な機械学習および推論システムを設計することです。

データマイニング機械学習でよく遭遇する粒度にはいくつかの種類があり、以下でそれらについて説明します。

値の粒度化(離散化/量子化)

粒度分布の1つのタイプは、変数の量子化です。データマイニングや機械学習アプリケーションでは、意味のある規則性を抽出するために変数の解像度を下げる必要があることは非常に一般的です。例えば、「外気温」(temp )のような変数は、特定のアプリケーションでは(センサー装置に応じて)小数点以下数桁の精度で記録される場合があります。しかし、「外気温」と、例えば「ヘルスクラブの申込数」(club)との関係を抽出する目的では、「外気温」をより少ない間隔に量子化する方が一般的に有利です。

動機

このように変数を細分化する理由はいくつかあり、それらは相互に関連しています。

  • 事前のドメイン知識に基づくと、温度の微細な変化(例えば、80~80.7 °F(26.7~27.1 °C)の差)が、ヘルスクラブの申込回数に影響を与える行動に影響を及ぼすことは予想されません。このため、学習アルゴリズムがこの解像度レベルで検出する可能性のある「規則性」は、過剰適合の産物である偽物である必要があります。温度変数を、(事前のドメイン知識に基づいて)ヘルスクラブの申込回数に影響を与えると予想される差の間隔に粗くすることで、これらの偽のパターンを検出する可能性を排除します。したがって、この場合、解像度を下げることは過剰適合を制御する方法です。
  • 温度変数の区間数を減らす(つまり、粒度を大きくする)ことで、各区間指定でインデックス付けされたサンプルデータの量が増加します。このように、変数を粗くすることでサンプルサイズが増加し、より正確な統計的推定が可能になります。この意味で、粒度を大きくすることは、次元数または変数のカーディナリティの増加に伴う統計的検出力の指数関数的低下に関連する、いわゆる「次元の呪い」に対する解毒剤となります。
  • 事前のドメイン知識とは無関係に、意味のある規則性(つまり、特定の学習方法、表現言語などによって検出できるもの)が、ある解像度レベルでは存在し、別の解像度レベルでは存在しないことがよくあります。
値の粒度分布の利点: ここでの含意は、特にのより高い解像度では存在しないもののの解像度で存在するが、同時に、{Xはいj}{\displaystyle \{X_{i},Y_{j}\}}{×yj};{\displaystyle \{x_{i},y_{j}\};}×yj:×yj{\displaystyle \forall x_{i},y_{j}:x_{i}\not \to y_{j},}Xはいj:Xはいj{\displaystyle \forall X_{i}\exists Y_{j}:X_{i}\leftrightarrow Y_{j}.}

例えば、単純な学習器やパターン認識システムは、条件付き確率閾値を満たす規則性を抽出しようとする場合があります。この特別なケースでは、この認識システムは本質的に、形式の論理的含意、つまり「もし~ならば~」を検出しています。このような含意(あるいは一般的には、閾値を超える条件付き確率)を認識するシステムの能力は、システムが変数を分析する解像度に部分的に依存します。 pはいyj|X×α{\displaystyle p(Y=y_{j}|X=x_{i})\geq \alpha .}α1{\displaystyle \alpha =1,}X×はいyj{\displaystyle X=x_{i}\rightarrow Y=y_{j}}X×{\displaystyle X=x_{i},}はいyj{\displaystyle Y=y_{j}}

この最後の点の例として、右に示す特徴空間を考えてみましょう。 変数はそれぞれ 2 つの異なる解像度で考えることができます。 変数は、の 4 つの値をとる高 (4 値) 解像度、または の 2 つの値をとる低 (2 値) 解像度で考えることができます 。 同様に、 変数は、 またはの値をそれぞれと取る高 (4 値) 解像度、または低 (2 値) 解像度で考えることができます。 高解像度では、すべての が1 つ以上と関連付けられており、したがってすべて についてとなるため、の形式の検出可能な含意はありません。しかし、低 (2 値) 変数解像度では、 および の 2 つの双方向含意が検出可能になります。 これは、すべての が の場合に限り発生し、の場合に限り発生するためです。 したがって、この種の含意をスキャンするパターン認識システムは、2 値変数解像度では含意を見つけますが、高次の 4 値変数解像度では見つけることができません。 X{\displaystyle X}{×1×2×3×4}{\displaystyle \{x_{1},x_{2},x_{3},x_{4}\}}{X1X2}{\displaystyle \{X_{1},X_{2}\}.}はい{\displaystyle Y}{y1y2y3y4}{\displaystyle \{y_{1},y_{2},y_{3},y_{4}\}}{はい1はい2}{\displaystyle \{Y_{1},Y_{2}\},}X×はいyj{\displaystyle X=x_{i}\rightarrow Y=y_{j},}×{\displaystyle x_{i}}yj{\displaystyle y_{j},}×{\displaystyle x_{i},}pはいyj|X×<1.{\displaystyle p(Y=y_{j}|X=x_{i})<1.}XX1はいはい1{\displaystyle X=X_{1}\leftrightarrow Y=Y_{1}}XX2はいはい2{\displaystyle X=X_{2}\leftrightarrow Y=Y_{2}}X1{\displaystyle X_{1}}はい1{\displaystyle Y_{1}}X2{\displaystyle X_{2}}はい2{\displaystyle Y_{2}.}

問題と方法

どの組み合わせの解像度が興味深い、あるいは有意な結果をもたらすかを判断するために、すべての変数に対してあらゆる離散化解像度を網羅的にテストすることは現実的ではありません。その代わりに、特徴空間を前処理(多くの場合、何らかのエントロピー分析によって)し、離散化プロセスをどのように進めるべきかについての何らかの指針を与える必要があります。さらに、各変数を個別に単純に分析・離散化しても、一般的に良好な結果は得られません。なぜなら、発見したいと思っていた相互作用そのものが失われてしまう可能性があるからです。

変数の離散化全般、特に多変数の離散化の問題を扱った論文の例は次のとおりです:Chiu、Wong & Cheung (1991)Bay (2001)Liu et al. (2002)Wang & Liu (1998)Zighed、Rabaséda & Rakotomalala (1998)Catlett (1991)Dougherty、Kohavi & Sahami (1995)Monti & Cooper (1999)Fayyad & Irani (1993)Chiu、Cheung & Wong (1990)Nguyen & Nguyen (1998)Grzymala-Busse & Stefanowski (2001)Ting (1994)Ludl & Widmer (2000)Pfahringer (1995)An & Cercone (1999)Chiu & Cheung (1989)Chmielewski &グジマラ・ブッセ (1996)Lee & Shin (1994)Liu & Wellman (2002)Liu & Wellman (2004)

変数の粒度分布(クラスタリング/集約/変換)

可変粒度化とは、様々な手法を指す用語であり、その多くは次元数、冗長性、そしてストレージ要件の削減を目的としています。ここでは、いくつかのアイデアを簡単に説明し、参考文献を紹介します。

変数変換

主成分分析多次元尺度法因子分析構造方程式モデリングなどの古典的な手法や、それらの類似手法の多くは、「変数変換」の属に分類されます。また、次元削減射影追跡独立成分分析などのより現代的な研究分野もこのカテゴリに含まれます。これらの手法の一般的な共通の目標は、新しい変数によるデータの表現を見つけることです。新しい変数は元の変数の線形または非線形変換であり、重要な統計的関係が出現します。結果として得られる変数セットはほとんどの場合、元の変数セットよりも小さくなるため、これらの手法は特徴空間に粒度分布を課すと大まかに言えます。これらの次元削減手法はすべて、Duda、Hart、Stork(2001)Witten、Frank(2005)Hastie、Tibshirani、Friedman(2001)などの標準的なテキストでレビューされています。

変数の集約

変数粒度分布の異なるクラスは、上記の方法の基礎となっている線形システム理論よりも、データクラスタリングの手法に由来することが多い。関連する変数の「クラスタリング」は、関連するデータのクラスタリングと全く同じ方法で考えられることが、かなり早い段階で指摘されていた。データクラスタリングでは、類似したエンティティのグループを特定し(ドメインに適した「類似度の尺度」を用いて — Martino, Giuliani & Rizzi (2018))、その後、ある意味でそれらのエンティティを何らかのプロトタイプに置き換える。プロトタイプは、特定されたクラスター内のデータの単純平均、あるいは他の代表的な尺度となる可能性がある。しかし、重要な考え方は、後続の操作において、データクラスターの単一のプロトタイプ(そしておそらくプロトタイプからどのように標本が導出されるかを記述した統計モデル)を使用して、はるかに大規模な標本集合の代わりに使用できる可能性があるという点であるこれらのプロトタイプは、一般的に、エンティティに関する関心のある情報のほとんどを捉えるようなものである。

渡辺-クラスコフ変数凝集木。変数は下から上へと凝集(または「ユニット化」)され、各マージノードは、凝集する変数の結合エントロピーに等しいエントロピーを持つ(構築された)変数を表す。したがって、個別のエントロピーを持つ2つのm元変数を凝集すると、エントロピーを持つ単一のm 2元変数が得られる。これらの変数が高度に依存性(つまり冗長性)を持ち、相互情報量が大きい場合、 となり、これは簡素なユニット化または集約と見なされる。X1X2{\displaystyle X_{1},X_{2}}HX1HX2{\displaystyle H(X_{1}),H(X_{2})}X12{\displaystyle X_{1,2}}HX12HX1X2{\displaystyle H(X_{1,2})=H(X_{1},X_{2}).}X1X2{\displaystyle X_{1},X_{2}}X1;X2{\displaystyle I(X_{1};X_{2}),}HX12HX1+HX2{\displaystyle H(X_{1,2})\ll H(X_{1})+H(X_{2})}HX1X2HX1+HX2X1;X2{\displaystyle H(X_{1},X_{2})=H(X_{1})+H(X_{2})-I(X_{1};X_{2}),}

同様に、大規模な変数集合を、変数間の最も顕著な関係を捉える、より小規模なプロトタイプ変数集合に集約できるかどうかを問うことは理にかなっています。線形相関に基づく変数クラスタリング手法が提案されていますが(Duda, Hart & Stork 2001 ; Rencher 2002 )、より強力な変数クラスタリング手法は、変数間の相互情報量に基づいています。渡辺は(Watanabe 1960 ; Watanabe 1969 )、任意の変数集合に対して、一連の変数の集塊を表す多項式(すなわちn項)ツリーを構築できることを示しました。このツリーでは、完全な変数集合間の最終的な「全体的」相関は、集塊を形成する各サブセットが示す「部分的」相関の合計となります(図参照)。渡辺は、観察者がこのようにしてシステムを分割し、各部分間の相互依存性を最小化しようとするかもしれないと示唆しています。「まるで自然な分割や隠れた亀裂を探しているかのように」

このようなツリーを構築するための実用的なアプローチの一つは、最も高い相互情報量を持つ2つの変数(原子変数または既に凝集済みの変数)を順に凝集対象として選択することである(Kraskov et al. 2003 )。各凝集の積は、2つの凝集変数の局所的な結合分布を反映する新しい(構築された)変数であり、したがって、そのエントロピーはそれらの結合エントロピーに等しい。 (手順の観点から、この凝集ステップでは、属性値テーブル内の 2 つの列 (2 つの凝集変数を表す) を、置き換えられた列の値のすべての一意の組み合わせに対して一意の値を持つ 1 つの列に置き換えます ( Kraskov ら、2003 年)。このような操作によって情報が失われることはありません。ただし、変数間の関係についてデータを調査している場合、通常は冗長な変数をこの方法で結合することは望ましくありません。このようなコンテキストでは、変数間の冗長性または依存関係が重要である可能性が高いためです。冗長な変数を結合すると、それらの相互関係を調査できなくなります。

システムの粒度分布(集約)

データベースシステムにおける集計(OLAP集計ビジネスインテリジェンスシステムなど)は、元のデータテーブル(多くの場合、情報システムと呼ばれる)を、行と列のセマンティクスが異なるテーブルに変換します。行は元のタプルのグループ(グラニュル)に対応し、列は各グループ内の元の値に関する集計情報を表します。このような集計は通常、SQLとその拡張に基づいています。結果として得られるグラニュルは通常、事前に選択された元の列において同じ値(または範囲)を持つ元のタプルのグループに対応します。

行の物理的な隣接関係などに基づいてグループを定義する他のアプローチもあります。例えば、Infobrightは、データが64Kの物理的に連続した(またはほぼ連続した)行で構成される大まかな行に分割されるデータベースエンジンを実装しました。大まかな行には、データ列の値に関する簡潔な情報が自動的にラベル付けされ、複数の列や複数のテーブル間の関係が含まれることがよくあります。その結果、オブジェクトが大まかな行と属性(つまり大まかな情報のさまざまな側面)に対応する、より高次の粒度情報が生成されました。このような新しいフレームワークでは、元のデータ部分へのアクセスを引き続き利用しながら、データベース操作を効率的にサポートできます(Slezak et al. 2013)。

概念の粒度化(成分分析)

粒度計算の思想の起源は、ラフ集合ファジィ集合に関する文献に見出すことができます。ラフ集合研究における重要な洞察の一つは(決してラフ集合研究に特有のものではありませんが)、一般的に、異なる特徴や変数の集合を選択することで、異なる概念の粒度が得られるというものです。ここで「概念」とは、初等ラフ集合理論と同様に、観察者にとって区別がつかない、あるいは識別できない実体の集合(すなわち、単純概念)、あるいはそのような単純概念から構成される実体の集合(すなわち、複雑概念)を指します。言い換えれば、データセット(値属性システム)を異なる変数集合に投影することで、データ内の同値類「概念」の代替集合を認識し、これらの異なる概念集合は、一般的に異なる関係性や規則性の抽出に役立ちます。

同値類の粒度

例を挙げて説明します。以下の属性値システムを考えてみましょう。

サンプル情報システム
物体P1{\displaystyle P_{1}}P2{\displaystyle P_{2}}P3{\displaystyle P_{3}}P4{\displaystyle P_{4}}P5{\displaystyle P_{5}}
1{\displaystyle O_{1}}12011
2{\displaystyle O_{2}}12011
3{\displaystyle O_{3}}20010
4{\displaystyle O_{4}}00121
5{\displaystyle O_{5}}21021
6{\displaystyle O_{6}}00122
7{\displaystyle O_{7}}20010
8{\displaystyle O_{8}}01221
9{\displaystyle O_{9}}21022
10{\displaystyle O_{10}}20010

属性の完全なセットを考慮すると、次の 7 つの同値クラスまたはプリミティブ (単純) 概念があることがわかります。 P{P1P2P3P4P5}{\displaystyle P=\{P_{1},P_{2},P_{3},P_{4},P_{5}\}}

{{12}{3710}{4}{5}{6}{8}{9}{\displaystyle {\begin{cases}\{O_{1},O_{2}\}\\\{O_{3},O_{7},O_{10}\}\\\{O_{4}\}\\\{O_{5}\}\\\{O_{6}\}\\\{O_{8}\}\\\{O_{9}\}\end{cases}}}

したがって、最初の同値クラスに属する2つのオブジェクトは、利用可能な属性に基づいて互いに区別することができず、2番目の同値クラスに属する3つのオブジェクトも、利用可能な属性に基づいて互いに区別することはできません。残りの5つのオブジェクトは、それぞれ他のすべてのオブジェクトと識別可能です。ここで、属性値システムを属性のみに投影したものを想像してみましょう。これは、例えば、この単一の属性しか検出できない観察者からの視点を表します。すると、次のような、はるかに粗い同値クラス構造が得られます。 {12}{\displaystyle \{O_{1},O_{2}\},}{3710}{\displaystyle \{O_{3},O_{7},O_{10}\},}P1{\displaystyle P_{1}}

{{12}{357910}{468}{\displaystyle {\begin{ケース}\{O_{1},O_{2}\}\\\{O_{3},O_{5},O_{7},O_{9},O_{10}\}\\\{O_{4},O_{6},O_{8}\}\end{ケース}}}

これはある意味では以前のものと同じ構造ですが、解像度が低い(粒度が大きい)という点が異なります。値の粒度化(離散化/量子化)の場合と同様に、ある粒度レベルでは他の粒度レベルでは見られない関係性(依存関係)が出現する可能性があります。この例として、概念の粒度化が属性依存関係(相互情報量のより単純な類似指標)に与える影響を考えてみましょう。

この依存性の概念を確立するために(ラフ集合も参照)、特定の概念粒度を表すものとする。ここで、各粒度は属性集合Qによって誘導される概念構造からの同値類である。例えば、上記のように属性集合Qが属性のみで構成されている場合、概念構造は以下で構成される。 [×]質問{質問1質問2質問3質問}{\displaystyle [x]_{Q}=\{Q_{1},Q_{2},Q_{3},\dots ,Q_{N}\}}質問{\displaystyle Q_{i}}P1{\displaystyle P_{1}}[×]質問{\displaystyle [x]_{Q}}

質問1{12}質問2{357910}質問3{468}{\displaystyle {\begin{aligned}Q_{1}&=\{O_{1},O_{2}\},\\Q_{2}&=\{O_{3},O_{5},O_{7},O_{9},O_{10}\},\\Q_{3}&=\{O_{4},O_{6},O_{8}\}.\end{aligned}}}

属性集合Qの別の属性集合Pへの依存は次のように表される 。γP質問{\displaystyle \gamma _{P}(Q),}

γP(Q)=|i=1NP_Qi||U|1{\displaystyle \gamma _{P}(Q)={\frac {\left|\sum _{i=1}^{N}{\underline {P}}Q_{i}\right|}{\left|\mathbb {U} \right|}}\leq 1}

つまり、 の各同値クラスについて、その「下方近似値」(概略集合を参照)のサイズをPの属性で合計します。つまり、 です。簡単に言うと、この近似値は、属性セットP上でターゲットセットに属していると明確に識別できるオブジェクトの数です。 上記の分子のすべての同値クラスにわたって加算された値は、属性セットPに基づき、属性Qによって誘導される分類に従って確実に分類できるオブジェクトの合計数を表します。 したがって、依存比は、そのような分類可能なオブジェクトの割合(全体の中で)を表し、ある意味では、 2 つの概念構造と の「同期」を捉えています。依存は、「情報システム内で、 Pの属性の値を知っていればQの属性の値を判断できるようなオブジェクトの割合として解釈できます」(Ziarko & Shan 1995)。 Qi{\displaystyle Q_{i}}[x]Q,{\displaystyle [x]_{Q},}P_Qi.{\displaystyle {\underline {P}}Q_{i}.}Qi.{\displaystyle Q_{i}.}[x]Q,{\displaystyle [x]_{Q},}[x]Q{\displaystyle [x]_{Q}}[x]P.{\displaystyle [x]_{P}.}γP(Q){\displaystyle \gamma _{P}(Q)}

定義を終えたので、概念の粒度(つまり属性の選択)の選択が、属性間の依存関係の検出に影響を与えるという単純な観察ができます。上記の属性値テーブルをもう一度考えてみましょう。

サンプル情報システム
物体P1{\displaystyle P_{1}}P2{\displaystyle P_{2}}P3{\displaystyle P_{3}}P4{\displaystyle P_{4}}P5{\displaystyle P_{5}}
O1{\displaystyle O_{1}}12011
O2{\displaystyle O_{2}}12011
O3{\displaystyle O_{3}}20010
O4{\displaystyle O_{4}}00121
O5{\displaystyle O_{5}}21021
O6{\displaystyle O_{6}}00122
O7{\displaystyle O_{7}}20010
O8{\displaystyle O_{8}}01221
O9{\displaystyle O_{9}}21022
O10{\displaystyle O_{10}}20010

属性セットの属性セットへの依存性を考慮してください。 つまり、の知識に基づいて、オブジェクトのどの程度の割合が のクラスに正しく分類できるかを知りたいのです。の同値クラスと の同値クラスを以下に示します。 Q={P4,P5}{\displaystyle Q=\{P_{4},P_{5}\}}P={P2,P3}.{\displaystyle P=\{P_{2},P_{3}\}.}[x]Q{\displaystyle [x]_{Q}}[x]P.{\displaystyle [x]_{P}.}[x]Q{\displaystyle [x]_{Q}}[x]P{\displaystyle [x]_{P}}

[x]Q{\displaystyle [x]_{Q}}[x]P{\displaystyle [x]_{P}}
{{O1,O2}{O3,O7,O10}{O4,O5,O8}{O6,O9}{\displaystyle {\begin{cases}\{O_{1},O_{2}\}\\\{O_{3},O_{7},O_{10}\}\\\{O_{4},O_{5},O_{8}\}\\\{O_{6},O_{9}\}\end{cases}}}{{O1,O2}{O3,O7,O10}{O4,O6}{O5,O9}{O8}{\displaystyle {\begin{cases}\{O_{1},O_{2}\}\\\{O_{3},O_{7},O_{10}\}\\\{O_{4},O_{6}\}\\\{O_{5},O_{9}\}\\\{O_{8}\}\end{cases}}}

に基づく概念構造に従って明確に分類できるオブジェクトはセット内のオブジェクトであり、これらは 6 つあるため、QのPへの依存性は、それ自体が興味深い依存性であると考えられるかもしれませんが、おそらく特定のデータ マイニング アプリケーションでは、より強い依存性のみが望まれます。 [x]Q{\displaystyle [x]_{Q}}[x]P{\displaystyle [x]_{P}}{O1,O2,O3,O7,O8,O10},{\displaystyle \{O_{1},O_{2},O_{3},O_{7},O_{8},O_{10}\},}γP(Q)=6/10.{\displaystyle \gamma _{P}(Q)=6/10.}

次に、より小さな属性集合の属性集合への依存性について考えてみましょう 。からへ の移行は、後ほど説明するように、クラス構造の粗大化を引き起こします。ここで再び知りたいのは、の知識に基づいて、(今やより大きくなった)のクラスに正しく分類できるオブジェクトの割合です。新しいのとの同値類を以下に示します。 Q={P4}{\displaystyle Q=\{P_{4}\}}P={P2,P3}.{\displaystyle P=\{P_{2},P_{3}\}.}Q={P4,P5}{\displaystyle Q=\{P_{4},P_{5}\}}Q={P4}{\displaystyle Q=\{P_{4}\}}[x]Q,{\displaystyle [x]_{Q},}[x]Q{\displaystyle [x]_{Q}}[x]P.{\displaystyle [x]_{P}.}[x]Q{\displaystyle [x]_{Q}}[x]P{\displaystyle [x]_{P}}

[x]Q{\displaystyle [x]_{Q}}[x]P{\displaystyle [x]_{P}}
{{O1,O2,O3,O7,O10}{O4,O5,O6,O8,O9}{\displaystyle {\begin{cases}\{O_{1},O_{2},O_{3},O_{7},O_{10}\}\\\{O_{4},O_{5},O_{6},O_{8},O_{9}\}\end{cases}}}{{O1,O2}{O3,O7,O10}{O4,O6}{O5,O9}{O8}{\displaystyle {\begin{cases}\{O_{1},O_{2}\}\\\{O_{3},O_{7},O_{10}\}\\\{O_{4},O_{6}\}\\\{O_{5},O_{9}\}\\\{O_{8}\}\end{cases}}}

明らかに、は以前よりも粒度が粗くなっています。に基づく概念構造に従って明確に分類できるオブジェクトは、完全なユニバース を構成し、したがってQのPへの依存性 が構成されます。つまり、カテゴリセットに従ったメンバーシップの知識は、 カテゴリのメンバーシップを完全に確実に決定するのに十分です。この場合、 と言えるかもしれません。したがって、概念構造を粗くすることで、より強い(決定論的な)依存性を見つけることができました。ただし、この決定論的な依存性を得るために必要な解像度の低下から に誘導されるクラス自体が大きく、数が少ないことにも注意してください。その結果、発見した依存性は強いものの、 の高解像度のビューの下で以前に発見された弱い依存性ほど価値がない可能性があります。[x]Q{\displaystyle [x]_{Q}}[x]Q{\displaystyle [x]_{Q}}[x]P{\displaystyle [x]_{P}}{O1,O2,,O10}{\displaystyle \{O_{1},O_{2},\ldots ,O_{10}\}}γP(Q)=1.{\displaystyle \gamma _{P}(Q)=1.}[x]P{\displaystyle [x]_{P}}[x]Q{\displaystyle [x]_{Q}}PQ.{\displaystyle P\rightarrow Q.}[x]Q{\displaystyle [x]_{Q}}[x]Q.{\displaystyle [x]_{Q}.}

一般的に、すべての属性セットをテストして、どの誘導概念構造が最も強い依存関係を生み出すかを判断することは不可能であるため、この探索はある程度の知性に基づいて行う必要があります。この問題、および粒度のインテリジェントな利用に関するその他の問題を議論した論文としては、以下の#参考文献に記載されているYY YaoとLotfi Zadehによる論文があります。

コンポーネントの顆粒化

概念粒度に関する別の視点は、カテゴリーのパラメトリックモデルに関する研究から得られるかもしれません。例えば、混合モデル学習では、データセットは異なるガウス分布(またはその他の分布)の混合として説明されます。したがって、大量のデータが少数の分布に「置き換えられる」ことになります。これらの分布の数とサイズの選択は、やはり概念粒度の問題として捉えることができます。一般的に、分布またはパラメータの数が多いほどデータへの適合度は高くなりますが、意味のあるパターンを抽出するためには、分布の数を制限する必要があり、それによって概念解像度を意図的に 粗くする必要があります。「適切な」概念解像度を見つけることは難しい問題であり、多くの手法(例えば、AICBICMDLなど)が提案されており、これらはしばしば「モデル正則化」という枠組みで考察されます。

粒度コンピューティングのさまざまな解釈

粒状コンピューティングは、問題解決のプロセスにおいて情報の粒度を活用する理論、方法論、技術、ツールの枠組みとして捉えることができます。この意味で、粒状コンピューティングは、これまで様々な分野で個別に研究されてきたトピックを包括する包括的な用語として用いられています。これらの既存研究を粒状コンピューティングという統一的な枠組みに照らして検討し、共通点を抽出することで、問題解決のための一般理論を構築できる可能性があります。

より哲学的な意味で言えば、粒度コンピューティングとは、現実世界を様々な粒度(すなわち抽象化)で認識する人間の能力に依拠した思考方法であり、特定の関心事に役立つものだけを抽象化して考察し、異なる粒度間を切り替える能力を指します。異なる粒度レベルに焦点を当てることで、異なるレベルの知識を獲得し、固有の知識構造をより深く理解することができます。このように、粒度コンピューティングは人間の問題解決に不可欠であり、インテリジェントシステムの設計と実装に非常に大きな影響を与えます。

参照

参考文献