Revisiting Graph Neural Networks: All We Have is Low-Pass Filters
ちょっと気になりばーっと読んだ。
これはなに?
Graph Convolution って、実はグラフ信号処理における Low-Pass Filter と同じやんけ!なので、単純にグラフ信号に対して Low-Pass Filter かけたやつを MLP で学習させたら GCN と同じくらいになって、人工データだと勝ったよん。
- まず、既存のデータセットの特徴ベクトルは、低周波の真の特徴ベクトルにノイズを加えたものになっているんじゃないかって仮説を検証している
- 実際、グラフフーリエ変換とかで確かめてみたら、だいたい下位20%の周波数の特徴要素で十分な精度が出てるし、それより多くすると精度が下がっちゃった
- で、次に Graph Convolution でよくやる Adjacency Matrix を掛けるって演算は Low Pass Filtering と同じだよってことを、グラフ信号処理におけるグラフフィルタを使って示してる
- そして、単純に Filter かけたやつと GCN や SGC に対し精度の保証を与えて実験して確認してる
コメント
- Adjacency Matrix を掛けるってのは Sum Pooling とか Average Pooling と同じなんだけど、Max Pooling ではないんだよね……そこってどうなるんやろ
- 後これ多層 GNN への拡張してないのでそことか考えてみるとまた違う? でもこれも、Low-Pass Filter の重ねがけみたいな感じになるんやろか……うーん
- 逆に Graph Convolution は任意の Low-Pass Filter を近似できるってことになるんかな?