実体と情報のはざま

何事にも囚われず。

統計解析を学び直し!【相関係数/回帰分析】

前回同様、ベクトルで表現してみる。

相関係数

f:id:myuteru:20170430224324p:plain

ベクトルで表現すると、内積であることが視覚的によくわかる。

f:id:myuteru:20170430225122p:plain こうしてまとめると、

f:id:myuteru:20170430225155p:plain こうなる。もう完全にベクトルの内積の式。

ということは、

f:id:myuteru:20170430225409p:plain

であることは明らか。正体は”cosθ”ですから。

 線形の相関しか表現できないのだけれど、応用範囲はかなり広い。私の場合は画像処理の仕事で大変お世話になっている。画像Aと画像Bが似ているかどうかを見極める”パターンマッチング”というアルゴリズム。古典的だけどとっても扱いやすい。

 あと、Webサイトで商品の”レコメンド”に使われているらしい。似たような購入パターンの人を見定めて、次に買いそうなモノをおススメするやつ。数式だけならただのベクトルの内積なのに役に立ちますね~。

*今、TVで情熱大陸見ながら書いてるんだけど、アートディレクターの吉田ユニってすごい。俺もピンですごい作品つくりたいな。アルゴリズムとかで。

 次、回帰分析。教科書的には色々こまかいことあるけれど、ざっくり直線近似って考えればいい。

【回帰分析】

 今は、もっとも単純な線形単回帰分析についてベクトル表現でまとめてみる。予測と実データの残差Qを最小化することで式を得る。残差は、実測データxとy、未知係数をaとbとした一次式で考える。すると、下記のように記述できる。

f:id:myuteru:20170430235233p:plain 

この残差の極値を考えると、次のような式が得られる。

f:id:myuteru:20170501000610p:plain

整理すると、

f:id:myuteru:20170501000717p:plain

これが解くべき連立方程式。ちょっと計算していくと、

f:id:myuteru:20170501000758p:plain こうなって、

下の式を冷静に見つめてみると、前回やった平均が見えてくるので、

f:id:myuteru:20170501000820p:plainとなる。最後の式は重心を通ることを意味する。

先の式より、

f:id:myuteru:20170501001159p:plainが得られ、近似式はこのaとbで語られる。

ベクトル表現だと、すっごいすっきりする。

 ちょっと前の記事で、ニューラルネットワークを使って回帰分析と同じことをやった。無論、バックプロパゲーションを用いるのでそれなりに手間はかかるが、解法としてあっちの方がしっくりくるのはなぜだろう。問題の状況設定を構図に落とし込んで解くからイメージしやすいのかな。信頼性は回帰分析の方が上なんだけどね。

 では、また。