一般化線形モデル(GLM)とニューラルネットって一緒やんね (2)

前回の続きで、一般化線形モデル(GLM)と多層パーセプトロンの比較です。

一般化線形モデル(GLM)とニューラルネットって一緒やんね (1) - KAZ log


機械学習の観点から:多層パーセプトロン

ニューラルネット、パーセプトロンについては下記に非常にわかりやすくまとめて下さっているので、是非ご参考に下さい。
第3回 単純パーセプトロン · levelfour/machine-learning-2014 Wiki · GitHub
第3回 多層パーセプトロン · levelfour/machine-learning-2014 Wiki · GitHub


単純パーセプトロンだと線形分離可能、つまり直線でデータを分けきれる場合のみ、識別関数のパラメーターは収束します。
もし線形分離不可のデータを与えると、健気にパラメーターを求め続けたりもして可愛げあります。

続きを読む

一般化線形モデル(GLM)とニューラルネットって一緒やんね (1)

ちょっと乱暴な気もしますが、一般線形化モデル(GLM)とニューラルネットの多層パーセプトロンってやってること一緒なんですよね。
バラバラっと散らばったデータの中に、納得感ある線をバチっとひいちゃうわけで。
両方の分野をやる方も多いかと思いますが、一気に理解しちゃった方が楽かなと。


で統計モデリングと識別関数のそれぞれで、
・線形モデル(LM)で、どんなデータの中でも直線でびゅんと線を引くのはいかがなもんか。
 →一般化(GLM化)することで、非線形な線もひけるようにしよう。
 ※もちろん一般化には応答変数の分布を正規分布から拡張する意味もあります
・単純パーセプトロンは線形判別可能(直線で境界が引ける)なデータしか分類できない。
 →隠れ層(中間層)作って複雑な識別関数で分類しよう。
って感じの拡張をしました。

続きを読む

【読書メモ】異端の統計学 ベイズ

お正月休みに読了した本について。 目次は後ろに記した通りで、ベイズ統計学の歴史を1740年代からごく最近まで続いた、頻度主義者との論争を中心に描いたもの。

異端の統計学 ベイズ

異端の統計学 ベイズ

それぞれの学説の発展など史学として読んでも面白いけど、 より印象に残ったのは、論争が250余年も続いた本質的な理由であろう、 ベイズ主義者と頻度主義者の統計学への哲学的な認識の差ですね。

第一部から第三部にわたりベイズ統計学の苦節、特に頻度主義者の代表格であったフィッシャーやネイマンが「等事前確率」を断固として認めずにいた点などが、描かれています。

続きを読む

10分でPandasを学ぶ

"pandas 0.15.2 documentation"の中に、"10 Minutes to pandas"なんてのがあったので、覗いてみたらかなり頭の中が整理された。 まじめにやると10分じゃ終わらんが、便利そうなところだけかいつまんでメモ。

まずはPandasとNumpyのインポート。

#import liblaries
import pandas as pd
import numpy as np
続きを読む

Pythonで回帰分析

「わざわざPythonで?」ってところもあるかも知れませんが、とりあえず手を動かしてみようと、フィッシャー御大のあやめ(iris)のデータで回帰分析までやってみました。 参考にしたのは、「データサイエンティスト養成読本」。

データサイエンティスト養成読本 [ビッグデータ時代のビジネスを支えるデータ分析力が身につく! ] (Software Design plus)

データサイエンティスト養成読本 [ビッグデータ時代のビジネスを支えるデータ分析力が身につく! ] (Software Design plus)

  • 作者: 佐藤洋行,原田博植,下田倫大,大成弘子,奥野晃裕,中川帝人,橋本武彦,里洋平,和田計也,早川敦士,倉橋一成
  • 出版社/メーカー: 技術評論社
  • 発売日: 2013/08/08
  • メディア: 大型本
  • この商品を含むブログ (13件) を見る

続きを読む