-
Notifications
You must be signed in to change notification settings - Fork 0
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
[Qiita記事3本目] 確率的主成分分析 #125
base: master
Are you sure you want to change the base?
Conversation
EMアルゴリズムを実装したい
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
ご苦労様です!頑張って流れを追ったんだろうなーというのがよく伝わりました。
大間違いな数式とかはおそらくないと思います。HackMDに「理解チェッククイズ」みたいなのをコメントしてるので、活用してみてね。
個人的にはもうええかなーと思うのでApproveします。
コメントありがとうございます。HackMDに貰った指摘を見て、思っていた以上に自分の理解が甘いことに気づきました。今日明日でコメントを返したいと思います。もらった指摘の中で考えてもわからないところがあればまた質問したいと思います |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
お疲れ様です。
とりあえず多変量ガウス分布の定義が若干ちがうので、ちょいと確認&修正してください
残りの詳しい話はhackmdのコメントを読んでください!
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
お疲れ様です!
コメントしました
なんかもう十分じゃないってくらいのボリュームでした
まだ作業するみたいなのでcommentにとどめておきます
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
お疲れ様です。理論も実装も自分でやったの? ほんとすげーなと思います。
記事3本の構成も 特異値分析(PCA) -> VAE これをつなげるために ppca選んだ(そうよね?)っていうのも好きです。
最後のほう二つくらいコメントしてますが、感想レベルなのでApproveします。
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
あまりコメント多くないですが、石田が思ったことをコメント追加しました.
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
お疲れ様です.
3本目も頑張って書こうとしているのが伝わる内容でした.
気になったところにはコメントしました.
まだ計算が終えていない部分があるようなのでCommentにしておきます.
投稿直前の修正になってしまい申し訳ありません。 時間的に間に合いそうにないので、追加で実装、導出したかった部分の記述は諦め、現状すぐに変更できる部分のみ修正しました。 |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
おつかれさまです。レビュー遅くなって申し訳ないです
以下のコメントは参考程度に見てください
結論:本文中に出てくるμbとμは同じものだと思います
平均μの件で1点ほど気になるところがあって
コメントでは
仮定した平均をμb,周辺分布の平均をμとしました。
っていってるけど、本文中ではμbは推定するものっていってるよね。
つまり我々は、潜在変数と観測データxを繋いでいるW,μb,σ2を求めればいいわけです。
よくわからないけどμ=Wz+μb的なことを言いたかったのかな?
ちなみに自分が指摘のときに言ってたのは
・「ノイズの平均」と「観測データの平均(求めるべきパラメータ)」を区別してねってこと
・「例で出すガウス分布の平均」と「今話しているガウス分布の平均」は区別してねってこと
ですね。
もしかしたらコメントの時に間違ったこと言ってたかもしれないけど、
「p(x)=∫p(x|z)p(z)dz=N(x|μ,C)」と「p(x|z)=N(x|Wz+μ,σ2I)」のμは同じモノだよ~。
実際に周辺化(∫p(x|z)p(z)dzの計算)してみると一致することが分かるかと
分からなかったら聞いてね
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
遅くなってしまいすみません.お疲れ様です.問題ないと思うのでApproveします.
取り組んだトレーニングの概要
確率への知識を深めるためにPRML等を参考に確率的主成分分析について、理論の理解と実装に挑戦した。
Hackmdへのリンク(https://hackmd.io/@eq2bdyXdSY-1qr4ZXl4kOg/By_K0Dw-S)
close #102
記事の目的
自分がいま必要だと感じている確率の知識を身に着けたい
EMアルゴリズムなどを実装することで理解を深めたかった
Action list
レビュワーへの質問
もし同じものなら、周辺分布$p(x)$を導出した後に予測分布$p(x)$を求める話の流れが良くわからないです。結局最尤法でも周辺分布の対数を取って尤度最大化を行っているので、予測分布がどこで現れるのかまだつかめていません。
現状までの感想
確率や行列計算の知識が全然足りないこともあると思うが、PRML12章の文章でどう読み取ればいいのかわからないことが多くあった。例えばPRML12章290ページ上部の「予測分布を求める際にはC^-1が必要」という文に対して「なぜ必要なんだ」と思ってしまいます。純粋に機械学習をする上での常識が足りていないと強く感じました。折れずに立ち向かってモノにしたいと思ってます。