(っ'ヮ'c)M1!ぶろぐ

えいこうのえむいち。備忘録兼電車内での暇つぶし。対話システムとか。雑記とか。間違ったこと書いてたらごめんなさい。

朝帰り

電車に乗って帰宅中なう。夜12時に研究室に来て朝7時に帰る、7時間は研究出来てるからあと3時間くらい確保したい。
本当はこういう生活リズムはよくないんだろうけど、これだと確実に時間を確保できる&この時間の過ごし方がナチュラルなので...どうしたものか...

今日は論文読み3時間と言語処理の為の機械学習1.5時間と実装2時間。
論文はSIGDIAL2015のテーマを知るくらいの読みを6本と、精読ELIZA。英語力やばいなーと思うので春休み中に英語の勉強もしたい...
SIGDIALで読んだのはPOMDPによる強化学習を用いた対話制御が3本と、実世界のインタラクション1本、教育用対話システムの言い換え表現の影響、音声対話の話者交代タイミング1本。いろんなタスクがあるなーと思うと同時に自分の興味とは少し違う方向だなとも感じる。強化学習と部分観測マルコフ過程はやはり一度ちゃんと勉強しないとついていけなさそう。
ELIZAはイントロだけ精読。ここはあまりにも理解が遅くてヤバさを感じる...しかししっかり読んでいきたい。3日くらいでクリアしたい...

言語処理の為の機械学習は最初をさらりと。わかりやすいがヘッセ行列の理解が足りない。大学1年の時の数学を復習しないとダメ。コツコツいこう...あと例題もちゃんとやっていきたい。

実装はdoc2vecの再実装から。なんとなく「これでうまくいってるのか?」と思ってた部分がやっぱり上手くいってなかったみたいで、うーんという感じ。windowsだとPython2.7のメモリ、2GB縛りがあるというのは本当なのだろうか...メモリが沢山使えればたぶん解決する問題だけど、それ以前にこの学習機構はあってるのか?という部分があってなんとも...
Paragraph  vectorはword2vecで生成したそれぞれの単語ベクトルを用いて文のベクトルを生成、学習してたと思っていたんだけど、それにあたる機構がgensimのdoc2vecでは見当たらなくて?になってる。平文から同時に学習してるとしたらそれでいいんだけれども、そんなことは可能なのか?という...
しかも学習済みのword2vecからもモデル生成可能と書いてあるが、それだと平文いらない?みたいになっててうーん...もしかしたら自分の理解がどこか大きなところで間違っているのかも...
同じ研究室でちゃんとdoc2vecを使ってる人がいないので、こういうときノウハウがない.のはすこしつらい...まあ皆そうなんだけども。゚(゚∩´﹏`∩゚)゚。