RNN Attention の理解と bias の議論

背景 参照 前提 RNN を利用した Encoder& Decoder MNP モデル 特徴 図 Attention 理解のキーポイント 重み PyTorch での Attention の実装例 コードの解説 問題とされた点 筆者の疑問点 間違いを見つけたら 背景 Quora Insincere Questions Classification |…

Kaggle PLAsTiCC Astronomical Classification competition まとめ

先日終了したPLAsTiCC Astronomical Classification | Kaggleコンペ。上位のチームの解法のまとめ。自分は1097チーム中247位でした。Coursera で Kaggle コースをとったあとに途中から参加したコンペで、力及ばずだったので何が足りなかったのか知るためのま…

Kaggle 今後の方針

Kaggle を初めて少し時間が経っていろいろ分かってきたので今後の方針をここで書きながら考える。 学び Feature Engineering がんばらないと勝てないコンペ多い。 Tabular data だと NN よりも XGBoost 勢が人気で強い。 Kernel 書くとフィードバックもらえ…

ホモ・デウス

ホモデウス読了。前作サピエンス全史同様に作者の深い洞察と鋭いマクロ視点が好き。特に人間の意識の話が面白かった。おすすめ。これからの世代は大変そうだ。ホモ・デウス 上: テクノロジーとサピエンスの未来作者: ユヴァル・ノア・ハラリ,柴田裕之出版社/…

Clouderizer + Google Colab for Kaggle

HoxoMaxwell ❄️さんのツイートで見かけてToDoに入っていた Clouderizer + Google Colab を試した。手順は Kaggle Competition on Google Colab — how to easily import datasets and local files and access… にある通り。 この手の Cloud Service をラップ…

読書について

読んだ。何か本を一冊読むならば、まずはこれを読めばいいと思う。短い。難しくもない。大切なことが書いてある。方法序説 (岩波文庫) は訳が古すぎて頭に入ってこなかった。

Install google.colab library for local colabratory

cd /tmp git clone https://github.com/googlecolab/colabtools.git cd colabtools python setup.py bdist_wheel pip install dist/google_colab-0.0.1a1-py2.py3-none-any.whl

Deep Learning training の待ち時間にすべきこと

ML

Deep Learning の training 時間は短いものでは数十分、長いものでは数日に及ぶ。その training が走っている間は、何をすると1番プロダクティブだろうか。いくつかの候補とそれぞれの利点と欠点を以下にまとめてみた。 SNS やメールのチェック コーディング…

RL Course by David Silver - Lecture 1 - Reinforcement Learning(強化学習)勉強メモ

ML

Lecture PDF and YouTube. 授業を聞きながらスライドにいくつかメモしたPDF

Deep Reinforcement Learning: Pong from Pixels - Reinforcement Learning(強化学習)勉強メモ

ML

http://karpathy.github.io/2016/05/31/rl/ 入門から実践までカバーしていて大変よい。日本語訳は https://postd.cc/deep-reinforcement-learning-pong-from-pixels-1/ にある。 Actions は Pong のゲームのバーを Up or Down する。 Reward はボールを相手…

イントロ - Reinforcement Learning(強化学習)勉強メモ

ML

Reinforcement Learning の勉強メモ。毎日追記していく予定。前提知識 Neural Network の基礎。back prop まで。

RL Course by David Silver - Lecture 2 - Markov Decision Process(強化学習)勉強メモ

ML

YouTube スライド + メモ

RL Course by David Silver - Lecture 3 - 強化学習)勉強メモ

ML

スライド+メモ

colab でプッシュ通知

ML

colab で2-3時間の training を動かしているときにプッシュ通知があると便利。 training 終了や例外がでたときにスマホにプッシュ通知が来るようにできる。 https://www.pushbullet.com/ を設定・アプリインストール。API Key を発行。こんなに簡単にプッシ…

learning rate リストア問題

Colab で長時間トレーニングしていると、必ず途中でトレーニングを止めてレストアする必要が出てくる。そのときに training_rate をうまく restore する方法。これ。 https://stackoverflow.com/questions/44886669/how-to-restore-the-learning-rate-in-tf-…

Twitter Conversation Crawler

ML

Wrote twitter_conversation_crawler to get training data for Seq2Seq base chatbot.

2018年読んだ本を記録する

3月 人生の短さについて 他2篇 (古典新訳文庫) 2月 終末のフール (集英社文庫) ジャイロスコープ (新潮文庫) 人生の勝算 (NewsPicks Book) A Diversity-Promoting Objective Function for Neural Conversation Models 1月 漫画 君たちはどう生きるか サピエ…

Minimum Seq2Seq implementation using Tensorflow 1.4/1.5 API

This is minimum Seq2Seq implementation using Tensorflow 1.4/1.5 API with some comments, which supports Attention and Beam Search and is based on tensorflow/nmt/README.md. I'd recommend you run this in https://colab.research.google.com/.Thi…

Seq2Seq まとめ

ML

以前作った Seq2Seq を利用した chatbot はゆるやかに改良中なのだが、進捗はあまり良くない。学習の待ち時間は長く暇だし、コード自体も拡張性が低い。そういうわけで最新の Tensorflow のバージョンで書き直そうと思って作業を始めた。しかし深掘りしてい…

ZOZO SUIT 後の世界に起こること - 副作用編

思いついたら追記していく or コメント下さい。 Amazon が似たようなことをやる。 中高生が結果を見せあって盛り上げる。「おまえ足短っ!」とか。 筋トレクラスタが盛り上がる。 ダイエットクラスタが盛り上がる。 夫婦間でも結果を見せ合うのに躊躇する。 …

Deep Reinforcement Learning for Dialogue Generation を読む(まだ途中)

ML

Abstract seq2seq は良いのだけど未来の会話の方向性を無視した近視眼的な output を出しがち。future reward をモデル化することで良いゴールを達成するよ。 モデルは2人の virtual agent をシミュレートする。vitual agents は policy gradient mothods を…

Chatbot と beam search

seq2seq で decoder から出力するときに beam search の方が出現確率が高いモノを選べるので結果が良くなるはず。beam search の詳細は karino2氏の解説。beam search 自体はシンプルで理解しやすいアルゴリズムなのだけど、Tensorflow のグラフでこれを書く…

Style Transfer

ML

Style Transfer を Stanford の機械学習クラスの CS 20SI の課題で実装してみた。Style Transfer とは絵画の写真から作風を特徴として、別の画像にその作風を適用するもの。Style Loss と Content Loss の和を最小化する方向で画像を生成するのが面白い。し…

Chatbot tweet listener と reply worker を分離した

prediction の際に時々落ちる。そのたびに落ちないように修正しているが、まだまだ未知のものがありそう。落ちてしまうと reply できないままに情報が失われてしまう。これを改善するためにプロセスを分けて listener: user stream を listen して tweet を …

Chatbot ときどき自発的に tweet するように

今日の Chatbot 変更。時々自発的に tweet するように。あとエラーハンドリングをまじめに。

「1手詰ハンドブック」完了

詰将棋を始めて続けることが今年の目標の一つ。1日3問ずつ解いてようやく1手詰ハンドブック終わった。当初の目的である脳内ワーキングメモリの増量効果はまだ感じていない。 次は 3手詰ハンドブック〈2〉 やる。

seq2seq の chatbot を日本語で動かしてみた

最近ずっと NN/CNN/RNN/LSTM などで遊んでいたのだけど Seq2Seq の encoder/decoder と word embeddings を理解したかったので Seq2Seq の chatbot を動かしてみた。Keras でフルスクラッチで書いていたのだけど上手く動かず。論文読んでもわからないところ…

Fluent Python を読んだ

Jupyter 上でよく Keras + Python を書くようになってきたので読んだ。omo さんが読んでいたから真似したともいう。Python に関する知識は「インデントの言語」、「numpy すごい」程度。見よう見まねでコードを書いていた状態だった。読んで一番良かったのは…

Seq2Seq の疑問を解決するために論文を読む

ML

疑問1 encoder の input について Seq2Seq encoder に sentence を input するときに Word Embeddings をするのだけど、input が [word_vec1, word_vec2, ..., word_vecn] のように word vector の sequence になるような気がするが自信なし。 Decoder/Encod…

Sequence to Sequence Learning with Neural Networks を読む

ML

論文を流し読み、途中でメモを諦めた。word embeddings をどのタイミングでやっているかわからなかった。基礎知識だから省略されたのかな。 Introduction Input sequence を 1 timestamp ずつ読んで large fixed vector を得る(Input の長さは可変長だが fi…