Tensorflow の dropout
dropout で精度が上がるの不思議。
それはそうと Tensorflow の dropout 。training 時と違って eval 時は当然ながら keep_prob を 1 にしないと行けない気がする。けどほとんど例が見つからない。
feed_dict={ x:batch[0], y_: batch[1], keep_prob: 1.0}
dropout で精度が上がるの不思議。
それはそうと Tensorflow の dropout 。training 時と違って eval 時は当然ながら keep_prob を 1 にしないと行けない気がする。けどほとんど例が見つからない。
feed_dict={ x:batch[0], y_: batch[1], keep_prob: 1.0}