2017/06/21にリリースされた gensim 2.2.0 から Keras との統合機能が導入されました。 具体的には、Word2vec の Keras 用ラッパが導入されました。 これにより、gensim で分散表現を学習した後に、その重みを初期値として設定した Keras の Embedding層を取得できるようになりました。
本記事では、実際に gensim の Keras 統合機能を試してどのようなものなのか確認してみたいと思います。
続きを読む2017/06/21にリリースされた gensim 2.2.0 から Keras との統合機能が導入されました。 具体的には、Word2vec の Keras 用ラッパが導入されました。 これにより、gensim で分散表現を学習した後に、その重みを初期値として設定した Keras の Embedding層を取得できるようになりました。
本記事では、実際に gensim の Keras 統合機能を試してどのようなものなのか確認してみたいと思います。
続きを読む自然言語処理で RNN を使っていると、RNN の内部状態を取得したくなることがあります。 TensorFlow では tf.nn.dynamic_rnn 等の関数を使うと、出力と状態を返してくれます。 しかし、Keras でのやり方については意外と日本語の情報がありませんでした。
本記事では Keras で RNN の内部状態を取得する方法についてまとめてみました。
Keras にはリカレント層として、SimpleRNN、LSTM、GRU の3種類が用意されています。これらの層から内部状態を取得するためには、インスタンス化時の引数として return_state=True を渡す必要があります。 return_state を True にすることで、出力に加えて最終状態を取得できるようになります。
では、実際に各リカレント層の内部状態を取得してみましょう。 まずは各層への入力を作ります。 ここでは簡単に、単語の分散表現を入力すると仮定します。 以下は入力を作るコードです。ハイパーパラメータについては適当に設定しています。
>>> from keras.layers import Input, Embedding, SimpleRNN, LSTM, GRU >>> input = Input(shape=(100,)) >>> embedding = Embedding(input_dim=1000, output_dim=300)(input)
では、まずは SimpleRNN の内部状態を取得してみます。 return_state に True を設定することで、出力を一つ、内部状態を一つ返してきます。 ここで、出力は必ずリストの一番目に入っていることに注意してください。これは以降も同様です。
>>> SimpleRNN(units=100, return_state=True)(embedding) [<tf.Tensor 'simple_rnn_4/TensorArrayReadV3:0' shape=(?, 100) dtype=float32>, <tf.Tensor 'simple_rnn_4/while/Exit_2:0' shape=(?, 100) dtype=float32>]
次に、LSTMの内部状態を取得してみます。 return_state に True を設定することで、出力一つ、内部状態2つを返してくることがわかります。
>>> LSTM(units=100, return_state=True)(embedding) [<tf.Tensor 'lstm_6/TensorArrayReadV3:0' shape=(?, 100) dtype=float32>, <tf.Tensor 'lstm_6/while/Exit_2:0' shape=(?, 100) dtype=float32>, <tf.Tensor 'lstm_6/while/Exit_3:0' shape=(?, 100) dtype=float32>]
最後に、GRUの内部状態を取得してみます。 同じように return_state に True を設定することで、出力一つ、内部状態一つを返してきます。
>>> GRU(units=100, return_state=True)(embedding) [<tf.Tensor 'gru_2/TensorArrayReadV3:0' shape=(?, 100) dtype=float32>, <tf.Tensor 'gru_2/while/Exit_2:0' shape=(?, 100) dtype=float32>]
単純に RNN 単体で使う分には問題ないのですが、return_state=True を Bidirectional と合わせて使うと問題が起きます。 これは return_state を True にするとリストが返されるのですが、Bidirectional はリストを受け取ることを想定していないためです。 以下のようなエラーが発生します。
>>> Bidirectional(LSTM(units=100, return_state=True))(embedding) Traceback (most recent call last): File "<stdin>", line 1, in <module> File ".../keras/engine/topology.py", line 602, in __call__ output = self.call(inputs, **kwargs) File ".../keras/layers/wrappers.py", line 299, in call output = K.concatenate([y, y_rev]) File ".../keras/backend/tensorflow_backend.py", line 1700, in concatenate rank = ndim(tensors[0]) File ".../keras/backend/tensorflow_backend.py", line 544, in ndim dims = x.get_shape()._dims AttributeError: 'list' object has no attribute 'get_shape'
対策として、手動で LSTM を2つ作成し、その結果を結合してあげる手法が考えられます。 その際、片方の LSTM は引数に go_backwards=True を渡します。 これにより、LSTM への入力が逆順に行われるようになります。
from keras.layers import LSTM, Bidirectional from keras.layers.merge import Concatenate fwd_state = LSTM(units=100, return_state=True)(embedding)[-1] bwd_state = LSTM(units=100, return_state=True, go_backwards=True)(embedding)[-1] state = Concatenate(axis=-1)([fwd_state, bwd_state])
※ ちなみに、日本語のドキュメントには return_state 引数についての記載はありませんでした(2017/09/21時点)。
本日は Keras の小ネタ。
Kerasで書かれたコードを読んでいるとふと気がつくことがある。 それは、Conv1D と Convolution1D、MaxPool1D と MaxPooling1D という同じような名前のクラスが出てくるのだ。 一体これらの違いは何なのだろうか?
公式ドキュメントには Conv1D と、MaxPooling1D だけが書かれている。 しかし、実際には Convolution1D と MaxPool1D を同じように使うことができる。 これは一体どういうことなのだろうか?
プログラマ的に気になるので調べてみた。
結論としては Conv1D と Convolution1D、MaxPool1D と MaxPooling1D に違いはない。 Kerasのソースコードを読むと、どちらもエイリアスとして使えるようになっていることがわかる。
また、実際にそれぞれを is演算子 で比較してみると同一であることがわかる:
>>> from keras.layers import Conv1D, Convolution1D, MaxPool1D, MaxPooling1D >>> Conv1D is Convolution1D True >>> MaxPool1D is MaxPooling1D True
Keras 1.0 のドキュメントを読むと、昔は Convolution1D であったことがわかる。 ということは、何らかの理由で Conv1D という名前に変えたが、後方互換性のためにエイリアスとして Convolution1D を使えるようにしているのだと思われる。
Keras の Conv1D と Convolution1D、MaxPool1D と MaxPooling1D に違いはないことがわかった。 したがって、どちらも安心して使ってよい。 ただし、今後のことを考えると、公式ドキュメントに書かれている Conv1D と MaxPooling1D を使っておいたほうが良いだろう。