今回はKerasの書き方についてやっていきます!
Kerasの環境構築
kerasの環境構築ですが、ローカルのPCにインストールするということはしません。(もちろんローカルでもOKです!)
環境構築は結構不具合とかもあって挫折率が高いので環境構築のいらないGoogle Colabをオススメします。
Google Colabであれば、Kerasがデフォルトでインストールされています
(挫折しまくってるので、僕がやりたくないだけ…..)
KerasでMNISTをやっていく
Kerasで深層学習をやる手順
今回は
- データの準備,前処理
- モデルを構築する
- 学習させる
- モデルで予測する
でやっていきます!
データの準備、前処理
Kerasにはデフォルトでいろいろなデータが用意されていますが、今回は入門なので簡単なMNISTでやっていきます。
from keras.datasets import mnist
(train_images, train_labels), (test_images, test_labels) = mnist.load_data()
データの準備はこれだけです。
from keras.utils import to_categorical
#mnistは28*28の2次元画像だからそれを1次元にする。
#訓練データは60000枚 検証データは10000枚
train_images = train_images.reshape(60000,784)
test_images = test_images.reshape(10000,784)
#正規化する
train_images = train_images.astype('float32') / 255
test_images = test_images.astype('float32') / 255
#one hot 表現を使う
train_labels= to_categorical(train_labels, 10)
test_labels = to_categorical(test_labels, 10)
学習に使えるように、データを2次元画像データから1次元に変形させてから、正規化をしましょう。
また、labelはone hot 表現を使うのでone hot表現にしておきましょう
(例:7→[0,0,0,0,0,0,0,1,0,0])
モデルを構築する
from keras.models import Sequential
from keras.layers import Dense
model = Sequential()
#層の追加
model.add(Dense(128, activation = 'relu', input_shape = (784, )))
model.add(Dense(10, activation = 'softmax'))
#どのように学習を行うか決める
model.compile(optimizer = 'rmsprop',
loss = 'categorical_crossentropy',
metrics = ['accuracy'])
このように、どんどん層を追加していくことでモデルを構築できますね
DenseのほかにConv2Dで畳み込み層を使えたり、活性化関数もいろいろ用意されています。
compileでどのように学習するかも決めましょう
optimizer,loss,metricsにもいろいろ用意されているので気になる方はKerasのドキュメントで調べてみてください
学習する
model.fit(train_images,
train_labels,
validation_data = (test_images,test_labels),
epochs = 10,
batch_size = 256,
verbose = 1)
モデルの学習はfit関数でできます
検証データを使わないことも可能で、訓練データだけセットすることができます。
モデルで予測する
results = model.predict(test_images)
#確認用
print(results[0])
print(test_labels[0])
"""[3.3111995e-08 2.4127023e-09 1.7722452e-05
2.8736726e-04 5.0110177e-10 1.4262039e-07
3.5449714e-13 9.9968290e-01 6.8241684e-06
5.1240336e-06]"""
#[0. 0. 0. 0. 0. 0. 0. 1. 0. 0.]
predict関数を使うことで入力データに対する予測を行うことができます
実際に、結果を出力してみると正しいことがわかりますね
まとめのスクリプト
まとめスクリプトです。いろいろいじって理解に役立てて下さい
from keras.datasets import mnist
from keras.models import Sequential
from keras.layers import Dense
from keras.utils import to_categorical
(train_images, train_labels), (test_images, test_labels) = mnist.load_data()
train_images = train_images.reshape(60000,784)
test_images = test_images.reshape(10000,784)
train_images = train_images.astype('float32') / 255
test_images = test_images.astype('float32') / 255
train_labels= to_categorical(train_labels, 10)
test_labels = to_categorical(test_labels, 10)
model = Sequential()
model.add(Dense(128, activation = 'relu', input_shape = (784, )))
model.add(Dense(10, activation = 'softmax'))
model.compile(optimizer = 'rmsprop',
loss = 'categorical_crossentropy',
metrics = ['accuracy'])
model.fit(train_images,
train_labels,
validation_data = (test_images,test_labels),
epochs = 10,
batch_size = 256,
verbose = 1)
results = model.predict(test_images)
print(results[0])
print(test_labels[0])
+α 便利なテクニック
学習過程をグラフ化する
実はfit関数はhistoryオブジェクトを返します。そして、hitoryオブジェクトに学習過程が格納されているのです。
わかりやすくするのは良いプラクティスです(*’▽’)
#history = model.fit・・・に変更
import matplotlib.pyplot as plt
historys = history.history
epochs = range(1,11)
plt.plot(epochs, historys['val_loss'], label = 'val_loss')
plt.plot(epochs, historys['val_accuracy'], label = 'val_accuracy')
plt.plot(epochs, historys['loss'], label = 'loss')
plt.plot(epochs, historys['accuracy'], label = 'accuracy')
plt.legend()
plt.show()

いい感じに学習できていますね(グッド!)
モデルの構成を表示する
大きなモデルを作っていくとどんな層を重ねたのかわからなくなったりしてしまうと思います。
そんなときに、これを使えば、一発で構成がわかってしまいます。
他にも、パラメータの数を確認することができ、過学習の起こしやすさの指標にすることができます(パラメータが多すぎると過学習を起こす)
やり方は簡単でモデルのメソッドであるsummay関数を呼び出すだけです。
model.summary()

こんな感じで出力されます
以上で終わりです!お疲れさまでした!
コメント