TensorFlowを使ったAlexNet

ImageNet Large Scale Recognition Competition 2012 (?) で当時、驚異的な正答率の伸びを見せ、今のディープラーニングの流行を作り出した AlexNet, まあ誰もがやってると思いますが、勉強のために論文読んで実装してみました。

まだまだ勉強中だったり実行環境に飢えていたりするので、これが正しい保証はありません。間違いなどがありましたら、ぜひ教えてください。

スポンサーリンク

論文

ImageNet Classification with Deep Convolutional Neural Networks のページに PDF があります。

AlexNetの概要

層の構造

大まかには、入力層、畳み込み層 5 層、全結合層 3 層となっています。

入力サイズは 224 * 224, 出力は 1 × 1000 の行列です。

224 * 224 で読み込んだ画像はサイズが 11 * 11, ストライド幅 4 の畳み込みフィルタを通して、畳み込み層第 1 層に 56 * 56 で入力されます。畳み込み層第 1 層と第 2 層、第 2 層と第 3 層、第 5 層と全結合層第 1 層の間では最大値プーリング処理を行い、7 * 7 まで縮小されます。

一方、カーネル層の数は畳み込み層第 5 層に達した時点で 256 になっています。これを三回の全結合層を経て、最後にソフトマックス関数で疑似的な確率として出力します。

他に AlexNet が工夫している点として、画像の輝度の偏りを解消するために畳み込み層第 1 層、第 2 層には前層の出力画像 (群) を正規化した画像を入力、過学習を防ぐために全結合層第 1 層と第 2 層ではドロップアウトしています。

分散学習

また、AlexNet では分散学習を行っています。二つの演算処理に分けることでより短時間で結果を求めることができます。

TensorFlow でも Distributed TensorFlow を使うとできると思いますが、今回はやりません。

実装

様々なソースコードを見た結果、訓練データだけ準備されていない状態ですが、こんな感じになるんじゃないかと思います。

引っかかった点

最適化関数

AlexNet の論文内で最適化にどの関数を用いたのか見つけられなかったので、とりあえず Adam を使っています。チュートリアルでは確率的勾配降下法 Stocatic Gradient Descent を使っていることもありますが、Adam のほうが基本的に収束が早いので…

他にもいろいろな関数がありますが、どれがいいのかは問題に依っていたり。

ハイパーパラメータ

学習率や訓練回数はどんな感じで決まるのか、というのはまだ解決されていないようで、経験的に決めている部分も多いのが現状のようです。

グリッドサーチやランダムサンプリング、ベイズ最適化などを用いてハイパーパラメータ探索することで、より学習に適したパラメータを見つけるという方法もあります。

クロスエントロピー関数

TensorFlow ではクロスエントロピーを求める関数がいくつか用意されていて、予測値と正しいラベルを入力すればいいはずですが、なんかうまくいかなかったので公式をそのまま書き換えたような状態になっています。

関数はソフトマックス関数を使ったものが 2 種類あり、返り値が異なります。この使い分けがわかりにくいですね。

最後に

肝心の実行ができてないのでちゃんと動くかわかっていません ( ..)

ってことだけお伝えしておきます。

スポンサーリンク

コメント・質問する