E資格の勉強内容まとめDay8「学習」(合格者執筆)

   
★AIDB会員限定Discordを開設いたしました! ログインの上、マイページをご覧ください。

★企業と人材のマッチングサービスを準備中です。アンケートのご協力をお願いいたします!↓

こんにちは、ぽめた (@pometa0507) です。 社会人エンジニアとして働く傍ら、AI資格の「E資格」取得に向けてディープラーニングの勉強をしてきました。そして、先日(2020/02/22)開催されたE資格 2020#1に無事合格することができました!

この連載は、E資格の勉強中に学んだ内容を記事としてまとめたものです。E資格に興味のある方の参考となれば幸いです。


AIDBの全記事が読み放題のプレミアム会員登録はこちらから↓

前回の記事(Day7)は、コスト関数について紹介しました。コスト関数を導入することで、学習の評価指標となる損失を算出することができました。今回のDay8で紹介するのは、損失を小さくする学習方法についてです。

これまでの記事
Day1の記事:「ディープラーニングの概要」
Day2の記事:「パーセプトロン」
Day3の記事:「活性化関数」
Day4の記事:「ReLUの一般化」
Day5の記事:「出力ユニット」
Day6の記事:「MNIST手書き数字の分類」
Day7の記事:「コスト関数」

ニューラルネットワークのコスト関数

前回のおさらいです。ニューラルネットワークのモデルに訓練データを入力することで予測結果を得ます。コスト関数は、予測結果と教師データから損失を計算します。損失が小さければ小さいほど予測結果が正しくなり、モデルの性能が良いといえます。

コスト関数と損失





コスト関数は、モデルのタスクによって異なるものを定義しました。回帰問題では2乗誤差、分類問題では交差エントロピー誤差をそれぞれ用いて損失を求めることができました。

学習

それでは、学習について深堀していきます。学習とは簡単に言えば、モデルが正しい予測結果を出力できるように何かしらの処理をすることです。

本記事を読むにはAIDBのアカウントが必要です。


※ログイン/初回登録後、下記ボタンを押してください。


■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。






業界/カテゴリー

PAGE TOP