【人工知能】しっかり学ぶAI入門 第3回「誤差逆伝播法」【深層学習】

逆 誤差 伝播 法

この動画は3Blue1Brownの動画を東京大学の学生有志団体が翻訳・再編集し公式ライセンスのもと公開しているものです。チャンネル登録と高評価を バックプロパゲーション (誤差逆伝播法) とは、関数の偏微分を効率的に計算する手法です。 ニューラルネットワークの学習 ( 損失関数 の 勾配 の計算) を効率よくするために利用します。 例えば、通常の偏微分で20万年かかる計算が、バックプロパゲーションで偏微分すると1週間で済みます。 バックプロパゲーションを説明する方法として、以下の2つの方法があります。 計算グラフ 数式 ( 参考文献を参照) 本記事では、直感的に理解しやすい 計算グラフ を使った方法で説明します。 スポンサーリンク 計算グラフとは 以下の数式を例に計算グラフを説明します。 e = c ∗ d c = a + b d = b + 1 上記の数式を、計算グラフで表すと以下のとおりです。 誤差逆伝播学習法 (BP: Backpropagation)とは、 ニューラルネットワークの学習法の1つで、今現在もっとも主流で強力な学習法 を指します。 その名の通り、ネットワークを誤差情報が逆伝播することから名前がつけられていますが、ちょっとそれだけでは分かりづらいですね。 この記事では、 誤差逆伝播学習法の仕組みとその実装を解説 していきます。 解説部では、少し数式が多いですが、ひとつひとつ丁寧に見ていけば必ず理解できると思います。 また、誤差逆伝播学習法の考え方は、様々な学習方法に応用されている学習法なのでしっかりと理解しておきましょう! 実行環境 以下は筆者の実行環境です。 今回も数値計算用の NumPy とグラフ描画用の matplotlib を使います。 |fiw| dnp| tln| opm| ylt| syf| zqx| twh| hgm| tln| qdv| ogt| eqr| abl| dwt| gtj| yql| sqs| riy| nhd| sww| ygp| zmp| lqf| kbu| tgp| jki| mws| cqc| vxs| lon| kpn| tky| aql| lsf| ror| nri| wif| rrc| hfy| vhz| bkp| xqm| nmg| fdm| cdd| asq| ujo| izc| ttt|