2018
概要
深層学習の基礎を身につけるために、「深層学習による自然言語処理」を輪読します。
勉強会の前までに各自で本文を読んで来てください。
勉強会では適当に指名して本文を読んでもらい、必要に応じて解説もしてもらいます。
メンバー
TA
山岸(前半)
松村(後半)
参加者
陳
安道
趙
李
甫立
本間
吉村
平澤
スケジュール
開催コマは、毎週木曜日の16:20〜です。
山岸担当分
2018-04-12 #1 キックオフ、第1章 自然言語処理のアプローチ
2018-04-19 #2 第2章 ニューラルネットの基礎 ①(2.1.教師あり学習、2.2.順伝播型ニューラルネット、2.3.活性化関数)
2018-04-26 #3 第2章 ニューラルネットの基礎 ②(2.4.勾配法、2.5.誤差逆伝播法)
2018-05-03 GWのためお休み
2018-05-10 #4 第2章 ニューラルネットの基礎 ③(2.6.再帰ニューラルネット、2.7.ゲート付き再帰ニューラルネット)
2018-05-17 #5 第2章 ニューラルネットの基礎 ④(2.8.木構造再帰ニューラルネット)、第3章 言語処理における深層学習の基礎 ①(3.1.準備)
2018-05-24 #6 第3章 言語処理における深層学習の基礎 ①(3.2.言語モデル)
2018-05-31 #7 第3章 言語処理における深層学習の基礎 ②(3.3.分散表現)
2018-06-06 #8 第3章 言語処理における深層学習の基礎 ③(3.4.系列変換モデル)(6/7から日程変更)
松村担当分
2018-06-14 #9 第4章 言語処理特有の深層学習の発展 ①(4.1.注意機構)、第5章 応用 ①(5.1.機械翻訳)
2018-06-21 #10 第5章 応用 ②(5.2.文書要約)
2018-06-28 #11 第5章 応用 ③(5.3.対話、5.4.質問応答)
2018-07-05 #12 第6章 汎化性能を向上させる技術 ①(6.1.汎化誤差の分解、6.2.推定誤差低減に効く手法)
2018-07-12 #13 第6章 汎化性能を向上させる技術 ②(6.3.最適化誤差低減に効く手法、6.4.超パラメータ選択)
2018-07-19 #14 第7章 実装 ①(7.1.GPUとGPGPU、7.2.RNNにおけるミニバッチ化)
2018-07-26 #15 第7章 実装 ②(7.3.無作為抽出、7.4.メモリ使用量の削減、7.5.誤差逆伝播法の実装)、第8章 おわりに
過去ログ
2018-04-12 16:20-17:10 #1 キックオフ、第1章 自然言語処理のアプローチ
2018-04-19 16:20-17:40 #2 第2章 ニューラルネットの基礎 ①(2.1.教師あり学習、2.2.順伝播型ニューラルネット、2.3.活性化関数)
2018-04-26 16:20-18:20 #3 第2章 ニューラルネットの基礎 ②(2.4.勾配法、2.5.誤差逆伝播法)
2018-05-10 16:20-18:20 #4 第2章 ニューラルネットの基礎 ③(2.6.再帰ニューラルネット、2.7.ゲート付き再帰ニューラルネット)
2018-05-17 16:23-17:50 #5 第2章 ニューラルネットの基礎 ④(2.8.木構造再帰ニューラルネット)、第3章 言語処理における深層学習の基礎 ①(3.1.準備)
2018-05-24 16:23-18:10 #6 第3章 言語処理における深層学習の基礎 ①(3.2.言語モデル)
2018-05-31 16:25-17:45 #7 第3章 言語処理における深層学習の基礎 ②(3.3.分散表現)
2018-06-06 17:15-19:10 #8 第3章 言語処理における深層学習の基礎 ③(3.4.系列変換モデル)
2018-06-14 16:25-18:55 #9 第4章 言語処理特有の深層学習の発展 ①(4.1.注意機構)、第5章 応用 ①(5.1.機械翻訳)
2018-06-21 16:25-17:25 #10 第5章 応用 ②(5.2.文書要約)
2018-06-28 16:20-17:50 #11 第5章 応用 ③(5.3.対話、5.4.質問応答)
2018-07-05 16:30-18:50 #12 第6章 汎化性能を向上させる技術 ①(6.1.汎化誤差の分解、6.2.推定誤差低減に効く手法)
2018-07-12 16:25-17:30 #13 第6章 汎化性能を向上させる技術 ②(6.3.最適化誤差低減に効く手法、6.4.超パラメータ選択)
2018-07-19 17:00-19:10 #14 第7章 実装 ①(7.1.GPUとGPGPU、7.2.RNNにおけるミニバッチ化)