#141
VGGNetでは層を深くし過ぎると勾配が消失または爆発し、性能が落ちるという問題があったが、ResNetではそれを「スキップ構造」によって解決し、性能を上げながら152層もの深さを実現した。
#142
アルファ碁(AlphaGo)、アルファ碁ゼロ(AlphaGoZero)、アルファスター(AlphaStar)、ディープQネットワーク(DQN)の発表時期
2015年 ディープQネットワーク(DQN)
2015年 アルファ碁(AlphaGo)
2017年 アルファ碁ゼロ(AlphaGoZero)
2019年 アルファスター(AlphaStar)
#143
リカレントニューラルネットワーク(RNN)は内部に”再帰構造”を持つニューラルネットワークの総称であり、この構造は”系列データ”を扱うために開発された。”系列データ”を扱えるようになったのは、”再帰構造”によって、”情報を一時的に記憶させること”ができるようになったためである。
#144
強化学習で用いられる手法として”TD学習”、”Q学習”、”モンテカルロ法”などがある。
#145
LSTM(Long Short-Term Memory)は”リカレントニューラルネットワーク(RNN)”の一種である。内部にゲート構造を設けることにより、単純な”リカレントニューラルネットワーク(RNN)”の抱える”長い系列をさかのぼるにつれて学習が困難になる”という問題を解決する方法として提案されている。
#146
畳み込みニューラルネットワーク(CNN)は画像処理分野にも用いられるニューラルネットワークである。CNNは人間の視覚野の構造を模したネットワークになっており、”多層構造”であることがその特徴である。またCNNの応用例として、インセプションモジュールという”並列構造”のブロックを畳み込み層のように用いて、より良いネットワークを構築する手法が提案されている。
#147
t-SNEは、2008年に発表されたデータ視覚化、次元削減に用いられる手法である。t-SNEの最後の3文字は手法を表す頭文字であり、それぞれ先頭のtは”T分布(t-distribution)”、Sは確率的Stochastic、Nは隣接(項目)Neighbor、Eはう円込みEmbeddingである。
#148
強化学習における「エージェント」とは、”学習主体”を示す。
#149
強化学習の具体例として”A3C”が挙げられる。
#150
強化学習において、行動価値関数の関数近似に畳み込みニューラルネットワーク(CNN)を用いた手法が”ディープQネットワーク(DQN)”である。
コメント