G検定 G検定 2020年 第2回 振り返り(その15) #141 VGGNetでは層を深くし過ぎると勾配が消失または爆発し、性能が落ちるという問題があったが、ResNetではそれを「スキップ構造」によって解決し、性能を上げながら152層もの深さを実現した。 #142 アルファ碁(AlphaGo)... 2020.08.13 G検定
G検定 G検定 2020年 第2回 振り返り(その14) #131 制限付きボルツマンマシンの説明。 制限付きボルツマンマシンを積み重ねることで深層信念ネットワークが構成される。 同じ層のユニット同士は結合をもたない 3層2層(入力層と隠れ層)からなるネットワークである 無向グラフで表現される確率... 2020.08.07 G検定
G検定 G検定 2020年 第2回 振り返り(その13) #121 敵対的生成ネットワーク(GAN)において、理論上は、モデルに関してニューラルネットワーク以外の枠組みを利用しても良い。 #122 ディープラーニングは音声認識の逆過程である音声合成においても利用されている。2016年にDeepMi... 2020.07.27 G検定
G検定 G検定 2020年 第2回 振り返り(その12) #111 データの大きさをバイト単位で表した際の単位は以下がある。 ペタバイト(PB) 10の15乗エクサバイト(EB) 10の18乗ゼッタバイト(ZB) 10の21乗ヨタバイト(YB) 10の24乗 #112 メールや議事録、あるいはアン... 2020.07.27 G検定
G検定 G検定 2020年 第2回 振り返り(その11) #101 セマンティックセグメンテーションの代表的な手法であるU-Netはエンコーダ・デコーダ構造を採用し、エンコーダとデコーダの間をつなぐ処理がある。この処理では、”エンコーダ側の特徴マップを一定サイズに切り出して、対となるデコーダの特徴... 2020.07.22 G検定
G検定 G検定 2020年 第2回 振り返り(その10) #91 ディープラーニングのモデルを勾配降下法によって学習させたとき、”訓練誤差”が”最小化”されるようにパラメータが更新される。しかし、”訓練誤差”では将来的に得られるデータに対する性能を評価できない。未知のデータの母集団に対する誤差の期... 2020.07.21 G検定
G検定 G検定 2020年 第2回 振り返り(その9) #81(検証中) マックスプーリングを持つネットワークに誤差を逆伝播する際には、”順伝播の際に選択した位置を覚えておき、その位置だけに誤差を逆伝播する”。 ほかのオプション: 順伝播の際に選択した位置だけでなく、全ての位置に誤差を逆伝播する... 2020.07.21 G検定
G検定 G検定 2020年 第2回 振り返り(その8) #71 ある日の気温とかき氷の売上高との間にどのような関係があるか調べた。散布図をみる限りにおいて、売上高と気温との間には直線的な相関関係が見られたため、単回帰分析を行ったところ、下記のような分析結果が出た。 目的変数 y:売上個数説明変数... 2020.07.21 G検定
G検定 G検定 2020年 第2回 振り返り(その7) #61 隠れマルコフモデル(HMM)は、”隠れ変数を持ち、時刻とともに確率的に変化する”。 #62 サポートベクトルマシン(SVM)はディープラーニングが台頭する以前から広く使われてきたモデルであり、”マージンの最大化”というコンセプトに基... 2020.07.21 G検定
G検定 G検定 2020年 第2回 振り返り(その6) #51 教師あり学習において、モデルの出力と正解ラベルの誤差を表現する関数を”損失関数”と呼ぶ。 #52 主成分分析(PCA)の役割の1つとして”次元削減をすることでデータを圧縮したり、特徴を分かりやすくする”ことが挙げられる。 #53 回... 2020.07.20 G検定