G検定 2020年 第2回 振り返り(その8)

スポンサーリンク
スポンサーリンク

#71

ある日の気温とかき氷の売上高との間にどのような関係があるか調べた。散布図をみる限りにおいて、売上高と気温との間には直線的な相関関係が見られたため、単回帰分析を行ったところ、下記のような分析結果が出た。

目的変数 y:売上個数
説明変数 x:気温
説明変数の係数:5
y切片:3

この単回帰分析結果から、”気温が25度のときの1日あたりのかき氷の売上個数は128個と予想される。”

#72

機械学習をするうえで難問となるのが、学習を行う際に設定しなければならないハイパーパラメータにどのような値を設定するかという事である。この問題の解決を試みてさまざまなアプローチが取られている。例えば、初期パラメータとして適切だと思われる値をいくつか用意し、それぞれ学習を行いパラメータを決定する”グリッドサーチ”などが存在する。

#73

分類問題を解くアルゴリズムの1つとして、ある変数について条件分岐を繰り替えることによって解く方法がある。この際、あまりに瑣末な分類を行って汎化性能を損なわないよう、条件分岐を適切な回数に留める。この手法を、”剪定”と呼ぶ。

#74

機械学習においては、複数のモデルを組み合わせることによって、経験的に汎化性能が大きくなることが分かっており、このアプローチを”アンサンブル学習”と呼ぶ。”アンサンブル学習”の具体的な手法としては、バギングやブースティングが代表的である。

#75

バギングとは、”複数のモデルをそれぞれ別に学習させ、各モデルの出力を平均もしくは多数決することで決める手法のこと”である。

#76

決定木はまるで木が枝分かれをするように、”条件分岐”と呼ばれる処理を繰り返すことによって表されるモデルを学習によって得る手法である。

#77

決定木を分類問題に適用する際の基準は”情報利得の最大化”である。

#78

交差検証(交差確認)とは、”運用の際にモデルが示す汎化性能を見積もる”手法のひとつである。

#79

多重パーセプトロンにおいて、”学習率”はハイパーパラメータの1つである。

#80

プーリングの1つであるグローバアベレージプーリング(GAP)の処理では、”各チャンネルの特徴マップの平均値を求める”。

コメント

タイトルとURLをコピーしました