G検定 2020年 第2回 振り返り(その6)

スポンサーリンク
スポンサーリンク

#51

教師あり学習において、モデルの出力と正解ラベルの誤差を表現する関数を”損失関数”と呼ぶ。

#52

主成分分析(PCA)の役割の1つとして”次元削減をすることでデータを圧縮したり、特徴を分かりやすくする”ことが挙げられる。

#53

回帰分析、重回帰分析のモデルの当てはまりの良さを計る基準として、”決定係数”がある。

#54

重回帰分析の例として、”出店予定の小売店舗の売上高を、地域の人口、店舗面積、販売品目数から予測する”ことなどが挙げられる。

#55

回帰分析を用いて、目的変数Yを説明変数Xで説明できるかを調べたい。このとき用いる方法の1つは、”偏回帰係数”が0であるかどうかを帰無仮説とした検定である。

#56

教師なし学習の手法の中で、入力データの構造や特徴をつかむためにクラスタごとに重心を求め、各データを最も近いクラスタに紐づける作業を繰り返し、あらかじめ決められた数のクラスタにデータを分類する手法が”k-平均法(k-means)”である。

#57

ベイズ推定とは、”パラメータを確率変数とみなし、事後分布を推定する”。

#58

6面体のサイコロの出る目の確立が以下の式に従う場合のxの期待値は、”3.5”となる。

\[ f(x) = \frac{1}{6}, x=1,2,…,6 \]

#59

統計モデルの予測の良さを重視した情報量基準”AIC”(Akaike’s Information Criteria)は、以下の式で表される。

\[ -2\{(最大対数尤度)-(最尤推定したパラメータ数)\} \]

#60

”正規分布”の確率密度関数は以下の式として表される。

\[ f(x|\mu,\sigma^2)=\frac{1}{\sqrt{2\pi}\sigma}\exp(-\frac{(x-\mu)^2}{2\sigma^2}) \]

コメント

タイトルとURLをコピーしました