#51
教師あり学習において、モデルの出力と正解ラベルの誤差を表現する関数を”損失関数”と呼ぶ。
#52
主成分分析(PCA)の役割の1つとして”次元削減をすることでデータを圧縮したり、特徴を分かりやすくする”ことが挙げられる。
#53
回帰分析、重回帰分析のモデルの当てはまりの良さを計る基準として、”決定係数”がある。
#54
重回帰分析の例として、”出店予定の小売店舗の売上高を、地域の人口、店舗面積、販売品目数から予測する”ことなどが挙げられる。
#55
回帰分析を用いて、目的変数Yを説明変数Xで説明できるかを調べたい。このとき用いる方法の1つは、”偏回帰係数”が0であるかどうかを帰無仮説とした検定である。
#56
教師なし学習の手法の中で、入力データの構造や特徴をつかむためにクラスタごとに重心を求め、各データを最も近いクラスタに紐づける作業を繰り返し、あらかじめ決められた数のクラスタにデータを分類する手法が”k-平均法(k-means)”である。
#57
ベイズ推定とは、”パラメータを確率変数とみなし、事後分布を推定する”。
#58
6面体のサイコロの出る目の確立が以下の式に従う場合のxの期待値は、”3.5”となる。
\[ f(x) = \frac{1}{6}, x=1,2,…,6 \]#59
統計モデルの予測の良さを重視した情報量基準”AIC”(Akaike’s Information Criteria)は、以下の式で表される。
\[ -2\{(最大対数尤度)-(最尤推定したパラメータ数)\} \]#60
”正規分布”の確率密度関数は以下の式として表される。
\[ f(x|\mu,\sigma^2)=\frac{1}{\sqrt{2\pi}\sigma}\exp(-\frac{(x-\mu)^2}{2\sigma^2}) \]
コメント