このページの2つのバージョン間の差分を表示します。
| 次のリビジョン | 前のリビジョン | ||
|
プログラム:機械学習 [2024/03/08 01:05] kawaue 作成 |
プログラム:機械学習 [2024/08/15 07:07] (現在) kawaue |
||
|---|---|---|---|
| 行 1: | 行 1: | ||
| + | =====アルゴリズム===== | ||
| + | ====決定木(Decision Tree)==== | ||
| + | Gradient Boosting Decision Tree (GBDT) | ||
| + | 決定木の一種。決定木を作ったあと、勾配降下法(Gradient Descent)で学習した新しい木を作る。これを繰り返して、できた複数の木を総合してpredictionを行う。(Boosting) | ||
| + | |||
| ====ニューラルネットワーク==== | ====ニューラルネットワーク==== | ||
| + | 多層パーセプトロン=ニューラルネットワーク? | ||
| + | |||
| 重みの初期値 | 重みの初期値 | ||
| 0を中心とするGaussianで乱数を振って決めている。幅は隠れ層のノード数に応じたものにするのが普通($1/ | 0を中心とするGaussianで乱数を振って決めている。幅は隠れ層のノード数に応じたものにするのが普通($1/ | ||
| + | |||
| + | =====損失関数===== | ||
| + | ====Cross Entropy==== | ||
| + | 分類問題に用いられる損失関数。クラスを表すラベルについて$p$を真の値、$q$を予測値とすると | ||
| + | $$ | ||
| + | \mathrm{Loss} = \sum_i p_i\log q_i | ||
| + | $$ | ||
| + | をクロスエントロピーと呼ぶ。二値分類(binary classification)の場合、binary cross entropy | ||
| + | \begin{eqnarray} | ||
| + | \mathrm{Loss} = p\log q + (1-p)\log(1-q) | ||
| + | \end{eqnarray} | ||
| + | となる。 | ||
| + | |||
| + | ロジスティック回帰-> | ||