このページの2つのバージョン間の差分を表示します。
| 両方とも前のリビジョン 前のリビジョン 次のリビジョン | 前のリビジョン | ||
|
プログラム:機械学習 [2024/08/15 07:02] kawaue [Cross Entropy] |
プログラム:機械学習 [2024/08/15 07:07] (現在) kawaue |
||
|---|---|---|---|
| 行 12: | 行 12: | ||
| =====損失関数===== | =====損失関数===== | ||
| ====Cross Entropy==== | ====Cross Entropy==== | ||
| + | 分類問題に用いられる損失関数。クラスを表すラベルについて$p$を真の値、$q$を予測値とすると | ||
| $$ | $$ | ||
| - | \mathrm{Loss} = \sum p_iq_i | + | \mathrm{Loss} = \sum_i p_i\log q_i |
| $$ | $$ | ||
| + | をクロスエントロピーと呼ぶ。二値分類(binary classification)の場合、binary cross entropy | ||
| + | \begin{eqnarray} | ||
| + | \mathrm{Loss} = p\log q + (1-p)\log(1-q) | ||
| + | \end{eqnarray} | ||
| + | となる。 | ||
| + | |||
| + | ロジスティック回帰-> | ||