ユーザ用ツール

サイト用ツール


プログラム:機械学習

差分

このページの2つのバージョン間の差分を表示します。

この比較画面にリンクする

両方とも前のリビジョン 前のリビジョン
次のリビジョン
前のリビジョン
プログラム:機械学習 [2024/08/15 07:02]
kawaue [Cross Entropy]
プログラム:機械学習 [2024/08/15 07:07] (現在)
kawaue
行 12: 行 12:
 =====損失関数===== =====損失関数=====
 ====Cross Entropy==== ====Cross Entropy====
 +分類問題に用いられる損失関数。クラスを表すラベルについて$p$を真の値、$q$を予測値とすると
 $$ $$
-\mathrm{Loss} = \sum p_iq_i+\mathrm{Loss} = \sum_i p_i\log q_i
 $$ $$
 +をクロスエントロピーと呼ぶ。二値分類(binary classification)の場合、binary cross entropy
 +\begin{eqnarray}
 +\mathrm{Loss} = p\log q + (1-p)\log(1-q)
 +\end{eqnarray}
 +となる。
 +
 +ロジスティック回帰->予測値が確率と解釈される。
プログラム/機械学習.1723705371.txt.gz · 最終更新: 2024/08/15 07:02 by kawaue