1+e−x1
模型表达式
- sigmoid函数、激活函数、s型函数
1+e−x1
补充
-
信息论自信息概念:自信息的期望被称为信息熵,信息熵用来衡量变量的不确定性,变量越不确定,信息熵越大。自信息表达式:
I(x)=−logbp(x) {b=2时自信息的单位为bit,b=e时自信息的单位为nat}
-
信息熵表达式:
E(I(x))=−x∑p(x)logbp(x)
-
相对熵,又称KL散度,可以用于衡量两个分布的差异。假设真实模型为p(x),而我们求解得到的模型是q(x),那么我们就可以用p(x)与q(x)的相对熵作为LOSS函数
DKL(p∣∣q)=−x∑p(x)logbp(x)−x∑p(x)logbq(x)
- 其中p(x)为常数,我们仅需使下述式子最小,即可获得最优模型
−x∑p(x)logbq(x)