enntropy
几种熵的介绍
1.信息熵
给定随机变量x,在系统中可能的输出为x1,x2….xn,这些输出对应发生的概率为p(x1),p(x2)…p(xn)
这时x的熵的定义为:
这个值是非负的,意义是对于不确定性的度量。当等概率出现时,不确定性达到最大,此时系统最公平
2.相对熵
给定随机变量x,有两个离散概率分布$\vec p$和$\vec q$,$\vec p$相对于$\vec q$的相对熵定义为
这种定义的意义是对两个概率分布p和q的分布差异的度量
具有非负性$D{kl}(\vec p||\vec q)$>=0,并且$D{kl}(\vec p||\vec q)\not = D_{kl}(\vec q||\vec p)$
3.交叉熵
交叉熵也要给定x和离散概率分布$\vec p$和$\vec q$,则交叉熵可定义为:
是用于估计概率分布q相对于真实概率分布p的度量,具有非负性,所以可以作为loss使用