Last updated 4 years ago
Was this helpful?
Logistic Regession宗旨是以线性分割面分割各类别 logPr(Y=i∣x)Pr(Y=j∣x)\log \frac {Pr(Y=i|x)}{ Pr(Y=j|x)}logPr(Y=j∣x)Pr(Y=i∣x) .同时保持各类别的概率和为1.
LR依从 bayesian 法则,即它对样本的分类是看哪个类别的概率最大:
因此类别i和j的分界面由决定
各类别概率
这个过程都是P(Y=k∣x)P(Y=k|x)P(Y=k∣x)倍数,若
则,这就是softmax。
怎么感觉像无向图模型中一般用的势能函数一样。给每个类别赋一个势能,然后归一化。然后求势能最大的那个类别。
所以
一般分类的估计就是使用(负对数)极大似然估计(negative log-likelihood ), 二分类的最大似然就是交叉熵。
来个简化版的:
求导得:
然后对于全部样本,优化函数为: