logistic回归与softmax回归
Logistic回归
逻辑回归问题不是回归问题,而是一种分类问题,默认为二分类
1.模型表示
物理意义:这是$h_{\vec \theta}(\vec x)$是$\vec x$为正样本的概率(输出为1的概率)是人为规定的,用指数形式表示是为了加大两个概率之间的区别。
2.分类的决策
在分类问题中,函数只会输出$h_{\vec \theta}(\vec x)$中$\vec x$属于某一种类的概率,但没有给出样本究竟属于哪一类,所以就需要利用决策函数进行分类。
决策函数:$\hat y = f(x)= \begin{cases} 0& \text{g(z)<0.5}\\ 1& \text{g(z)>= 0.5} \end{cases}$0.5}\\>
3.损失函数
类似于$-p_ilogq_i$这种形式,我们称为交叉熵,它表示了预测值与真实值之间的差异,其中$-p_i$表示真实值,$logq_i$表示预测值
上式可以同一形式变化为
4.梯度下降优化
那么梯度下降的跟新规则即为
5.随机梯度下降优化
随机梯度下降优化是随机选择一个样本进行梯度计算,然后更新权重,并重复下一过程
6.小批量梯度下降法
这个方法最常用,是GD与SGD的这种方法,取一个小批量的数据对参数进行更改。
7.牛顿法
8.二分类评价指标
$y_{gt}=1$ | $y_{gt}\not= 1$ | |
---|---|---|
$\hat y=1$ | True Positive (TP) | Flase Positive (FP) |
$\hat y\not=1$ | Flase Negative(FN) | True Negative (TN) |
这两个参数不可兼得,需要根据实际情况来。
SoftMax分类
Softmax是一种多分类问题的解决方法,是logistics的一种多维形式的推广,多维分类通常采用独热码表示。
1.模型表示
2.损失函数
实际上只算了$y_c^{(i)}$为1的那个loss
3.优化
正则化
1.过拟合:
可能是因为模型过于复杂,模型可以很好的拟合训练数据,但不能拟合预测数据。可能会导致预测失败。
2.解决方法:
1.减少特征数量
2.正则化(通过降低$J_{\vec \theta}$的值来改变一些高次特征)
3.正则项
通式: