logistic回归与softmax回归

Logistic回归

逻辑回归问题不是回归问题,而是一种分类问题,默认为二分类

1.模型表示

物理意义:这是$h_{\vec \theta}(\vec x)$是$\vec x$为正样本的概率(输出为1的概率)是人为规定的,用指数形式表示是为了加大两个概率之间的区别。

2.分类的决策

在分类问题中,函数只会输出$h_{\vec \theta}(\vec x)$中$\vec x$属于某一种类的概率,但没有给出样本究竟属于哪一类,所以就需要利用决策函数进行分类。

决策函数:$\hat y = f(x)= \begin{cases} 0& \text{g(z)<0.5}\\ 1& \text{g(z)>= 0.5} \end{cases}$

3.损失函数

类似于$-p_ilogq_i$这种形式,我们称为交叉熵,它表示了预测值与真实值之间的差异,其中$-p_i$表示真实值,$logq_i$表示预测值

上式可以同一形式变化为

4.梯度下降优化

那么梯度下降的跟新规则即为

5.随机梯度下降优化

随机梯度下降优化是随机选择一个样本进行梯度计算,然后更新权重,并重复下一过程

6.小批量梯度下降法

这个方法最常用,是GD与SGD的这种方法,取一个小批量的数据对参数进行更改。

7.牛顿法

8.二分类评价指标

$y_{gt}=1$ $y_{gt}\not= 1$
$\hat y=1$ True Positive (TP) Flase Positive (FP)
$\hat y\not=1$ Flase Negative(FN) True Negative (TN)

这两个参数不可兼得,需要根据实际情况来。

SoftMax分类

Softmax是一种多分类问题的解决方法,是logistics的一种多维形式的推广,多维分类通常采用独热码表示。

1.模型表示

2.损失函数

实际上只算了$y_c^{(i)}$为1的那个loss

3.优化

正则化

1.过拟合:

可能是因为模型过于复杂,模型可以很好的拟合训练数据,但不能拟合预测数据。可能会导致预测失败。

2.解决方法:

1.减少特征数量

2.正则化(通过降低$J_{\vec \theta}$的值来改变一些高次特征)

3.正则项

通式: