linear-regression
机器学习之线性回归
什么是线性回归
线性回归问题作为机器学习的经典,是一种有监督学习
所谓的线性回归问题就是希望用线性模型去拟合数据,利用回归方法从而得到回归方程,从而预测结果
线性回归的学习可以用如下公式表示
其中x
是输入,y
是输出/目标,$\theta$是要学习的参数。$h_\theta()$是指和$\theta$相关的模型,h()由模型给定。
当$\hat y$是连续的,且$h_\theta()$是线性的,那么这个模型就是线性回归模型。线性模型表示为
其中$\theta_0,\theta_1$可以表示为向量$\theta = (\theta_0,\theta_1)^T$
则有$h_{\vec \theta}(x)=\theta_0+\theta_1x$
监督学习框架
训练:
测试:
启发式评估:
Evaluation
损失函数
由于训练的最终目标是让$h_\theta$与y越接近越好,那么损失函数可以定义为:
平方误差最小准则:优化问题就是找到使$J(\theta)$最小的解
求闭式解
令(8)与(9)为0,解得:
梯度下降
沿着梯度反方向改变(函数值下降最快的地方)即
这种方式让每次都算出$\theta_j$再进行下一轮更新,但可能出现局部最优解
线性回归中的梯度下降
多元线性回归
假设函数为$h_\theta(x)=\theta_0+\theta_1x+……\theta_nx$
即$h_{\vec \theta}(x)=\vec \theta^T \vec x $