Gradient Descent For Linear Regression
梯度下降算法和 线性回归模型 & 平方误差代价函数



所以 让我们来看看梯度下降是如何工作的 我们用梯度下降解决问题的一个原因是 它更容易得到 局部最优值 当我第一次解释梯度下降时 我展示过这幅图 在表面上不断下降 并且我们知道了 根据你的初始化 你会得到不同的局部最优解 你知道 最后可能会到这里 到这里 但是事实证明 用于线性回归的代价函数 总是这样一个弓形的样子 这个函数的专业术语是凸函数

Only global optimum for cost function of linear regression




Last updated
Was this helpful?