逻辑回归吴恩达

技术逻辑回归吴恩达 逻辑回归_吴恩达线性回归做分类不太理想新增最右边额外的红色点,会改变原来的线性回归的拟合直线从洋红改变到蓝色直线,运用原来的数据标准,分类出现了错误,使得新的拟合直线更糟糕而且分类问

逻辑回归_吴恩达

线性回归不适合分类。

在最右侧添加一个额外的红点会将原始线性回归的拟合线从洋红色更改为蓝色。使用原始数据标准,分类错误,使新拟合线更差。

而且分类问题通常只有0和1,但奇怪的是线性回归会得到小于0或大于1的值,但下面的逻辑回归值必须在[0,1]之间

因此,使用sigmoid函数(逻辑函数)。

之前线性回归使用的假设函数:(和x为向量)

两者的结合就变成了

组合成一个公式

用法:

给定样本x和参数,样本x表示正样本(y=1)和负样本(y=0)的条件概率。

简单分类示例()

训练集用于拟合参数,然后确定决策边界(假设本身及其参数的属性)。

决策边界可以跟随高阶项,得到非常复杂的决策边界。

自动选择参数

根据之前学习的成本函数,代入sigmoid后,h和左图一样有缺陷。我们的目标是通过使用梯度下降(或其他)找到全局最优解,如右图所示,因此我们需要稍微改变原始函数。

真值y=0时,预测值为0时代价小,预测值为1时代价很高,会惩罚算法。

现在知道了:

将成本函数合并成一个等式:

最小化后,得到一组拟合训练样本的参数,然后新样本具有一些特征X,所得用于输出概率为y=1的预测(0,1)。

了解如何最小化J:的梯度下降

派生和可用:

矢量量化可以一次直接更新所有。

不同:

与线性回归的区别:假设的定义不同。

与以下相同:

监控它是否收敛的方法是一样的。

特征缩放可以提高梯度下降的收敛速度。再试一次。

相关性优化

共轭梯度法,BFGS,BFGS(用于直接转移)

多元分类

(邮件是来自工作、朋友、家人还是其他人)

首先拟合x个分类器(每个分类器都是针对这些情况之一训练的)

然后,输入新数据X,分别进行预测,选择h(x)最大的一个。

内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/121786.html

(0)

相关推荐