如何通过逻辑回归实现机器学习数据的整理?
- 内容介绍
- 文章标签
- 相关推荐
本文共计545个文字,预计阅读时间需要3分钟。
二分类问题+问题定义:设定一些特征,将其归为某一类别。+假设函数+定义:[h(x)=g(θ^Tx)],其中[g(z)=1 / (1 + e^(-z))]。+决策边界:当[h(x)=0.5]时,y更有可能预测为1。
二分类问题问题定义:给定一些特征,给其分类之一。
假设函数 \(h(x)\) 定义:
决策边界:
当 \(h(x) >= 0.5\) 的时候,y 更有可能预测为 1。
当 \(h(x) < 0.5\) 的时候,y 更有可能预测为 0。
当 z 的值为 0,也就是 \(\theta^Tx\) = 0 时就是区分两种分类的决策边界。
决策边界可能是直线,也有可能是曲线、圆。
\(g(x)\) 是一个“非凸函数”,如果将点距离公式带入到逻辑回归中,就会存在很多局部最优解。
新的代价函数定义:
定义的代价函数图像和原因如下:
如果预测是/接近 0,但是实际的y是 1,这样代价函数的值就会非常大,以此来惩罚(修正)代价函数,而我们需要将代价函数最小化才能计算出 \(h(x)\) 的参数 θ。
本文共计545个文字,预计阅读时间需要3分钟。
二分类问题+问题定义:设定一些特征,将其归为某一类别。+假设函数+定义:[h(x)=g(θ^Tx)],其中[g(z)=1 / (1 + e^(-z))]。+决策边界:当[h(x)=0.5]时,y更有可能预测为1。
二分类问题问题定义:给定一些特征,给其分类之一。
假设函数 \(h(x)\) 定义:
决策边界:
当 \(h(x) >= 0.5\) 的时候,y 更有可能预测为 1。
当 \(h(x) < 0.5\) 的时候,y 更有可能预测为 0。
当 z 的值为 0,也就是 \(\theta^Tx\) = 0 时就是区分两种分类的决策边界。
决策边界可能是直线,也有可能是曲线、圆。
\(g(x)\) 是一个“非凸函数”,如果将点距离公式带入到逻辑回归中,就会存在很多局部最优解。
新的代价函数定义:
定义的代价函数图像和原因如下:
如果预测是/接近 0,但是实际的y是 1,这样代价函数的值就会非常大,以此来惩罚(修正)代价函数,而我们需要将代价函数最小化才能计算出 \(h(x)\) 的参数 θ。

