==二元分类==

输出:标签1/0

img在计算机中保存–>三个矩阵(假设64*64,那么就有3 * 64 * 64个像素,变成特征向量,总维度,也就是矩阵的行为n=3 * 64 * 64,如果有m组训练集,那么矩阵最终为m列,n行)

三个矩阵

==logistics回归==

y^ 表示 y 等于1的一种可能性或者是机会

w 表示逻辑回归的参数,这也是一个 n 维向量(因为 w 实际上是特征权重,维度与特征向量相同),参数里面还有 b,这是一个实数(表示偏差)

选择使用sigmoid函数原因:如果单纯线性,无法把y^值控制在0-1之间,故取sigmoid(z)

使得z很大,sigmoid(z)趋近1, z 变成一个绝对值很大的负数,sigmoid(z)趋近0

sigmoid

==损失函数==

$L(\hat{y},y) = -y\log(\hat{y})-(1-y)\log(1-\hat{y})$ 单次

成本(代价)函数:$J(w,b) = \frac{1}{m}\sum_{i=1}^{m}{(-y\log(\hat{y})-(1-y)\log(1-\hat{y}))}$ 也就是总代价,训练逻辑回归模型时候,我们需要找到合适的 w 和 b ,来让代价函数 J 的总代价降到最低

==梯度下降法==

J 为凸函数,没有局部最优,只有全局最优

bowl

朝最陡的下坡方向走一步,不断地迭代

更新w,b 找到最合适的参数使得J = Jmin
Alt text