则如下图所示c)=3(a+b*c)

正在第二周,吴恩达起首引见了逻辑回归算法(以及其丧失函数),将逻辑回归算法当作一个神经收集,引见了梯度下降和计较图,操纵计较图更曲不雅的引见了反向的道理以及实现。

我们想通过这个误差来调整输入的值(a,b,c),使得他们正在前向计较获得的预测值可以或许愈加的接近现实值。

当y=1时丧失函数L= - log(y^),若是想要丧失函数 L尽可能得小,那么 y^就要尽可能大,由于sigmoid函数取值[0,1],所以 y^会无限接近于1。

至此,我们计较了图中所有可见项的导数,那么我们需要计较的 dJ / da,dJ / db,dJ / dc就能够通过链式求导获得。

做为线性函数后的非线性,使得逻辑回归有别于硬分类的算法,例如SVM。逻辑回归对于分类的输出成果是[0,1]之间的一个值。

我们需要去求解 J(a,则如下图所示c)=3(a+b*c),假设,我们将它拆成 几个步调,b,

所谓的反向,就是假设我们曾经进行过了一次前向的过程,也就是获得了预测值取现实值之间的误差,

当y=0时丧失函数L = - log(1-y^),若是想要丧失函数 L尽可能得小,那么 y^就要尽可能小,由于sigmoid函数取值[0,1],所以 y^会无限接近于0。