本文重点

上一节课程中,我们学习了m个样本的前向传播的向量化,我们可以同时完成m个样本的前向传播,也就是m个样本z的计算,然后a的计算。本节课程我们将学习dw和db参数更新的向量化,最终得到整个逻辑回归算法的参数更新的向量化表示。

非向量化的逻辑回归梯度下降算法

如图所示,我们已经完成了m个样本从x到z,然后到a的计算,下面我们的任务是将dw和db的计算也通过向量化的形式完成。

dz

要想计算dw和db,我们先来向量化计算dz,为了计算dZ,我们需要这样的一个行向量y(所有样本的标签):

这样我们就可以通过向量化的方式来计算出dZ:

dz计算出来之后,我们看一下,如何才能向量化的方式计算出dw(dw1,dw2...),db

dw和db的计算(非向量化)

点赞(0) 打赏

评论列表 共有 0 条评论

暂无评论

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部