深度学习不只是“Import Tensorflow”(下)
因此,与其在抛物线上降低我们的损失,不如把梯度下降的过程想象成把一个球滚下山,这个球代表了我们神经网络的误差量。 ![]() 我们在这里使用线性回归模型来保持可视化的简单性。观察模型的准确性如何提高(右),因为它的点在损失函数(左)“滚下山”。 简而言之,梯度下降法使网络能够计算出给定一组输入时,它的输出是需要更大的正值还是负值,以便在进行预测时提高网络的整体准确性。 该死的,纠正他们的错误!一旦通过损失函数计算出误差,网络中的权值和偏差就会被修正以使误差最小化。这是通过一种叫做反向传播的方法实现的: W(k+1) = W(k) — (Learning Rate) × (Gradient Descent Applied to Error)其中W(k+1)表示新的权值,W(k)表示当前权值。 反向传播函数将错误从输出层向后传播到网络中的每一层。它本质上允许我们修改神经网络中节点之间的每一个权重的值,使一些节点变得比其他节点更“活跃”。 ![]() 可视化反向传播。图像来源于虚构到事实。 这些修改的目的是最小化神经网络的损失或误差。经过无数次的反复训练,损失最小化,我们的神经网络在工作中变得越来越精确,无论是识别手写数字还是推荐你下一个YouTube视频。 关键要点
你绝对是个传奇。我没有耐心读完所有的东西(考虑到是我写的,这很有趣)。你真棒! 更重要的是,现在除了导入TensorFlow之外,您对神经网络如何工作有了更直观的理解。 我希望您学到了一些有价值的东西,我们下一篇文章再见! (编辑:晋中站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |