文章

28_动手实现TensorFlow–反向传播Backpropagation

本章节我们将实现:找出各参数对Cost的影响,弄清该如何改变参数使得Cost最小化。我们不能指望盲目改变参数值却能得到正确的结果。弄清每个参数对Cost的影响的技术是反向传播,它的本质是一个链式规则。
阅读更多

27_动手实现TensorFlow–实现梯度下降

上节实现了误差计算之后我们已经实现所有前向的计算步骤。下面我们将使用计算出的误差进行反向的操作,也就是反向传播。在这个过程中,神经网络计算权重该如何修改才能够使得误差最小。我们通常使用梯度下降法实现对权重的修改。
阅读更多

19_神经网络–反向传播

上节我们认识到增加隐藏层可以解决更为复杂的非线性问题,也计算出了各隐藏层节点的输入与输出值。现在问题来了,我们要怎样才能够让这种多层感知器的网络进行权重的学习呢?本节将介绍深度学习的基础:反向传播
阅读更多

17_神经网络–梯度下降的代码实现

经过上一节的讲解我们已经知道了我们的权重是如何更新的,本节将讲解如何将这个过程通过代码实现。基于python和numpy。
阅读更多

16_神经网络–梯度下降的数学解释

上章节中我们讲解了如何神经网络如何学习权重以及梯度下降的原理及含义。本章节我们从数学的角度去解析梯度下降的推导方法。这个过程会涉及到神经网络的几个非常关键的参数如learning rate,gradient等。

阅读更多

15_神经网络–权重与梯度下降

在上一章节感知器中我们学习了权重(weights)的概念,但是我们是手动设置各输入值的权重的。但很多时候我们并不知道每一个输入值真实的权重是多少,我们需要从现有的数据中学习权重,然后使用权重去做预测。

阅读更多