第06课:浅层神经网络(NN)
生活随笔
收集整理的这篇文章主要介绍了
第06课:浅层神经网络(NN)
小编觉得挺不错的,现在分享给大家,帮大家做个参考.
上一篇我们主要介绍了一些神经网络必备的基础知识,包括 Sigmoid 激活函数、损失函数、梯度下降和计算图。这些知识对我们学习神经网络非常有用!本文我们将开始真正的神经网络学习,从一个浅层的神经网络出发,详细推导其正向传播和反向传播完整过程。
神经网络模型概述
首先,我们来看一个简单的神经网络模型:
最简单的神经网络模型由输入层(Input Layer)、隐藏层(Hidden Layer)、输出层(Output Layer)组成,我们称之为 2 层神经网络。隐藏层和输出层都由个数不一的神经元组成。如上图所示,输入层有 3 个输入:x1、x2、x3,分别代表不同的输入特征。例如一张图片所有的像素值(当然不止 3 个) 。一般地,输入层不标注 $\bigcirc$,表示没有神经元。该神经网络模型隐藏层包含了 4 个神经元,输出层只有 1 个神经元。
需要特别注意的是,在解决二分类或者预测问题时,输出层神经元个数为 1。如果是多分类问题,输出层就需要多个神经元。这里先介绍最简单的神经网络模型,多分类问题之后再详细介绍。
我在第01课已经介绍过单个神经元的结构:
单个神经元包含参数 W 和 b,分别称之为权重系数(
总结
以上是生活随笔为你收集整理的第06课:浅层神经网络(NN)的全部内容,希望文章能够帮你解决所遇到的问题。
- 上一篇: 第08课:深层神经网络(DNN)
- 下一篇: 从socket中读取一行语句