Neural Network Representation
Last updated
Was this helpful?
Last updated
Was this helpful?
之前你见过我画的一些神经网络的图 在这个视频中让我们具体讨论这些图的内容 换句话说 就是那些神经网络究竟代表着什么 我们从集中于神经网络的 单隐藏层案例开始 这是一个神经网络的图 让我们给这图里的几个构件一些名字 这里有输入功能 x1、x2、x3 垂直堆叠 也就是神经网络输入层 所以不足为奇的,这包含了神经网络的输入 然后这里是另一层的圈子 也就是神经网络隐藏层 我待回会解释‘隐藏’的意思 而这里的最后一层,就只是一个节点 这一节点层称为输出层 并负责生成的估計值 ŷ 在神经网络中,带有监督学习的 训练集包含输入的 x 值,以及输出 y 值 所以术语‘隐藏层’是指在训练集中 中间这一层节点的真实值并没有所观察 这就是你看不到他们为什么应该在训练集里 你看到的输入是什么 你看到输出的是什么 但训练集中间隐藏层的东西是看不见的 所以这解释‘隐藏’的意思 因为你训练集中看不见这些 让我们介绍这些符号 之前说过,我们用向量 X 来表示输入功能和 替代符号 的输入值就是 A 上标方括号 0 A这个词也代表激活 它指的是不同层次的值 从神经网络的各层传递到下一层 所以,输入层把 x 值传递到隐藏层 这就是输入层 A 上标方 0 的激活 下一层的隐藏层将生成一些激活 我把它称为 A 上标方括号 1 所以是这第一个单位或节点 生成一个 A 值上标方括号 1 下标 1 第二个节点我们生成一个值 是下标 2 如此类推 所以,上标方括号1 这是个四维向量的或如你想的 Python因为 4.1 的矩阵是普通向量,像这样 它是四维的因为在这种情况下我们有四个节点 或在这个隐藏层里的四个隐藏单位 最后,在输出层再生成一些 A2 值 这是一个实数 所以 ŷ 就承接了 A2 的值 所以这里的回归我们有 ŷ 等于 a 而立法回归我们只有一个输出层 所以我们不使用上标方括号 但在新网络,我们现在要使用上标方括号 来明确指出其来自哪一层 关于符号约定有个趣的事情 就是这儿看到这个网络是一个两层的神经网络 原因就是在神经网络计算分层时 我们不包刮输入层 所以隐藏层是第一层而输出层是第二层 在我们的符号约定中,输入层是零 所以就算这个神经网络有三层 输入层、隐藏层、和输出层 在惯例上,如果你读研究论文或 在这课其它地方,你会发现这个神经网络是 两层神经网络,因为我们不包刮输入层为正式层 最后,我们去了解隐藏层和 输出层的相关参数 所以隐藏层会有相关参数 w 和 b 那我要写上标方括号 1 来表示这些 是隐藏层的相关参数 稍后会看到,w将是一个4乘3矩阵 而在这个例子中,b将是一个4乘1向量 这里的第一个坐标四来自于 隐藏层的四个节点和一个层 而三个来自三个输入功能 稍后我们再谈谈这些矩阵的维数 那时可能比较容易了解 但是在输出层的一些相关参数 w 上标方括号 2 和 b 上标方括号 2 而它们的维数各别是 1乘4 和 1乘1 而这个 1乘4 是因为隐藏层有四个隐藏单位 输出层已经只是一个单位 在后面的视频中我们会复习 这些矩阵和向量的维数 刚才看到神经网络的两个分层 那是一个隐藏层的神经网络 在下一个视频中, 让我们深入了解神经网络的运算方式 那就是神经网络的输入 x 通过运算方式而得到输出的 ŷ GTC字幕组翻译