WHERE FUTURE BEGINS
  • ṢELF ḌEEP ḶEARNING
  • LSE MBA Essentials - The London School of Economics
    • Leading with influence
    • Economics for managers
    • Competitive strategy
    • Corporate strategy
    • Financial accounting
    • Management accounting
    • Analysing financial statements
    • In the mind of the manager
    • Nudging behaviour
    • Organisational culture as a leadership tool
  • Business Foundations Specialization - Wharton Online
    • Introduction to Marketing
      • BRANDING: Marketing Strategy and Brand Positioning
      • Marketing 101: Building Strong Brands Part I
      • Marketing 101: Building Strong Brands Part II
      • Strategic Marketing
      • Segmentation and Targeting
      • Brand Positioning
      • Brand Mantra: The Elevator Speech
      • Experiential Branding
      • CUSTOMER CENTRICITY: The Limits of Product-Centric Thinking
      • Cracks in the Product-Centric Approach
      • Data-Driven Business Models
      • Three Cheers for Direct Marketing
      • Which Firms Are Customer Centric?
      • What is Customer Centricity?
      • Living in a Customer-Centric World
      • More Reflections on Customer CentricityPrev
      • Questions on Customer Centricity
      • GO TO MARKET STRATEGIES: Online-Offline Interaction
      • Online/Offline Competition
      • Friction
      • The Long Tail Theory
      • Preference Isolation
      • How Internet Retailing Startups Grow
      • Customers and Digital Marketing
      • Influence and How Information Spreads
      • Pricing Strategies
      • The 7M
      • BRANDING: Effective Brand Communications Strategies and Repositioning Strategies
      • Brand Messaging & Communication
      • Brand Elements: Choosing a Brand Name
      • Brand Elements: Color & Taglines
      • Brand Elements: Packaging
      • Brand Elements: Persuasion
      • Repositioning a Brand
    • Introduction to Financial Accounting
      • 1.1.1: Financial Reporting Overview
      • 1.1.2: Financial Reporting Example
    • Managing Social and Human Capital
      • Professor Cappelli and Professor Useem Introductions
    • Introduction to Corporate Finance
      • Time Value of Money
      • Intuition and Discounting
      • Compounding
      • Useful Shortcuts
      • Taxes
      • Inflation
      • APR and EAR
      • Term Structure
      • Discounted Cash Flow: Decision Making
      • Discounted Cash Flow Analysis
      • Forecast Drivers
      • Forecasting Free Cash Flow
      • Decision Criteria
      • Sensitivity Analysis
      • Return on Investment
    • Introduction to Operations Management
    • Wharton Business Foundations Capstone
  • Artificial Intelligence Career Program - deeplearning.ai
    • Machine Learning
      • Introduction to Machine Learning
      • Supervised Learning
      • Unsupervised Learning
      • Model Representation - Linear Regression
      • Cost Function
      • Gradient Descent
      • Gradient Descent For Linear Regression
      • Linear Algebra
    • Deep Learning
    • Neutral Networks and Deep Learning
      • Introduction to Deep Learning
      • What is a neural network?
      • Supervised Learning with Neural Networks
      • Why is Deep Learning taking off?
      • About this Course
      • Binary Classification
      • Logistic Regression
      • Gradient Descent
      • Derivatives
      • Computation graph
      • Derivatives with a Computation Graph
      • Logistic Regression Gradient Descent
      • Vectorization
      • Vectorizing Logistic Regression
      • Vectorizing Logistic Regression's Gradient Output
      • Broadcasting in Python
      • A note on python/numpy vectors
      • Explanation of logistic regression cost function (optional)
      • Neural Networks Overview
      • Neural Network Representation
      • Computing a Neural Network's Output
      • Vectorizing across multiple examples
      • Activation functions
      • Derivatives of activation functions
      • Gradient descent for Neural Networks
      • Backpropagation intuition (optional)
      • Random Initialization
      • Deep L-layer neural network
      • Forward Propagation in a Deep Network
      • Getting your matrix dimensions right
      • Why deep representations?
      • Building blocks of deep neural networks
      • Forward and Backward Propagation
      • Parameters vs Hyperparameters
      • What does this have to do with the brain?
    • Convolutional Neural Networks
      • Computer Vision
      • Edge Detection Example
      • Padding
      • Strided Convolutions
      • Convolutions Over Volume
      • One Layer of a Convolutional Network
      • Simple Convolutional Network Example
      • Pooling Layers
      • CNN Example - Fully Connected Layers
      • Why Convolutions?
    • Neural Network Theory [ETH]
    • Natural Language Processing
    • Computer Vision
  • IBM Data Science Professional Certificate
    • What is Data Science?
    • Open Source tools for Data Science
    • Data Science Methodology
    • Python for Data Science and AI
    • Databases and SQL for Data Science
    • Data Analysis with Python
    • Data Visualization with Python
    • Machine Learning with Python
    • Applied Data Science Capstone
  • Data Analytics
    • Python for Data Analysis
    • Data Structure and Algorithms
  • Programming Language
    • Python
    • R
    • SQL
    • C++
    • C
    • Java
    • HTML
  • 机器学习工程师
  • 商业数据分析
Powered by GitBook
On this page

Was this helpful?

  1. Artificial Intelligence Career Program - deeplearning.ai
  2. Neutral Networks and Deep Learning

Neural Network Representation

PreviousNeural Networks OverviewNextComputing a Neural Network's Output

Last updated 5 years ago

Was this helpful?

之前你见过我画的一些神经网络的图 在这个视频中让我们具体讨论这些图的内容 换句话说 就是那些神经网络究竟代表着什么 我们从集中于神经网络的 单隐藏层案例开始 这是一个神经网络的图 让我们给这图里的几个构件一些名字 这里有输入功能 x1、x2、x3 垂直堆叠 也就是神经网络输入层 所以不足为奇的,这包含了神经网络的输入 然后这里是另一层的圈子 也就是神经网络隐藏层 我待回会解释‘隐藏’的意思 而这里的最后一层,就只是一个节点 这一节点层称为输出层 并负责生成的估計值 ŷ 在神经网络中,带有监督学习的 训练集包含输入的 x 值,以及输出 y 值 所以术语‘隐藏层’是指在训练集中 中间这一层节点的真实值并没有所观察 这就是你看不到他们为什么应该在训练集里 你看到的输入是什么 你看到输出的是什么 但训练集中间隐藏层的东西是看不见的 所以这解释‘隐藏’的意思 因为你训练集中看不见这些 让我们介绍这些符号 之前说过,我们用向量 X 来表示输入功能和 替代符号 的输入值就是 A 上标方括号 0 A这个词也代表激活 它指的是不同层次的值 从神经网络的各层传递到下一层 所以,输入层把 x 值传递到隐藏层 这就是输入层 A 上标方 0 的激活 下一层的隐藏层将生成一些激活 我把它称为 A 上标方括号 1 所以是这第一个单位或节点 生成一个 A 值上标方括号 1 下标 1 第二个节点我们生成一个值 是下标 2 如此类推 所以,上标方括号1 这是个四维向量的或如你想的 Python因为 4.1 的矩阵是普通向量,像这样 它是四维的因为在这种情况下我们有四个节点 或在这个隐藏层里的四个隐藏单位 最后,在输出层再生成一些 A2 值 这是一个实数 所以 ŷ 就承接了 A2 的值 所以这里的回归我们有 ŷ 等于 a 而立法回归我们只有一个输出层 所以我们不使用上标方括号 但在新网络,我们现在要使用上标方括号 来明确指出其来自哪一层 关于符号约定有个趣的事情 就是这儿看到这个网络是一个两层的神经网络 原因就是在神经网络计算分层时 我们不包刮输入层 所以隐藏层是第一层而输出层是第二层 在我们的符号约定中,输入层是零 所以就算这个神经网络有三层 输入层、隐藏层、和输出层 在惯例上,如果你读研究论文或 在这课其它地方,你会发现这个神经网络是 两层神经网络,因为我们不包刮输入层为正式层 最后,我们去了解隐藏层和 输出层的相关参数 所以隐藏层会有相关参数 w 和 b 那我要写上标方括号 1 来表示这些 是隐藏层的相关参数 稍后会看到,w将是一个4乘3矩阵 而在这个例子中,b将是一个4乘1向量 这里的第一个坐标四来自于 隐藏层的四个节点和一个层 而三个来自三个输入功能 稍后我们再谈谈这些矩阵的维数 那时可能比较容易了解 但是在输出层的一些相关参数 w 上标方括号 2 和 b 上标方括号 2 而它们的维数各别是 1乘4 和 1乘1 而这个 1乘4 是因为隐藏层有四个隐藏单位 输出层已经只是一个单位 在后面的视频中我们会复习 这些矩阵和向量的维数 刚才看到神经网络的两个分层 那是一个隐藏层的神经网络 在下一个视频中, 让我们深入了解神经网络的运算方式 那就是神经网络的输入 x 通过运算方式而得到输出的 ŷ GTC字幕组翻译