WHERE FUTURE BEGINS
  • ṢELF ḌEEP ḶEARNING
  • LSE MBA Essentials - The London School of Economics
    • Leading with influence
    • Economics for managers
    • Competitive strategy
    • Corporate strategy
    • Financial accounting
    • Management accounting
    • Analysing financial statements
    • In the mind of the manager
    • Nudging behaviour
    • Organisational culture as a leadership tool
  • Business Foundations Specialization - Wharton Online
    • Introduction to Marketing
      • BRANDING: Marketing Strategy and Brand Positioning
      • Marketing 101: Building Strong Brands Part I
      • Marketing 101: Building Strong Brands Part II
      • Strategic Marketing
      • Segmentation and Targeting
      • Brand Positioning
      • Brand Mantra: The Elevator Speech
      • Experiential Branding
      • CUSTOMER CENTRICITY: The Limits of Product-Centric Thinking
      • Cracks in the Product-Centric Approach
      • Data-Driven Business Models
      • Three Cheers for Direct Marketing
      • Which Firms Are Customer Centric?
      • What is Customer Centricity?
      • Living in a Customer-Centric World
      • More Reflections on Customer CentricityPrev
      • Questions on Customer Centricity
      • GO TO MARKET STRATEGIES: Online-Offline Interaction
      • Online/Offline Competition
      • Friction
      • The Long Tail Theory
      • Preference Isolation
      • How Internet Retailing Startups Grow
      • Customers and Digital Marketing
      • Influence and How Information Spreads
      • Pricing Strategies
      • The 7M
      • BRANDING: Effective Brand Communications Strategies and Repositioning Strategies
      • Brand Messaging & Communication
      • Brand Elements: Choosing a Brand Name
      • Brand Elements: Color & Taglines
      • Brand Elements: Packaging
      • Brand Elements: Persuasion
      • Repositioning a Brand
    • Introduction to Financial Accounting
      • 1.1.1: Financial Reporting Overview
      • 1.1.2: Financial Reporting Example
    • Managing Social and Human Capital
      • Professor Cappelli and Professor Useem Introductions
    • Introduction to Corporate Finance
      • Time Value of Money
      • Intuition and Discounting
      • Compounding
      • Useful Shortcuts
      • Taxes
      • Inflation
      • APR and EAR
      • Term Structure
      • Discounted Cash Flow: Decision Making
      • Discounted Cash Flow Analysis
      • Forecast Drivers
      • Forecasting Free Cash Flow
      • Decision Criteria
      • Sensitivity Analysis
      • Return on Investment
    • Introduction to Operations Management
    • Wharton Business Foundations Capstone
  • Artificial Intelligence Career Program - deeplearning.ai
    • Machine Learning
      • Introduction to Machine Learning
      • Supervised Learning
      • Unsupervised Learning
      • Model Representation - Linear Regression
      • Cost Function
      • Gradient Descent
      • Gradient Descent For Linear Regression
      • Linear Algebra
    • Deep Learning
    • Neutral Networks and Deep Learning
      • Introduction to Deep Learning
      • What is a neural network?
      • Supervised Learning with Neural Networks
      • Why is Deep Learning taking off?
      • About this Course
      • Binary Classification
      • Logistic Regression
      • Gradient Descent
      • Derivatives
      • Computation graph
      • Derivatives with a Computation Graph
      • Logistic Regression Gradient Descent
      • Vectorization
      • Vectorizing Logistic Regression
      • Vectorizing Logistic Regression's Gradient Output
      • Broadcasting in Python
      • A note on python/numpy vectors
      • Explanation of logistic regression cost function (optional)
      • Neural Networks Overview
      • Neural Network Representation
      • Computing a Neural Network's Output
      • Vectorizing across multiple examples
      • Activation functions
      • Derivatives of activation functions
      • Gradient descent for Neural Networks
      • Backpropagation intuition (optional)
      • Random Initialization
      • Deep L-layer neural network
      • Forward Propagation in a Deep Network
      • Getting your matrix dimensions right
      • Why deep representations?
      • Building blocks of deep neural networks
      • Forward and Backward Propagation
      • Parameters vs Hyperparameters
      • What does this have to do with the brain?
    • Convolutional Neural Networks
      • Computer Vision
      • Edge Detection Example
      • Padding
      • Strided Convolutions
      • Convolutions Over Volume
      • One Layer of a Convolutional Network
      • Simple Convolutional Network Example
      • Pooling Layers
      • CNN Example - Fully Connected Layers
      • Why Convolutions?
    • Neural Network Theory [ETH]
    • Natural Language Processing
    • Computer Vision
  • IBM Data Science Professional Certificate
    • What is Data Science?
    • Open Source tools for Data Science
    • Data Science Methodology
    • Python for Data Science and AI
    • Databases and SQL for Data Science
    • Data Analysis with Python
    • Data Visualization with Python
    • Machine Learning with Python
    • Applied Data Science Capstone
  • Data Analytics
    • Python for Data Analysis
    • Data Structure and Algorithms
  • Programming Language
    • Python
    • R
    • SQL
    • C++
    • C
    • Java
    • HTML
  • 机器学习工程师
  • 商业数据分析
Powered by GitBook
On this page

Was this helpful?

  1. Artificial Intelligence Career Program - deeplearning.ai
  2. Neutral Networks and Deep Learning

Deep L-layer neural network

PreviousRandom InitializationNextForward Propagation in a Deep Network

Last updated 5 years ago

Was this helpful?

欢迎大家来学习第四周的课程 在之前的课程中 我们学习了单隐藏层神经网络中的 前向传播和反向传播 逻辑回归 我们还学习了向量化 也了解了对权重参数进行随机初始化的重要性 如果你完成了前几周的作业 那你应该已经 实现并亲眼看到了某些理念实现后的效果 迄今为止 我们已经学过实现深度神经网络需要的大部分知识 本周的任务是 把这些理念组合起来 并利用它们实现你自己的深度神经网络 完成本周的习题所需要的时间会比较长 可能要多花一点心思 我会压缩 本周的视频课程 让你观看视频的时间稍微短一些 这样你就能有更多的时间去完成编程作业 我希望这个作业可以加深你对神经网络的理解

并能得到一个让你引以为豪的深度学习模型 到底什么是深度神经网络呢? 我们已经见过这个逻辑回归的结构图了 也已经学习过单隐藏层的神经网络结构 先来看一个例子 这里有一个双隐层的神经网络模型 还有一个含有5个隐藏层的神经网络模型 我们一般会说逻辑回归 是非常“浅”的模型 而右下角这个模型的层数更深 浅和深 只是程度的区别 这是单隐藏层的神经网络 也就是2层神经网络 要记住 当我们计算神经网络的层数时 不包括输入层 我们只计算隐藏层和输出层 所以这是2层神经网络 它仍然比较浅 但比逻辑回归要深一点 从技术上来说 逻辑回归是单层神经网络 但是过去几年 在人工智能领域 机器学习社区 认识到有一些函数 只有很深的神经网络才能学习 而比较浅的网络模型无法做到这点 虽然对于任何特定的问题来说 可能很难事先得知 你需要多深的网络 所以一般我们会先尝试逻辑回归 然后再尝试 一个 两个隐藏层 可以把隐藏层的数量作为 另一个超参数 你可以尝试很多不同的值 然后通过交叉验证或者 开发集进行评估 之后我们会深入讨论 现在我们来看看 描述深度网络使用的符号 这是一 二 三 四 四层神经网络

有三个隐藏层 隐藏层中 的单元数量是5 5 3 然后有一个输出单元 我们使用大写的L来表示 神经网络中的层数 这里 L = 4 即层数为4 我们用n上标小写l来表示 第l层上的单元数 让我们来标上序号 输入层是第0层 这是第1层 这是第2层 这是第3层 这是第4层 然后我们可以得出 n[1] 的标记是这样的 第一个隐藏层这儿 n[1]=5 因为在这儿有5个隐藏单元 对于这个 我们可以写成n[2] 代表第二个隐藏层中的单元数量 也等于5 n[3] = 3 n[4] = n[L] 因为大写的L等于4 输出层的单元数为1 我们再来看看输入层 输入层n[0] = nx = 3 这就是我们用来描述不同层中单元数 的符号 对于每一层l 我们还会使用 a[l]代表第l层中的激活函数 之后我们会看到 在前向传播的场景中 你最后要计算的 激活函数g(z[l])的结果a[l] 我们也可以用层数l来对激活函数进行标注 另外 我们用W[l]来表示 计算第l层的中间值z[l]时使用的权重 类似的 b[l]表示计算z[l]时用到的偏置参数 最后 我们来总结一下所使用的符号 我们把输入特征称为x 而x同时也是第零层的激活函数 所以a[0] = x 最后一层的激活函数 a[L] = y帽 所以a[L]等于神经网络的预测输出 也就是等于预测值y帽 现在我们已经知道了 神经网络看起来是什么样的 以及在构建深度神经网络时会使用的各种符号 我知道在本节课中我们已经 介绍了很多这样的符号 如果你不经意间忘记了某个符号的含义 不用担心 我们在课程网站上公布了符号列表 你可以在那儿找到这些符号的定义 后面我会跟大家讲讲 在这种类型的网络中 前向传播究竟是什么样的 我们下节课见 翻译 | 审阅:Cousera Global Translator Community