• <em id="pai5d"></em><sup id="pai5d"></sup>
    
    

    <small id="pai5d"><rp id="pai5d"></rp></small>
    <option id="pai5d"></option>

    
    
  • <sup id="pai5d"></sup>
    <em id="pai5d"><label id="pai5d"></label></em>

  • <s id="pai5d"></s>
    當前位置 : 首頁(yè)  圖書(shū) 正文

    深度學(xué)習基礎(影印版)簡(jiǎn)介,目錄書(shū)摘

    2020-12-11 14:04 來(lái)源:京東 作者:京東
    深度學(xué)習基礎
    深度學(xué)習基礎(影印版)
    暫無(wú)報價(jià)
    400+評論 100%好評
    內容簡(jiǎn)介:Google、微軟和Facebook等公司正在積極發(fā)展內部的深度學(xué)習團隊。對于我們而言,深度學(xué)習仍然是一門(mén)非常復雜和難以掌握的課題。如果你熟悉Python,并且具有微積分背景,以及對于機器學(xué)習的基本理解,本書(shū)將幫助你開(kāi)啟深度學(xué)習之旅。

    * 檢驗機器學(xué)習和神經(jīng)網(wǎng)絡(luò )基礎
    * 學(xué)習如何訓練前饋神經(jīng)網(wǎng)絡(luò )
    * 使用TensorFlow實(shí)現你的第1個(gè)神經(jīng)網(wǎng)絡(luò )
    * 管理隨著(zhù)網(wǎng)絡(luò )加深帶來(lái)的各種問(wèn)題
    * 建立神經(jīng)網(wǎng)絡(luò )用于分析復雜圖像
    * 使用自動(dòng)編碼器實(shí)現有效的維度縮減
    * 深入了解從序列分析到語(yǔ)言檢驗
    * 掌握強化學(xué)習基礎

    作者簡(jiǎn)介:

    Nikhil Buduma是Remedy的聯(lián)合創(chuàng )始人和首席科學(xué)家,該公司位于美國舊金山,旨在建立數據驅動(dòng)為主的健康管理新系統。16歲時(shí),他在圣何塞州立大學(xué)管理過(guò)一個(gè)藥物發(fā)現實(shí)驗室,為資源受限的社區研發(fā)新穎而低成本的篩查方法。到了19歲,他是國際生物學(xué)奧林匹克競賽的兩枚金牌獲得者。隨后加入MIT,在那里他專(zhuān)注于開(kāi)發(fā)大規模數據系統以影響健康服務(wù)、精神健康和醫藥研究。在MIT,他聯(lián)合創(chuàng )立了Lean On Me,一家全國性的非營(yíng)利組織,提供匿名短信熱線(xiàn)在大學(xué)校園內實(shí)現有效的一對一支持,并運用數據來(lái)積極影響身心健康。如今,Nikhil通過(guò)他的風(fēng)投基金Q Venture Partners投資硬科技和數據公司,還為Milwaukee Brewers籃球隊管理一支數據分析團隊。


    本書(shū)內容貢獻者Nick Locascio是一位深度學(xué)習顧問(wèn)、作家和研究者。Nick在MIT的Regina Barzilay實(shí)驗室獲得了本科和工程碩士學(xué)位,專(zhuān)業(yè)從事NLP和計算機視覺(jué)研究。他曾工作于多個(gè)項目,從訓練神經(jīng)網(wǎng)絡(luò )到編寫(xiě)自然語(yǔ)言提示,甚至與MGH Radiology部門(mén)合作將深度學(xué)習應用于乳腺X線(xiàn)攝影的醫學(xué)輔助診斷。Nick的工作已被MIT News和CNBC報道。在其閑暇之余,Nick為財富500強企業(yè)提供私人的深度學(xué)習咨詢(xún)服務(wù)。他還聯(lián)合創(chuàng )立了標志性的MIT課程6.S191 Intro to Deep Learning,教過(guò)300余名學(xué)生,聽(tīng)眾包括博士后和教授。

    目錄:Preface
    1. The Neural Network
    Building Intelligent Machines
    The Limits of Traditional Computer Programs
    The Mechanics of Machine Learning
    The Neuron
    Expressing Linear Perceptrons as Neurons
    Feed-Forward Neural Networks
    Linear Neurons and Their Limitations
    Sigmoid, Tanh, and ReLU Neurons
    Softmax Output Layers
    Looking Forward

    2. Training Feed-Forward Neural Networks
    The Fast-Food Problem
    Gradient Descent
    The Delta Rule and Learning Rates
    Gradient Descent with Sigmoidal Neurons
    The Backpropagation Algorithm
    Stochastic and Minibatch Gradient Descent
    Test Sets, Validation Sets, and Overfitting
    Preventing Overfitting in Deep Neural Networks
    Summary

    3. Implementing Neural Networks in TensorFIow
    What Is TensorFlow?
    How Does TensorFlow Compare to Alternatives?
    Installing TensorFlow
    Creating and Manipulating TensorFlow Variables
    TensorFlow Operations
    Placeholder Tensors
    Sessions in TensorFlow
    Navigating Variable Scopes and Sharing Variables
    Managing Models over the CPU and GPU
    Specifying the Logistic Regression Model in TensorFlow
    Logging and Training the Logistic Regression Model
    Leveraging TensorBoard to Visualize Computation Graphs and Learning
    Building a Multilayer Model for MNIST in TensorFlow
    Summary

    4. Beyond Gradient Descent
    The Challenges with Gradient Descent
    Local Minima in the Error Surfaces of Deep Networks
    Model Identifiability
    How Pesky Are Spurious Local Minima in Deep Networks?
    Flat Regions in the Error Surface
    When the Gradient Points in the Wrong Direction
    Momentum-Based Optimization
    A Brief View of Second-Order Methods
    Learning Rate Adaptation
    AdaGrad——Accumulating Historical Gradients
    RMSProp——Exponentially Weighted Moving Average of Gradients
    Adam——Combining Momentum and RMSProp
    The Philosophy Behind Optimizer Selection
    Summary

    5. Convolutional Neural Networks
    Neurons in Human Vision
    The Shortcomings of Feature Selection
    Vanilla Deep Neural Networks Don't Scale
    Filters and Feature Maps
    Full Description of the Convolutional Layer
    Max Pooling
    Full Architectural Description of Convolution Networks
    Closing the Loop on MNIST with Convolutional Networks
    Image Preprocessing Pipelines Enable More Robust Models
    Accelerating Training with Batch Normalization
    Building a Convolutional Network for CIFAR-10
    Visualizing Learning in Convolutional Networks
    Leveraging Convolutional Filters to Replicate Artistic Styles
    Learning Convolutional Filters for Other Problem Domains
    Summary

    6. Embedding and Representation Learning
    Learning Lower-Dimensional Representations
    Principal Component Analysis
    Motivating the Autoencoder Architecture
    Implementing an Autoencoder in TensorFlow
    Denoising to Force Robust Representations
    Sparsity in Autoencoders
    When Context Is More Informative than the Input Vector
    The Word2Vec Framework
    Implementing the Skip-Gram Architecture
    Summary

    7. Models for Sequence Analysis
    Analyzing Variable-Length Inputs
    Tackling seq2seq with Neural N-Grams
    Implementing a Part-of-Speech Tagger
    Dependency Parsing and SyntaxNet
    Beam Search and Global Normalization
    A Case for Stateful Deep Learning Models
    Recurrent Neural Networks
    The Challenges with Vanishing Gradients
    Long Short-Term Memory (LSTM) Units
    TensorFlow Primitives for RNN Models
    Implementing a Sentiment Analysis Model
    Solving seq2seq Tasks with Recurrent Neural Networks
    Augmenting Recurrent Networks with Attention
    Dissecting a Neural Translation Network
    Summary

    8. Memory Augmented Neural Networks
    Neural Turing Machines
    Attention-Based Memory Access
    NTM Memory Addressing Mechanisms
    Differentiable Neural Computers
    Interference-Free Writing in DNCs
    DNC Memory Reuse
    Temporal Linking of DNC Writes
    Understanding the DNC Read Head
    The DNC Controller Network
    Visualizing the DNC in Action
    Implementing the DNC in TensorFlow
    Teaching a DNC to Read and Comprehend
    Summary

    9. Deep Reinforcement Learning
    Deep Reinforcement Learning Masters Atari Games
    What Is Reinforcement Learning?
    Markov Decision Processes (MDP)
    Policy
    Future Return
    Discounted Future Return
    Explore Versus Exploit
    Policy Versus Value Learning
    Policy Learning via Policy Gradients
    Pole-Cart with Policy Gradients
    OpenAI Gym
    Creating an Agent
    Building the Model and Optimizer
    Sampling Actions
    Keeping Track of History
    Policy Gradient Main Function
    PGAgent Performance on Pole-Cart
    Q-Learning and Deep Q-Networks
    The Bellman Equation
    Issues with Value Iteration
    Approximating the Q-Function
    Deep Q-Network (DQN)
    Training DQN
    Learning Stability
    Target Q-Network
    Experience Replay
    From Q-Function to Policy
    DQN and the Markov Assumption
    DQN's Solution to the Markov Assumption
    Playing Breakout wth DQN
    Building Our Architecture
    Stacking Frames
    Setting Up Training Operations
    Updating Our Target Q-Network
    Implementing Experience Replay
    DQN Main Loop
    DQNAgent Results on Breakout
    Improving and Moving Beyond DQN
    Deep Recurrent Q-Networks (DRQN)
    Asynchronous Advantage Actor-Critic Agent (A3C)
    UNsupervised REinforcement and Auxiliary Learning (UNREAL)
    Summary
    Index
    相關(guān)商品
    熱門(mén)推薦文章
    相關(guān)優(yōu)評榜
    品類(lèi)齊全,輕松購物 多倉直發(fā),極速配送 正品行貨,精致服務(wù) 天天低價(jià),暢選無(wú)憂(yōu)
    購物指南
    購物流程
    會(huì )員介紹
    生活旅行/團購
    常見(jiàn)問(wèn)題
    大家電
    聯(lián)系客服
    配送方式
    上門(mén)自提
    211限時(shí)達
    配送服務(wù)查詢(xún)
    配送費收取標準
    海外配送
    支付方式
    貨到付款
    在線(xiàn)支付
    分期付款
    郵局匯款
    公司轉賬
    售后服務(wù)
    售后政策
    價(jià)格保護
    退款說(shuō)明
    返修/退換貨
    取消訂單
    特色服務(wù)
    奪寶島
    DIY裝機
    延保服務(wù)
    京東E卡
    京東通信
    京東JD+
    亚洲精品乱码久久久97_国产伦子一区二区三区_久久99精品久久久欧美_天天看片永久av影城网页
  • <em id="pai5d"></em><sup id="pai5d"></sup>
    
    

    <small id="pai5d"><rp id="pai5d"></rp></small>
    <option id="pai5d"></option>

    
    
  • <sup id="pai5d"></sup>
    <em id="pai5d"><label id="pai5d"></label></em>

  • <s id="pai5d"></s>