• <em id="pai5d"></em><sup id="pai5d"></sup>
    
    

    <small id="pai5d"><rp id="pai5d"></rp></small>
    <option id="pai5d"></option>

    
    
  • <sup id="pai5d"></sup>
    <em id="pai5d"><label id="pai5d"></label></em>

  • <s id="pai5d"></s>
    當前位置 : 首頁(yè)  圖書(shū) 正文

    動(dòng)手學(xué)深度學(xué)習簡(jiǎn)介,目錄書(shū)摘

    2020-12-11 14:04 來(lái)源:京東 作者:京東
    動(dòng)手學(xué)深度學(xué)習
    動(dòng)手學(xué)深度學(xué)習
    暫無(wú)報價(jià)
    10萬(wàn)+評論 99%好評
    編輯推薦:  目前市面上有關(guān)深度學(xué)習介紹的書(shū)籍大多可分兩類(lèi),一類(lèi)側重方法介紹,另一類(lèi)側重實(shí)踐和深度學(xué)習工具的介紹。本書(shū)同時(shí)覆蓋方法和實(shí)踐。本書(shū)不僅從數學(xué)的角度闡述深度學(xué)習的技術(shù)與應用,還包含可運行的代碼,為讀者展示如何在實(shí)際中解決問(wèn)題。為了給讀者提供一種交互式的學(xué)習體驗,本書(shū)不但提供免費的教學(xué)視頻和討論區,而且提供可運行的Jupyter記事本文件,充分利用Jupyter記事本能將文字、代碼、公式和圖像統一起來(lái)的優(yōu)勢。這樣不僅直接將數學(xué)公式對應成實(shí)際代碼,而且可以修改代碼、觀(guān)察結果并及時(shí)獲取經(jīng)驗,從而帶給讀者全新的、交互式的深度學(xué)習的學(xué)習體驗。
      本書(shū)面向希望了解深度學(xué)習,特別是對實(shí)際使用深度學(xué)習感興趣的大學(xué)生、工程師和研究人員。本書(shū)不要求讀者有任何深度學(xué)習或者機器學(xué)習的背景知識,讀者只需具備基本的數學(xué)和編程知識,如基礎的線(xiàn)性代數、微分、概率及Python編程知識。本書(shū)的附錄中提供了書(shū)中涉及的主要數學(xué)知識,供讀者參考。
      本書(shū)的英文版Dive into Deep Learning是加州大學(xué)伯克利分校2019年春學(xué)期“Introduction to Deep Learning”(深度學(xué)習導論)課程的教材。截至2019年春學(xué)期,本書(shū)中的內容已被全球15 所知名大學(xué)用于教學(xué)。本書(shū)的學(xué)習社區、免費教學(xué)資源(課件、教學(xué)視頻、更多習題等),以及用于本書(shū)學(xué)習和教學(xué)的免費計算資源(僅限學(xué)生和老師)的申請方法在本書(shū)配套網(wǎng)站zh.d2l.ai上發(fā)布。讀者在閱讀本書(shū)的過(guò)程中,如果對書(shū)中某節內容有疑惑,也可以?huà)咭粧邥?shū)中對應的二維碼尋求幫助。

    內容簡(jiǎn)介:  本書(shū)旨在向讀者交付有關(guān)深度學(xué)習的交互式學(xué)習體驗。書(shū)中不僅闡述深度學(xué)習的算法原理,還演示它們的實(shí)現和運行。與傳統圖書(shū)不同,本書(shū)的每一節都是一個(gè)可以下載并運行的 Jupyter記事本,它將文字、公式、圖像、代碼和運行結果結合在了一起。此外,讀者還可以訪(fǎng)問(wèn)并參與書(shū)中內容的討論。
      全書(shū)的內容分為3個(gè)部分:第一部分介紹深度學(xué)習的背景,提供預備知識,并包括深度學(xué)習基礎的概念和技術(shù);第二部分描述深度學(xué)習計算的重要組成部分,還解釋近年來(lái)令深度學(xué)習在多個(gè)領(lǐng)域大獲成功的卷積神經(jīng)網(wǎng)絡(luò )和循環(huán)神經(jīng)網(wǎng)絡(luò );第三部分評價(jià)優(yōu)化算法,檢驗影響深度學(xué)習計算性能的重要因素,并分別列舉深度學(xué)習在計算機視覺(jué)和自然語(yǔ)言處理中的重要應用。
      本書(shū)同時(shí)覆蓋深度學(xué)習的方法和實(shí)踐,主要面向在校大學(xué)生、技術(shù)人員和研究人員。閱讀本書(shū)需要讀者了解基本的Python編程或附錄中描述的線(xiàn)性代數、微分和概率基礎。
    作者簡(jiǎn)介:  阿斯頓.張(Aston Zhang),
      美亞應用科學(xué)家,美國伊利諾伊大學(xué)香檳分校計算機科學(xué)博士,統計學(xué)和計算機科學(xué)雙碩士。他專(zhuān)注于機器學(xué)習的研究,并在數個(gè)頂ji學(xué)術(shù)會(huì )議發(fā)表過(guò)論文。他擔任過(guò)NeurIPS、ICML、KDD、WWW、WSDM、SIGIR、AAAI 等學(xué)術(shù)會(huì )議的程序委員或審稿人以及Frontiers in Big Data 期刊的編委。

      李沐(Mu Li),
      美亞首席科學(xué)家(Principal Scientist),加州大學(xué)伯克利分??妥斫淌?,美國卡內基梅隆大學(xué)計算機系博士。他專(zhuān)注于分布式系統和機器學(xué)習算法的研究。他是深度學(xué)習框架MXNet 的作者之一。他曾任機器學(xué)習創(chuàng )業(yè)公司Marianas Labs 的CTO 和百度深度學(xué)習研究院的主任研發(fā)架構師。他在理論、機器學(xué)習、應用和操作系統等多個(gè)領(lǐng)域的頂ji學(xué)術(shù)會(huì )議(包括FOCS、ICML、NeurIPS、AISTATS、CVPR、KDD 、WSDM、OSDI)上發(fā)表過(guò)論文。

      扎卡里.C. 立頓(Zachary C. Lipton),
      美亞應用科學(xué)家,美國卡內基梅隆大學(xué)助理教授,美國加州大學(xué)圣迭戈分校博士。他專(zhuān)注于機器學(xué)習算法及其社會(huì )影響的研究,特別是在時(shí)序數據與序列決策上的深度學(xué)習。這類(lèi)工作有著(zhù)廣泛的應用場(chǎng)景,包括醫療診斷、對話(huà)系統和產(chǎn)品推薦。他創(chuàng )立了博客“Approximately Correct”(approximatelycorrect.com)。

      亞歷山大.J. 斯莫拉(Alexander J. Smola),
      美亞副總裁/ 杰出科學(xué)家,德國柏林工業(yè)大學(xué)計算機科學(xué)博士。他曾在澳大利亞國立大學(xué)、美國加州大學(xué)伯克利分校和卡內基梅隆大學(xué)任教。他發(fā)表了超過(guò)200 篇學(xué)術(shù)論文,并著(zhù)有5 本書(shū),其論文及書(shū)被引用超過(guò)10 萬(wàn)次。他的研究興趣包括深度學(xué)習、貝葉斯非參數、核方法、統計建模和可擴展算法。
    目錄:

    對本書(shū)的贊譽(yù)

    前言

    如何使用本書(shū)

    資源與支持

    主要符號表

    第1章深度學(xué)習簡(jiǎn)介1

    1.1起源2

    1.2發(fā)展4

    1.3成功案例6

    1.4特點(diǎn)7

    小結8

    練習8

    第2章預備知識9

    2.1獲取和運行本書(shū)的代碼9

    2.1.1獲取代碼并安裝運行環(huán)境9

    2.1.2更新代碼和運行環(huán)境11

    2.1.3使用GPU版的MXNet11

    小結12

    練習12

    2.2數據操作12

    2.2.1創(chuàng )建NDArray12

    2.2.2運算14

    2.2.3廣播機制16

    2.2.4索引17

    2.2.5運算的內存開(kāi)銷(xiāo)17

    2.2.6NDArray和NumPy相互變換18

    小結19

    練習19

    2.3自動(dòng)求梯度19

    2.3.1簡(jiǎn)單例子19

    2.3.2訓練模式和預測模式20

    2.3.3對Python控制流求梯度20

    小結21

    練習21

    2.4查閱文檔21

    2.4.1查找模塊里的所有函數和類(lèi)21

    2.4.2查找特定函數和類(lèi)的使用22

    2.4.3在MXNet網(wǎng)站上查閱23

    小結24

    練習24

    第3章深度學(xué)習基礎25

    3.1線(xiàn)性回歸25

    3.1.1線(xiàn)性回歸的基本要素25

    3.1.2線(xiàn)性回歸的表示方法28

    小結30

    練習30

    3.2線(xiàn)性回歸的從零開(kāi)始實(shí)現30

    3.2.1生成數據集30

    3.2.2讀取數據集32

    3.2.3初始化模型參數32

    3.2.4定義模型33

    3.2.5定義損失函數33

    3.2.6定義優(yōu)化算法33

    3.2.7訓練模型33

    小結34

    練習34

    3.3線(xiàn)性回歸的簡(jiǎn)潔實(shí)現35

    3.3.1生成數據集35

    3.3.2讀取數據集35

    3.3.3定義模型36

    3.3.4初始化模型參數36

    3.3.5定義損失函數37

    3.3.6定義優(yōu)化算法37

    3.3.7訓練模型37

    小結38

    練習38

    3.4softmax回歸38

    3.4.1分類(lèi)問(wèn)題38

    3.4.2softmax回歸模型39

    3.4.3單樣本分類(lèi)的矢量計算表達式40

    3.4.4小批量樣本分類(lèi)的矢量計算表達式40

    3.4.5交叉熵損失函數41

    3.4.6模型預測及評價(jià)42

    小結42

    練習42

    3.5圖像分類(lèi)數據集(Fashion-MNIST)42

    3.5.1獲取數據集42

    3.5.2讀取小批量44

    小結45

    練習45

    3.6softmax回歸的從零開(kāi)始實(shí)現45

    3.6.1讀取數據集45

    3.6.2初始化模型參數45

    3.6.3實(shí)現softmax運算46

    3.6.4定義模型46

    3.6.5定義損失函數47

    3.6.6計算分類(lèi)準確率47

    3.6.7訓練模型48

    3.6.8預測48

    小結49

    練習49

    3.7softmax回歸的簡(jiǎn)潔實(shí)現49

    3.7.1讀取數據集49

    3.7.2定義和初始化模型50

    3.7.3softmax和交叉熵損失函數50

    3.7.4定義優(yōu)化算法50

    3.7.5訓練模型50

    小結50

    練習50

    3.8多層感知機51

    3.8.1隱藏層51

    3.8.2激活函數52

    3.8.3多層感知機55

    小結55

    練習55

    3.9多層感知機的從零開(kāi)始實(shí)現56

    3.9.1讀取數據集56

    3.9.2定義模型參數56

    3.9.3定義激活函數56

    3.9.4定義模型56

    3.9.5定義損失函數57

    3.9.6訓練模型57

    小結57

    練習57

    3.10多層感知機的簡(jiǎn)潔實(shí)現57

    3.10.1定義模型58

    3.10.2訓練模型58

    小結58

    練習58

    3.11模型選擇、欠擬合和過(guò)擬合58

    3.11.1訓練誤差和泛化誤差59

    3.11.2模型選擇59

    3.11.3欠擬合和過(guò)擬合60

    3.11.4多項式函數擬合實(shí)驗61

    小結65

    練習65

    3.12權重衰減65

    3.12.1方法65

    3.12.2高維線(xiàn)性回歸實(shí)驗66

    3.12.3從零開(kāi)始實(shí)現66

    3.12.4簡(jiǎn)潔實(shí)現68

    小結70

    練習70

    3.13丟棄法70

    3.13.1方法70

    3.13.2從零開(kāi)始實(shí)現71

    3.13.3簡(jiǎn)潔實(shí)現73

    小結74

    練習74

    3.14正向傳播、反向傳播和計算圖74

    3.14.1正向傳播74

    3.14.2正向傳播的計算圖75

    3.14.3反向傳播75

    3.14.4訓練深度學(xué)習模型76

    小結77

    練習77

    3.15數值穩定性和模型初始化77

    3.15.1衰減和爆炸77

    3.15.2隨機初始化模型參數78

    小結78

    練習79

    3.16實(shí)戰Kaggle比賽:房?jì)r(jià)預測79

    3.16.1Kaggle比賽79

    3.16.2讀取數據集80

    3.16.3預處理數據集81

    3.16.4訓練模型82

    3.16.5k折交叉驗證82

    3.16.6模型選擇83

    3.16.7預測并在Kaggle提交結果84

    小結85

    練習85

    第4章深度學(xué)習計算86

    4.1模型構造86

    4.1.1繼承Block類(lèi)來(lái)構造模型86

    4.1.2Sequential類(lèi)繼承自Block類(lèi)87

    4.1.3構造復雜的模型88

    小結89

    練習90

    4.2模型參數的訪(fǎng)問(wèn)、初始化和共享90

    4.2.1訪(fǎng)問(wèn)模型參數90

    4.2.2初始化模型參數92

    4.2.3自定義初始化方法93

    4.2.4共享模型參數94

    小結94

    練習94

    4.3模型參數的延后初始化95

    4.3.1延后初始化95

    4.3.2避免延后初始化96

    小結96

    練習97

    4.4自定義層97

    4.4.1不含模型參數的自定義層97

    4.4.2含模型參數的自定義層98

    小結99

    練習99

    4.5讀取和存儲99

    4.5.1讀寫(xiě)NDArray99

    4.5.2讀寫(xiě)Gluon模型的參數100

    小結101

    練習101

    4.6GPU計算101

    4.6.1計算設備102

    4.6.2NDArray的GPU計算102

    4.6.3Gluon的GPU計算104

    小結105

    練習105

    第5章卷積神經(jīng)網(wǎng)絡(luò )106

    5.1二維卷積層106

    5.1.1二維互相關(guān)運算106

    5.1.2二維卷積層107

    5.1.3圖像中物體邊緣檢測108

    5.1.4通過(guò)數據學(xué)習核數組109

    5.1.5互相關(guān)運算和卷積運算109

    5.1.6特征圖和感受野110

    小結110

    練習110

    5.2填充和步幅111

    5.2.1填充111

    5.2.2步幅112

    小結113

    練習113

    5.3多輸入通道和多輸出通道114

    5.3.1多輸入通道114

    5.3.2多輸出通道115

    5.3.31x1卷積層116

    小結117

    練習117

    5.4池化層117

    5.4.1二維最大池化層和平均池化層117

    5.4.2填充和步幅119

    5.4.3多通道120

    小結120

    練習121

    5.5卷積神經(jīng)網(wǎng)絡(luò )(LeNet)121

    5.5.1LeNet模型121

    5.5.2訓練模型122

    小結124

    練習124

    5.6深度卷積神經(jīng)網(wǎng)絡(luò )(AlexNet)124

    5.6.1學(xué)習特征表示125

    5.6.2AlexNet126

    5.6.3讀取數據集127

    5.6.4訓練模型128

    小結128

    練習129

    5.7使用重復元素的網(wǎng)絡(luò )(VGG)129

    5.7.1VGG塊129

    5.7.2VGG網(wǎng)絡(luò )129

    5.7.3訓練模型130

    小結131

    練習131

    5.8網(wǎng)絡(luò )中的網(wǎng)絡(luò )(NiN)131

    5.8.1NiN塊131

    5.8.2NiN模型132

    5.8.3訓練模型133

    小結134

    練習134

    5.9含并行連結的網(wǎng)絡(luò )(GoogLeNet)134

    5.9.1Inception塊134

    5.9.2GoogLeNet模型135

    5.9.3訓練模型137

    小結137

    練習137

    5.10批量歸一化138

    5.10.1批量歸一化層138

    5.10.2從零開(kāi)始實(shí)現139

    5.10.3使用批量歸一化層的LeNet140

    5.10.4簡(jiǎn)潔實(shí)現141

    小結142

    練習142

    5.11殘差網(wǎng)絡(luò )(ResNet)143

    5.11.1殘差塊143

    5.11.2ResNet模型145

    5.11.3訓練模型146

    小結146

    練習146

    5.12稠密連接網(wǎng)絡(luò )(DenseNet)147

    5.12.1稠密塊147

    5.12.2過(guò)渡層148

    5.12.3DenseNet模型148

    5.12.4訓練模型149

    小結149

    練習149

    第6章循環(huán)神經(jīng)網(wǎng)絡(luò )150

    6.1語(yǔ)言模型150

    6.1.1語(yǔ)言模型的計算151

    6.1.2n元語(yǔ)法151

    小結152

    練習152

    6.2循環(huán)神經(jīng)網(wǎng)絡(luò )152

    6.2.1不含隱藏狀態(tài)的神經(jīng)網(wǎng)絡(luò )152

    6.2.2含隱藏狀態(tài)的循環(huán)神經(jīng)網(wǎng)絡(luò )152

    6.2.3應用:基于字符級循環(huán)神經(jīng)網(wǎng)絡(luò )的語(yǔ)言模型154

    小結155

    練習155

    6.3語(yǔ)言模型數據集(歌詞)155

    6.3.1讀取數據集155

    6.3.2建立字符索引156

    6.3.3時(shí)序數據的采樣156

    小結158

    練習159

    6.4循環(huán)神經(jīng)網(wǎng)絡(luò )的從零開(kāi)始實(shí)現159

    6.4.1one-hot向量159

    6.4.2初始化模型參數160

    6.4.3定義模型160

    6.4.4定義預測函數161

    6.4.5裁剪梯度161

    6.4.6困惑度162

    6.4.7定義模型訓練函數162

    6.4.8訓練模型并創(chuàng )作歌詞163

    小結164

    練習164

    6.5循環(huán)神經(jīng)網(wǎng)絡(luò )的簡(jiǎn)潔實(shí)現165

    6.5.1定義模型165

    6.5.2訓練模型166

    小結168

    練習168

    6.6通過(guò)時(shí)間反向傳播168

    6.6.1定義模型168

    6.6.2模型計算圖169

    6.6.3方法169

    小結170

    練習170

    6.7門(mén)控循環(huán)單元(GRU)170

    6.7.1門(mén)控循環(huán)單元171

    6.7.2讀取數據集173

    6.7.3從零開(kāi)始實(shí)現173

    6.7.4簡(jiǎn)潔實(shí)現175

    小結176

    練習176

    6.8長(cháng)短期記憶(LSTM)176

    6.8.1長(cháng)短期記憶176

    6.8.2讀取數據集179

    6.8.3從零開(kāi)始實(shí)現179

    6.8.4簡(jiǎn)潔實(shí)現181

    小結181

    練習182

    6.9深度循環(huán)神經(jīng)網(wǎng)絡(luò )182

    小結183

    練習183

    6.10雙向循環(huán)神經(jīng)網(wǎng)絡(luò )183

    小結184

    練習184

    第7章優(yōu)化算法185

    7.1優(yōu)化與深度學(xué)習185

    7.1.1優(yōu)化與深度學(xué)習的關(guān)系185

    7.1.2優(yōu)化在深度學(xué)習中的挑戰186

    小結188

    練習189

    7.2梯度下降和隨機梯度下降189

    7.2.1一維梯度下降189

    7.2.2學(xué)習率190

    7.2.3多維梯度下降191

    7.2.4隨機梯度下降193

    小結194

    練習194

    7.3小批量隨機梯度下降194

    7.3.1讀取數據集195

    7.3.2從零開(kāi)始實(shí)現196

    7.3.3簡(jiǎn)潔實(shí)現198

    小結199

    練習199

    7.4動(dòng)量法200

    7.4.1梯度下降的問(wèn)題200

    7.4.2動(dòng)量法201

    7.4.3從零開(kāi)始實(shí)現203

    7.4.4簡(jiǎn)潔實(shí)現205

    小結205

    練習205

    7.5AdaGrad算法206

    7.5.1算法206

    7.5.2特點(diǎn)206

    7.5.3從零開(kāi)始實(shí)現208

    7.5.4簡(jiǎn)潔實(shí)現209

    小結209

    練習209

    7.6RMSProp算法209

    7.6.1算法210

    7.6.2從零開(kāi)始實(shí)現211

    7.6.3簡(jiǎn)潔實(shí)現212

    小結212

    練習212

    7.7AdaDelta算法212

    7.7.1算法212

    7.7.2從零開(kāi)始實(shí)現213

    7.7.3簡(jiǎn)潔實(shí)現214

    小結214

    練習214

    7.8Adam算法215

    7.8.1算法215

    7.8.2從零開(kāi)始實(shí)現216

    7.8.3簡(jiǎn)潔實(shí)現216

    小結217

    練習217

    第8章計算性能218

    8.1命令式和符號式混合編程218

    8.1.1混合式編程取兩者之長(cháng)220

    8.1.2使用HybridSequential類(lèi)構造模型220

    8.1.3使用HybridBlock類(lèi)構造模型222

    小結224

    練習224

    8.2異步計算224

    8.2.1MXNet中的異步計算224

    8.2.2用同步函數讓前端等待計算結果226

    8.2.3使用異步計算提升計算性能226

    8.2.4異步計算對內存的影響227

    小結229

    練習229

    8.3自動(dòng)并行計算229

    8.3.1CPU和GPU的并行計算230

    8.3.2計算和通信的并行計算231

    小結231

    練習231

    8.4多GPU計算232

    8.4.1數據并行232

    8.4.2定義模型233

    8.4.3多GPU之間同步數據234

    8.4.4單個(gè)小批量上的多GPU訓練236

    8.4.5定義訓練函數236

    8.4.6多GPU訓練實(shí)驗237

    小結237

    練習237

    8.5多GPU計算的簡(jiǎn)潔實(shí)現237

    8.5.1多GPU上初始化模型參數238

    8.5.2多GPU訓練模型239

    小結241

    練習241

    第9章計算機視覺(jué)242

    9.1圖像增廣242

    9.1.1常用的圖像增廣方法243

    9.1.2使用圖像增廣訓練模型246

    小結250

    練習250

    9.2微調250

    熱狗識別251

    小結255

    練習255

    9.3目標檢測和邊界框255

    邊界框256

    小結257

    練習257

    9.4錨框257

    9.4.1生成多個(gè)錨框257

    9.4.2交并比259

    9.4.3標注訓練集的錨框260

    9.4.4輸出預測邊界框263

    小結265

    練習265

    9.5多尺度目標檢測265

    小結268

    練習268

    9.6目標檢測數據集(皮卡丘)268

    9.6.1獲取數據集269

    9.6.2讀取數據集269

    9.6.3圖示數據270

    小結270

    練習271

    9.7單發(fā)多框檢測(SSD)271

    9.7.1定義模型271

    9.7.2訓練模型275

    9.7.3預測目標277

    小結278

    練習278

    9.8區域卷積神經(jīng)網(wǎng)絡(luò )(R-CNN)系列280

    9.8.1R-CNN280

    9.8.2Fast R-CNN281

    9.8.3Faster R-CNN283

    9.8.4Mask R-CNN284

    小結285

    練習285

    9.9語(yǔ)義分割和數據集285

    9.9.1圖像分割和實(shí)例分割285

    9.9.2Pascal VOC2012語(yǔ)義分割數據集286

    小結290

    練習290

    9.10全卷積網(wǎng)絡(luò )(FCN)290

    9.10.1轉置卷積層291

    9.10.2構造模型 292

    9.10.3初始化轉置卷積層294

    9.10.4讀取數據集295

    9.10.5訓練模型296

    9.10.6預測像素類(lèi)別296

    小結297

    練習297

    9.11樣式遷移298

    9.11.1方法 298

    9.11.2讀取內容圖像和樣式圖像 299

    9.11.3預處理和后處理圖像 300

    9.11.4抽取特征 301

    9.11.5定義損失函數 302

    9.11.6創(chuàng )建和初始化合成圖像 303

    9.11.7訓練模型 304

    小結306

    練習306

    9.12實(shí)戰Kaggle比賽:圖像分類(lèi)(CIFAR-10)306

    9.12.1獲取和整理數據集 307

    9.12.2圖像增廣 310

    9.12.3讀取數據集 310

    9.12.4定義模型 311

    9.12.5定義訓練函數 312

    9.12.6訓練模型 312

    9.12.7對測試集分類(lèi)并在Kaggle

    提交結果313

    小結313

    練習313

    9.13實(shí)戰Kaggle比賽:狗的品種識別(ImageNetDogs)314

    小結320

    練習320

    第10章自然語(yǔ)言處理321

    10.1詞嵌入(word2vec)321

    小結325

    練習325

    10.2近似訓練325

    小結327

    練習328

    10.3word2vec的實(shí)現328

    小結336

    練習336

    10.4子詞嵌入(fastText)336

    小結337

    練習337

    10.5全局向量的詞嵌入(GloVe)337

    小結340

    練習340

    10.6求近義詞和類(lèi)比詞340

    小結343

    練習343

    10.7文本情感分類(lèi):使用循環(huán)神經(jīng)網(wǎng)絡(luò )343

    小結347

    練習347

    10.8文本情感分類(lèi):使用卷積神經(jīng)網(wǎng)絡(luò )(textCNN)347

    小結353

    練習353

    10.9編碼器-解碼器(seq2seq)353

    小結355

    練習355

    10.10束搜索355

    小結358

    練習358

    10.11注意力機制358

    小結361

    練習361

    10.12機器翻譯361

    小結369

    練習369

    附錄A數學(xué)基礎370

    附錄B使用Jupyter記事本376

    附錄C使用AWS運行代碼381

    附錄DGPU購買(mǎi)指南388

    附錄E如何為本書(shū)做貢獻391

    附錄Fd2lzh包索引395

    附錄G中英文術(shù)語(yǔ)對照表397

    參考文獻402

    索引407


    熱門(mén)推薦文章
    相關(guān)優(yōu)評榜
    品類(lèi)齊全,輕松購物 多倉直發(fā),極速配送 正品行貨,精致服務(wù) 天天低價(jià),暢選無(wú)憂(yōu)
    購物指南
    購物流程
    會(huì )員介紹
    生活旅行/團購
    常見(jiàn)問(wèn)題
    大家電
    聯(lián)系客服
    配送方式
    上門(mén)自提
    211限時(shí)達
    配送服務(wù)查詢(xún)
    配送費收取標準
    海外配送
    支付方式
    貨到付款
    在線(xiàn)支付
    分期付款
    郵局匯款
    公司轉賬
    售后服務(wù)
    售后政策
    價(jià)格保護
    退款說(shuō)明
    返修/退換貨
    取消訂單
    特色服務(wù)
    奪寶島
    DIY裝機
    延保服務(wù)
    京東E卡
    京東通信
    京東JD+
    亚洲精品乱码久久久97_国产伦子一区二区三区_久久99精品久久久欧美_天天看片永久av影城网页
  • <em id="pai5d"></em><sup id="pai5d"></sup>
    
    

    <small id="pai5d"><rp id="pai5d"></rp></small>
    <option id="pai5d"></option>

    
    
  • <sup id="pai5d"></sup>
    <em id="pai5d"><label id="pai5d"></label></em>

  • <s id="pai5d"></s>