• <em id="pai5d"></em><sup id="pai5d"></sup>
    
    

    <small id="pai5d"><rp id="pai5d"></rp></small>
    <option id="pai5d"></option>

    
    
  • <sup id="pai5d"></sup>
    <em id="pai5d"><label id="pai5d"></label></em>

  • <s id="pai5d"></s>
    當前位置 : 首頁(yè)  圖書(shū) 正文

    深度學(xué)習之美:AI時(shí)代的數據處理與最佳實(shí)踐簡(jiǎn)介,目錄書(shū)摘

    2021-01-15 10:02 來(lái)源:京東 作者:京東
    ai
    深度學(xué)習之美:AI時(shí)代的數據處理與最佳實(shí)踐
    暫無(wú)報價(jià)
    8.5萬(wàn)+評論 99%好評
    編輯推薦:

    √零入門(mén)。本書(shū)在介紹深度學(xué)習時(shí),也介紹了Python、TensorFlow、M-P模型、感知機等神經(jīng)網(wǎng)絡(luò )等基礎知識,從而可以讓讀者零基礎入門(mén)。

    √高可讀。有別于其他同類(lèi)書(shū)籍的深奧難懂,本書(shū)配合近300幅手繪圖片,一圖勝千言,輔以大量的哲理故事,通俗易懂,獨辟蹊徑。

    √重實(shí)戰。除了理論部分的講解不落窠臼,本書(shū)還重視實(shí)戰,列舉了大量具有啟發(fā)意義的實(shí)戰案例,循序漸進(jìn),讓讀者通過(guò)實(shí)戰獲得成就感。

    √抓前沿。本書(shū)緊抓領(lǐng)域前沿,Geoffrey Hinton的新研究成果——神經(jīng)膠囊網(wǎng)絡(luò ),本書(shū)詳細解讀,輔以實(shí)戰,讓讀者能夠站在科研前沿。


    內容簡(jiǎn)介:

    深度學(xué)習是人工智能的前沿技術(shù)?!渡疃葘W(xué)習之美》深入淺出地介紹了深度學(xué)習的相關(guān)理論和實(shí)踐,《深度學(xué)習之美》共分16章,采用理論和實(shí)踐雙主線(xiàn)寫(xiě)作方式。第1章給出深度學(xué)習的大圖。第2章和第3章,講解了機器學(xué)習的相關(guān)基礎理論。第4章和第5章,講解了Python基礎和基于Python的機器學(xué)習實(shí)戰。第6至10章,先后講解了M-P模型、感知機、多層神經(jīng)網(wǎng)絡(luò )、BP神經(jīng)網(wǎng)絡(luò )等知識。第11章講解了被廣泛認可的深度學(xué)習框架TensorFlow。第12章和第13章詳細講解了卷積神經(jīng)網(wǎng)絡(luò ),并給出了相關(guān)的實(shí)戰項目。第14章和第15章,分別講解了循環(huán)遞歸網(wǎng)絡(luò )和長(cháng)短期記憶(LSTM)網(wǎng)絡(luò )。第16章講解了神經(jīng)膠囊網(wǎng)絡(luò ),并給出了神經(jīng)膠囊網(wǎng)絡(luò )設計的詳細論述和實(shí)踐案例分析。

    《深度學(xué)習之美》結構完整、行文流暢,是一本難得的零基礎入門(mén)、圖文并茂、通俗易懂、理論結合實(shí)戰的深度學(xué)習書(shū)籍。


    作者簡(jiǎn)介:

    張玉宏,2012年于電子科技大學(xué)取得博士學(xué)位,2009—2011年美國西北大學(xué)訪(fǎng)問(wèn)學(xué)者,電子科技大學(xué)博士后,現執教于河南工業(yè)大學(xué)。

    中國計算機協(xié)會(huì )(CCF)會(huì )員,CCF YOCSEF鄭州2018—2019年度副主席,ACM/IEEE會(huì )員?!镀肺洞髷祿芬粫?shū)作者。主要研究方向為大數據、人工智能、技術(shù)哲學(xué)。發(fā)表學(xué)術(shù)論文20余篇,國內外學(xué)術(shù)作品7部。阿里云云棲社區專(zhuān)欄作家,博文累計閱讀逾百萬(wàn)次。


    目錄:

    第1章  一入侯門(mén)“深”似海,深度學(xué)習深幾許  1

    1.1  深度學(xué)習的巨大影響  2

    1.2  什么是學(xué)習  4

    1.3  什么是機器學(xué)習  4

    1.4  機器學(xué)習的4個(gè)象限  5

    1.5  什么是深度學(xué)習  6

    1.6  “戀愛(ài)”中的深度學(xué)習  7

    1.7  深度學(xué)習的方法論  9

    1.8  有沒(méi)有淺層學(xué)習  13

    1.9  本章小結  14

    1.10  請你思考  14

    參考資料  14

    第2章  人工“碳”索意猶盡,智能“硅”來(lái)未可知  16

    2.1  信數據者得永生嗎  17

    2.2  人工智能的“江湖定位”  18

    2.3  深度學(xué)習的歸屬  19

    2.4  機器學(xué)習的形式化定義  21

    2.5  為什么要用神經(jīng)網(wǎng)絡(luò )  24

    2.6  人工神經(jīng)網(wǎng)絡(luò )的特點(diǎn)  26

    2.7  什么是通用近似定理  27

    2.8  本章小結  31

    2.9  請你思考  31

    參考資料  31

    第3章  “機器學(xué)習”三重門(mén),“中庸之道”趨若人  33

    3.1  監督學(xué)習  34

    3.1.1  感性認知監督學(xué)習  34

    3.1.2  監督學(xué)習的形式化描述  35

    3.1.3  k-近鄰算法  37

    3.2  非監督學(xué)習  39

    3.2.1  感性認識非監督學(xué)習  39

    3.2.2  非監督學(xué)習的代表—K均值聚類(lèi)  41

    3.3  半監督學(xué)習  45

    3.4  從“中庸之道”看機器學(xué)習  47

    3.5  強化學(xué)習  49

    3.6  本章小結  52

    3.7  請你思考  53

    參考資料  53

    第4章  人生苦短對酒歌, 我用Python樂(lè )趣多  55

    4.1  Python概要  56

    4.1.1  為什么要用Python  56

    4.1.2  Python中常用的庫  58

    4.2  Python的版本之爭  61

    4.3  Python環(huán)境配置  65

    4.3.1  Windows下的安裝與配置  65

    4.3.2  Mac下的安裝與配置  72

    4.4  Python編程基礎  76

    4.4.1  如何運行Python代碼  77

    4.4.2  代碼縮進(jìn)  79

    4.4.3  注釋  80

    4.4.4  Python中的數據結構  81

    4.4.5  函數的設計  93

    4.4.6  模塊的導入與使用  101

    4.4.7  面向對象程序設計  102

    4.5  本章小結  112

    4.6  請你思考  112

    參考資料  113

    第5章  機器學(xué)習終覺(jué)淺,Python帶我來(lái)實(shí)踐  114

    5.1  線(xiàn)性回歸  115

    5.1.1  線(xiàn)性回歸的概念  115

    5.1.2  簡(jiǎn)易線(xiàn)性回歸的Python實(shí)現詳解  119

    5.2  k-近鄰算法  139

    5.2.1  k-近鄰算法的三個(gè)要素  140

    5.2.2  k-近鄰算法實(shí)戰  143

    5.2.3  使用scikit-learn實(shí)現k-近鄰算法  155

    5.3  本章小結  162

    5.4  請你思考  162

    參考資料  162

    第6章  神經(jīng)網(wǎng)絡(luò )不勝語(yǔ),M-P模型似可尋  164

    6.1  M-P神經(jīng)元模型是什么  165

    6.2  模型背后的那些人和事  167

    6.3  激活函數是怎樣的一種存在  175

    6.4  什么是卷積函數  176

    6.5  本章小結  177

    6.6  請你思考  178

    參考資料  178

    第7章  Hello World感知機,懂你我心才安息  179

    7.1  網(wǎng)之初,感知機  180

    7.2  感知機名稱(chēng)的由來(lái)  180

    7.3  感性認識“感知機”  183

    7.4  感知機是如何學(xué)習的  185

    7.5  感知機訓練法則  187

    7.6  感知機的幾何意義  190

    7.7  基于Python的感知機實(shí)戰  191

    7.8  感知機的表征能力  196

    7.9  本章小結  199

    7.10  請你思考  199

    參考資料  199

    第8章  損失函數減肥用,神經(jīng)網(wǎng)絡(luò )調權重  201

    8.1  多層網(wǎng)絡(luò )解決“異或”問(wèn)題  202

    8.2  感性認識多層前饋神經(jīng)網(wǎng)絡(luò )  205

    8.3  是淺而“胖”好,還是深而“瘦”佳  209

    8.4  分布式特征表達  210

    8.5  丟棄學(xué)習與集成學(xué)習  211

    8.6  現實(shí)很豐滿(mǎn),理想很骨感  212

    8.7  損失函數的定義  213

    8.8  熱力學(xué)定律與梯度彌散  215

    8.9  本章小結  216

    8.10  請你思考  216

    參考資料  217

    第9章  山重水復疑無(wú)路,最快下降問(wèn)梯度  219

    9.1  “鳥(niǎo)飛派”還飛不  220

    9.2  1986年的那篇神作  221

    9.3  多層感知機網(wǎng)絡(luò )遇到的大問(wèn)題  222

    9.4  神經(jīng)網(wǎng)絡(luò )結構的設計  225

    9.5  再議損失函數  227

    9.6  什么是梯度  229

    9.7  什么是梯度遞減  231

    9.8  梯度遞減的線(xiàn)性回歸實(shí)戰  235

    9.9  什么是隨機梯度遞減  238

    9.10  利用SGD解決線(xiàn)性回歸實(shí)戰  240

    9.11  本章小結  247

    9.12  請你思考  248

    參考資料  248

    第10章  BP算法雙向傳,鏈式求導最纏綿  249

    10.1  BP算法極簡(jiǎn)史  250

    10.2  正向傳播信息  251

    10.3  求導中的鏈式法則  255

    10.4  誤差反向傳播  264

    10.4.1  基于隨機梯度下降的BP算法  265

    10.4.2  輸出層神經(jīng)元的權值訓練  267

    10.4.3  隱含層神經(jīng)元的權值訓練  270

    10.4.4  BP算法的感性認知  273

    10.4.5  關(guān)于BP算法的補充說(shuō)明  278

    10.5  BP算法實(shí)戰詳細解釋  280

    10.5.1  初始化網(wǎng)絡(luò )  280

    10.5.2  信息前向傳播  282

    10.5.3  誤差反向傳播  285

    10.5.4  訓練網(wǎng)絡(luò )(解決異或問(wèn)題)  288

    10.5.5  利用BP算法預測小麥品種的分類(lèi)  293

    10.6  本章小結  301

    10.7  請你思考  302

    參考資料  304

    第11章  一騎紅塵江湖笑,TensorFlow谷歌造  305

    11.1  TensorFlow概述  306

    11.2  深度學(xué)習框架比較  309

    11.2.1  Theano  309

    11.2.2  Keras  310

    11.2.3  Caffe  311

    11.2.4  PyTorch  312

    11.3  TensorFlow的安裝  313

    11.3.1  Anaconda的安裝  313

    11.3.2  TensorFlow的CPU版本安裝  315

    11.3.3  TensorFlow的源碼編譯  323

    11.4  Jupyter Notebook的使用  331

    11.4.1  Jupyter Notebook的由來(lái)  331

    11.4.2  Jupyter Notebook的安裝  333

    11.5  TensorFlow中的基礎語(yǔ)法  337

    11.5.1  什么是數據流圖  338

    11.5.2  構建第一個(gè)TensorFlow數據流圖  339

    11.5.3  可視化展現的TensorBoard  342

    11.5.4  TensorFlow的張量思維  346

    11.5.5  TensorFlow中的數據類(lèi)型  348

    11.5.6  TensorFlow中的操作類(lèi)型  353

    11.5.7  TensorFlow中的Graph對象  356

    11.5.8  TensorFlow中的Session  358

    11.5.9  TensorFlow中的placeholder  361

    11.5.10  TensorFlow中的Variable對象  363

    11.5.11  TensorFlow中的名稱(chēng)作用域  365

    11.5.12  張量的Reduce方向  367

    11.6  手寫(xiě)數字識別MNIST  372

    11.6.1  MNIST數據集簡(jiǎn)介  373

    11.6.2  MNIST數據的獲取與預處理  375

    11.6.3  分類(lèi)模型的構建—Softmax Regression  378

    11.7  TensorFlow中的Eager執行模式  394

    11.7.1  Eager執行模式的背景  394

    11.7.2  Eager執行模式的安裝  395

    11.7.3  Eager執行模式的案例  395

    11.7.4  Eager執行模式的MNIST模型構建  398

    11.8  本章小結  401

    11.9  請你思考  402

    參考資料  403

    第12章  全面連接困何處,卷積網(wǎng)絡(luò )顯神威  404

    12.1  卷積神經(jīng)網(wǎng)絡(luò )的歷史  405

    12.1.1  眼在何方?路在何方?  405

    12.1.2  卷積神經(jīng)網(wǎng)絡(luò )的歷史脈絡(luò )  406

    12.1.3  那場(chǎng)著(zhù)名的學(xué)術(shù)賭局  410

    12.2  卷積神經(jīng)網(wǎng)絡(luò )的概念  412

    12.2.1  卷積的數學(xué)定義  412

    12.2.2  生活中的卷積  413

    12.3  圖像處理中的卷積  414

    12.3.1  計算機“視界”中的圖像  414

    12.3.2  什么是卷積核  415

    12.3.3  卷積在圖像處理中的應用  418

    12.4  卷積神經(jīng)網(wǎng)絡(luò )的結構  420

    12.5  卷積層要義  422

    12.5.1  卷積層的設計動(dòng)機  422

    12.5.2  卷積層的局部連接  427

    12.5.3  卷積層的3個(gè)核心概念  428

    12.6  細說(shuō)激活層  434

    12.7  詳解池化層  442

    12.8  勿忘全連接層  445

    12.9  本章小結  446

    12.10  請你思考  447

    參考資料  448

    第13章  紙上談兵終覺(jué)淺,絕知卷積要編程  450

    13.1  TensorFlow的CNN架構  451

    13.2  卷積層的實(shí)現  452

    13.3  激活函數的使用  460

    13.4  池化層的實(shí)現  466

    13.5  規范化層  470

    13.6  卷積神經(jīng)網(wǎng)絡(luò )在MNIST分類(lèi)器中的應用  480

    13.7  經(jīng)典神經(jīng)網(wǎng)絡(luò )——AlexNet的實(shí)現  488

    13.8  本章小結  495

    13.9  請你思考  496

    參考資料  496

    第14章  循環(huán)遞歸RNN,序列建模套路深  498

    14.1  你可能不具備的一種思維  499

    14.2  標準神經(jīng)網(wǎng)絡(luò )的缺陷所在  501

    14.3  RNN簡(jiǎn)史  502

    14.4  RNN的理論基礎  506

    14.5  RNN的結構  509

    14.6  循環(huán)神經(jīng)網(wǎng)絡(luò )的訓練  512

    14.7  基于RNN的TensorFlow實(shí)戰——正弦序列預測  514

    14.8  本章小結  524

    14.9  請你思考  524

    參考資料  525

    第15章  LSTM長(cháng)短記,長(cháng)序依賴(lài)可追憶  526

    15.1  遺忘是好事還是壞事  527

    15.2  施密德胡伯是何人  527

    15.3  為什么需要LSTM  529

    15.4  拆解LSTM  530

    15.5  LSTM的前向計算  533

    15.6  LSTM的訓練流程  539

    15.7  自然語(yǔ)言處理的一個(gè)假設  540

    15.8  詞向量表示方法  542

    15.9  自然語(yǔ)言處理的統計模型  549

    15.10  基于Penn Tree Bank的自然語(yǔ)言處理實(shí)戰  560

    15.11  本章小結  579

    15.12  請你思考  580

    參考資料  580

    第16章  卷積網(wǎng)絡(luò )雖動(dòng)人,膠囊網(wǎng)絡(luò )更傳“神”  583

    16.1  從神經(jīng)元到神經(jīng)膠囊  584

    16.2  卷積神經(jīng)網(wǎng)絡(luò )面臨的挑戰  584

    16.3  神經(jīng)膠囊的提出  588

    16.4  神經(jīng)膠囊理論初探  591

    16.5  神經(jīng)膠囊的實(shí)例化參數  594

    16.6  神經(jīng)膠囊的工作流程  598

    16.7  CapsNet的驗證與實(shí)驗  614

    16.8  神經(jīng)膠囊網(wǎng)絡(luò )的TensorFlow實(shí)現  618

    16.9  本章小結  644

    16.10  請你思考  645

    16.11  深度學(xué)習美在何處  646

    參考資料  647

    后記  648

    索引  651


    版面有限,完整目錄請見(jiàn)本書(shū)

    熱門(mén)推薦文章
    相關(guān)優(yōu)評榜
    品類(lèi)齊全,輕松購物 多倉直發(fā),極速配送 正品行貨,精致服務(wù) 天天低價(jià),暢選無(wú)憂(yōu)
    購物指南
    購物流程
    會(huì )員介紹
    生活旅行/團購
    常見(jiàn)問(wèn)題
    大家電
    聯(lián)系客服
    配送方式
    上門(mén)自提
    211限時(shí)達
    配送服務(wù)查詢(xún)
    配送費收取標準
    海外配送
    支付方式
    貨到付款
    在線(xiàn)支付
    分期付款
    郵局匯款
    公司轉賬
    售后服務(wù)
    售后政策
    價(jià)格保護
    退款說(shuō)明
    返修/退換貨
    取消訂單
    特色服務(wù)
    奪寶島
    DIY裝機
    延保服務(wù)
    京東E卡
    京東通信
    京東JD+
    亚洲精品乱码久久久97_国产伦子一区二区三区_久久99精品久久久欧美_天天看片永久av影城网页
  • <em id="pai5d"></em><sup id="pai5d"></sup>
    
    

    <small id="pai5d"><rp id="pai5d"></rp></small>
    <option id="pai5d"></option>

    
    
  • <sup id="pai5d"></sup>
    <em id="pai5d"><label id="pai5d"></label></em>

  • <s id="pai5d"></s>