• <em id="pai5d"></em><sup id="pai5d"></sup>
    
    

    <small id="pai5d"><rp id="pai5d"></rp></small>
    <option id="pai5d"></option>

    
    
  • <sup id="pai5d"></sup>
    <em id="pai5d"><label id="pai5d"></label></em>

  • <s id="pai5d"></s>
    當前位置 : 首頁(yè)  圖書(shū) 正文

    Python機器學(xué)習算法簡(jiǎn)介,目錄書(shū)摘

    2020-04-23 18:30 來(lái)源:京東 作者:京東
    python機器學(xué)習算法
    Python機器學(xué)習算法
    暫無(wú)報價(jià)
    2.2萬(wàn)+評論 99%好評
    編輯推薦:  

    探索數據的內在價(jià)值,洞悉人工智能背后的技術(shù)!

    內容簡(jiǎn)介:  

    《Python機器學(xué)習算法》是一本機器學(xué)習入門(mén)讀物,注重理論與實(shí)踐的結合。全書(shū)主要包括6個(gè)部分,每個(gè)部分均以典型的機器學(xué)習算法為例,從算法原理出發(fā),由淺入深,詳細介紹算法的理論,并配合目前流行的Python語(yǔ)言,從零開(kāi)始,實(shí)現每一個(gè)算法,以加強對機器學(xué)習算法理論的理解、增強實(shí)際的算法實(shí)踐能力,最終達到熟練掌握每一個(gè)算法的目的。與其他機器學(xué)習類(lèi)圖書(shū)相比,《Python機器學(xué)習算法》同時(shí)包含算法理論的介紹和算法的實(shí)踐,以理論支撐實(shí)踐,同時(shí),又將復雜、枯燥的理論用簡(jiǎn)單易懂的形式表達出來(lái),促進(jìn)對理論的理解。

    作者簡(jiǎn)介:
    目錄:

    0緒論1

    0.1機器學(xué)習基礎1

    0.1.1機器學(xué)習的概念1

    0.1.2機器學(xué)習算法的分類(lèi)2

    0.2監督學(xué)習3

    0.2.1監督學(xué)習3

    0.2.2監督學(xué)習的流程3

    0.2.3監督學(xué)習算法4

    0.3無(wú)監督學(xué)習4

    0.3.1無(wú)監督學(xué)習4

    0.3.2無(wú)監督學(xué)習的流程4

    0.3.3無(wú)監督學(xué)習算法5

    0.4推薦系統和深度學(xué)習6

    0.4.1推薦系統6

    0.4.2深度學(xué)習6

    0.5Python和機器學(xué)習算法實(shí)踐6

    參考文獻7


    第一部分分類(lèi)算法

    1Logistic Regression10

    1.1Logistic Regression模型10

    1.1.1線(xiàn)性可分VS線(xiàn)性不可分10

    1.1.2Logistic Regression模型11

    1.1.3損失函數13

    1.2梯度下降法14

    1.2.1梯度下降法的流程14

    1.2.2凸優(yōu)化與非凸優(yōu)化15

    1.2.3利用梯度下降法訓練Logistic Regression模型17

    1.3梯度下降法的若干問(wèn)題18

    1.3.1選擇下降的方向18

    1.3.2步長(cháng)的選擇19

    1.4Logistic Regression算法實(shí)踐20

    1.4.1利用訓練樣本訓練Logistic Regression模型20

    1.4.2最終的訓練效果22

    1.4.3對新數據進(jìn)行預測23

    參考文獻26

    2Softmax Regression27

    2.1多分類(lèi)問(wèn)題27

    2.2Softmax Regression算法模型28

    2.2.1Softmax Regression模型28

    2.2.2Softmax Regression算法的代價(jià)函數28

    2.3Softmax Regression算法的求解29

    2.4Softmax Regression與Logistic Regression的關(guān)系31

    2.4.1Softmax Regression中的參數特點(diǎn)31

    2.4.2由Softmax Regression到Logistic Regression31

    2.5Softmax Regression算法實(shí)踐32

    2.5.1對Softmax Regression算法的模型進(jìn)行訓練33

    2.5.2最終的模型34

    2.5.3對新的數據的預測35

    參考文獻39

    3Factorization Machine40

    3.1Logistic Regression算法的不足40

    3.2因子分解機FM的模型42

    3.2.1因子分解機FM模型42

    3.2.2因子分解機FM可以處理的問(wèn)題43

    3.2.3二分類(lèi)因子分解機FM算法的損失函數43

    3.3FM算法中交叉項的處理43

    3.3.1交叉項系數43

    3.3.2模型的求解44

    3.4FM算法的求解45

    3.4.1隨機梯度下降(Stochastic Gradient Descent)45

    3.4.2基于隨機梯度的方式求解45

    3.4.3FM算法流程46

    3.5因子分解機FM算法實(shí)踐49

    3.5.1訓練FM模型50

    3.5.2最終的訓練效果53

    3.5.3對新的數據進(jìn)行預測55

    參考文獻57

    4支持向量機58

    4.1二分類(lèi)問(wèn)題58

    4.1.1二分類(lèi)的分隔超平面58

    4.1.2感知機算法59

    4.1.3感知機算法存在的問(wèn)題61

    4.2函數間隔和幾何間隔61

    4.2.1函數間隔62

    4.2.2幾何間隔62

    4.3支持向量機63

    4.3.1間隔最大化63

    4.3.2支持向量和間隔邊界64

    4.3.3線(xiàn)性支持向量機65

    4.4支持向量機的訓練66

    4.4.1學(xué)習的對偶算法66

    4.4.2由線(xiàn)性支持向量機到非線(xiàn)性支持向量機68

    4.4.3序列最小最優(yōu)化算法SMO69

    4.5支持向量機SVM算法實(shí)踐74

    4.5.1訓練SVM模型74

    4.5.2利用訓練樣本訓練SVM模型81

    4.5.3利用訓練好的SVM模型對新數據進(jìn)行預測85

    參考文獻88

    5隨機森林89

    5.1決策樹(shù)分類(lèi)器89

    5.1.1決策樹(shù)的基本概念89

    5.1.2選擇最佳劃分的標準91

    5.1.3停止劃分的標準94

    5.2CART分類(lèi)樹(shù)算法95

    5.2.1CART分類(lèi)樹(shù)算法的基本原理95

    5.2.2CART分類(lèi)樹(shù)的構建95

    5.2.3利用構建好的分類(lèi)樹(shù)進(jìn)行預測98

    5.3集成學(xué)習(Ensemble Learning)99

    5.3.1集成學(xué)習的思想99

    5.3.2集成學(xué)習中的典型方法99

    5.4隨機森林(Random Forests)101

    5.4.1隨機森林算法模型101

    5.4.2隨機森林算法流程102

    5.5隨機森林RF算法實(shí)踐104

    5.5.1訓練隨機森林模型105

    5.5.2最終的訓練結果109

    5.5.3對新數據的預測110

    參考文獻113

    6BP神經(jīng)網(wǎng)絡(luò )114

    6.1神經(jīng)元概述114

    6.1.1神經(jīng)元的基本結構114

    6.1.2激活函數115

    6.2神經(jīng)網(wǎng)絡(luò )模型116

    6.2.1神經(jīng)網(wǎng)絡(luò )的結構116

    6.2.2神經(jīng)網(wǎng)絡(luò )中的參數說(shuō)明117

    6.2.3神經(jīng)網(wǎng)絡(luò )的計算117

    6.3神經(jīng)網(wǎng)絡(luò )中參數的求解118

    6.3.1神經(jīng)網(wǎng)絡(luò )損失函數118

    6.3.2損失函數的求解119

    6.3.3BP神經(jīng)網(wǎng)絡(luò )的學(xué)習過(guò)程120

    6.4BP神經(jīng)網(wǎng)絡(luò )中參數的設置126

    6.4.1非線(xiàn)性變換126

    6.4.2權重向量的初始化126

    6.4.3學(xué)習率127

    6.4.4隱含層節點(diǎn)的個(gè)數127

    6.5BP神經(jīng)網(wǎng)絡(luò )算法實(shí)踐127

    6.5.1訓練BP神經(jīng)網(wǎng)絡(luò )模型128

    6.5.2最終的訓練效果132

    6.5.3對新數據的預測133

    參考文獻136


    第二部分回歸算法

    7線(xiàn)性回歸138

    7.1基本線(xiàn)性回歸138

    7.1.1線(xiàn)性回歸的模型138

    7.1.2線(xiàn)性回歸模型的損失函數139

    7.2線(xiàn)性回歸的最小二乘解法140

    7.2.1線(xiàn)性回歸的最小二乘解法140

    7.2.2廣義逆的概念141

    7.3牛頓法141

    7.3.1基本牛頓法的原理141

    7.3.2基本牛頓法的流程142

    7.3.3全局牛頓法142

    7.3.4Armijo搜索144

    7.3.5利用全局牛頓法求解線(xiàn)性回歸模型145

    7.4利用線(xiàn)性回歸進(jìn)行預測146

    7.4.1訓練線(xiàn)性回歸模型147

    7.4.2最終的訓練結果149

    7.4.3對新數據的預測150

    7.5局部加權線(xiàn)性回歸152

    7.5.1 局部加權線(xiàn)性回歸模型152

    7.5.2局部加權線(xiàn)性回歸的最終結果153

    參考文獻154

    8嶺回歸和Lasso回歸155

    8.1線(xiàn)性回歸存在的問(wèn)題155

    8.2嶺回歸模型156

    8.2.1嶺回歸模型156

    8.2.2嶺回歸模型的求解156

    8.3Lasso回歸模型157

    8.4擬牛頓法158

    8.4.1擬牛頓法158

    8.4.2BFGS校正公式的推導158

    8.4.3BFGS校正的算法流程159

    8.5L-BFGS求解嶺回歸模型162

    8.5.1BGFS算法存在的問(wèn)題162

    8.5.2L-BFGS算法思路162

    8.6嶺回歸對數據的預測165

    8.6.1訓練嶺回歸模型166

    8.6.2最終的訓練結果168

    8.6.3利用嶺回歸模型預測新的數據168

    參考文獻171

    9CART樹(shù)回歸172

    9.1復雜的回歸問(wèn)題172

    9.1.1線(xiàn)性回歸模型172

    9.1.2局部加權線(xiàn)性回歸173

    9.1.3CART算法174

    9.2CART回歸樹(shù)生成175

    9.2.1CART回歸樹(shù)的劃分175

    9.2.2CART回歸樹(shù)的構建177

    9.3CART回歸樹(shù)剪枝179

    9.3.1前剪枝179

    9.3.2后剪枝180

    9.4CART回歸樹(shù)對數據預測180

    9.4.1利用訓練數據訓練CART回歸樹(shù)模型180

    9.4.2最終的訓練結果182

    9.4.3利用訓練好的CART回歸樹(shù)模型對新的數據預測185

    參考文獻187


    第三部分聚類(lèi)算法

    10K-Means190

    10.1相似性的度量190

    10.1.1閔可夫斯基距離191

    10.1.2曼哈頓距離191

    10.1.3歐氏距離191

    10.2K-Means算法原理192

    10.2.1K-Means算法的基本原理192

    10.2.2K-Means算法步驟193

    10.2.3K-Means算法與矩陣分解193

    10.3K-Means算法實(shí)踐195

    10.3.1導入數據196

    10.3.2初始化聚類(lèi)中心197

    10.3.3聚類(lèi)過(guò)程198

    10.3.4最終的聚類(lèi)結果199

    10.4K-Means++算法200

    10.4.1K-Means算法存在的問(wèn)題200

    10.4.2K-Means++算法的基本思路202

    10.4.3K-Means++算法的過(guò)程和最終效果204

    參考文獻205

    11Mean Shift206

    11.1Mean Shift向量206

    11.2核函數207

    11.3Mean Shift算法原理209

    11.3.1引入核函數的Mean Shift向量209

    11.3.2Mean Shift算法的基本原理210

    11.4Mean Shift算法的解釋212

    11.4.1概率密度梯度212

    11.4.2Mean Shift向量的修正213

    11.4.3Mean Shift算法流程213

    11.5Mean Shift算法實(shí)踐217

    11.5.1Mean Shift的主過(guò)程218

    11.5.2Mean Shift的最終聚類(lèi)結果219

    參考文獻221

    12DBSCAN222

    12.1基于密度的聚類(lèi)222

    12.1.1基于距離的聚類(lèi)算法存在的問(wèn)題222

    12.1.2基于密度的聚類(lèi)算法225

    12.2DBSCAN算法原理225

    12.2.1DBSCAN算法的基本概念225

    12.2.2DBSCAN算法原理227

    12.2.3DBSCAN算法流程228

    12.3DBSCAN算法實(shí)踐231

    12.3.1DBSCAN算法的主要過(guò)程232

    12.3.2Mean Shift的最終聚類(lèi)結果234

    參考文獻236

    13Label Propagation237

    13.1社區劃分237

    13.1.1社區以及社區劃分237

    13.1.2社區劃分的算法238

    13.1.3社區劃分的評價(jià)標準239

    13.2Label Propagation算法原理239

    13.2.1Label Propagation算法的基本原理239

    13.2.2標簽傳播240

    13.2.3迭代的終止條件242

    13.3Label Propagation算法過(guò)程244

    13.4Label Propagation算法實(shí)踐244

    13.4.1導入數據245

    13.4.2社區的劃分246

    13.4.3最終的結果247

    參考文獻248


    第四部分推薦算法

    14協(xié)同過(guò)濾算法250

    14.1推薦系統的概述250

    14.1.1推薦系統250

    14.1.2推薦問(wèn)題的描述251

    14.1.3推薦的常用方法251

    14.2基于協(xié)同過(guò)濾的推薦252

    14.2.1協(xié)同過(guò)濾算法概述252

    14.2.2協(xié)同過(guò)濾算法的分類(lèi)252

    14.3相似度的度量方法253

    14.3.1歐氏距離254

    14.3.2皮爾遜相關(guān)系數(Pearson Correlation)254

    14.3.3余弦相似度254

    14.4基于協(xié)同過(guò)濾的推薦算法256

    14.4.1基于用戶(hù)的協(xié)同過(guò)濾算法256

    14.4.2基于項的協(xié)同過(guò)濾算法258

    14.5利用協(xié)同過(guò)濾算法進(jìn)行推薦260

    14.5.1導入用戶(hù)-商品數據260

    14.5.2利用基于用戶(hù)的協(xié)同過(guò)濾算法進(jìn)行推薦261

    14.5.3利用基于項的協(xié)同過(guò)濾算法進(jìn)行推薦262

    參考文獻264

    15基于矩陣分解的推薦算法265

    15.1矩陣分解265

    15.2基于矩陣分解的推薦算法266

    15.2.1損失函數266

    15.2.2損失函數的求解266

    15.2.3加入正則項的損失函數即求解方法267

    15.2.4預測269

    15.3利用矩陣分解進(jìn)行推薦270

    15.3.1利用梯度下降對用戶(hù)商品矩陣分解和預測270

    15.3.2最終的結果272

    15.4非負矩陣分解273

    15.4.1非負矩陣分解的形式化定義274

    15.4.2損失函數274

    15.4.3優(yōu)化問(wèn)題的求解274

    15.5利用非負矩陣分解進(jìn)行推薦277

    15.5.1利用乘法規則進(jìn)行分解和預測277

    15.5.2最終的結果278

    參考文獻279

    16基于圖的推薦算法280

    16.1二部圖與推薦算法280

    16.1.1二部圖280

    16.1.2由用戶(hù)商品矩陣到二部圖281

    16.2PageRank算法282

    16.2.1PageRank算法的概念282

    16.2.2PageRank的兩個(gè)假設283

    16.2.3PageRank的計算方法283

    16.3PersonalRank算法285

    16.3.1PersonalRank算法原理285

    16.3.2PersonalRank算法的流程286

    16.4利用PersonalRank算法進(jìn)行推薦288

    16.4.1利用PersonalRank算法進(jìn)行推薦288

    16.4.2最終的結果291

    參考文獻291


    第五部分深度學(xué)習

    17AutoEncoder294

    17.1多層神經(jīng)網(wǎng)絡(luò )294

    17.1.1三層神經(jīng)網(wǎng)絡(luò )模型294

    17.1.2由三層神經(jīng)網(wǎng)絡(luò )到多層神經(jīng)網(wǎng)絡(luò )295

    17.2AutoEncoder模型296

    17.2.1AutoEncoder模型結構296

    17.2.2AutoEncoder的損失函數297

    17.3降噪自編碼器Denoising AutoEncoder298

    17.3.1Denoising AutoEncoder原理298

    17.3.2Denoising AutoEncoder實(shí)現299

    17.4利用Denoising AutoEncoders構建深度網(wǎng)絡(luò )302

    17.4.1無(wú)監督的逐層訓練302

    17.4.2有監督的微調303

    17.5利用TensorFlow實(shí)現Stacked Denoising AutoEncoders306

    17.5.1訓練Stacked Denoising AutoEncoders模型306

    17.5.2訓練的過(guò)程307

    參考文獻308

    18卷積神經(jīng)網(wǎng)絡(luò )309

    18.1傳統神經(jīng)網(wǎng)絡(luò )模型存在的問(wèn)題309

    18.2卷積神經(jīng)網(wǎng)絡(luò )311

    18.2.1卷積神經(jīng)網(wǎng)絡(luò )中的核心概念311

    18.2.2卷積神經(jīng)網(wǎng)絡(luò )模型312

    18.3卷積神經(jīng)網(wǎng)絡(luò )的求解313

    18.3.1卷積層(Convolution Layer)313

    18.3.2下采樣層(Sub-Sampling Layer)316

    18.3.3全連接層(Fully-Connected Layer)316

    18.4利用TensorFlow實(shí)現CNN316

    18.4.1CNN的實(shí)現316

    18.4.2訓練CNN模型320

    18.4.3訓練的過(guò)程321

    參考文獻321


    第六部分項目實(shí)踐

    19微博精準推薦324

    19.1精準推薦324

    19.1.1精準推薦的項目背景324

    19.1.2精準推薦的技術(shù)架構325

    19.1.3離線(xiàn)數據挖掘326

    19.2基于用戶(hù)行為的挖掘327

    19.2.1基于互動(dòng)內容的興趣挖掘327

    19.2.2基于與博主互動(dòng)的興趣挖掘328

    19.3基于相似用戶(hù)的挖掘329

    19.3.1基于“@”人的相似用戶(hù)挖掘329

    19.3.2基于社區的相似用戶(hù)挖掘329

    19.3.3基于協(xié)同過(guò)濾的相似用戶(hù)挖掘331

    19.4點(diǎn)擊率預估332

    19.4.1點(diǎn)擊率預估的概念332

    19.4.2點(diǎn)擊率預估的方法332

    19.5各種數據技術(shù)的效果334

    參考文獻335

    附錄A336

    附錄B341

    相關(guān)商品
    熱門(mén)推薦文章
    相關(guān)優(yōu)評榜
    品類(lèi)齊全,輕松購物 多倉直發(fā),極速配送 正品行貨,精致服務(wù) 天天低價(jià),暢選無(wú)憂(yōu)
    購物指南
    購物流程
    會(huì )員介紹
    生活旅行/團購
    常見(jiàn)問(wèn)題
    大家電
    聯(lián)系客服
    配送方式
    上門(mén)自提
    211限時(shí)達
    配送服務(wù)查詢(xún)
    配送費收取標準
    海外配送
    支付方式
    貨到付款
    在線(xiàn)支付
    分期付款
    郵局匯款
    公司轉賬
    售后服務(wù)
    售后政策
    價(jià)格保護
    退款說(shuō)明
    返修/退換貨
    取消訂單
    特色服務(wù)
    奪寶島
    DIY裝機
    延保服務(wù)
    京東E卡
    京東通信
    京東JD+
    亚洲精品乱码久久久97_国产伦子一区二区三区_久久99精品久久久欧美_天天看片永久av影城网页
  • <em id="pai5d"></em><sup id="pai5d"></sup>
    
    

    <small id="pai5d"><rp id="pai5d"></rp></small>
    <option id="pai5d"></option>

    
    
  • <sup id="pai5d"></sup>
    <em id="pai5d"><label id="pai5d"></label></em>

  • <s id="pai5d"></s>