本書(shū)是一本兼具專(zhuān)業(yè)性與入門(mén)性的人工智能書(shū)籍,通過(guò)結合Python,輔以大量有趣的生活例子,既能向非專(zhuān)業(yè)人員講解機器學(xué)習算法的基本原理與應用,又能幫助專(zhuān)業(yè)學(xué)習者深入掌握相關(guān)算法、Python編程等。
1.結構編排注重算法間的內在邏輯,為讀者提供較好閱讀體驗
本書(shū)從初學(xué)者的視角,在注重機器學(xué)習的主要原理與數學(xué)基礎之上,以平實(shí)通俗的語(yǔ)言,帶領(lǐng)讀者了解基礎的機器學(xué)習理論、Python實(shí)用技巧。在介紹機器學(xué)習算法時(shí)按照從回歸問(wèn)題到分類(lèi)問(wèn)題,從監督學(xué)習到無(wú)監督學(xué)習的順序,內容編排注重算法間的內在邏輯,給讀者較好地閱讀體驗。
2.內容深入淺出,以實(shí)例引導,方便讀者快速入門(mén)
本書(shū)以生活、工作中常見(jiàn)的例子來(lái)解釋機器學(xué)習中的相關(guān)概念、算法原理、運算思維等等,基本做到了每個(gè)關(guān)鍵知識點(diǎn)的案例解釋?zhuān)奖阕x者快速入門(mén)。
3.知識涵蓋范圍廣,強調項目實(shí)戰中的數據科學(xué)思維
書(shū)內容介紹不僅僅限于機器學(xué)習,也不限于Python編程,在進(jìn)行機器學(xué)習實(shí)戰項目時(shí)不僅僅論述算法解決問(wèn)題過(guò)程,還注重算法訓練之前的數據處理、數據清洗、算法訓練之后的評價(jià)、效果比較等。最后一章還從一個(gè)機器學(xué)習項目出發(fā),系統展示了數據處理、特征選擇、算法應用等完整流程,帶領(lǐng)讀者完成從零基礎到入門(mén)數據科學(xué)家的飛躍。
《大話(huà)Python機器學(xué)習》從機器學(xué)習的基礎知識講起,全面、系統地介紹了機器學(xué)習算法的主要脈絡(luò )與框架,并在每個(gè)算法原理、應用等內容基礎上,結合Python編程語(yǔ)言深入淺出地介紹了機器學(xué)習中的數據處理、特征選擇、算法應用等技巧,是一本兼具專(zhuān)業(yè)性與入門(mén)性的Python機器學(xué)習書(shū)籍。
《大話(huà)Python機器學(xué)習》分為13章,主要內容有機器學(xué)習入門(mén)基礎、應用Python實(shí)現機器學(xué)習前的準備、單變量線(xiàn)性回歸算法、線(xiàn)性回歸算法進(jìn)階、邏輯回歸算法、貝葉斯分類(lèi)算法、基于決策樹(shù)的分類(lèi)算法、K近鄰算法、支持向量機、人工神經(jīng)網(wǎng)絡(luò )、聚類(lèi)算法、降維技術(shù)與關(guān)聯(lián)規則挖掘,在具體介紹時(shí)側重于機器學(xué)習原理、思想的理解,注重算法的應用,并輔助以相關(guān)的數據案例,方便讀者快速入門(mén)。最后一章從一個(gè)關(guān)于房?jì)r(jià)預測的機器學(xué)習項目出發(fā),系統展示了數據處理、特征提取、建模訓練等機器學(xué)習完整流程,帶領(lǐng)讀者完成從零基礎到入門(mén)數據科學(xué)家的飛躍。
《大話(huà)Python機器學(xué)習》條理清晰,內容深入淺出,以生活、工作中常見(jiàn)的例子來(lái)解釋機器學(xué)習中的相關(guān)概念、算法原理和運算思維等,特別適合互聯(lián)網(wǎng)創(chuàng )業(yè)者、數據挖掘相關(guān)人員、Python程序員、人工智能從業(yè)者、數據分析師、計算機專(zhuān)業(yè)的學(xué)生學(xué)習,任何對機器學(xué)習、人工智能感興趣的讀者均可選擇本書(shū)作為入門(mén)圖書(shū)參考學(xué)習。
張居營(yíng),中國財經(jīng)大學(xué)經(jīng)濟學(xué)博士、統計學(xué)碩士,8年以上的數據挖掘經(jīng)驗與數據分析工作經(jīng)歷,對大數據、可視化和機器學(xué)習都有著(zhù)較深的研究,為學(xué)生、科研人員、社會(huì )人士等提供上千次的數據資訊服務(wù)與解決方案,并做過(guò)多次數據分析及機器學(xué)習等的入門(mén)培訓,作為核心人員,參與部門(mén)統計數據信息平臺的搭建、設計,有深厚的實(shí)踐積累;以CSDN、知乎、天善智能等社區/媒體專(zhuān)欄作者或特邀專(zhuān)家的形式,分享相關(guān)文章數十篇,擅長(cháng)將復雜的數據分析原理、計算機編程語(yǔ)言等用平白、通俗的語(yǔ)言表述出來(lái)。
第1章 機器學(xué)習入門(mén)基礎
1.1 什么是機器學(xué)習
1.2 機器學(xué)習的思維
1.3 機器學(xué)習的基本框架體系
1.4 機器學(xué)習項目的實(shí)施流程
1.5 機器學(xué)習有什么用
1.6 小結
第2章 應用Python實(shí)現機器學(xué)習前的準備
2.1 為什么使用Python
2.2 Python機器學(xué)習的一些常用庫
2.2.1 科學(xué)計算包(Numpy)簡(jiǎn)介及應用
2.2.2 數據分析工具(Pandas)簡(jiǎn)介及應用
2.2.3 數值計算包(Scipy)簡(jiǎn)介及應用
2.2.4 繪圖工具庫(Matplotlib)簡(jiǎn)介及應用
2.2.5 機器學(xué)習包(Scikitlearn)簡(jiǎn)介及應用
2.3 Anaconda的安裝與使用
2.3.1 Anaconda的安裝
2.3.2 Anaconda中集成工具的使用
2.3.3 Conda的環(huán)境管理
2.4 Jupyter Notebook模式
2.4.1 Jupyter Notebook模式的特點(diǎn)
2.4.2 Jupyter Notebook模式的圖形界面
2.5 小結
第3章 從簡(jiǎn)單案例入手:?jiǎn)巫兞烤€(xiàn)性回歸
3.1 回歸的本質(zhì)
3.1.1 擬合的概念
3.1.2 擬合與回歸的區別
3.1.3 回歸的誕生
3.1.4 回歸的本質(zhì)含義
3.2 單變量線(xiàn)性回歸算法
3.2.1 單變量線(xiàn)性回歸的基本設定
3.2.2 單變量線(xiàn)性回歸的常規求解
3.2.3 單變量線(xiàn)性回歸的評價(jià)與預測
3.3 用機器學(xué)習思維構建單變量線(xiàn)性回歸模型
3.3.1 一個(gè)簡(jiǎn)單案例:波士頓房屋價(jià)格的擬合與預測
3.3.2 數據集劃分
3.3.3 模型求解與預測的Python實(shí)現
3.3.4 模型評價(jià)
3.3.5 與最小二乘法預測效果的比較
3.4 機器學(xué)習的初步印象總結
3.5 小結
第4章 線(xiàn)性回歸算法進(jìn)階
4.1 多變量線(xiàn)性回歸算法
4.1.1 多變量線(xiàn)性回歸算法的最小二乘求解
4.1.2 多變量線(xiàn)性回歸的Python實(shí)現:影廳觀(guān)影人數的擬合(一)
4.2 梯度下降法求解多變量線(xiàn)性回歸
4.2.1 梯度下降的含義
4.2.2 梯度下降的相關(guān)概念
4.2.3 梯度下降法求解線(xiàn)性回歸算法
4.2.4 梯度下降法的Python實(shí)現:影廳觀(guān)影人數的擬合(二)
4.3 線(xiàn)性回歸的正則化
4.3.1 為什么要使用正則化
4.3.2 正則化的原理
4.3.3 基于最小二乘法的正則化
4.3.4 基于梯度下降法的正則化
4.4 嶺回歸
4.4.1 嶺回歸的原理
4.4.2 嶺參數的取值方法
4.4.3 嶺回歸的Python實(shí)現:影廳觀(guān)影人數的擬合(三)
4.5 Lasso回歸
4.5.1 Lasso回歸的原理
4.5.2 Lasso回歸的參數求解
4.5.3 Lasso回歸的Python實(shí)現:影廳觀(guān)影人數的擬合(四)
4.6 小結
第5章 邏輯回歸算法
5.1 從線(xiàn)性回歸到分類(lèi)問(wèn)題
5.2 基于Sigmoid函數的分類(lèi)
5.3 使用梯度下降法求最優(yōu)解
5.3.1 對數似然函數
5.3.2 最大似然
5.3.3 梯度下降法的參數求解
5.4 邏輯回歸的Python實(shí)現
5.4.1 梯度下降法求解的Python示例:預測學(xué)生是否被錄?。ㄒ唬?/p>
5.4.2 用Scikit learn做邏輯回歸:預測學(xué)生是否被錄?。ǘ?/p>
5.4.3 兩種實(shí)現方式的比較
5.5 邏輯回歸的正則化
5.6 小結
第6章 貝葉斯分類(lèi)算法
6.1 貝葉斯分類(lèi)器的分類(lèi)原理
6.1.1 貝葉斯定理
6.1.2 貝葉斯定理的一個(gè)簡(jiǎn)單例子
6.1.3 貝葉斯分類(lèi)的原理與特點(diǎn)
6.2 樸素貝葉斯分類(lèi)
6.2.1 樸素貝葉斯為什么是“樸素”的
6.2.2 樸素貝葉斯分類(lèi)算法的原理
6.2.3 樸素貝葉斯分類(lèi)算法的參數估計
6.2.4 樸素貝葉斯的優(yōu)、缺點(diǎn)及應用場(chǎng)景
6.3 高斯樸素貝葉斯分類(lèi)算法
6.3.1 高斯樸素貝葉斯的Python實(shí)現:借款者信用等級評估(一)
6.3.2 預測結果的評價(jià)及其與邏輯回歸算法的比較
6.4 多項式樸素貝葉斯分類(lèi)算法
6.4.1 多項式樸素貝葉斯算法的原理
6.4.2 多項式樸素貝葉斯的Python實(shí)現:借款者信用等級評估(二)
6.5 伯努利樸素貝葉斯分類(lèi)算法
6.6 貝葉斯網(wǎng)絡(luò )算法的基本原理與特點(diǎn)
6.6.1 貝葉斯網(wǎng)絡(luò )算法的基本原理
6.6.2 貝葉斯網(wǎng)絡(luò )算法的實(shí)現及其特點(diǎn)
6.7 小結
第7章 基于決策樹(shù)的分類(lèi)算法
7.1 決策樹(shù)分類(lèi)算法原理
7.1.1 以信息論為基礎的分類(lèi)原理
7.1.2 決策樹(shù)分類(lèi)算法框架
7.1.3 衡量標準:信息熵
7.1.4 決策樹(shù)算法的簡(jiǎn)化
7.1.5 決策樹(shù)算法的優(yōu)、缺點(diǎn)與應用
7.2 基本決策樹(shù)ID3算法
7.2.1 特征選擇之信息增益
7.2.2 ID3算法原理與步驟
7.2.3 ID3算法的一個(gè)簡(jiǎn)單例子:顧客購買(mǎi)服裝的屬性分析(一)
7.2.4 ID3算法的Python實(shí)現:顧客購買(mǎi)服裝的屬性分析(二)
7.3 其他決策樹(shù)算法
7.3.1 C4.5算法
7.3.2 CART算法
7.3.3 CART算法的應用舉例:顧客購買(mǎi)服裝的屬性分析(三)
7.3.4 CART算法的Python實(shí)現:顧客購買(mǎi)服裝的屬性分析(四)
7.4 決策樹(shù)剪枝方法
7.4.1 預剪枝及其實(shí)現
7.4.2 后剪枝之錯誤率降低剪枝方法
7.4.3 后剪枝之悲觀(guān)錯誤剪枝方法
7.5 決策樹(shù)的集成學(xué)習算法之隨機森林
7.5.1 集成學(xué)習算法
7.5.2 隨機森林
7.5.3 隨機森林的Python實(shí)現:解決交通擁堵問(wèn)題(一)
7.6 小結
第8章 K近鄰算法
8.1 K近鄰算法的原理與特點(diǎn)
8.1.1 K近鄰算法的原理
8.1.2 K近鄰算法需要解決的問(wèn)題
8.1.3 K近鄰算法的優(yōu)、缺點(diǎn)
8.2 K近鄰算法的具體內容探討
8.2.1 距離的度量
8.2.2 最優(yōu)屬性K的決定
8.2.3 K近鄰的快速搜索之Kd樹(shù)
8.3 K近鄰算法的應用
8.3.1 K近鄰算法的一個(gè)簡(jiǎn)單例子:文化公司推廣活動(dòng)的效果預估
8.3.2 K近鄰算法的Python實(shí)現:解決交通擁堵問(wèn)題(二)
8.4 小結
第9章 支持向量機
9.1 支持向量機的基本知識
9.1.1 超平面
9.1.2 間隔與間隔最大化
9.1.3 函數間隔與幾何間隔
9.2 不同情形下的支持向量機
9.2.1 線(xiàn)性可分下的支持向量機
9.2.2 線(xiàn)性不可分下的支持向量機
9.2.3 非線(xiàn)性支持向量機
9.2.4 非線(xiàn)性支持向量機之核函數
9.2.5 多類(lèi)分類(lèi)支持向量機
9.2.6 支持向量回歸機
9.3 支持向量機的Python實(shí)現
9.3.1 線(xiàn)性可分SVM的Python實(shí)現
9.3.2 線(xiàn)性不可分SVM的Python實(shí)現
9.3.3 非線(xiàn)性可分SVM的Python實(shí)現
9.3.4 支持向量回歸機SVR的Python實(shí)現
9.4 小結
第10章 人工神經(jīng)網(wǎng)絡(luò )
10.1 人工神經(jīng)網(wǎng)絡(luò )入門(mén)
10.1.1 從神經(jīng)元到神經(jīng)網(wǎng)絡(luò )
10.1.2 神經(jīng)網(wǎng)絡(luò )決策的一個(gè)簡(jiǎn)單例子:小李要不要看電影
10.2 人工神經(jīng)網(wǎng)絡(luò )基本理論
10.2.1 激活函數
10.2.2 人工神經(jīng)網(wǎng)絡(luò )的基本結構
10.2.3 人工神經(jīng)網(wǎng)絡(luò )的主要類(lèi)型
10.2.4 人工神經(jīng)網(wǎng)絡(luò )的特點(diǎn)
10.2.5 一個(gè)案例:異或邏輯的實(shí)現
10.3 BP神經(jīng)網(wǎng)絡(luò )算法
10.3.1 BP算法的網(wǎng)絡(luò )結構與訓練方式
10.3.2 信息正向傳遞與誤差反向傳播
10.3.3 BP神經(jīng)網(wǎng)絡(luò )的學(xué)習流程
10.3.4 BP算法的一個(gè)演示舉例
10.4 人工神經(jīng)網(wǎng)絡(luò )的Python實(shí)現
10.4.1 人工神經(jīng)網(wǎng)絡(luò )的Python案例:手寫(xiě)數字的識別
10.4.2 手寫(xiě)數字數據的神經(jīng)網(wǎng)絡(luò )訓練
10.4.3 手寫(xiě)數字數據的神經(jīng)網(wǎng)絡(luò )評價(jià)與預測
10.5 從人工神經(jīng)網(wǎng)絡(luò )到深度學(xué)習
10.5.1 從人工神經(jīng)網(wǎng)絡(luò )到深度學(xué)習的演進(jìn)
10.5.2 深度學(xué)習相比ANN的技術(shù)突破
10.6 小結
第11章 聚類(lèi)算法
11.1 聚類(lèi)算法概述
11.1.1 監督學(xué)習與無(wú)監督學(xué)習:原理與區別
11.1.2 從監督學(xué)習到無(wú)監督學(xué)習
11.1.3 聚類(lèi)算法簡(jiǎn)介與應用
11.1.4 主要的聚類(lèi)算法
11.1.5 聚類(lèi)結果的有效性評價(jià)
11.2 聚類(lèi)之K均值算法
11.2.1 K均值算法的思想
11.2.2 K均值算法的流程
11.2.3 K均值算法的一個(gè)簡(jiǎn)單例子:二維樣本的聚類(lèi)
11.2.4 K均值算法的Python實(shí)現:不同含量果汁飲料的聚類(lèi)(一)
11.3 層次聚類(lèi)算法
11.3.1 層次聚類(lèi)算法基本原理
11.3.2 算法的距離度量方法
11.3.3 層次聚類(lèi)的簡(jiǎn)單案例之AGNES算法
11.3.4 層次聚類(lèi)的簡(jiǎn)單案例之DIANA算法
11.3.5 層次聚類(lèi)的Python實(shí)現:不同含量果汁飲料的聚類(lèi)(二)
11.4 其他類(lèi)型聚類(lèi)算法簡(jiǎn)介
11.4.1 基于密度的DBSCAN算法
11.4.2 基于網(wǎng)格的STING算法
11.5 小結
第12章 降維技術(shù)與關(guān)聯(lián)規則挖掘
12.1 降維技術(shù)
12.2 PCA降維技術(shù)的原理與實(shí)現
12.2.1 主成分分析(PCA)的基本原理
12.2.2 主成分分析(PCA)的步驟
12.2.3 PCA降維的一個(gè)簡(jiǎn)單案例:二維樣本的降維(一)
12.2.4 PCA降維的Python實(shí)現:二維樣本的降維(二)
12.3 LDA降維技術(shù)的原理與實(shí)現
12.3.1 判別問(wèn)題與線(xiàn)性判別函數
12.3.2 線(xiàn)性判別分析(LDA)的基本原理
12.3.3 LDA的特點(diǎn)與局限性
12.3.4 LDA降維技術(shù)的Python實(shí)現:二維樣本的降維(三)
12.4 關(guān)聯(lián)規則挖掘概述
12.4.1 關(guān)聯(lián)規則挖掘的相關(guān)定義
12.4.2 關(guān)聯(lián)規則的挖掘過(guò)程
12.4.3 關(guān)聯(lián)規則挖掘的分類(lèi)
12.5 關(guān)聯(lián)規則挖掘的主要算法
12.5.1 Apriori算法簡(jiǎn)介及案例:用戶(hù)資訊瀏覽的挖掘(一)
12.5.2 FP Growth算法簡(jiǎn)介及案例:用戶(hù)資訊瀏覽的挖掘(二)
12.6 小結
第13章 機器學(xué)習項目實(shí)戰全流程入門(mén)
13.1 機器學(xué)習項目實(shí)戰概述
13.1.1 機器學(xué)習項目實(shí)戰的意義
13.1.2 如何入門(mén)一個(gè)機器學(xué)習競賽項目
13.2 一個(gè)簡(jiǎn)單的機器學(xué)習項目實(shí)戰:房?jì)r(jià)預測
13.3 項目實(shí)戰之數據預處理
13.3.1 數據加載與預覽
13.3.2 缺失值處理
13.3.3 數據轉換
13.4 項目實(shí)戰之特征提取
13.4.1 變量特征圖表
13.4.2 變量關(guān)聯(lián)性分析
13.5 項目實(shí)戰之建模訓練
13.5.1 對訓練數據集的劃分
13.5.2 采用不同算法的建模訓練
13.5.3 參數調優(yōu)
13.6 預測與提交結果
13.7 小結