• <em id="pai5d"></em><sup id="pai5d"></sup>
    
    

    <small id="pai5d"><rp id="pai5d"></rp></small>
    <option id="pai5d"></option>

    
    
  • <sup id="pai5d"></sup>
    <em id="pai5d"><label id="pai5d"></label></em>

  • <s id="pai5d"></s>
    當前位置 : 首頁(yè)  圖書(shū) 正文

    深度學(xué)習技術(shù)圖像處理入門(mén)簡(jiǎn)介,目錄書(shū)摘

    2020-06-05 11:20 來(lái)源:京東 作者:京東
    深度學(xué)習技術(shù)圖像處理入門(mén)
    深度學(xué)習技術(shù)圖像處理入門(mén)
    暫無(wú)報價(jià)
    300+評論 99%好評
    編輯推薦:
    內容簡(jiǎn)介:  《深度學(xué)習技術(shù)圖像處理入門(mén)》從機器學(xué)習、圖像處理的基本概念入手,逐步闡述深度學(xué)習圖像處理技術(shù)的基本原理以及簡(jiǎn)單的實(shí)現。繼而以幾個(gè)實(shí)戰案例來(lái)介紹如何使用深度學(xué)習方法,在數據分析競賽中取得較高的排名。最后,通過(guò)一個(gè)實(shí)戰案例,介紹如何將模型放入iOS程序,制作相應的人工智能手機App。
      《深度學(xué)習技術(shù)圖像處理入門(mén)》適用于對深度學(xué)習有興趣、希望入門(mén)這一領(lǐng)域的理工科大學(xué)生、研究生,以及希望了解該領(lǐng)域基本原理的軟件開(kāi)發(fā)人員。此外,《深度學(xué)習技術(shù)圖像處理入門(mén)》所有案例均提供了云環(huán)境上的代碼,便于讀者復現結果,并進(jìn)行深入學(xué)習。
    作者簡(jiǎn)介:
    目錄:第1章 搭建指定的開(kāi)發(fā)環(huán)境
    1.1 為什么要使用指定的開(kāi)發(fā)環(huán)境
    1.2 硬件準備
    1.2.1 在亞馬遜租用云GPU服務(wù)器
    1.2.2 在騰訊云租用GPU服務(wù)器
    1.2.3 在云服務(wù)器中開(kāi)啟搭載開(kāi)發(fā)環(huán)境的Docker服務(wù)
    1.3 軟件準備
    1.3.1 在Ubuntu 16.04下配置環(huán)境
    1.3.2 在CentOS 7下配置環(huán)境
    1.4 參考文獻及網(wǎng)頁(yè)鏈接

    第2章 溫故知新——機器學(xué)習基礎知識
    2.1 人工智能、機器學(xué)習與深度學(xué)習
    2.2 訓練一個(gè)傳統的機器學(xué)習模型
    2.2.1 第一步,觀(guān)察數據
    2.2.2 第二步,預覽數據
    2.3 數據挖掘與訓練模型
    2.3.1 第一步,準備數據
    2.3.2 第二步,挖掘數據特征
    2.3.3 第三步,使用模型
    2.3.4 第四步,代碼實(shí)戰
    2.4 參考文獻及網(wǎng)頁(yè)鏈接

    第3章 數形結合——圖像處理基礎知識
    3.1 讀取圖像文件進(jìn)行基本操作
    3.1.1 使用python-opencv讀取圖片
    3.1.2 借助python-opencv進(jìn)行不同編碼格式的轉換
    3.1.3 借助python-opencv改變圖片尺寸
    3.2 用簡(jiǎn)單的矩陣操作處理圖像
    3.2.1 對圖像進(jìn)行復制與粘貼
    3.2.2 把圖像當成矩陣進(jìn)行處理——二維碼轉換成矩陣
    3.3 使用OpenCV“摳圖”——基于顏色通道以及形態(tài)特征
    3.4 基于傳統特征的傳統圖像分類(lèi)方法
    3.4.1 將圖片簡(jiǎn)化為少數區域并計算每個(gè)區域輪廓特征的方向
    3.4.2 將HOG變換運用在所有正負樣本中
    3.4.3 訓練模型
    3.4.4 將訓練好的分類(lèi)器運用在新的圖片中
    3.5 參考文獻及網(wǎng)頁(yè)鏈接

    第4章 繼往開(kāi)來(lái)——使用深度神經(jīng)網(wǎng)絡(luò )框架
    4.1 從邏輯回歸說(shuō)起
    4.2 深度學(xué)習框架
    4.3 基于反向傳播算法的自動(dòng)求導
    4.4 簡(jiǎn)單的深度神經(jīng)網(wǎng)絡(luò )框架實(shí)現
    4.4.1 數據結構部分
    4.4.2 計算圖部分
    4.4.3 使用方法
    4.4.4 訓練模型
    4.5 參考文獻及網(wǎng)頁(yè)鏈接

    第5章 排列組合——深度神經(jīng)網(wǎng)絡(luò )框架的模型元件
    5.1 常用層
    5.1.1 Dense
    5.1.2 Activation
    5.1.3 Dropout
    5.1.4 Flatten
    5.2 卷積層
    5.2.1 Conv2D
    5.2.2 Cropping2D
    5.2.3 ZeroPadding2D
    5.3 池化層
    5.3.1 MaxPooling2D
    5.3.2 AveragePooling2D
    5.3.3 GlobalAveragePooling2D
    5.4 正則化層與過(guò)擬合
    5.5 反卷積層
    5.6 循環(huán)層
    5.6.1 SimpleRNN
    5.6.2 LSTM
    5.6.3 GRU
    5.7 參考文獻及網(wǎng)頁(yè)鏈接

    第6章 少量多次——深度神經(jīng)網(wǎng)絡(luò )框架的輸入處理
    6.1 批量生成訓練數據
    6.2 數據增強
    6.3 參考文獻及網(wǎng)頁(yè)鏈接

    第7章 愚公移山——深度神經(jīng)網(wǎng)絡(luò )框架的模型訓練
    7.1 隨機梯度下降
    7.2 動(dòng)量法
    7.3 自適應學(xué)習率算法
    7.4 實(shí)驗案例
    7.5 參考文獻及網(wǎng)頁(yè)鏈接

    第8章 小試牛刀——使用深度神經(jīng)網(wǎng)絡(luò )進(jìn)行CIFAR.1 0數據分類(lèi)
    8.1 上游部分——基于生成器的批量生成輸入模塊
    8.2 核心部分——用各種零件搭建深度神經(jīng)網(wǎng)絡(luò )
    8.3 下游部分——使用凸優(yōu)化模塊訓練模型
    8.4 參考文獻及網(wǎng)頁(yè)鏈接

    第9章 見(jiàn)多識廣——使用遷移學(xué)習提升準確率
    9.1 貓狗大戰1.0——使用卷積神經(jīng)網(wǎng)絡(luò )直接進(jìn)行訓練
    9.1.1 導入數據
    9.1.2 可視化
    9.1.3 分割訓練集和驗證集
    9.1.4 搭建模型
    9.1.5 模型訓練
    9.1.6 總結
    9.2 貓狗大戰2.0——使用ImageNet數據集預訓練模型
    9.2.1 遷移學(xué)習
    9.2.2 數據預處理
    9.2.3 搭建模型
    9.2.4 模型可視化
    9.2.5 訓練模型
    9.2.6 提交到kaggle評估
    9.3 貓狗大戰3.0——使用多種預訓練模型組合提升表現
    9.3.1 載入數據集
    9.3.2 使用正確的預處理函數
    9.3.3 搭建特征提取模型并導出特征
    9.3.4 搭建并訓練全連接分類(lèi)器模型
    9.3.5 在測試集上預測
    9.4 融合模型
    9.4.1 獲取特征
    9.4.2 數據持久化
    9.4.3 構建模型
    9.4.4 在測試集上預測
    9.5 總結
    9.6 參考文獻及網(wǎng)頁(yè)鏈接

    第10章 看圖識字——使用深度神經(jīng)網(wǎng)絡(luò )進(jìn)行文字識別
    10.1 使用卷積神經(jīng)網(wǎng)絡(luò )進(jìn)行端到端學(xué)習
    10.1.1 編寫(xiě)數據生成器
    10.1.2 使用生成器
    10.1.3 構建深度卷積神經(jīng)網(wǎng)絡(luò )
    10.1.4 模型可視化
    10.1.5 訓練模型
    10.1.6 計算模型總體準確率
    10.1.7 測試模型
    10.1.8 模型總結
    10.2 使用循環(huán)神經(jīng)網(wǎng)絡(luò )改進(jìn)模型
    10.2.1 CTC Loss
    10.2.2 模型結構
    10.2.3 模型可視化
    10.2.4 數據生成器
    10.2.5 評估模型
    10.2.6 評估回調
    10.2.7 訓練模型
    10.2.8 測試模型
    10.2.9 再次評估模型
    10.2.1 0總結
    10.3 識別四則混合運算驗證碼(初賽)
    10.3.1 問(wèn)題描述
    10.3.2 數據集探索
    10.3.3 模型結構
    10.3.4 結果可視化
    10.3.5 總結
    10.4 識別四則混合運算驗證碼(決賽)
    10.4.1 問(wèn)題描述
    10.4.2 數據集探索
    10.4.3 數據預處理
    10.4.4 模型結構
    10.4.5 生成器
    10.4.6 模型的訓練
    10.4.7 預測結果
    10.4.8 模型結果融合
    10.4.9 其他嘗試
    10.4.1 0小結
    10.5 參考文獻及網(wǎng)頁(yè)鏈接

    第11章 見(jiàn)習醫生——使用全卷積神經(jīng)網(wǎng)絡(luò )分割病理切片中的癌組織
    11.1 任務(wù)描述
    11.1.1 賽題設置
    11.1.2 數據描述
    11.1.3 數據標注
    11.2 總體思路
    11.3 構造模型
    11.3.1 準備數據
    11.3.2 構建模型
    11.3.3 模型優(yōu)化
    11.4 程序執行
    11.5 模型結果可視化
    11.5.1 加載函數
    11.5.2 選擇驗證集并編寫(xiě)預測函數
    11.5.3 根據tensorborad可視化結果選擇最好的模型
    11.5.4 嘗試逐步降低學(xué)習率
    11.6 觀(guān)察模型在驗證集上的預測表現
    11.7 參考文獻及網(wǎng)頁(yè)鏈接

    第12章 知行合一——如何寫(xiě)一個(gè)深度學(xué)習App
    12.1 CAM可視化
    12.2 導出分類(lèi)模型和CAM可視化模型
    12.2.1 載入數據集
    12.2.2 提取特征
    12.2.3 搭建和訓練分類(lèi)器
    12.2.4 搭建分類(lèi)模型和CAM模型
    12.2.5 可視化測試
    12.2.6 保存模型
    12.2.7 導出mlmodel模型文件
    12.3 開(kāi)始編寫(xiě)App
    12.3.1 創(chuàng )建工程
    12.3.2 配置工程
    12.3.3 測試工程
    12.3.4 運行程序
    12.4 使用深度學(xué)習模型
    12.4.1 將模型導入到工程中
    12.4.2 數據類(lèi)型轉換函數
    12.4.3 實(shí)施CAM可視化
    12.4.4 模型效果
    12.5 參考文獻及網(wǎng)頁(yè)鏈接
    熱門(mén)推薦文章
    相關(guān)優(yōu)評榜
    品類(lèi)齊全,輕松購物 多倉直發(fā),極速配送 正品行貨,精致服務(wù) 天天低價(jià),暢選無(wú)憂(yōu)
    購物指南
    購物流程
    會(huì )員介紹
    生活旅行/團購
    常見(jiàn)問(wèn)題
    大家電
    聯(lián)系客服
    配送方式
    上門(mén)自提
    211限時(shí)達
    配送服務(wù)查詢(xún)
    配送費收取標準
    海外配送
    支付方式
    貨到付款
    在線(xiàn)支付
    分期付款
    郵局匯款
    公司轉賬
    售后服務(wù)
    售后政策
    價(jià)格保護
    退款說(shuō)明
    返修/退換貨
    取消訂單
    特色服務(wù)
    奪寶島
    DIY裝機
    延保服務(wù)
    京東E卡
    京東通信
    京東JD+
    亚洲精品乱码久久久97_国产伦子一区二区三区_久久99精品久久久欧美_天天看片永久av影城网页
  • <em id="pai5d"></em><sup id="pai5d"></sup>
    
    

    <small id="pai5d"><rp id="pai5d"></rp></small>
    <option id="pai5d"></option>

    
    
  • <sup id="pai5d"></sup>
    <em id="pai5d"><label id="pai5d"></label></em>

  • <s id="pai5d"></s>