機(jī)器學(xué)習(xí)實戰(zhàn)pdf完整高清版【附源代碼】免費下載
本文關(guān)鍵詞:機(jī)器學(xué)習(xí)實戰(zhàn),由筆耕文化傳播整理發(fā)布。
看百遍理論,不如動手自己碼代碼,這本書就有這個好處,用代碼來詮釋理論,可以幫助讀者深入算法核心,加深理解。機(jī)器學(xué)習(xí)實戰(zhàn)這本書對概念講的簡明扼要,主要是實戰(zhàn),用python語言嘗試應(yīng)用這些成熟的方法,可以鍛煉自己對python語言的掌握熟練度。這里東坡小編分享機(jī)器學(xué)習(xí)實戰(zhàn)pdf電子書籍,附源代碼,有需要的點擊下面的地址即可免費下載。
機(jī)器學(xué)習(xí)實戰(zhàn)目錄第一部分 分類
第1章 機(jī)器學(xué)習(xí)基礎(chǔ)
1.1 何謂機(jī)器學(xué)習(xí)
1.1.1 傳感器和海量數(shù)據(jù)
1.1.2 機(jī)器學(xué)習(xí)非常重要
1.2 關(guān)鍵術(shù)語
1.3 機(jī)器學(xué)習(xí)的主要任務(wù)
1.4 如何選擇合適的算法
1.5 開發(fā)機(jī)器學(xué)習(xí)應(yīng)用程序的步驟
1.6 Python語言的優(yōu)勢
1.6.1 可執(zhí)行偽代碼
1.6.2 Python比較流行
1.6.3 Python語言的特色
1.6.4 Python語言的缺點
1.7 NumPy函數(shù)庫基礎(chǔ)
1.8 本章小結(jié)
第2章 k-近鄰算法
2.1 k-近鄰算法概述
2.1.1 準(zhǔn)備:使用Python導(dǎo)入數(shù)據(jù)
2.1.2 從文本文件中解析數(shù)據(jù)
2.1.3 如何測試分類器
2.2 示例:使用k-近鄰算法改進(jìn)約會網(wǎng)站的配對效果
2.2.1 準(zhǔn)備數(shù)據(jù):從文本文件中解析數(shù)據(jù)
2.2.2 分析數(shù)據(jù):使用Matplotlib創(chuàng)建散點圖
2.2.3 準(zhǔn)備數(shù)據(jù):歸一化數(shù)值
2.2.4 測試算法:作為完整程序驗證分類器
2.2.5 使用算法:構(gòu)建完整可用系統(tǒng)
2.3 示例:手寫識別系統(tǒng)
2.3.1 準(zhǔn)備數(shù)據(jù):將圖像轉(zhuǎn)換為測試向量
2.3.2 測試算法:使用k-近鄰算法識別手寫數(shù)字
2.4 本章小結(jié)
第3章 決策樹
3.1 決策樹的構(gòu)造
3.1.1 信息增益
3.1.2 劃分?jǐn)?shù)據(jù)集
3.1.3 遞歸構(gòu)建決策樹
3.2 在Python中使用Matplotlib注解繪制樹形圖
3.2.1 Matplotlib注解
3.2.2 構(gòu)造注解樹
3.3 測試和存儲分類器
3.3.1 測試算法:使用決策樹執(zhí)行分類
3.3.2 使用算法:決策樹的存儲
3.4 示例:使用決策樹預(yù)測隱形眼鏡類型
3.5 本章小結(jié)
第4章 基于概率論的分類方法:樸素貝葉斯
4.1 基于貝葉斯決策理論的分類方法
4.2 條件概率
4.3 使用條件概率來分類
4.4 使用樸素貝葉斯進(jìn)行文檔分類
4.5 使用Python進(jìn)行文本分類
4.5.1 準(zhǔn)備數(shù)據(jù):從文本中構(gòu)建詞向量
4.5.2 訓(xùn)練算法:從詞向量計算概率
4.5.3 測試算法:根據(jù)現(xiàn)實情況修改分類器
4.5.4 準(zhǔn)備數(shù)據(jù):文檔詞袋模型
4.6 示例:使用樸素貝葉斯過濾垃圾郵件
4.6.1 準(zhǔn)備數(shù)據(jù):切分文本
4.6.2 測試算法:使用樸素貝葉斯進(jìn)行交叉驗證
4.7 示例:使用樸素貝葉斯分類器從個人廣告中獲取區(qū)域傾向
4.7.1 收集數(shù)據(jù):導(dǎo)入rss源
4.7.2 分析數(shù)據(jù):顯示地域相關(guān)的用詞
4.8 本章小結(jié)
第5章 Logistic回歸
5.1 基于Logistic回歸和Sigmoid函數(shù)的分類
5.2 基于最優(yōu)化方法的最佳回歸系數(shù)確定
5.2.1 梯度上升法
5.2.2 訓(xùn)練算法:使用梯度上升找到最佳參數(shù)
5.2.3 分析數(shù)據(jù):畫出決策邊界
5.2.4 訓(xùn)練算法:隨機(jī)梯度上升
5.3 示例:從疝氣病癥預(yù)測病馬的死亡率
5.3.1 準(zhǔn)備數(shù)據(jù):處理數(shù)據(jù)中的缺失值
5.3.2 測試算法:用Logistic回歸進(jìn)行分類
5.4 本章小結(jié)
第6章 支持向量機(jī)
6.1 基于最大間隔分隔數(shù)據(jù)
6.2 尋找最大間隔
6.2.1 分類器求解的優(yōu)化問題
6.2.2 SVM應(yīng)用的一般框架
6.3 SMO高效優(yōu)化算法
6.3.1 Platt的SMO算法
6.3.2 應(yīng)用簡化版SMO算法處理小規(guī)模數(shù)據(jù)集
6.4 利用完整Platt SMO算法加速優(yōu)化
6.5 在復(fù)雜數(shù)據(jù)上應(yīng)用核函數(shù)
6.5.1 利用核函數(shù)將數(shù)據(jù)映射到高維空間
6.5.2 徑向基核函數(shù)
6.5.3 在測試中使用核函數(shù)
6.6 示例:手寫識別問題回顧
6.7 本章小結(jié)
第7章 利用AdaBoost元算法提高分類
性能
7.1 基于數(shù)據(jù)集多重抽樣的分類器
7.1.1 bagging:基于數(shù)據(jù)隨機(jī)重抽樣的分類器構(gòu)建方法
7.1.2 boosting
7.2 訓(xùn)練算法:基于錯誤提升分類器的性能
7.3 基于單層決策樹構(gòu)建弱分類器
7.4 完整AdaBoost算法的實現(xiàn)
7.5 測試算法:基于AdaBoost的分類
7.6 示例:在一個難數(shù)據(jù)集上應(yīng)用AdaBoost
7.7 非均衡分類問題
7.7.1 其他分類性能度量指標(biāo):正確率、召回率及ROC曲線
7.7.2 基于代價函數(shù)的分類器決策控制
7.7.3 處理非均衡問題的數(shù)據(jù)抽樣方法
7.8 本章小結(jié)
第二部分 利用回歸預(yù)測數(shù)值型數(shù)據(jù)
第8章 預(yù)測數(shù)值型數(shù)據(jù):回歸
8.1 用線性回歸找到最佳擬合直線
8.2 局部加權(quán)線性回歸
8.3 示例:預(yù)測鮑魚的年齡
8.4 縮減系數(shù)來“理解”數(shù)據(jù)
8.4.1 嶺回歸
8.4.2 lasso
8.4.3 前向逐步回歸
8.5 權(quán)衡偏差與方差
8.6 示例:預(yù)測樂高玩具套裝的價格
8.6.1 收集數(shù)據(jù):使用Google購物的API
8.6.2 訓(xùn)練算法:建立模型
8.7 本章小結(jié)
第9章 樹回歸
9.1 復(fù)雜數(shù)據(jù)的局部性建!
9.2 連續(xù)和離散型特征的樹的構(gòu)建
9.3 將CART算法用于回歸
9.3.1 構(gòu)建樹
9.3.2 運(yùn)行代碼
9.4 樹剪枝
9.4.1 預(yù)剪枝
9.4.2 后剪枝
9.5 模型樹
9.6 示例:樹回歸與標(biāo)準(zhǔn)回歸的比較
9.7 使用Python的Tkinter庫創(chuàng)建GUI
9.7.1 用Tkinter創(chuàng)建GUI
9.7.2 集成Matplotlib和Tkinter
9.8 本章小結(jié)
第三部分 無監(jiān)督學(xué)習(xí)
第10章 利用K-均值聚類算法對未標(biāo)注數(shù)據(jù)分組
10.1 K-均值聚類算法
10.2 使用后處理來提高聚類性能
10.3 二分K-均值算法
10.4 示例:對地圖上的點進(jìn)行聚類
10.4.1 Yahoo! PlaceFinder API
10.4.2 對地理坐標(biāo)進(jìn)行聚類
10.5 本章小結(jié)
第11章 使用Apriori算法進(jìn)行關(guān)聯(lián)分析
11.1 關(guān)聯(lián)分析
11.2 Apriori原理
11.3 使用Apriori算法來發(fā)現(xiàn)頻繁集
11.3.1 生成候選項集
11.3.2 組織完整的Apriori算法
11.4 從頻繁項集中挖掘關(guān)聯(lián)規(guī)則
11.5 示例:發(fā)現(xiàn)國會投票中的模式
11.5.1 收集數(shù)據(jù):構(gòu)建美國國會投票記錄的事務(wù)數(shù)據(jù)集
11.5.2 測試算法:基于美國國會投票記錄挖掘關(guān)聯(lián)規(guī)則
11.6 示例:發(fā)現(xiàn)毒蘑菇的相似特征
11.7 本章小結(jié)
第12章 使用FP-growth算法來高效發(fā)現(xiàn)頻繁項集
12.1 FP樹:用于編碼數(shù)據(jù)集的有效方式
12.2 構(gòu)建FP樹
12.2.1 創(chuàng)建FP樹的數(shù)據(jù)結(jié)構(gòu)
12.2.2 構(gòu)建FP樹
12.3 從一棵FP樹中挖掘頻繁項集
12.3.1 抽取條件模式基
12.3.2 創(chuàng)建條件FP樹
12.4 示例:在Twitter源中發(fā)現(xiàn)一些共現(xiàn)詞
12.5 示例:從新聞網(wǎng)站點擊流中挖掘
12.6 本章小結(jié)
第四部分 其他工具
第13章 利用PCA來簡化數(shù)據(jù)
13.1 降維技術(shù)
13.2 PCA
13.2.1 移動坐標(biāo)軸
13.2.2 在NumPy中實現(xiàn)PCA
13.3 示例:利用PCA對半導(dǎo)體制造數(shù)據(jù)降維
13.4 本章小結(jié)
第14章 利用SVD簡化數(shù)據(jù)
14.1 SVD的應(yīng)用
14.1.1 隱性語義索引
14.1.2 推薦系統(tǒng)
14.2 矩陣分解
14.3 利用Python實現(xiàn)SVD
14.4 基于協(xié)同過濾的推薦引擎
14.4.1 相似度計算
14.4.2 基于物品的相似度還是基于用戶的相似度?
14.4.3 推薦引擎的評價
14.5 示例:餐館菜肴推薦引擎
14.5.1 推薦未嘗過的菜肴
14.5.2 利用SVD提高推薦的效果
14.5.3 構(gòu)建推薦引擎面臨的挑戰(zhàn)
14.6 基于SVD的圖像壓縮
14.7 本章小結(jié)
第15章 大數(shù)據(jù)與MapReduce
15.1 MapReduce:分布式計算的框架
15.2 Hadoop流
15.2.1 分布式計算均值和方差的mapper
15.2.2 分布式計算均值和方差的reducer
15.3 在Amazon網(wǎng)絡(luò)服務(wù)上運(yùn)行Hadoop程序
15.3.1 AWS上的可用服務(wù)
15.3.2 開啟Amazon網(wǎng)絡(luò)服務(wù)之旅
15.3.3 在EMR上運(yùn)行Hadoop作業(yè)
15.4 MapReduce上的機(jī)器學(xué)習(xí)
15.5 在Python中使用mrjob來自動化MapReduce
15.5.1 mrjob與EMR的無縫集成
15.5.2 mrjob的一個MapReduce腳本剖析
15.6 示例:分布式SVM的Pegasos算法
15.6.1 Pegasos算法
15.6.2 訓(xùn)練算法:用mrjob實現(xiàn)MapReduce版本的SVM
15.7 你真的需要MapReduce嗎?
15.8 本章小結(jié)
附錄A Python入門
附錄B 線性代數(shù)
附錄C 概率論復(fù)習(xí)
附錄D 資源
索引
版權(quán)聲明
機(jī)器學(xué)習(xí)實戰(zhàn)節(jié)選本文關(guān)鍵詞:機(jī)器學(xué)習(xí)實戰(zhàn),由筆耕文化傳播整理發(fā)布。
,本文編號:91427
本文鏈接:http://sikaile.net/wenshubaike/mishujinen/91427.html