scikit learn中文文檔_Scikit-Learn機(jī)器學(xué)習(xí)介紹(中文翻譯)
本文關(guān)鍵詞:scikit-learn,由筆耕文化傳播整理發(fā)布。
翻譯自:
本章內(nèi)容在本章中,我們會介紹在使用scikit-learn中遇到的 機(jī)器學(xué)習(xí) (machine learning)術(shù)語,以及一個簡單的機(jī)器學(xué)習(xí)例子。
機(jī)器學(xué)習(xí):問題設(shè)定
一般來說,機(jī)器學(xué)習(xí)問題可以這樣來理解:我們有n個 樣本 (sample)的數(shù)據(jù)集,想要預(yù)測未知數(shù)據(jù)的屬性。如果描述每個樣本的數(shù)字不只一個,比如一個多維的條目(也叫做 多變量數(shù)據(jù) (multivariate data)),那么這個樣本就有多個屬性或者 特征 。
我們可以將學(xué)習(xí)問題分為以下幾類:
scikit-learn有一些標(biāo)準(zhǔn)數(shù)據(jù)集,比如用于分類的 iris 和 digits 數(shù)據(jù)集,和用于回歸的 波士頓房價(jià) (boston house prices)數(shù)據(jù)集。
下面,我們會用shell里的Python解釋器來加載iris和digits數(shù)據(jù)集。$表示shell提示符,>>>表示Python解釋器提示符:
$ python >>> from sklearn import datasets >>> iris = datasets.load_iris() >>> digits = datasets.load_digits()
數(shù)據(jù)集類似字典對象,包括了所有的數(shù)據(jù)和關(guān)于數(shù)據(jù)的元數(shù)據(jù)(metadata)。數(shù)據(jù)被存儲在.data成員內(nèi),是一個n_samples*n_features的數(shù)組。在有監(jiān)督問題的情形下,一個或多個因變量(response variables)被儲存在.target成員中。有關(guān)不同數(shù)據(jù)集的更多細(xì)節(jié)可以在 被找到。
例如,在digits數(shù)據(jù)集中,,digits.data是可以用來分類數(shù)字樣本的特征:
>>> print(digits.data) # doctest: +NORMALIZE_WHITESPACE [[ 0. 0. 5. ..., 0. 0. 0.] [ 0. 0. 0. ..., 10. 0. 0.] [ 0. 0. 0. ..., 16. 9. 0.] ..., [ 0. 0. 1. ..., 6. 0. 0.] [ 0. 0. 2. ..., 12. 0. 0.] [ 0. 0. 10. ..., 12. 1. 0.]]digits.target給出了digits數(shù)據(jù)集的真實(shí)值,即每個數(shù)字圖案對應(yīng)的我們想預(yù)測的真實(shí)數(shù)字:
>>> digits.target array([0, 1, 2, ..., 8, 9, 8])數(shù)據(jù)數(shù)組的形式數(shù)據(jù)是一個2維n_samples*n_features的數(shù)組,盡管原始數(shù)據(jù)集可能會有不同的形式。在digits數(shù)據(jù)集中,每個原始樣本是一個8*8的數(shù)組,可以用以下方式訪問:
>>> digits.images[0] array([[ 0., 0., 5., 13., 9., 1., 0., 0.], [ 0., 0., 13., 15., 10., 15., 5., 0.], [ 0., 3., 15., 2., 0., 11., 8., 0.], [ 0., 4., 12., 0., 0., 8., 8., 0.], [ 0., 5., 8., 0., 0., 9., 8., 0.], [ 0., 4., 11., 0., 1., 12., 7., 0.], [ 0., 2., 14., 5., 10., 12., 0., 0.], [ 0., 0., 6., 13., 10., 0., 0., 0.]])說明了如何從原始問題里將數(shù)據(jù)形式化,以便scikit-learn使用。
學(xué)習(xí)和預(yù)測
在digits數(shù)據(jù)集中,我們的任務(wù)是給定一個圖案,預(yù)測其表示的數(shù)字是什么。我們的樣本有10個可能的分類(數(shù)字0到9),我們將匹配一個 預(yù)測器 (estimator)來 預(yù)測 (predict)未知樣本所屬的分類。
在scikit-learn中,分類的預(yù)測器是一個Python對象,來實(shí)現(xiàn)fit(X, y)和predict(T)方法。
下面這個預(yù)測器的例子是classsklearn.svm.SVC,實(shí)現(xiàn)了 支持向量機(jī)分類 。創(chuàng)建分類器需要模型參數(shù),但現(xiàn)在,我們暫時(shí)先將預(yù)測器看作是一個黑盒:
>>> from sklearn import svm >>> clf = svm.SVC(gamma=0.001, C=100.)
選擇模型參數(shù)
在這個例子里我們手動設(shè)置了gamma值?梢酝ㄟ^這些工具例如 (grid search)和 (cross validation)來自動找到參數(shù)的最佳取值。
給預(yù)測器取個名字叫做clf(claasifier),F(xiàn)在預(yù)測器必須來 匹配 (fit)模型,也就是說,它必須從模型中 學(xué)習(xí) (learn)。這個過程是通過將訓(xùn)練集傳遞給fit方法來實(shí)現(xiàn)的。我們將除了最后一個樣本的數(shù)據(jù)全部作為訓(xùn)練集。通過Python語法[:-1]來選擇訓(xùn)練集,這會生成一個新的數(shù)組,包含了除最后一個條目的digits.data:
>>> clf.fit(digits.data[:-1], digits.target[:-1]) # doctest: +NORMALIZE_WHITESPACE SVC(C=100.0, cache_size=200, class_weight=None, coef0=0.0, degree=3, gamma=0.001, kernel='rbf', max_iter=-1, probability=False, random_state=None, shrinking=True, tol=0.001, verbose=False)現(xiàn)在你可以預(yù)測新值了,具體來說,我們可以詢問分類器,digits數(shù)據(jù)集里最后一個圖案所代表的數(shù)字是什么,我們并沒有用最后一個數(shù)據(jù)來訓(xùn)練分類器。
>>> clf.predict(digits.data[-1]) array([8])
最一個圖案如下:
如你所見,這項(xiàng)任務(wù)很具有挑戰(zhàn)性:這個圖案的分辨率很差。你能和分類器得到一致結(jié)果嗎?
一個更復(fù)雜的分類問題的例子在這里: (Recognizing hand-written digits),供學(xué)習(xí)參考。
模型持久性(Model persistence)可以采用Python內(nèi)建的持久性模型 pickle 來保存scikit的模型:
>>> from sklearn import svm >>> from sklearn import datasets >>> clf = svm.SVC() >>> iris = datasets.load_iris() >>> X, y = iris.data, iris.target >>> clf.fit(X, y) # doctest: +NORMALIZE_WHITESPACE SVC(C=1.0, cache_size=200, class_weight=None, coef0=0.0, degree=3, gamma=0.0, kernel='rbf', max_iter=-1, probability=False, random_state=None, shrinking=True, tol=0.001, verbose=False) >>> import pickle >>> s = pickle.dumps(clf) >>> clf2 = pickle.loads(s) >>> clf2.predict(X[0]) array([0]) >>> y[0] 0在scikit的特定情形下,用joblib’s來代替pickle(joblib.dump&joblib.load)會更吸引人,在大數(shù)據(jù)下效率更高,但只能pickle到磁盤而不是字符串:
>>> from sklearn.externals import joblib >>> joblib.dump(clf, 'filename.pkl') # doctest: +SKIP你可以在之后重新加載pickled模型(可以在另一個Python程序里):
>>> clf = joblib.load('filename.pkl') # doctest:+SKIP注意:joblib.dump返回一個文件名列表。每個包含在clf對象中獨(dú)立的numpy數(shù)組是在文件系統(tǒng)中是按順序排列的一個獨(dú)立文件。當(dāng)用joblib.load重新加載模型時(shí),所有文件必須在同一個目錄下。
注意pickle有一些安全性和維護(hù)性問題。請參考 章節(jié)獲得更多關(guān)于scikit-learn模型持久性的信息。
本文關(guān)鍵詞:scikit-learn,由筆耕文化傳播整理發(fā)布。
本文編號:116391
本文鏈接:http://sikaile.net/wenshubaike/kaixinbaike/116391.html