• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>

            sunrise

            每天不斷學(xué)習(xí),才能不斷提升自己。

              C++博客 :: 首頁 :: 新隨筆 :: 聯(lián)系 :: 聚合  :: 管理 ::
              64 隨筆 :: 0 文章 :: 92 評論 :: 0 Trackbacks

            機(jī)器學(xué)習(xí)是研究人類的學(xué)習(xí)活動,獲取知識和技能的理論和方法,改善系統(tǒng)性能的學(xué)科。

            1.歸納學(xué)習(xí):從大量的經(jīng)驗數(shù)據(jù)中歸納抽取出一般判定規(guī)則和模式,是從特殊情況推導(dǎo)出一般規(guī)則的學(xué)習(xí)方法。歸納學(xué)習(xí)可劃分為單概念學(xué)習(xí)和多概念學(xué)習(xí)。概念指用某種描述語言表的謂詞,當(dāng)應(yīng)用于負(fù)實例時為假。對于單概念的學(xué)習(xí),學(xué)習(xí)的目的是從概念空間中尋找某個與實例空間一致的概念,對于多概念的學(xué)習(xí)任務(wù),是從概念空間中尋找若干概念描述,對于每一個概念的描述,實例空間中均有相應(yīng)的空間與之對應(yīng)。

            2.變型空間學(xué)習(xí)法:在變型空間方法中,根據(jù)概念之間的特殊性和一般性,可將變型空間表示成偏序集的形式,變型空間方法以包含整個概念的規(guī)則空間為初始的假設(shè)規(guī)則集合H,它是迄今為止所得到的所有訓(xùn)練實例相一致的概念集合。根據(jù)示教例子中的信息,對H進(jìn)行范化和特殊化處理,逐步縮小集合H,最后使H收斂為只含有要求的規(guī)則。

            候選項刪除算法http://hi.baidu.com/lvzhnan/blog/item/79edfc12957faa24dd5401f5.html

            3.決策樹的歸納學(xué)習(xí)方法:

            決策樹的構(gòu)造算法CLS

            1) 初始化參數(shù)C={E}E包括所有的例子,為根;

            2) 如果C中的任一元素e同屬于同一個決策類則創(chuàng)建一個葉子節(jié)點(diǎn)YES終止;否則依啟發(fā)式標(biāo)準(zhǔn),選擇特征Fi={V1, V2, V3,……, Vn}并創(chuàng)建判定節(jié)點(diǎn),劃分C為互不相交的N個集合C1C2C3,……,Cn

            3) 對任一個Ci遞歸。

            基本的決策樹學(xué)習(xí)算法:

            基本的決策樹學(xué)習(xí)算法ID3是通過自頂向下構(gòu)造決策樹來進(jìn)行學(xué)習(xí)。構(gòu)造過程從一個“哪一個屬性將在樹的根節(jié)點(diǎn)被測試?”這個問題開始的。為了回答這個問題,使用統(tǒng)計測試來確定每一個實例屬性單獨(dú)分類訓(xùn)練樣例的能力,分類能力最好的熟悉被選作樹的根節(jié)點(diǎn)的測試。然后為根節(jié)點(diǎn)的屬性每個可能的值產(chǎn)生一個分支,并把訓(xùn)練樣例排列到適當(dāng)?shù)姆种е隆H缓笾貜?fù)整個過程,用每個分支節(jié)點(diǎn)的關(guān)聯(lián)訓(xùn)練樣例來選取在該點(diǎn)被測試的最佳屬性。這形成了對合格決策樹的貪婪搜索。

            基本的ID3算法為:

            1) 隨機(jī)選擇C的一個子集W (窗口)

            2) 調(diào)用CLS生成W的分類樹DT(強(qiáng)調(diào)的啟發(fā)式標(biāo)準(zhǔn)在后)

            3) 順序掃描C搜集DT的意外(即由DT無法確定的例子)

            4) 組合W與已發(fā)現(xiàn)的意外,形成新的W

            5) 重復(fù)2)4),直到無例外為止。

            啟發(fā)式標(biāo)準(zhǔn):

            只跟本身與其子樹有關(guān),采取信息理論用熵來量度。

            是選擇事件時選擇自由度的量度,其計算方法為:P=freq(Cj,S)/|S|INFO(S)=-SUM(P*LOG(P))SUM()函數(shù)是求j1n的和。Gain(X)=Info(X)-Infox(X)Infox(X)=SUM( (|Ti|/|T|)*Info(X)

            為保證生成的決策樹最小,ID3算法在生成子樹時,選取使生成的子樹的熵(Gain(S))最小的特征來生成子樹。

            ID3算法對數(shù)據(jù)的要求:

            1) 所有屬性必須為離散量;

            2) 所有的訓(xùn)練例的所有屬性必須有一個明確的值;

            3) 相同的因素必須得到相同的結(jié)論且訓(xùn)練例必須唯一。

            4.類比學(xué)習(xí)

            1)類比標(biāo)示:指出源問題實例和新問題之間的相似性;

            2)確定映射函數(shù):選擇源問題實例的相關(guān)部分,確定映射函數(shù);

            3)應(yīng)用映射函數(shù):使用映射函數(shù),將新問題從給定的領(lǐng)域轉(zhuǎn)換到目標(biāo)領(lǐng)域;

            4)有效性:采用證明或仿真的過程檢驗新得到方案的有效性;

            5)學(xué)習(xí):如果新方案是有效的,則可以對新的知識進(jìn)行編碼和保存。

            5.基于范例的學(xué)習(xí):

            基于范式推理(Case Based Reasoning,CBR)。人工智能領(lǐng)域中一種重要的基于知識問題求解和學(xué)習(xí)的方法。

             

            基于范例的推理:

            1)       檢索算法:近鄰法,歸納法,以及模板檢索

            近鄰法:采用特征間的加權(quán)匹配來估計范例之間的相似度;

            歸納法:可以確定那個特征用于分規(guī)范時最好,此方法能生成一棵決策樹,它可以有效的組織范例。

            模板檢索:與SQL查詢類似,模板檢索能返回一定參數(shù)值范圍內(nèi)的所有范例。

               調(diào)整:

               在舊解中增加新的內(nèi)容,或從舊解中刪去某些內(nèi)容,或?qū)εf解中的某些內(nèi)容進(jìn)行替換,或舊解中的某些部分進(jìn)行重新交換。

               辯護(hù):

               除了尋找新舊范例間的相似之處,辯護(hù)過程還有對它們之間的不同點(diǎn)進(jìn)行仔細(xì)的考慮以確定過去的情況是否適應(yīng)現(xiàn)在的情況。

               6.解釋學(xué)習(xí):

               基于解釋的學(xué)習(xí)是分析學(xué)習(xí)的主要方式,基于解釋的學(xué)習(xí)(簡稱EBL)是將大量的成果匯集在一個統(tǒng)一、簡單的框架內(nèi),通過分析為什么實例是某個目標(biāo)概念的一個具體的例子,EBL對分析過程加以推廣,剔去與具體例子相關(guān)的成分,從而產(chǎn)生目標(biāo)概念的一個描述。通過一個實例學(xué)習(xí),抽象目標(biāo)概念被具體化,變得易操作與理解,從而為相似問題的求解提供有效的經(jīng)驗。

            EBL的框架一般是一個四元組<DT,TC,E,C>來表示,分別表示領(lǐng)域理論,目標(biāo)概念,訓(xùn)練實例和可操作準(zhǔn)則。

               基于解釋學(xué)習(xí)的過程:

            1)  分析階段:使用領(lǐng)域理論建立一個證明訓(xùn)練例子滿足目標(biāo)的概念定義的解釋結(jié)構(gòu),該結(jié)構(gòu)可表示為一棵證明樹,又稱為解釋樹,他用于解釋為什么實例是目標(biāo)概念的一個實例,起每個分枝的葉節(jié)點(diǎn)上的表達(dá)式都必須滿足可操作性的準(zhǔn)則。

            2)  基于解釋的泛化(Explanation-Based Generzalion,EBG)階段:通過將實例證明樹中的常量用變量進(jìn)行替換,從而完成解釋的泛化,并使用滿足操作的準(zhǔn)則,形成一棵基于解釋的泛化樹,得到目標(biāo)概念的一個充分條件。

            7.支持向量機(jī)(Support Vector Machine,SVM):是從線性可分情況下的最優(yōu)分類面發(fā)展而來的,采用的是保持經(jīng)驗風(fēng)險值固定而最小化置信范圍的策略。

            支持向量機(jī)屬于一般化線性分類器。它們也可以被認(rèn)為是提克洛夫規(guī)范化(Tikhonov Regularization)方法的一個特例。這種分類器的特點(diǎn)是他們能夠同時最小化經(jīng)驗誤差與最大化幾何邊緣區(qū)。因此支持向量機(jī)也被稱為最大邊緣區(qū)分類器

            在統(tǒng)計計算中,最大期望(EM)算法是在概率(probabilistic)模型中尋找參數(shù)最大似然估計的算法,其中概率模型依賴于無法觀測的隱藏變量(Latent Variable)。最大期望經(jīng)常用在機(jī)器學(xué)習(xí)和計算機(jī)視覺的數(shù)據(jù)集聚(Data Clustering)領(lǐng)域。最大期望算法經(jīng)過兩個步驟交替進(jìn)行計算,第一步是計算期望(E),也就是將隱藏變量像能夠觀測到的一樣包含在內(nèi)從而計算最大似然的期望值;另外一步是最大化(M),也就是最大化在 E 步上找到的最大似然的期望值從而計算參數(shù)的最大似然估計。M 步上找到的參數(shù)然后用于另外一個 E 步計算,這個過程不斷交替進(jìn)行。

            Vapnik等人在多年研究統(tǒng)計學(xué)習(xí)理論基礎(chǔ)上對線性分類器提出了另一種設(shè)計最佳準(zhǔn)則。其原理也從線性可分說起,然后擴(kuò)展到線性不可分的情況。甚至擴(kuò)展到使用非線性函數(shù)中去,這種分類器被稱為支持向量機(jī)(Support Vector Machine,簡稱SVM)。支持向量機(jī)的提出有很深的理論背景。支持向量機(jī)方法是在近年來提出的一種新方法,但是進(jìn)展很快,已經(jīng)被廣泛應(yīng)用在各個領(lǐng)域之中。

            SVM的主要思想可以概括為兩點(diǎn):

            (1) 它是針對線性可分情況進(jìn)行分析,對于線性不可分的情況,通過使用非線性映射算法將低維輸入空間線性不可分的樣本轉(zhuǎn)化為高維特征空間使其線性可分,從而使得高維特征空間采用線性算法對樣本的非線性特征進(jìn)行線性分析成為可能;

            (2) 它基于結(jié)構(gòu)風(fēng)險最小化理論之上在特征空間中建構(gòu)最優(yōu)分割超平面,使得學(xué)習(xí)器得到全局最優(yōu)化,并且在整個樣本空間的期望風(fēng)險以某個概率滿足一定上界。

            在學(xué)習(xí)這種方法時,首先要弄清楚這種方法考慮問題的特點(diǎn),這就要從線性可分的最簡單情況討論起,在沒有弄懂其原理之前,不要急于學(xué)習(xí)線性不可分等較復(fù)雜的情況,支持向量機(jī)在設(shè)計時,需要用到條件極值問題的求解,因此需用拉格朗日乘子理論,但對多數(shù)人來說,以前學(xué)到的或常用的是約束條件為等式表示的方式,但在此要用到以不等式作為必須滿足的條件,此時只要了解拉格朗日理論的有關(guān)結(jié)論就行。

            支持向量機(jī)將向量映射到一個更高維的空間里,在這個空間里建立有一個最大間隔超平面。在分開數(shù)據(jù)的超平面的兩邊建有兩個互相平行的超平面。分隔超平面使兩個平行超平面的距離最大化。假定平行超平面間的距離或差距越大,分類器的總誤差越小。一個極好的指南是C.J.C Burges的《模式識別支持向量機(jī)指南》。van der Walt Barnard 將支持向量機(jī)和其他分類器進(jìn)行了比較。

               有很多個分類器(超平面)可以把數(shù)據(jù)分開,但是只有一個能夠達(dá)到最大分割。

            我們通常希望分類的過程是一個機(jī)器學(xué)習(xí)的過程。這些數(shù)據(jù)點(diǎn)并不需要是 中的點(diǎn),而可以是任意 (統(tǒng)計學(xué)符號)中或者 (計算機(jī)科學(xué)符號) 的點(diǎn)。我們希望能夠把這些點(diǎn)通過一個n-1維的超平面分開,通常這個被稱為線性分類器。有很多分類器都符合這個要求,但是我們還希望找到分類最佳的平面,即使得屬于兩個不同類的數(shù)據(jù)點(diǎn)間隔最大的那個面,該面亦稱為最大間隔超平面。如果我們能夠找到這個面,那么這個分類器就稱為最大間隔分類器

            設(shè)樣本屬于兩個類,用該樣本訓(xùn)練SVM得到的最大間隔超平面。在超平面上的樣本點(diǎn)也稱為支持向量。

            SVM的優(yōu)勢:

            由于支持向量機(jī)方法是建立在統(tǒng)計學(xué)習(xí)理論的VC維理論和結(jié)構(gòu)風(fēng)險最小原理基礎(chǔ)上的,根據(jù)有限的樣本信息在模型的復(fù)雜性(即對特定訓(xùn)練樣本的學(xué)習(xí)精度,Accuracy)和學(xué)習(xí)能力(即無錯誤地識別任意樣本的能力)之間尋求最佳折衷,以期獲得最好的推廣能力(Generalizatin Ability)。支持向量機(jī)方法的幾個主要優(yōu)點(diǎn)是:

            l   可以解決小樣本情況下的機(jī)器學(xué)習(xí)問題;

            l   可以提高泛化性能;

            l   可以解決高維問題;

            l   可以解決非線性問題;

            l  可以避免神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)選擇和局部極小點(diǎn)問題。

            posted on 2012-04-23 14:07 SunRise_at 閱讀(2508) 評論(2)  編輯 收藏 引用 所屬分類: 機(jī)器算法

            只有注冊用戶登錄后才能發(fā)表評論。
            網(wǎng)站導(dǎo)航: 博客園   IT新聞   BlogJava   博問   Chat2DB   管理


            久久艹国产| 久久九九有精品国产23百花影院| 久久精品毛片免费观看| 欧美一区二区三区久久综合| 久久国产精品成人片免费| 亚洲午夜无码久久久久小说| 久久人人爽人人爽人人片AV不 | 亚洲伊人久久综合中文成人网| 丁香五月综合久久激情| 久久婷婷是五月综合色狠狠| 无码任你躁久久久久久老妇| 久久人人爽人人爽人人片AV高清 | 99久久国产热无码精品免费 | 久久人妻AV中文字幕| 噜噜噜色噜噜噜久久| 久久99热这里只频精品6| 久久99国产综合精品女同| 久久久久久久97| 996久久国产精品线观看| 欧美激情精品久久久久久久| av无码久久久久不卡免费网站| 久久精品国产亚洲av高清漫画| AAA级久久久精品无码片| 亚洲综合婷婷久久| 午夜人妻久久久久久久久| 久久有码中文字幕| 久久久国产精华液| 999久久久无码国产精品| 日韩亚洲欧美久久久www综合网| A级毛片无码久久精品免费| 久久久99精品一区二区| 国产精品久久久久久吹潮| 亚洲一本综合久久| 国产精品久久久香蕉| 久久不见久久见免费视频7| 四虎国产精品免费久久久 | 亚洲精品99久久久久中文字幕| 亚洲中文字幕无码久久2020| 国产成人综合久久精品红| 国产综合久久久久| 性高朝久久久久久久久久|