最近在跟臺(tái)大的這個(gè)課程,覺(jué)得不錯(cuò),想把學(xué)習(xí)筆記發(fā)出來(lái)跟大家分享下,有錯(cuò)誤希望大家指正。
一機(jī)器學(xué)習(xí)是什么?
感覺(jué)和 Tom M. Mitchell的定義幾乎一致,
A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T, as measured by P, improves with experience E.
簡(jiǎn)而言之,就是我們想要機(jī)器在某些方面有提高(如搜索排名的質(zhì)量,即NDCG提高),就給機(jī)器一些數(shù)據(jù)(用戶(hù)的點(diǎn)擊數(shù)據(jù)等各種)然后讓機(jī)器獲得某些經(jīng)驗(yàn)(Learning to rank的一種模型,也就是數(shù)學(xué)公式)。這里有點(diǎn)需要強(qiáng)調(diào),那就是提高指標(biāo),必須要有某種指標(biāo)可以量化這種提高,這點(diǎn)還是很關(guān)鍵的,工業(yè)界做機(jī)器學(xué)習(xí),首先關(guān)注data,其次就是有無(wú)成型的measurement,可以使Precision/Recall,也可以是NDCG等。
二什么時(shí)候可以用機(jī)器學(xué)習(xí)?
其實(shí)就三要素:
- 有規(guī)律可以學(xué)習(xí);
- 編程很難做到;
- 有能夠?qū)W習(xí)到規(guī)律的數(shù)據(jù);
編程很難做到可以有多種,大部分原因是系統(tǒng)太復(fù)雜,很難用Rule-based的東西去解決,例如搜索排名,現(xiàn)在影響排名的因素有超多幾百種,不可能去想出這些因素的規(guī)則,因此,這時(shí)候用機(jī)器學(xué)習(xí)就是恰到好處。特別是移動(dòng)互聯(lián)網(wǎng)的今天,用戶(hù)更容易接觸互聯(lián)網(wǎng),產(chǎn)生的數(shù)據(jù)越來(lái)越多,那么要找到某些不容易實(shí)現(xiàn)的規(guī)律,用機(jī)器學(xué)習(xí)就是很好的了,這也是為啥機(jī)器學(xué)習(xí)這么火,其實(shí)我學(xué)機(jī)器學(xué)習(xí)不僅僅是一種投資(肯定它未來(lái)的發(fā)展前途),我想做的事情還有一點(diǎn),就是通過(guò)它更深刻的理解人腦的學(xué)習(xí)過(guò)程,提高自己的學(xué)習(xí)效率和思維能力。
三具體如何用機(jī)器學(xué)習(xí)?
輸入是兩個(gè):1 data;2 假設(shè)集合。Data如何使用?通過(guò)提取出feature vector來(lái)使用,也就是那個(gè)training examples,假設(shè)集合是用來(lái)選取最終f的。也就是說(shuō),輸出就是f(或近似f)。
四第一個(gè)機(jī)器學(xué)習(xí)算法:PLA(Perceptron Learning Algorithm)
課程講述這個(gè)算法的總體思路如下(典型的提出問(wèn)題,分析問(wèn)題以及解決問(wèn)題):
- 通過(guò)信用卡問(wèn)題引入PLA;
- 對(duì)問(wèn)題用數(shù)學(xué)抽象,并得到目標(biāo)函數(shù);
- 詳細(xì)解釋PLA迭代(學(xué)習(xí))過(guò)程;
- 證明PLA學(xué)習(xí)的過(guò)程可以收斂并會(huì)得到最優(yōu)解;
- 分析PLA優(yōu)缺點(diǎn),并提出克服缺點(diǎn)的一些方法;
這個(gè)算法本質(zhì)上是線性分類(lèi)器,針對(duì)給定的feature vector給出Yes 或者 No的回答
下面是用這個(gè)算法去解決信用卡問(wèn)題的數(shù)學(xué)抽象:
這里的思想在于樸素的把從用戶(hù)信息抽出來(lái)的一些feature(年齡等)量化并組成vector,然后乘以一個(gè)權(quán)重向量,并設(shè)定一個(gè)閾值,大于這個(gè)閾值就表示好,小于表示不好,很明顯這個(gè)式子的未知變量有兩個(gè)(實(shí)際只有一個(gè)):
- 權(quán)重向量 wi, 1<=i<=d;
- 閾值,下面設(shè)為0
做一點(diǎn)小小的變形使得式子更加緊湊,
還有就是從這個(gè)模型可以知道,regression model也可以解決classification問(wèn)題,轉(zhuǎn)化的思想。下面是這個(gè)算法的核心,定義了學(xué)習(xí)目標(biāo)之后,如何學(xué)習(xí)?這里的學(xué)習(xí)是,如何得到最終的直線去區(qū)分data?
這個(gè)算法的精髓之處在于如何做到"做錯(cuò)能改",其循環(huán)是不斷遍歷feature vector,找到錯(cuò)誤的點(diǎn)(Yn和當(dāng)前Wt*Xn不符合),然后校正Wt,那么為什么要這樣校正?因?yàn)檫@樣可以保證Wt越來(lái)越靠近perfect直線Wf(ps.暫時(shí)沒(méi)想到正向思維是如何得到這個(gè)式子的)課程像大多數(shù)課本一樣,用逆向思維給予介紹,就是在給定這樣能夠做的情況下去證明,即證明為什么這樣做可以不斷接近目標(biāo),以及最終一定會(huì)停止?
下面道出了PLA終止的條件:
這個(gè)是比較容易想到的,如果不能用直線去區(qū)分data(線性不可分),肯定是解決不了的,所以必須要滿(mǎn)足線性可分,其實(shí)問(wèn)題的關(guān)鍵在于如何方便的知道某些數(shù)據(jù)是否線性可分?這個(gè)在課程中目前沒(méi)有涉及,一種簡(jiǎn)單的解決方法是畫(huà)出來(lái),直觀的去看,這個(gè)我覺(jué)得不是好方法。
這兩頁(yè)PPT比較復(fù)雜,其實(shí)就是在利用條件證明,下面重新組織下給出思路,因?yàn)?/span>Latex用中文不太爽,就用英文了:
五 PLA的優(yōu)缺點(diǎn)
為了應(yīng)對(duì)Noisy,我們不可能得到完美的直線,那么怎么衡量當(dāng)前得到的直線能夠滿(mǎn)足要求呢?憑直覺(jué),我們知道如果當(dāng)前直線犯錯(cuò)越少越好(對(duì)所有data),于是有了下面的改進(jìn)算法,Pocket PLA,本質(zhì)上就是在改錯(cuò)的時(shí)候多做一步 -- 判斷當(dāng)前改正犯的錯(cuò)是否比之前更小,也就是貪心選擇
上了一周臺(tái)大的這個(gè)課程感覺(jué)老師還是很負(fù)責(zé)任,特別是循循善誘的教學(xué)方式真正是站在學(xué)生的角度考慮問(wèn)題,更重要的是,我很欣賞課程的脈絡(luò),其由幾個(gè)關(guān)鍵問(wèn)題引出整套課程,這和《如何閱讀一本書(shū)》里面帶著問(wèn)題閱讀很像,其實(shí)學(xué)習(xí)也是如此,這點(diǎn)必須贊一下,也做個(gè)小廣告,目前大家都在推薦Ng教授的課程,我覺(jué)得這個(gè)課程也值得推薦。
參考資料:
Coursera臺(tái)大機(jī)器學(xué)習(xí)基石
注:除了證明,其他授課ppt都來(lái)源于課程
代碼:
#include <iostream>
#include <vector>
using namespace std;
struct Item{
int x0 = 1; //需要C++11
double x1, x2, x3, x4;
int label;
};
struct Wight{
double w0, w1, w2, w3, w4;
}Wit0 = { 0, 0, 0, 0, 0 };
//////////////////////////////////////////////////////////////////////////////////////
int sign(double x){
if (x>0)
return 1;
else if (x<0)
return -1;
else
return 0;
}
//////////////////////////////////////////////////////////////////////////////////////
double DotPro(Item item, Wight wit){
return item.x0*wit.w0 + item.x1*wit.w1 + item.x2*wit.w2 + item.x3*wit.w3 + item.x4*wit.w4;
}
//////////////////////////////////////////////////////////////////////////////////////
Item NumPro(int k, Item item){
Item NewItem;
NewItem.x0 = item.x0*k;
NewItem.x1 = item.x1*k;
NewItem.x2 = item.x2*k;
NewItem.x3 = item.x3*k;
NewItem.x4 = item.x4*k;
return NewItem;
}
//////////////////////////////////////////////////////////////////////////////////////
Wight WightAnd(Item item, Wight wit){
Wight NewWigth;
NewWigth.w0 = item.x0 + wit.w0;
NewWigth.w1 = item.x1 + wit.w1;
NewWigth.w2 = item.x2 + wit.w2;
NewWigth.w3 = item.x3 + wit.w3;
NewWigth.w4 = item.x4 + wit.w4;
return NewWigth;
}
//////////////////////////////////////////////////////////////////////////////////////
void main()
{
ofstream output("D:/data2.txt");
ifstream input("D:/data0.txt");
vector<Item> data;
Item temp;
while (input >> temp.x1 >> temp.x2 >> temp.x3 >> temp.x4 >> temp.label){
data.push_back(temp);
}
vector<Item>::iterator it;
Wight wit = Wit0;
for (it = data.begin(); it != data.end(); it++)
{
if ((*it).label != sign(DotPro(*it, wit))){
wit = WightAnd(NumPro((*it).label, *it), wit);
it = data.begin();
}
}
cout << wit.w0 << " " << wit.w1 << " " << wit.w2 << " " << wit.w3 << " " << wit.w4 << endl;
/* 測(cè)試數(shù)據(jù)
for (it = data.begin(); it != data.end(); it++)
{
output << sign(DotPro(*it, wit)) << endl;
}
*/
}