杰
杰哥好,哈哈!
要有魄力,即使失敗,也不要讓自己的人生平庸! 如果您覺(jué)得看過(guò)的文章還不錯(cuò),請(qǐng)幫我點(diǎn)一個(gè)右邊廣告(沒(méi)有任何副作用),謝謝!
常用鏈接
我的隨筆
我的評(píng)論
我參與的隨筆
留言簿
(57)
給我留言
查看公開(kāi)留言
查看私人留言
隨筆分類(lèi)
Matlab(58)
(rss)
Optimization(7)
(rss)
Python(4)
(rss)
Search(30)
(rss)
名人(9)
(rss)
軟件使用(Software)(66)
(rss)
學(xué)術(shù)(102)
(rss)
隨筆檔案
2021年3月 (2)
2021年2月 (1)
2021年1月 (1)
2020年10月 (1)
2020年9月 (1)
2019年2月 (1)
2018年10月 (1)
2018年9月 (2)
2018年8月 (1)
2018年7月 (2)
2018年6月 (1)
2018年5月 (1)
2018年4月 (1)
2018年3月 (4)
2018年2月 (2)
2018年1月 (1)
2017年12月 (4)
2017年11月 (2)
2017年9月 (2)
2017年8月 (1)
2017年7月 (1)
2017年6月 (4)
2017年5月 (3)
2017年4月 (1)
2017年1月 (1)
2016年12月 (8)
2016年11月 (3)
2016年10月 (3)
2016年9月 (2)
2016年8月 (2)
2016年7月 (4)
2016年6月 (6)
2016年5月 (7)
2016年4月 (1)
2016年3月 (3)
2016年2月 (1)
2016年1月 (2)
2015年12月 (6)
2015年11月 (3)
2015年10月 (4)
2015年9月 (3)
2015年8月 (5)
2015年7月 (6)
2015年6月 (7)
2015年5月 (8)
2015年4月 (9)
2015年3月 (4)
2015年2月 (1)
2015年1月 (3)
2014年12月 (4)
2014年11月 (2)
2014年10月 (5)
2014年9月 (3)
2014年8月 (5)
2014年7月 (7)
2014年6月 (4)
2014年5月 (1)
2014年4月 (1)
2014年3月 (2)
2013年12月 (4)
2013年11月 (3)
2013年9月 (4)
2013年8月 (3)
2013年7月 (6)
2013年6月 (4)
2013年5月 (1)
2013年4月 (1)
2013年3月 (2)
2013年2月 (1)
2013年1月 (3)
2012年12月 (3)
2012年11月 (10)
2012年10月 (11)
2012年9月 (2)
2012年8月 (6)
2012年7月 (6)
2012年6月 (4)
2012年5月 (1)
2012年4月 (3)
2012年3月 (5)
2012年1月 (1)
2011年12月 (1)
2011年11月 (4)
2011年10月 (3)
2011年9月 (3)
2011年8月 (1)
2011年7月 (1)
2011年6月 (2)
2011年5月 (2)
2011年2月 (1)
2011年1月 (3)
2010年12月 (7)
2010年11月 (5)
2010年10月 (7)
2010年9月 (3)
2010年8月 (7)
2010年7月 (7)
2010年5月 (5)
2010年3月 (6)
2010年1月 (5)
2009年12月 (5)
2009年11月 (4)
2009年10月 (5)
2009年9月 (4)
2009年8月 (1)
2009年7月 (2)
2009年6月 (3)
2009年5月 (1)
2009年4月 (3)
2009年3月 (5)
2009年2月 (2)
2009年1月 (1)
2008年12月 (1)
2008年10月 (1)
2008年9月 (1)
2008年8月 (1)
2008年7月 (4)
2008年5月 (2)
2008年1月 (1)
2006年11月 (1)
2006年4月 (1)
相冊(cè)
搞笑圖片
Other
安徽電力公司客服網(wǎng)站
編程
程序員聯(lián)合開(kāi)發(fā)網(wǎng)
經(jīng)典歌曲
兩全其美
新雨絲
中國(guó)工商銀行
中國(guó)建設(shè)銀行
中國(guó)建設(shè)銀行信用卡
中國(guó)農(nóng)業(yè)銀行
Paper submission
ACM Computing Surveys
AI in medicine
amino acids
Artificial Intelligence Review
Bioinformatics
BMCBioinformatics
conference Rankings
conference(CVPR)
conference(ICML)
conference(NIPS)
conferences
Current Bioinformatics
CVIU
Electronics Letters
IJCM
IJCV
IJPRAI
Image and Vision Computing
Neural Computing and Applications (NCA)
Neural Networks
Neurocomputing
Pattern Recognition
Pattern Recognition Letters
pieee
TASE
TBD
Tbiom
TCDS
TCSS
TCSVT
TCYB
TDSC
TGRS
TIFS
TII
TIP
TKDE
TMM
TNNLS
TPAMI
TSMCS
TVT
福彩
安徽福彩網(wǎng)
雙色球玩法規(guī)則介紹
留學(xué)相關(guān)
Google翻譯
愛(ài)詞霸在線詞典
美國(guó)總領(lǐng)事館
普特英語(yǔ)聽(tīng)力
太傻論壇
在線科技詞典
論壇
科大bbs
科學(xué)島論壇
模式識(shí)別愛(ài)好者論壇
搜索
arxiv
google ipv6
google臺(tái)灣
google香港
google學(xué)術(shù)搜索
Journal citation reports (JCR)
scholarpedia
wikipedia維基百科
北京天氣預(yù)報(bào)
電驢
合肥天氣預(yù)報(bào)
樂(lè)乎(下載電影)
微軟學(xué)術(shù)搜索
學(xué)者
Dacheng tao
Deng Cai
Dengyong Zhou
dodo
Jian Yang
Jie Gui
Meina Kan
Tianyi Zhou
Tongliang Liu
Weifeng Liu
Xiaojin Zhu
yong xu (hit)
Zhen Lei (ia)
桂衛(wèi)華
中科院水生所所長(zhǎng)桂建芳
郵箱
126郵箱abroad
126郵箱國(guó)內(nèi)
google 郵箱
hotmail
Seu (東南大學(xué))
科大校友郵箱
科大郵箱
中科院
中科大和中科院
Niu Group (inside)
Niu Group (Outside)
合肥研究院圖書(shū)館
智能所
搜索
最新評(píng)論
1.?re: Office 2010中刪除Endnote web 插件
真是救了我呀!
--ss
2.?re: metric learning(度量學(xué)習(xí))
76765
--656
3.?re: 全新的美國(guó)計(jì)算機(jī)學(xué)科排名[未登錄](méi)
隨便拉出一個(gè)來(lái)就能秒天朝的 北*大學(xué),清*大學(xué)到火星...
--chipset
4.?re:【超智多能思維科學(xué)研究所】致 蒲慕明教授的eMail
評(píng)論內(nèi)容較長(zhǎng),點(diǎn)擊標(biāo)題查看
--江偉
5.?re: Adobe distiller: Cambria not found, using Courier. 報(bào)錯(cuò)解決辦法
解決了,謝謝!
--lyh
閱讀排行榜
1.?[轉(zhuǎn)貼]Google被封、gmail.com郵箱、gmail登錄不了的辦法(25675)
2.?arg min的含義是什么?(24487)
3.?latex問(wèn)題集錦(19435)
4.?matlab命令窗口輸出函數(shù)disp和display(17328)
5.?MATLAB字符串?dāng)?shù)組(15451)
評(píng)論排行榜
1.?K近鄰分類(lèi)器的matlab代碼(Matlab code of k-nearest neighbors)(13)
2.?LibSVM學(xué)習(xí)記錄(6)
3.?全國(guó)接聽(tīng)免費(fèi)附加套餐(5)
4.?EndNote 亂碼 解決方案(5)
5.?孟巖blog理解矩陣一、二, 三(5)
Powered by:
博客園
模板提供:
滬江博客
C++博客
|
首頁(yè)
|
發(fā)新隨筆
|
發(fā)新文章
|
聯(lián)系
|
聚合
|
管理
What is the computational complexity of an SVM?
http://www.quora.com/What-is-the-computational-complexity-of-an-SVM
Alexandre Passos
,
a PhD student in machine learning in ...
(more)
27
upvotes by
Quora User
,
Olivier Grisel
,
Quora User
,
(more)
It is very hard to characterize correctly. First, there are two complexities involved: at training time and at test time. For linear SVMs, at training time you must estimate the vector w and bias b by solving a quadratic problem, and at test time prediction is linear in the number of features and constant in the size of the training data. For kernel SVMs, at training time you must select the support vectors and at test time your complexity is linear on the number of the support vectors (which can be lower bounded by training set size * training set error rate) and linear on the number of features (since most kernels only compute a dos product; this will vary for graph kernels, string kernels, etc).
Solving the quadratic problem and choosing the support vectors is generally hard. In general, just testing that you have an optimal solution to the SVM problem involves of the order of n² dot products, while solving the quadratic problem directly involves inverting the kernel matrix, which has complexity on the order of n³ (where n is the size of your training set). More references for this in
http://citeseerx.ist.psu.
edu/vie...
. However, one hardly ever needs to estimate the optimal solution; and the training time for a linear SVM to reach a certain level of generalization error actually decreases as training set size increases
http://citeseerx.ist.psu.
edu/vie...
. In general, this depends a lot on what techniques you're using, but expect to have training times of the order of n² for all but state-of-the-art linear SVMs or approximate solvers
Olivier Grisel
,
Contributor to the scikit-learn proje...
(more)
12
upvotes by
Alexandre Passos
,
Quora User
,
Sébastien Royer
,
(more)
I agree with Alexandre.
As a rule of thumb
I use: O(n_samples^2 *n_features)
for
RBF kernel using SMO solver
and n_sample * n_features
for linear SVMs such as liblinear also noting that strong regularization (low C) makes it faster to converge too.
Diego Cantor
,
PhD student, musician, cook, geek.
1
upvote by
Rahul K Mishra
.
It's
O
(max(n,d) min (n,d)^2), where n is the number of points and d is the number of dimensions, according to:
Chapelle, Olivier. "Training a support vector machine in the primal."
Neural Computation
19.5 (2007): 1155-1178.
發(fā)表于 2015-04-20 21:58
杰哥
閱讀(392)
評(píng)論(0)
編輯
收藏
引用
只有注冊(cè)用戶
登錄
后才能發(fā)表評(píng)論。
【推薦】100%開(kāi)源!大型工業(yè)跨平臺(tái)軟件C++源碼提供,建模,組態(tài)!
網(wǎng)站導(dǎo)航:
博客園
IT新聞
BlogJava
博問(wèn)
Chat2DB
管理
国产精品九九九久久九九
|
日本久久久久久中文字幕
|
精品人妻伦九区久久AAA片69
|
久久精品国产久精国产果冻传媒
|
狠狠色丁香久久婷婷综合蜜芽五月
|
国产亚洲成人久久
|
久久综合视频网
|
日韩亚洲欧美久久久www综合网
|
久久精品中文字幕第23页
|
久久久久亚洲AV无码麻豆
|
四虎影视久久久免费观看
|
狠狠色丁香久久婷婷综合五月
|
久久青青草原精品国产软件
|
精品久久久久久久久午夜福利
|
欧美亚洲另类久久综合婷婷
|
国产精品久久永久免费
|
精品国产乱码久久久久软件
|
久久精品国产福利国产琪琪
|
精品免费久久久久久久
|
久久夜色精品国产亚洲
|
久久久久99精品成人片三人毛片
|
免费精品久久天干天干
|
久久久久国产一区二区
|
九九精品99久久久香蕉
|
男女久久久国产一区二区三区
|
久久激情五月丁香伊人
|
97久久精品无码一区二区
|
久久96国产精品久久久
|
国内精品久久久久伊人av
|
久久久久人妻一区二区三区vr
|
中文字幕无码久久精品青草
|
亚洲伊人久久综合中文成人网
|
久久综合视频网站
|
亚洲国产成人乱码精品女人久久久不卡
|
国产精品女同久久久久电影院
|
一本一本久久aa综合精品
|
久久精品国产久精国产果冻传媒
|
亚洲精品第一综合99久久
|
久久精品久久久久观看99水蜜桃
|
久久精品极品盛宴观看
|
国产亚洲美女精品久久久2020
|