??xml version="1.0" encoding="utf-8" standalone="yes"?>久久国产精品一区二区,超级97碰碰碰碰久久久久最新,精品久久人人爽天天玩人人妻http://www.shnenglu.com/guijie/category/13861.html杰哥?哈哈!zh-cnTue, 21 Jul 2020 11:34:57 GMTTue, 21 Jul 2020 11:34:57 GMT60[zz] 灵魂调参师被 AutoGluon 打爆Q李沐:调得一手好参的时代要过Mhttp://www.shnenglu.com/guijie/archive/2020/01/22/217096.html杰哥杰哥Wed, 22 Jan 2020 15:25:00 GMThttp://www.shnenglu.com/guijie/archive/2020/01/22/217096.htmlhttp://www.shnenglu.com/guijie/comments/217096.htmlhttp://www.shnenglu.com/guijie/archive/2020/01/22/217096.html#Feedback0http://www.shnenglu.com/guijie/comments/commentRss/217096.htmlhttp://www.shnenglu.com/guijie/services/trackbacks/217096.html
日前Q亚马逊AWS推出AutoGluonQ只需三行代码自动生成高性能模型Q让调参、神l架构搜索等q程实现自动化?/span>一位调参师亲自试了一番,他手工调的faster rcnnpAutoGluon通过NAS自动搜烦的yolo打爆了整?个点?/span>q也让李沐大感慨:调得一手好参的时代要过M?/span>戛_辚w接上  了解更多Q?/span>

q日Q亚马逊宣布推出AutoGluonQ这是一个新的开源库Q开发h员可以用该库构建包含图像、文本或表格数据集的机器学习应用E序。用AutoGluonQ只需~写几行代码可以利用深度学习的力量来构建应用程序?/section>

已经有不朋友按耐不住内心的Ȁ动开始尝鲜,q不Q一位名?#8220;Justin ho”?#8220;灵魂调参?#8221;q自己的亲w经历给我们讲了一个深夜鬼故事Q?/section>

新智?/span> 点击q入获取原帖地址Q围观网友热?/span>Mini Program

他手工调的faster rcnnQresnet50 backboneQ就被AutoGluon通过NAS自动搜烦的yoloQmobilenet backboneQ打爆了整整6个点?/span>

q也让李沐大感慨,调得一手好参的时代要过MQ?/section>


知乎|友UL感慨Q调参法师要׃了:


接下来,我们为大家介l一下AutoGluon?/span>

AutoGluonQ用更少的代码,打造更高的SOTA性能模型

深度学习是机器学习的一部分Q深度学习模型是受到l构的启发而生成的。深度学习算法通常包含不少层,用于学习输入数据的有用表C。比如,在面向图像识别的深度学习模型中,较低的层可检更多的基本特征Q颜色或边缘Q,而较高的层可用于识别更复杂的特征Q如数字或对象)?/span>

一般来Ԍ部v深度学习模型Q实现最先进的性能需要广泛的专业知识。目前来看深度学习的应用仍主要局限在有限数量的专家中Q但在过dq里Qؓ了简化深度学习应用难度,降低门槛Q让机器学习为更多的技术专业h员方便用,研究人员的努力已l收C明显成效?/span>
 
比如Q开发h员早先必L入大量时间和专业知识Q来计算训练深度学习模型所需的梯度。梯度是向量Q可以标识出效果最好的参数更新Q最大程度地减少训练数据中实例的错误。像Theanoq样的Y件库甚至可以自动计算高度复杂的神l网l的梯度Q让开发h员通过h代码使用日益复杂的神l体pȝ构?/span>
 
像Kerasq样的较新的库代表了深度学习普适化的又一ơ进步?/span>它允许开发h员指定参敎ͼ比如输入数量Q深度学习模型的层数Q甚至仅需几行代码p定义一个网l层Q从而简化了现有库中的大量样板代码,而这部分代码在现在的库中是必不可的?/span>

不过Q即使有了这些进步,今天的深度学习专家和开发h员仍必须解决许多ȝ的问题,包括参数调整、数据预处理、神l体pȝ构搜索以及迁Ud习有关的决策?/span>

  • 参数调?/span>涉及到如何选择经|络中的层数、如何连接这些层Q即|络的体pȝ构)以及如何训练|络?/span>


  • 数据处理Q?/span>包括数据分类和正格式化矢量的数据预处理也可能是一个非帔R烦的q程?/span>


  • 经架构搜烦涉及自动化架构工E,能够使开发h员ؓ其机器学习模型找到最佌计。所有这些决定都需要相当多的专业知识,提高了深度学习的门槛?/span>



三行代码自动生成高性能模型Q让人工决策自动?/section>

AutoGluon为开发h员自动化了许多决{,开发h员只需三行代码卛_生成高性能的神l网l模型!

开发h员无需在设计深度学习模型时手动试必须做出的数癄选择Q只需单地指定让训l好的模型就l的旉卛_。作为响应,AutoGluon可以利用可用的计资源在其分配的q行旉内找到最强大的模型?/span>
AutoGluon可以通过自动调整默认范围内的选择来生成仅需三行代码的模型,而这些默认范围在已知范围内可以很好地完成l定d。开发h员只需指定他们何时准备好训l后的模型,AutoGluon׃利用可用的计资源来在分配的runtime中找到最强大的模型?/span>

Mueller_“׃深度学习固有的不透明性,深度学习专家做出的许多选择都是ZҎ的直觉,没有很严格的U学指导规范。AutoGluon解决了这个问题,因ؓ所有选择都会在默认范围内自动调整Q而且默认范围对于特定d和模型表现良好?#8221;

官网指南QAutoGluon快速上?/span>

AutoGluon官方|站为开发h员提供了许多教程Q可利用它们对表|文本和图像数据进行深度学习(诸如늛分类/回归{基本Q务以及对象检等更高U的dQ?/span>

对于l验丰富的开发h员,AutoGluon|站提供有关如何使用AutoGluon API来自动提高定制应用程序中的预性能的自定义说明?/span>
关于Autogluon明用教E和官方安装指南{更多信息,误官网Q?/span>
https://autogluon.mxnet.io/
Reference:
https://mp.weixin.qq.com/s/pUnQAfVgXQUJqJeqMKOCrw



杰哥 2020-01-22 23:25 发表评论
]]>[zz] hhGAN专利Q一整套Ҏ训练|络被收入囊?http://www.shnenglu.com/guijie/archive/2020/01/22/217095.html杰哥杰哥Wed, 22 Jan 2020 15:08:00 GMThttp://www.shnenglu.com/guijie/archive/2020/01/22/217095.htmlhttp://www.shnenglu.com/guijie/comments/217095.htmlhttp://www.shnenglu.com/guijie/archive/2020/01/22/217095.html#Feedback0http://www.shnenglu.com/guijie/comments/commentRss/217095.htmlhttp://www.shnenglu.com/guijie/services/trackbacks/217095.html作?| 十、年

~辑 | Camel

h获得?#8220;Ҏ训练经|络”专利?/span>
ҎFPOQ免费专利在U)信息昄Q此专利申请于2016q的9月䆾Q生效于2019q的12?1日?/span>

其中Q发明h为Ian J. GoodfellowQSzegedy, Christian。谷歌作为受让h拥有专利权,q意味着l神l网l?Dropout 专利之后Q又一构徏经|络的基Ҏ归属于谷歌?/span>
Ҏ该专利的声明Q保护条ƾ有14条。其中第一条便指出q是一U用来确定神l网l参数的ҎQ在接下来的条款中详l介l了经|络Ҏ训练的过E,涉及C数据处理、模型训l等{。也是说用对抗训l方法中的目标函敎ͼq代Ҏ都是受法律保护的?/span>
换句话说Q你如果使用Ҏ训练经|络可能存在着付费的风险?/span>

专利的其他参?/span>

另外值得注意的是Q这专利不仅包括GANQ?生成式对抗网l)。根据专利声明,其在甌中所用词语ؓ“Ҏ”Q?#8220;pȝ”Q这意味着此项专利是用来解x一cL器学习问题,而不是一个。另外,专利面也标明了此项专利的其他参考来源不仅仅局限于Goodfellow的?Generative Adversarial Nets》?/span>

何ؓҎ训练

Ҏ训练经|络最著名便是GANQ即生成式对抗网l,主要用在囑փ技术方面的囑փ生成和自然语a斚w的生成式对话内容?/span>
生成Ҏ|络框架
作ؓ一U深度学习模型,GAN是近q来复杂分布上无监督学习最具前景的Ҏ之一。最初是Ian J. Goodfellow{h?014q?0月在“Generative Adversarial Networks ”中提Z的一个通过Ҏq程估计生成模型的新框架Q此框架能够使得训练模型的数据更h益?/span>
在GAN讄中,两个ql网l(生成器和鉴别器)在这个框架中要扮演不同的角色。生成器试图生成来自某种概率分布的数据;鉴别器就像一个法官。它可以军_输入是来自生成器q是来自真正的训l集?/span>
例如在图像生成中如果生成器构造的囑փ不够好,那么鉴别器就传达一个负反馈l生成器Q于是生成器Ҏ反馈调整自n参数Q让下一ơ生成的囄质量得以提升Q它是靠这U体内自循环的方式不断提升自己构造图片的能力。其q行q程cM于武侠小说《射雕英雄传》中Q王重阳的师弟周伯通所使用?#8220;左右互博”之术?/span>

有何影响Q?/span>只是h的自我防御?

hq项专利在Reddit 论坛上有人提出忧虑,也有人相当乐观觉得没啥大不了的?/span>
哇!多谢GoodfellowQ这非常PZ个极其宽泛的概念甌专利肯定不会扼杀创新?/span>
有的意味深长的表C,q涵盖了经|络的对抗训l,即针寚w性,而不是一般的GAN?/span>
q有|友质疑是否公^Q甚臛_问题引至了政治!
不过Ҏh针对Dropout专利的态度Q短旉内应该不会有风险Q正如之前Jeff在Google 日本举行的传媒会议中回应的那P只是Z避免不必要麻烦,保护公司利益而做Qƈ不ؓ借专利技术赚钱,开发h员毋L心?/span>
但是对于我们中国现状Q自ȝ识权的底层框架和核心算法缺乏,更多依靠开源代码和法的情况下。谷歌一pd专利hQ不仅关乎科研,q关乎更致命的自L心算法和背后?#8220;卡脖?#8221;困境?br />Reference:
https://mp.weixin.qq.com/s/oNSJGJIaJlCEs4LT6aUL5g


杰哥 2020-01-22 23:08 发表评论
]]>
[zz]读China Daily学英?/title><link>http://www.shnenglu.com/guijie/archive/2019/06/27/216463.html</link><dc:creator>杰哥</dc:creator><author>杰哥</author><pubDate>Wed, 26 Jun 2019 17:41:00 GMT</pubDate><guid>http://www.shnenglu.com/guijie/archive/2019/06/27/216463.html</guid><wfw:comment>http://www.shnenglu.com/guijie/comments/216463.html</wfw:comment><comments>http://www.shnenglu.com/guijie/archive/2019/06/27/216463.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.shnenglu.com/guijie/comments/commentRss/216463.html</wfw:commentRss><trackback:ping>http://www.shnenglu.com/guijie/services/trackbacks/216463.html</trackback:ping><description><![CDATA[<span style="color: #1a1a1a; font-family: -apple-system, BlinkMacSystemFont, "Helvetica Neue", "PingFang SC", "Microsoft YaHei", "Source Han Sans SC", "Noto Sans CJK SC", "WenQuanYi Micro Hei", sans-serif; font-size: medium; background-color: #ffffff;">目前不少人对China Daily存在偏见Q报U怸的文章都是中国h写的Q因此不够地道。但q种偏见完全站不住脚Q因Z国日报的记者都是资p文写手,写作水^要远绝大多数读者,而且文章发表前还有外c专家润色审E?/span><span style="color: #1a1a1a; font-family: -apple-system, BlinkMacSystemFont, "Helvetica Neue", "PingFang SC", "Microsoft YaHei", "Source Han Sans SC", "Noto Sans CJK SC", "WenQuanYi Micro Hei", sans-serif; font-size: medium; background-color: #ffffff;">?/span><br />Reference: <a >https://zhuanlan.zhihu.com/p/49847636</a><img src ="http://www.shnenglu.com/guijie/aggbug/216463.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.shnenglu.com/guijie/" target="_blank">杰哥</a> 2019-06-27 01:41 <a href="http://www.shnenglu.com/guijie/archive/2019/06/27/216463.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item><item><title>[zz] Z么说囑փ的低频是轮廓Q高频是噪声和细?/title><link>http://www.shnenglu.com/guijie/archive/2019/06/19/216424.html</link><dc:creator>杰哥</dc:creator><author>杰哥</author><pubDate>Tue, 18 Jun 2019 17:01:00 GMT</pubDate><guid>http://www.shnenglu.com/guijie/archive/2019/06/19/216424.html</guid><wfw:comment>http://www.shnenglu.com/guijie/comments/216424.html</wfw:comment><comments>http://www.shnenglu.com/guijie/archive/2019/06/19/216424.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.shnenglu.com/guijie/comments/commentRss/216424.html</wfw:commentRss><trackback:ping>http://www.shnenglu.com/guijie/services/trackbacks/216424.html</trackback:ping><description><![CDATA[<div><font color="#0000ee">囑փ的频率:灰度值变化剧烈程度的指标Q是灰度在^面空间上的梯度?/font></div><div><font color="#0000ee"><br /></font></div><div><font color="#0000ee">Q?Q什么是低频?</font></div><div><font color="#0000ee">      低频是颜色~慢地变?也就是灰度缓慢地变化,׃表着那是q箋渐变的一块区?q部分就是低? 对于一q图像来_除去高频的就是低频了Q也是边缘以内的内容ؓ低频Q而边~内的内容就是图像的大部分信息,卛_像的大致概貌和轮廓,是图像的q似信息?/font></div><div><font color="#0000ee"><br /></font></div><div><font color="#0000ee">Q?Q什么是高频?</font></div><div><font color="#0000ee"><br /></font></div><div><font color="#0000ee">     反过? 高频是频率变化?囑փ中什么时候灰度变化快?是盔R区域之间灰度相差很大,q就是变化得?囑փ?一个媄像与背景的边~部?通常会有明显的差?也就是说变化那条边线那里,灰度变化很快,也即是变化频率高的部?因此Q图像边~的灰度值变化快Q就对应着频率高,即高频显C图像边~。图像的l节处也是属于灰度值急剧变化的区域,正是因ؓ灰度值的急剧变化Q才会出现细节?/font></div><div><font color="#0000ee">      另外噪声Q即噪点Q也是这?在一个像素所在的位置,之所以是噪点,是因ؓ它与正常的点颜色不一样了Q也是说该像素点灰度值明显不一样了,,也就是灰度有快速地变化?所以是高频部分Q因此有噪声在高频这么一说?/font></div><div><font color="#0000ee"><br /></font></div><div><font color="#0000ee">      其实归根到底,是因为我们hD别物体就是这L.假如你穿一个红衣服在红色背景布前拍?你能很好地识别么?不能,因ؓ衣服与背景融Z体了,没有变化,所以看不出?除非有灯光从某解度照在h物n?q样边缘处会出现高亮和阴?q样我们p看到一些轮廓线,q些U就是颜Ԍ即灰度)很不一L地方.</font></div><div><font color="#0000ee">--------------------- </font></div><div><font color="#0000ee">作者:charlene_bo </font></div><div><font color="#0000ee">来源QCSDN </font></div><div><font color="#0000ee">原文Qhttps://blog.csdn.net/charlene_bo/article/details/70877999 </font></div><div><font color="#0000ee">版权声明Q本文ؓ博主原创文章Q{载请附上博文链接Q?/font></div><img src ="http://www.shnenglu.com/guijie/aggbug/216424.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.shnenglu.com/guijie/" target="_blank">杰哥</a> 2019-06-19 01:01 <a href="http://www.shnenglu.com/guijie/archive/2019/06/19/216424.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item><item><title>h学术影响力排?2020 Scholar Metrics)http://www.shnenglu.com/guijie/archive/2019/05/17/216377.html杰哥杰哥Fri, 17 May 2019 14:59:00 GMThttp://www.shnenglu.com/guijie/archive/2019/05/17/216377.htmlhttp://www.shnenglu.com/guijie/comments/216377.htmlhttp://www.shnenglu.com/guijie/archive/2019/05/17/216377.html#Feedback0http://www.shnenglu.com/guijie/comments/commentRss/216377.htmlhttp://www.shnenglu.com/guijie/services/trackbacks/216377.htmlh学术影响力排?2020 Scholar Metrics)

https://scholar.googleblog.com/2020/07/2020-scholar-metrics-released.html

h学术影响力排?2019 Scholar Metrics)

2019q谷歌学者Top Publication榜单更新QCVPR上升到整个工E与计算机科学类W二名。h工智能领域NeurIPS, ICLR, ICML独占鳌头。自然语a处理榜单没有变化Q还是ACLQEMNLPQNAACL?​​​​
Reference:
https://scholar.google.com/citations?view_op=top_venues&hl=en&vq=eng
Weibo of Weilian Wang on July 20, 2019. See my favourite on July 23, 2019. 

https://m.sohu.com/a/245182179_473283/?pvid=000115_3w_a
   (read once)

2018h学术影响力排名出炉:CVPRq入?0QResNet被引最多过万次Q?/div>


来源Q?/span>scholar.google.com

作者:闻菲

【新智元D】谷歌学术昨天发表了2018q最新的学术期刊和会议媄响力排名Q?/span>CVPR?/span>NIPS分别排名W?/span>20和第54。在排名W一?/span>Nature里,q去5q被引用ơ数最高的论文Q正是深度学习三大神Hinton?/span>LeCun?/span>Bengio写的《深度学习》一文,?/span>CVPR里被引次数最高的Q则?/span>ResNetQ引用次数超q了1万次?/span>

昨天Q谷歌学术(Google ScholarQ公布了2018q最新的学术期刊/会议影响力排名,从综合领域看Q毫不意外的Q?/span>NatureW一?/span>ScienceW三Q但值得x的是Q?strong>计算觉顶?/strong>CVPR排名W?/span>20Q另一?/span>AI领域的顶?/span>NIPS也排名第54Q?/span>名次较去q有了大q提升?/span>

p排名W一?/span>Nature里,q去5q被引用ơ数最高的论文Q也?/span>深度学习三大?/span>”Hinton?/span>LeCun?/span>Bengio合著的《深度学习》一文?/span>

不仅如此Q在CVPR里,q去5q被引次数最多的论文Q是当时q在微Y亚洲研究院的孙剑、何恺明、张雨、Q卿写的?/span>ResNetQ被引次数已l过万?/span>

2018 h学术期刊和会议媄响力排名Q?/span>CVPRW?/span>20Q?/span>NIPSW?/span>54

首先来看l合领域l果?/span>

大家比较兛_?/span>Nature?/span>Science分别位列W一和第三,d著名期刊《新英格兰杂志》和《柳叶刀》分别位于第二和W四。一向被国内?/span>Nature?/span>Scienceq列Q有“CNS”之称?/span>CellQ这ơ排名第6?/span>

接下来就是新智元的读者更为关注的与h工智能有关的期刊和会议了Q这一ơ,计算觉顶?/span>CVPR不负众望排名W?/span>20Q由此计机领域会也终于进?/span>Top20的行列?/span>

 

另一斚wQ?/span>AI领域另一个备受关注的会议NIPSQ也在综合排名中位列W?/span>54Q取得了不错的成l?/span>

与神l科学相关的 Nature Neuroscience 排名W?/span>44?/span>

 

至于W?/span>21名到W?/span>40名的期刊Q实际上也有常有?/span>AI相关的论文发表,大家也可以看一下排名?/span>

值得一提,PLoS ONE位于W?/span>23Q?/span>Scientific Reports 排名W?/span>39Q也是不错的发表场所了?/span>

 

在第61到第80名中_集中出现了多?/span>IEEE期刊。被誉ؓ另一个计机视觉会?/span>ICCVQ排名第78?/span>

 

W?/span>81到第100名的期刊/会议排名如下Q?/span>TPAMI 位于W?/span>92Q果然好论文都优先去会议发表了?/span>

 

工程与计机领域Top 20Q?/span>CVPR排名W?/span>5

 

h学术计量排名ҎQ过?/span>5q被引用论文“h5指数

h学术Q?/span>Google ScholarQ期刊和会议排名主要Zh-index?/span>实际上,?/span>2012qv来,h学术计量Q?/span>Google Scholar Metrics, GSMQ每q都会发布学术期刊和会议?/span>GSM排名?/span>

相比U睿唯安ZWeb of Science数据库公布的《期刊引证报告》(Journal Citation Report, JCRQ,GSM不仅可以免费索,而且收录的期刊和会议范围q远大于Web of Science?/span>

q有一点,期刊/会议?/span>“h5指数Q过?/span>5q?/span>h-indexQ?/span>比较难以被h为操控,不会因ؓ多了一超高被引论文而明昑֢长,另一斚wQ刻意减发文量也不会对提升h5指数有作用?/span>

因此Q?/span>h5指数可以体现期刊和会议的整体l合实力Q逐渐成ؓ学术出版物和会议影响力评L一个重要参考?/span>

M看,GSM主要参考以?/span>3个指标:

相应圎ͼh5指数Q?/span>h5-indexQ?/span>h5核心Q?/span>h5-coreQ和h5中|h5-medianQ,是收录在谷歌学术系l中的期刊和会议在最q?/span>5q的论文数量及各论文被引用的ơ数?/span>

例如Q如果某本期刊在q去5q所发表的论文中Q至有 h 论文分别被引用了至?/span> h ơ,那么q䆾杂志?/span> h5指数是 h?/span>h5核心?/span>h5中值的计算Ҏ也一栗?/span>

了解更多Q?/span>

https://scholar.google.com/citations?view_op=top_venues&hl=zh-CN&vq=en

开售!

http://www.aiworld2018.com/

h计算?/span>

声明Q该文观点仅代表作者本人,搜狐L信息发布q_Q搜狐仅提供信息存储I间服务?/span>



杰哥 2019-05-17 22:59 发表评论
]]>[zz] How to Train a GAN? Tips and tricks to make GANs workhttp://www.shnenglu.com/guijie/archive/2019/04/02/216325.html杰哥杰哥Mon, 01 Apr 2019 21:42:00 GMThttp://www.shnenglu.com/guijie/archive/2019/04/02/216325.htmlhttp://www.shnenglu.com/guijie/comments/216325.htmlhttp://www.shnenglu.com/guijie/archive/2019/04/02/216325.html#Feedback0http://www.shnenglu.com/guijie/comments/commentRss/216325.htmlhttp://www.shnenglu.com/guijie/services/trackbacks/216325.htmlWhile research in Generative Adversarial Networks (GANs) continues to improve the fundamental stability of these models, we use a bunch of tricks to train them and make them stable day to day.

Here are a summary of some of the tricks.

Here's a link to the authors of this document

If you find a trick that is particularly useful in practice, please open a Pull Request to add it to the document. If we find it to be reasonable and verified, we will merge it in.

1. Normalize the inputs

  • normalize the images between -1 and 1
  • Tanh as the last layer of the generator output

2: A modified loss function

In GAN papers, the loss function to optimize G is min (log 1-D), but in practice folks practically use max log D

  • because the first formulation has vanishing gradients early on
  • Goodfellow et. al (2014)

In practice, works well:

  • Flip labels when training generator: real = fake, fake = real

3: Use a spherical Z

  • Dont sample from a Uniform distribution

cube

  • Sample from a gaussian distribution

sphere

4: BatchNorm

  • Construct different mini-batches for real and fake, i.e. each mini-batch needs to contain only all real images or all generated images.
  • when batchnorm is not an option use instance normalization (for each sample, subtract mean and divide by standard deviation).

batchmix

5: Avoid Sparse Gradients: ReLU, MaxPool

  • the stability of the GAN game suffers if you have sparse gradients
  • LeakyReLU = good (in both G and D)
  • For Downsampling, use: Average Pooling, Conv2d + stride
  • For Upsampling, use: PixelShuffle, ConvTranspose2d + stride

6: Use Soft and Noisy Labels

  • Label Smoothing, i.e. if you have two target labels: Real=1 and Fake=0, then for each incoming sample, if it is real, then replace the label with a random number between 0.7 and 1.2, and if it is a fake sample, replace it with 0.0 and 0.3 (for example).
    • Salimans et. al. 2016
  • make the labels the noisy for the discriminator: occasionally flip the labels when training the discriminator

7: DCGAN / Hybrid Models

  • Use DCGAN when you can. It works!
  • if you cant use DCGANs and no model is stable, use a hybrid model : KL + GAN or VAE + GAN

8: Use stability tricks from RL

  • Experience Replay
    • Keep a replay buffer of past generations and occassionally show them
    • Keep checkpoints from the past of G and D and occassionaly swap them out for a few iterations
  • All stability tricks that work for deep deterministic policy gradients
  • See Pfau & Vinyals (2016)

9: Use the ADAM Optimizer

  • optim.Adam rules!
    • See Radford et. al. 2015
  • Use SGD for discriminator and ADAM for generator

10: Track failures early

  • D loss goes to 0: failure mode
  • check norms of gradients: if they are over 100 things are screwing up
  • when things are working, D loss has low variance and goes down over time vs having huge variance and spiking
  • if loss of generator steadily decreases, then it's fooling D with garbage (says martin)

11: Dont balance loss via statistics (unless you have a good reason to)

  • Dont try to find a (number of G / number of D) schedule to uncollapse training
  • It's hard and we've all tried it.
  • If you do try it, have a principled approach to it, rather than intuition

For example

while lossD > A:   train D while lossG > B:   train G 

12: If you have labels, use them

  • if you have labels available, training the discriminator to also classify the samples: auxillary GANs

13: Add noise to inputs, decay over time

14: [notsure] Train discriminator more (sometimes)

  • especially when you have noise
  • hard to find a schedule of number of D iterations vs G iterations

15: [notsure] Batch Discrimination

  • Mixed results

16: Discrete variables in Conditional GANs

  • Use an Embedding layer
  • Add as additional channels to images
  • Keep embedding dimensionality low and upsample to match image channel size

17: Use Dropouts in G in both train and test phase

Authors

  • Soumith Chintala
  • Emily Denton
  • Martin Arjovsky
  • Michael Mathieu
Reference:
https://github.com/soumith/ganhacks#authors



GAN的一些小trick

最q训lGAN遇到了很多坑QGAN的训l的是个很dt的问题,如果只是用别人的paper跑一些应用还好,如果自己设计新的l构Q做一些新的研I的话,需要了解这些trick了,都是泪~

q个doc soumith/ganhackssoumith/ganhacks 直是GAN武林界的九阴真经Q看完以后感觉自׃了一个level?/p>

自己做个W记Q?/p>

1。normalize输入Q让它在[-1,1]。generater的输出用tanhQ也是[-1,1]Q这对应v来了?/p>

2。论文里面optimize G是min log(1 - D)Q但在实际训l的时候可以用 max log(D)

3。对于噪声zQ别用均匀QuniformQ分布,用高斯分布?/p>

4。可以用instance norm代替 batch norm。还有就是real放一Pgenerated放一P感觉q个是废话QAQQ?/p>

5。避免稀疏的gradientsQRELUQMaxpool那些。这一Ҏ认ؓ原因是不像做辨别式的|络Q判别式的,可能提取重要的信息Q其实一些对预测影响不大的信息都被忽略掉了。但是GAN不同Q是生成式的模型Q所以要可能的表现出细节方面的内容Q所以避免用稀疏的q些Q?/p>

  • LeakyRelu
  • For Downsampling, use: Average Pooling, Conv2d + stride
  • For Upsampling, use: PixelShuffle, ConvTranspose2d + stride

6。可以把label?的(realQ变?.7~1.2Qlabel?的变?~0.3。这个可以深入想惟?/p>

7。能用DCGANqQ用不了的话用؜合模型,KL+GANQVAE+GAN之类的?/p>

8。借用RL训练技巧?/p>

  • Keep a replay buffer of past generations and occassionally show them
  • Keep checkpoints from the past of G and D and occassionaly swap them out for a few iterations

9。用ADAMQ或者是D可以用SGDQG用ADAM

10。注意训l过E,早发现训练p|Q不至于训练好长旉最后才发现Q浪Ҏ间?/p>

11。最好别试讄一些常量去balance G与D的训l过E。(他们说这个work很难做。我觉得有时间的话其实还是可以试一下的。)

12。如果你对real有相应的labelQ用labelQAC-GAN。加入label信息Q可以降低生成的隑ֺQ这个应该可以想的通?/p>

13。加噪声Q作用是improve生成内容得diversity?

  • Add some artificial noise to inputs to D (Arjovsky et. al., Huszar, 2016)
  • adding gaussian noise to every layer of generator (Zhao et. al. EBGAN)

14。【not sure】多训练DQ特别是加噪声的时候?/p>

15。【not sure】batch DQ感觉貌似是和pix2pix中的patchGAN有点像?

16。CGANQ我一直觉得CGANq种才符合hcd习的思\。原始的GAN太_暴了,好像什么都不知道,然后两个人D与G讨论交流ҎQ生的都是一些前人没有做q的工作Q开的工作Q所以比较困难一些,但是CGAN的话有了一定的前提Q也是技术积累,所以比较简单一些。有点类似科研中的大牛挖坑,开辟新方向QGANQ。小牛填坑(CGANQ?/p>

17。在G中的几层中用dropoutQ?0%Q。这个有一论文,q没看?/p>

dq些感觉自己惌设计GAN的话Q应该有个系l的认识了,不会觉得自己好像有哪些重要的地方q不知道Q很不踏实感觉。这U感觉对我这U强q症的感觉很不爽啊!Q看完以后顿时舒服了很多~~~

https://zhuanlan.zhihu.com/p/27725664

杰哥 2019-04-02 05:42 发表评论
]]>
logitshttp://www.shnenglu.com/guijie/archive/2019/03/27/216316.html杰哥杰哥Tue, 26 Mar 2019 21:01:00 GMThttp://www.shnenglu.com/guijie/archive/2019/03/27/216316.htmlhttp://www.shnenglu.com/guijie/comments/216316.htmlhttp://www.shnenglu.com/guijie/archive/2019/03/27/216316.html#Feedback0http://www.shnenglu.com/guijie/comments/commentRss/216316.htmlhttp://www.shnenglu.com/guijie/services/trackbacks/216316.htmlWhat is the meaning of the word logits in TensorFlow?
In the following TensorFlow function, we must feed the activation of artificial neurons in the final layer. That I understand. But I don't understand why it is called logits? Isn't that a mathematical function?
loss_function = tf.nn.softmax_cross_entropy_with_logits(
     logits = last_layer,
     labels = target_output
)

For example, in the last layer of the discriminator of generative adversarial networks (GAN), we will use sigmoid(logits) to get the output of D. This is discussed with Zhengxia.
Reference:
https://stackoverflow.com/questions/41455101/what-is-the-meaning-of-the-word-logits-in-tensorflow


杰哥 2019-03-27 05:01 发表评论
]]>
Githubhttp://www.shnenglu.com/guijie/archive/2019/01/15/216200.html杰哥杰哥Mon, 14 Jan 2019 20:16:00 GMThttp://www.shnenglu.com/guijie/archive/2019/01/15/216200.htmlhttp://www.shnenglu.com/guijie/comments/216200.htmlhttp://www.shnenglu.com/guijie/archive/2019/01/15/216200.html#Feedback0http://www.shnenglu.com/guijie/comments/commentRss/216200.htmlhttp://www.shnenglu.com/guijie/services/trackbacks/216200.html
例如"PyTorch_tutorial_0.0.5"的pytorch的第八页Code/1_data_prepare/1_1_cifar10_to_png.py,Z么Github?链接另存?与Clone or download出来的有区别?链接另存然保存的也是.py文gQ再在此文g后加?html后缀Q打开是该网,保存的实际是|页

h搜烦: Github difference clone download
When you clone you get a copy of the history and it is a functional git repo. Downloading a repository just downloads the files from the most recent commit of the default branch. It doesn't download any of the files in the .git folder. ... It's as ifgit never existed, and all you have is a copy of the code/files.
Zhengxia said, if you clone a project, you can have v1, v2 and the most recent version. If you download a project, you can only have the 
most recent version. 

怎么clone,没什么特别讲I吧,q有|址? 是点击Clone or download, Download ZIP,q样是Download; 选择"Open in Desktop"Q?你有没有安装GitHub DesktopQYuxiang说正常就用Downloadp了;没有安装GitHub DesktopQ他用的Git bashQ利?#8220;Clone or download”的网址Q就能cloneQ这个需要的时候再问?br />
This is with Yuxiang and Zhengxia's help.

20200617 read twice https://guides.github.com/activities/hello-world/

learn GitHub’s Pull Request workflow, a popular way to create and review code.

Step 2. Create a Branch

Branching is the way to work on different versions of a repository at one time.

On GitHub, saved changes are called commits. Each commit has an associated commit message, which is a description explaining why a particular change was made. Commit messages capture the history of your changes, so other contributors can understand what you’ve done and why.
By using GitHub’s @mention system in your pull request message, you can ask for feedback from specific people or teams, whether they’re down the hall or 10 time zones away.



杰哥 2019-01-15 04:16 发表评论
]]>
[zz]正定、超定、欠定矩?/title><link>http://www.shnenglu.com/guijie/archive/2019/01/12/216191.html</link><dc:creator>杰哥</dc:creator><author>杰哥</author><pubDate>Fri, 11 Jan 2019 18:43:00 GMT</pubDate><guid>http://www.shnenglu.com/guijie/archive/2019/01/12/216191.html</guid><wfw:comment>http://www.shnenglu.com/guijie/comments/216191.html</wfw:comment><comments>http://www.shnenglu.com/guijie/archive/2019/01/12/216191.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.shnenglu.com/guijie/comments/commentRss/216191.html</wfw:commentRss><trackback:ping>http://www.shnenglu.com/guijie/services/trackbacks/216191.html</trackback:ping><description><![CDATA[<div>正定、超定、欠定矩?/div><div>正定</div><div>定义</div><div>q义定义</div><div>设M是n阶方阵,如果对Q何非零向量zQ都?z′Mz>0z′Mz>0Q其中z’ 表示z的{|,qM正定矩阵。[1] </div><div>例如QB为n阶矩阵,E为单位矩阵,a为正实数。aE+BaE+B在a充分大时QaE+BaE+B为正定矩c(B必须为对U阵Q?/div><div></div><div>狭义定义</div><div>一个n阶的实对U矩阵M是正定的当且仅当对于所有的非零实系数向量zQ都有z′Mz>0z′Mz>0。其中z’表示z的{|?/div><div></div><div>性质</div><div>正定矩阵在合同变换下可化为标准型Q?卛_位矩c?/div><div></div><div>合同矩阵Q两个实对称矩阵A和BQ如存在可逆矩阵PQ得A=PTBPA=PTBPQ就U矩阵A和B互ؓ合同矩阵Qƈ且称由A到B的变换叫合同变换?/div><div></div><div>所有特征值大于零的对U矩阵(或厄c矩阵)是正定矩c?/div><div></div><div>判定定理1Q对U阵A为正定的充分必要条g是:A的特征值全为正?nbsp;</div><div>判定定理2Q对U阵A为正定的充分必要条g是:A的各阉序主子式都ؓ正?nbsp;</div><div>判定定理3QQ意阵A为正定的充分必要条g是:A合同于单位阵?/div><div></div><div>1.正定矩阵一定是非奇异的。非奇异矩阵的定义:若n阶矩阵A的行列式不ؓӞ即|A|≠0|A|≠0?nbsp;</div><div>2.正定矩阵的Q一d矩阵也是正定矩阵?nbsp;</div><div>3.若A为n阶对U正定矩阵,则存在唯一的主对角U元素都是正数的下三角阵LQ得A=L∗L'A=L∗L′Q此分解式称?正定矩阵的乔列斯基(CholeskyQ分解?nbsp;</div><div>4.若A为n阶正定矩阵,则A为n阶可逆矩c?/div><div></div><div>矩阵的每一行代表一个方E,m行代表m个线性联立方E?n列代表n个变量。如果m是独立方E数Q根据m</div><div></div><div>定方程l?/div><div>方程个数大于未知量个数的方程l?/div><div></div><div>对于方程l?Ra=yRa=yQR为n×mn×m矩阵Q如果R列满U,且n>mn>m?/div><div></div><div>定方程一般是不存在解的矛盾方E?/div><div></div><div>例如Q如果给定的三点不在一条直U上Q我们将无法得到q样一条直U,使得q条直线同时l过l定q三个点?也就是说l定的条Ӟ限制Q过于严| D解不存在。在实验数据处理和曲U拟合问题中Q求解超定方E组非常普遍。比较常用的Ҏ是最二乘法。Ş象的_是在无法完全满给定的q些条g的情况下Q求一个最接近的解?/div><div></div><div>曲线拟合的最二乘法要解决的问题Q实际上是求以上超定方E组的最二乘解的问题?/div><div></div><div>Ơ定方程l?/div><div>方程个数于未知量个数的方程l?/div><div></div><div>对于方程lRa=yRa=yQRR为n×mn×m 矩阵Q且n<mn<m。则方程l有无穷多组解,此时U方E组为欠定方E组?/div><div></div><div>内点法和梯度投媄法是目前解欠定方E组的常用方法?/div><div>--------------------- </div><div>原文Qhttps://blog.csdn.net/hfdwdjl/article/details/44133845 <br /><br />评论:Ơ定方程Q?span style="font-family: 楷体;">q种定义不太严格Q因?/span><span style="font-family: "Times New Roman", serif;">n<m</span><span style="font-family: 楷体;">未必有无I多解,极端例子</span><span style="font-family: "Times New Roman", serif;">,x+y+z=1</span><span style="font-family: 楷体;">?/span><span style="font-family: "Times New Roman", serif;">x+y+z=3</span><span style="font-family: 楷体;">Q两个方E,三个未知敎ͼ无解?/span></div> <span style="font-size: 10.5pt; font-family: 楷体;">q是要应该要用到the notes of linear algebra </span><span style="font-size:10.5pt;font-family:"Times New Roman",serif;">P41反页。下面维Zq个应该是严格的Q有无穷多解的就叫欠定?br /></span>https://zh.wikipedia.org/wiki/%E7%BA%BF%E6%80%A7%E6%96%B9%E7%A8%8B%E7%BB%84<img src ="http://www.shnenglu.com/guijie/aggbug/216191.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.shnenglu.com/guijie/" target="_blank">杰哥</a> 2019-01-12 02:43 <a href="http://www.shnenglu.com/guijie/archive/2019/01/12/216191.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item><item><title>Stepwise Feature Selectionhttp://www.shnenglu.com/guijie/archive/2018/12/06/216107.html杰哥杰哥Wed, 05 Dec 2018 22:32:00 GMThttp://www.shnenglu.com/guijie/archive/2018/12/06/216107.htmlhttp://www.shnenglu.com/guijie/comments/216107.htmlhttp://www.shnenglu.com/guijie/archive/2018/12/06/216107.html#Feedback0http://www.shnenglu.com/guijie/comments/commentRss/216107.htmlhttp://www.shnenglu.com/guijie/services/trackbacks/216107.htmlFeature Selection

However, there are some heuristic approaches that are often useful. We will look at the following approaches:

Stepwise Selection

A common suggestion for avoiding the consideration of all subsets is to use stepwise selection. There are two standard approaches:
  • Forward selection. Begin by finding the best single feature, and commit to it. In general, given a set of selected features, add the feature that improves performance most.

  • Backward elimination. From a set of remaining features, repeatedly delete the feature that reduces performance the least.


    Reference:
    https://www.cs.princeton.edu/courses/archive/fall08/cos436/Duda/FS/FS_home.htm
    https://www.cs.princeton.edu/courses/archive/fall08/cos436/Duda/FS/stepwise.htm


杰哥 2018-12-06 06:32 发表评论
]]>
Affine Functions (仿射函数)http://www.shnenglu.com/guijie/archive/2018/10/26/216022.html杰哥杰哥Thu, 25 Oct 2018 19:09:00 GMThttp://www.shnenglu.com/guijie/archive/2018/10/26/216022.htmlhttp://www.shnenglu.com/guijie/comments/216022.htmlhttp://www.shnenglu.com/guijie/archive/2018/10/26/216022.html#Feedback0http://www.shnenglu.com/guijie/comments/commentRss/216022.htmlhttp://www.shnenglu.com/guijie/services/trackbacks/216022.htmlAffine Functions
Affine Functions in 1D:
An affine function is a function composed of a linear function + a constant and its graph is a straight line. The general equation for an affine function in 1D is: y = Ax + c
An affine function demonstrates an affine transformation which is equivalent to a linear transformation followed by a translation. In an affine transformation there are certain attributes of the graph that are preserved. These include: 
If three points all belong to the same line then under an affine transformation those three points will still belong to the same line and the middle point will still be in the middle.
Parrallel lines remain parrallel.
Concurrent lines remain concurrent.
The ratio of length of line segments of a given line remains constant.
The ratio of areas of two triangles remains constant.
Ellipses remain ellipses and the same is true for parabolas and hyperbolas.
Affine Functions in 2D:
In 2D the equation of an affine function is f(x,y)=Ax + By + C
The graph of a wave in 2D as shown in the next section shows the example of a graph of a 2D affine function. 
Affine Functions in 3D:
In 3D the equation of an affine function is f(x,y,z)=Ax + By + Cz + D

Reference:
http://www.math.ubc.ca/~cass/courses/m309-03a/a1/olafson/affine_fuctions.htm


杰哥 2018-10-26 03:09 发表评论
]]>
[zz] Adversarial Nets Papershttp://www.shnenglu.com/guijie/archive/2018/09/28/215982.html杰哥杰哥Fri, 28 Sep 2018 14:02:00 GMThttp://www.shnenglu.com/guijie/archive/2018/09/28/215982.htmlhttp://www.shnenglu.com/guijie/comments/215982.htmlhttp://www.shnenglu.com/guijie/archive/2018/09/28/215982.html#Feedback0http://www.shnenglu.com/guijie/comments/commentRss/215982.htmlhttp://www.shnenglu.com/guijie/services/trackbacks/215982.html阅读全文

杰哥 2018-09-28 22:02 发表评论
]]>
[zz] 2018 CVPR GAN 相关论文调研http://www.shnenglu.com/guijie/archive/2018/09/28/215981.html杰哥杰哥Fri, 28 Sep 2018 14:00:00 GMThttp://www.shnenglu.com/guijie/archive/2018/09/28/215981.htmlhttp://www.shnenglu.com/guijie/comments/215981.htmlhttp://www.shnenglu.com/guijie/archive/2018/09/28/215981.html#Feedback0http://www.shnenglu.com/guijie/comments/commentRss/215981.htmlhttp://www.shnenglu.com/guijie/services/trackbacks/215981.html风格q移

1. PairedCycleGAN: Asymmetric Style Transfer for Applying and Removing Makeup

Q给化妆的风D{U)

http://openaccess.thecvf.com/content_cvpr_2018/papers/Chang_PairedCycleGAN_Asymmetric_Style_CVPR_2018_paper.pdf

 

2.CartoonGAN: Generative Adversarial Networks for Photo Cartoonization

Q将囄转化为卡通风格的GANQ?/p>

http://openaccess.thecvf.com/content_cvpr_2018/papers/Chen_CartoonGAN_Generative_Adversarial_CVPR_2018_paper.pdf

 

3.StarGAN: Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation

Qh脸多U风D{换)

http://openaccess.thecvf.com/content_cvpr_2018/papers/Choi_StarGAN_Unified_Generative_CVPR_2018_paper.pdf

 

4.Multi-Content GAN for Few-Shot Font Style Transfer

Q字体风D{换)

http://openaccess.thecvf.com/content_cvpr_2018/papers/Azadi_Multi-Content_GAN_for_CVPR_2018_paper.pdf

 

5.DA-GAN: Instance-level Image Translation by Deep Attention Generative Adversarial Networks

Q图到图转换Q?/p>

http://openaccess.thecvf.com/content_cvpr_2018/papers/Ma_DA-GAN_Instance-Level_Image_CVPR_2018_paper.pdf

 

6. Conditional Image-to-Image translation

Q图到图的{换)

http://openaccess.thecvf.com/content_cvpr_2018/papers/Lin_Conditional_Image-to-Image_Translation_CVPR_2018_paper.pdf

 

囄处理

1. DeblurGAN: Blind Motion Deblurring Using Conditional Adversarial Networks

Q去模糊Q?/p>

http://openaccess.thecvf.com/content_cvpr_2018/papers/Kupyn_DeblurGAN_Blind_Motion_CVPR_2018_paper.pdf

 

2.Attentive Generative Adversarial Network for Raindrop Removal from A Single Image

Q去除图片中的雨_

http://openaccess.thecvf.com/content_cvpr_2018/papers/Qian_Attentive_Generative_Adversarial_CVPR_2018_paper.pdf

 

3. Deep Photo Enhancer: Unpaired Learning for Image Enhancement from Photographs with GANs

Q用于照片增强)

http://openaccess.thecvf.com/content_cvpr_2018/papers/Chen_Deep_Photo_Enhancer_CVPR_2018_paper.pdf

 

4. SeGAN: Segmenting and Generating the Invisible

Q去遮挡Q?/p>

http://openaccess.thecvf.com/content_cvpr_2018/papers/Ehsani_SeGAN_Segmenting_and_CVPR_2018_paper.pdf

 

5.Stacked Conditional Generative Adversarial Networks for Jointly Learning Shadow Detection and Shadow Removal

Q去阴媄Q?/p>

http://openaccess.thecvf.com/content_cvpr_2018/papers/Wang_Stacked_Conditional_Generative_CVPR_2018_paper.pdf

 

6.Image Blind Denoising With Generative Adversarial Network Based Noise Modeling

Q去噪声Q?/p>

http://openaccess.thecvf.com/content_cvpr_2018/papers/Chen_Image_Blind_Denoising_CVPR_2018_paper.pdf

 

7. Single Image Dehazing via Conditional Generative Adversarial Network

Q去噪声Q?/p>

http://openaccess.thecvf.com/content_cvpr_2018/papers/Li_Single_Image_Dehazing_CVPR_2018_paper.pdf

 

囄生成

1. ST-GAN: Spatial Transformer Generative Adversarial Networks for Image Compositing

Q空间{换生成图片)

http://openaccess.thecvf.com/content_cvpr_2018/papers/Lin_ST-GAN_Spatial_Transformer_CVPR_2018_paper.pdf

 

2. SketchyGAN: Towards Diverse and Realistic Sketch to Image Synthesis

Q由Ҏ生成囄Q?/p>

http://openaccess.thecvf.com/content_cvpr_2018/papers/Chen_SketchyGAN_Towards_Diverse_CVPR_2018_paper.pdf

 

3. TextureGAN: Controlling Deep Image Synthesis with Texture Patches

Q由U\生成囄Q?/p>

http://openaccess.thecvf.com/content_cvpr_2018/papers/Xian_TextureGAN_Controlling_Deep_CVPR_2018_paper.pdf

 

4. Eye In-Painting with Exemplar Generative Adversarial Networks

Q给人物ȝ睛)

http://openaccess.thecvf.com/content_cvpr_2018/papers/Dolhansky_Eye_In-Painting_With_CVPR_2018_paper.pdf

 

5.Photographic Text-to-Image Synthesis with a Hierarchically-nested Adversarial Network

Q文本生成图片)

http://openaccess.thecvf.com/content_cvpr_2018/papers/Zhang_Photographic_Text-to-Image_Synthesis_CVPR_2018_paper.pdf

 

6. Logo Synthesis and Manipulation with Clustered Generative Adversarial Networks

Q生成logoQ?/p>

http://openaccess.thecvf.com/content_cvpr_2018/papers/Sage_Logo_Synthesis_and_CVPR_2018_paper.pdf

 

7. Cross-View Image Synthesis Using Conditional GANs

Q街Z视图和直视{换)

http://openaccess.thecvf.com/content_cvpr_2018/papers/Regmi_Cross-View_Image_Synthesis_CVPR_2018_paper.pdf

 

8. AttnGAN: Fine-Grained Text to Image Generation with Attentional Generative Adversarial Networks

Q文本生成图片)

http://openaccess.thecvf.com/content_cvpr_2018/papers/Xu_AttnGAN_Fine-Grained_Text_CVPR_2018_paper.pdf

 

9. High-Resolution Image Synthesis and Semantic Manipulation with Conditional GANs

Q图像高分L率)

http://openaccess.thecvf.com/content_cvpr_2018/papers/Wang_High-Resolution_Image_Synthesis_CVPR_2018_paper.pdf

 

相关

1. Finding Tiny Faces in the Wild with Generative Adversarial Network

Q对低分辨率的h脸检)

http://openaccess.thecvf.com/content_cvpr_2018/papers/Bai_Finding_Tiny_Faces_CVPR_2018_paper.pdf

 

2. Learning Face Age Progression: A Pyramid Architecture of GANs

Q预年龄)

http://openaccess.thecvf.com/content_cvpr_2018/papers/Yang_Learning_Face_Age_CVPR_2018_paper.pdf

 

3. Super-FAN: Integrated facial landmark localization and super-resolution of real-world low resolution faces in arbitrary poses with GANs

Q对低分辨率分辨率Q?/p>

http://openaccess.thecvf.com/content_cvpr_2018/papers/Bulat_Super-FAN_Integrated_Facial_CVPR_2018_paper.pdf

4. Towards Open-Set Identity Preserving Face Synthesis

Qh脸合成)

http://openaccess.thecvf.com/content_cvpr_2018/papers/Bao_Towards_Open-Set_Identity_CVPR_2018_paper.pdf

 

5. Weakly Supervised Facial Action Unit Recognition through Adversarial Training

Qh脸表情识别)

http://openaccess.thecvf.com/content_cvpr_2018/papers/Peng_Weakly_Supervised_Facial_CVPR_2018_paper.pdf

 

6.FaceID-GAN: Learning a Symmetry Three-Player GAN for Identity-Preserving Face Synthesis

Q生成多角度Q?/p>

http://openaccess.thecvf.com/content_cvpr_2018/papers/Shen_FaceID-GAN_Learning_a_CVPR_2018_paper.pdf

 

7. UV-GAN: Adversarial Facial UV Map Completion for Pose-invariant Face Recognition

Qh脸生成)

http://openaccess.thecvf.com/content_cvpr_2018/papers/Deng_UV-GAN_Adversarial_Facial_CVPR_2018_paper.pdf

 

8.Face Aging with Identity-Preserved Conditional Generative Adversarial Networks

Qh脸老化Q?/p>

http://openaccess.thecvf.com/content_cvpr_2018/papers/Wang_Face_Aging_With_CVPR_2018_paper.pdf

 

Z相关

1. Deformable GANs for Pose-based Human Image Generation

Qh物姿态迁U)

http://openaccess.thecvf.com/content_cvpr_2018/papers/Siarohin_Deformable_GANs_for_CVPR_2018_paper.pdf

 

2. Social GAN: Socially Acceptable Trajectories with Generative Adversarial Networks

(用GAN生成q追t?

http://openaccess.thecvf.com/content_cvpr_2018/papers/Gupta_Social_GAN_Socially_CVPR_2018_paper.pdf

 

3. GANerated Hands for Real-Time 3D Hand Tracking from Monocular RGB

Q用GAN生成的手势图片做手势q踪的数据集Q?/p>

http://openaccess.thecvf.com/content_cvpr_2018/papers/Mueller_GANerated_Hands_for_CVPR_2018_paper.pdf

 

4. Multistage Adversarial Losses for Pose-Based Human Image Synthesis

Qh体姿态合成)

http://openaccess.thecvf.com/content_cvpr_2018/papers/Si_Multistage_Adversarial_Losses_CVPR_2018_paper.pdf

5. Disentangled Person Image Generation

Qh体合成)

http://openaccess.thecvf.com/content_cvpr_2018/papers/Ma_Disentangled_Person_Image_CVPR_2018_paper.pdf

 

domain adaptation

Q这个没来得及找了,可能转行咯~ 唉)

1. Generate to Adapt: Aligning Domains Using Generative Adversarial Networks

 

2. Re-Weighted Adversarial Adaptation Network for Unsupervised Domain Adaptation

 

3. Adversarial Feature Augmentation for Unsupervised Domain Adaptation

 

4. Domain Generalization With Adversarial Feature Learning

 

5. Image to Image Translation for Domain Adaptation

 

6. Duplex Generative Adversarial Network for Unsupervised Domain Adaptation

 

7. Conditional Generative Adversarial Network for Structured Domain Adaptation

 

目标跟踪?/span>

1.Generative Adversarial Learning Towards Fast Weakly Supervised Detection

Q弱监督)

http://openaccess.thecvf.com/content_cvpr_2018/papers/Shen_Generative_Adversarial_Learning_CVPR_2018_paper.pdf

 

2. SINT++: Robust Visual Tracking via Adversarial Positive Instance Generation

Q对抗学习生成轨qҎ本)

http://openaccess.thecvf.com/content_cvpr_2018/papers/Wang_SINT_Robust_Visual_CVPR_2018_paper.pdf

 

3. VITAL: VIsual Tracking via Adversarial Learning

http://openaccess.thecvf.com/content_cvpr_2018/papers/Song_VITAL_VIsual_Tracking_CVPR_2018_paper.pdf

 

GAN模型优化

1. SGAN: An Alternative Training of Generative Adversarial Network

Q替代训lGANQ?/p>

http://openaccess.thecvf.com/content_cvpr_2018/papers/Chavdarova_SGAN_An_Alternative_CVPR_2018_paper.pdf

 

2. GAGAN: Geometry-Aware Generative Adversarial Networks

Q一U关注几何外形的GANQ?/p>

http://openaccess.thecvf.com/content_cvpr_2018/papers/Kossaifi_GAGAN_Geometry-Aware_Generative_CVPR_2018_paper.pdf

 

3.Global versus Localized Generative Adversarial Nets

(局部优化GAN)

http://openaccess.thecvf.com/content_cvpr_2018/papers/Qi_Global_Versus_Localized_CVPR_2018_paper.pdf

 

4. Generative Adversarial Image Synthesis with Decision Tree Latent Controller

Q决{树Q?/p>

http://openaccess.thecvf.com/content_cvpr_2018/papers/Kaneko_Generative_Adversarial_Image_CVPR_2018_paper.pdf

 

5. Unsupervised Deep Generative Adversarial Hashing Network

Q哈希GANQ?/p>

http://openaccess.thecvf.com/content_cvpr_2018/papers/Dizaji_Unsupervised_Deep_Generative_CVPR_2018_paper.pdf

 

6. Multi-Agent Diverse Generative Adversarial Networks

Q多个生成器GANQ?/p>

http://openaccess.thecvf.com/content_cvpr_2018/papers/Ghosh_Multi-Agent_Diverse_Generative_CVPR_2018_paper.pdf

 

7. Duplex Generative Adversarial Network for Unsupervised Domain Adaptation

Q双鉴别器GANQ?/p>

http://openaccess.thecvf.com/content_cvpr_2018/papers/Hu_Duplex_Generative_Adversarial_CVPR_2018_paper.pdf

 

囑փ分割

1. Translating and Segmenting Multimodal Medical Volumes With Cycle- and Shape-Consistency Generative Adversarial Network

Q图像分Ԍ

http://openaccess.thecvf.com/content_cvpr_2018/papers/Zhang_Translating_and_Segmenting_CVPR_2018_paper.pdf

 

行h重识?/span>

1. Person Transfer GAN to Bridge Domain Gap for Person Re-Identification

Q用GAN生成的h体检的囄Q?/p>

http://openaccess.thecvf.com/content_cvpr_2018/papers/Wei_Person_Transfer_GAN_CVPR_2018_paper.pdf

 

2. Image-Image Domain Adaptation with Preserved Self-Similarity and Domain-Dissimilarity for Person Re-identification

http://openaccess.thecvf.com/content_cvpr_2018/papers/Deng_Image-Image_Domain_Adaptation_CVPR_2018_paper.pdf

 

视觉特征提取

1. Visual Feature Attribution using Wasserstein GANs

http://openaccess.thecvf.com/content_cvpr_2018/papers/Baumgartner_Visual_Feature_Attribution_CVPR_2018_paper.pdf

 

域自适应学习

1. Generate To Adapt: Aligning Domains using Generative Adversarial Networks

Q视觉域自适应Q?/p>

http://openaccess.thecvf.com/content_cvpr_2018/papers/Sankaranarayanan_Generate_to_Adapt_CVPR_2018_paper.pdf

 

囑փ?/span>

1. HashGAN: Deep Learning to Hash with Pair Conditional Wasserstein GAN

http://openaccess.thecvf.com/content_cvpr_2018/papers/Cao_HashGAN_Deep_Learning_CVPR_2018_paper.pdf

 

q移学习

1.Partial Transfer Learning With Selective Adversarial Networks

http://openaccess.thecvf.com/content_cvpr_2018/papers/Cao_Partial_Transfer_Learning_CVPR_2018_paper.pdf

 

视频生成

1. MoCoGAN: Decomposing Motion and Content for Video Generation

Q用GAN生成视频Q?/p>

http://openaccess.thecvf.com/content_cvpr_2018/papers/Tulyakov_MoCoGAN_Decomposing_Motion_CVPR_2018_paper.pdf

2. Learning to Generate Time-Lapse Videos Using Multi-Stage Dynamic Generative Adversarial Networks

Q生成g时视频)

http://openaccess.thecvf.com/content_cvpr_2018/papers/Xiong_Learning_to_Generate_CVPR_2018_paper.pdf

 

结Q?/strong>

  可以看出GAN相关的论文还不少呀Q各个方面的都有Q可是我个h觉得Q可能没有那U特别厉害的吧~hh

--------------------- 本文来自 眉间l雪 的CSDN 博客 Q全文地址L击:https://blog.csdn.net/weixin_42445501/article/details/82792311?utm_source=copy 

杰哥 2018-09-28 22:00 发表评论
]]>
[zz] Caffe2和Caffe有何不同Q?/title><link>http://www.shnenglu.com/guijie/archive/2018/06/25/215741.html</link><dc:creator>杰哥</dc:creator><author>杰哥</author><pubDate>Sun, 24 Jun 2018 21:13:00 GMT</pubDate><guid>http://www.shnenglu.com/guijie/archive/2018/06/25/215741.html</guid><wfw:comment>http://www.shnenglu.com/guijie/comments/215741.html</wfw:comment><comments>http://www.shnenglu.com/guijie/archive/2018/06/25/215741.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.shnenglu.com/guijie/comments/commentRss/215741.html</wfw:commentRss><trackback:ping>http://www.shnenglu.com/guijie/services/trackbacks/215741.html</trackback:ping><description><![CDATA[<p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: justify; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;">Caffe2发布后,外界最多的讨论之一Q就是发Zq疑问。去q?2月,贾扬清曾l解释过一ơ:“目前Caffe2q不能完全替代CaffeQ还~Z东西,例如CuDNN。与Caffe2相比QCaffe仍然是主要的E_版本Q在生环境中用仍然推荐Caffe”?/p><p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: justify; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;">现在Caffe2正式发布Q这个推荐肯定要Ҏ新版本了?/p><p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: justify; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;">Caffe2的基本计单位是Operator。对于适当数量和类型的输入参数Q每个Operator都包括所需的计逻辑。Caffe和Caffe2的M差异如下图所C:</p><p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: center; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;"><img src="http://img.mp.itc.cn/upload/20170419/298fe20c58844c8eb152e458fcf98f1c.png" alt="" style="box-sizing: border-box; outline: 0px; margin: 10px auto 0px; max-width: 100%; word-break: break-all; cursor: zoom-in; border: 0px; padding: 0px; display: block;" /></p><p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: justify; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;">官方提供了从Caffeq移到Caffe2的教E,据说q个q移非常单?/p><p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: justify; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;">Caffe2和PyTorch有何不同Q?/p><p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: justify; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;">q是另外一个疑问?/p><p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: justify; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;">Caffe2长于Ud和大规模部v。虽然Caffe2新增了支持多GPU的功能,q让新框架与Torchh了相同的GPU支持能力Q但是如前所qͼCaffe2支持一台机器上的多个GPU或具有一个及多个GPU的多台机器来q行分布式训l?/p><p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: justify; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;"><span style="color: red;">PyTorch适合q行研究、实验和试不同的神l网l?/span>Q而Caffe2更偏向于工业应用Q而且重点x在移动端上的表现?/p><p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: justify; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;">贾扬清现w说?/p><p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: justify; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;">Caffe2发布后,作者贾扬清在reddit上连发四记解{?#8220;Yangqing here”Q贾扬清一上来p明了w䆾?/p><p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: justify; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;">  <img src="http://img.mp.itc.cn/upload/20170419/11efa7fa9ea2438e8a7e338bafc121e2_th.jpeg" alt="" style="box-sizing: border-box; outline: 0px; margin: 10px auto 0px; max-width: 100%; word-break: break-all; cursor: zoom-in; border: 0px; padding: 0px; display: block;" /></p><p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: justify; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;"><span style="color: red;">有h问搞出Caffe2意义何在Q现在已l有PyTorch、TensorFlow、MXNet{诸多框架?/span></p><p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: justify; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;">贾扬清说Caffe2和PyTorch团队紧密合作。他们把Caffe2视作一U生产力的选择Q?span style="color: red;">而把Torch视作研究型的选择?/span>而在构徏AI模块Ӟ他们也持有一U?#8220;非框?#8221;的理念,例如Gloo、NNPACK和FAISS{可以被用于M深度学习框架?/p><p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: justify; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;">有h问Caffe2接受外部贡献么?</p><p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: justify; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;">贾扬清说大爱外部贡献Q也会在开源方面l努力?/p><p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: justify; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;">有h问Caffe2是否用了Torch的代码库Q以及CUDA{相x持的问题?/p><p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: justify; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;">贾扬清说他们正在计划让Caffe2和Torch和PyTorch׃n后端Q这几个框架已经׃nGloo用于分布式训l,THCTensor、THNN和其他C/C++库也会׃n?/p><p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: justify; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;">在GPU层面QCaffe2使用了CUDA和CUDNN。贾扬清和团队也试验了OpenCLQ但是感觉用NVIDIA的GPU CUDA效果更好?/p><p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: justify; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;">另外在其他^収ͼ例如iOS上)QCaffe2使用了特定的工具Q例如Metal。一两天内,官方会发布Metal的实施?/p><p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: justify; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;">有h问Caffe2支持动态图么?</p><p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: justify; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;">贾扬清给出否定的回答Q他表示q是Caffe2和PyTorch团队有意做出的选择。Caffe2的Q务就是提供最佳的性能Q而如果想要极端灵zȝ计算Q请选择PyTorch。贾扬清认ؓq是一个更好的方式Q因?#8220;一个框枉吃”可能会媄响性能?/p><p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: justify; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;">所以,目前Caffe2只支持非常有限的动态控Ӟ例如动态RNN?/p><p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: justify; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;">最后,量子位放Z送门Q?/p><p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: justify; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;">Caffe2的首:http://caffe2.ai/</p><p style="box-sizing: border-box; outline: 0px; padding: 10px 0px 20px; margin: 0px; font-size: 16px; color: #191919; line-height: 26px; text-align: justify; word-break: break-all; background-color: #ffffff; border: 0px; font-family: "PingFang SC", Arial, 微Y雅黑, 宋体, simsun, sans-serif;">GitGub地址Qhttps://github.com/caffe2/caffe2</p><br />Reference:<br /><br /><div>https://blog.csdn.net/zchang81/article/details/70316864?utm_source=itdadao&utm_medium=referral<br />阅读记录: read twice<br /></div><img src ="http://www.shnenglu.com/guijie/aggbug/215741.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.shnenglu.com/guijie/" target="_blank">杰哥</a> 2018-06-25 05:13 <a href="http://www.shnenglu.com/guijie/archive/2018/06/25/215741.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item><item><title>Reviewerhttp://www.shnenglu.com/guijie/archive/2018/03/07/215549.html杰哥杰哥Wed, 07 Mar 2018 14:56:00 GMThttp://www.shnenglu.com/guijie/archive/2018/03/07/215549.htmlhttp://www.shnenglu.com/guijie/comments/215549.htmlhttp://www.shnenglu.com/guijie/archive/2018/03/07/215549.html#Feedback0http://www.shnenglu.com/guijie/comments/commentRss/215549.htmlhttp://www.shnenglu.com/guijie/services/trackbacks/215549.htmlAs a reminder please note that some wordprocessing systems (e.g. Word) will include a document authors name in an author field for a file. This is important if you are going to upload an attachment from a wordprocessing system with your review. A word file when converted to PDF will have this author information. Please make sure you do not include this information. You can check a PDF upload to see if it is included by clicking on file, document properties, summary. It is also possible to click on the little right pointing triangle above the page slider on the right of the document to get to document summary. The author field should be blank or clearly not the name or any information that could identify the reviewer.

杰哥 2018-03-07 22:56 发表评论
]]>
Topics of KDD 2018 http://www.shnenglu.com/guijie/archive/2018/02/04/215502.html杰哥杰哥Sat, 03 Feb 2018 16:32:00 GMThttp://www.shnenglu.com/guijie/archive/2018/02/04/215502.htmlhttp://www.shnenglu.com/guijie/comments/215502.htmlhttp://www.shnenglu.com/guijie/archive/2018/02/04/215502.html#Feedback0http://www.shnenglu.com/guijie/comments/commentRss/215502.htmlhttp://www.shnenglu.com/guijie/services/trackbacks/215502.htmlApplicationsBig dataData mining foundationsGraphs and social networksKnowledge discoveryMethodsRich data typesRecommender systemsSecuritySupervised learningUnsupervised learningRead twice

杰哥 2018-02-04 00:32 发表评论
]]>
2017q高被引学者榜?/title><link>http://www.shnenglu.com/guijie/archive/2018/01/23/215482.html</link><dc:creator>杰哥</dc:creator><author>杰哥</author><pubDate>Mon, 22 Jan 2018 20:50:00 GMT</pubDate><guid>http://www.shnenglu.com/guijie/archive/2018/01/23/215482.html</guid><wfw:comment>http://www.shnenglu.com/guijie/comments/215482.html</wfw:comment><comments>http://www.shnenglu.com/guijie/archive/2018/01/23/215482.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.shnenglu.com/guijie/comments/commentRss/215482.html</wfw:commentRss><trackback:ping>http://www.shnenglu.com/guijie/services/trackbacks/215482.html</trackback:ping><description><![CDATA[<div>http://china.elsevier.com/ElsevierDNN/Portals/7/mostcited/2017/computer-science.html<br /><br /><br /><div><div most-cited="" pt-4"=""><h3>计算机科?/h3><table table-hover"=""><thead><tr><th>学者姓?/th><th>目前工作单位</th></tr></thead><tbody><tr><td>刘铁?/td><td>微Y亚洲研究?/td></tr><tr><td>王徏?/td><td>清华大学</td></tr><tr><td>Stojmenović, Ivan</td><td>清华大学</td></tr><tr><td>白翔</td><td>华中U技大学</td></tr><tr><td>蔡登</td><td>江大学</td></tr><tr><td>蔡开?/td><td>北京航空航天大学</td></tr><tr><td>曹珍?/td><td>上v交通大?/td></tr><tr><td>曑ֿ?/td><td>华中U技大学</td></tr><tr><td>常虹</td><td>中国U学院大?/td></tr><tr><td>陈兵</td><td>青岛大学</td></tr><tr><td>陈积?/td><td>江大学</td></tr><tr><td>陈敏</td><td>华中U技大学</td></tr><tr><td>陈清?/td><td>西安建筑U技大学</td></tr><tr><td>陈胜?/td><td>江工业大学</td></tr><tr><td>陈松?/td><td>南京航空航天大学</td></tr><tr><td>陈天q?/td><td>复旦大学</td></tr><tr><td>陈月?/td><td>南大学</td></tr><tr><td>E明?/td><td>南开大学</td></tr><tr><td>仇计?/td><td>沛_U技大学</td></tr><tr><td>邓勇</td><td>西南大学</td></tr><tr><td>丁永?/td><td>东华大学</td></tr><tr><td>樊徏?/td><td>苏州大学</td></tr><tr><td>樊治q?/td><td>东北大学</td></tr><tr><td>范^?/td><td>西南交通大?/td></tr><tr><td>冯国?/td><td>中山大学</td></tr><tr><td>高曙?/td><td>江大学</td></tr><tr><td>高铁?/td><td>南开大学</td></tr><tr><td>高文</td><td>北京大学</td></tr><tr><td>高小?/td><td>中国U学?/td></tr><tr><td>高新?/td><td>西安电子U技大学</td></tr><tr><td>公茂?/td><td>西安电子U技大学</td></tr><tr><td>xq?/td><td>上v交通大?/td></tr><tr><td>晓?/td><td>西安交通大?/td></tr><tr><td>郭振?/td><td>清华大学</td></tr><tr><td>韩敏</td><td>大连理工大学</td></tr><tr><td>何晓?/td><td>江大学</td></tr><tr><td>黑晓?/td><td>华中U技大学</td></tr><tr><td>侯增q?/td><td>中国U学?/td></tr><tr><td>胡包?/td><td>中国U学?/td></tr><tr><td>胡d?/td><td>国防U学技术大?/td></tr><tr><td>胡清?/td><td>天|大学</td></tr><tr><td>胡事?/td><td>清华大学</td></tr><tr><td>胡卫?/td><td>中国U学?/td></tr><tr><td>黄d?/td><td>同济大学</td></tr><tr><td>黄?/td><td>中山大学</td></tr><tr><td>黄晓?/td><td>北京U技大学</td></tr><tr><td>江健?/td><td>深圳大学</td></tr><tr><td>江涛</td><td>华中U技大学</td></tr><tr><td>姜大?/td><td>微Y亚洲研究?/td></tr><tr><td>焦李?/td><td>西安电子U技大学</td></tr><tr><td>金v</td><td>华中U技大学</td></tr><tr><td>李传?/td><td>西南大学</td></tr><tr><td>李春?/td><td>江大学</td></tr><tr><td>李登?/td><td>州大学</td></tr><tr><td>李国?/td><td>清华大学</td></tr><tr><td>李涵?/td><td>中南大学</td></tr><tr><td>李洪?/td><td>大连理工大学</td></tr><tr><td>李树?/td><td>湖南大学</td></tr><tr><td>李学?/td><td>中国U学?/td></tr><tr><td>李玉?/td><td>׃U技大学</td></tr><tr><td>李远?/td><td>华南理工大学</td></tr><tr><td>李子?/td><td>中国U学?/td></tr><tr><td>梁吉?/td><td>p大学</td></tr><tr><td>梁金?/td><td>东南大学</td></tr><tr><td>梁艳?/td><td>吉林大学</td></tr><tr><td>廖晓?/td><td>西南大学</td></tr><tr><td>林闯</td><td>清华大学</td></tr><tr><td>刘宝?/td><td>清华大学</td></tr><tr><td>刘成?/td><td>中国U学?/td></tr><tr><td>刘d?/td><td>中国U学?/td></tr><tr><td>刘利?/td><td>中国工程物理研究?/td></tr><tr><td>刘培?/td><td>׃财经大学</td></tr><tr><td>刘庆?/td><td>东南大学</td></tr><tr><td>刘R?/td><td>沛_大学</td></tr><tr><td>楼旭?/td><td>江南大学</td></tr><tr><td>卢宏?/td><td>上v交通大?/td></tr><tr><td>鲁耀?/td><td>华中U技大学</td></tr><tr><td>马书?/td><td>天|大学</td></tr><tr><td>马毅</td><td>上vU技大学</td></tr><tr><td>马宗?/td><td>东北大学</td></tr><tr><td>cx?/td><td>沛_师范大学</td></tr><tr><td>潘林?/td><td>华中U技大学</td></tr><tr><td>潘全U?/td><td>东北大学</td></tr><tr><td>庞R?/td><td>天|大学</td></tr><tr><td>彭晨</td><td>上v大学</td></tr><tr><td>彭?/td><td>电子U技大学</td></tr><tr><td>钱宇?/td><td>p大学</td></tr><tr><td>M?/td><td>清华大学</td></tr><tr><td>阮邦?/td><td>北京师范大学-香港怼大学联合国际学院</td></tr><tr><td>芮勇</td><td>联想集团</td></tr><tr><td>沈纲?/td><td>苏州大学</td></tr><tr><td>沈琳?/td><td>深圳大学</td></tr><tr><td>矛_</td><td>中国U学?/td></tr><tr><td>时小?/td><td>吉林大学</td></tr><tr><td>孙仕?/td><td>华东师范大学</td></tr><tr><td>谭松?/td><td>中国U学?/td></tr><tr><td>谭铁?/td><td>中国U学?/td></tr><tr><td>谭晓?/td><td>南京航空航天大学</td></tr><tr><td>唐杰</td><td>清华大学</td></tr><tr><td>唐小?/td><td>西南交通大?/td></tr><tr><td>陶文?/td><td>华中U技大学</td></tr><tr><td>佟绍?/td><td>辽宁工业大学</td></tr><tr><td>王聪</td><td>华南理工大学</td></tr><tr><td>王飞?/td><td>中国U学?/td></tr><tr><td>王国?/td><td>中南大学</td></tr><tr><td>王国?/td><td>重庆邮电大学</td></tr><tr><td>王瀚漓</td><td>同济大学</td></tr><tr><td>王怀?/td><td>南方U技大学</td></tr><tr><td>王亮</td><td>中国U学?/td></tr><tr><td>王熙?/td><td>沛_大学</td></tr><tr><td>王兴?/td><td>东北大学</td></tr><tr><td>王A?/td><td>太原理工大学</td></tr><tr><td>王雪</td><td>清华大学</td></tr><tr><td>王应?/td><td>州大学</td></tr><tr><td>卫贵?/td><td>四川师范大学</td></tr><tr><td>文福?/td><td>江大学</td></tr><tr><td>邬向?/td><td>哈尔滨工业大?/td></tr><tr><td>吴伟?/td><td>江h大学</td></tr><tr><td>吴争?/td><td>江大学</td></tr><tr><td>伍世?/td><td>江西财经大学</td></tr><tr><td>夏锋</td><td>大连理工大学</td></tr><tr><td>夏又?/td><td>州大学</td></tr><tr><td>肖_</td><td>重庆大学</td></tr><tr><td>徐勇</td><td>哈尔滨工业大?/td></tr><tr><td>徐泽?/td><td>四川大学</td></tr><tr><td>徐正?/td><td>中国U学技术大?/td></tr><tr><td>杨苏</td><td>华南理工大学</td></tr><tr><td>D允?/td><td>昆明理工大学</td></tr><tr><td>于永?/td><td>北京交通大?/td></tr><tr><td>余乐?/td><td>北京化工大学</td></tr><tr><td>俞立</td><td>江工业大学</td></tr><tr><td>M?/td><td>中国U学?/td></tr><tr><td>袁晓?/td><td>华中U技大学</td></tr><tr><td>詹志?/td><td>华南理工大学</td></tr><tr><td>张道?/td><td>南京航空航天大学</td></tr><tr><td>张化?/td><td>东北大学</td></tr><tr><td>张敏?/td><td>东南大学</td></tr><tr><td>张强</td><td>大连大学</td></tr><tr><td>张师?/td><td>q西师范大学</td></tr><tr><td>张田?/td><td>上v交通大?/td></tr><tr><td>张新?/td><td>上v大学</td></tr><tr><td>张雨?/td><td>中山大学</td></tr><tr><td>张煜?/td><td>南京师范大学</td></tr><tr><td>章毅</td><td>四川大学</td></tr><tr><td>章毓?/td><td>清华大学</td></tr><tr><td>周东?/td><td>׃U技大学</td></tr><tr><td>周根?/td><td>江工业大学</td></tr><tr><td>周杰</td><td>清华大学</td></tr><tr><td>周昆</td><td>江大学</td></tr><tr><td>周涛</td><td>电子U技大学</td></tr><tr><td>周志?/td><td>南京大学</td></tr><tr><td>诸葛?/td><td>中国U学?/td></tr><tr><td>峰</td><td>电子U技大学</td></tr></tbody></table></div></div><hr /><footer><p>Copyright © 2018 Elsevier. All rights reserved.</p></footer></div><img src ="http://www.shnenglu.com/guijie/aggbug/215482.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.shnenglu.com/guijie/" target="_blank">杰哥</a> 2018-01-23 04:50 <a href="http://www.shnenglu.com/guijie/archive/2018/01/23/215482.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item><item><title>Professor Deng Cai's code, very good codehttp://www.shnenglu.com/guijie/archive/2017/11/26/215370.html杰哥杰哥Sun, 26 Nov 2017 05:10:00 GMThttp://www.shnenglu.com/guijie/archive/2017/11/26/215370.htmlhttp://www.shnenglu.com/guijie/comments/215370.htmlhttp://www.shnenglu.com/guijie/archive/2017/11/26/215370.html#Feedback0http://www.shnenglu.com/guijie/comments/commentRss/215370.htmlhttp://www.shnenglu.com/guijie/services/trackbacks/215370.html20171125 rutgers email: Please check https://github.com/dengcai78/MatlabFunc  for the most up-to-date codes.

杰哥 2017-11-26 13:10 发表评论
]]>
价?50亿美元的特征向量QGoogle背后的线性代?/title><link>http://www.shnenglu.com/guijie/archive/2017/05/02/214895.html</link><dc:creator>杰哥</dc:creator><author>杰哥</author><pubDate>Tue, 02 May 2017 00:03:00 GMT</pubDate><guid>http://www.shnenglu.com/guijie/archive/2017/05/02/214895.html</guid><wfw:comment>http://www.shnenglu.com/guijie/comments/214895.html</wfw:comment><comments>http://www.shnenglu.com/guijie/archive/2017/05/02/214895.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.shnenglu.com/guijie/comments/commentRss/214895.html</wfw:commentRss><trackback:ping>http://www.shnenglu.com/guijie/services/trackbacks/214895.html</trackback:ping><description><![CDATA[<div class="x3htzhn" id="weibo-4102482772109011" style="box-sizing: border-box; position: relative; font-size: 12px; background: #eeeeee; padding: 5px; word-wrap: break-word; margin-bottom: 10px; color: #3b3b3b; font-family: "Open Sans", Arial, Helvetica, sans-serif;"><div style="box-sizing: border-box; margin-bottom: 10px; margin-left: 0px;"><div style="box-sizing: border-box; font-size: 16px; margin: 5px 5px 10px;">【h?50亿美元的特征向量QGoogle背后的线性代数】《The $25,000,000,000 eigenvector: The linear algebra behind Google》K Bryan, T Leise (2006) <a target="_blank" title="http://www.rose-hulman.edu/~bryan/googleFinalVersionFixed.pdf" rel="nofollow" data-slimstat-clicked="false" data-slimstat-type="0" data-slimstat-tracking="true" data-slimstat-callback="false" style="box-sizing: border-box; color: #3b3b3b; text-decoration-line: none; outline: none !important;">http://t.cn/zlnwlj5</a> ​</div><div style="box-sizing: border-box; padding: 10px; max-height: 420px; overflow: hidden; margin-bottom: 10px;"><a target="_blank" title="点击查看大图" rel="nofollow" data-slimstat-clicked="false" data-slimstat-type="0" data-slimstat-tracking="true" data-slimstat-callback="false" style="box-sizing: border-box; color: #95a5a6; text-decoration-line: none; outline: 0px;"><img src="http://ww3.sinaimg.cn/large/5396ee05jw1ff5gpzdcfgj21dw07gdoj.jpg" alt="" style="box-sizing: border-box; border: 0px; vertical-align: middle; max-width: 260px; height: auto; padding: 10px 0px;" /></a></div><p style="box-sizing: border-box; margin: 0px; line-height: 22px; padding-bottom: 0px;"></p></div><p style="box-sizing: border-box; margin: 0px; line-height: 22px; padding-bottom: 0px;"></p></div><div class="rdvh99n" id="4102486203659995" style="box-sizing: border-box; margin-left: 0px; position: relative; font-size: 12px; background: #fefcff; padding: 5px; margin-bottom: 10px; color: #3b3b3b; font-family: "Open Sans", Arial, Helvetica, sans-serif;"><div style="box-sizing: border-box; margin: 5px;"><span style="box-sizing: border-box; font-size: 14px; padding: 0px;"><a title="functicons 的主? target="_blank" rel="nofollow" data-slimstat-clicked="false" data-slimstat-type="0" data-slimstat-tracking="true" data-slimstat-callback="false" style="box-sizing: border-box; color: #3b3b3b; text-decoration-line: none; outline: none !important;"><strong style="box-sizing: border-box;">functicons</strong></a></span> <span style="box-sizing: border-box;"><a target="_blank" rel="nofollow" data-slimstat-clicked="false" data-slimstat-type="0" data-slimstat-tracking="true" data-slimstat-callback="false" style="box-sizing: border-box; color: #3b3b3b; text-decoration-line: none; outline: none !important;">|页?/a> 转发?span style="box-sizing: border-box;">2017-05-01 06:46</span></span></div><div style="box-sizing: border-box; font-size: 16px; margin: 5px 5px 10px;">The weights of the web pages is the eigenvector of the link matrix. This is mathematically simple and beautiful, the real challenge is the scale of the matrix: 10B * 10B, but because it’s sparse, the real scale is 10B * c.</div></div><img src ="http://www.shnenglu.com/guijie/aggbug/214895.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.shnenglu.com/guijie/" target="_blank">杰哥</a> 2017-05-02 08:03 <a href="http://www.shnenglu.com/guijie/archive/2017/05/02/214895.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item><item><title>[zz] 跟班式科研,误己误国——某国立研究所所长的自白 | 争鸣http://www.shnenglu.com/guijie/archive/2016/08/26/214232.html杰哥杰哥Fri, 26 Aug 2016 01:23:00 GMThttp://www.shnenglu.com/guijie/archive/2016/08/26/214232.htmlhttp://www.shnenglu.com/guijie/comments/214232.htmlhttp://www.shnenglu.com/guijie/archive/2016/08/26/214232.html#Feedback0http://www.shnenglu.com/guijie/comments/commentRss/214232.htmlhttp://www.shnenglu.com/guijie/services/trackbacks/214232.html阅读全文

杰哥 2016-08-26 09:23 发表评论
]]>
全新的美国计机学科排名http://www.shnenglu.com/guijie/archive/2016/07/21/214021.html杰哥杰哥Thu, 21 Jul 2016 04:40:00 GMThttp://www.shnenglu.com/guijie/archive/2016/07/21/214021.htmlhttp://www.shnenglu.com/guijie/comments/214021.htmlhttp://www.shnenglu.com/guijie/archive/2016/07/21/214021.html#Feedback1http://www.shnenglu.com/guijie/comments/commentRss/214021.htmlhttp://www.shnenglu.com/guijie/services/trackbacks/214021.html转自王威?0160720微博Q?br />全新的美国计机学科排名Q号UCUS News的系MQ主观打分排名不同Q这Ҏ名针对计机领域最尖的会议计而来。CMUM排名W一Q拥?23名教授。UC Santa Barbara在少?0名Faculty的小型计机pM仅次于哈佛,与普林斯ƈ列第二?a title="|页链接" target="_blank" suda-uatrack="key=minicard&value=pagelink_minicard_click" action-type="feed_list_url">O|页链接:
http://csrankings.org/




杰哥 2016-07-21 12:40 发表评论
]]>
[zz] 现在主要的期刊分区有几种Q?/title><link>http://www.shnenglu.com/guijie/archive/2016/06/15/213721.html</link><dc:creator>杰哥</dc:creator><author>杰哥</author><pubDate>Wed, 15 Jun 2016 11:51:00 GMT</pubDate><guid>http://www.shnenglu.com/guijie/archive/2016/06/15/213721.html</guid><wfw:comment>http://www.shnenglu.com/guijie/comments/213721.html</wfw:comment><comments>http://www.shnenglu.com/guijie/archive/2016/06/15/213721.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.shnenglu.com/guijie/comments/commentRss/213721.html</wfw:commentRss><trackback:ping>http://www.shnenglu.com/guijie/services/trackbacks/213721.html</trackback:ping><description><![CDATA[<a >http://blog.sciencenet.cn/blog-303458-804525.html</a><br /><br /><strong><font size="4" face="楷体">现在主要的期刊分区有几种Q?/font></strong> <p style="text-align: left; margin: 0px 0px 10px 24px; line-height: 27px; text-indent: 37px; -ms-layout-grid-mode: char"><span style="font-size: 19px; font-family: 楷体">{:有两U?/span></p> <p style="margin-bottom: 10px; font-size: 14px; font-weight: normal; color: rgb(0,0,0); font-style: normal; text-align: left; margin-top: 0px; line-height: 27px; -ms-layout-grid-mode: char"><span style="font-size: 18px; font-family: 楷体,楷体_gb2312, simkai">   </span><strong><span style="font-size: 18px; font-family: 楷体,楷体_gb2312, simkai">A、JCR</span><span style="font-size: 19px; font-family: 楷体"><span style="font-size: 18px; font-family: 楷体,楷体_gb2312, simkai">Q又U?/span><span style="font-size: 18px; font-family: 楷体,楷体_gb2312, simkai">汤森路透)分区?/span></span></strong></p> <p style="font-family: ; color: rgb(0,0,0); text-align: left; line-height: 27px" dir="ltr">   <a name="OLE_LINK1"><span style="font-size: 18px; font-family: 楷体,楷体_gb2312, simkai">汤森路?/span><span style="font-size: 18px; font-family: 楷体,楷体_gb2312, simkai"></span></a><span style="font-size: 18px; font-family: 楷体,楷体_gb2312, simkai">Q?/span><span style="font-size: 18px; font-family: times new roman">Thomson Reuters</span><span style="font-size: 18px; font-family: 楷体,楷体_gb2312, simkai">Q每q出版一本《期刊引用报告》(</span><span style="font-size: 18px; font-family: times new roman">Journal Citation Reports</span><span style="font-size: 19px; font-family: 楷体"><span style="font-size: 18px; font-family: 楷体,楷体_gb2312, simkai">Q简UJCRQ。JCR?600多种SCI期刊的媄响因?/span></span><span style="font-size: 19px; font-family: 楷体"><span style="font-size: 18px; font-family: 楷体,楷体_gb2312, simkai"></span></span><span style="font-size: 19px; font-family: 楷体"><a name="_ftnref1"><span style="font-size: 18px; font-family: 楷体,楷体_gb2312, simkai">[1]</span></a><span style="font-size: 18px; font-family: 楷体,楷体_gb2312, simkai">QImpact FactorQ等指数加以l计?/span></span><span style="font-size: 18px; font-family: 楷体,楷体_gb2312, simkai">JCR</span><span style="font-size: 18px; font-family: 楷体,楷体_gb2312, simkai">收录期刊分?76个不同学U类别。每个学U分cL照期刊的影响因子高低Q^均分为Q1、Q2、Q3和Q4四个区:<br /></span><span style="font-size: 18px; font-family: 楷体,楷体_gb2312, simkai"> </span><span style="font-size: 18px; font-family: 楷体,楷体_gb2312, simkai"> </span><span style="font-size: 18px; font-family: 楷体,楷体_gb2312, simkai; color: red">各学U分cM影响因子?5%(?5%)期刊划分为Q1区、前25-50% (?0%)为Q2区、前50-75% (?5% )为Q3区、后75%为Q4区?/span></p> <p style="font-family: ; color: rgb(0,0,0); text-align: left; line-height: 27px"><span style="font-size: 19px; font-family: 楷体"><span style="font-size: 18px; font-family: 楷体,楷体_gb2312, simkai"> </span><strong><span style="font-size: 18px; font-family: 楷体,楷体_gb2312, simkai">B?/span><span style="font-size: 18px; font-family: 楷体,楷体_gb2312, simkai">中国U学院分区法</span></strong><br /><span style="font-size: 18px; font-family: 楷体,楷体_gb2312, simkai">   </span></span><span style="font-size: 18px; font-family: 楷体,楷体_gb2312, simkai">中国U学院国家科学图书馆世界U学前沿分析中心Q原中国U学院文献情报中心)</span><span style="font-size: 18px; font-family: 楷体,楷体_gb2312, simkai">Ҏ</span><span style="font-size: 18px; font-family: 楷体,楷体_gb2312, simkai">汤森路?/span><span style="font-size: 18px; font-family: 楷体,楷体_gb2312, simkai">每年的JCR数据Q创新划分了一个分区区_形成了中U院的分区标准?/span></p><img src ="http://www.shnenglu.com/guijie/aggbug/213721.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.shnenglu.com/guijie/" target="_blank">杰哥</a> 2016-06-15 19:51 <a href="http://www.shnenglu.com/guijie/archive/2016/06/15/213721.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item><item><title>Autoencoderhttp://www.shnenglu.com/guijie/archive/2016/06/06/213654.html杰哥杰哥Mon, 06 Jun 2016 09:05:00 GMThttp://www.shnenglu.com/guijie/archive/2016/06/06/213654.htmlhttp://www.shnenglu.com/guijie/comments/213654.htmlhttp://www.shnenglu.com/guijie/archive/2016/06/06/213654.html#Feedback0http://www.shnenglu.com/guijie/comments/commentRss/213654.htmlhttp://www.shnenglu.com/guijie/services/trackbacks/213654.htmlhttp://deeplearning.stanford.edu/wiki/index.php/Autoencoders_and_Sparsity ?http://deeplearning.stanford.edu/wiki/index.php/Visualizing_a_Trained_Autoencoder 的中文版本,understand completely
点击最下面有中文?br />This is recommended by Chong Wang in iim.

杰哥 2016-06-06 17:05 发表评论
]]>
What is the difference between weakly supervised learning and semi-supervised learning?http://www.shnenglu.com/guijie/archive/2016/05/25/213585.html杰哥杰哥Wed, 25 May 2016 15:07:00 GMThttp://www.shnenglu.com/guijie/archive/2016/05/25/213585.htmlhttp://www.shnenglu.com/guijie/comments/213585.htmlhttp://www.shnenglu.com/guijie/archive/2016/05/25/213585.html#Feedback0http://www.shnenglu.com/guijie/comments/commentRss/213585.htmlhttp://www.shnenglu.com/guijie/services/trackbacks/213585.html 通常q督和半监督都是对于两Ulabel而言?nbsp;如果只有一Ulabel 不存在弱监督的概c比如物体检?label是类别和位置 如果只给定类别不l定位置 相当于只用了偏弱的label 叫做q督。如果类别和位置都只用了部分h 叫做半监督。如果label只有一U?比如物体分类 没有q督的概念 当只用部分样本时 叫做半监督问题。This is with Chong Wang's help and verified by Jingyu Liu.

杰哥 2016-05-25 23:07 发表评论
]]>
数据挖掘领域的全球专家列?/title><link>http://www.shnenglu.com/guijie/archive/2016/03/04/212920.html</link><dc:creator>杰哥</dc:creator><author>杰哥</author><pubDate>Fri, 04 Mar 2016 02:16:00 GMT</pubDate><guid>http://www.shnenglu.com/guijie/archive/2016/03/04/212920.html</guid><wfw:comment>http://www.shnenglu.com/guijie/comments/212920.html</wfw:comment><comments>http://www.shnenglu.com/guijie/archive/2016/03/04/212920.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.shnenglu.com/guijie/comments/commentRss/212920.html</wfw:commentRss><trackback:ping>http://www.shnenglu.com/guijie/services/trackbacks/212920.html</trackback:ping><description><![CDATA[<span style="color: #3b3b3b; font-family: 'Open Sans', Arial, Helvetica, sans-serif; font-size: 16px; line-height: 22.8571px; background-color: #eeeeee;">发布一个数据挖掘领域的全球专家列表Q?/span><a target="_blank" title="https://aminer.org/datamining-experts" rel="nofollow" data-slimstat-clicked="false" data-slimstat-type="0" data-slimstat-tracking="true" data-slimstat-callback="false" data-slimstat-async="true" style="box-sizing: border-box; color: #3b3b3b; text-decoration: none; font-family: 'Open Sans', Arial, Helvetica, sans-serif; font-size: 16px; line-height: 22.8571px; outline: none !important; background-color: #eeeeee;">http://t.cn/RGlEOWy</a><span style="color: #3b3b3b; font-family: 'Open Sans', Arial, Helvetica, sans-serif; font-size: 16px; line-height: 22.8571px; background-color: #eeeeee;"> 包含300多位专家Q既有学术界的,也有工业界的Q提供每位专家详lprofileQ基本信息、联pL式、研I兴)Q还包括性别、能讲的语言Q比如中文)。更多专家列表将随后发布?/span><img src ="http://www.shnenglu.com/guijie/aggbug/212920.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.shnenglu.com/guijie/" target="_blank">杰哥</a> 2016-03-04 10:16 <a href="http://www.shnenglu.com/guijie/archive/2016/03/04/212920.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item><item><title>刘铁岩:在微软大学的三次华丽转型http://www.shnenglu.com/guijie/archive/2016/01/21/212701.html杰哥杰哥Thu, 21 Jan 2016 02:05:00 GMThttp://www.shnenglu.com/guijie/archive/2016/01/21/212701.htmlhttp://www.shnenglu.com/guijie/comments/212701.htmlhttp://www.shnenglu.com/guijie/archive/2016/01/21/212701.html#Feedback0http://www.shnenglu.com/guijie/comments/commentRss/212701.htmlhttp://www.shnenglu.com/guijie/services/trackbacks/212701.htmlhttp://blog.sina.cn/dpool/blog/s/blog_4caedc7a0102w57s.html?wm=3049_a111

一个理想的研究人员成长轨迹应该是什么样的?
微Y全球执行副总裁沈向z博士认Z个酷L研究员应该是q样的:“挑选一个雄心勃勃的目标Q致力于端到端的研究Q长久的坚持Q而他的研I伙伴们也应该有着同样的激情,但最重要的是始终乐在其中?#8221;
如果以这个标准来看,微Y亚洲研究院首席研I员刘铁?/a>博士可谓是研I员的范本?003q_从清华大学电子工E系博士毕业之后Q刘铁岩直接q入了微软亚z研IQ在q一待就是十余年。这十多q间Q刘铁岩博士由原本的多媒体信号处理方向的博士Q逐步成长为国际机器学习和信息索领域的知名学者。这些{型在外h看v来十分巨大,?#8220;三清”Q本U、硕士和博士都就M清华大学Q出w的刘铁岩博士说Q?#8220;微Y亚洲研究院其实是我的W二所大学Q这是一个培Mh的地方,有了她的帮助Q这一切其实过渡地非常自然?#8221;
开攄境带来的首次转型
在结束了九年的清华校园学习时Q摆在刘铁岩面前的选择有很多,例如知名大学教职{等Q而微软亚z研I吸引刘铁岩的除了全球领先的研I环境之外,更重要的是可以和自己敬Ԓ已久的顶行业大牛一起工作,对于一个刚开始入行的q轻研究员来说无疑动力巨大。因此,刘铁岩于2003q正式加入了微Y亚洲研究院,q由原来的多媒体信号处理方向的研I{入了互联|搜索与挖掘领域Q从此开始了对信息检索这一全新领域的探索?br />q是刘铁岩在研究院的W一ơ{型,但这ơ{型ƈ不像Z惌的那么艰难,因ؓ微Y亚洲研究院ؓ研究人员提供了一个十分开攄U研环境Q让研究员们有充分的自由和资源来调整自己的研I兴。在q里刘铁岩和很多不同研究方向的资qI员们进行了交流Q其中包括他后来的老板Q现在的
微Y亚洲研究院常务副院长马维英博?/a>。同Ӟ借助研究院这个^台刘铁岩q与众多国际知名学者进行了深入交流Q进一步拓宽了其科研视野,刘铁岩博士首ơ{型的领\Z是卡内基梅隆大学的文本分c领域的资深专家杨颐明授?004q暑假,正处于{型期的刘铁岩博士遇见了前来微软亚z研I交流的杨教授Q便一拍即合地展开了合作。他们当时共同搭Z当时世界上最大的、近三十万类的文本分cȝl,相关论文收到了广泛关注,短短几年间就被引用了数百ơ。这ơ和杨教授的合作也成了刘铁岩q入到文本信息处理领域的W一个敲门砖。从那个时候vQ刘铁岩开始了解什么是信息索,什么是文本分类pȝQ他的首ơ{型也逐步成型?br />
挑选一个雄心勃勃的目标Q排序学?/strong>
W一ơ{型之后,刘铁岩作Z息检索领域的ChQ始l保持着旺盛的好奇心Q不断思考着能ؓq个领域带来哪些Cѝ当时围l搜索引擎所开展的研究十分火热Q信息检索更是h们关注的重中之重。通过大量的文献研IӞ刘铁岩发现这个方向大多数的研I者都是数字图书馆专业背景Q因此研I方法都偏向l验化,~少了对于优化系l方式和目标的科学思考?br />Z对行业的z察Q刘铁岩开始深入学习机器学习的相关知识Qƈ试图把机器学习的思想引入信息索领域。由此,刘铁岩博士在学术界的W一个成名工?#8212;—排序学习Qlearning to rankQ就q样诞生了,该方法ؓ信息索领域带来了重大变革?br />随后Q刘铁岩的研I便围绕排序学习展开。在2007?008q_刘铁岩和他的团队在SIGIR、WWW、ICML{顶U学术会议上发表了大量的关于排序学习的论文,q在L会议上做主题讲、主持专题研讨会。他的表现受C学术界越来越多的xQ更多的研究人员跟随他进入到q个领域中来Q短短的几年旉刘铁岩及其团队的研究实力便在全世界的信息索领域内遥遥领先。而刘铁岩博士出的W一本学术专著也与排序学习相兟뀂该专著已被多所大学作ؓ教科书、ƈ被其他学者引用了q千ơ?br />致力于端到端的系l性研I??008q到2009q左叻I排序学习领域管很繁荣,但是多数Z把排序学习作为应用的研I。在机器学习领域的主学术会议中Q排序学习通常也会被分到应用领域(application trackQ?br />刘铁岩很快就发现了这其中的原因:一个研I域如果缺科研理论的话,是无法被q泛认可的。因此在后来的几q时间里Q刘铁岩和他的研I团队花费了大量旉从理论的角度把排序学习领域正式化Q去阐述q个领域是什么、目标是什么、各U算法的关系是什么、有什么样的理论性质{等。他们在ICML、NIPS、COLT{顶U机器学习会议上发表了大量排序学习的理论文章Q即使到今天q些论文的媄响力也十分深刅R在q整个的研究周期内,刘铁岩及其团队把排序学习打造成一个完整的研究领域Qƈ通过从算法到理论的一pd研究成果Q让q个领域真正的火了v来,刘铁岩也成了q一研究领域当之无愧的代表h物?br />q就是微软亚z研I里一个典型的研究案例。刘铁岩在微软内部的导师Rakesh Agrawal院士曑֑诉他Q?#8220;对于研究人员来说Qƈ不是Z发表论文而发论文Q而是要在特定的历史阶D,针对一个重要的问题Q从表面到核心全部做C?#8221;一直到今天Q排序学习一直都是很多会议的主要方向之一Q仍然有很多学者在q行研究。正是因些工作,刘铁岩博士完成了他的W二ơ{?#8212;—׃息检索{变到了机器学习?br />
W三ơ{型:博弈机器学习
在微软亚z研IQ研I员的研I成果除了作文发表出来之外,q会应用到微软的各个产品中。通过与品部门合作,研究员们可以发现实际应用中的新问题。刘铁岩团队与微软的在线q告部门的合作就是其中一个非常有代表性的实例?br />q项合作始于排序学习Q刘铁岩和团队成员帮微Yq告部门ȝ训练了一个效果极佳的机器学习模型用于必应q告搜烦中的竞h排名。上U之初模型立d来了很大的效益,但随着旉的推U,q告效益却大打折扣。刘铁岩和他的团队发Cq个问题Qƈ扑ֈ了奇怪现象的ҎQ广告竞h名过E常常涉及到人(q告主)的因素,q告M因ؓ法的改变带来的h变化Q敏锐地调整自己的广告投攄略,q是一个动态过E。如果不考虑l济规律和h的动态策略,ȝ地进行机器学习模型的训练Q结果自然会产生很大的偏差?br />如果xq告竞hq个动态问题解释清楚,仅有机器学习的知识背景显然是不够的。所以刘铁岩便带领其团队开始学习博弈论Q计经学{等Q?span style="color: red">l名也改成了“互联|经研I组”Q这便是他第三次转型的开?/span>。在q个转型q程中,他发明了一U全新的技术,UCؓ“博弈机器学习”Q把博弈论的思想引入到机器学习的q程中,来对人的动态策略进行徏模,从而解决上文提到的N?br />如果你了解博弈论和机器学习分别是什么的话,׃发现q两个领域差别巨大,完全是不同的体系Q那么这ơ{型的隑ֺ也可惌知。刘铁岩博士_“对于M一位研Ih员,如果不是在微软亚z研I的话Q这U{型都是非常困隄。因为,如果你开始学习新东西Q想要有q个领域的h认识、认可你Qƈ产生的媄响力是十分艰隄。但当我们真正去做的时候,发现微Y亚洲研究院给了我们很多帮助,q让我们Ҏ领域的研I变得轻松不?#8221;当刘铁岩和他们组的研I员们开始涉互联网l济领域Ӟ不仅有来自微软其他研I在博弈论领域颇有建树的同事(如Noam NisanQ的帮助、也有很多来自学界的博弈ZӞ如邓铁教授、叶荫宇教授{)抛出了橄榄枝。他们互相访问,一起参加各U学术活动,互相交流Q在很短的时间内Q刘铁岩他们对博弈一研究方向有了很多深刻的认识:不仅在算法博弈论领域的顶U会议上发表了多论文,q在互联|经研I组成立不到两年的时间里Q以E序委员会主席的w䆾把全世界W二的算法博弈论会议——互联|经大会(WINEQ带C国?br />
黄金三镖客:电子Q数学和计算? 微Y亚洲研究?人工l三ơ{型,成就了刘铁岩博士一路创C断的探烦和发玎ͼ然而这背后也离不开其整个研I团队的支持与努力?span style="color: #ff0000">现在Q刘铁岩博士带领的团队更名ؓ“人工l?#8221;Ql在当下火热的机器学习和人工领域q行p。不久前Q?a target="_blank">微Y亚洲研究院对外开源的DMTKQ分布式机器学习工具包)便是q个组的研I成果?/div>如果l这个研I组L一个关键词的话Q那一定是“求知?#8221;。从刘铁岩的三次转型中也不难发现Q现名ؓ人工l的研究员们l非循规y矩之hQ他们有着强烈的求知欲Q就像初生牛犊不怕虎一P知难而进Q什么不会学什么,什么难做什?/span>Q朝气十?br />而另一斚wQ该团队的组合十分有,像微Y亚洲研究院的一个小羃׃栗研I员们的专业覆盖面既不是全部_N于机器学习,也不是全部埋头在博弈Z。目前,人工l有三分之一的研I员数学p,专业包括计算数学、概率论和组合数学,q涵盖了该团队所需要的所有数学基。另外三分之一的研I员Q包括刘铁岩在内都是来自电子工程专业Q刘铁岩博士认ؓQ电子工E专业出w的人有一个很大的优点便是有着非常好的直觉Qƈ且不局限自q思\Q十分开放。而其余三分之一的研I员则是计算Z业出w,他们都拥有很强的计算机技能。当数学、电子和计算Z拨精q撞在一L时候,没有什么研I方向能隑־住他们了?br />此外Qh工智能组q是一个十分重视学术和工程实践相结合的团队。他们的很多启发与灵感都来自于与微Y产品部门的合作,因此Q这是一个不断提出新问题的团队。在人工l发表的论文中你可以看到一个很明显的特点:团队很少循规y矩地解军_人提出的问题Q而是l常提出新的问题Qƈl出一个力所能及范围内的最优解。这L论文常常有很高的引用敎ͼq_下来Q刘铁岩和他的团队发表的论文几乎每篇都有上百ơ的引用?/span>
三次转型带来了如今h工智能研I组的团队凝聚力。一加一大于二,组的很多论文都有至一个电子,一个计机和一个数学背景的研究员参与,q样的论文都非常有特点,也能满各种要求Q无论是定力证明、直觉、还是实现的_yQ都可圈可点?br />“争吵文化”?#8220;真理不L不明” 刘铁岩博士带领的人工l还有一个十分有的“争吵文化”。在接受采访ӞW者对刘铁岩博士嘴里说出的“争吵文化”感到十分难以|信。坐在对面的刘铁岩博士穿着l典Ƅ男士衬衫Q外套一件E灰色的羊毛开衫,学院气息厚Q让Z乎很隑ְ他与“争吵”联系在一赗?br />“我们团队几乎会天天争c?#8221;刘铁岩博士笑a。但q其实是研究l最有活力的状态,开会的时候,大家不会在乎职位高低Q就一个问题会针锋相对地表达自q观点。h工智能组全组上下都坚持的一个信条是“真理不L不明”。在刘铁岩的带领下,整个l会怺批判的看问题Q就q待久一点的实习生也会自然的融入其中Q和他的导师间也是一U互相辩论,互相学习的关pR?br />因此Q对于实习生来说Q进入微软亚z研I会带来巨大的成长。首先是知识的积累,很多实习生在q研I之初知识非常有限。但微Y亚洲研究院计机专家资源密集Q超q两癑֐的计机专家们的研究l历、方向和视角各不相同Q向他们学习一定会有所收获。其ơ,实习生们在这里学会的更多是研I经验和研究ҎQ?#8220;争吵文化”在这里便得到了很好的体现。无论是什么大牛发了什么论文,都应该抱有一U?#8220;破坏?#8221;的思想Q先客观地分析,从中立甚x判的视角来研I。因此,人工l培d的实习生也都个性十I颇有“牛”风范Q从不盲目崇拜?br />在微软亚z研I大学Q成长于中国Q却能媄响世?作ؓ三清毕业的博士、微软亚z研I首席研究员,刘铁岩博士的研究之\始终都未d中国本土。而作为国际机器学习和信息索领域的知名学者,他的国际影响力也毋庸|疑。刘铁岩的论文多ơ获得最佌文奖、最高引用论文奖Q他担Q了SIGIR、WWW、NIPS、AAAI{众多顶U学术会议的E序委员会主席或领域dQACM信息pȝ会刊QTOISQ、ACM万维|会刊(TWEBQ等L学术期刊的副ȝQ他和他的研I成果也被美国国家公q台、中国中央电视台、MIT技术评论等国内外知名媒体所报道。此外,他还受邀在包括卡内基梅隆大学QCMUQ、诺丁汉大学在内的国内外知名高校担Q客教授、博士生导师。对于所获得的诸多成,刘铁岩无不感动地_“最重要的原因其实是我来自微软亚z研IQ如果我博士毕业没有来到研究院,我都不敢惌会有今天的媄响力?#8221;
微Y亚洲研究院从1998q?1月成立的W一天开始,在国际学术界扮演着举轻重的作用。这么多q来Q研I以一贯开攄心态,与学术界展开U极的合作,而研I开攄学术环境也ؓ研究人员们构Z一座与学术界的桥梁Q两者相辅相成。甚x国外学者戏U微软亚z研I是一个让?#8220;又爱又恨”的机构。爱在它的研I成果,为学术界带来了诸多创斎ͼ?#8220;?#8221;在其彪悍的实力,让别人望莫及?br />除了学术合作Q微软亚z研I为研I员们还提供了接触用P服务用户的可能。微软亚z研I的研I员也和微Y的品部分积极展开合作。刘铁岩博士带领的h工智能组的技术{化也体现在微软必应搜索的搜烦l果排序和广告排序,冰的自动问{技术等微Y的品和服务中?br />刘铁岩博士谦虚的表示Q?#8220;能成为包括CMU在内的众多知名高校的客教授Q很大程度源于学术界对微软亚z研I的信仅R甚至h工智能组的实习生Q也成ؓ了CMU的offer收割机,q都得益于我们开攄U研环境和紧密的学术交流。因为微软亚z研IQ我们的研究被更多hxQ我们的Ch也被更多可,q就形成了一个良性@环。类g国外的师承关p,从这个角度来看,微Y亚洲研究院着实就像是一所大学了?#8221;
阅读记录:read twice


杰哥 2016-01-21 10:05 发表评论
]]>
机器之心Q?q货Q七步打造深度学习专http://www.shnenglu.com/guijie/archive/2015/12/18/212511.html杰哥杰哥Fri, 18 Dec 2015 12:11:00 GMThttp://www.shnenglu.com/guijie/archive/2015/12/18/212511.htmlhttp://www.shnenglu.com/guijie/comments/212511.htmlhttp://www.shnenglu.com/guijie/archive/2015/12/18/212511.html#Feedback0http://www.shnenglu.com/guijie/comments/commentRss/212511.htmlhttp://www.shnenglu.com/guijie/services/trackbacks/212511.htmlhttp://www.almosthuman.cn/2015/12/16/rhnvh/


本文作?font style="color: rgb(150,30,35)">Ankit Agarwal是面向开发者的经|络q_提供商Silversparro Technologies的CTO和创始h?/p>

1Q第一步,了解什么是机器学习Q最佛_门资源就?Andrew Ngs (Ex-Google, Stanford, Baidu), an online course at coursera. 讲让你_了解机器学习的基Q不q课后作业会提升你对机器学习的了解?/p>

2Q接下来需要培d经|络的直觉。所以,l箋~写你的W一个神l网l,和它玩耍吧

3Q了解神l网l很重要Q但是简单神l网l没有够能力解军_多数有趣问题。变?L经|络很善于解册觉问题。斯坦福评W记以及qȝ片:CS231n Convolutional Neural Networks for Visual Recognition(notes), ?font style="color: rgb(150,30,35)">CS231n: Convolutional Neural Networks for Visual Recognition (讲qȝ??here?here是两个很的有关CNNs的视频?/p>

4Q接下来是自己电脑上运行你的第一个CNN

  • 安装 BoincQ这个对你的学习没帮助,但是能让其他研究人员在在它闲|的时候用你的GPU从科学工作)

5QDigit提供上会l少数几个算法,比如 用来性格识别?font style="color: rgb(150,30,35)">Lenet Q图像分cȝ Googlenet。你要下?相关数据库( dataset for Lenet ?dataset for Googlenet Q来q行q些法。可以修改算法ƈ试其他有趣的视觉图像识别Q务,像我们试q的Q?hereQ?/p>

6Q就各种NLPd而言QRNNs是最佳选择。学习RNNs最好的地方是斯坦福的演讲视频(Stanford lecture videos hereQ。你可以下蝲 TensorflowQ用它来建造RNNs.

7Q现在,l箋选择一个深度学习问题吧Q无论是面部识别q是语音识别、无人驾驶汽车等{,试着解决它?/p>

如果你完成了所有步骤,恭喜Q去甌h、百度、微软、脸书或者亚马逊的职位吧。没多少做这些?/p>

来自linkedinQ机器之心编译出品。编译:微胖?/strong>



杰哥 2015-12-18 20:11 发表评论
]]>
h经|络新深度:ImageNet计算觉挑战赛微Y中国研究员夺?/title><link>http://www.shnenglu.com/guijie/archive/2015/12/11/212464.html</link><dc:creator>杰哥</dc:creator><author>杰哥</author><pubDate>Fri, 11 Dec 2015 14:28:00 GMT</pubDate><guid>http://www.shnenglu.com/guijie/archive/2015/12/11/212464.html</guid><wfw:comment>http://www.shnenglu.com/guijie/comments/212464.html</wfw:comment><comments>http://www.shnenglu.com/guijie/archive/2015/12/11/212464.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.shnenglu.com/guijie/comments/commentRss/212464.html</wfw:commentRss><trackback:ping>http://www.shnenglu.com/guijie/services/trackbacks/212464.html</trackback:ping><description><![CDATA[<a >http://mp.weixin.qq.com/s?__biz=MzAwMTA3MzM4Nw==&mid=400607098&idx=1&sn=933c7328221cfec90e358314be8602e3&scene=1&srcid=1211pUOOAQdspFZkl74STys9&from=groupmessage&isappinstalled=0#wechat_redirect</a><br /> <p>世界上最好计机视觉pȝ有多_Q就在美国东部时?2?0日上?ӞImageNet计算觉识别挑战赛l果揭晓——微Y亚洲研究院视觉计组的研I员们凭借深层神l网l技术的最新突_以绝对优势获得图像分cR图像定位以及图像检全?span style="color: rgb(61,170,214)"><strong>三个主要目的冠?/strong></span>。同一时刻Q他们在另一图像识别挑战赛MS COCOQMicrosoft Common Objects in ContextQ常见物体图像识别)?span style="color: rgb(61,170,214)"><strong>同样成功登顶</strong></span>Q在囑փ和囑փ分割目上击败了来自学界、企业和研究机构的众多参赛者?/p> <p><br /></p> <p>ImageNet计算觉挑战赛由来自全球顶高校和公司的研I员l织丑֊Q近q来已经成ؓ计算觉领域的标杆Q其比赛l果总能十分直观地反映出计算觉这一热门领域中各研究机构的研I进展和H破。MS COCO数据库是由微软资助徏立,其挑战赛目前由学术界几所高校联合l织Q独立运行?/p> <p><br /></p> <p>q两个挑战赛的侧重点各有不同QImageNet 們֐于评识别图像中显著物体的能力,而MS COCO們֐于评识别复杂场景的各类物体的能力。能同时在两个世界的比赛中获得冠军Q以说明研I组的技术突破是通用?#8212;—它可以显著地改善计算觉领域的各项研究Q甚臌机视觉领域以外的研IӞ比如语音识别。那么究竟是什么样的技术突_</p> <p><br /></p> <p>在计机视觉领域Q深层神l网l的Ҏ常常被研Ih员用来训l计机识别物体Q微软也不例外。但微Y亚洲研究院的研究员们在此ơImageNet挑战赛中<span style="color: red">使用了一U前所未有Q深度高辄层的经|络。该|络的层数比以往M成功使用的神l网l的层数?/span><span style="color: red"><strong>5?/strong></span><span style="color: red">以上?/span></p> <p><br /></p> <p>要实现这一技术,背后的挑战巨大?span style="color: red">起初Q连研究员们自己都不信训练非常q|络是可能或有用的?#8220;我们没想到这样一个简单的x意义却如此重大?#8221; 微Y亚洲研究院首席研I员孙剑坦言。完成这Ҏ术突破的团队?/span><span style="color: red"><strong>4?/strong></span><span style="color: red">中国研究员组?/span>Q孙剑与何恺明来自微软亚z研I视觉计算l,另外两h为微软亚z研I的联合培d士生Q分别是来自西安交通大学的张祥雨和中国U学技术大学的dѝ?/p> <p><br /></p> <p style="text-align: center"><img style="height: auto !important; visibility: visible !important; width: auto !important" alt="" src="http://mmbiz.qpic.cn/mmbiz/HkPvwCuFwNPV00EnD9Ho03u14QtibtCug8h9bF0TGJianKfI9fGN42ODaRk8RwUFUJiasEfic5Z8pYdIf5ypkibq6eA/640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1" data-src="http://mmbiz.qpic.cn/mmbiz/HkPvwCuFwNPV00EnD9Ho03u14QtibtCug8h9bF0TGJianKfI9fGN42ODaRk8RwUFUJiasEfic5Z8pYdIf5ypkibq6eA/640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1" data-w="" data-ratio="0.7985611510791367" data-type="jpeg" data-s="300,640" /><br /><span style="font-size: 11px">微Y亚洲研究院主研I员<span style="line-height: 25px">何恺?/span></span></p> <p><br /></p> <p>当然Q这个重大的技术突破震惊的不仅仅是q个研究团队的研I员们?span style="color: red">微Y全球资深副总裁Peter Lee表示Q?#8220;从某U意义上_他们完全颠覆了我之前Ҏ层神l网l的设想?#8221;</span></p> <p><br /></p> <p>ImageNet挑战赛去q获胜的pȝ错误率ؓ6.6%Q而今q微软系l的错误率已l低?strong><span style="color: rgb(61,170,214)">3.57%</span></strong>。事实上Q该研究团队早在今年一月就首次实现了对人类视觉能力的突破。当Ӟ在题?#8220;Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification”的论文中Q他们系l的错误率已降低?.94%。此前同L实验中,人眼辨识的错误率大概?.1%?/p> <p><br /></p> <p><br /></p> <p><span style="font-size: 24px"><strong>滴水I石Q这是一个关于耐心与创新的故事</strong></span></p> <p><br /></p> <p>q几十年来,U学家们一直都在训l计机做各U各L事情, 例如囑փ或语韌别。但很长一D|间内Q这些系l的误差巨大Q难以消弭?/p> <p><br /></p> <p>大约在五q前Q研Ih员们开始重C?“经|络”的技术ƈ使其再次焕发出新的活力。神l网l的复兴让图像和语音识别{技术的_ֺ实现了大q度飞跃。微软的SkypeTranslator实时语音译技术就得益于此Q它能够更好地识别语韻I从而不断完善机器翻译的准确性?/p> <p><br /></p> <p>cM于h脑,经|络包含多非线性处理层。从理论上说Q越多的层应该能带来越好的学习l果。但实际实验中的最大挑战是Q在通过每一层的反传训l中Q反I监督信号幅度会q速衰减,q让整个经|络pȝ的训l极为困难?/p> <p><br /></p> <p>孙剑回忆刎ͼ“三年前,当计机视觉和机器实际领域训l出8层的深层经|络pȝӞ识别_ֺ有了质的飞跃。去q出Cx20?0层的深层经|络Q识别精度又被大q刷新?#8221;</p> <p><br /></p> <p>孙剑和他的组员们认ؓ|络q可以更深。过ȝ几个月来Q他们用各种方式来添加更多的层Q同时还要保证结果的准确性。他们经历了大量错误的尝试,也吸取了很多的经验教训。最后,一<span style="color: red">个被他们UC?#8220;深层D差|络Qdeep residual networksQ?#8221;的系l在微Y亚洲研究院成功诞生?/span></p> <p><br /></p> <p><span style="color: red">q个“深层D差|络”正是他们用于ImageNet挑战赛的pȝQ它实现了惊人的152?/span>Q比以往世界范围内的Mpȝ都深5倍以上。它q用了一个全新的“D差学习”原则来指导神l网l结构的设计。残差学习最重要的突破在于重构了学习的过E,q新定向了深层经|络中的信息。残差学习很好地解决了此前深层神l网l层U与准确度之间的矛盾?/p> <p><br /></p> <p><br /></p> <p><strong><span style="font-size: 24px">借水行舟Q从U研探烦到智能?/span></strong></p> <p><br /></p> <p>经|络有一个非帔R要的优点Q就是学习到的内部表C或特征可以在不同Q务中复用。Skype Translator是一个很好的例子Q英语与徯之间的翻译准率可以随着p与中文翻译的不断增加而提高?/p> <p><br /></p> <p>孙剑表示Q他们的深层D差|络h非常强的通用性。他们把该系l用于ImageNet挑战赛的分类d后,他们发现q一pȝ学到的内部表C或特征能显著提高其它三Q务:(detectionQ,定位QlocalizationQ和分割QsegmentationQ?#8220;从我们极q深层经|络中可以看出,深层D差|络力量强大且极为通用Q可以预见它q能极大地改善其它计机视觉问题?#8221;</p> <p><br /></p> <p>事实上,孙剑团队多年来在计算觉领域的研究成果已经转化C多微软的产品和服务中Q例如,微Y牛|计划中的识别和图像识别API、Windows 10中的Windows Hello“刯”开机功能、必应的囑փ搜烦、微软小冰的多个囑փ“技?#8221;QOneDrive中的囄分类功能Q以及广受好评的口袋扫描仪Office Lens{等Q不胜枚举?/p> <p><br /></p> <p>以微软牛z计划ؓ例,该计划开放了一pd机器学习相关的APIQ让没有机器学习背景的开发h员也能构q应用。而其中h脸识别API作ؓ牛|计划最先开攄APIQ受到广泛用。此前火遍全球的<a target="_blank" data_ue_src="http://mp.weixin.qq.com/s?__biz=MzAwMTA3MzM4Nw==&mid=204586188&idx=1&sn=86a7be49121c0636691f7e3748d81e79&scene=21#wechat_redirect">How-old.netQ微软颜龄机器hQ?/a>?a target="_blank" data_ue_src="http://mp.weixin.qq.com/s?__biz=MzAwMTA3MzM4Nw==&mid=206096976&idx=1&sn=1ec388667f71fff81a7aa3e325c2b7b2&scene=21#wechat_redirect">Twins or NotQ微软我们)</a>是在h脸识别API基础上,<span style="color: red">通过几行单的代码实现的?/span></p> <p><br /></p> <p>通过和微软品部门的紧密合作Q这些来自于微Y亚洲研究院的全球领先的计机视觉技术得以应用在几亿人的生活中。而这些来自中国研I员的研I成果,正在为我们的生活带来一?#8220;隐Ş革命”Qؓ全球用户提供更智能的生力工具和更个性化的计体验?/p> <p><br /></p> <p>微Y全球资深副总裁、微软亚z研I院长z小文博士表C,“与视觉在人类感官中的重要性相同,计算觉的一ơ次重大H破无疑Zh工智能的整体发展提供了强大动力。让计算机看懂多彩的世界Q一直是Ȁ励微软研I及计机领域同仁在这条充满挑战的道\上前行的重要力量。未来,q有更多H破{着我们L战!”</p> <p><br /></p> <p>“微Y亚洲研究院成?7q了Q她的研I环境和气氛Z国IT届培M众多的h? 我在q里工作?2q_静下心来你就能在q样的环境中收获Ȁ动h心的发现。今天,我对我的团队_请n受一天获得NBA冠军的感觉!”<span style="line-height: 25px">孙剑说?br />阅读记录:read twice</span></p><img src ="http://www.shnenglu.com/guijie/aggbug/212464.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.shnenglu.com/guijie/" target="_blank">杰哥</a> 2015-12-11 22:28 <a href="http://www.shnenglu.com/guijie/archive/2015/12/11/212464.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item><item><title>Softmax-Losshttp://www.shnenglu.com/guijie/archive/2015/12/10/212451.html杰哥杰哥Thu, 10 Dec 2015 09:20:00 GMThttp://www.shnenglu.com/guijie/archive/2015/12/10/212451.htmlhttp://www.shnenglu.com/guijie/comments/212451.htmlhttp://www.shnenglu.com/guijie/archive/2015/12/10/212451.html#Feedback0http://www.shnenglu.com/guijie/comments/commentRss/212451.htmlhttp://www.shnenglu.com/guijie/services/trackbacks/212451.html阅读全文

杰哥 2015-12-10 17:20 发表评论
]]>
"见附?用英语怎么?/title><link>http://www.shnenglu.com/guijie/archive/2015/12/03/212401.html</link><dc:creator>杰哥</dc:creator><author>杰哥</author><pubDate>Thu, 03 Dec 2015 07:27:00 GMT</pubDate><guid>http://www.shnenglu.com/guijie/archive/2015/12/03/212401.html</guid><wfw:comment>http://www.shnenglu.com/guijie/comments/212401.html</wfw:comment><comments>http://www.shnenglu.com/guijie/archive/2015/12/03/212401.html#Feedback</comments><slash:comments>0</slash:comments><wfw:commentRss>http://www.shnenglu.com/guijie/comments/commentRss/212401.html</wfw:commentRss><trackback:ping>http://www.shnenglu.com/guijie/services/trackbacks/212401.html</trackback:ping><description><![CDATA[<div style="display: inline-block;"><div>2015q?2?2?/div></div>国教授l我126邮箱回复: See attachment.  <div style="display: inline-block;">2016q?2?1?/div>国教授l我126邮箱回复: See attached. 20170429x一老师l我126邮箱回复: <span style="font-family: verdana, sans-serif;">Please see the attached for the writing of my previous promotion application regarding ...</span><div style="display: inline-block;">2017q???/div>国教授l我126邮箱回复: My CV is attached. 20170429一transȝ126邮箱回复: <span style="font-family: Calibri; font-size: 14.6667px;">Attached please find the slides.</span><img src ="http://www.shnenglu.com/guijie/aggbug/212401.html" width = "1" height = "1" /><br><br><div align=right><a style="text-decoration:none;" href="http://www.shnenglu.com/guijie/" target="_blank">杰哥</a> 2015-12-03 15:27 <a href="http://www.shnenglu.com/guijie/archive/2015/12/03/212401.html#Feedback" target="_blank" style="text-decoration:none;">发表评论</a></div>]]></description></item></channel></rss> <footer> <div class="friendship-link"> <p>лǵվܻԴȤ</p> <a href="http://www.shnenglu.com/" title="精品视频久久久久">精品视频久久久久</a> <div class="friend-links"> </div> </div> </footer> <a href="http://www.ggfuns.cn" target="_blank">þþƷAVDz18</a>| <a href="http://www.alilinfen.cn" target="_blank">˾þۺӰԺ</a>| <a href="http://www.9lang.cn" target="_blank">޾þþþþ77777</a>| <a href="http://www.fl07.cn" target="_blank">ٸ޾þþþþ</a>| <a href="http://www.51lol.cn" target="_blank">뾫ƷþþӰ</a>| <a href="http://www.ndali.cn" target="_blank">ҹƷþþþþþ</a>| <a href="http://www.a1dk.cn" target="_blank">þþƷ72</a>| <a href="http://www.bagscheap.cn" target="_blank">һ㽶þֻ</a>| <a href="http://www.b2721.cn" target="_blank">þþþĻƷ</a>| <a href="http://www.paper51.cn" target="_blank">˺ݺۺϾþ</a>| <a href="http://www.bao5888.cn" target="_blank">þþþþþۺձ</a>| <a href="http://www.qianhongg.cn" target="_blank">þŮˬŮˬ</a>| <a href="http://www.dongzhounews.cn" target="_blank">þۺϾþþ</a>| <a href="http://www.site5d.cn" target="_blank">޹˾þþƷ</a>| <a href="http://www.szcybj.cn" target="_blank">˾Ʒþһav</a>| <a href="http://www.jmggc.com.cn" target="_blank">91Ƶ91þþ</a>| <a href="http://www.thinkct.com.cn" target="_blank">ƷѾþþþõӰ</a>| <a href="http://www.minghuzisha.cn" target="_blank">99ƷȾþ</a>| <a href="http://www.kftfk.cn" target="_blank">ھƷ˾þþþ</a>| <a href="http://www.3second.cn" target="_blank">94þù׾Ʒ</a>| <a href="http://www.6ht.com.cn" target="_blank">ھƷþþþþ鶹</a>| <a href="http://www.xingtaiidc.cn" target="_blank">88þþƷһëƬ</a>| <a href="http://www.ugmx.cn" target="_blank">þþþӰԺŮ </a>| <a href="http://www.msomso.cn" target="_blank">þþþavר</a>| <a href="http://www.cizbuk.cn" target="_blank">þ99Ʒ</a>| <a href="http://www.888su.cn" target="_blank">ھƷ˾þþþӰԺ԰</a>| <a href="http://www.pajiangxing.com.cn" target="_blank">þһ</a>| <a href="http://www.020rj.cn" target="_blank">þƵ</a>| <a href="http://www.ruannews.com.cn" target="_blank">þþþþþþþþ</a>| <a href="http://www.114best.com.cn" target="_blank">ŷ޳ҹƷþ</a>| <a href="http://www.12530downs.com.cn" target="_blank">ƷþþþùA</a>| <a href="http://www.q126.cn" target="_blank">ɫۺϾþۺۿ</a>| <a href="http://www.eberan.cn" target="_blank">þ˳ƷCAOPOREN</a>| <a href="http://www.kahb.cn" target="_blank">þۺ97ɫֱ</a>| <a href="http://www.yrdfund.com.cn" target="_blank">99Ʒþþþþþó</a>| <a href="http://www.zg-ly.cn" target="_blank">ھƷþþþþþþ</a>| <a href="http://www.bleg.cn" target="_blank">þˬˬƬAV </a>| <a href="http://www.colour360.cn" target="_blank">þ㽶߿ۿ</a>| <a href="http://www.hxsnw.com.cn" target="_blank">ĻþþƷ</a>| <a href="http://www.tduck.cn" target="_blank">þþƷĻ </a>| <a href="http://www.fengdingjun.cn" target="_blank">ҹƷþþþþž</a>| <script> (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })(); </script> </body>