??xml version="1.0" encoding="utf-8" standalone="yes"?> 参数调?/span>涉及到如何选择经|络中的层数、如何连接这些层Q即|络的体pȝ构)以及如何训练|络?/span> 数据处理Q?/span>包括数据分类和正格式化矢量的数据预处理也可能是一个非帔R烦的q程?/span> 经架构搜烦涉及自动化架构工E,能够使开发h员ؓ其机器学习模型找到最佌计。所有这些决定都需要相当多的专业知识,提高了深度学习的门槛?/span>日前Q亚马逊AWS推出AutoGluonQ只需三行代码自动生成高性能模型Q让调参、神l架构搜索等q程实现自动化?/span>一位调参师亲自试了一番,他手工调的faster rcnnpAutoGluon通过NAS自动搜烦的yolo打爆了整?个点?/span>q也让李沐大感慨:调得一手好参的时代要过M?/span>戛_辚w接上 了解更多Q?/span>
新智?/span> 点击q入获取原帖地址Q围观网友热?/span>Mini Program
Reference:
]]>
~辑 | Camel
专利的其他参?/span>
哇!多谢GoodfellowQ这非常PZ个极其宽泛的概念甌专利肯定不会扼杀创新?/span>
https://scholar.googleblog.com/2020/07/2020-scholar-metrics-released.html
2019q谷歌学者Top Publication榜单更新QCVPR上升到整个工E与计算机科学类W二名。h工智能领域NeurIPS, ICLR, ICML独占鳌头。自然语a处理榜单没有变化Q还是ACLQEMNLPQNAACL?
Reference:
https://scholar.google.com/citations?view_op=top_venues&hl=en&vq=eng
Weibo of Weilian Wang on July 20, 2019. See my favourite on July 23, 2019.
https://m.sohu.com/a/245182179_473283/?pvid=000115_3w_a (read once)
来源Q?/span>scholar.google.com
作者:闻菲
【新智元D】谷歌学术昨天发表了2018q最新的学术期刊和会议媄响力排名Q?/span>CVPR?/span>NIPS分别排名W?/span>20和第54。在排名W一?/span>Nature里,q去5q被引用ơ数最高的论文Q正是深度学习三大神Hinton?/span>LeCun?/span>Bengio写的《深度学习》一文,?/span>CVPR里被引次数最高的Q则?/span>ResNetQ引用次数超q了1万次?/span>
昨天Q谷歌学术(Google ScholarQ公布了2018q最新的学术期刊/会议影响力排名,从综合领域看Q毫不意外的Q?/span>NatureW一?/span>ScienceW三Q但值得x的是Q?strong>计算觉顶?/strong>CVPR排名W?/span>20Q另一?/span>AI领域的顶?/span>NIPS也排名第54Q?/span>名次较去q有了大q提升?/span>
p排名W一?/span>Nature里,q去5q被引用ơ数最高的论文Q也?/span>“深度学习三大?/span>”Hinton?/span>LeCun?/span>Bengio合著的《深度学习》一文?/span>
不仅如此Q在CVPR里,q去5q被引次数最多的论文Q是当时q在微Y亚洲研究院的孙剑、何恺明、张雨、Q卿写的?/span>ResNetQ被引次数已l过万?/span>
2018 h学术期刊和会议媄响力排名Q?/span>CVPRW?/span>20Q?/span>NIPSW?/span>54
首先来看l合领域l果?/span>
大家比较兛_?/span>Nature?/span>Science分别位列W一和第三,d著名期刊《新英格兰杂志》和《柳叶刀》分别位于第二和W四。一向被国内?/span>Nature?/span>Scienceq列Q有“CNS”之称?/span>CellQ这ơ排名第6?/span>
接下来就是新智元的读者更为关注的与h工智能有关的期刊和会议了Q这一ơ,计算觉顶?/span>CVPR不负众望排名W?/span>20Q由此计机领域会也终于进?/span>Top20的行列?/span>
另一斚wQ?/span>AI领域另一个备受关注的会议NIPSQ也在综合排名中位列W?/span>54Q取得了不错的成l?/span>
与神l科学相关的 Nature Neuroscience 排名W?/span>44?/span>
至于W?/span>21名到W?/span>40名的期刊Q实际上也有常有?/span>AI相关的论文发表,大家也可以看一下排名?/span>
值得一提,PLoS ONE位于W?/span>23Q?/span>Scientific Reports 排名W?/span>39Q也是不错的发表场所了?/span>
在第61到第80名中_集中出现了多?/span>IEEE期刊。被誉ؓ另一个计机视觉会?/span>ICCVQ排名第78?/span>
W?/span>81到第100名的期刊/会议排名如下Q?/span>TPAMI 位于W?/span>92Q果然好论文都优先去会议发表了?/span>
工程与计机领域Top 20Q?/span>CVPR排名W?/span>5
h学术计量排名ҎQ过?/span>5q被引用论文“h5指数”
h学术Q?/span>Google ScholarQ期刊和会议排名主要Zh-index?/span>实际上,?/span>2012qv来,h学术计量Q?/span>Google Scholar Metrics, GSMQ每q都会发布学术期刊和会议?/span>GSM排名?/span>
相比U睿唯安ZWeb of Science数据库公布的《期刊引证报告》(Journal Citation Report, JCRQ,GSM不仅可以免费索,而且收录的期刊和会议范围q远大于Web of Science?/span>
q有一点,期刊/会议?/span>“h5指数”Q过?/span>5q?/span>h-indexQ?/span>比较难以被h为操控,不会因ؓ多了一超高被引论文而明昑֢长,另一斚wQ刻意减发文量也不会对提升h5指数有作用?/span>
因此Q?/span>h5指数可以体现期刊和会议的整体l合实力Q逐渐成ؓ学术出版物和会议影响力评L一个重要参考?/span>
M看,GSM主要参考以?/span>3个指标:
相应圎ͼh5指数Q?/span>h5-indexQ?/span>h5核心Q?/span>h5-coreQ和h5中|h5-medianQ,是收录在谷歌学术系l中的期刊和会议在最q?/span>5q的论文数量及各论文被引用的ơ数?/span>
例如Q如果某本期刊在q去5q所发表的论文中Q至有 h 论文分别被引用了至?/span> h ơ,那么q䆾杂志?/span> h5指数是 h?/span>h5核心?/span>h5中值的计算Ҏ也一栗?/span>
了解更多Q?/span>
https://scholar.google.com/citations?view_op=top_venues&hl=zh-CN&vq=en
开售!
http://www.aiworld2018.com/
声明Q该文观点仅代表作者本人,搜狐L信息发布q_Q搜狐仅提供信息存储I间服务?/span>
Here are a summary of some of the tricks.
Here's a link to the authors of this document
If you find a trick that is particularly useful in practice, please open a Pull Request to add it to the document. If we find it to be reasonable and verified, we will merge it in.
In GAN papers, the loss function to optimize G is min (log 1-D)
, but in practice folks practically use max log D
In practice, works well:
For example
while lossD > A: train D while lossG > B: train G
最q训lGAN遇到了很多坑QGAN的训l的是个很dt的问题,如果只是用别人的paper跑一些应用还好,如果自己设计新的l构Q做一些新的研I的话,需要了解这些trick了,都是泪~
q个doc soumith/ganhackssoumith/ganhacks 直是GAN武林界的九阴真经Q看完以后感觉自׃了一个level?/p>
自己做个W记Q?/p>
1。normalize输入Q让它在[-1,1]。generater的输出用tanhQ也是[-1,1]Q这对应v来了?/p>
2。论文里面optimize G是min log(1 - D)Q但在实际训l的时候可以用 max log(D)
3。对于噪声zQ别用均匀QuniformQ分布,用高斯分布?/p>
4。可以用instance norm代替 batch norm。还有就是real放一Pgenerated放一P感觉q个是废话QAQQ?/p>
5。避免稀疏的gradientsQRELUQMaxpool那些。这一Ҏ认ؓ原因是不像做辨别式的|络Q判别式的,可能提取重要的信息Q其实一些对预测影响不大的信息都被忽略掉了。但是GAN不同Q是生成式的模型Q所以要可能的表现出细节方面的内容Q所以避免用稀疏的q些Q?/p>
6。可以把label?的(realQ变?.7~1.2Qlabel?的变?~0.3。这个可以深入想惟?/p>
7。能用DCGANqQ用不了的话用合模型,KL+GANQVAE+GAN之类的?/p>
8。借用RL训练技巧?/p>
9。用ADAMQ或者是D可以用SGDQG用ADAM
10。注意训l过E,早发现训练p|Q不至于训练好长旉最后才发现Q浪Ҏ间?/p>
11。最好别试讄一些常量去balance G与D的训l过E。(他们说这个work很难做。我觉得有时间的话其实还是可以试一下的。)
12。如果你对real有相应的labelQ用labelQAC-GAN。加入label信息Q可以降低生成的隑ֺQ这个应该可以想的通?/p>
13。加噪声Q作用是improve生成内容得diversity?
14。【not sure】多训练DQ特别是加噪声的时候?/p>
15。【not sure】batch DQ感觉貌似是和pix2pix中的patchGAN有点像?
16。CGANQ我一直觉得CGANq种才符合hcd习的思\。原始的GAN太_暴了,好像什么都不知道,然后两个人D与G讨论交流ҎQ生的都是一些前人没有做q的工作Q开的工作Q所以比较困难一些,但是CGAN的话有了一定的前提Q也是技术积累,所以比较简单一些。有点类似科研中的大牛挖坑,开辟新方向QGANQ。小牛填坑(CGANQ?/p>
17。在G中的几层中用dropoutQ?0%Q。这个有一论文,q没看?/p>
dq些感觉自己惌设计GAN的话Q应该有个系l的认识了,不会觉得自己好像有哪些重要的地方q不知道Q很不踏实感觉。这U感觉对我这U强q症的感觉很不爽啊!Q看完以后顿时舒服了很多~~~
https://zhuanlan.zhihu.com/p/27725664Branching is the way to work on different versions of a repository at one time.
1. PairedCycleGAN: Asymmetric Style Transfer for Applying and Removing Makeup
Q给化妆的风D{U)
2.CartoonGAN: Generative Adversarial Networks for Photo Cartoonization
Q将囄转化为卡通风格的GANQ?/p>
3.StarGAN: Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation
Qh脸多U风D{换)
4.Multi-Content GAN for Few-Shot Font Style Transfer
Q字体风D{换)
5.DA-GAN: Instance-level Image Translation by Deep Attention Generative Adversarial Networks
Q图到图转换Q?/p>
6. Conditional Image-to-Image translation
Q图到图的{换)
http://openaccess.thecvf.com/content_cvpr_2018/papers/Lin_Conditional_Image-to-Image_Translation_CVPR_2018_paper.pdf
1. DeblurGAN: Blind Motion Deblurring Using Conditional Adversarial Networks
Q去模糊Q?/p>
http://openaccess.thecvf.com/content_cvpr_2018/papers/Kupyn_DeblurGAN_Blind_Motion_CVPR_2018_paper.pdf
2.Attentive Generative Adversarial Network for Raindrop Removal from A Single Image
Q去除图片中的雨_
http://openaccess.thecvf.com/content_cvpr_2018/papers/Qian_Attentive_Generative_Adversarial_CVPR_2018_paper.pdf
3. Deep Photo Enhancer: Unpaired Learning for Image Enhancement from Photographs with GANs
Q用于照片增强)
http://openaccess.thecvf.com/content_cvpr_2018/papers/Chen_Deep_Photo_Enhancer_CVPR_2018_paper.pdf
4. SeGAN: Segmenting and Generating the Invisible
Q去遮挡Q?/p>
http://openaccess.thecvf.com/content_cvpr_2018/papers/Ehsani_SeGAN_Segmenting_and_CVPR_2018_paper.pdf
5.Stacked Conditional Generative Adversarial Networks for Jointly Learning Shadow Detection and Shadow Removal
Q去阴媄Q?/p>
6.Image Blind Denoising With Generative Adversarial Network Based Noise Modeling
Q去噪声Q?/p>
http://openaccess.thecvf.com/content_cvpr_2018/papers/Chen_Image_Blind_Denoising_CVPR_2018_paper.pdf
7. Single Image Dehazing via Conditional Generative Adversarial Network
Q去噪声Q?/p>
http://openaccess.thecvf.com/content_cvpr_2018/papers/Li_Single_Image_Dehazing_CVPR_2018_paper.pdf
1. ST-GAN: Spatial Transformer Generative Adversarial Networks for Image Compositing
Q空间{换生成图片)
http://openaccess.thecvf.com/content_cvpr_2018/papers/Lin_ST-GAN_Spatial_Transformer_CVPR_2018_paper.pdf
2. SketchyGAN: Towards Diverse and Realistic Sketch to Image Synthesis
Q由Ҏ生成囄Q?/p>
http://openaccess.thecvf.com/content_cvpr_2018/papers/Chen_SketchyGAN_Towards_Diverse_CVPR_2018_paper.pdf
3. TextureGAN: Controlling Deep Image Synthesis with Texture Patches
Q由U\生成囄Q?/p>
http://openaccess.thecvf.com/content_cvpr_2018/papers/Xian_TextureGAN_Controlling_Deep_CVPR_2018_paper.pdf
4. Eye In-Painting with Exemplar Generative Adversarial Networks
Q给人物ȝ睛)
http://openaccess.thecvf.com/content_cvpr_2018/papers/Dolhansky_Eye_In-Painting_With_CVPR_2018_paper.pdf
5.Photographic Text-to-Image Synthesis with a Hierarchically-nested Adversarial Network
Q文本生成图片)
http://openaccess.thecvf.com/content_cvpr_2018/papers/Zhang_Photographic_Text-to-Image_Synthesis_CVPR_2018_paper.pdf
6. Logo Synthesis and Manipulation with Clustered Generative Adversarial Networks
Q生成logoQ?/p>
http://openaccess.thecvf.com/content_cvpr_2018/papers/Sage_Logo_Synthesis_and_CVPR_2018_paper.pdf
7. Cross-View Image Synthesis Using Conditional GANs
Q街Z视图和直视{换)
http://openaccess.thecvf.com/content_cvpr_2018/papers/Regmi_Cross-View_Image_Synthesis_CVPR_2018_paper.pdf
8. AttnGAN: Fine-Grained Text to Image Generation with Attentional Generative Adversarial Networks
Q文本生成图片)
http://openaccess.thecvf.com/content_cvpr_2018/papers/Xu_AttnGAN_Fine-Grained_Text_CVPR_2018_paper.pdf
9. High-Resolution Image Synthesis and Semantic Manipulation with Conditional GANs
Q图像高分L率)
http://openaccess.thecvf.com/content_cvpr_2018/papers/Wang_High-Resolution_Image_Synthesis_CVPR_2018_paper.pdf
1. Finding Tiny Faces in the Wild with Generative Adversarial Network
Q对低分辨率的h脸检)
http://openaccess.thecvf.com/content_cvpr_2018/papers/Bai_Finding_Tiny_Faces_CVPR_2018_paper.pdf
2. Learning Face Age Progression: A Pyramid Architecture of GANs
Q预年龄)
http://openaccess.thecvf.com/content_cvpr_2018/papers/Yang_Learning_Face_Age_CVPR_2018_paper.pdf
3. Super-FAN: Integrated facial landmark localization and super-resolution of real-world low resolution faces in arbitrary poses with GANs
Q对低分辨率分辨率Q?/p>
http://openaccess.thecvf.com/content_cvpr_2018/papers/Bulat_Super-FAN_Integrated_Facial_CVPR_2018_paper.pdf
4. Towards Open-Set Identity Preserving Face Synthesis
Qh脸合成)
http://openaccess.thecvf.com/content_cvpr_2018/papers/Bao_Towards_Open-Set_Identity_CVPR_2018_paper.pdf
5. Weakly Supervised Facial Action Unit Recognition through Adversarial Training
Qh脸表情识别)
http://openaccess.thecvf.com/content_cvpr_2018/papers/Peng_Weakly_Supervised_Facial_CVPR_2018_paper.pdf
6.FaceID-GAN: Learning a Symmetry Three-Player GAN for Identity-Preserving Face Synthesis
Q生成多角度Q?/p>
http://openaccess.thecvf.com/content_cvpr_2018/papers/Shen_FaceID-GAN_Learning_a_CVPR_2018_paper.pdf
7. UV-GAN: Adversarial Facial UV Map Completion for Pose-invariant Face Recognition
Qh脸生成)
8.Face Aging with Identity-Preserved Conditional Generative Adversarial Networks
Qh脸老化Q?/p>
http://openaccess.thecvf.com/content_cvpr_2018/papers/Wang_Face_Aging_With_CVPR_2018_paper.pdf
1. Deformable GANs for Pose-based Human Image Generation
Qh物姿态迁U)
http://openaccess.thecvf.com/content_cvpr_2018/papers/Siarohin_Deformable_GANs_for_CVPR_2018_paper.pdf
2. Social GAN: Socially Acceptable Trajectories with Generative Adversarial Networks
(用GAN生成q追t?
http://openaccess.thecvf.com/content_cvpr_2018/papers/Gupta_Social_GAN_Socially_CVPR_2018_paper.pdf
3. GANerated Hands for Real-Time 3D Hand Tracking from Monocular RGB
Q用GAN生成的手势图片做手势q踪的数据集Q?/p>
http://openaccess.thecvf.com/content_cvpr_2018/papers/Mueller_GANerated_Hands_for_CVPR_2018_paper.pdf
4. Multistage Adversarial Losses for Pose-Based Human Image Synthesis
Qh体姿态合成)
5. Disentangled Person Image Generation
Qh体合成)
http://openaccess.thecvf.com/content_cvpr_2018/papers/Ma_Disentangled_Person_Image_CVPR_2018_paper.pdf
Q这个没来得及找了,可能转行咯~ 唉)
1. Generate to Adapt: Aligning Domains Using Generative Adversarial Networks
2. Re-Weighted Adversarial Adaptation Network for Unsupervised Domain Adaptation
3. Adversarial Feature Augmentation for Unsupervised Domain Adaptation
4. Domain Generalization With Adversarial Feature Learning
5. Image to Image Translation for Domain Adaptation
6. Duplex Generative Adversarial Network for Unsupervised Domain Adaptation
7. Conditional Generative Adversarial Network for Structured Domain Adaptation
1.Generative Adversarial Learning Towards Fast Weakly Supervised Detection
Q弱监督)
http://openaccess.thecvf.com/content_cvpr_2018/papers/Shen_Generative_Adversarial_Learning_CVPR_2018_paper.pdf
2. SINT++: Robust Visual Tracking via Adversarial Positive Instance Generation
Q对抗学习生成轨qҎ本)
http://openaccess.thecvf.com/content_cvpr_2018/papers/Wang_SINT_Robust_Visual_CVPR_2018_paper.pdf
3. VITAL: VIsual Tracking via Adversarial Learning
http://openaccess.thecvf.com/content_cvpr_2018/papers/Song_VITAL_VIsual_Tracking_CVPR_2018_paper.pdf
1. SGAN: An Alternative Training of Generative Adversarial Network
Q替代训lGANQ?/p>
http://openaccess.thecvf.com/content_cvpr_2018/papers/Chavdarova_SGAN_An_Alternative_CVPR_2018_paper.pdf
2. GAGAN: Geometry-Aware Generative Adversarial Networks
Q一U关注几何外形的GANQ?/p>
http://openaccess.thecvf.com/content_cvpr_2018/papers/Kossaifi_GAGAN_Geometry-Aware_Generative_CVPR_2018_paper.pdf
3.Global versus Localized Generative Adversarial Nets
(局部优化GAN)
http://openaccess.thecvf.com/content_cvpr_2018/papers/Qi_Global_Versus_Localized_CVPR_2018_paper.pdf
4. Generative Adversarial Image Synthesis with Decision Tree Latent Controller
Q决{树Q?/p>
5. Unsupervised Deep Generative Adversarial Hashing Network
Q哈希GANQ?/p>
http://openaccess.thecvf.com/content_cvpr_2018/papers/Dizaji_Unsupervised_Deep_Generative_CVPR_2018_paper.pdf
6. Multi-Agent Diverse Generative Adversarial Networks
Q多个生成器GANQ?/p>
http://openaccess.thecvf.com/content_cvpr_2018/papers/Ghosh_Multi-Agent_Diverse_Generative_CVPR_2018_paper.pdf
7. Duplex Generative Adversarial Network for Unsupervised Domain Adaptation
Q双鉴别器GANQ?/p>
http://openaccess.thecvf.com/content_cvpr_2018/papers/Hu_Duplex_Generative_Adversarial_CVPR_2018_paper.pdf
1. Translating and Segmenting Multimodal Medical Volumes With Cycle- and Shape-Consistency Generative Adversarial Network
Q图像分Ԍ
http://openaccess.thecvf.com/content_cvpr_2018/papers/Zhang_Translating_and_Segmenting_CVPR_2018_paper.pdf
1. Person Transfer GAN to Bridge Domain Gap for Person Re-Identification
Q用GAN生成的h体检的囄Q?/p>
http://openaccess.thecvf.com/content_cvpr_2018/papers/Wei_Person_Transfer_GAN_CVPR_2018_paper.pdf
2. Image-Image Domain Adaptation with Preserved Self-Similarity and Domain-Dissimilarity for Person Re-identification
http://openaccess.thecvf.com/content_cvpr_2018/papers/Deng_Image-Image_Domain_Adaptation_CVPR_2018_paper.pdf
1. Visual Feature Attribution using Wasserstein GANs
http://openaccess.thecvf.com/content_cvpr_2018/papers/Baumgartner_Visual_Feature_Attribution_CVPR_2018_paper.pdf
1. Generate To Adapt: Aligning Domains using Generative Adversarial Networks
Q视觉域自适应Q?/p>
http://openaccess.thecvf.com/content_cvpr_2018/papers/Sankaranarayanan_Generate_to_Adapt_CVPR_2018_paper.pdf
1. HashGAN: Deep Learning to Hash with Pair Conditional Wasserstein GAN
http://openaccess.thecvf.com/content_cvpr_2018/papers/Cao_HashGAN_Deep_Learning_CVPR_2018_paper.pdf
1.Partial Transfer Learning With Selective Adversarial Networks
http://openaccess.thecvf.com/content_cvpr_2018/papers/Cao_Partial_Transfer_Learning_CVPR_2018_paper.pdf
1. MoCoGAN: Decomposing Motion and Content for Video Generation
Q用GAN生成视频Q?/p>
http://openaccess.thecvf.com/content_cvpr_2018/papers/Tulyakov_MoCoGAN_Decomposing_Motion_CVPR_2018_paper.pdf
2. Learning to Generate Time-Lapse Videos Using Multi-Stage Dynamic Generative Adversarial Networks
Q生成g时视频)
http://openaccess.thecvf.com/content_cvpr_2018/papers/Xiong_Learning_to_Generate_CVPR_2018_paper.pdf
可以看出GAN相关的论文还不少呀Q各个方面的都有Q可是我个h觉得Q可能没有那U特别厉害的吧~hh
--------------------- 本文来自 眉间l雪 的CSDN 博客 Q全文地址L击:https://blog.csdn.net/weixin_42445501/article/details/82792311?utm_source=copy现在Caffe2正式发布Q这个推荐肯定要Ҏ新版本了?/p>
Caffe2的基本计单位是Operator。对于适当数量和类型的输入参数Q每个Operator都包括所需的计逻辑。Caffe和Caffe2的M差异如下图所C:
官方提供了从Caffeq移到Caffe2的教E,据说q个q移非常单?/p>
Caffe2和PyTorch有何不同Q?/p>
q是另外一个疑问?/p>
Caffe2长于Ud和大规模部v。虽然Caffe2新增了支持多GPU的功能,q让新框架与Torchh了相同的GPU支持能力Q但是如前所qͼCaffe2支持一台机器上的多个GPU或具有一个及多个GPU的多台机器来q行分布式训l?/p>
PyTorch适合q行研究、实验和试不同的神l网l?/span>Q而Caffe2更偏向于工业应用Q而且重点x在移动端上的表现?/p> 贾扬清现w说?/p> Caffe2发布后,作者贾扬清在reddit上连发四记解{?#8220;Yangqing here”Q贾扬清一上来p明了w䆾?/p> 有h问搞出Caffe2意义何在Q现在已l有PyTorch、TensorFlow、MXNet{诸多框架?/span> 贾扬清说Caffe2和PyTorch团队紧密合作。他们把Caffe2视作一U生产力的选择Q?span style="color: red;">而把Torch视作研究型的选择?/span>而在构徏AI模块Ӟ他们也持有一U?#8220;非框?#8221;的理念,例如Gloo、NNPACK和FAISS{可以被用于M深度学习框架?/p> 有h问Caffe2接受外部贡献么? 贾扬清说大爱外部贡献Q也会在开源方面l努力?/p> 有h问Caffe2是否用了Torch的代码库Q以及CUDA{相x持的问题?/p> 贾扬清说他们正在计划让Caffe2和Torch和PyTorch׃n后端Q这几个框架已经׃nGloo用于分布式训l,THCTensor、THNN和其他C/C++库也会׃n?/p> 在GPU层面QCaffe2使用了CUDA和CUDNN。贾扬清和团队也试验了OpenCLQ但是感觉用NVIDIA的GPU CUDA效果更好?/p> 另外在其他^収ͼ例如iOS上)QCaffe2使用了特定的工具Q例如Metal。一两天内,官方会发布Metal的实施?/p> 有h问Caffe2支持动态图么? 贾扬清给出否定的回答Q他表示q是Caffe2和PyTorch团队有意做出的选择。Caffe2的Q务就是提供最佳的性能Q而如果想要极端灵zȝ计算Q请选择PyTorch。贾扬清认ؓq是一个更好的方式Q因?#8220;一个框枉吃”可能会媄响性能?/p> 所以,目前Caffe2只支持非常有限的动态控Ӟ例如动态RNN?/p> 最后,量子位放Z送门Q?/p> Caffe2的首:http://caffe2.ai/ GitGub地址Qhttps://github.com/caffe2/caffe2
Reference:
阅读记录: read twice
]]>
学者姓?/th> | 目前工作单位 |
---|---|
刘铁?/td> | 微Y亚洲研究?/td> |
王徏?/td> | 清华大学 |
Stojmenović, Ivan | 清华大学 |
白翔 | 华中U技大学 |
蔡登 | 江大学 |
蔡开?/td> | 北京航空航天大学 |
曹珍?/td> | 上v交通大?/td> |
曑ֿ?/td> | 华中U技大学 |
常虹 | 中国U学院大?/td> |
陈兵 | 青岛大学 |
陈积?/td> | 江大学 |
陈敏 | 华中U技大学 |
陈清?/td> | 西安建筑U技大学 |
陈胜?/td> | 江工业大学 |
陈松?/td> | 南京航空航天大学 |
陈天q?/td> | 复旦大学 |
陈月?/td> | 南大学 |
E明?/td> | 南开大学 |
仇计?/td> | 沛_U技大学 |
邓勇 | 西南大学 |
丁永?/td> | 东华大学 |
樊徏?/td> | 苏州大学 |
樊治q?/td> | 东北大学 |
范^?/td> | 西南交通大?/td> |
冯国?/td> | 中山大学 |
高曙?/td> | 江大学 |
高铁?/td> | 南开大学 |
高文 | 北京大学 |
高小?/td> | 中国U学?/td> |
高新?/td> | 西安电子U技大学 |
公茂?/td> | 西安电子U技大学 |
xq?/td> | 上v交通大?/td> |
晓?/td> | 西安交通大?/td> |
郭振?/td> | 清华大学 |
韩敏 | 大连理工大学 |
何晓?/td> | 江大学 |
黑晓?/td> | 华中U技大学 |
侯增q?/td> | 中国U学?/td> |
胡包?/td> | 中国U学?/td> |
胡d?/td> | 国防U学技术大?/td> |
胡清?/td> | 天|大学 |
胡事?/td> | 清华大学 |
胡卫?/td> | 中国U学?/td> |
黄d?/td> | 同济大学 |
黄?/td> | 中山大学 |
黄晓?/td> | 北京U技大学 |
江健?/td> | 深圳大学 |
江涛 | 华中U技大学 |
姜大?/td> | 微Y亚洲研究?/td> |
焦李?/td> | 西安电子U技大学 |
金v | 华中U技大学 |
李传?/td> | 西南大学 |
李春?/td> | 江大学 |
李登?/td> | 州大学 |
李国?/td> | 清华大学 |
李涵?/td> | 中南大学 |
李洪?/td> | 大连理工大学 |
李树?/td> | 湖南大学 |
李学?/td> | 中国U学?/td> |
李玉?/td> | ׃U技大学 |
李远?/td> | 华南理工大学 |
李子?/td> | 中国U学?/td> |
梁吉?/td> | p大学 |
梁金?/td> | 东南大学 |
梁艳?/td> | 吉林大学 |
廖晓?/td> | 西南大学 |
林闯 | 清华大学 |
刘宝?/td> | 清华大学 |
刘成?/td> | 中国U学?/td> |
刘d?/td> | 中国U学?/td> |
刘利?/td> | 中国工程物理研究?/td> |
刘培?/td> | ׃财经大学 |
刘庆?/td> | 东南大学 |
刘R?/td> | 沛_大学 |
楼旭?/td> | 江南大学 |
卢宏?/td> | 上v交通大?/td> |
鲁耀?/td> | 华中U技大学 |
马书?/td> | 天|大学 |
马毅 | 上vU技大学 |
马宗?/td> | 东北大学 |
cx?/td> | 沛_师范大学 |
潘林?/td> | 华中U技大学 |
潘全U?/td> | 东北大学 |
庞R?/td> | 天|大学 |
彭晨 | 上v大学 |
彭?/td> | 电子U技大学 |
钱宇?/td> | p大学 |
M?/td> | 清华大学 |
阮邦?/td> | 北京师范大学-香港怼大学联合国际学院 |
芮勇 | 联想集团 |
沈纲?/td> | 苏州大学 |
沈琳?/td> | 深圳大学 |
矛_ | 中国U学?/td> |
时小?/td> | 吉林大学 |
孙仕?/td> | 华东师范大学 |
谭松?/td> | 中国U学?/td> |
谭铁?/td> | 中国U学?/td> |
谭晓?/td> | 南京航空航天大学 |
唐杰 | 清华大学 |
唐小?/td> | 西南交通大?/td> |
陶文?/td> | 华中U技大学 |
佟绍?/td> | 辽宁工业大学 |
王聪 | 华南理工大学 |
王飞?/td> | 中国U学?/td> |
王国?/td> | 中南大学 |
王国?/td> | 重庆邮电大学 |
王瀚漓 | 同济大学 |
王怀?/td> | 南方U技大学 |
王亮 | 中国U学?/td> |
王熙?/td> | 沛_大学 |
王兴?/td> | 东北大学 |
王A?/td> | 太原理工大学 |
王雪 | 清华大学 |
王应?/td> | 州大学 |
卫贵?/td> | 四川师范大学 |
文福?/td> | 江大学 |
邬向?/td> | 哈尔滨工业大?/td> |
吴伟?/td> | 江h大学 |
吴争?/td> | 江大学 |
伍世?/td> | 江西财经大学 |
夏锋 | 大连理工大学 |
夏又?/td> | 州大学 |
肖_ | 重庆大学 |
徐勇 | 哈尔滨工业大?/td> |
徐泽?/td> | 四川大学 |
徐正?/td> | 中国U学技术大?/td> |
杨苏 | 华南理工大学 |
D允?/td> | 昆明理工大学 |
于永?/td> | 北京交通大?/td> |
余乐?/td> | 北京化工大学 |
俞立 | 江工业大学 |
M?/td> | 中国U学?/td> |
袁晓?/td> | 华中U技大学 |
詹志?/td> | 华南理工大学 |
张道?/td> | 南京航空航天大学 |
张化?/td> | 东北大学 |
张敏?/td> | 东南大学 |
张强 | 大连大学 |
张师?/td> | q西师范大学 |
张田?/td> | 上v交通大?/td> |
张新?/td> | 上v大学 |
张雨?/td> | 中山大学 |
张煜?/td> | 南京师范大学 |
章毅 | 四川大学 |
章毓?/td> | 清华大学 |
周东?/td> | ׃U技大学 |
周根?/td> | 江工业大学 |
周杰 | 清华大学 |
周昆 | 江大学 |
周涛 | 电子U技大学 |
周志?/td> | 南京大学 |
诸葛?/td> | 中国U学?/td> |
峰 | 电子U技大学 |
{:有两U?/span>
A、JCRQ又U?/span>汤森路透)分区?/span>
汤森路?/span>Q?/span>Thomson ReutersQ每q出版一本《期刊引用报告》(Journal Citation ReportsQ简UJCRQ。JCR?600多种SCI期刊的媄响因?/span>[1]QImpact FactorQ等指数加以l计?/span>JCR收录期刊分?76个不同学U类别。每个学U分cL照期刊的影响因子高低Q^均分为Q1、Q2、Q3和Q4四个区:
各学U分cM影响因子?5%(?5%)期刊划分为Q1区、前25-50% (?0%)为Q2区、前50-75% (?5% )为Q3区、后75%为Q4区?/span>
B?/span>中国U学院分区法
中国U学院国家科学图书馆世界U学前沿分析中心Q原中国U学院文献情报中心)Ҏ汤森路?/span>每年的JCR数据Q创新划分了一个分区区_形成了中U院的分区标准?/span>
本文作?font style="color: rgb(150,30,35)">Ankit Agarwal是面向开发者的经|络q_提供商Silversparro Technologies的CTO和创始h?/p>
1Q第一步,了解什么是机器学习Q最佛_门资源就?Andrew Ngs (Ex-Google, Stanford, Baidu), an online course at coursera. 讲让你_了解机器学习的基Q不q课后作业会提升你对机器学习的了解?/p>
2Q接下来需要培d经|络的直觉。所以,l箋~写你的W一个神l网l,和它玩耍吧
3Q了解神l网l很重要Q但是简单神l网l没有够能力解军_多数有趣问题。变?L经|络很善于解册觉问题。斯坦福评W记以及qȝ片:CS231n Convolutional Neural Networks for Visual Recognition(notes), ?font style="color: rgb(150,30,35)">CS231n: Convolutional Neural Networks for Visual Recognition (讲qȝ??here?here是两个很的有关CNNs的视频?/p>
4Q接下来是自己电脑上运行你的第一个CNN
5QDigit提供上会l少数几个算法,比如 用来性格识别?font style="color: rgb(150,30,35)">Lenet Q图像分cȝ Googlenet。你要下?相关数据库( dataset for Lenet ?dataset for Googlenet Q来q行q些法。可以修改算法ƈ试其他有趣的视觉图像识别Q务,像我们试q的Q?hereQ?/p>
6Q就各种NLPd而言QRNNs是最佳选择。学习RNNs最好的地方是斯坦福的演讲视频(Stanford lecture videos hereQ。你可以下蝲 TensorflowQ用它来建造RNNs.
7Q现在,l箋选择一个深度学习问题吧Q无论是面部识别q是语音识别、无人驾驶汽车等{,试着解决它?/p>
如果你完成了所有步骤,恭喜Q去甌h、百度、微软、脸书或者亚马逊的职位吧。没多少做这些?/p>
来自linkedinQ机器之心编译出品。编译:微胖?/strong>
世界上最好计机视觉pȝ有多_Q就在美国东部时?2?0日上?ӞImageNet计算觉识别挑战赛l果揭晓——微Y亚洲研究院视觉计组的研I员们凭借深层神l网l技术的最新突_以绝对优势获得图像分cR图像定位以及图像检全?span style="color: rgb(61,170,214)">三个主要目的冠?/strong>。同一时刻Q他们在另一图像识别挑战赛MS COCOQMicrosoft Common Objects in ContextQ常见物体图像识别)?span style="color: rgb(61,170,214)">同样成功登顶Q在囑փ和囑փ分割目上击败了来自学界、企业和研究机构的众多参赛者?/p>
ImageNet计算觉挑战赛由来自全球顶高校和公司的研I员l织丑֊Q近q来已经成ؓ计算觉领域的标杆Q其比赛l果总能十分直观地反映出计算觉这一热门领域中各研究机构的研I进展和H破。MS COCO数据库是由微软资助徏立,其挑战赛目前由学术界几所高校联合l织Q独立运行?/p>
q两个挑战赛的侧重点各有不同QImageNet 們于评识别图像中显著物体的能力,而MS COCO們于评识别复杂场景的各类物体的能力。能同时在两个世界的比赛中获得冠军Q以说明研I组的技术突破是通用?#8212;—它可以显著地改善计算觉领域的各项研究Q甚臌机视觉领域以外的研IӞ比如语音识别。那么究竟是什么样的技术突_ 在计机视觉领域Q深层神l网l的Ҏ常常被研Ih员用来训l计机识别物体Q微软也不例外。但微Y亚洲研究院的研究员们在此ơImageNet挑战赛中使用了一U前所未有Q深度高辄层的经|络。该|络的层数比以往M成功使用的神l网l的层数?/span>5?/strong>以上?/span> 要实现这一技术,背后的挑战巨大?span style="color: red">起初Q连研究员们自己都不信训练非常q|络是可能或有用的?#8220;我们没想到这样一个简单的x意义却如此重大?#8221; 微Y亚洲研究院首席研I员孙剑坦言。完成这Ҏ术突破的团队?/span>4?/strong>中国研究员组?/span>Q孙剑与何恺明来自微软亚z研I视觉计算l,另外两h为微软亚z研I的联合培d士生Q分别是来自西安交通大学的张祥雨和中国U学技术大学的dѝ?/p>
当然Q这个重大的技术突破震惊的不仅仅是q个研究团队的研I员们?span style="color: red">微Y全球资深副总裁Peter Lee表示Q?#8220;从某U意义上_他们完全颠覆了我之前Ҏ层神l网l的设想?#8221; ImageNet挑战赛去q获胜的pȝ错误率ؓ6.6%Q而今q微软系l的错误率已l低?strong>3.57%
微Y亚洲研究院主研I员何恺?/span>
滴水I石Q这是一个关于耐心与创新的故事
q几十年来,U学家们一直都在训l计机做各U各L事情, 例如囑փ或语韌别。但很长一D|间内Q这些系l的误差巨大Q难以消弭?/p>
大约在五q前Q研Ih员们开始重C?“经|络”的技术ƈ使其再次焕发出新的活力。神l网l的复兴让图像和语音识别{技术的_ֺ实现了大q度飞跃。微软的SkypeTranslator实时语音译技术就得益于此Q它能够更好地识别语韻I从而不断完善机器翻译的准确性?/p>
cM于h脑,经|络包含多非线性处理层。从理论上说Q越多的层应该能带来越好的学习l果。但实际实验中的最大挑战是Q在通过每一层的反传训l中Q反I监督信号幅度会q速衰减,q让整个经|络pȝ的训l极为困难?/p>
孙剑回忆刎ͼ“三年前,当计机视觉和机器实际领域训l出8层的深层经|络pȝӞ识别_ֺ有了质的飞跃。去q出Cx20?0层的深层经|络Q识别精度又被大q刷新?#8221;
孙剑和他的组员们认ؓ|络q可以更深。过ȝ几个月来Q他们用各种方式来添加更多的层Q同时还要保证结果的准确性。他们经历了大量错误的尝试,也吸取了很多的经验教训。最后,一个被他们UC?#8220;深层D差|络Qdeep residual networksQ?#8221;的系l在微Y亚洲研究院成功诞生?/span>
q个“深层D差|络”正是他们用于ImageNet挑战赛的pȝQ它实现了惊人的152?/span>Q比以往世界范围内的Mpȝ都深5倍以上。它q用了一个全新的“D差学习”原则来指导神l网l结构的设计。残差学习最重要的突破在于重构了学习的过E,q新定向了深层经|络中的信息。残差学习很好地解决了此前深层神l网l层U与准确度之间的矛盾?/p>
借水行舟Q从U研探烦到智能?/span> 经|络有一个非帔R要的优点Q就是学习到的内部表C或特征可以在不同Q务中复用。Skype Translator是一个很好的例子Q英语与徯之间的翻译准率可以随着p与中文翻译的不断增加而提高?/p>
孙剑表示Q他们的深层D差|络h非常强的通用性。他们把该系l用于ImageNet挑战赛的分类d后,他们发现q一pȝ学到的内部表C或特征能显著提高其它三Q务:(detectionQ,定位QlocalizationQ和分割QsegmentationQ?#8220;从我们极q深层经|络中可以看出,深层D差|络力量强大且极为通用Q可以预见它q能极大地改善其它计机视觉问题?#8221; 事实上,孙剑团队多年来在计算觉领域的研究成果已经转化C多微软的产品和服务中Q例如,微Y牛|计划中的识别和图像识别API、Windows 10中的Windows Hello“刯”开机功能、必应的囑փ搜烦、微软小冰的多个囑փ“技?#8221;QOneDrive中的囄分类功能Q以及广受好评的口袋扫描仪Office Lens{等Q不胜枚举?/p>
以微软牛z计划ؓ例,该计划开放了一pd机器学习相关的APIQ让没有机器学习背景的开发h员也能构q应用。而其中h脸识别API作ؓ牛|计划最先开攄APIQ受到广泛用。此前火遍全球的How-old.netQ微软颜龄机器hQ?/a>?a target="_blank" data_ue_src="http://mp.weixin.qq.com/s?__biz=MzAwMTA3MzM4Nw==&mid=206096976&idx=1&sn=1ec388667f71fff81a7aa3e325c2b7b2&scene=21#wechat_redirect">Twins or NotQ微软我们)是在h脸识别API基础上,通过几行单的代码实现的?/span> 通过和微软品部门的紧密合作Q这些来自于微Y亚洲研究院的全球领先的计机视觉技术得以应用在几亿人的生活中。而这些来自中国研I员的研I成果,正在为我们的生活带来一?#8220;隐Ş革命”Qؓ全球用户提供更智能的生力工具和更个性化的计体验?/p>
微Y全球资深副总裁、微软亚z研I院长z小文博士表C,“与视觉在人类感官中的重要性相同,计算觉的一ơ次重大H破无疑Zh工智能的整体发展提供了强大动力。让计算机看懂多彩的世界Q一直是Ȁ励微软研I及计机领域同仁在这条充满挑战的道\上前行的重要力量。未来,q有更多H破{着我们L战!” “微Y亚洲研究院成?7q了Q她的研I环境和气氛Z国IT届培M众多的h? 我在q里工作?2q_静下心来你就能在q样的环境中收获Ȁ动h心的发现。今天,我对我的团队_请n受一天获得NBA冠军的感觉!”孙剑说?br />阅读记录:read twice
]]>