青青草原综合久久大伊人导航_色综合久久天天综合_日日噜噜夜夜狠狠久久丁香五月_热久久这里只有精品

我要啦免费统计

from http://docs.continuum.io/anaconda-cluster/examples/spark-caffe

Deep Learning (Spark, Caffe, GPU)

Description

To demonstrate the capability of running a distributed job in PySpark using a GPU, this example uses a neural network library, Caffe. Below is a trivial example of using Caffe on a Spark cluster; although this is redundant, it demonstrates the capability of training neural networks with GPUs.

For this example, we recommend the use of the AMI ami-2cbf3e44 and the instance type g2.2xlarge. An example profile (to be placed in ~/.acluster/profiles.d/gpu_profile.yaml) is shown below:

name: gpu_profile
node_id: ami-2cbf3e44 # Ubuntu 14.04 - IS HVM - Cuda 6.5
user: ubuntu
node_type: g2.2xlarge
num_nodes: 3
provider: aws
plugins:
  - spark-yarn
  - notebook

Download

To execute this example, download the: spark-caffe.py example script or spark-caffe.ipynbexample notebook.

Installation

The Spark + YARN plugin can be installed on the cluster using the following command:

$ acluster install spark-yarn

Once the Spark + YARN plugin is installed, you can view the YARN UI in your browser using the following command:

$ acluster open yarn

Dependencies

First, we need to bootstrap Caffe and its dependencies on all of the nodes. We provide a bash script that will install Caffe from source: bootstrap-caffe.sh. The following command can be used to upload the bootstrap-caffe.sh script to all of the nodes and execute it in parallel:

$ acluster submit bootstrap-caffe.sh --all

After a few minues, Caffe and its dependencies will be installed on the cluster nodes and the job can be started.

Running the Job

Here is the complete script to run the Spark + GPU with Caffe example in PySpark:

# spark-caffe.py from pyspark import SparkConf from pyspark import SparkContext  conf = SparkConf() conf.setMaster('yarn-client') conf.setAppName('spark-caffe') sc = SparkContext(conf=conf)   def noop(x):     import socket     return socket.gethostname()  rdd = sc.parallelize(range(2), 2) hosts = rdd.map(noop).distinct().collect() print hosts   def caffe_process(x):     import os     os.environ['PATH'] = '/usr/local/cuda/bin' + ':' + os.environ['PATH']     os.environ['LD_LIBRARY_PATH'] = '/usr/local/cuda/lib64:/home/ubuntu/pombredanne-https-gitorious.org-mdb-mdb.git-9cc04f604f80/libraries/liblmdb'     import subprocess     proc = subprocess.Popen('cd /home/ubuntu/caffe && bash ./examples/mnist/train_lenet.sh', shell=True, stdout=subprocess.PIPE, stderr=subprocess.PIPE)     out, err = proc.communicate()     return proc.returncode, out, err  rdd = sc.parallelize(range(2), 2) ret = rdd.map(caffe_process).distinct().collect() print ret 

You can submit the script to the Spark cluster using the submit command.

$ acluster submit spark-caffe.py 

After the script completes, the trained Caffe model can be found at/home/ubuntu/caffe/examples/mnist/lenet_iter_10000.caffemodel on all of the compute nodes.

posted on 2015-10-14 17:25 閱讀(3621) 評(píng)論(1)  編輯 收藏 引用 所屬分類: life關(guān)于人工智能的yy

評(píng)論:
# re: Deep Learning (Spark, Caffe, GPU) 2015-10-21 18:19 | 春秋十二月
這是啥  回復(fù)  更多評(píng)論
  
青青草原综合久久大伊人导航_色综合久久天天综合_日日噜噜夜夜狠狠久久丁香五月_热久久这里只有精品
  • <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>
            欧美福利视频在线| 欧美亚洲日本网站| 欧美超级免费视 在线| 久久久www免费人成黑人精品| 韩国女主播一区| 免费在线欧美黄色| 欧美国产日韩一区二区三区| 一区二区激情小说| 亚洲自拍高清| 在线日韩中文字幕| 亚洲精品男同| 欧美性大战xxxxx久久久| 亚洲欧美中文在线视频| 久久xxxx精品视频| 亚洲欧洲日产国码二区| 日韩一区二区精品| 国产色综合久久| 欧美激情按摩在线| 国产精品视频| 欧美华人在线视频| 国产精品男人爽免费视频1| 另类激情亚洲| 欧美午夜一区二区| 老司机成人在线视频| 欧美日韩精品系列| 麻豆久久精品| 国产精品久久久久婷婷| 欧美激情第二页| 国产精品一区久久| 亚洲人人精品| 国产一区二区三区的电影 | 亚洲欧美日韩精品久久亚洲区| 国产主播在线一区| 日韩视频在线播放| 亚洲第一页中文字幕| 亚洲桃花岛网站| 亚洲精品免费观看| 久久精品中文字幕一区| 亚洲欧美日本另类| 欧美激情国产高清| 久热国产精品视频| 久久久久一区二区三区四区| 欧美日韩另类一区| 亚洲黄色免费电影| 一区二区在线看| 亚洲专区国产精品| 亚洲欧美日韩一区在线| 欧美另类专区| 亚洲高清久久网| 尤物yw午夜国产精品视频明星 | 欧美成年人网站| 国产一区二区三区电影在线观看| 一本色道久久综合| 夜久久久久久| 欧美精品久久久久久久久老牛影院| 老司机免费视频久久| 国产色视频一区| 亚洲欧美制服中文字幕| 午夜精彩视频在线观看不卡| 欧美深夜福利| 夜夜精品视频一区二区| 亚洲视频电影图片偷拍一区| 欧美日韩精品免费在线观看视频| 亚洲国产成人久久综合一区| 亚洲高清视频中文字幕| 麻豆精品网站| 亚洲国产精品久久人人爱蜜臀| 亚洲精品国产精品国自产观看浪潮 | 久久精品国产亚洲a| 国产日韩欧美| 久久精品国产v日韩v亚洲| 久久久久久夜精品精品免费| 99视频精品在线| 一个色综合av| 国产精品日产欧美久久久久| 亚洲欧美中文在线视频| 久久久久久电影| 一区二区视频免费完整版观看| 久久久久久午夜| 亚洲经典自拍| 亚洲主播在线播放| 国产日韩亚洲| 美女视频一区免费观看| 亚洲精品欧美日韩专区| 亚洲一区二区在线免费观看视频| 国产精品丝袜xxxxxxx| 久久不见久久见免费视频1| 欧美韩日亚洲| 小嫩嫩精品导航| 一区二区在线观看视频| 欧美激情在线免费观看| 亚洲在线1234| 欧美激情视频一区二区三区免费| 一区二区三区国产在线观看| 国产精品自拍视频| 久久伊人精品天天| 一本到高清视频免费精品| 久久手机精品视频| 99视频国产精品免费观看| 国产精品专区一| 欧美激情一区二区三区成人 | 久久久之久亚州精品露出| 亚洲精品一区二区三| 国产日韩欧美综合精品| 欧美激情一区二区三区不卡| 性伦欧美刺激片在线观看| 亚洲国产成人av在线| 欧美在线999| 一区二区久久久久久| 国内久久精品| 国产精品大片免费观看| 麻豆久久久9性大片| 午夜精品在线| 亚洲精品影院| 欧美激情精品久久久久久| 欧美在线国产| 亚洲性夜色噜噜噜7777| 亚洲精品激情| 在线观看视频亚洲| 国产欧美韩日| 欧美午夜免费电影| 欧美激情一区二区在线| 久久亚洲精品欧美| 久久精品国产一区二区三区免费看| 日韩一级黄色大片| 亚洲日本成人| 欧美成人免费播放| 久久综合电影| 久久久精品网| 欧美怡红院视频一区二区三区| 一区二区三区四区国产| 99亚洲一区二区| 亚洲精品九九| 亚洲精品黄色| 99国产精品久久久| 亚洲精品久久久久久一区二区| 狠狠久久婷婷| 尤物网精品视频| 樱桃视频在线观看一区| 好男人免费精品视频| 国模精品娜娜一二三区| 国产人久久人人人人爽| 国产精品视频免费观看| 国产精品自拍小视频| 国产欧美日韩综合一区在线播放| 欧美日韩精品一区二区| 欧美日韩一区二区在线观看| 欧美日韩一区二区三区在线| 久久天天综合| 美日韩精品免费| 欧美激情网友自拍| 亚洲福利专区| 日韩午夜电影| 亚洲男人影院| 久久国产一区| 欧美成人高清视频| 欧美日韩精品在线播放| 欧美日韩中文字幕综合视频| 国产精品久久久久国产a级| 国产精品永久免费| 亚洲成人自拍视频| 亚洲免费观看高清完整版在线观看熊| 99这里只有久久精品视频| 亚洲一区二区三区精品视频| 久久国产加勒比精品无码| 免费日韩av电影| 亚洲伦理自拍| 欧美一区三区二区在线观看| 麻豆精品在线播放| 欧美午夜电影在线观看| 黄色精品免费| 中文av一区二区| 久久久一二三| 99国产精品| 久久一区二区三区国产精品 | 欧美一进一出视频| 欧美肥婆在线| 国产伦精品一区二区三区高清| 亚洲国产精品va在线观看黑人| 亚洲天堂黄色| 欧美高清免费| 亚洲一区免费视频| 免播放器亚洲| 国产亚洲欧美日韩精品| 一区二区三区www| 久久字幕精品一区| 中国女人久久久| 久热爱精品视频线路一| 国产欧美一二三区| 一区二区三区欧美成人| 麻豆久久精品| 性色av一区二区三区在线观看| 欧美aaa级| 精品电影一区| 欧美一区二区播放| 一区二区三区欧美日韩| 欧美黑人在线观看| 亚洲国产国产亚洲一二三| 欧美在线3区| 亚洲一区二区影院|