• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>

            Hadoop 糾錯一

            Posted on 2009-09-28 13:32 MichaelCao 閱讀(363) 評論(0)  編輯 收藏 引用 所屬分類: Apache Hadoop_Storm_Spark
            在編譯Hadoop后需要注意的幾點
            1.各個節點上的版本要相同。需要注意的是,編譯后,程序運行就會從build文件夾里的class文件運行,所以即使你把jar包cp到根目錄底下,仍然沒用。刪除build目錄里面的jar包,還是沒用。辦法: ant clean
            2.在使用一個新版本以后,可能會出現mapreduce能啟動,但是dfs無法啟動的情況。即使你format namenode還是不行。這個讓我郁悶了好久。mapreduce 都可以啟動,但就是dfs無法啟動。datanode就是啟動不了。想了好久,總算想明白了。因為datanode里面有數據,可是namenode里面卻格式化了。辦法:刪除所有datanode中的數據。

            使用ssh 遠程執行命令
            ssh gp09@***.comp.nus.edu.sg 'mkdir hadoop'
            不過ssh有一個比較煩的地方,就是不能用cd命令。所以在使用的時候要小心。

            在linux或者unix中安裝ant
            編輯.bashrc 文件
            添加:
            export ANT_HOME=~/files/....
            export JAVA_HOME=/usr/lib/jvm/java-6-sun/jre/bin/java
            export PATH=$(PATH):$(ANT_HOME)/bin
            期中$表示提取變量,:表示在后面添加。


            posts - 16, comments - 16, trackbacks - 0, articles - 0

            Copyright © MichaelCao

            狠狠色婷婷久久一区二区三区 | 亚洲国产精品一区二区三区久久| 狼狼综合久久久久综合网| 伊人久久一区二区三区无码| 久久精品国产第一区二区| 国产香蕉久久精品综合网| 九九精品久久久久久噜噜| 亚洲国产精品综合久久一线 | 一本伊大人香蕉久久网手机| 久久精品无码专区免费青青| 精品久久一区二区三区| 久久久久国色AV免费观看| 久久人与动人物a级毛片| 久久亚洲精品成人av无码网站| 99久久精品费精品国产一区二区| 香蕉久久一区二区不卡无毒影院| 国产亚州精品女人久久久久久 | 久久免费视频网站| 日韩亚洲国产综合久久久| 亚洲中文字幕久久精品无码喷水| 久久99久久99精品免视看动漫| 品成人欧美大片久久国产欧美 | 亚洲精品乱码久久久久久中文字幕| 久久精品国产亚洲av水果派| 久久精品中文字幕有码| 久久综合精品国产二区无码| 青青久久精品国产免费看| 97久久超碰国产精品旧版| 久久成人小视频| 久久本道久久综合伊人| 久久av无码专区亚洲av桃花岛| 久久精品国产精品亚洲下载| 热re99久久6国产精品免费| 亚洲国产天堂久久久久久 | 国内精品久久久久久久涩爱 | 国产精品美女久久久| 怡红院日本一道日本久久| 亚洲&#228;v永久无码精品天堂久久 | 国产成人久久精品麻豆一区| 国产Av激情久久无码天堂| 国产精品久久久久久久久软件 |