• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>

            Hadoop 糾錯一

            Posted on 2009-09-28 13:32 MichaelCao 閱讀(372) 評論(0)  編輯 收藏 引用 所屬分類: Apache Hadoop_Storm_Spark
            在編譯Hadoop后需要注意的幾點
            1.各個節點上的版本要相同。需要注意的是,編譯后,程序運行就會從build文件夾里的class文件運行,所以即使你把jar包cp到根目錄底下,仍然沒用。刪除build目錄里面的jar包,還是沒用。辦法: ant clean
            2.在使用一個新版本以后,可能會出現mapreduce能啟動,但是dfs無法啟動的情況。即使你format namenode還是不行。這個讓我郁悶了好久。mapreduce 都可以啟動,但就是dfs無法啟動。datanode就是啟動不了。想了好久,總算想明白了。因為datanode里面有數據,可是namenode里面卻格式化了。辦法:刪除所有datanode中的數據。

            使用ssh 遠程執行命令
            ssh gp09@***.comp.nus.edu.sg 'mkdir hadoop'
            不過ssh有一個比較煩的地方,就是不能用cd命令。所以在使用的時候要小心。

            在linux或者unix中安裝ant
            編輯.bashrc 文件
            添加:
            export ANT_HOME=~/files/....
            export JAVA_HOME=/usr/lib/jvm/java-6-sun/jre/bin/java
            export PATH=$(PATH):$(ANT_HOME)/bin
            期中$表示提取變量,:表示在后面添加。


            posts - 16, comments - 16, trackbacks - 0, articles - 0

            Copyright © MichaelCao

            久久久久99精品成人片牛牛影视| 中文字幕无码久久精品青草 | 热久久这里只有精品| 久久91精品国产91久久麻豆| 色噜噜狠狠先锋影音久久| 伊人久久大香线蕉综合网站| 久久久久亚洲Av无码专| 久久久这里有精品| 四虎影视久久久免费| 亚洲а∨天堂久久精品| 久久伊人精品青青草原高清| 久久精品国产福利国产琪琪| 久久婷婷成人综合色综合| 久久亚洲高清综合| 精品国产91久久久久久久a| 久久久久久综合一区中文字幕 | 精品久久久久久国产| 久久一区二区三区免费| 国产精品免费久久久久影院| 国产精品视频久久| 亚洲国产精品热久久| 久久久久久久免费视频| 亚洲国产精品无码久久青草| 日本精品一区二区久久久| 色综合合久久天天给综看| 一本色综合网久久| 久久精品国产半推半就| 国产精品免费久久久久久久久 | 精品伊人久久大线蕉色首页| 久久久噜噜噜久久熟女AA片| AV色综合久久天堂AV色综合在| 韩国三级中文字幕hd久久精品| 久久人人爽人人人人片av| AV色综合久久天堂AV色综合在| 污污内射久久一区二区欧美日韩 | 亚洲αv久久久噜噜噜噜噜| 久久电影网| 久久国产视屏| 久久精品亚洲乱码伦伦中文| 精品久久久久久国产91| 国内精品久久久久影院老司|