1.首先安裝java環境和環境變量配置,我使用默認的java環境,然后在/etc/profile 設置環境變量如下:
export JAVA_HOME=/usr/lib/jvm/java-1.6.0-openjdk-1.6.0.0
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
接下來source /etc/profile
參考:http://blog.csdn.net/wind520/article/details/9308809
2.下載hadoop的tar包,然后解壓,接下來設置hadoop的安裝路徑,在/etc/profile 添加:
export HADOOP_INSTALL=/home/panzhizhou/桌面/hadoop-2.0.6-alpha
export PATH=$PATH:$HADOOP_INSTALL/bin
接下來就是hadoop的配置了,hadoop工作有三個模式,分別是獨立模式,偽分布模式,全分布模式。第一個模式下不用做配置,其他的要配置common組件,hdfs,mapreduce分別對應的xml文件是core-site.xml,hdfs-site.xml ,mapred-site.xml
驗證: hadoop version即可驗證是否安裝成功
export JAVA_HOME=/usr/lib/jvm/java-1.6.0-openjdk-1.6.0.0
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
接下來source /etc/profile
參考:http://blog.csdn.net/wind520/article/details/9308809
2.下載hadoop的tar包,然后解壓,接下來設置hadoop的安裝路徑,在/etc/profile 添加:
export HADOOP_INSTALL=/home/panzhizhou/桌面/hadoop-2.0.6-alpha
export PATH=$PATH:$HADOOP_INSTALL/bin
接下來就是hadoop的配置了,hadoop工作有三個模式,分別是獨立模式,偽分布模式,全分布模式。第一個模式下不用做配置,其他的要配置common組件,hdfs,mapreduce分別對應的xml文件是core-site.xml,hdfs-site.xml ,mapred-site.xml
驗證: hadoop version即可驗證是否安裝成功