mysileng
posts - 200, comments - 8, trackbacks - 0, articles - 0
導航
C++博客
首頁
新隨筆
聯系
聚合
管理
<
2012年12月
>
日
一
二
三
四
五
六
25
26
27
28
29
30
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
1
2
3
4
5
常用鏈接
我的隨筆
我的評論
我參與的隨筆
留言簿
給我留言
查看公開留言
查看私人留言
隨筆分類
C(4)
c++(9)
Hadoop(12)
HBASE(2)
hibernate(1)
Java(4)
JULY_程序員編程藝術(17)
LIBEVENT(13)
linux編程(28)
linux多線程專題(8)
linux基礎(15)
linux進程通信專題(9)
linux內核(13)
Myeclipse(3)
redis(6)
STL(5)
本人分析研究(3)
分布式(3)
海量數據處理(10)
前臺(1)
設計模式(2)
數據結構與算法(14)
數據挖掘(1)
學習方法與路線(2)
楊強linux視頻筆記系列(13)
隨筆檔案
2015年1月 (1)
2014年9月 (5)
2014年8月 (2)
2014年7月 (1)
2014年4月 (2)
2013年10月 (1)
2013年9月 (1)
2013年6月 (10)
2013年5月 (15)
2013年4月 (13)
2013年3月 (5)
2013年2月 (12)
2013年1月 (23)
2012年12月 (49)
2012年11月 (28)
2012年10月 (10)
2012年9月 (8)
2012年8月 (4)
2012年7月 (2)
2012年1月 (2)
2011年12月 (1)
2011年11月 (1)
2011年9月 (1)
2011年5月 (2)
2011年3月 (1)
搜索
最新評論
1.?re: select函數與stdio混用的不良后果 (原)
贊!
--2b程序員
2.?re: 最長上升子序列 O(nlogn)解法 (轉)
寫的不錯 謝謝
--無憂
3.?re: 進程并發服務器中,sigchld信號引發的血案?(原)
評論內容較長,點擊標題查看
--anonymous
4.?re: 翻譯:libevent參考手冊第六章:bufferevent:概念和入門 (八) (轉)[未登錄]
不錯,學習了
--zz
5.?re: 最小堆&&最大堆的實現(c++)(轉)[未登錄]
錯誤也太多了吧。
--ccc
閱讀排行榜
1.?最長上升子序列 O(nlogn)解法 (轉)(14925)
2.?libevent: evbuffer緩沖 (轉)(14059)
3.?Skip List(跳躍表)原理詳解與實現(13450)
4.?翻譯:libevent參考手冊第六章:bufferevent:概念和入門 (八) (轉)(10004)
5.?__builtin_expect 解惑(7714)
評論排行榜
1.?慢系統調用與信號中斷(轉)(2)
2.?select函數與stdio混用的不良后果 (原)(1)
3.?翻譯:libevent參考手冊第六章:bufferevent:概念和入門 (八) (轉)(1)
4.?HADOOP_CLASSPATH設置(轉)(1)
5.?最小堆&&最大堆的實現(c++)(轉)(1)
HBASE安裝和簡單測試
Posted on 2013-04-15 20:45
鑫龍
閱讀(324)
評論(0)
編輯
收藏
引用
所屬分類:
HBASE
轉自:
http://blog.chinaunix.net/uid-451-id-3156060.html
1. 修改HDFSS設置
vi conf/hdfs-site.xml
增加下面的設置,HBASE需要訪問大量的文件
<property>
<name>dfs.datanode.max.xcievers</name>
<value>4096</value>
</property>
2. 設置NTP同步
rpm -qa |grep ntp
master用缺省配置
slaves:
vi /etc/ntp.conf
server 192.168.110.127
把缺省配置的server都去掉,改為master的地址
chkconfig ntpd on
service ntpd restart
另外:最好使用同一時區
ln -sf /usr/share/zoneinfo/posix/Asia/Shanghai /etc/localtime
3. 修改nofile和nproc設置
HBase需要使用很多文件,每次flush都是寫一個新文件,缺省1024遠遠不夠
vi /etc/security/limits.conf
hadoop - nofile 32768
hadoop - nproc 32768
重新登錄hadoop,驗證一下
ulimit -a
4.下載和安裝
到http://hbase.apache.org去下載最新的穩定版本
tar zxf hbase-0.92.1.tar.gz
5. 設置環境變量
export HBASE_HOME=$HOME/hbase-0.92.1
export HBASE_CONF_DIR=$HOME/hbase-conf
同時設置添加到PATH和CLASSPATH
6. 配置
cp -r $HBASE_HOME/conf $HOME/hbase-conf
vi hbase-env.sh
export JAVA_HOME=/usr/lib/jvm/java-1.6.0-openjdk-1.6.0.0.x86_64/jre
export HBASE_HEAPSIZE=300
export HBASE_OPTS="-XX:+UseConcMarkSweepGC"
export HBASE_LOG_DIR=${HBASE_HOME}/logs
export HBASE_MANAGES_ZK=true
vi hdfs-site.xml
添加下面的配置,開啟durable sync特性,Hadoop 0.20.205以上的版本有的功能
開啟這個功能十分重要,否則HBASE會丟失數據。(本人猜測,這是些Hlog的需要,需要隨時appdend redo log,而HDFS一般只能建新文件)
<configuration>
<property>
<name>dfs.support.append</name>
<value>true</value>
</property>
</configuration>
在Hadoop -.20.205的elease notes上有這么一句:
* This release includes a merge of append/hsynch/hflush capabilities from 0.20-append branch, to support HBase in secure mode.
7. 設置Fully-distributed模式
vi hdfs-site.xml
設置hbase.rootdir和hbase.cluster.distributed=true
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
8. 設置RegionServers
cat regionservers
slave1
slave2
9. 配置ZooKeepers
vi hbase-env.sh
export HBASE_MANAGES_ZK=true
vi hdfs-site.xml
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2222</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>slave1,slave2</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/home/hadoop/zookeeper</value>
</property>
10. 復制安裝配置到其他節點
scp -r conf slave1:
scp -r conf slave2:
scp -r hbase-conf slave1:
scp -r hbase-conf slave2:
scp -r hbase-0.92.1 slave1:
scp -r hbase-0.92.1 slave2:
scp -r .bash_profile slave1:
scp -r .bash_profile slave2:
11. 重新登錄,重啟hadoop
stop-all.sh
start-all.sh
jps
12. 啟動HBASE
start-hbase.sh
驗證,
用jps命令查看java進程
Master上有
11420 HMaster
ZoomKeeper上有
575 HQuorumPeer
RegionServer上有
686 HRegionServer
13 簡單測試
hbase shell
hbase(main):006:0> create 'test','data'
0 row(s) in 1.1190 seconds
hbase(main):007:0> list
TABLE
test
1 row(s) in 0.0270 seconds
hbase(main):009:0> put 'test','1','data:1','xxxx'
0 row(s) in 0.1220 seconds
hbase(main):010:0> put 'test','1','data:1','xxxx'
0 row(s) in 0.0120 seconds
hbase(main):011:0> put 'test','1','data:1','xxxx'
0 row(s) in 0.0120 seconds
hbase(main):015:0* put 'test','2','data:2','yyy'
0 row(s) in 0.0080 seconds
hbase(main):016:0> put 'test','3','data:3','zzz'
0 row(s) in 0.0070 seconds
hbase(main):017:0>
hbase(main):018:0*
hbase(main):019:0* scan 'test'
ROW COLUMN+CELL
1 column=data:1, timestamp=1333160616029, value=xxxx
2 column=data:2, timestamp=1333160650780, value=yyy
3 column=data:3, timestamp=1333160664490, value=zzz
3 row(s) in 0.0260 seconds
hbase(main):020:0>
14. 查看了HDFS上建立的文件
./hadoop dfs -lsr /hbase
Warning: $HADOOP_HOME is deprecated.
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/-ROOT-
-rw-r--r-- 2 hadoop supergroup 551 2012-03-31 10:07 /hbase/-ROOT-/.tableinfo.0000000001
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/-ROOT-/.tmp
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/-ROOT-/70236052
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/-ROOT-/70236052/.oldlogs
-rw-r--r-- 2 hadoop supergroup 411 2012-03-31 10:07 /hbase/-ROOT-/70236052/.oldlogs/hlog.1333159627476
-rw-r--r-- 2 hadoop supergroup 109 2012-03-31 10:07 /hbase/-ROOT-/70236052/.regioninfo
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/-ROOT-/70236052/info
-rw-r--r-- 2 hadoop supergroup 714 2012-03-31 10:07 /hbase/-ROOT-/70236052/info/bd225e173164476f88111f622f5a7839
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/.META.
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/.META./1028785192
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/.META./1028785192/.oldlogs
-rw-r--r-- 2 hadoop supergroup 124 2012-03-31 10:07 /hbase/.META./1028785192/.oldlogs/hlog.1333159627741
-rw-r--r-- 2 hadoop supergroup 111 2012-03-31 10:07 /hbase/.META./1028785192/.regioninfo
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/.META./1028785192/info
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/.logs
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/.logs/slave1,60020,1333159627316
-rw-r--r-- 3 hadoop supergroup 293 2012-03-31 10:07 /hbase/.logs/slave1,60020,1333159627316/slave1%2C60020%2C1333159627316.1333159637444
-rw-r--r-- 3 hadoop supergroup 0 2012-03-31 10:07 /hbase/.logs/slave1,60020,1333159627316/slave1%2C60020%2C1333159627316.1333159637904
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/.logs/slave2,60020,1333159627438
-rw-r--r-- 3 hadoop supergroup 0 2012-03-31 10:07 /hbase/.logs/slave2,60020,1333159627438/slave2%2C60020%2C1333159627438.1333159638583
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:18 /hbase/.oldlogs
-rw-r--r-- 2 hadoop supergroup 38 2012-03-31 10:07 /hbase/hbase.id
-rw-r--r-- 2 hadoop supergroup 3 2012-03-31 10:07 /hbase/hbase.version
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:22 /hbase/test
-rw-r--r-- 2 hadoop supergroup 513 2012-03-31 10:22 /hbase/test/.tableinfo.0000000001
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:22 /hbase/test/.tmp
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:22 /hbase/test/929f7e1caca5825974e0e991543fe2c5
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:22 /hbase/test/929f7e1caca5825974e0e991543fe2c5/.oldlogs
-rw-r--r-- 2 hadoop supergroup 124 2012-03-31 10:22 /hbase/test/929f7e1caca5825974e0e991543fe2c5/.oldlogs/hlog.1333160541983
-rw-r--r-- 2 hadoop supergroup 219 2012-03-31 10:22 /hbase/test/929f7e1caca5825974e0e991543fe2c5/.regioninfo
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:22 /hbase/test/929f7e1caca5825974e0e991543fe2c5/data
Error
==========================================
slave1: java.io.IOException: Could not find my address: db1 in list of ZooKeeper quorum servers
slave1: at org.apache.hadoop.hbase.zookeeper.HQuorumPeer.writeMyID(HQuorumPeer.java:133)
slave1: at org.apache.hadoop.hbase.zookeeper.HQuorumPeer.main(HQuorumPeer.java:60)
Reason:hostname是db1,但是我配置的名字是slave1,但是是同一個IP.HBase會用hostname取得的主機名來方向方向解析DNS
Solution:
修改hostname為slave1重新啟動server
只有注冊用戶
登錄
后才能發表評論。
【推薦】100%開源!大型工業跨平臺軟件C++源碼提供,建模,組態!
相關文章:
HBase簡介(很好的梳理資料)
HBASE安裝和簡單測試
網站導航:
博客園
IT新聞
BlogJava
博問
Chat2DB
管理
Powered by:
C++博客
Copyright © 鑫龍
国产精品xxxx国产喷水亚洲国产精品无码久久一区
|
国产激情久久久久影院老熟女
|
久久福利片
|
色综合久久88色综合天天
|
色诱久久av
|
精品无码久久久久久午夜
|
99久久夜色精品国产网站
|
久久99精品免费一区二区
|
亚洲午夜精品久久久久久app
|
亚洲AV无码久久寂寞少妇
|
久久精品国产亚洲麻豆
|
超级97碰碰碰碰久久久久最新
|
99久久精品毛片免费播放
|
亚洲精品综合久久
|
久久国产亚洲精品麻豆
|
精品国产乱码久久久久软件
|
久久精品成人免费网站
|
人妻少妇久久中文字幕一区二区
|
日韩亚洲欧美久久久www综合网
|
伊色综合久久之综合久久
|
国产精品欧美久久久天天影视
|
亚洲va久久久噜噜噜久久
|
久久综合亚洲色一区二区三区
|
久久久久亚洲AV片无码下载蜜桃
|
久久久久久一区国产精品
|
97久久超碰国产精品旧版
|
久久人人青草97香蕉
|
欧美午夜精品久久久久久浪潮
|
91久久九九无码成人网站
|
国产精品女同久久久久电影院
|
国产精品99久久久精品无码
|
久久夜色精品国产亚洲av
|
国产精品成人精品久久久
|
国产精品久久毛片完整版
|
国产精品99久久99久久久
|
精品久久久久久亚洲精品
|
久久精品无码专区免费东京热
|
少妇高潮惨叫久久久久久
|
久久久精品2019免费观看
|
伊人久久大香线蕉亚洲五月天
|
亚洲精品乱码久久久久久蜜桃不卡
|