mysileng
posts - 200, comments - 8, trackbacks - 0, articles - 0
導航
C++博客
首頁
新隨筆
聯系
聚合
管理
<
2013年5月
>
日
一
二
三
四
五
六
28
29
30
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
1
2
3
4
5
6
7
8
常用鏈接
我的隨筆
我的評論
我參與的隨筆
留言簿
給我留言
查看公開留言
查看私人留言
隨筆分類
C(4)
c++(9)
Hadoop(12)
HBASE(2)
hibernate(1)
Java(4)
JULY_程序員編程藝術(17)
LIBEVENT(13)
linux編程(28)
linux多線程專題(8)
linux基礎(15)
linux進程通信專題(9)
linux內核(13)
Myeclipse(3)
redis(6)
STL(5)
本人分析研究(3)
分布式(3)
海量數據處理(10)
前臺(1)
設計模式(2)
數據結構與算法(14)
數據挖掘(1)
學習方法與路線(2)
楊強linux視頻筆記系列(13)
隨筆檔案
2015年1月 (1)
2014年9月 (5)
2014年8月 (2)
2014年7月 (1)
2014年4月 (2)
2013年10月 (1)
2013年9月 (1)
2013年6月 (10)
2013年5月 (15)
2013年4月 (13)
2013年3月 (5)
2013年2月 (12)
2013年1月 (23)
2012年12月 (49)
2012年11月 (28)
2012年10月 (10)
2012年9月 (8)
2012年8月 (4)
2012年7月 (2)
2012年1月 (2)
2011年12月 (1)
2011年11月 (1)
2011年9月 (1)
2011年5月 (2)
2011年3月 (1)
搜索
最新評論
1.?re: select函數與stdio混用的不良后果 (原)
贊!
--2b程序員
2.?re: 最長上升子序列 O(nlogn)解法 (轉)
寫的不錯 謝謝
--無憂
3.?re: 進程并發服務器中,sigchld信號引發的血案?(原)
評論內容較長,點擊標題查看
--anonymous
4.?re: 翻譯:libevent參考手冊第六章:bufferevent:概念和入門 (八) (轉)[未登錄]
不錯,學習了
--zz
5.?re: 最小堆&&最大堆的實現(c++)(轉)[未登錄]
錯誤也太多了吧。
--ccc
閱讀排行榜
1.?最長上升子序列 O(nlogn)解法 (轉)(14925)
2.?libevent: evbuffer緩沖 (轉)(14059)
3.?Skip List(跳躍表)原理詳解與實現(13450)
4.?翻譯:libevent參考手冊第六章:bufferevent:概念和入門 (八) (轉)(10004)
5.?__builtin_expect 解惑(7714)
評論排行榜
1.?慢系統調用與信號中斷(轉)(2)
2.?select函數與stdio混用的不良后果 (原)(1)
3.?翻譯:libevent參考手冊第六章:bufferevent:概念和入門 (八) (轉)(1)
4.?HADOOP_CLASSPATH設置(轉)(1)
5.?最小堆&&最大堆的實現(c++)(轉)(1)
HBASE安裝和簡單測試
Posted on 2013-04-15 20:45
鑫龍
閱讀(323)
評論(0)
編輯
收藏
引用
所屬分類:
HBASE
轉自:
http://blog.chinaunix.net/uid-451-id-3156060.html
1. 修改HDFSS設置
vi conf/hdfs-site.xml
增加下面的設置,HBASE需要訪問大量的文件
<property>
<name>dfs.datanode.max.xcievers</name>
<value>4096</value>
</property>
2. 設置NTP同步
rpm -qa |grep ntp
master用缺省配置
slaves:
vi /etc/ntp.conf
server 192.168.110.127
把缺省配置的server都去掉,改為master的地址
chkconfig ntpd on
service ntpd restart
另外:最好使用同一時區
ln -sf /usr/share/zoneinfo/posix/Asia/Shanghai /etc/localtime
3. 修改nofile和nproc設置
HBase需要使用很多文件,每次flush都是寫一個新文件,缺省1024遠遠不夠
vi /etc/security/limits.conf
hadoop - nofile 32768
hadoop - nproc 32768
重新登錄hadoop,驗證一下
ulimit -a
4.下載和安裝
到http://hbase.apache.org去下載最新的穩定版本
tar zxf hbase-0.92.1.tar.gz
5. 設置環境變量
export HBASE_HOME=$HOME/hbase-0.92.1
export HBASE_CONF_DIR=$HOME/hbase-conf
同時設置添加到PATH和CLASSPATH
6. 配置
cp -r $HBASE_HOME/conf $HOME/hbase-conf
vi hbase-env.sh
export JAVA_HOME=/usr/lib/jvm/java-1.6.0-openjdk-1.6.0.0.x86_64/jre
export HBASE_HEAPSIZE=300
export HBASE_OPTS="-XX:+UseConcMarkSweepGC"
export HBASE_LOG_DIR=${HBASE_HOME}/logs
export HBASE_MANAGES_ZK=true
vi hdfs-site.xml
添加下面的配置,開啟durable sync特性,Hadoop 0.20.205以上的版本有的功能
開啟這個功能十分重要,否則HBASE會丟失數據。(本人猜測,這是些Hlog的需要,需要隨時appdend redo log,而HDFS一般只能建新文件)
<configuration>
<property>
<name>dfs.support.append</name>
<value>true</value>
</property>
</configuration>
在Hadoop -.20.205的elease notes上有這么一句:
* This release includes a merge of append/hsynch/hflush capabilities from 0.20-append branch, to support HBase in secure mode.
7. 設置Fully-distributed模式
vi hdfs-site.xml
設置hbase.rootdir和hbase.cluster.distributed=true
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
8. 設置RegionServers
cat regionservers
slave1
slave2
9. 配置ZooKeepers
vi hbase-env.sh
export HBASE_MANAGES_ZK=true
vi hdfs-site.xml
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2222</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>slave1,slave2</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/home/hadoop/zookeeper</value>
</property>
10. 復制安裝配置到其他節點
scp -r conf slave1:
scp -r conf slave2:
scp -r hbase-conf slave1:
scp -r hbase-conf slave2:
scp -r hbase-0.92.1 slave1:
scp -r hbase-0.92.1 slave2:
scp -r .bash_profile slave1:
scp -r .bash_profile slave2:
11. 重新登錄,重啟hadoop
stop-all.sh
start-all.sh
jps
12. 啟動HBASE
start-hbase.sh
驗證,
用jps命令查看java進程
Master上有
11420 HMaster
ZoomKeeper上有
575 HQuorumPeer
RegionServer上有
686 HRegionServer
13 簡單測試
hbase shell
hbase(main):006:0> create 'test','data'
0 row(s) in 1.1190 seconds
hbase(main):007:0> list
TABLE
test
1 row(s) in 0.0270 seconds
hbase(main):009:0> put 'test','1','data:1','xxxx'
0 row(s) in 0.1220 seconds
hbase(main):010:0> put 'test','1','data:1','xxxx'
0 row(s) in 0.0120 seconds
hbase(main):011:0> put 'test','1','data:1','xxxx'
0 row(s) in 0.0120 seconds
hbase(main):015:0* put 'test','2','data:2','yyy'
0 row(s) in 0.0080 seconds
hbase(main):016:0> put 'test','3','data:3','zzz'
0 row(s) in 0.0070 seconds
hbase(main):017:0>
hbase(main):018:0*
hbase(main):019:0* scan 'test'
ROW COLUMN+CELL
1 column=data:1, timestamp=1333160616029, value=xxxx
2 column=data:2, timestamp=1333160650780, value=yyy
3 column=data:3, timestamp=1333160664490, value=zzz
3 row(s) in 0.0260 seconds
hbase(main):020:0>
14. 查看了HDFS上建立的文件
./hadoop dfs -lsr /hbase
Warning: $HADOOP_HOME is deprecated.
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/-ROOT-
-rw-r--r-- 2 hadoop supergroup 551 2012-03-31 10:07 /hbase/-ROOT-/.tableinfo.0000000001
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/-ROOT-/.tmp
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/-ROOT-/70236052
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/-ROOT-/70236052/.oldlogs
-rw-r--r-- 2 hadoop supergroup 411 2012-03-31 10:07 /hbase/-ROOT-/70236052/.oldlogs/hlog.1333159627476
-rw-r--r-- 2 hadoop supergroup 109 2012-03-31 10:07 /hbase/-ROOT-/70236052/.regioninfo
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/-ROOT-/70236052/info
-rw-r--r-- 2 hadoop supergroup 714 2012-03-31 10:07 /hbase/-ROOT-/70236052/info/bd225e173164476f88111f622f5a7839
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/.META.
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/.META./1028785192
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/.META./1028785192/.oldlogs
-rw-r--r-- 2 hadoop supergroup 124 2012-03-31 10:07 /hbase/.META./1028785192/.oldlogs/hlog.1333159627741
-rw-r--r-- 2 hadoop supergroup 111 2012-03-31 10:07 /hbase/.META./1028785192/.regioninfo
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/.META./1028785192/info
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/.logs
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/.logs/slave1,60020,1333159627316
-rw-r--r-- 3 hadoop supergroup 293 2012-03-31 10:07 /hbase/.logs/slave1,60020,1333159627316/slave1%2C60020%2C1333159627316.1333159637444
-rw-r--r-- 3 hadoop supergroup 0 2012-03-31 10:07 /hbase/.logs/slave1,60020,1333159627316/slave1%2C60020%2C1333159627316.1333159637904
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:07 /hbase/.logs/slave2,60020,1333159627438
-rw-r--r-- 3 hadoop supergroup 0 2012-03-31 10:07 /hbase/.logs/slave2,60020,1333159627438/slave2%2C60020%2C1333159627438.1333159638583
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:18 /hbase/.oldlogs
-rw-r--r-- 2 hadoop supergroup 38 2012-03-31 10:07 /hbase/hbase.id
-rw-r--r-- 2 hadoop supergroup 3 2012-03-31 10:07 /hbase/hbase.version
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:22 /hbase/test
-rw-r--r-- 2 hadoop supergroup 513 2012-03-31 10:22 /hbase/test/.tableinfo.0000000001
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:22 /hbase/test/.tmp
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:22 /hbase/test/929f7e1caca5825974e0e991543fe2c5
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:22 /hbase/test/929f7e1caca5825974e0e991543fe2c5/.oldlogs
-rw-r--r-- 2 hadoop supergroup 124 2012-03-31 10:22 /hbase/test/929f7e1caca5825974e0e991543fe2c5/.oldlogs/hlog.1333160541983
-rw-r--r-- 2 hadoop supergroup 219 2012-03-31 10:22 /hbase/test/929f7e1caca5825974e0e991543fe2c5/.regioninfo
drwxr-xr-x - hadoop supergroup 0 2012-03-31 10:22 /hbase/test/929f7e1caca5825974e0e991543fe2c5/data
Error
==========================================
slave1: java.io.IOException: Could not find my address: db1 in list of ZooKeeper quorum servers
slave1: at org.apache.hadoop.hbase.zookeeper.HQuorumPeer.writeMyID(HQuorumPeer.java:133)
slave1: at org.apache.hadoop.hbase.zookeeper.HQuorumPeer.main(HQuorumPeer.java:60)
Reason:hostname是db1,但是我配置的名字是slave1,但是是同一個IP.HBase會用hostname取得的主機名來方向方向解析DNS
Solution:
修改hostname為slave1重新啟動server
只有注冊用戶
登錄
后才能發表評論。
【推薦】100%開源!大型工業跨平臺軟件C++源碼提供,建模,組態!
相關文章:
HBase簡介(很好的梳理資料)
HBASE安裝和簡單測試
網站導航:
博客園
IT新聞
BlogJava
博問
Chat2DB
管理
Powered by:
C++博客
Copyright © 鑫龍
亚洲国产精品一区二区三区久久
|
久久国产香蕉一区精品
|
久久亚洲精品国产精品
|
久久国产精品无码HDAV
|
亚洲国产精品无码久久久久久曰
|
91精品婷婷国产综合久久
|
久久综合久久久
|
久久婷婷五月综合97色直播
|
97久久国产亚洲精品超碰热
|
色婷婷狠狠久久综合五月
|
久久国产精品77777
|
一级女性全黄久久生活片免费
|
中文字幕乱码人妻无码久久
|
99久久99久久精品国产片果冻
|
亚洲色欲久久久综合网东京热
|
久久综合狠狠综合久久激情
|
伊人久久大香线蕉亚洲
|
国产精品日韩深夜福利久久
|
国产精品久久影院
|
精品蜜臀久久久久99网站
|
亚洲精品午夜国产va久久
|
久久精品无码一区二区三区免费
|
久久久久成人精品无码中文字幕
|
久久久久久青草大香综合精品
|
久久棈精品久久久久久噜噜
|
久久精品免费全国观看国产
|
国产精品久久久久乳精品爆
|
蜜桃麻豆www久久
|
久久91精品国产91久久麻豆
|
精品综合久久久久久888蜜芽
|
久久久婷婷五月亚洲97号色
|
久久夜色精品国产亚洲av
|
一本色道久久88加勒比—综合
|
国内精品久久久久影院一蜜桃
|
久久99热这里只频精品6
|
亚洲欧美另类日本久久国产真实乱对白
|
狠狠色丁香婷婷久久综合五月
|
久久综合久久伊人
|
久久久亚洲裙底偷窥综合
|
日韩精品久久无码人妻中文字幕
|
狼狼综合久久久久综合网
|