安装单机habase报错,好像是hdfs ha zookeeperr问题,单机还需要hdfs ha zookeeperr么

请教一下zookeeper配置单机为集群模式,无法启动的问题_java吧_百度贴吧
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&签到排名:今日本吧第个签到,本吧因你更精彩,明天继续来努力!
本吧签到人数:0成为超级会员,使用一键签到本月漏签0次!成为超级会员,赠送8张补签卡连续签到:天&&累计签到:天超级会员单次开通12个月以上,赠送连续签到卡3张
关注:571,681贴子:
请教一下zookeeper配置单机为集群模式,无法启动的问题收藏
这个是1号服务的zoo.cfg
2号和3号只是dataDir、dataLogDir、clinetPort不同myid文件我也放好位置,里面对应写好相关序号,可是我启动server的时候,窗口跳一下就没有了,怎么回事,有了解的大神帮帮忙
java培训---美国上市公司出品,入学签订就业协议,名企疯抢达内学员.java,O基础小班授课,java专家领衔授课,免费试听,满意后付款!
没玩过集群
我一个不小心把服务搭建起来了,拿出来共享一下
登录百度帐号推荐应用
为兴趣而生,贴吧更懂你。或zookeeper报错解决 -
- ITeye技术网站
博客分类:
在安装完毕zookeeper后启动客户端连接zkCli.sh,一直循环报下边的错误
03:32:31,748 [myid:] - INFO
[main-SendThread(localhost:2181):ClientCnxn$SendThread@975] - Opening socket connection to server localhost/127.0.0.1:2181. Will not attempt to authenticate using SASL (unknown error) 03:32:31,749 [myid:] - INFO
[main-SendThread(localhost:2181):ClientCnxn$SendThread@852] - Socket connection established to localhost/127.0.0.1:2181, initiating session 03:32:31,750 [myid:] - INFO
[main-SendThread(localhost:2181):ClientCnxn$SendThread@1098] - Unable to read additional data from server sessionid 0x0, likely server has closed socket, closing socket connection and attempting reconnect
起初以为是配置错误,但反复检查后确信不配置的问题。
出错原因:在配置主机名后没有重启,主机名没生效,重启机器就好了。
shouwangv6
浏览: 6463 次
来自: 上海Hadoop2的HA安装(high availability):JournalNode+ zookeeper - 疯狂泰克-找到你想要的技术好文 | 最红博
当前位置:
Hadoop2的HA安装(high availability):JournalNode+ zookeeper
前面介绍过使用NFS+zookeeper来解决namenode单点失败问题,因为NFS可能也会存在单点问题,所以hadoop提供了一种叫做JournalNode技术,这项技术可以在JournalNode节点间共享数据
我们来介绍这一种技术:JournalNode+ zookeeper
Hadoop 版本:2.2.0
OS 版本: Centos6.4
Jdk 版本: jdk1.6.0_32
192.168.124.135
NameNode, DataNode,
ResourceManager, NodeManager
JournalNode
192.168.124.136
DataNode, NodeManager
JournalNode
192.168.124.137
DataNode, NodeManager
JournalNode
在这里就不介绍安装zookeeper,直接使用前面nfs+zookeeper安装好的zookeeper
JournalNode也不需要安装,通过配置就可以。
直接配置hadooper
vi etc/hadoop/hadoop-env.sh 修改jdk位置
export JAVA_HOME=/home/hadoop/jdk1.6.0_32
vi etc/hadoop/mapred-env.sh修改jdk位置
export JAVA_HOME=/home/hadoop/jdk1.6.0_32
vi etc/hadoop/yarn-env.sh修改jdk位置
export JAVA_HOME=/home/hadoop/jdk1.6.0_32
vi etc/hadoop/core-site.xml
&configuration&
&&& &property&
&&&&&&& &name&hadoop.tmp.dir&/name&
&&&&&&& &value&/home/hadoop/repo3/tmp&/value&
&&&&&&& &description&A base for other temporary directories.&/description&
&&& &/property&
&&& &property&
&&&&&&& &name&fs.defaultFS&/name&
&&&&&&& &value&hdfs://mycluster&/value&
&&& &/property&
&&& &property&
&&&&&&& &name&dfs.journalnode.edits.dir&/name&
&&&&&&& &value&/home/hadoop/repo3/journal&/value&
&&& &/property&
&&& &property&
&&&&&&& &name&ha.zookeeper.quorum&/name&
&&&&&&& &value&hadoop1:2181,hadoop2:2181,hadoop3:2181&/value&
& &&&/property&
&/configuration&
vi etc/hadoop/hdfs-site.xml
&configuration&
&&& &property&
&&&&&&& &name&dfs.replication&/name&
&&&&&&& &value&2&/value&
&&& &/property&
&&& &property&
&&&&&&& &name&dfs.namenode.name.dir&/name&
&&&&&&& &value&/home/hadoop/repo3/name&/value&
&&& &/property&
&&& &property&
&&&&&&& &name&dfs.datanode.data.dir&/name&
&&&&&&& &value&/home/hadoop/repo3/data&/value&
&&& &/property&
&&&&&&& &property&
&&&&&&& &name&dfs.nameservices&/name&
&&&&&&& &value&mycluster&/value&
&&& &/property&
&&&&&&& &property&
&&&&&&& &name&dfs.ha.namenodes.mycluster&/name&
&&&&&&& &value&hadoop1,hadoop2&/value&
&&& &/property&
&&&&&&& &property&
&&&&&&& &name&dfs.namenode.rpc-address.mycluster.hadoop1&/name&
&&&&&&& &value&hadoop1:9000&/value&
&&& &/property&
&&&&&&& &property&
&&&&&&& &name&dfs.namenode.http-address.mycluster.hadoop1&/name&
&&&&&&& &value&hadoop1:50070&/value&
&&& &/property&
&&&&&&& &property&
&&&&&&& &name&dfs.namenode.rpc-address.mycluster.hadoop2&/name&
&&&&&&& &value&hadoop2:9000&/value&
&&& &/property&
&&&&&&& &property&
&&&&&&& &name&dfs.namenode.http-address.mycluster.hadoop2&/name&
&&&&&&& &value&hadoop2:50070&/value&
&&& &/property&
&&& &property&
&&&&& &name&dfs.namenode.shared.edits.dir&/name&
&&&&& &value&qjournal://hadoop1:8485;hadoop2:8485;hadoop3:8485/mycluster&/value&
&&& &/property&
&&& &property&
&&&&&&& &name&dfs.client.failover.proxy.provider.mycluster&/name&&&&&&&& &value&org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider&/value&
&&& &/property&
&&& &property&
&&&&&&& &name&dfs.ha.fencing.methods&/name&
&&&&&&& &value&sshfence&/value&
&&& &/property&
&&&&&&& &property&
&&&&&&& &name&dfs.ha.fencing.ssh.private-key-files&/name&
&&&&&&& &value&/home/hadoop/.ssh/id_rsa&/value&
&&& &/property&
&&&&&& &&property&
&&&&&&& &name&dfs.ha.automatic-failover.enabled&/name&
&&&&&&& &value&true&/value&
&&& &/property&
&/configuration&
vi etc/hadoop/yarn-site.xml
&configuration&
&&& &property&
&&&&&&& &description&the valid service name&/description&
&&&&&&& &name&yarn.nodemanager.aux-services&/name&
&&&&&&& &value&mapreduce_shuffle&/value&
&&& &/property&
&&& &property&
&&&&&&& &description&The hostname of the RM.&/description&
&&&&&&& &name&yarn.resourcemanager.hostname&/name&
&&&&&&& &value&hadoop1&/value&
& &&&/property&
&/configuration&
vi etc/hadoop/mapred-site.xml
&configuration&
&&& &property&
&&&&&&& &name&mapreduce.framework.name&/name&
&&&&&&& &value&yarn&/value&
&&& &/property&
&/configuration&
vi etc/hadoop/slaves
运行hadoop
启动zookeeper,在hadoop1 ,hadoop2, hadoop3上运行
cd /home/hadoop/zookeeper-3.4.5/bin
./zkServer.sh& start
格式化namenode和failovercontroler
failovercontroler也需要格式化:&bin/hdfs zkfc -formatZK
在hadoop1节点上运行: bin/hdfs namenode -format -clusterid mycluster
在hadoop2节点上的namenode信息需要与hadoop1节点同步,不能通过简单的格式化做到,hadoop2节点上的namenode需要向hadoop1的namenode发送数据请求。因此我们还需要启动hadoop1上的namenode.
& 在hadoop1上运行:&bin/hdfs namenode
& 在hadoop3上运行:bin/hdfs namenode& -bootstrapStandby
最后关闭hadoop1上的namenode,然后启动整个hadoop集群。
启动hadoop集群
cd /home/hadoop/hadoop-2.2.0
sbin/start-all.sh
从图上可以看出,先启动namenode,再启动datanode, 再启动journalnode, 再启动ZK failover controller, 再启动resourcemanger, 最后启动nodemanager。
使用jps查看启动的进程
在hadoop1上运行jps
在hadoop2上运行jps
在hadoop3上运行jps
查看namenode的状态
& bin/hdfs haadmin -getServiceState hadoop1
& bin/hdfs haadmin -getServiceState hadoop2
从图上可以看出hadoop2上的namenode处于active状态,而hadoop1上的namenode处于standby状态
这些信息也可以通过Hadoop的web界面得到。
在浏览器里输入:http://hadoop1:50070
在浏览器里输入:http://hadoop2:50070
这里就不介绍failover后,有兴趣的可以看看nfs+zookeeper相关的内容
文章来源于网络
转载时请以 超链接的形式 注明:转自
&&&&&&&&&&&&&&&&&&
架构/云最新更新文章
架构/云热门排行文章
最新评论文章}

我要回帖

更多关于 zookeeper单机安装 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信