hadoop HA搭建

不羁的心 提交于 2019-12-24 01:08:11

概述

hadoop2中NameNode可以有多个(目前只支持2个)。每一个都有相同的职能。一个是active状态的,一个是standby状态的。当集群运行时,只有active状态的NameNode是正常工作的,standby状态的NameNode是处于待命状态的,时刻同步active状态NameNode的数据。一旦active状态的NameNode不能工作,standby状态的NameNode就可以转变为active状态的,就可以继续工作了。

2个NameNode的数据其实是实时共享的。新HDFS采用了一种共享机制,Quorum Journal Node(JournalNode)集群或者Nnetwork File System(NFS)进行共享。NFS是操作系统层面的,JournalNode是hadoop层面的,我们这里使用JournalNode集群进行数据共享(这也是主流的做法)。JournalNode的架构图如下:

两个NameNode为了数据同步,会通过一组称作JournalNodes的独立进程进行相互通信。当active状态的NameNode的命名空间有任何修改时,会告知大部分的JournalNodes进程。standby状态的NameNode有能力读取JNs中的变更信息,并且一直监控edit log的变化,把变化应用于自己的命名空间。standby可以确保在集群出错时,命名空间状态已经完全同步了。

对于HA集群而言,确保同一时刻只有一个NameNode处于active状态是至关重要的。否则,两个NameNode的数据状态就会产生分歧,可能丢失数据,或者产生错误的结果。为了保证这点,这就需要利用使用ZooKeeper了。首先HDFS集群中的两个NameNode都在ZooKeeper中注册,当active状态的NameNode出故障时,ZooKeeper能检测到这种情况,它就会自动把standby状态的NameNode切换为active状态。

摘自:http://www.cnblogs.com/netbloomy/p/6660131.html

1、环境介绍

centos 6.8 

hadoop-2.6.0-cdh5.7.1

zookeeper-3.4.12

2、机器介绍

\ hosts 进程    
1 master0 nn,rm,jn,zkfc,dn,nm    
2 master1 nn,rm,jn,zkfc,dn,nm    
3 node1 jn,zk,nm,dn    
4 node2 jn,zk,nm,dn    
5 node3 jn,zk,nm,dn    

3、配置静态ip

vim /etc/sysconfig/network-scripts/ifcfg-eth0
vim  /etc/udev/rules.d/70-persistent-net.rules

4、生成密匙

ssh-keygen  -t  rsa 
ssh-copy-id -i ~/.ssh/id_rsa.pub wangfei@master0

5、创建用户wangfei,创建组bigdata,可以先创建组再创建用户的时候指定组useradd -G  bigdata wangfei

useradd wangfei (修改密码passwd wangfei)
groupadd bigdata
useradd -g bigdata wangfei 
chgrp -R bigdata /usr/local
chown -R wangfei /usr/local
chmod -R 775 /usr/local/
记录一下,本人用的root用户

6、选择一台机器解压,配置hadoop配置文件,(前提是jdk等环境安装好)

配置环境变量vim ~/.bash_profile

配置core-site.xml

<property>
  <name>fs.defaultFS</name>
  <value>hdfs://tkbd</value>
 </property>

 <!-- 指定hadoop临时目录 -->
 <property>
  <name>hadoop.tmp.dir</name>
  <value>/usr/local/hadoop-2.6.0/tmp</value>
 </property>

 <!-- 指定zookeeper地址 -->
 <property>
  <name>ha.zookeeper.quorum</name>
  <value>node1:2181,node2:2181,node3:2181</value>
 </property>

 <property>
  <name>ha.zookeeper.session-timeout.ms</name>
  <value>3000</value>
 </property>

配置hdfs-site.xml

<!--指定hdfs的nameservice为bdcluster,需要和core-site.xml中的保持一致 -->
 <property>
  <name>dfs.nameservices</name>
  <value>tkbd</value>
 </property>

 <!-- bdcluster下面有两个NameNode,分别是nn1,nn2 -->
 <property>
  <name>dfs.ha.namenodes.tkbd</name>
  <value>nn1,nn2</value>
 </property>

 <!-- nn1的RPC通信地址 -->
 <property>
  <name>dfs.namenode.rpc-address.tkbd.nn1</name>
  <value>master0:9000</value>
 </property>

 <!-- nn2的RPC通信地址 -->
 <property>
  <name>dfs.namenode.rpc-address.tkbd.nn2</name>
  <value>master1:9000</value>
 </property>

 <!-- nn1的http通信地址 -->
 <property>
  <name>dfs.namenode.http-address.tkbd.nn1</name>
  <value>master0:50070</value>
 </property>

 <!-- nn2的http通信地址 -->
 <property>
  <name>dfs.namenode.http-address.tkbd.nn2</name>
  <value>master1:50070</value>
 </property>

 <!-- 指定NameNode的元数据在JournalNode上的存放位置 -->
 <property>
  <name>dfs.namenode.shared.edits.dir</name>
  <value>qjournal://node1:8485;node2:8485;node3:8485/tkbd</value>
 </property>

 <!-- 指定JournalNode在本地磁盘存放数据的位置 -->
 <property>
  <name>dfs.journalnode.edits.dir</name>
  <value>/usr/local/hadoop-2.6.0/tmp/journal</value>
 </property>

 <property>
  <name>dfs.ha.automatic-failover.enabled</name>
  <value>true</value>
 </property>

 <!-- 配置失败自动切换实现方式 -->
 <property>
  <name>dfs.client.failover.proxy.provider.tkbd</name>
  <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
 </property>

 <!-- 配置隔离机制,多个机制用换行分割,即每个机制暂用一行 -->
 <property>
  <name>dfs.ha.fencing.methods</name>
  <value>
   sshfence
   shell(/bin/true)
  </value>
 </property>

 <!-- 使用sshfence隔离机制时需要ssh免密码登陆 -->
 <property>
  <name>dfs.ha.fencing.ssh.private-key-files</name>
  <value>/root/.ssh/id_rsa</value>
 </property>

 <!-- 配置sshfence隔离机制超时时间 -->
 <property>
  <name>dfs.ha.fencing.ssh.connect-timeout</name>
  <value>30000</value>
 </property>

 <!--指定namenode名称空间的存储地址 -->
 <property>
  <name>dfs.namenode.name.dir</name>
  <value>file:///usr/local/hadoop-2.6.0/hdfs/name</value>
 </property>

 <!--指定datanode数据存储地址 -->
 <property>
  <name>dfs.datanode.data.dir</name>
  <value>file:///usr/local/hadoop-2.6.0/hdfs/data</value>
 </property>

 <!--指定数据冗余份数 -->
 <property>
  <name>dfs.replication</name>
  <value>2</value>
 </property>

配置mapred-site.xml 

<property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
 </property>

 <!-- 配置 MapReduce JobHistory Server 地址 ,默认端口10020 -->
 <property>
  <name>mapreduce.jobhistory.address</name>
  <value>0.0.0.0:10020</value>
 </property>

 <!-- 配置 MapReduce JobHistory Server web ui 地址, 默认端口19888 -->
 <property>
  <name>mapreduce.jobhistory.webapp.address</name>
  <value>0.0.0.0:19888</value>
 </property>

配置yarn-site.xml


 <property>
  <name>yarn.resourcemanager.ha.enabled</name>
  <value>true</value>
 </property>

 <!--开启自动恢复功能 -->
 <property>
  <name>yarn.resourcemanager.recovery.enabled</name>
  <value>true</value>
 </property>

 <!-- 指定RM的cluster id -->
 <property>
  <name>yarn.resourcemanager.cluster-id</name>
  <value>yrc</value>
 </property>

 <!--配置resourcemanager -->
 <property>
  <name>yarn.resourcemanager.ha.rm-ids</name>
  <value>rm1,rm2</value>
 </property>

 <!-- 分别指定RM的地址 -->
 <property>
  <name>yarn.resourcemanager.hostname.rm1</name>
  <value>master0</value>
 </property>

 <property>
  <name>yarn.resourcemanager.hostname.rm2</name>
  <value>master1</value>
 </property>

 <!-- <property> <name>yarn.resourcemanager.ha.id</name> <value>rm1</value> 

  <description>If we want to launch more than one RM in single node,we need 

  this configuration</description> </property> -->

 <!-- 指定zk集群地址 -->
 <property>
  <name>ha.zookeeper.quorum</name>
  <value>node1:2181,node2:2181,node3:2181</value>
 </property>

 <!--配置与zookeeper的连接地址-->
 <property>
  <name>yarn.resourcemanager.zk-state-store.address</name>
  <value>node1:2181,node2:2181,node3:2181</value>
 </property>

 <property>
  <name>yarn.resourcemanager.store.class</name>
  <value>org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore</value>
 </property>

 <property>
  <name>yarn.resourcemanager.zk-address</name>
  <value>node1:2181,node2:2181,node3:2181</value>
 </property>

 <property>
  <name>yarn.resourcemanager.ha.automatic-failover.zk-base-path</name>
  <value>/yarn-leader-election</value>
  <description>Optionalsetting.Thedefaultvalueis/yarn-leader-election
  </description>
 </property>

 <property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
 </property>

配置hadoop-env.sh

export JAVA_HOME=/usr/local/software/jdk1.8.0_191
export CLASS_PATH=$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export HADOOP_HOME=/usr/local/hadoop-2.6.0
export HADOOP_PID_DIR=/usr/local/hadoop-2.6.0/pids
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="$HADOOP_OPTS-Djava.library.path=$HADOOP_HOME/lib/native"
export HADOOP_PREFIX=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HDFS_CONF_DIR=$HADOOP_HOME/etc/hadoop
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

配置slaves或者works

master0
master1
node1
node2
node3

7、格式化、启动

1.先启动zookeeper

./zkServer.sh start
验证:
./zkServer.sh status

2、启动journalnode集群

在master0上启动即可

hadoop-daemons.sh start journalnode

3、格式化zkfc,让在zookeeper中生成ha节点,在master0上执行即可

hdfs zkfc -formatZK

验证

./zkCli.sh node1:2181
ls /hadoop-ha

4、格式化hdfs

hadoop namenode -format

5、启动NameNode

1、首先在master0上启动active节点,执行如下命令
sbin/hadoop-daemon.sh start namenode

2、在master1上同步namenode的数据,同时启动standby的namenod
bin/hdfs namenode -bootstrapStandby
sbin/hadoop-daemon.sh start namenode

6、启动datanode

hadoop-daemons.sh start datanode

7、启动yarn

sbin/start-yarn.sh

8、启动ZKFC

sbin/hadoop-daemons.sh start zkfc

最后jps查看进程都在不在

9、nn ha相关操作

查看namenode工作状态 
hdfs haadmin -getServiceState nn1
将standby状态namenode切换到active
hdfs haadmin –transitionToActive nn1
将active状态namenode切换到standby
hdfs haadmin –transitionToStandby nn2

10、rm相关

NameNode HA操作完之后我们可以发现只有一个节点(这里是master0)启动,需要手动启动另外一个节点的resourcemanager

sbin/yarn-daemon.sh start resourcemanager
然后用以下指令查看resourcemanager状态
yarn rmadmin -getServiceState rm1
结果显示Active

yarn rmadmin -getServiceState rm2
而rm2是standby。
验证HA和NameNode HA同理,kill掉Active resourcemanager,则standby的resourcemanager则会转换为Active。
还有一条指令可以强制转换
yarn rmadmin –transitionToStandby rm1

 

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!