1.hbase集群增加节点
假设新增节点ip为:192.168.1.10,slave2
1.修改/etc/hosts文件,在所有节点(除新加节点)上运行如下命令以追加新机器名与ip绑定到host文件
然后将hosts文件复制到slave2
echo ‘192.168.1.10’ slave2 >> /etc/hosts
2.修改…/hadoop-2.6.5/etc/hadoop/slaves文件,在所有节点上运行如下命令以追加新机器名
到slaves文件
echo ‘slave2’ >> …/hadoop-2.6.5/etc/hadoop/slaves(具体路径,这里是略写)
3.刷新集群节点,在主节点运行
…/hadoop-2.6.5/etc/hadoop/slaves dfsadmin -refershNodes
4.启动slave2,在slave2上运行
…/hadoop-2.6.5/etc/sbin/hadoop-daemon.sh start datanode
5.运行负载均衡,参数设置为5
…/hadoop-2.6.5/etc/bin/hdfs balancer -threshold 5
6.增加hbase分区服务器,在除新加节点外所有节点上运行如下命令以将新节点加入hbase分区服务列表
echo ‘slave2’ >> …/hbase-1.2.6/conf/regionservers
7.启动hbase分区服务器,在slave2上运行
…/hbase-1.2.6/bin/hbase-daemon.sh start regionserver
1.hbase集群删除节点
1.下线hbase分区服务器,在slave2上执行,该节点下线过程中,会将数据都转移到集群中其他在线的
节点上
…/hbase-1.2.6/bin/graceful_stop.sh slave2
2.hadoop配置数据节点下线,在…/hadoop-2.6.5/etc/hadoop/hdfs-site.xml中配置,注意:slaves
文件之前已经存在,只需新建exclude-slaves文件,然后在该文件中添加一行内容slave2,表示将
slave2节点排除
dfs.hosts
…/hadoop-2.6.5/etc/hadoop/slaves
3.下线hadoop数据节点,执行刷新命令
…/hadoop-2.6.5/bin/hadoop dfsadmin -refreshNodes
4.执行 hadoop dfsadmin -report 或者用浏览器 50070 端口,可以看到执行过程
5.清理slave2,将slaves与exclude-slaves文件中slave2这行数据删除,然后执行刷新hadoop节点命令
至此slave2已经下线成功了
来源:51CTO
作者:王文友
链接:https://blog.csdn.net/big_data_study/article/details/100121424