【Hadoop大数据平台组件搭建系列(七)】——HBase完全分布式组件配置

烂漫一生 提交于 2020-03-09 13:17:09

简介

本篇介绍Hadoop大数据平台组件中的HBase组件的搭建(搭建HBase前需搭建完成Hadoop以及zookeeper)

安装

解压Hbase并重命名

tar -zxvf /opt/software/hbase-1.2.12-bin.tar.gz -C /usr/local/scr/

添加Hbase环境变量并刷新环境变量

添加环境变量
#....hbase.....
export HBASE_HOME=/usr/local/scr/hbase
export PATH=$PATH:$HBASE_HOME/bin
刷新环境变量
source /etc/profile

修改配置文件hbase-env.sh

# 指定jdk路径
 export JAVA_HOME=/usr/local/src/jdk
# 加入hadoop配置文件的目录
 export HBASE_CLASSPATH=/usr/local/scr/hadoop/etc/hadoop
# 默认值是 true,hbase 在启动时自动开启 zookeeper,如需自己维护 zookeeper 集群需设置为 false
 export HBASE_MANAGES_ZK=false

修改配置文件hbase-site.xml

<configuration>
	<property>
		<!-- 指定 region server 的共享目录,用来持久化 HBase。这里指定的 HDFS 地址
	是要跟 core-site.xml 里面的 fs.defaultFS 的 HDFS 的 IP 地址或者域名、端口必须一致。 -->
		<name>hbase.rootdir</name>
		<value>hdfs://myha/hbase</value>
	</property>
        <property>
        		<!-- 启用 hbase 分布式模式 -->
                <name>hbase.cluster.distributed</name>
                <value>true</value>
        </property>
        <property>
        		<!-- Zookeeper 集群的地址列表,用逗号分割 -->
                <name>hbase.zookeeper.quorum</name>
                <value>master1,master2,slave1</value>
        </property>
        <property>
        		<!-- 指定数据拷贝 3 份,hdfs 默认是 3 份。我只设置了2份 -->
                <name>dfs.replication</name>
                <value>2</value>
        </property>
        <property>
        		<!-- 指定 hbase 的 master -->
                <name>hbase.master</name>
                <value>master1</value>
        </property>
        <property>
        		<!--zookooper配置、日志等的存储位置 -->
                <name>hbase.zookeeper.property.dataDir</name>
                <value>/usr/local/scr/hbase/tmp</value>
        </property>
</configuration>

修改配置文件regionservers

# 将配置好的Hadoop集群中的slaves节点名添加在该文件中
slave1
slave2

拷贝分发

scp -r /usr/local/scr/hbase/ slave1:/usr/local/scr/
scp -r /usr/local/scr/hbase/ slave2:/usr/local/scr/

启动Hbase

启动Hbase之前需先启动hadoop
start-hbase.sh

检验安装是否成功

查看web端	master IP地址:16010

在这里插入图片描述

最后,记得点赞哦!!!ღ( ´・ᴗ・` )比心!!!

系列文章:

【Hadoop大数据平台组件搭建系列】——Hadoop完全分布式搭建(基于CentOS7.4) 一站式解决!!!
【Hadoop大数据平台组件搭建系列(三)】——Hive组件配置
【Hadoop大数据平台组件搭建系列(四)】——Kafka组件配置
【Hadoop大数据平台组件搭建系列(五)】——MySQL组件配置(tar源码安装)
【Hadoop大数据平台组件搭建系列(六)】——Spark完全分布式组件配置
【Hadoop大数据平台组件搭建系列(七)】——HBase完全分布式组件配置

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!