安装包准备
- Hadoop下载:Hadoop
- JDK 下载:JDK
- 注意:
- 所有安装及使用过程不要使用默认
root
用户,以下安装过程使用www
用户进行 - 当前
Hadoop
版本3.3.0
不支持JDK>=11
以上版本 Oracle
新版本JDK
更改了开源协议,需留意(OpenJDK未测试)
- 所有安装及使用过程不要使用默认
安装
JDK安装
- 解压
[hadoop@localhost ~]$ tar -zxvf jdk-8u275-linux-x64.tar.gz -C /opt/
- 环境变量配置
修改文件 /etc/profile
,文件末尾添加如下内容
# Java环境变量
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.275.b01-0.el7_9.x86_64
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
- 文件生效
[hadoop@localhost ~]$ source /etc/profile
JDK
安装验证
[hadoop@localhost ~]$ java -version
java version "1.8.0_211"
Java(TM) SE Runtime Environment (build 1.8.0_211-b12)
Java HotSpot(TM) 64-Bit Server VM (build 25.211-b12, mixed mode)
Hadoop安装
- 解压
# /opt/www 目录为用户 www 拥有权限的目录
[hadoop@localhost ~]$ tar -zxvf hadoop-3.3.0.tar.gz -C /opt/www/
- 环境变量配置
修改文件 /etc/profile
,文件末尾添加如下内容
# Hadoop环境变量
export HADOOP_HOME=/opt/www/hadoop-3.3.0
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
- 文件生效
[hadoop@localhost ~]$ source /etc/profile
- 配置文件更改(
/opt/www/hadoop-3.3.0/etc/hadoop
)- core-site.xml
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://10.183.159.133:9000</value> </property> <!-- 数据目录 --> <property> <name>hadoop.tmp.dir</name> <!-- /home/www/dfs/data 为用户 www 拥有权限的目录 --> <value>/home/www/dfs/data</value> </property> <!-- 客户端代理配置(我们项目中的客户端只有httpfs)--> <property> <name>hadoop.proxyuser.www.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.www.users</name> <value>root,www</value> </property> </configuration>
- hdfs-site.xml
<configuration> <!-- 副本数量,默认是3,我们单机就填1 --> <property> <name>dfs.replication</name> <value>1</value> </property> <!-- 开启权限认证,限制操作权限 --> <property> <name>dfs.permissions.enabled</name> <value>true</value> </property> <property> <name>dfs.namenode.name.dir</name> <!--/home/www/dfs/namenode 为用户 www 拥有权限的目录 --> <value>/home/www/dfs/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <!--/home/www/dfs/datanode 为用户 www 拥有权限的目录 --> <value>/home/www/dfs/datanode</value> </property> <property> <name>dfs.http.address</name> <!-- NameNode web管理端口 --> <value>0.0.0.0:9870</value> </property> </configuration>
- 服务启动
- 第一次启动需要格式化
HDFS
[hadoop@localhost ~]$ hdfs namenode -format
- 启动NameNode
[hadoop@localhost ~]$ hdfs --daemon start namenode
- 启动DataNode
[hadoop@localhost ~]$ hdfs --daemon start datanode
- 启动 http 服务
[hadoop@localhost ~]$ hdfs --daemon start httpfs
- 第一次启动需要格式化
- 服务启动验证
jps
命令
[hadoop@localhost ~]$ jps 36624 DataNode 33621 Jps 36313 NameNode 36841 HttpFSServerWebServer
web
界面:http://IP:9870/
- 如果启动失败,可以查看
%HADOOP_HOME%/logs/
目录下的日志进行错误排查
来源:oschina
链接:https://my.oschina.net/yangcxx/blog/4953669