大数据(2)---HDFS集群搭建
一、准备工作 1. 准备几台机器,我这里使用 VMware 准备了四台机器, 一个 name node ,三个 data node 。 VMware 安装虚拟机: https://www.cnblogs.com/nijunyang/p/12001312.html 2.Hadoop 生态几乎都是用的 java 开发的,因此四台机器还需要 安装 JDK 。 3. 集群内 主机域名映射 ,将四台机器的 IP 和主机名映射分别写到 hosts 文件中 ( 切记主机名不要带非法字符 ,图片中的下划线 ”_” 请忽略 ) vim /etc/hosts 配好一个之后可以直接将这个复制到其他机器上面去,不用每台都去配置: scp /etc/hosts nijunyang69:/etc/ scp /etc/hosts nijunyang70:/etc/ scp /etc/hosts nijunyang71:/etc/ 二、 hdfs 集群安装 1. 下载 hadoop 安装包到 linux 服务器上面,并进行解压,我这里使用的的 2.8.5 , tar -zxvf hadoop-2.8.5.tar.gz 2. hadoop 指定 java 环境变量 : hadoop-2.8.5/etc/hadoop/hadoop-env.sh 文件中指定 java