大数据入门学习之环境搭建:VM、CentOS7安装,jdk1.8安装,Hadoop2.0安装及网络配置

限于喜欢 提交于 2019-12-12 08:28:57

 

一:环境搭建:VM、CentOS7安装及网络配置

大数据入门首先需要搭建环境,接下来的三篇文章均是环境搭建部分的内容。

首先我们要安装虚拟机及linux系统

一、安装虚拟机VM

官网下载VM虚拟机:这里下载的VMware-workstation-full-10.0.4,好像往后的高版本需要win系统为64位,根据自己的需求下载安装。

二、安装CentOS7

1、官网下载:我下载的是CentOS-7-x86_64-DVD-1804.iso文件。

2、安装过程(略):自行百度安装,按照步骤安装无问题,可根据需要选择最小化安装,安装至最后一步骤时最好创建一个用户。

3、复制出另外两台虚拟机,并对每台虚拟机命名为master、slave1、slave2。

三、网络配置

1、配置网络为NAT模式,三台均需要配置;

2、修改网卡配置,三台均需要修改

cd /etc/sysconfig/network-scripts

vim ifcfg-ens33 

添加内容:IPADDR=192.168.198.21   //ip地址

添加内容:NETMASK=255.255.255.0  

添加内容:GATEWAY=192.168.198.2  //网关

添加内容:DNS1=8.8.8.8

3、配置完成后重启网络服务

/etc/init.d/network restart  或

service network restart

4、测试访问外网是否通

curl www.baidu.com

ping www.baidu.com

5、分别用securecrt连接centos

5.1.如何安装及注册SecureCRT教程

http://blog.csdn.net/stephenbruce/article/details/48649625

5.2.如何用SecureCRT连接vm的虚拟机教程:

http://www.cnblogs.com/shuangxinye/p/6283171.html

6、修改hosts

vim /etc/hosts

7、修改hostname

hostnamectl set-hostname master  

使用这种方式修改,可以永久性的修改主机名称!

二:环境搭建:jdk1.8安装及环境配置

接下来就要安装在操作系统上运作的大数据核心hadoop分布式系统基础架构!Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS,Hadoop的框架最核心的设计就是:HDFS和MapReduce:HDFS为海量的数据提供了存储,而MapReduce为海量的数据提供了计算,如果你对大数据开发感兴趣,想系统学习大数据的话,可以加入大数据技术学习交流扣群:458数字345数字782获取学习资源,因此安装完hadoop以后我们可以进行hdfs文件存储、访问,也可以进行mapreduce实践操作,真正体验户在不了解分布式底层细节的情况下,开发分布式程序,充分利用集群的威力进行高速运算和存储。

首先要明白:hadoop需要以下两个软件才能进行搭建

hadoop-2.6.1.tar.gz

jdk-8u172-linux-x64.tar.gz

本文我们先安装java jdk1.8.0

一、设置共享文件夹

0. 安装vmware tools,在虚拟机中版本更新里面选取安装即可,若不成功,按如下安装:

1. mount /dev/cdrom/media 加载文件系统到指定的加载点,常用于挂在cdrom,使我们可以访问cdrom中的数据;

2. tar xvzf VmwareTools-9.6.2-/688356.tar.gz将安装文件夹拷贝至自己的目录中并解压;

3../vmware-install.pl进入解压好的目录后运行此安装命令;

4. vmware-hgfsclient查看共享目录此时应显示共享目录share-folder;

5. vmhgfs-fuse .host:/ /mnt/hgfs挂载目录;

6. cd /mnt/hgfs/share-folser进入目录。

二、安装jdk1.8

0. 从共享目录拷贝至安装目录并解压:

cp jdk-8u172-linux-x64.tar.gz /usr/local/src

tar xvzf jdk-8u172-linux-x64.tar.gz

1. 设置环境变量

vim ~/.bashrc

添加java路径如下:

#java  

export JAVA_HOME=/usr/local/src/jdk1.8.0_172

export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib

export PATH=$PATH:$JAVA_HOME/bin

2. 检查是否安装成功

java运行java;

which java查看java信息;

java -version查看java版本。

3. 拷贝解压包至slave1、slave2中并设置.bashrc文件

scp -rp jdk1.8.0-172 192.168.198.22:/usr/local/src/

scp -rp jdk1.8.0-172 192.168.198.23:/usr/local/src/

.bashrc文件配置和master中一样!

4. 分别检查三台机器都能运行java

至此java安装完成!

三、先安装一些依赖包

yum -y update #更新yum包

yum install -y vim

yum install -y net-tools

yum install -y gcc

yum install -y prel

yum install -y kernel-headers

三:环境搭建:Hadoop2.0安装及配置

首先要明白:hadoop需要以下两个软件才能进行搭建

hadoop-2.6.1.tar.gz

jdk-8u172-linux-x64.tar.gz(上篇已介绍)

一、安装Hadoop2.6.1并配置

0. 下载安装包至共享目录:

1.cp hadoop-2.6.1.tar.gz /usr/local/src拷贝安装包;

2.tar xvzf hadoop-2.6.1.tar.gz解压;

3. 创建临时目录及文件目录:

mkdir /usr/local/src/hadoop-2.6.1/tmp

mkdir /usr/local/src/hadoop-2.6.1/dfs/name

mkdir /usr/local/src/hadoop-2.6.1/dfs/data

4. 修改hadoop配置文件:

cd /usr/local/src/hadoop-2.6.1/etc/hadoop

1) vim hadoop-env.sh

export JAVA_HOME=/usr/local/src/jdk1.8.0_172

2) vim yarn-env.sh

export JAVA_HOME=/usr/local/src/jdk1.8.0_172

3) vim slaves

slave1

slave2

4) vim core-site.xml

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://192.168.198.21:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>file:/usr/local/src/hadoop-2.6.1/tmp</value>

</property>

</configuration>

5) vim hdfs-site.xml

<configuration>

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>master:9001</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>file:/usr/local/src/hadoop-2.6.1/dfs/name</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>file:/usr/local/src/hadoop-2.6.1/dfs/data</value>

</property>

<property>

<name>dfs.repliction</name>

<value>2此处设置为2比较合适,因为从节点为2个

</property>

</configuration>

6) vim mapred-site.xml(注:此文件需自己创建,不能用mapred-site.xml.template)

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

</configuration>

7) vim yarn-site.xml

<configuration>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

<value>org.apache.hadoop.mapred.ShuffleHandler</value>

</property>

<property>

<name>yarn.resourcemanager.address</name>

<value>master:8032</value>

</property>

<property>

<name>yarn.resourcemanager.scheduler.address</name>

<value>master:8030</value>

</property>

<property>

<name>yarn.resourcemanager.resource-tracker.address</name>

<value>master:8035</value>

</property>

<property>

<name>yarn.resourcemanager.admin.address</name>

<value>master:8033</value>

</property>

<property>

<name>yarn.resourcemanager.webapp.address</name>

<value>master:8088</value>

</property>

</configuration>

5.配置环境变量(注:三台机器都要配置)

vim ~/.bashrc

#hadoop

export HADOOP_HOME=/usr/local/src/hadoop-2.6.1

export PATH=$PATH:$HADOOP_HOME/bin

source ~/.bashrc

6. 拷贝安装包

scp -rp hadoop-2.6.1 192.168.198.22:/usr/local/src/

scp -rp hadoop-2.6.1 192.168.198.23:/usr/local/src/

7. 启动集群

在启动集群之前需按顺序做两件事:

1) 

关闭防火墙:

firewall-cmd --state 此时显示running

systemctl disabled firewalld 或

systemctl stop firewalld

在查看防火墙应该为not running即已关闭

关闭Selinux:

vim /etc/selinux/config

将SELINUX=””改为disabled重启后永久关闭

2) 格式化

hadoop namenode -formate

注:只能格式化一次,如果多次格式化可能引起错误,此时需要将之前建的tmp、data、name文件夹删除再重新建,在重新格式化!

3) 启动集群

cd /hadoop-2.6.1/sbin

./start-all.sh

4) 查看集群状态

master:

 

 

slave1

 

slave2:

 

8. 设置互信

1) 生成公钥

ssh-keygen 回车回车回车

2) 配置文件

cd ~/.ssh进入隐藏目录

获取master的公钥放在authorized_keys文件中:

cat id_rsa.pub > authorized_keys

将slave1、slave2的公钥复制到master上的authorized_keys文件中

再将authorized_keys文件拷贝至slave1、slave2上

scp -rp authorized_keys 192.168.198.22:~/.ssh

scp -rp authorized_keys 192.168.198.23:~/.ssh

3) 检测互信是否成功

在master上输入ssh salve1

将会切换为slave1主机名,说明成功

退出:exit

9. 集群操作

hadoop fs -ls /

hadoop fs -put 1.data /

等命令运行无误说明集群已经配置成功

10. 关闭集群

./sbin/hadoop stop-all.sh

至此,hadoop环境安装搭建完成,接下来可以进行实践了!

 

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!