Spark完全分布式集群搭建【Spark2.4.4+Hadoop3.2.1】
一.安装Linux 需要:3台CentOS7虚拟机 注意: 虚拟机的网络设置为NAT模式,NAT模式可以在断网的情况下连接上虚拟机而桥架模式不行! 二.设置静态IP 跳转目录到: 修改IP设置: 备注:执行scp命令拷贝设置文件到另外两个节点,修改IP分别为192.168.136.8和192.168.136.9 三.安装JDK 参考我的博客: https://www.cnblogs.com/yszd/p/10140327.html 四.运行Spark预编译包中的实例 1.测试Scala代码实例 执行: 运行Scala版本计算Pi的代码实例结果: 表示运行成功! 2.测试python代码实例 执行: 运行python版本计算Pi的代码实例,注意,若要是遇到下面的异常: 表示没有指定ip,这是需要修改配置文件spark-env.sh,前往conf目录下执行 拷贝配置模板文件,并修改为spark-env.sh,执行 打开配置文件,添加,指定默认ip。 然后继续执行计算Pi代码命令: 结果如下: 表示执行成功! 五.本地体验Spark 1