拓扑

SDN第四次上机作业

蓝咒 提交于 2019-11-27 11:55:07
SDN第四次上机作业 实验目的 1、使用图形化界面搭建拓扑如下并连接控制器 2、使用python脚本搭建拓扑如下并通过命令行连接控制器 3、使用任一种方法搭建拓扑连接控制器后下发流表 实验步骤 1.建立以下拓扑,并连接上ODL控制器。 2.利用ODL下发流表,使得h3在10s内ping不通h1,10s后恢复。 3.借助Postman通过ODL的北向接口下发流表,再利用ODL北向接口查看已下发的流表。 来源: http://www.cnblogs.com/ZHOULR/p/8076490.html

# SDN第四次上机作业

為{幸葍}努か 提交于 2019-11-27 11:54:55
SDN第四次上机作业 SDN第4次上机作业 作业链接 实验目的 1、使用图形化界面搭建拓扑如下并连接控制器 2、使用python脚本搭建拓扑如下并通过命令行连接控制器 3、使用任一种方法搭建拓扑连接控制器后下发流表 实验步骤 1.建立以下拓扑,并连接上ODL控制器。 2.利用ODL下发流表,使得h3在10s内ping不通h1,20s后恢复。 3.借助Postman通过ODL的北向接口下发流表,再利用ODL北向接口查看已下发的流表。 来源: http://www.cnblogs.com/yksrz/p/8110628.html

SDN第四次上机作业

最后都变了- 提交于 2019-11-27 11:54:41
实验目的 1、使用图形化界面搭建拓扑如下并连接控制器 2、使用python脚本搭建拓扑如下并通过命令行连接控制器 3、使用任一种方法搭建拓扑连接控制器后下发流表 实验步骤 1.建立以下拓扑,并连接上ODL控制器。 2.利用ODL下发流表,使得h3在10s内ping不通h1,10s后恢复。 3.借助Postman通过ODL的北向接口下发流表,再利用ODL北向接口查看已下发的流表。 提交要求:Postman 下发流表 及 查看流表 的截图(上图为查看流表的示例截图) 下发流表: 查看流表 来源: http://www.cnblogs.com/karen-m/p/8098726.html

SDN第5次上机作业

纵饮孤独 提交于 2019-11-27 10:11:18
SDN第5次上机作业 实验目的 1、搭建如下拓扑并连接控制器 2、下发相关流表和组表实现负载均衡 3、抓包分析验证负载均衡 实验步骤 1.建立以下拓扑,并连接上ODL控制器。 提交要求:ODL拓扑界面截图(如上图所示) 2.利用ODL下发组表、流表,实现建议负载均衡 提交要求:利用 sudo ovs-ofctl dump-flows br0 -O OpenFlow13 及 sudo ovs-ofctl dump-groups SW -O OpenFlow13 查看的截图 3.利用Wireshark验证负载均衡的实现 s4-eth1 s4-eth2 s4-eth3 提交要求:分别对s4各个端口进行抓包,验证负载均衡 来源: http://www.cnblogs.com/easteast/p/8125383.html

109 Storm常用操作命令

烂漫一生 提交于 2019-11-27 03:16:48
有许多简单且有用的命令可以用来管理拓扑,它们可以提交、杀死、禁用、再平衡拓扑。 提交任务命令格式: storm jar 【jar路径】 【拓扑包名.拓扑类名】 【拓扑名称】 bin/storm jar examples/storm-starter/storm-starter-topologies-0.9.6.jar storm.starter.WordCountTopology wordcount 杀死任务命令格式: storm kill 【拓扑名称】 -w 10(执行kill命令时可以通过-w [等待秒数]指定拓扑停用以后的等待时间) storm kill topology-name -w 10 停用任务命令格式: storm deactivte 【拓扑名称】 storm deactivte topology-name 我们能够挂起或停用运行中的拓扑。当停用拓扑时,所有已分发的元组都会得到处理,但是spouts的nextTuple方法不会被调用。销毁一个拓扑,可以使用kill命令。它会以一种安全的方式销毁一个拓扑,首先停用拓扑,在等待拓扑消息的时间段内允许拓扑完成当前的数据流。 启用任务命令格式: storm activate【拓扑名称】 storm activate topology-name 重新部署任务命令格式 :storm rebalance 【拓扑名称】 storm

Storm介绍及安装部署

笑着哭i 提交于 2019-11-26 12:16:27
Storm 是Twitter开源的分布式实时大数据处理框架,最早开源于github,从0.9.1版本之后,归于Apache社区,被业界称为实时版Hadoop。随着越来越多的场景对Hadoop的MapReduce高延迟无法容忍,比如网站统计、推荐系统、预警系统、金融系统(高频交易、股票)等等, 大数据实时处理解决方案(流计算) 的应用日趋广泛,目前已是分布式技术领域最新爆发点,而Storm更是流计算技术中的佼佼者和主流。 storm核心组件 Nimbus :即Storm的Master,负责资源分配和任务调度。一个Storm集群只有一个Nimbus。 Supervisor :即Storm的Slave,负责接收Nimbus分配的任务,管理所有Worker,一个Supervisor节点中包含多个Worker进程。 Worker :工作进程,每个工作进程中都有多个Task。 Task :任务,在 Storm 集群中每个 Spout 和 Bolt 都由若干个任务(tasks)来执行。每个任务都与一个执行线程相对应。 Topology :计算拓扑,Storm 的拓扑是对实时计算应用逻辑的封装,它的作用与 MapReduce 的任务(Job)很相似,区别在于 MapReduce 的一个 Job 在得到结果之后总会结束,而拓扑会一直在集群中运行,直到你手动去终止它。拓扑还可以理解成由一系列通过数据流