vxlan

OpenStack入门之核心组件梳理(5)——Neutron篇

爱⌒轻易说出口 提交于 2020-03-17 22:51:34
OpenStack入门之核心组件梳理(5)——Neutron篇 前言 ​ 本文将讲解OpenStack核心组件之一的Neutron组件。希望阅读本文前,建议初学者提前认知云计算、Linux操作系统、服务器群集以及OpenStack概念以及架构图。本文主要是为了自行整理有关OpenStack的相关知识理论,也是同读者分享自己对OpenStack中Neutron下面的浅解。 ​ 友情链接:下面的三篇文章对于初学者或多或少可以帮你在宏观上了解云计算以及OpenStack。 ​ 云计算浅谈 ​ OpenStack概念以及核心组件概述 ​ OpenStack部署节点类型和架构 一、Neutron的基本概念 1.1Neutron的前世今生 ​ Neutron的前身是Quantum,Quantum英文为量子,Neutron英文翻译为中子,虽然笔者不知道这样来命名项目的具体原因,但从直观的感觉上就会觉得这个玩意不简单哈! ​ 其实最初OpenStack并没有将网络组件独立出来,为之成立单独的一个核心项目,最初是一个叫做Nova-network的网络模型,这种模型非常简单,就是一种单一的平面网络,如下图所示: ​ 但若熟悉网络知识就会发这种模式存在很大的缺点,比如: 单一网络有瓶颈,没有体现出云的特性(如可伸缩); 难以实现租户的隔离性; ​ 所以技术需要不断更新发展,相关的技术大佬经过思索,尝试

VXLAN技术

…衆ロ難τιáo~ 提交于 2020-03-07 10:46:16
CE3]dis bridge-domain The total number of bridge-domains is : 1 MAC_LRN: MAC learning; STAT: Statistics; SPLIT: Split-horizon; BC: Broadcast; MC: Unknown multicast; UC: Unknown unicast; *down: Administratively down; FWD: Forward; DSD: Discard; BDID State MAC-LRN STAT BC MC UC SPLIT Description 10 up enable disable FWD FWD FWD disable [CE3] [CE3]dis vxlan vni 10 VNI BD-ID State 10 10 up =========================================== <CE3>system-view immediately // 全局开启命令生效 commit ----------------------//每次需要敲,命令才可以生效 [CE3]interface GE 1/0/5 [CE3-GE1/0/5]dis this # interface GE1/0/5 shutdown #

基于mac表的vxlan转发

本秂侑毒 提交于 2020-02-12 12:20:16
基于基于mac表的vxlan转发依赖于两个表: 1、 VLAN和VXLAN的映射关系表 2、MAC地址表,里面包含了MAC 地址,VXLAN ID和远端VTEP IP地址的对应关系。 VTEP收到uplink主机的网络数据帧时,会先根据VLAN,查第一个表获得对应的VXLAN ID,然后根据VXLAN ID和目的MAC地址,查MAC地址表获取远端VTEP的IP地址。最后,VTEP会剥离VLAN Tag,按照VXLAN格式封装数据帧,发往远端的VTEP。 mac表学习 mac表学习和二层交换机类似。 1、VTEP收到的所有的VXLAN数据,VTEP会记录内层报文的源MAC地址,VXLAN ID和远端VTEP的IP地址,进而更新自己的MAC地址表。 2、flood learn VTEP在转发vxlan报文时,如果查找mac表没有发现dst mac相关的记录,就会开始执行flood learn操作。 flood learn通过IP 组播来控制 flood的范围 1、 采用多播模式, vm 发送 arp request 的 mac 广播报文时, vetp 会将 mac 广播报文封装在 本机组播 报文。 其中涉及广播mac地址和组播ip地址的转 。 2、 remotre Host 在接收多播报文时,会记录 <src mac of inner package, src vetp ip>, 来源

openstack高可用19-linuxbridge结合vxlan

[亡魂溺海] 提交于 2020-02-09 16:34:27
本文是整个按照neutron网络开始写的文章,如果以前只是使用linuxbridge结合vlan的模式,其实只要在其基础上稍加修改配置文件,并重启网络服务就好。需要修改的配置文件如下: 控制节点: /etc/neutron/plugins/ml2/ml2_conf.ini /etc/neutron/plugins/ml2/linuxbridge_agent.ini 重启服务 # systemctl restart neutron-server.service neutron-linuxbridge-agent.service neutron-dhcp-agent.service neutron-metadata-agent.service neutron-l3-agent.service 计算节点: /etc/neutron/plugins/ml2/linuxbridge_agent.ini 重启服务 # systemctl restart neutron-linuxbridge-agent.service 实验环境: eth0:10.30.1.208 eth1:无IP地址 eth2:192.168.248.1 node1 控制节点 eth0:10.30.1.203 eth1:无IP地址 eth2:192.168.248.3 node3 计算节点 eth0:10.30.1.204

IP技术 -- 11 VXLAN之二

蓝咒 提交于 2020-02-09 01:42:40
在数据中心大二层网络技术中有提到,Overlay技术是目前大二层网络最热点的技术,可适用于目前整个数据中心,甚至跨数据中心的大二层组网。 随着数据中心租户规模的越来越大,虚拟机的数量也大幅增加,此时传统二层网路的隔离技术VLAN因其Tag域只有12bit,仅能划分出4096个虚拟二层网络,已经无法满足大二层网络中标识大量用户集的需求,同时,为了使数据中心的资源得到灵活的调配,需要支持虚拟机跨分区,甚至跨数据中心的灵活迁移,这时基于VLAN的传统二层网络很难做到 虚拟机在迁移前后的IP和MAC地址不能改变 。 为了帮助数据中心完成上述挑战,VXLAN(Virtual eXtensible Local Area Network)技术应用而生,是一种在三层网络上构造虚拟化二层网络的技术。 首先,VXLAN引入了类似VLAN ID的用户标识,称为VXLAN Network Identifier(VNI),它由24bit组成,可以构划分出1600万个相互隔离的虚拟二层网络,可以支持大二层网络的用户隔离 其次,VXLAN使用MAC in UDP的封装方式,将虚拟机发出的原始以太报文,完整的封装在VXLAN信息中,在现有承载网络中进行透明传输,到了目的地,通过解封装VXLAN信息,将原始二层报文发给目标虚拟机,从而实现了虚拟机之间的相互通信,这样,虚拟机彻底摆脱了二三层网络的范围限制,可以跨设备

Open vSwitch的VxLAN隧道网络实验

∥☆過路亽.° 提交于 2020-02-06 00:36:04
实验参考 Open vSwitch的VxLAN隧道网络实验 实验步骤 1 预先配置 登录两台Mininet虚拟机或者是已安装OpenvSwitch的虚拟机。 查看两台虚拟机IP #ifconfig 验证OvS服务是否被启动好: # ps –ef|grep ovs OvS已启动 。 步骤1:分别在两台机器上创建网桥: #sudo ovs-vsctl add-br br0 #sudo ovs-vsctl add-br br1 步骤2:mn虚拟机上将eth0的IP赋给br1: #ifconfig eth0 0 up #ifconfig br1 30.0.1.13 up 给mn虚拟机的br1重新添加路由: #route add default gw 30.0.1.12 mn的路由如下显示: #sudo ovs-vsctl add-port br1 eth0 #ovs-vsctl show   步骤3:mn1虚拟机上将eth0的IP赋给br1: #ifconfig eth0 0 up #ifconfig br1 30.0.1.6 up 给mn1虚拟机的br1重新添加路由: #route add default gw 30.0.1.5    mn1虚拟机的路由显示如下: #ovs-vsctl add-port br1 eth0 #ovs-vsctl show 前期实验环境已准备好。 2

k8s基础-6-Flannel简介

安稳与你 提交于 2020-02-05 18:51:18
随着docker容器化兴起,云计算面对的挑战越来越大,例如:网络管理、存储等。一个数据中心很容易搞出成百上千个容器,这么多的容器我们需要如何管理呢?今天来介绍的flannel就是为了解决网络问题。 一、网络管理方案 目前使用最多的解决方案有两种: 直接路由和overlay network 。具体差异如下: 二、flannel网络解决方案backend 目前flannel有多种backend管理网络,常用的有三种:hostgw,udp,vxlan,三者差异如下: 下面是对vxlan、udp报文格式举例说明: 通过上面两张图可知,这两种方式区别:vxlan方式下面多出了:vxlan header和内部mac地址(Vtep的地址)并且内部源ip为vtep所在ip地址。对于vxlan说明,这里有一篇比较高质量文章,大家可参考《vxlan 协议原理简介》。 来源: CSDN 作者: JetBrains_孙健 链接: https://blog.csdn.net/sj349781478/article/details/104184954

大二层VXLAN的理解

ぃ、小莉子 提交于 2020-01-29 17:40:57
VLAN和VXLAN 目的相同 都是为了现实二层互访,因为二层的好处是可以屏蔽上层,二层的通讯是基于MAC地址 需求不同 VLAN 老的技术带来新的问题,vlan数量不够用 太过固定范围,无法满足现在的互联网移动时代 随着云计算的发展对于网络的要求和普通我们办公室要求已经完全不一样了,云计算是需要提供任何时间、任何地点都可以使用的需求服务 VXLAN 我们要访问任何的计算机都是基于IP,那么也就说IP是可以在任何有网的地方的出现的,那么VXLAN就需要借助IP层 利用IP层隧道技术实现二层互通 基于UDP 4789 配置解释 网络标识VNI (VXLAN Network Identifier) 用于区分VXLAN段,不同VXLAN段的租户不能直接进行二层通信 建立隧道2边的VNI需要一样,区别多租户的用户标识 广播域BD (Bridge Domain) 类似传统网络中采用VLAN划分广播域方法,在VXLAN网络中通过BD划分广播域 也就是我们创建vlan的动作 在VXLAN网络中,将VNI以1:1方式映射到广播域BD,一个BD就表示着一个广播域,同一个BD内的主机就可以进行二层互通 VXLAN隧道端点VTEP (VXLAN Tunnel Endpoints) VTEP可以对VXLAN报文进行封装和解封装 属于网络虚拟化功能概念层面 VXLAN报文中源IP地址为源端VTEP的IP地址

Tungsten Fabric如何支撑大规模云平台丨TF Meetup演讲实录

痴心易碎 提交于 2020-01-17 17:38:17
点击 下载 文档,查看本文所有相关资料。 https://163.53.94.133/assets/uploads/files/large-scale-cloud-yy.pdf 今天的分享偏技术一些,首先我们来看SDN的本质,然后从Tungsten Fabric(以下简称TF)架构上解析为什么比OVS更好,为什么能支撑更大的场景。 先来看云对网络的要求。首先是租户隔离,IaaS就是多租户,对于地址重用的要求,以VLAN的传统方式也是可以实现的。另外,传统VXLAN的协议或OVS的协议,只提供二层隔离的能力,没有三层隔离的能力,只要你的机器绑到外网IP,或者绑到公共的路由层面上,三层是可以互通的,所以说在租户隔离的层面,也有三层隔离的需求。 其次,云需要网络支持虚拟机跨机柜的迁移。VXLAN的话还要跨数据中心大二层,不是说不可以实现,但除了网络要求,还有存储的要求,比较难。虚拟机跨机柜的迁移,最难的是什么?传统网络架构,就是接入-汇聚-核心,路由器以下都是二层架构,机器可以在不同机架上迁移,但一个数据中心,云足够大的时候,二层基础网络是支撑不了整个云的,不同机架在不同三层里面,这时虚拟机做迁移就要要求IP地址不能变。 另外,还有网络功能和服务的要求。在云上面都是共享的资源池,如果以负载均衡为例,将一个性能强大的硬件负载均衡虚拟化给多个租户使用

H3C VXLAN实验

孤街浪徒 提交于 2020-01-11 23:36:09
1.如图在HCL模拟器中搭建好拓扑 2.说明:R1,R2,R3(Underlay)网络,也就是底层网络,底层网络用OSPF协议,实现LookBack地址之间可达 左侧部分:SW1的G1/0/1端口使用Trunk放行业务VLAN实现与R1的互联,R1的G0/1端口使用子接口的当时与SW1互联,右侧部分 和左侧配置相同。 3.R1具体配置如下: [R1]display CU version 7.1.075, Alpha 7571 sysname R1 ospf 1 router-id 1.1.1.1 area 0.0.0.0 network 1.1.1.1 0.0.0.0 network 10.0.0.0 0.0.0.3 vlan 1 l2vp enable vsi vxlan vxlan 10 tunnel 1 interface LoopBack0 ip address 1.1.1.1 255.255.255.255 interface GigabitEthernet0/0 port link-mode route combo enable copper ip address 10.0.0.1 255.255.255.252 interface GigabitEthernet0/1 port link-mode route combo enable copper interface