Open vSwitch

Centos8.3下用packstack安装四节点openstack-victoria版本

南笙酒味 提交于 2021-01-24 10:36:22
Centos8.3下用packstack安装四节点openstack-victoria版本 前言 环境准备 设置hostname 修改hosts文件 禁用NetworkManager并使用network-scripts配置网络 禁用防火墙和SELINUX 启用powertools 启用OpenStack repositories并安装packstack 生成应答文件并根据需要修改 开始部署 添加sudoer权限 访问horizon 前言 victoria作为openstack2020年的最后一个稳定版本,现已支持packstack安装,本文将根据自身环境部署经验,分享部署过程。 环境准备 四台centos8.3的虚机或物理机,具体配置如下: 控制节点:至少需要6G内存(内存过小安装过程可能报错),至少100G硬盘,2张网卡 网络节点:至少4G内存,3张网卡 计算节点:内存和硬盘尽量大(可以多创虚机),dvr模式3张网卡,非dvr2张网卡 网段划分:管理网(enps3)可以联网,数据网(enp0s8)内部网络,br-ex网卡(不设置ip) 设置hostname hostnamectl set-hostname controller 修改hosts文件 vim /etc/hosts 禁用NetworkManager并使用network-scripts配置网络

docker容器的学习笔记

拟墨画扇 提交于 2020-12-12 19:11:08
[TOC] Docker入门学习笔记(一) 什么是Docker? Docke的目标 Docker通常应用场景 Docker的基本组成 Docker基本操作 守护式容器 在容器中部署静态网站 1. 什么是Docker? 将应用程序自动部署到容器 2. Docke的目标 提供简单轻量的建模方式 职责的逻辑分离 快速高效的开发周期 鼓励面向服务的架构 3. Docker通常应用场景 使用Docker容器开发、测试、部署服务 创建隔离的运行环境 搭建多用户的平台即服务(PaaS)基础设施 提供软件即服务(SaaS)应用程序 高性能、超大规模的宿主机部署 4. Docker的基本组成 Docker Client 客户端 Docker Daemon 守护进程(c/s架构,守护进程是服务器,可以是本地,也可以是远程) Docker Image 镜像(一些只读层,root文件只有只读权限) Docker Container 容器(通过镜像启动,在只读层上增加一个可写层) Docker Registey 仓库(仓库存储镜像,公有和私有2种,公有的有Docker Hub,可以下载各种镜像) 补:Docker容器相关技术简介 Docker依赖的Linux内核特性 Namespaces命名空间 Control groups(cgroups)控制组 Namespaces命名空间(5种) PID

这是我见过最详细的“Docker学习宝典”,阿里云大佬纯手写总结的!

随声附和 提交于 2020-11-20 16:06:44
前言 什么是Docker?对于很多不了解Docker技术的人来说,Docker可能只是一条“蓝色的鲸鱼”。实际上,Docker技术的流行,还是因为开发人员对它的认可。目前,大部分的互联网公司都在使用docker,包括腾讯、京东、美团、新浪等等,腾讯的盖亚,就是基于docker的,可见docker对于一名开发人员的重要性。 学习docker与其他技术是一样的,从基础出发,由浅入深,熟练掌握docker,成为成熟的开发人员,才能更受大厂青睐。 为了让更多的开发人员学习好docker,这份docker学习宝典贡献给大家吧! 当然文章会将这份docker学习宝典的章节目录内容截图展示出来,若你需要完整的pdf版,请添加VX:tkzl6666 免费领取 第一部分:Docker初级技能(基础入门) 1.重新认识Docker与容器 (what?why?Docker与虚拟化) 内容展示 2.Docker核心概念与安装配置 (核心概念+安装Docker引擎+配置Docker服务+推荐实践环境) 3.使用Docker镜像 (获取镜像+查看镜像信息+搜寻镜像+删除和清理镜像+创建镜像+存出和载入镜像+上传镜像) 4.操作Docker容器 (创建容器+停止容器+进入容器+删除容器+导入和导出容器+查看容器+其他容器命令) 5.访问Docker仓库 (Dokcer Hub公共镜像市场+第三方镜像市场

Docker网络解决方案

試著忘記壹切 提交于 2020-10-29 05:25:33
原文链接: https://www.cnblogs.com/kevingrace/p/6859114.html Docker跨主机容器间网络通信实现的工具有Pipework、Flannel、Weave、Open vSwitch(虚拟交换机)、Calico, 其中Pipework、Weave、Flannel,三者的区别是: Weave的思路 在每个宿主机上布置一个特殊的route的容器,不同宿主机的route容器连接起来。 route拦截所有普通容器的ip请求,并通过udp包发送到其他宿主机上的普通容器。这样在跨机的多个容器端看到的就是同一个扁平网络。 weave解决了网络问题,不过部署依然是单机的。 Flannel的思路 Flannel是CoreOS团队针对Kubernetes设计的一个网络规划服务,简单来说,它的功能是让集群中的不同节点主机创建的Docker容器都具有全集群唯一的虚拟IP地址。但在默认的Docker配置中,每个节点上的Docker服务会分别负责所在节点容器的IP分配。这样导致的一个问题是,不同节点上容器可能获得相同的内外IP地址。并使这些容器之间能够之间通过IP地址相互找到,也就是相互ping通。Flannel设计目的就是为集群中所有节点重新规划IP地址的使用规则,从而使得不同节点上的容器能够获得"同属一个内网"且"不重复的"IP地址

数据中心虚拟网络接入技术 — VEB、vSwitch、EVB、VN-Tg、VEPA、SR-IOV

若如初见. 提交于 2020-08-12 23:59:28
目录 文章目录 目录 前言 VEB 技术 vSwitch HW VEB 虚拟机流量感知技术 EVB VEPA 多通道技术(Multichannel Technology) BPE VN-Tag 前言 数据中心虚拟网络接入技术,即:虚拟机接入到物理网络中所激发的网络虚拟化技术。 VEB 技术 VEB(Virtual Ethernet Bridge,虚拟以太网交换机)是虚拟机与数据中心服务器网络接入层之间的一个新的网络层。常见的有 软件 和 硬件 两种实现方式。 vSwitch 以软件实现的 vSwitch :实现方式简单,技术兼容性好,但也存在着占用 CPU 资源、虚拟机的流量监管、虚拟机的网络策略实施以及 vSwitch 管理的可扩展性等问题。典型软件有:Open vSwitch、VMware ESXi。 VMware ESXi,由 VMM 内嵌的 VEB: Open vSwitch,在服务器上运行的(第三方)VEB: vSwitch 方案具有以下优点: 虚拟机间报文转发性能好。vSwitch 实现了虚拟机之间报文的二层软件转发,转发能力只受限于 CPU 性能、内存总线带宽,因此虚拟机间报文的转发性能(带宽、延迟)非常好。 节省接入层物理交换机设备。例如,数据中心需要部署 WEB 服务器,且 WEB 服务器网关指向防火墙。这里可将一台服务器虚拟化成多个虚拟机,每个虚拟机作为一个

博云成为容器云代表性厂商,入选Gartner《2020年中国ICT技术成熟度曲线报告》

允我心安 提交于 2020-08-05 11:18:18
近日,全球权威的信息技术研究和分析公司 Gartner 发布了《Hype Cycle for ICT in China, 2020》报告即“2020中国 ICT 技术成熟度曲线报告”,其中容器即服务( CaaS )为新兴技术热点,取得了飞速成长,且市场对容器技术的关注与兴趣仍在急剧上升中。BoCloud博云作为国内容器云领域( CaaS )的领军企业入选该报告,被评为 CaaS 容器云“代表性厂商”( Sample Vendor )。 技术成熟度曲线是 Gartner 为企业提供的评估新技术成熟度的典型工具。新兴技术是支持企业数字化转型的关键创新引擎,中国 ICT 技术成熟度曲线是企业用户和技术厂商提供评估新技术成熟度的典型工具,也是评估新兴数字化技术趋势、技术潜力和商业潜力提供重要依据。 Gartner 容器平台是中国ICT市场热点 Gartner 指出,对于企业而言,2020年数字化转型仍然是高度优先事项。企业正在经历从技术导向向服务导向的转变,其中以容器、DevOps、多云平台为代表的现代化基础设施平台是这些企业需要重点关注的三大方向之一。报告中显示,CaaS(容器即服务)作为新兴技术热点,取得了飞速成长,由于人们对容器运行时的采用越来越多,市场对容器技术的关注与兴趣仍在急剧上升中。 Gartner 指出,云原生应用程序需要高度的基础设施自动化、专业化的操作能力,但这对于企业

DPDK+OpenvSwitch-centos7.4安装

限于喜欢 提交于 2020-05-09 10:20:14
系统版本 [root@controller ~]# cat /etc/redhat-release CentOS Linux release 7.4.1708 (Core) DPDK版本: dpdk-18.02 硬件支持检查: $grep hpet/proc/timer_list //需支持hpet 如无显示,需设置BIOS:Advanced -> PCH-IO Configuration -> High Precision Timer ->(Change from Disabled to Enabled if necessary) [root@controller ~]# grep hpet /proc/timer_list Clock Event Device: hpet set_next_event: hpet_legacy_next_event set_mode: hpet_legacy_set_mode 安装必要软件: yum install -y lrzsz gcc make numactl-devel pciutils 安装kernel-devel和kernel-headers 需要跟自己的内核版本对应上,我的是3.10.0-693.el7.x86_64(centos7.4),那就需要安装对应的的kernel-devel-3.10.0-693.el7.centos

Linux 操作系统原理 — 网络硬件卸载

你说的曾经没有我的故事 提交于 2020-05-05 15:52:13
目录 文章目录 目录 网络 Offload 交换 Offload 网络 Offload 网络 Offload,主要是指将原本在内核网络协议栈中进行的 IP 分片、TCP 分段、重组、checksum 校验等操作,转移到网卡硬件中进行,使得 CPU 的发包路径更短,消耗更低,从而提高处理性能。 一开始这些 Offload 功能都是在网卡上针对特定功能设计一个专门的电路并且带有很小的缓存,去做专门的事情。后来直接在网卡上部署一个可编程的通用的小型 CPU,一般称为 网络协处理器 ,就是现在的智能网卡。智能网卡的协处理器可以先对该数据包进行一些预处理,根据处理结果考虑是不是要把数据包发送给主机 CPU,智能网卡中的 Offload 功能一般是使用 eBPF 编程来实现的。 交换 Offload Linux 4.0 引入了 switchdev 框架,它代表对一类拥有 “交换” 能力芯片的多网口设备的抽象。其中每一个网口就是一个 Port,在 switchdev 框架中被注册成为一个 net_device。 switchdev 起源于 Open vSwitch 项目,由 Jiři Pirko 在 2014 年 9 月首次提出。在 2015 年 2 月的 Netdev 0.1 会议上,网络开发人员决定扩展并采用 switchdev 作为硬件交换机芯片的通用解决方案。switchdev

使用devstack/pike部署多节点实验

陌路散爱 提交于 2020-05-01 04:43:01
[TOC] 第一步:安装Ubuntu16.04 server并以stack为用户名创建用户 第二步:安装git及相关配置 sudo apt-get update sudo apt-get install git-core git config --global user.name "testuser" git config --global user.email " testuser@example.com " sudo apt-get install software-properties-common sudo add-apt-repository cloud-archive:pike 第三步:安装Open vSwitch 2.5.X apt-cache policy openvswitch-switch ( make sure Candidate is 2.5.x) sudo apt-get install openvswitch-switch sudo ovs-vsctl -V (make sure you have Open vSwitch 2.5.xinstalled) 第四步:获取devstack脚本 sudo mkdir /opt/stack sudo chown stack:stack /opt/stack cd /opt/stack/ git clone git

9. 配置网络(VXLAN_OpenvSwitch)— OpenStack Queens 三节点部署

时光毁灭记忆、已成空白 提交于 2020-04-27 15:54:45
本操作分别在三个节点上完成 配置控制节点 root@controller:~# vi /etc/neutron/plugins/ml2/ml2_conf.ini # 第130行:添加网络类型 tenant_network_types = vxlan # 第181行:添加 flat_networks = physnet1 # 第235行:添加 vni_ranges = 1:1000 重启服务 root@controller:~# systemctl restart neutron-server 配置网络节点 添加一个ovs桥 root@network:~# ovs-vsctl add-br br-floating 把网络节点的第二个网卡(eth1)添加到桥端口上,ps:之前hosts文件中配置的ip是第一个网卡的ip。 root@network:~# ovs-vsctl add-port br-floating eth1 root@network:~# vi /etc/neutron/plugins/ml2/ml2_conf.ini # 第130行:添加网络类型 tenant_network_types = vxlan # 第181行:添加 flat_networks = physnet1 # 第235行:添加 vni_ranges = 1:1000 root@network:~#