flannel

使用vmware搭建k8s集群【转】

Deadly 提交于 2020-08-11 21:44:37
这是根据腾讯视频李老师的视频整理出来的k8s集群搭建教程,本人已经利用vmware成功搭建,建议大家可以边看视频边看文档去搭建,绝对可以成功,网上的很多文章都太烂了,我是没找到成功的,但这个绝对可以成功。 在这里插入图片描述 视频地址 https://ke.qq.com/course/379938?taid=2934291592236066 官方文档 https://kubernetes.io/docs/home/ kubeadm是官方社区推出的一个用于快速部署kubernetes集群的工具。 这个工具能通过两条指令完成一个kubernetes集群的部署: # 创建一个 Master 节点 $ kubeadm init # 将一个 Node 节点加入到当前集群中 $ kubeadm join <Master节点的IP和端口 > 1. 安装要求 在开始之前,部署Kubernetes集群机器需要满足以下几个条件: 一台或多台机器,操作系统 CentOS7.x-86_x64 硬件配置:2GB或更多RAM,2个CPU或更多CPU,硬盘30GB或更多 集群中所有机器之间网络互通 可以访问外网,需要拉取镜像 禁止swap分区 2. 学习目标 在所有节点上安装Docker和kubeadm 部署Kubernetes Master 部署容器网络插件 部署 Kubernetes Node

kubernetes云平台管理实战: 集群部署(CentOS 7.8 + docker 1.13 + kubectl 1.52)

心不动则不痛 提交于 2020-08-11 21:23:32
一、环境规划 1、架构拓扑图 2、主机规划 master 192.168.118.18 node01 192.168.118.19 node02 192.168.118.20 192.168.118.18即时master也是node 3、软件版本 [root@master ~]# cat /etc/redhat-release CentOS Linux release 7.8.2003 (Core) [root@master ~]# docker version Client: Version: 1.13.1 API version: 1.26 Package version: docker-1.13.1-161.git64e9980.el7_8.x86_64 Go version: go1.10.3 Git commit: 64e9980/1.13.1 Built: Tue Apr 28 14:43:01 2020 OS/Arch: linux/amd64 Server: Version: 1.13.1 API version: 1.26 (minimum version 1.12) Package version: docker-1.13.1-161.git64e9980.el7_8.x86_64 Go version: go1.10.3 Git commit: 64e9980

kubernetes flannel pod CrashLoopBackoff解决

*爱你&永不变心* 提交于 2020-08-11 00:55:29
背景 某环境客户部署了一个kubernetes集群,发现flannel的pod一直重启,始终处于CrashLoopBackOff状态。 排查 对于始终CrashLoopBackOff的pod,一般是应用本身的问题,需要查看具体pod的日志,通过 kubectl logs -f --tail -n kube-system flannel-xxx 显示,“pod cidr not assigned”,然后flannel退出 检查日志显示的节点10.0.0.17的cidr,发现确实为空,而正常的环境却是正常的。 检查flannel的启动参数,发现为 --kube-subnet-mgr ,–kube-subnet-mgr代表其使用kube类型的subnet-manager。该类型有别于使用etcd的local-subnet-mgr类型,使用kube类型后,flannel上各Node的IP子网分配均基于K8S Node的spec.podCIDR属性—" contact the Kubernetes API for subnet assignment instead of etcd. ",而在第2步,我们已经发现节点的podcidr为空。 node节点分配podCIDR,需要kube-controller-manager开启 allocate-node-cidrs 为true,它和

kubernetes flannel pod CrashLoopBackoff解决

核能气质少年 提交于 2020-08-10 17:39:14
背景 某环境客户部署了一个kubernetes集群,发现flannel的pod一直重启,始终处于CrashLoopBackOff状态。 排查 对于始终CrashLoopBackOff的pod,一般是应用本身的问题,需要查看具体pod的日志,通过 kubectl logs -f --tail -n kube-system flannel-xxx 显示,“pod cidr not assigned”,然后flannel退出 检查日志显示的节点10.0.0.17的cidr,发现确实为空,而正常的环境却是正常的。 检查flannel的启动参数,发现为 --kube-subnet-mgr ,–kube-subnet-mgr代表其使用kube类型的subnet-manager。该类型有别于使用etcd的local-subnet-mgr类型,使用kube类型后,flannel上各Node的IP子网分配均基于K8S Node的spec.podCIDR属性—" contact the Kubernetes API for subnet assignment instead of etcd. ",而在第2步,我们已经发现节点的podcidr为空。 node节点分配podCIDR,需要kube-controller-manager开启 allocate-node-cidrs 为true,它和

深度解读 OpenYurt:从边缘自治看 YurtHub 的扩展能力

独自空忆成欢 提交于 2020-08-10 05:47:32
云栖号资讯:【 点击查看更多行业资讯 】 在这里您可以找到不同行业的第一手的上云资讯,还在等什么,快来! 作者 | 新胜 阿里云技术专家 导读: OpenYurt 开源两周以来,以非侵入式的架构设计融合云原生和边缘计算两大领域,引起了不少行业内同学的关注。阿里云推出开源项目 OpenYurt,一方面是把阿里云在云原生边缘计算领域的经验回馈给开源社区,另一方面也希望加速云计算向边缘延伸的进程,并和社区共同探讨未来云原生边缘计算架构的统一标准。为了更好地向社区和用户介绍 OpenYurt,我们特地推出【深度解读OpenYurt】系列文章,本文为系列文章的第三篇,一一介绍了 OpenYurt 中组件 YurtHub 的扩展能力。 OpenYurt 介绍 阿里云边缘容器服务上线 1 年后,正式开源了云原生边缘计算解决方案 OpenYurt,跟其他开源的容器化边缘计算方案的区别在于:OpenYurt 秉持 Extending your native Kubernetes to edge 的理念,对 Kubernetes 系统零修改,并提供一键式转换原生 Kubernetes 为 openyurt,让原生 K8s 集群具备边缘集群能力。 同时随着 OpenYurt 的持续演进,也一定会继续保持如下发展理念: 非侵入式增强 K8s 保持和云原生社区主流技术同步演进 YurtHub 架构说明

Kubernetes部署通用手册 (支持版本1.19,1.18,1.17,1.16)

♀尐吖头ヾ 提交于 2020-08-07 04:50:58
操作环境 rbac 划分(HA高可用双master部署实例) 本文穿插了ha 高可用部署的实例,当前章节设计的是ha部署双master 部署 内网ip 角色 安装软件 192.168.0.10 master01 etcd,kube-apiserver,kube-controller-manager,kube-scheduler 192.168.0.12 master02 etcd,kube-apiserver,kube-controller-manager,kube-scheduler 192.168.0.7 node01 docker,kubelet,kube-proxy,flannel 192.168.0.8 node02 docker,kubelet,kube-proxy,flannel 192.168.0.4 slb master etcd,nginx 192.168.0.9 192.168.0.200 keepalived上的VIP 注意 flannel可以只安装node上,flannel只是跨机器宿主机和容器通讯使用 docker可以只安装node上,master上可以不安装 etcd 键值对的数据库,是独立三台机器。不要复用。 192.168.0.200是keepalived上的vip 自签SSL证书 k8s安装包下载 https://github.com

kubeadm安装部署kubernetes

送分小仙女□ 提交于 2020-08-06 23:24:40
使用kubeadm安装部署kubernetes集群 难点 :kubeadm部署kubernetes集群 是把kubernetes的各个组件(kube-apiserver kube-controller-manager kube-scheduler kube-proxy etcd coredns)作为容器运行在docker中,安装部署相对简单很多。 由于某些不可描述的原因,国内无法从k8s.gcr.io拉取所需镜像,因此很多人无法用这种方式完成安装。 准备 每台机器2 GB或更多的RAM 2个或更多CPU 192.168.19.11 Master 192.168.19.12 Node01 192.168.19.13 Node02 关闭防火墙 systemctl status firewalld.service systemctl stop firewalld.service systemctl disable firewalld.service 禁用Swap swapoff -a vi /etc/fstab 注释swap 让iptables查看桥接流量 cat <<EOF | sudo tee /etc/sysctl.d/k8s.conf net.bridge.bridge-nf-call-ip6tables = 1 net.bridge.bridge-nf-call

How can I use Flannel without disabing firewalld (Kubernetes)

不羁岁月 提交于 2020-08-05 08:41:21
问题 I'm new to flannel and K8s. I'm playing around them on my 1 master and 2 nodes cluster (created from KVM). I initialized my cluster with flannel network addon. And then I found I can't reach the Internal. It turned out that there may be something wrong with my network or DNS process. Following https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/, I add 8285 and 8472 to firewalld [root@k8smaster ~]# firewall-cmd --list-port 6443/tcp 80/tcp 8285/udp 8472

Kubernetes基础概念

不问归期 提交于 2020-08-04 15:11:16
一、 Kubernetes 简介 1、 由 google 公司开发, google 有 10 年容器化基础架构经验,自身的 borg 容器在公司内部使用,对外开源的是 Kubernetes ,由 go 语言开发,基于 http 协议的 C/S 架构, 是一种资源管理器 2、 特点 (1) go 语言为静态编译性语言,因此 k8s 特点之一轻量级:消耗资源小 (2) 开源 (3) 弹性伸缩 (4) 负载均衡: ipvs 二、 组件说明 1、 K8S 架构 2 、 MASTER 节点 ( 1 ) scheduler :任务发起角色,选择合适的节点进行分配任务,它将任务交给 api server , api server 将请求写入 etcd ,它并不会与 etcd 直接交互 ( 2 ) replication controller manager : rc ,副本管理器,根据设置的 pod 数,使整个 k8s 一直保持这个 pod 数 ( 3 ) api server :一切服务访问的入口,为避免 api server 过于繁忙,各服务组件在本地生成一定的缓存,同样的访问需求读取缓存 ( 4 ) etcd :键值对数据库,存储 K8S 的参数信息,是一种可信赖的分布式存储服务,有自己的集群化方案,扩容方便,实现了 k8s 整个框架的持久化方案。 V2 将数据写入内存, V3

kubernetes 安装kube-router

*爱你&永不变心* 提交于 2020-08-04 14:14:51
前言 网上关于kubernetes网络部署的方案非常多,那为什么还要自己写这么一篇教程呢?因为这篇文章中将介绍一种较为少见的部署方式,使用kuberouter作为kubernetes系统网络组件,直接替换掉kubeproxy、flannel/calico等网络组件。使用这种部署方式的目的,是替换kube-proxy,减少iptables依赖,同时还能提供网络服务。 <!--more--> 替代分析 Kube-router替代kube-proxy kube-proxy的作用主要是用于监听API server中 service 和 endpoint的变化情况,并通过iptables等来为服务配置负载均衡(仅支持TCP和UDP)。kube-proxy 可以直接运行在物理机上,也可以以 static pod 或者 daemonset 的方式运行。 Kube-proxy主要有以下技术特点: 底层默认使用iptables进行流量的转发 通过监听api server服务中的对象变化,实现service发现功能。 而kuberouter采用了基于相同技术但增加了更多负载均衡策略的IPVS来实现流量转发,服务发现的实现与kube-proxy一致。因此可以直接替代kube-proxy。 Kube-router代替flannel/Calico等网络组件 kubernetes 对网络的要求是:容器之间