flannel

Requests timing out when accesing a Kubernetes clusterIP service

前提是你 提交于 2019-12-06 05:19:38
问题 I am looking for help to troubleshoot this basic scenario that isn't working OK: Three nodes installed with kubeadm on VirtualBox VMs running on a MacBook: sudo kubectl get nodes NAME STATUS ROLES AGE VERSION kubernetes-master Ready master 4h v1.10.2 kubernetes-node1 Ready <none> 4h v1.10.2 kubernetes-node2 Ready <none> 34m v1.10.2 The Virtualbox VMs have 2 adapters: 1) Host-only 2) NAT. The node IP's from the guest computer are: kubernetes-master (192.168.56.3) kubernetes-node1 (192.168.56.4

minikube : not able to connect a locally deployed nginx service

99封情书 提交于 2019-12-05 04:13:53
I have installed minikube on my ubuntu 16.04 machine and have started a cluster, with a message "Kubernetes is available at https://192.168.99.100:443" Next, I deployed nginx service with the following command > kubectl.sh run my-nginx --image=nginx --replicas=2 --port=80 --expose > kubectl.sh get pods -o wide NAME READY STATUS RESTARTS AGE NODE my-nginx-2494149703-8jnh4 1/1 Running 0 13m 127.0.0.1 my-nginx-2494149703-q09be 1/1 Running 0 13m 127.0.0.1 > kubectl.sh get services -o wide NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE SELECTOR kubernetes 10.0.0.1 <none> 443/TCP 14m <none> my-nginx 10.0.0

利用K8S技术栈打造个人私有云(连载之:K8S集群搭建)

五迷三道 提交于 2019-12-04 13:43:59
注: 本文首发于 My 公众号 CodeSheep ,可 长按 或 扫描 下面的 小心心 来订阅 ↓ ↓ ↓ 最近被业务折腾的死去活来,实在没时间发帖,花了好多个晚上才写好这篇帖子,后续会加油的! 【利用K8S技术栈打造个人私有云系列文章目录】 利用K8S技术栈打造个人私有云(连载之:初章) 利用K8S技术栈打造个人私有云(连载之:K8S集群搭建) 利用K8S技术栈打造个人私有云(连载之:K8S环境理解和练手) 利用K8S技术栈打造个人私有云(连载之:基础镜像制作与实验)(Coming Soon...) 利用K8S技术栈打造个人私有云(连载之:资源控制研究)(Coming Soon...) 利用K8S技术栈打造个人私有云(连载之:私有云客户端打造)(Coming Soon...) 利用K8S技术栈打造个人私有云(连载之:总结与升华)(Coming Soon...) 环境介绍 玩集群嘛,当然要搞几台机器做节点!无赖自己并没有性能很强劲的多余机器,在家里翻箱倒柜,找出了几台破旧的本子,试试看吧,与其垫桌脚不如拿出来遛遛弯... 总体环境安排如下图所示: 各部分简介如下: Master节点 ( 一台08年买的Hedy笔记本 Centos7.3 64bit ) docker etcd flannel kube-apiserver kube-scheduler kube-controller

利用K8S技术栈打造个人私有云(连载之:初章)

邮差的信 提交于 2019-12-04 13:43:33
注: 本文首发于 My 公众号 CodeSheep ,可 长按 或 扫描 下面的 小心心 来订阅 ↓ ↓ ↓ 我的想法是什么 最近在学习Docker技术,相信Docker技术大家都有所了解,Docker类似于虚拟机(但与虚拟机又有本质不同),提供进程级别的隔离。我们可以利用Docker来方便地来做很多事情,比如搭建一个翻墙VPN、搞一个爬虫、弄一个私人博客,部署一个裸机上比较难以安装的环境等等……可以说几乎没有什么目的办不到,这简直是宅男老铁们的福利啊! 但话又说回来,单个Docker所能发挥的作用毕竟有限,也不便于批量管理,更满足不了各种量比较大的业务场景所需的高可用、弹性伸缩等特性,所以Docker得组集群来并赋予各种完善的调度机制才能发挥强大的技术优势。既然要组集群那就涉及诸如Docker的资源调度、管理等等一系列问题。Docker集群技术发展得很火热, 目前涉及Docker集群的三个主要的技术无外乎Docker Swarm、Kubernetes、Mesos三种主流方案。 Docker Swarm是Docker提供的原生集群技术,我只做过一些初步实践( Docker Swarm集群初探 ),发现还比较容易上手,大家也可以自行去深入学习一下,我就不多说了。 Kubernetes(以下简称K8S)源自于Google,是一个为容器化应用提供自动部署、扩容和管理的开源项目

Kubernetes failed to setup network for pod after executed kubeadm reset

浪尽此生 提交于 2019-12-03 13:27:29
问题 I initialized Kubernetes with kubeadm init , and after I used kubeadm reset to reset it I found --pod-network-cidr was wrong. After correcting it I tried to use kubeadm to init Kubernetes again like this: kubeadm init --use-kubernetes-version v1.5.1 --external-etcd endpoints=http://10.111.125.131:2379 --pod-network-cidr=10.244.0.0/16 Then I got some errors on the nodes 12月 28 15:30:55 ydtf-node-137 kubelet[13333]: E1228 15:30:55.838700 13333 cni.go:255] Error adding network: no IP addresses

Kubernetes failed to setup network for pod after executed kubeadm reset

无人久伴 提交于 2019-12-03 03:26:07
I initialized Kubernetes with kubeadm init , and after I used kubeadm reset to reset it I found --pod-network-cidr was wrong. After correcting it I tried to use kubeadm to init Kubernetes again like this: kubeadm init --use-kubernetes-version v1.5.1 --external-etcd endpoints=http://10.111.125.131:2379 --pod-network-cidr=10.244.0.0/16 Then I got some errors on the nodes 12月 28 15:30:55 ydtf-node-137 kubelet[13333]: E1228 15:30:55.838700 13333 cni.go:255] Error adding network: no IP addresses available in network: cbr0 12月 28 15:30:55 ydtf-node-137 kubelet[13333]: E1228 15:30:55.838727 13333 cni

K8s 从懵圈到熟练 – 集群网络详解

ⅰ亾dé卋堺 提交于 2019-11-30 18:42:57
作者 | 声东 阿里云售后技术专家 **导读:**阿里云 K8S 集群网络目前有两种方案:一种是 flannel 方案;另外一种是基于 calico 和弹性网卡 eni 的 terway 方案。Terway 和 flannel 类似,不同的地方在于 terway 支持 Pod 弹性网卡,以及 NetworkPolicy 功能。本文中,作者基于当前的 1.12.6 版本,以 flannel 为例,深入分析阿里云 K8S 集群网络的实现方法。 鸟瞰 总体上来说,阿里云 K8S 集群网络配置完成之后,如下图所示:包括集群 CIDR、VPC 路由表、节点网络、节点的 podCIDR、节点上的虚拟网桥 cni0、连接 Pod 和网桥的 veth 等部分。 类似的图大家可能在很多文章中都看过,但因为其中相关配置过于复杂,比较难理解。这里我们可以看下这些配置背后的逻辑。 基本上我们可以把这些配置分三种情况来理解:集群配置,节点配置以及 Pod 配置。与这三种情况对应的,其实是对集群网络 IP 段的三次划分:首先是集群 CIDR,接着是为每个节点分配 podCIDR(即集群 CIDR 的子网段),最后在 podCIDR 里为每个 Pod 分配自己的 IP。 集群网络搭建 初始阶段 集群的创建,基于云资源 VPC 和 ECS,在创建完 VPC 和 ECS 之后,我们基本上可以得到如下图的资源配置

Kubernetes 1.14 正式发布,Windows节点生产级支持!

一个人想着一个人 提交于 2019-11-30 06:03:38
Kubernetes 1.14现已正式发布,这是Kubernetes在2019年的首次更新! Kubernetes 1.14由31个增强功能组成:10个功能现进入Stable阶段,12个功能进入Beta测试阶段,还有7个全新新增功能。Kubernetes 1.14的主题是“可扩展性”,相较于此前发布的任何Kubernetes版本,此版本拥有最多的进入Stable阶段的增强功能。 此次新版的最重大更新无疑为对Windows节点的生产级支持。除此之外还有Kubectl、Persistent Local Volumes、PID限制等等的更新,下文中我们将逐一道来。 Windows节点的生产级支持 随着Kubernetes 1.14的发布,Kubernetes中的Windows节点支持现已处于Beta测试阶段,用户可以更多地进行实验,进一步体验到“Kubernetes for Windows容器”的价值。 Kubernetes现在正式支持将Windows节点添加为工作节点,并可以调度Windows容器。庞大的Windows应用程序生态系统,现在也能够利用Kubernetes平台的强大功能了。同时使用Windows应用程序和Linux应用程序的企业,不必再寻找两种单独的编排方案来分别管理其Windows和Linux工作负载, 整个部署的运营效率都能得到极大提高。 此次更新

k8s master查看不到worker节点

久未见 提交于 2019-11-30 05:55:42
k8s master查看不到worker节点 一、 问题 master节点已经安装好,但是worker加入master显示成功,但是在master节点上使用 kubectl get nodes 命令查看不到,且master节点时而 ready 时而 NotReady , worker 重置 kubeadm reset 后, master 节点恢复正常。 二 、 解决方法 通过设置 hosts 和 hostname 解决 2.1 设置hosts $ cat /etc/hosts 192.168.25.131 master01 192.168.25.132 node01 192.168.25.133 node02 2.2 设置hostname $ hostnamectl set-hostname master01 | node01 | node02 2.3 可能存在的问题 当master节点已经安装好了之后,修改完host #查看pods,coredns一直处于ContainerCreating状态 $ kubectl get pod --all-namespaces corednsxxx ContainerCreating corednsxxx ContainerCreating 使用其他Blog上的方案 $ rm -rf /var/lib/cni/flannel/* && rm

用户数从 0 到亿,我的 K8s 踩坑血泪史

一笑奈何 提交于 2019-11-29 07:43:08
导读 :容器服务 Kubernetes 是目前炙手可热的云原生基础设施,作者过去一年上线了一个用户数极速增长的应用:该应用一个月内日活用户从零至四千万,用户数从零到一亿的裂变式增长,充分享受了容器服务快速简便的扩容操作和高可用特性。作者使用容器服务 Kubernetes 集群将公司内系统完全上云 1 年多,本篇文章记录了其中的踩坑与优化记录。 创建集群 创建集群时,做好规划,选择优化好的集群配置,可以大大减少后期运维工作,其中部分集群的配置在建立后再也没法修改或者修改极其麻烦。 集群规划 网络规划: 网络类型: Flannel、Terway Terway 是阿里云容器服务自研的网络插件,功能上完全兼容 Flannel,如果保守,还是使用 Flannel Pod 网络 CIDR 默认 16 的大网段,有效的网段或者其子网 10.0.0.0/8,172.16-31.0.0/12-16,192.168.0.0/16 Service CIDR 默认 20 的网段,可选:10.0.0.0/16-24,172.16-31.0.0/16-24,192.168.0.0/16-24 网段不能冲突重复,建立后没法修改; 多个区域的多个交换机。 公网访问 ApiServer 对于线上等安全要求高的集群,可以选择不暴露 apiserver, 只有私网 SLB, 但是这样没法使用云效发布; 日常预发等集群