Rancher

在混沌中成长个人OKR

与世无争的帅哥 提交于 2020-08-11 18:32:22
前言 国内疫情早就趋于平稳,是时候找回节奏了。在这里更新个人OKR。 强化自组织,持续优化和开放透明的团队文化 6.15前辅助全员完成下半年OKR制定 覆盖全员 月度评审 季度复盘 6.30前改进基础设施确保每个项目的演示和测试环境 团队内任意成员在研项目可在5分钟内启动并演示本周期功能 9月前新人进入后10分钟内完成开发环境的生成 利用虚拟机来保证linux开发环境,物理机工具包 前端,docker,node 后端,docker,java 测试 技术进阶实现3%目标 7月前实现参与的项目镜像化比例高于90% UMP除4G平台服务外的全镜像化 ISS全镜像化 实现JGDQ全镜像化 九月前以UMP为示范系统突破全链路的单点故障和云原生技术 自建服务器集群扩大到10台 基于云原生技术的UMP示范系统实现公有云和私有云自由迁移 基本平台基于rancher或是k8s 数据库 ,mha 应用系统 ,docker 网关接入 gateway 状态服务的处理 stateful 监控系统 ,Prometheus 链路追踪系统,skywalking 日志系统,elk 11月前完成DEP的重构 实现1w并发接入 亿级数据检索2s出结果 全节点可水平扩展 无单点 总结 应对危机与抓住机遇。 来源: oschina 链接: https://my.oschina.net/u/4358286/blog

误删节点或集群怎么办?这里有一颗后悔药

本小妞迷上赌 提交于 2020-08-11 13:04:31
本文来自 Rancher Labs 作者介绍 王海龙,Rancher中国社区技术经理,负责Rancher中国技术社区的维护和运营。拥有6年的云计算领域经验,经历了OpenStack到Kubernetes的技术变革,无论底层操作系统Linux,还是虚拟化KVM或是Docker容器技术都有丰富的运维和实践经验。 在实际使用Rancher过程中,偶尔会因为误操作删除了System Workload、节点或集群, 导致集群状态异常而无法访问。如果用户不了解恢复方法,通常会重新添加节或重新搭建集群。 本文将根据以下几个场景来介绍如何恢复由于误操作引起的Rancher集群故障: 如何恢复System Project Workload 如何恢复从Rancher UI或kubectl误删的节点 如何恢复执行过清理节点脚本的节点 如何恢复被删除的 custom 集群 重要说明 本文档基于Rancher 2.4.x测试,其他版本操作可能会略有不同 本文介绍的场景均是针对 custom 集群 如果您在此过程中遇到问题,则应该熟悉Rancher架构/故障排除 您应该熟悉单节点安装和高可用安装之间的体系结构差异 如何恢复System Project Workload System Project中包含了一些保证该集群能够正常运行的一些workload,如果删除某些workload可能会对该集功能群造成影响。

Kublet PLEG不健康问题排障

做~自己de王妃 提交于 2020-08-11 07:42:23
环境:Rancher管控的K8S集群。 现象:某个Node频繁出现“PLEG is not healthy: pleg was last seen active 3m46.752815514s ago; threshold is 3m0s”错误,频率在5-10分钟就会出现一次。 排查: kubectl get pods --all-namespaces 发现有一个 istio-ingressgateway-6bbdd58f8c-nlgnd 一直处于Terminating状态,也就是说杀不死。 到Node上 docker logs --tail 100 kubelet 也看到这个Pod的状态异常: I0218 01 :21:17.383650 10311 kubelet.go:1775] skipping pod synchronization - [PLEG is not healthy: pleg was last seen active 3m46.752815514s ago; threshold is 3m0s] ... E0218 01 :21:30.654433 10311 generic.go:271] PLEG: pod istio-ingressgateway-6bbdd58f8c-nlgnd/istio-system failed reinspection:

离线安装K3S

不问归期 提交于 2020-08-10 17:47:06
离线安装K3S 一、 安装docker 参照《DOCKER环境部署手册V1.docx》 二、 导入k3s镜像及安装文件准备 wget https://github.com/rancher/k3s/releases/download/v0.9.0/k3s-airgap-images-amd64.tar docker load < k3s-airgap-images-amd64.tar Loaded image: coredns/coredns:1.6.3 Loaded image: traefik:1.7.14 Loaded image: rancher/klipper-helm:v0.1.5 Loaded image: rancher/klipper-lb:v0.1.1 Loaded image: k8s.gcr.io/pause:3.1 wget https://github.com/rancher/k3s/releases/download/v0.9.0/k3s wget https://github.com/rancher/k3s/blob/master/install.sh mv k3s /usr/local/bin //将k3s二进制文件移动到k3s安装目录 chmod +x install.sh //赋予文件可执行权限 chmod +x k3s //赋予文件可执行权限

中国边缘计算27强企业上榜!CBInsights首次发布中国云边协同榜单,边缘计算2.0时代来临

无人久伴 提交于 2020-08-10 09:31:29
     根据 CB Insights 预测,到 2026 年,全球物联网市场规模将增至 1.1 万亿美元,相较于 2018 年的 1900 亿美元,增长超过 5 倍。   底层设备增长的延伸,是 边缘设备数量、数据量的陡然增加和应用场景的多元化 。边缘设备的多标准现状和丰富的垂直应用场景,不仅对软硬件的适配度提出更高要求,还对数字化和智能化反向施压。   物联网系统一般遵循以云为中心的互联网架构,主要涉及到三大技术: 嵌入式系统、中间件以及云服务。 嵌入式系统主要为前端设备,如摄像头、机器人、无人机等提供智能支持,中间件主要解决前端设备的异构嵌入式系统与云端的联系协同,云服务提供全面的存储、处理和管理机制。   但在巨大数据量、设备量、场景需求的语境下,传统意义上的云计算可能会面临带宽、时延、连接质量、资源分配、安全等多方面的挑战。   为了处理和应对传统云基础架构可能满足不了的应用和场景所带来的困境, 在端侧 更加有效率、针对性地采集、传输和处理数据, 用 以提高生产生活经济价值 的 边缘计算(Edge Computing)概念应运而生。   根据 CB Insights 数据,截至 2019 年年底,美国上市企业财报会议中提到“边缘计算”的次数,首次超过了“云计算”被提及的次数,从一定程度可以反映出全球化背景下,公司领导层对边缘计算的概念和技术越来越重视。      图 |

helm源码分析之pull

北城以北 提交于 2020-08-09 19:51:02
发布一个k8s部署视频:https://edu.csdn.net/course/detail/26967 课程内容:各种k8s部署方式。包括minikube部署,kubeadm部署,kubeasz部署,rancher部署,k3s部署。包括开发测试环境部署k8s,和生产环境部署k8s。 腾讯课堂连接地址https://ke.qq.com/course/478827?taid=4373109931462251&tuin=ba64518 第二个视频发布 https://edu.csdn.net/course/detail/27109 腾讯课堂连接地址https://ke.qq.com/course/484107?tuin=ba64518 介绍主要的k8s资源的使用配置和命令。包括configmap,pod,service,replicaset,namespace,deployment,daemonset,ingress,pv,pvc,sc,role,rolebinding,clusterrole,clusterrolebinding,secret,serviceaccount,statefulset,job,cronjob,podDisruptionbudget,podSecurityPolicy,networkPolicy,resourceQuota,limitrange

rancher证书过期

浪子不回头ぞ 提交于 2020-08-09 11:05:36
背景   无法打开rancher服务,报错如下截图,可以看出是证书过期了无法连上k8s,注意这里的证书是rancher自身证书并非k8s证书。 解决方法   rancher升级: https://rancher2.docs.rancher.cn/docs/upgrades/upgrades/single-node/_index    来源: oschina 链接: https://my.oschina.net/u/4370811/blog/4293321

收购最大 K8s 服务商,重回独立的 SUSE 又要和 Red Hat 拼混合云

安稳与你 提交于 2020-08-08 20:00:48
7月8日, SUSE 宣布收购 Kubernetes 管理平台公司 Rancher Labs ,交易预计在2020年10月底之前完成。有外媒称, 收购价预估在6亿至7亿美元之间 。 宣布要收购之后,SUSE 的介绍前缀中又多了个关键词——Kubernetes,变成企业级 Linux、Kubernetes、边缘计算和 AI 的首选开源创新者。 曾经,SUSE 是最早做 Linux 发行版的企业,但从2004年开始,SUSE 三度易主,直到去年才重新独立,估值早已无法比肩几乎同时成立的 Linux 发行商红帽。SUSE 似乎也并不执着于企业版 Linux 市场,而是向云业务、以及更多的 IT 服务拓展,这才有了现在一长串的介绍前缀和收购动作。 2004年,Novell 收购 SUSE。 2010年,Attachmate 收购 Novell。 2014年,Micro Focus 收购 Attachmate。 2018-2019年, SUSE 完成与私募股权公司 EQT 的合作,重回独立 。 SUSE 分配很多资源在 Linux 之外 “SUSE 在过去25年已经非常成功地交付了企业级 Linux 产品……我们的客户对跨越边缘到核心数据中心,到云的计算解决方案需求日益增长,SUSE 必须能够跨越这些计算模型无缝部署和管理”,SUSE 某一部门总裁 Thomas Di Giacomo 去年曾

Rancher管理k8s集群

主宰稳场 提交于 2020-08-08 04:01:25
一、概述 Rancher和k8s都是用来作为容器的调度与编排系统。但是rancher不仅能够管理应用容器,更重要的一点是能够管理k8s集群。Rancher2.x底层基于k8s调度引擎,通过Rancher的封装,用户可以在不熟悉k8s概念的情况下轻松的通过Rancher来部署容器到k8s集群当中。 为实现上述的功能,Rancher自身提供了一套完整的用于管理k8s的组件,包括Rancher API Server, Cluster Controller, Cluster Agent, Node Agent等等。组件相互协作使得Rancher能够掌控每个k8s集群,从而将多集群的管理和使用整合在统一的Rancher平台中。Rancher增强了一些k8s的功能,并提供了面向用户友好的使用方式。 k8s虽然有dashboard,但是功能没有Rancher强大。因此,企业内部,可以用Rancher来管理k8s集群。 所以总结一下,两者的关系是Rancher对k8s进行了功能的拓展与实现了和k8s集群交互的一些便捷工具,包括执行命令行,管理多个 k8s集群,查看k8s集群节点的运行状态等等。 二、安装Rancher 版本选择 Rancher有分为v1和v2版本,都是提供容器调度与编排,不同之处在于在k8s盛行之前有许多人都搞过容器编排,所以rancher v1上会有几种不同的编排模式

一文了解HAProxy主要特性

我的未来我决定 提交于 2020-08-07 04:10:56
本文转自 Rancher Labs 在Kubernetes中,Ingress对象定义了一些路由规则,这些规则规定如何将一个客户端请求路由到指定服务,该服务运行在你的集群中。这些规则可以考虑到输入的HTTP消息的独特方面,包括其Host请求头和URL路径,这将允许你在请求中使用数据发现将流量从一个服务发送到另一个服务。那意味着你能够使用Ingress对象来为许多不同的应用程序定义路由。 虽然Ingress对象定义路由,但Ingress Controller是驱动它们的引擎。Ingress Controller是一个位于客户端和服务之间的代理,其作用是正确地传递消息。目前市面上已经有几个项目实现了Ingress Controller规范,每个项目都有其优势。Rancher提供了一个基于NGINX的默认controller,但你并不需要局限于此。Rancher已经和HAProxy达成合作,因此你也可以选择使用HAProxy Ingress Controller。我们倾向于把HAProxy Ingress Controller看作是一个完美的Kubernetes的涡轮增压引擎,能够充分提升Kubernetes的使用效率。 HAProxy Ingress Controller的特性 你可以在Rancher应用商店中找到HAProxy,此外你还可以在HAProxy的官方文档( https:/