k8s 容器的资源需求,资源限制-监控-资源指标API及自定义指标API

﹥>﹥吖頭↗ 提交于 2020-05-02 04:37:36

POD资源:
requests:需求,最低保障
limits:限制,硬限制
CPU:
一颗逻辑CPU(一个核心)
1=1000微核,millicores
500m=0.5CPU
内存:
E、P、T、G、M、K
Ei、Pi、Ti、Gi、Mi、Ki、
Qos:
Guranteed:最高优先级, 确保、保证
同时设置了CPU和内存的requests和limits,
cpu.limits=cpu. requests
memory.limits=memory.limits
Burstable:中间优先级,
至少有一个容器设置CPU或者内存资源requests的属性,当内存资源比较紧缺时将requests分配占用较大的停止
cpu.limits>cpu. requests
memory.limits>memory.limits
BestEffort:最低优先级,
自动配置,当内存资源比较紧缺时,BestEffort会被优先退出,确保其他类型的正常运行
没有任何一个设置




















        resources:
          limits:
            memory: 1024Mi
            cpu: 2
          requests:
            cpu: 500m
            memory: 512Mi

HeapSter:(新版本被整合在kubernetes内部,kube1.1后废弃)
cAdvisor:收集各node节点上面内存,硬盘,cpu的资源,可以在单节点上面查看采集的结果。持久存储在InfluxDB 默认老版本使用

监控指标:集群指标,容器指标,应用指标

监控-资源指标API及自定义指标API

资源指标:metrics-server
自定义指标:prometheus,k8s-prometheus-adapter(转换收集到的数据)

新一代架构:
核心指标流水线:由kubelet,metrics-server以及由API server提供的api组成;CPU累计使用率、内存实时使用率、Pod的资源占用率及容器的磁盘占用率;
监控流水线:用于从系统收集各种指标数据并提供终端用户、存储系统以及HPA,它们包含核心指标及很多的非核心指标。非核心指标本身不能被k8s所解析,

metrics-server:API server
/apis/metrics.k8s.io/v1beta1

部署metrics-server

for file in auth-delegator.yaml auth-reader.yaml metrics-apiservice.yaml metrics-server-deployment.yaml metrics-server-service.yaml resource-reader.yaml ;do wget https://raw.githubusercontent.com/kubernetes/kubernetes/master/cluster/addons/metrics-server/$file;done

kubectl top nodes
kubectl top pods 查看所占CPU和内存资源

待续。。。部署prometheus。。。。。。。

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!