POD资源:
requests:需求,最低保障
limits:限制,硬限制
CPU:
一颗逻辑CPU(一个核心)
1=1000微核,millicores
500m=0.5CPU
内存:
E、P、T、G、M、K
Ei、Pi、Ti、Gi、Mi、Ki、
Qos:
Guranteed:最高优先级, 确保、保证
同时设置了CPU和内存的requests和limits,
cpu.limits=cpu. requests
memory.limits=memory.limits
Burstable:中间优先级,
至少有一个容器设置CPU或者内存资源requests的属性,当内存资源比较紧缺时将requests分配占用较大的停止
cpu.limits>cpu. requests
memory.limits>memory.limits
BestEffort:最低优先级,
自动配置,当内存资源比较紧缺时,BestEffort会被优先退出,确保其他类型的正常运行
没有任何一个设置
resources:
limits:
memory: 1024Mi
cpu: 2
requests:
cpu: 500m
memory: 512Mi
HeapSter:(新版本被整合在kubernetes内部,kube1.1后废弃)
cAdvisor:收集各node节点上面内存,硬盘,cpu的资源,可以在单节点上面查看采集的结果。持久存储在InfluxDB 默认老版本使用
监控指标:集群指标,容器指标,应用指标
监控-资源指标API及自定义指标API
资源指标:metrics-server
自定义指标:prometheus,k8s-prometheus-adapter(转换收集到的数据)
新一代架构:
核心指标流水线:由kubelet,metrics-server以及由API server提供的api组成;CPU累计使用率、内存实时使用率、Pod的资源占用率及容器的磁盘占用率;
监控流水线:用于从系统收集各种指标数据并提供终端用户、存储系统以及HPA,它们包含核心指标及很多的非核心指标。非核心指标本身不能被k8s所解析,
metrics-server:API server
/apis/metrics.k8s.io/v1beta1
部署metrics-server
for file in auth-delegator.yaml auth-reader.yaml metrics-apiservice.yaml metrics-server-deployment.yaml metrics-server-service.yaml resource-reader.yaml ;do wget https://raw.githubusercontent.com/kubernetes/kubernetes/master/cluster/addons/metrics-server/$file;done
kubectl top nodes
kubectl top pods 查看所占CPU和内存资源
待续。。。部署prometheus。。。。。。。
来源:oschina
链接:https://my.oschina.net/u/4373992/blog/4261167