k8s 部署问题解决
https://www.jianshu.com/p/f53650a85131
本文记录一下在部署 k8s 时遇到的一些问题及解决方法,具体部署流程可以参考 ubuntu 安装 k8s。
从snap安装导致的初始化问题
由于一开始我安装的时候没有配置好镜像源,所以导致了apt
下载 k8s 三件套时出现了找不到对应包的问题,再加上 ubuntu 又提示了一下 try sudo snap isntall kubelet ...
所以我就用snap
安装了三件套,使用的安装命令如下:
snap install kubelet --classic
snap install kubeadm --classic
snap install kubectl --classic
虽然我在网上也找到了不少用snap
成功部署的例子,但是迫于技术不精,最终实在是无法解决出现的问题,换用了apt
安装之后就一帆风顺的安装完成了。下面记录一下用snap
安装时出现的问题:
kubelet isn't running or healthy
使用kubeadm init
初始化时出现了下述错误,重复四次之后就超时退出了:
[kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10248/healthz' failed with error: Get http://localhost:10248/healthz: dial tcp [::1]:10248: connect: connection refused. [kubelet-check] It seems like the kubelet isn't running or healthy.
官方给出的解决方案是使用systemctl status kubelet
查看一下kubelet
的状态。但是我运行之后显示未找到kubelet.service
,然后用如下命令查看启动失败的服务:
systemctl list-units --failed
结果发现一个名为snap.kubelet.daemon.service
的服务无法启动了,尝试了各种方法都没有让它复活,无奈只好放弃用snap
安装了。如果有大佬知道该怎么解决请告诉我,不胜感激。下面就说一下遇到的其他问题。
初始化时的警告
在使用kubeadm init
命令初始化节点刚开始时,会有如下的perflight
阶段,该阶段会进行检查,如果其中出现了如下WARNING
并且初始化失败了。就要回来具体查看一下问题了。下面会对下述两个警告进行解决:
# kubeadm init ...
[init] Using Kubernetes version: v1.15.0 [preflight] Running pre-flight checks [WARNING IsDockerSystemdCheck]: detected "cgroupfs" as the Docker cgroup driver. The recommended driver is "systemd". Please follow the guide at https://kubernetes.io/docs/setup/cri/ [WARNING FileExisting-socat]: socat not found in system path
WARNING IsDockerSystemdCheck
修改或创建/etc/docker/daemon.json
,加入下述内容:
{
"exec-opts": ["native.cgroupdriver=systemd"] }
重启docker
:
systemctl restart docker
查看修改后的状态:
docker info | grep Cgroup
WARNING FileExisting-socat
socat
是一个网络工具, k8s 使用它来进行 pod 的数据交互,出现这个问题直接安装socat
即可:
apt-get install socat
节点状态为 NotReady
使用kubectl get nodes
查看已加入的节点时,出现了Status
为NotReady
的情况。
root@master1:~# kubectl get nodes
NAME STATUS ROLES AGE VERSION master1 NotReady master 152m v1.15.0 worker1 NotReady <none> 94m v1.15.0
这种情况是因为有某些关键的 pod 没有运行起来,首先使用如下命令来看一下kube-system
的 pod 状态:
kubectl get pod -n kube-system
NAME READY STATUS RESTARTS AGE
coredns-bccdc95cf-792px 1/1 Pending 0 3h11m
coredns-bccdc95cf-bc76j 1/1 Pending 0 3h11m
etcd-master1 1/1 Running 2 3h10m
kube-apiserver-master1 1/1 Running 2 3h11m
kube-controller-manager-master1 1/1 Running 2 3h10m
kube-flannel-ds-amd64-9trbq 0/1 ImagePullBackoff 0 133m
kube-flannel-ds-amd64-btt74 0/1 ImagePullBackoff 0 174m
kube-proxy-27zfk 1/1 Pending 2 3h11m
kube-proxy-lx4gk 1/1 Pending 0 133m
kube-scheduler-master1 1/1 Running 2 3h11m
如下,可以看到 pod kube-flannel
的状态是ImagePullBackoff
,意思是镜像拉取失败了,所以我们需要手动去拉取这个镜像。这里可以看到某些 pod 运行了两个副本是因为我有两个节点存在了。
你也可以通过kubectl describe pod -n kube-system <服务名>
来查看某个服务的详细情况,如果 pod 存在问题的话,你在使用该命令后在输出内容的最下面看到一个[Event]
条目,如下:
root@master1:~# kubectl describe pod kube-flannel-ds-amd64-9trbq -n kube-system ... Events: Type Reason Age From Message ---- ------ ---- ---- ------- Normal Killing 29m kubelet, worker1 Stopping container kube-flannel Warning FailedCreatePodSandBox 27m (x12 over 29m) kubelet, worker1 Failed create pod sandbox: rpc error: code = Unknown desc = failed to create a sandbox for pod "kube-flannel-ds-amd64-9trbq": Error response from daemon: cgroup-parent for systemd cgroup should be a valid slice named as "xxx.slice" Normal SandboxChanged 19m (x48 over 29m) kubelet, worker1 Pod sandbox changed, it will be killed and re-created. Normal Pulling 42s kubelet, worker1 Pulling image "quay.io/coreos/flannel:v0.11.0-amd64"
手动拉取镜像
flannel
的镜像可以使用如下命令拉到,如果你是其他镜像没拉到的话,百度一下就可以找到国内的镜像源地址了,这里记得把最后面的版本号修改成你自己的版本,具体的版本号可以用上面说的kubectl describe
命令看到:
docker pull quay-mirror.qiniu.com/coreos/flannel:v0.11.0-amd64
等镜像拉取完了之后需要把镜像名改一下,改成 k8s 没有拉到的那个镜像名称,我这里贴的镜像名和版本和你的不一定一样,注意修改:
docker tag quay-mirror.qiniu.com/coreos/flannel:v0.11.0-amd64 quay.io/coreos/flannel:v0.11.0-amd64
修改完了之后过几分钟 k8s 会自动重试,等一下就可以发现不仅flannel
正常了,其他的 pod 状态也都变成了Running
,这时再看 node 状态就可以发现问题解决了:
root@master1:~# kubectl get nodes
NAME STATUS ROLES AGE VERSION master1 Ready master 3h27m v1.15.0 worker1 Ready <none> 149m v1.15.0
工作节点加入失败
在子节点执行kubeadm join
命令后返回超时错误,如下:
root@worker2:~# kubeadm join 192.168.56.11:6443 --token wbryr0.am1n476fgjsno6wa --discovery-token-ca-cert-hash sha256:7640582747efefe7c2d537655e428faa6275dbaff631de37822eb8fd4c054807
[preflight] Running pre-flight checks error execution phase preflight: couldn't validate the identity of the API Server: abort connecting to API servers after timeout of 5m0s
在master
节点上执行kubeadm token create --print-join-command
重新生成加入命令,并使用输出的新命令在工作节点上重新执行即可。
参考
来源:oschina
链接:https://my.oschina.net/u/4287611/blog/3329632