彻底搞懂 K8S Pod Pending 故障原因及解决方案

云计算 云原生 运维
即使在高成熟度级别 Kubernetes 集群中 pod pending 也是无处不在。如果您随机询问任何使用 Kubernetes DevOps 工程师来确定折磨他们噩梦的最常见错误,pod pending 可能是非常常见的问题(可能仅次于 CrashLoopBackOff)。

即使在高成熟度级别 Kubernetes 集群中 pod pending 也是无处不在。

如果您随机询问任何使用 Kubernetes DevOps 工程师来确定折磨他们噩梦的最常见错误,pod pending 可能是非常常见的问题(可能仅次于 CrashLoopBackOff)。

尝试推送更新并看到它卡住会使 DevOps 紧张。即使解决方案相当简单,找到 pod 挂起的原因并了解您需要应用的更改也很重要(Kubernetes 故障排除很少是微不足道的)。

在本文中,我们将阐明导致此问题的不同情况,让 DevOps 团队能够快速找到解决方案,最重要的是,尽可能避免它。

Kubernetes Pod pending 是什么意思?

Kubernetes 中的 Pod 的生命周期由几个不同的阶段组成:

  • 创建 pod 时,它从Pending阶段开始。
  • 一旦 pod 被调度并且容器已经启动,pod 就会进入Running阶段。

大多数 pod 只需要几秒钟就可以从 Pending 到 Running 并在该状态下度过大部分时间。

至此,Pod 已被 Kubernetes 集群接受。但是一个或多个容器尚未准备好对外提供服务。这包括 Pod 等待调度所花费的时间以及通过网络下载容器镜像所花费的时间。

当 pod 无法从 PendingtoRunning 阶段前进时,生命周期将停止并保留 pod,直到阻止它前进的问题得到修复。

如果我们使用 kubectl 列出 pod,我们将看到显示 Kubernetes pod 挂起情况的输出:

$ kubectl -n troubleshooting get pods
NAME                                           READY   STATUS    RESTARTS   AGE
stress-6d6cbc8b9d-s4sbh                        0/1     Pending   0          17s

除非我们解决问题,否则 pod 被卡住并且不会运行。

排查 Kubernetes pod Pending 的常见原因

有几个原因可以阻止 Pod 运行,但我们将描述三个主要问题:

  • 调度问题:无法在任何节点上调度 Pod。
  • 镜像问题:下载容器镜像时出现问题。
  • 依赖性问题:Pod 需要一个卷、Secret 或 ConfigMap 才能运行。

第一个是最常见的,最后一个很少见。让我们详细说明每种情况。

调度问题导致 Kubernetes Pod Pending

创建 Pod 后,Kubernetes 集群做的第一件事就是尝试调度 Pod 在其中一个节点上运行。这个过程通常非常快,并且 pod 被快速分配给具有足够资源来运行它的节点。

为了放置它,集群中的 Pod 被分配给具有更多未请求资源的节点,并继续其快乐而美好的生活,其中充满了对请求的符合 SLO 的回复。

但是,如果此过程每次都有效,有几个因素可能导致集群无法分配 pod。

让我们回顾一下最常见的。

任何节点中都没有足够的资源来分配 pod

Kubernetes 使用调度请求来决定fits节点中是否有 pod。资源的真正使用无关紧要,只有其他 pod 已经请求的资源。

effective requests当一个 pod 有足够的可请求资源来参与该 pod 的内存和 CPU 时,它将被调度到一个节点中。并且节点必须没有达到它可以运行的最大 pod 数。

当没有任何节点满足 pod 的所有要求时,它将保持在 Kubernetes pod 挂起状态,直到释放一些资源。

不可调度的节点

由于不同的问题(节点压力)或人为行为(节点封锁),节点可能会变为不可调度的状态。这些节点在状态发生变化之前不会调度任何 pod。

污点和容忍度

污点是 Kubernetes 的一种机制,它允许我们限制可以分配给不同节点的 pod。当节点具有 taint 时,只有匹配容忍度的 pod 才能在该节点中运行。

这种机制允许 Kubernetes 的特殊用途,例如为不同的工作负载使用不同类型的节点(具有 GPU 的节点,具有不同的 CPU/内存比率等)。

即使我们分别描述每个原因,调度问题也往往是由这些问题的组合引起的。通常,您无法调度,因为某些节点已满而其他节点已被污染,或者某个节点可能由于内存压力而无法调度。

为了找出调度问题是什么,您需要查看调度程序生成的关于 pod 的事件,其中将详细描述阻止节点分配的原因。我们可以使用 kubectl describe 查看事件,例如:

$ kubectl -n troubleshooting describe pod stress-6d6cbc8b9d-s4sbh
Name:           stress-6d6cbc8b9d-s4sbh
Namespace:      troubleshooting
Priority:       0
Node:           <none>
Labels:         app=stress
                pod-template-hash=6d6cbc8b9d
Annotations:    <none>
Status:         Pending
IP:
IPs:            <none>
Controlled By:  ReplicaSet/stress-6d6cbc8b9d
Containers:
  stress:
    Image:      progrium/stress
    Port:       <none>
    Host Port:  <none>
    Args:
      --cpu
      1
      --vm
      2
      --vm-bytes
      150M
    Limits:
      cpu:     300m
      memory:  120000Mi
    Requests:
      cpu:        200m
      memory:     100000Mi
    Environment:  <none>
    Mounts:
      /var/run/secrets/kubernetes.io/serviceaccount from kube-api-access-snrww (ro)
Conditions:
  Type           Status
  PodScheduled   False
Volumes:
  kube-api-access-snrww:
    Type:                    Projected (a volume that contains injected data from multiple sources)
    TokenExpirationSeconds:  3607
    ConfigMapName:           kube-root-ca.crt
    ConfigMapOptional:       <nil>
    DownwardAPI:             true
QoS Class:                   Burstable
Node-Selectors:              <none>
Tolerations:                 node.kubernetes.io/not-ready:NoExecute op=Exists for 300s
                             node.kubernetes.io/unreachable:NoExecute op=Exists for 300s
Events:
  Type     Reason            Age                   From               Message
  ----     ------            ----                  ----               -------
  Warning  FailedScheduling  4m17s (x41 over 34m)  default-scheduler  0/5 nodes are available: 1 node(s) had taint {node-role.kubernetes.io/master: }, that the pod didn't tolerate, 4 Insufficient memory.

我们可以在输出中看到消息中的确切原因:

0/5 nodes are available: 1 node(s) had taint {node-role.kubernetes.io/master: }, that the pod didn't tolerate, 4 Insufficient memory.
  • 其中一个节点被污染。
  • 其中四个节点没有足够的可请求内存。

为了解决这个问题,我们有两个选择:

  • 减少 pod 定义中的资源请求大小。
  • 通过添加更多节点或增加每个节点的大小来增加集群的容量。

如果要更新当前运行的工作负载,还需要考虑另一个重要因素:升级策略。

由于此策略,Kubernetes 可以允许工作负载在更新过程中创建比平时更多的 Pod,在创建新 Pod 时保留旧 Pod 一段时间。这意味着工作负载可能会在一段时间内请求比预期更多的资源。如果集群没有足够的备用资源,更新将被阻塞,留下一些 pod 待处理,直到进程被解除阻塞(或回滚超时停止更新)。

由于镜像问题,Pod Pending

一旦在一个节点中分配了 pod,kubelet就会尝试启动 pod 中的所有容器。为此,它将尝试下载镜像并运行它。

有几个错误会阻止镜像被下载:

  • 镜象名称错误。
  • 错误的镜像标签。
  • 错误的存储仓库。
  • 存储仓库需要身份验证。

Kubernetes Pod 由于依赖问题而挂起

在 pod 启动之前,kubelet将尝试检查与其他 Kubernetes 元素的所有依赖关系。如果无法满足这些依赖项之一,则 pod 将保持挂起状态,直到满足依赖项。

在这种情况下,kubectl 将像这样显示 pod:

$ kubectl -n mysql get pods 
NAME READY STATUS RESTARTS AGE 
mysql-0 0/1 ContainerCreating 0 97s

在事件中,我们可以看到如下内容:

Events:
  Type     Reason       Age                  From               Message
  ----     ------       ----                 ----               -------
  Normal   Scheduled    3m19s                default-scheduler  Successfully assigned mysql/mysql-0 to ip-172-20-38-115.eu-west-1.compute.internal
  Warning  FailedMount  76s                  kubelet            Unable to attach or mount volumes: unmounted volumes=[config], unattached volumes=[kube-api-access-gxjf8 data config]: timed out waiting for the condition
  Warning  FailedMount  71s (x9 over 3m19s)  kubelet            MountVolume.SetUp failed for volume "config" : configmap "mysql" not found

该 Message 列将为您提供足够的信息,以便能够查明缺失的元素。常见的原因有:

  • 尚未创建 ConfigMap 或者 Secret,或提供的名称不正确。
  • 无法在节点中挂载卷,因为它尚未被另一个节点释放。这尤其发生在更新 statefulset 的过程中,挂载的卷必须与旧 pod 相同。

结论

了解 pod 保持在该 Pending 阶段的原因是在 Kubernetes 中安全部署和更新工作负载的关键。能够快速定位问题并加快部署进度将为您省去一些麻烦并减少停机时间。

责任编辑:华轩 来源: 云原生运维圈
相关推荐

2022-12-07 17:33:50

K8Skubernetes

2024-03-18 15:44:48

K8S故障运维

2011-05-24 11:26:11

2019-05-22 09:51:28

网络故障

2020-05-08 15:20:40

PaaSKubernetes平台

2024-01-26 14:35:03

鉴权K8sNode

2023-07-04 07:30:03

容器Pod组件

2018-10-12 14:34:13

2021-07-28 10:10:57

K8SMount PVCPod

2023-09-20 14:30:36

K8s亚马逊谷歌

2020-08-13 07:04:45

跨域CORS浏览器

2022-11-02 10:21:41

K8s pod运维

2024-03-28 18:08:44

Kubernetes抓包Pod

2021-04-23 08:35:16

k8s故障检测

2022-06-01 09:38:36

KubernetesPod容器

2009-07-22 17:37:06

ASP.NET Ses

2022-04-22 13:32:01

K8s容器引擎架构

2023-02-06 07:47:23

2023-04-30 00:02:40

K8Skubelet数据

2022-06-14 07:56:15

Kubernetes存储架构K8S
点赞
收藏

51CTO技术栈公众号