失眠网,内容丰富有趣,生活中的好帮手!
失眠网 > Pod 一直处于 Pending 状态

Pod 一直处于 Pending 状态

时间:2022-04-18 13:13:40

相关推荐

Pod 一直处于 Pending 状态

文章目录

一 现象描述二 可能原因三 排查方法3.1 检查节点是否资源不足3.1.1 问题分析3.1.2 造成影响3.2 检查 nodeSelector 及 affinity 的配置3.3 检查 Node 是否存在 Pod 没有容忍的污点3.3.1 问题分析3.3.2 解决方法3.4 检查是否存在低版本 kube-scheduler 的 bug3.6 检查驱逐后其他可用节点与当前节点的有状态应用是否不在相同可用区3.7 相关操作3.7.1添加污点① 手动添加污点② 自动添加污点

一 现象描述

当 Pod 一直处于 Pending 状态时,说明该 Pod 还未被调度到某个节点上,需查看 Pod 分析问题原因。例如执行 kubectl describe pod 命令,则获取到的事件信息如下:

$ kubectl describe pod tikv-0...Events:TypeReason Age FromMessage---------- ---------------Warning FailedScheduling 3m (x106 over 33m) default-scheduler 0/4 nodes are available: 1 node(s) had no available volume zone, 2 Insufficient cpu, 3 Insufficient memory.

二 可能原因

节点资源不足不满足 nodeSelector 与 affinityNode 存在 Pod 没有容忍的污点低版本 kube-scheduler 的 bugkube-scheduler 未正常运行驱逐后其他可用节点与当前节点的有状态应用不在相同可用区

三 排查方法

3.1 检查节点是否资源不足

3.1.1 问题分析

节点资源不足有以下几种情况:

CPU 负载过高。剩余可以被分配的内存不足。剩余可用 GPU 数量不足(通常在机器学习场景、GPU 集群环境)。

为进一步判断某个 Node 资源是否足够,可执行以下命令获取资源分配信息:

kubectl describe node <node-name>

在返回信息中,请注意关注以下内容:

Allocatable:表示此节点能够申请的资源总和。Allocated resources:表示此节点已分配的资源(Allocatable 减去节点上所有 Pod 总的 Request)

3.1.2 造成影响

前者与后者相减,即可得出剩余可申请的资源大小。如果该值小于 Pod 的 Request,则不满足 Pod 的资源要求,Scheduler 在 Predicates(预选)阶段就会剔除掉该 Node,不会调度 Pod 到该 Node。

3.2 检查 nodeSelector 及 affinity 的配置

假设 Pod 中 nodeSelector 指定了节点 Label,则调度器将只考虑调度 Pod 到包含该 Label 的 Node 上。当不存在符合该条件的 Node 时,Pod 将无法被调度。链接: k8s. 官方网站 进行查看。

此外,如果 Pod 配置了 affinity(亲和性),则调度器根据调度算法可能无法发现符合条件的 Node,从而无法调度。affinity 包括以下几类:

nodeAffinity:节点亲和性,可以看作增强版的 nodeSelector,用于限制 Pod 只允许被调度到某一部分符合条件的 Node。podAffinity:Pod 亲和性,用于将一系列有关联的 Pod 调度到同一个地方,即同一个节点或同一个可用区的节点等。podAntiAffinity:Pod 反亲和性,防止某一类 Pod 调度到同一个地方,可以有效避免单点故障。例如,将集群 DNS 服务的 Pod 副本分别调度到不同节点,可避免因一个节点出现故障而造成整个集群 DNS 解析失败,甚至使业务中断。

3.3 检查 Node 是否存在 Pod 没有容忍的污点

3.3.1 问题分析

假如节点上存在污点(Taints),而 Pod 上没有相应的容忍(Tolerations),Pod 将不会调度到该 Node。在调度之前,可以先通过 kubectl describe node 命令查看 Node 已设置污点。示例如下:

$ kubectl describe nodes host1...Taints: special=true:NoSchedule...

Node 上已设置的污点可通过手动或自动的方式添加,详情请参见 添加污点.。

3.3.2 解决方法

本文提供以下两种方法,通常选择方法2解决该问题:

方法1:删除污点

执行以下命令,删除污点 special。

kubectl taint nodes host1 special-

方法2:在 Pod 上增加污点容忍

!. 参考使用标准登录方式登录 Linux 实例(推荐) ,登录 nginx 所在的云服务器。

!!.执行以下命令,编辑 Yaml

kubectl edit deployment nginx

!!!.在 Yaml 文件 template 中的 spec 处添加容忍。例如,增加已存在 special 污点所对应的容忍:

tolerations:- key: "special"operator: "Equal"value: "true"effect: "NoSchedule"

!v保存并退出编辑即可成功创建容忍。

3.4 检查是否存在低版本 kube-scheduler 的 bug

Pod 一直处于 Pending 状态可能是低版本 kube-scheduler 的 bug 导致的,该情况可以通过升级调度器版本进行解决。

####3.5 检查 kube-scheduler 是否正常运行

请注意时检查 Master 上的 kube-scheduler 是否运行正常,如异常可尝试重启临时恢复。

3.6 检查驱逐后其他可用节点与当前节点的有状态应用是否不在相同可用区

服务部署成功且正在运行时,若此时节点突发故障,就会触发 Pod 驱逐,并创建新的 Pod 副本调度到其他节点上。对于已挂载了磁盘的 Pod,通常需要被调度到与当前故障节点和挂载磁盘所处同一个可用区的新的节点上。若集群中同一个可用区内不具备满足可调度条件的节点时,即使其他可用区内具有满足条件的节点,此类 Pod 仍不会调度。

限制已挂载磁盘的 Pod 不能调度到其他可用区的节点的原因如下:

云上磁盘允许被动态挂载到同一个数据中心上的不同机器,为了有效避免网络时延极大地降低 IO 速率,通常不允许跨数据中心挂载磁盘设备。

3.7 相关操作

3.7.1添加污点
① 手动添加污点
通过以下或类似方式,可以手动为节点添加指定污点:

$ kubectl taint node host1 special=true:NoSchedulenode "host1" tainted

说明:在某些场景下,可能期望新加入的节点在调整好某些配置之前默认不允许调度 Pod。此时,可以给该新节点添加 node.kubernetes.io/unschedulable 污点。

② 自动添加污点

从 v1.12 开始,Beta 默认开启 TaintNodesByCondition 特性,controller manager 将会检查 Node 的 Condition。Node 运行状态异常时,当检查的 Condition 符合如下条件(即符合 Condition 与 Taints 的对应关系),将自动给 Node 加上相应的污点。

例如,检查 Condition 为 OutOfDisk 且 Value 为 True,则 Node 会自动添加node.kubernetes.io/out-of-disk污点。

Condition 与污点的对应关系如下:

ConditonValue Taints------------- ------OutOfDisk True node.kubernetes.io/out-of-diskReady False node.kubernetes.io/not-readyReady Unknownnode.kubernetes.io/unreachableMemoryPressure True node.kubernetes.io/memory-pressurePIDPressure True node.kubernetes.io/pid-pressureDiskPressure True node.kubernetes.io/disk-pressureNetworkUnavailableTrue node.kubernetes.io/network-unavailable

当每种 Condition 取特定的值时,将表示以下含义:

OutOfDisk 为 True,表示节点磁盘空间不足。Ready 为 False,表示节点不健康。Ready为 Unknown,表示节点失联。在 node-monitor-grace-period 所确定-的时间周期内(默认40s)若节点没有上报状态,controller-manager 就会将 Node 状态置为 Unknown。MemoryPressure 为 True,表示节点内存压力大,实际可用内存很少。PIDPressure 为 True,表示节点上运行了太多进程,PID 数量不足。DiskPressure 为 True,表示节点上的磁盘可用空间不足。NetworkUnavailable 为 True,表示节点上的网络没有正确配置,无法跟其他 Pod 正常通信。

说明:

上述情况一般属于被动添加污点,但在容器服务中,存在一个主动添加/移出污点的过程:

在新增节点时,首先为该节点添加==node.cloudprovider.kubernetes.io/uninitialized ==污点,待节点初始化成功后再自动移除此污点,以避免 Pod 被调度到未初始化好的节点。

示例:pandas 是基于NumPy 的一种工具,该工具是为了解决数据分析任务而创建的。

如果觉得《Pod 一直处于 Pending 状态》对你有帮助,请点赞、收藏,并留下你的观点哦!

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。