k8s中如何调用接口删除处于Terminating状态的namespace

这篇具有很好参考价值的文章主要介绍了k8s中如何调用接口删除处于Terminating状态的namespace。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

k8s中删除处于Terminating状态的namespace

每当删除 namespace 或 pod 等一些 Kubernetes 资源时,有时资源状态会卡在 Terminating,很长时间无法删除,甚至有时增加 --force grace-period=0 之后还是无法正常删除。这时就需要 edit 该资源,或者将该资源导出为 json(通过调用原生接口进行删除), 将 finalizers 字段设置为 [],之后 Kubernetes 资源就正常删除了。

查看 ns 状态

[root@master1 ~]# kubectl get ns
NAME                          STATUS        AGE
cattle-fleet-system           Active        7d19h
cattle-impersonation-system   Active        7d19h
cattle-system                 Active        7d19h
default                       Active        8d
kube-node-lease               Active        8d
kube-public                   Active        8d
kube-system                   Active        8d
local                         Active        7d19h
monitoring                    Terminating   7d19h
test                          Active        23h

可以看到 monitoring 这个 namespace 一直处于Terminating状态,一般情况下强删是删不掉的,强删的方法如下:这个方法在这里会卡主,也是删不掉的

[root@master1 ~]# kubectl delete ns monitoring --force --grace-period=0

如果删不掉,就参考下面的方法

获取 namespace 的 json 文件

[root@master1 ~]# kubectl get ns monitoring -o json > /tmp/monitoring.json

查看monitoring.json的内容

{
  "kind": "Namespace",
  "apiVersion": "v1",
  "metadata": {
    "name": "monitoring",
    "uid": "4db2f7a3-5fb2-434a-a2d2-59c70453c1b7",
    "resourceVersion": "2896381",
    "creationTimestamp": "2023-05-17T06:51:39Z",
    "deletionTimestamp": "2023-05-24T09:08:47Z",
    "deletionGracePeriodSeconds": 0,
    "labels": {
      "field.cattle.io/projectId": "p-8bqcb",
      "kubernetes.io/metadata.name": "monitoring"
    },
    "annotations": {
      "cattle.io/status": "{\"Conditions\":[{\"Type\":\"ResourceQuotaInit\",\"Status\":\"True\",\"Message\":\"\",\"LastUpdateTime\":\"2023-05-17T06:51:40Z\"},{\"Type\":\"InitialRolesPopulated\",\"Status\":\"True\",\"Message\":\"\",\"LastUpdateTime\":\"2023-05-17T06:51:41Z\"}]}",
      "field.cattle.io/projectId": "c-m-bxmlx5bv:p-8bqcb",
      "kubectl.kubernetes.io/last-applied-configuration": "{\"apiVersion\":\"v1\",\"kind\":\"Namespace\",\"metadata\":{\"annotations\":{},\"name\":\"monitoring\"}}\n"},
  "spec": {
      "finalizers": [
          "kubernetes"
      ]
  },
  "status": {
      "phase": "Terminating"
  }
}

修改此monitoring.json文件内容为:

{
"kind": "Namespace",
  "apiVersion": "v1",
  "metadata": {
    "name": "monitoring",
    "uid": "4db2f7a3-5fb2-434a-a2d2-59c70453c1b7",
    "resourceVersion": "2896381",
    "creationTimestamp": "2023-05-17T06:51:39Z",
    "deletionTimestamp": "2023-05-24T09:08:47Z",
    "deletionGracePeriodSeconds": 0,
    "labels": {
      "field.cattle.io/projectId": "p-8bqcb",
      "kubernetes.io/metadata.name": "monitoring"
    },
    "annotations": {
      "cattle.io/status": "{\"Conditions\":[{\"Type\":\"ResourceQuotaInit\",\"Status\":\"True\",\"Message\":\"\",\"LastUpdateTime\":\"2023-05-17T06:51:40Z\"},{\"Type\":\"InitialRolesPopulated\",\"Status\":\"True\",\"Message\":\"\",\"LastUpdateTime\":\"2023-05-17T06:51:41Z\"}]}",
      "field.cattle.io/projectId": "c-m-bxmlx5bv:p-8bqcb",
      "kubectl.kubernetes.io/last-applied-configuration": "{\"apiVersion\":\"v1\",\"kind\":\"Namespace\",\"metadata\":{\"annotations\":{},\"name\":\"monitoring\"}}\n"},
  "spec": {
  },
  "status": {
      "phase": "Terminating"
  }
}

调用 api-server 接口进行删除

打开一个新的终端,或者把下面的命令放到后台执行

[root@master1 prometheus]# kubectl proxy
Starting to serve on 127.0.0.1:8001

调用接口删除

[root@master1 ~]# curl -k -H "Content-Type: application/json" -X PUT --data-binary @monitoring.json http://127.0.0.1:8001/api/v1/namespaces/monitoring/finalize
{
  "kind": "Namespace",
  "apiVersion": "v1",
  "metadata": {
    "name": "monitoring",
    "uid": "4db2f7a3-5fb2-434a-a2d2-59c70453c1b7",
    "resourceVersion": "2896381",
    "creationTimestamp": "2023-05-17T06:51:39Z",
    "deletionTimestamp": "2023-05-24T09:08:47Z",
    "deletionGracePeriodSeconds": 0,
    "labels": {
      "field.cattle.io/projectId": "p-8bqcb",
      "kubernetes.io/metadata.name": "monitoring"
  },
  "spec": {
  },
  "status": {
    "phase": "Terminating"
  }
}

输出以上内容表示删除成功。

: 如果kubectl get ns monitoring -o json的结果中"spec": {}中为空,则需要看下metadata部分是否有finalizers字段,如下以cattle-system所示:

{
    "apiVersion": "v1",
    "kind": "Namespace",
    "metadata": {
        "annotations": {
      "cattle.io/status": "{\"Conditions\":[{\"Type\":\"ResourceQuotaInit\",\"Status\":\"True\",\"Message\":\"\",\"LastUpdateTime\":\"2023-05-17T06:51:40Z\"},{\"Type\":\"InitialRolesPopulated\",\"Status\":\"True\",\"Message\":\"\",\"LastUpdateTime\":\"2023-05-17T06:51:41Z\"}]}",
      "field.cattle.io/projectId": "c-m-bxmlx5bv:p-8bqcb",
      "kubectl.kubernetes.io/last-applied-configuration": "{\"apiVersion\":\"v1\",\"kind\":\"Namespace\",\"metadata\":{\"annotations\":{},\"name\":\"monitoring\"}}\n",
      "lifecycle.cattle.io/create.namespace-auth": "true"
    },
    "creationTimestamp": "2023-05-17T06:51:39Z",
    "deletionTimestamp": "2023-05-24T09:08:47Z",
    "deletionGracePeriodSeconds": 0,
        "finalizers": [
            "controller.cattle.io/namespace-auth"
        ],
        "labels": {
            "field.cattle.io/projectId": "p-wfknh"
        },
        "name": "cattle-system",
        "resourceVersion": "165368",
        "selfLink": "/api/v1/namespaces/cattle-system",
        "uid": "223ad163-507c-4efe-b3a3-d3bc4b7a5211"
    },
    "spec": {},
    "status": {
        "phase": "Terminating"
    }
}

这里"spec": {},结果为空,无论我们怎么执行,此时此 ns 都不会被删除,此时想弄清楚这个问题,需要先了解下finalizers这个的含义 Finalizers 字段属于 Kubernetes GC 垃圾收集器,是一种删除拦截机制,能够让控制器实现异步的删除前(Pre-delete)回调。其存在于任何一个资源对象的 Meta 中,在 k8s 源码中声明为 []string,该 Slice 的内容为需要执行的拦截器名称。
对带有 Finalizer 的对象的第一个删除请求会为其 metadata.deletionTimestamp 设置一个值,但不会真的删除对象。一旦此值被设置,finalizers 列表中的值就只能被移除。
当 metadata.deletionTimestamp 字段被设置时,负责监测该对象的各个控制器会通过轮询对该对象的更新请求来执行它们所要处理的所有 Finalizer。 当所有 Finalizer 都被执行过,资源被删除。
metadata.deletionGracePeriodSeconds 的取值控制对更新的轮询周期。
每个控制器要负责将其 Finalizer 从列表中去除。
每执行完一个就从 finalizers 中移除一个,直到 finalizers 为空,之后其宿主资源才会被真正的删除。
看到这里有 finalizers 时,需要在导出的json文件中将finalizers的内容也删除,并再次调用接口删除。方法如下:文章来源地址https://www.toymoban.com/news/detail-466846.html

"finalizers": [
        ],
[root@master1 ~]# curl -k -H "Content-Type: application/json" -X PUT --data-binary @monitoring.json http://127.0.0.1:8001/api/v1/namespaces/monitoring/finalize

到了这里,关于k8s中如何调用接口删除处于Terminating状态的namespace的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 云原生 | k8s批量删除Evicted/Terminating/Unknown Pods

    宿主机内存被docker占满导致,K8s集群pod处于Evicted 状态,清理内存后处理Evicted和Terminating状态的pod 1、在集群查询pod状态,发现大量pod处于Evicted和Terminating状态 2.使用kubectl中的强制删除命令 3.删除非正常的pod  

    2024年02月08日
    浏览(28)
  • k8s delete namespace Terminating

    版本情况 当时Terminating截图 前段时间pod的数量增加,怀疑是master节点机器资源不足导致处理效率问题 目前运行的pod数量 查看Prometheus监控,可以看到master节点的使用率都很低,排除资源不足问题 执行查看资源情况, 没有发现依赖资源未释放情况,排查依赖资源没有释放问题

    2024年02月10日
    浏览(25)
  • k8s 大量 pod 处于 ContainerStatusUnknown 状态

    如图所示,nexus 正常运行,但产生了大量的状态不明的 pod,原因也无从所知 解决办法,删除多余的 pod,一个一个删除,非常费劲 获取 namespace 中状态为 ContainerStatusUnknown 的 pod,并删除 获取所有非 Running 状态下的 pod,并删除

    2024年02月07日
    浏览(40)
  • 云原生|kubernetes|删除不掉的namespace 一直处于Terminating状态的解决方案

    在kubesphere部署的过程中,由于kubernetes集群的版本和kubesphere的版本不匹配,因此想要回退重新部署,但发现要用的namespace  kubesphere-system 普通的删除方法无效,一直处于 Terminating状态 新部署由于namespace一直是删除状态,无法继续进行: 具体表现为一直挂在删除界面: 下面就

    2024年02月09日
    浏览(33)
  • k8s中如何正确删除pod

    --- ♦ 在日常的k8s运维过程中,避免不了会对某些pod进行剔除,那么如何才能正确的剔除不需要的pod呢? 首先,需要查出想要删除的pod kubectl 删除pod命令 可是这里你会发现,在进行删除delete pod后,并不会直接删除。该pod会自动重新构建(可以理解为重启、重构),原因是k

    2023年04月27日
    浏览(28)
  • k8s默认StorageClass,解决pvc一直处于“Pending”

    报错详情 排查思路 查看 pvc 详细属性 persistentvolume-controller waiting for a volume to be created, either by external provisioner \\\"nfs-provisioner-01\\\" or manually created by system administrator 从persistentvolume-controller反馈出来的信息是 没有权限来创建出pvc。 查看 nfs-provisioner pod日志 远程NFS服务器上的动态子

    2023年04月27日
    浏览(38)
  • K8S集群中Pod资源处于CrashLoopBackOff状态排查思路

    CrashLoopBackOff状态一般都是Pod资源中的容器出现了问题,可以有以下几点原因: 容器中部署的程序存在Bug,无法正常启动,就会出现此状态,可以查询容器的启动日志,从日志中获取重要线索,逐个进行排查。 定义Pod资源时,对于Pod中的容器进行了资源限额,可能限额的资源

    2024年01月21日
    浏览(31)
  • K8S集群中Pod资源处于ImagePullBackOff状态排查思路

    ImagePullBackOff状态表示容器的镜像拉取失败,可能存在以下几点原因: 拉取镜像时间较长导致超时,从而导致镜像拉取失败,部署完Docker后,一定要添加上阿里云的镜像加速器,否则拉取镜像是非常慢的,很容易就会导致镜像拉取失败。 镜像配置有误,指定的镜像在公有仓库

    2024年02月14日
    浏览(30)
  • 如何批量删除k8s中的异常pod信息

    kubectl get pods 发现有很多pod出问题了 Evicted可使用kubectl中的强制删除命令 批量删除所有“Evicted”状态的pod即可 OutOfCpu可使用kubectl中的强制删除命令 批量删除所有“OutOfcpu ”状态的pod即可 Terminating可使用kubectl中的强制删除命令

    2024年02月12日
    浏览(27)
  • k8s pod一直处于pending状态一般有哪些情况,怎么排查?

    一个pod一开始创建的时候,它本身就是会处于pending状态,这时可能是正在拉取镜像,正在创建容器的过程。 如果等了一会发现pod一直处于pending状态, 那么我们可以使用kubectl describe命令查看一下pod的Events详细信息。一般可能会有这么几种情况导致pod一直处于pending状态: 1、

    2024年01月17日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包