亲测有效:docker清理Overlay2占用磁盘空间

这篇具有很好参考价值的文章主要介绍了亲测有效:docker清理Overlay2占用磁盘空间。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

使用Docker过程中,长时间运行服务容器,导致不能进行上传文件等操作,通过命令df -h 发现overlay占用较高。通过命令docker system prune -a 清理无用镜像、缓存、挂载数据,也没有什么改变。
prune指令默认会清除所有如下资源:

  • 已停止的容器(container)
  • 未被任何容器所使用的卷(volume)
  • 未被任何容器所关联的网络(network)
  • 所有悬空镜像(image)。
    亲测有效:docker清理Overlay2占用磁盘空间

查询 overlay的作用的时候知道:

容器的磁盘占用

每次创建一个容器时,都会有一些文件和目录被创建,例如:

  • /var/lib/docker/containers/ID目录,如果容器使用了默认的日志模式,他的所有日志都会以JSON形式保存到此目录下。
  • /var/lib/docker/overlay2 目录下含有容器的读写层,如果容器使用自己的文件系统保存了数据,那么就会写到此目录下。
    进入到/var/lib/docker/containers 目录下 通过 du -h --max-depth=1 查找大文件占用,发现这些文件中占用空间最大的是***-json.log**文件。而此文件的内容为docker生成的日志文件。

清理脚本

#!/bin/bash
echo "======== start clean docker containers logs ========"
logs=$(find /var/lib/docker/containers/ -name *-json.log)
for log in $logs
        do
                echo "clean logs : $log"
                cat /dev/null > $log
        done
echo "======== end clean docker containers logs ========"

执行完脚本之后,通过命令df -h发现 /var/lib/docker/overlay2/ID的占用还是很大
亲测有效:docker清理Overlay2占用磁盘空间
由于构建的镜像,项目日志是存在本地的所以找到日志文件在本地的位置进行清理项目日志文件减少磁盘占用

参考:

http://www.choupangxia.com/2019/09/15/linux-centos-var-lib-docker-container%E7%9B%AE%E5%BD%95%E5%AF%BC%E8%87%B4%E7%B3%BB%E7%BB%9F%E5%AD%98%E5%82%A8%E7%88%86%E6%BB%A1%EF%BC%8C%E5%8D%A0%E7%94%A8%E5%A4%A7%E9%87%8F%E5%AD%98%E5%82%A8%E8%A7%A3/

https://crycrycry.blog.csdn.net/article/details/111244328?spm=1001.2101.3001.6650.3&utm_medium=distribute.pc_relevant.none-task-blog-2%7Edefault%7ECTRLIST%7ERate-3.pc_relevant_antiscanv2&depth_1-utm_source=distribute.pc_relevant.none-task-blog-2%7Edefault%7ECTRLIST%7ERate-3.pc_relevant_antiscanv2&utm_relevant_index=4文章来源地址https://www.toymoban.com/news/detail-479458.html

到了这里,关于亲测有效:docker清理Overlay2占用磁盘空间的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Docker下/var/lib/docker/overlay2空间清理

    Docker使用overlay2存储驱动来管理容器镜像和数据卷。如果不进行清理,overlay2会占用大量的磁盘空间。以下是/var/lib/docker/overlay2空间清理的步骤: 停止所有运行的Docker容器: 删除所有未使用的镜像: 删除未使用的Docker数据卷: 清理overlay2目录中未使用的文件。使用以下命令列

    2024年02月04日
    浏览(27)
  • docker磁盘爆满,linux docker /var/lib/docker/overlay2占用磁盘原因分析

    提示:这里描述项目中遇到的问题: 某天发现自己的博客网站挂掉了。上腾讯云发现是 磁盘已经满了 。 一般原因有下列几种情况,逐步分析即可 1.docker镜像占用磁盘 2.docker日志 3./var/lib/docker/overlay2下的容器文件(主要) 这种情况先使用 docker images 对象查看有哪些镜像,可

    2024年02月08日
    浏览(34)
  • docker磁盘空间爆满 通过overlay2 目录名查找对应容器

    看到占用磁盘空间最大的目录是docker存储根目录下的overlay2目录 再查看docker存储根目录下的overlay2目录下哪个目录占用空间最大 找出最大的这个overlay2目录的目录名是:ef129273a3f100feec4970bee90b0b83d9f1b170f6a76668eba9bdcfbf5f4ac8 下面需要使用这个目录名字符串去反向查找这个目录属于哪

    2024年02月16日
    浏览(50)
  • Docker-Overlay2磁盘空间爆满清理方法

    在日常线上环境中,我们通常会来做利用Docker来做容器化管理,通过运行容器来执行任务等。但是,随着业务量的不断增大,容器的不断启动,往往会出现磁盘空间不足,1、第一种情况:是因为docker中部署的系统中日志内容的不断扩大。这种情况下,我们可手动,或定时任务

    2024年02月11日
    浏览(46)
  • docker Overlay目录占用的磁盘空间过大

    今天遇到线上机器报警,排查后查到是docker的Overlay目录占用磁盘空间过大,记录一下解决办法。 Docker的Overlay目录是用于存储Docker容器的文件系统的。Overlay是一种联合文件系统,它能够将多个文件系统叠加在一起,形成一个只读的基础文件系统和一个可写的上层文件系统。在

    2024年02月06日
    浏览(44)
  • docker overlay2 清理

    使用命令进行运行容器时,没对日志文件进行限制,随着时间的增长,日志文件越来越大,如果写日志比较频繁,文件超过100g也是很正常. 第一种,找到对应文件进行删除 进入docker 的containers目录:cd /var/lib/docker/containers 查看容器文件夹占用内存大小: du -sh * 如找到大文件夹,进入该

    2024年02月15日
    浏览(28)
  • 如何清理 Docker 占用的磁盘空间

    Docker 很占用空间,每当我们运行容器、拉取镜像、部署应用、构建自己的镜像时,我们的磁盘空间会被大量占用。 如果你也被这个问题所困扰,咱们就一起看一下 Docker 是如何使用磁盘空间的,以及如何回收。 docker 占用的空间可以通过下面的命令查看: TYPE  列出了docker 使

    2024年02月07日
    浏览(49)
  • docker部署项目,/var/lib/docker/overlay2目录满了如何清理?

    今天突然发现跑服务器上的项目挂了,上去看了一下原来是磁盘满了。 看来是目录 /var/lib/docker/overlay2 下占满了磁盘,看看里面是什么。 这一块只是查找哪些文件占满了磁盘,不感兴趣的朋友可以不看。 /var/lib/docker 目录是 docker 的默认目录,进去看看 检索文件的最大深度

    2024年01月21日
    浏览(25)
  • 记录/var/lib/docker/overlay2/ 磁盘爆满的解决过程

      今天售后同事匆匆忙忙跑过来说:“客户那边的机器人挂掉了,app都运行不起来,可硬件都是正常的,我也不知道什么问题”,我心想:“我们机器人系统已经开发迭代好多年了,还会出现这种问题?”,没方法,还是借助我们开发好的远程工具排查吧,排查当然得从机器人

    2023年04月14日
    浏览(28)
  • 清理Elasticsearch占用的内存和磁盘空间

    一,遇到OutOfMemoryError问题 打开Kibana,发现连不上Elasticsearch了,提示Cannot connect to the Elasticsearch cluster,检查: 发现是Elasticsearch service dead挂了。 继续检查错误日志/var/log/elasticsearch/elasticsearch.log 疑似Elasticsearch内存溢出。 通过 确实发现系统内存几乎100% ; 进一步的对各程序的

    2024年04月16日
    浏览(30)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包