linux ubi文件系统加载失败“too large reserved_peds”

这篇具有很好参考价值的文章主要介绍了linux ubi文件系统加载失败“too large reserved_peds”。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

今天要升级linux根文件系统ubi,结果简单打包工作,就有一个始终不正确,花了不少时间,总算搞明白了。

我使用了两个打包脚本,脚本1是一个整个系统打包脚本,脚本2是一个专门给文件系统打包的脚本。

脚本1的部分配置:

linux ubi文件系统加载失败“too large reserved_peds”

linux ubi文件系统加载失败“too large reserved_peds”

脚本1如上两部分,先指定文件目录DIR,打包后卷名,flash大小,输出名字,输出目录。

脚本2如下:

linux ubi文件系统加载失败“too large reserved_peds”

执行脚本基本同上,配置参数直接给出。

使用脚本2生成rootfs55.img,加载板子上,发现了两个问题:

问题1:启动后,文件系统加载失败了,如下:

linux ubi文件系统加载失败“too large reserved_peds”

 如上,直接提示

linux ubi文件系统加载失败“too large reserved_peds”

 这个应该就是配置出现了问题,给文件系统分配的size过大了,而使用脚本1编译:

linux ubi文件系统加载失败“too large reserved_peds” 取得的文件系统,正常启动如下:

linux ubi文件系统加载失败“too large reserved_peds”

 对比脚本,脚本1:

linux ubi文件系统加载失败“too large reserved_peds”

 脚本2:

linux ubi文件系统加载失败“too large reserved_peds”

 差别就是-C 的配置不一样,如上的配置参数意义:

 -r:制定文件内容的位置 
   -m:页面大小 
   -e:逻辑擦除块大小 
   -c:最大的逻辑擦除块数量

直接将mkubifs_forA8fs_liming.shC参数修改为440看看

linux ubi文件系统加载失败“too large reserved_peds”

还是不正确,再对比下差异,还有一点如下:

linux ubi文件系统加载失败“too large reserved_peds”

 执行制定的配置文件不同,两个配置文件的配置不一致,分配如下:

脚本1使用ubinizeImg.cfg,配置正确,如下:

linux ubi文件系统加载失败“too large reserved_peds”

脚本2使用ubinize.cfg,配置如下:

linux ubi文件系统加载失败“too large reserved_peds”

应该就是这个76M导致的,

之前一直提示linux ubi文件系统加载失败“too large reserved_peds”

如果按照76M计算,76*8=608,加上2%余量,差不过620多

修改ubinize.cfg文件,将size修改为55M,之后打包,下载到板子就能正常启动了:

linux ubi文件系统加载失败“too large reserved_peds”

 本文是linux系统ubi文件系统异常第一篇,后续还有一些异常处理

 文章来源地址https://www.toymoban.com/news/detail-479633.html

 

到了这里,关于linux ubi文件系统加载失败“too large reserved_peds”的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Git 传输大文件,出现:error: Object too large (89,567,972 bytes), rejecting the pack. Max o

    一,本文介绍一下关于使用Git 向云端上传大文件情况下,push时会报如下错误: 在出现上述问题后,怎样把已经add和commit的大文件删除,从而能重新上传的解决办法如下。 1.使用git log,查看传输日志 2.111是本次上传大文件失败日志记录,222为上次传输成功日志记录,使用gi

    2024年03月17日
    浏览(48)
  • Nginx报错 HTTP 413 Request Entity Too Large(Payload Too Large)解决方案

    上传文件时,请求参数过大,导致超出服务端限制。 客户端发送的实体主体部分比服务器能够或者希望处理的要大。  Nginx默认最大能够上传1MB文件,打开nginx.conf在http{}中,找到server{}设置: client_max_body_size 30m;(配置客户端请求实体最大值) client_body_buffer_size 128k;(配置请

    2024年02月07日
    浏览(63)
  • MySQL报错:ERROR 1118 (42000): Row size too large. 或者 Row size too large (> 8126).

    今天拿到一个建语句时,大概二百多个字段,然后大部分类型是 string 的,要求建 MySQL 的表。首先将 string 替换为 varchar(xx),然后执行了一下语句,报错如下所示: ERROR 1118 (42000): Row size too large. The maximum row size for the used table type, not counting BLOBs, is 65535. This includes storage overhe

    2023年04月09日
    浏览(43)
  • 413 Request Entity Too Large

    字面意思很简单,就是文件太大了 先说解决方法!!! 如果是使用NGINX做代理,NGINX默认最大上传是1M如果超过就无法上传。 可以在配置写入如下: 在最后加上 client_max_body_size 100m; ,记得最后带上分号结束。 本来在本地调试页面时候,因为自己服务器本身带宽就很小,上传

    2024年02月10日
    浏览(40)
  • elasticsearch Data too large问题解决

    现象: 1、钉钉上收到es集群监控告警,集群变为yellow 2、kibana上没有数据,打开索引管理报以下错误: 解决: 1、修改config目录下jvm配置文件中关于jvm的参数 2、重启es集群 2.1 如果分片有副本的话,重启过程中,要临时关闭分片复制功能。 每个结点重启时,ElasticSearch集群的

    2024年02月07日
    浏览(36)
  • 413 Request Entity Too Large问题解决方法

    最近我们有个小程序需求是现场拍照提取照片中的有效信息,上传图片只能通过现场拍照,由于目前手机像素普遍较高,导致上传接口出现413 Request Entity Too Large,上传文件过大引起nginx代理报错。 针对这个问题,解决方案是: 项目配置文件修改,比如springboot项目中的applic

    2024年02月16日
    浏览(38)
  • ES实战-result window is too large

    做分页查询,当分页达到一定量的时候,报如下错误: 原因分析: es对from + size的大小进行限制,必须小于等于10000。 方案一(有风险) 将max_result_window参数阈值调大,在业务中限制分页大小,使from+size=10000; 具体操作 改法一: 动态更改索引设置,为max_result_window参数赋值足够

    2024年03月15日
    浏览(61)
  • ES实战- data too large, data for

    客户现场业务系统突然查询不到数据,个人一开始分析以为是聚合查询报错,于是去看了下系统日志,看到如下日志打印: 尝试重启ES后系统可以恢复正常,但是运行一段时间后又会再次上报这个Data too large的错误。 PS:es版本7.10 分析报错,看日志Caused by: ElasticsearchStatusExcep

    2024年02月03日
    浏览(41)
  • es 报错 Data too large 触发断路器

    报错原因是 es 在 full GC 之前触发了默认的断路器,导致报错 [parent] Data too large ,相似的报错内容如下: 查看当前 es 节点的 jvm 内存使用情况(ip和端口要换成自己的 es 节点) heap.current 当前使用的内存 heap.percent 内存使用量百分比 heap.max 内存最大值 如果本机内存足够,并且

    2024年01月18日
    浏览(60)
  • 单片机遇到“auto segment too large“怎么办

    遇到这个情况有可能是某一个数组太大,然后单片机内部数据存储区不够用, 所以可以把这个数据存在单片机外例如      int led[8][8]={         {1,1,1,1,1,1,1,1},//1         {1,0,0,0,0,0,0,1},//2         {1,0,0,0,0,0,0,1},//3         {1,0,0,0,0,0,0,1},//4         {1,0,0,0,0,0,0,1},//5  

    2024年02月14日
    浏览(56)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包