mysql 批量数据插入很慢(kettle 输入输出组件) 性能优化办法

这篇具有很好参考价值的文章主要介绍了mysql 批量数据插入很慢(kettle 输入输出组件) 性能优化办法。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

背景
最近在做数仓重构项目,遇到一些性能瓶颈,这里记录一下解决办法。

随着业务数据每天都在增加,几年前开发的etl任务开始跑不动了。大表一般是通过增量的方式插入,但是修复bug 或者每月/季度跑一次的情况 需要跑全量,原来的etl任务可能需要跑几个小时,甚至出现超时失败的情况。因此需要优化,下面介绍一些优化方法。(项目是用kettle做的,如果使用其他开发工具,也可以参考下面的思路)

1、配置数据库连接参数
2、去掉临时表 DDL的primary key
3、调整输出组件的数量
4、暂时关闭索引

优化方法

1、配置数据库连接参数
defaultFetchSize:5000
useCursorFetch : true 相当于告诉数据库,分批读取数据,每次打包5000条回来
rewriteBatchedStatements : true 插入数据的时候,批量插入
useServerPrepStmts : true 启动预编译
useCompression : true 客户端跟服务器之间的数据压缩传输

以kettle为例,配置方法如下:
kettle更新数据慢怎么办,大数据,mysql,数据库,数据仓库
测试结果:
配置参数前:kettle更新数据慢怎么办,大数据,mysql,数据库,数据仓库
配置参数后:
kettle更新数据慢怎么办,大数据,mysql,数据库,数据仓库
性能提升了80倍!

2、去掉DDL中的 primary key
在 etl 的过程中会用中间表来存放一些临时数据,这些中间表可以去掉 ddl中的 primary key,通过逻辑来保证唯一性,只在结果表中使用primary key。primary key会检查相关字段是否重复,从而降低插入速度。(下面的案例 读写字段多,且表输入sql很复杂,所以插入很慢)

测试结果如下:
kettle更新数据慢怎么办,大数据,mysql,数据库,数据仓库
去掉目标表primary key 后
kettle更新数据慢怎么办,大数据,mysql,数据库,数据仓库
性能提升了20倍!

3、调整 输出组件数量
如果输出组件还是慢,可以复制多个输出。具体操作:输出组件 右键-改变开始复制的数量
kettle更新数据慢怎么办,大数据,mysql,数据库,数据仓库

4、暂时关闭索引
维护索引数据需要大量额外的开销,因此全量数据插入前,可以先关掉索引,插入完毕再打开索引。
ALTER TABLE table_name DISABLE KEYS;
ALTER TABLE table_name ENABLE KEYS;
效果对比如下:
kettle更新数据慢怎么办,大数据,mysql,数据库,数据仓库
kettle更新数据慢怎么办,大数据,mysql,数据库,数据仓库
性能提高了4倍!文章来源地址https://www.toymoban.com/news/detail-799256.html

到了这里,关于mysql 批量数据插入很慢(kettle 输入输出组件) 性能优化办法的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Mysql 实现批量插入对已存在数据忽略或更新

    对已存在的数据进行 忽略/更新 ,需要唯一索引/主键。 唯一索引可为多个字段的联合索引,比如根据我提供的sql中,我需要``name + age`不重复,则可把这2个字段联合创建为唯一索引 创建联合唯一索引的sql 批量插入对已存在数据忽略 批量插入对已存在数据更新 笔者这里只举

    2024年02月15日
    浏览(46)
  • MySQL——插入加锁/唯一索引插入死锁/批量插入效率

    本篇主要介绍MySQL跟加锁相关的一些概念、MySQL执行插入Insert时的加锁过程、唯一索引下批量插入可能导致的死锁情况,以及分别从业务角度和MySQL配置角度介绍提升批量插入的效率的方法; 在介绍MySQL执行插入的加锁过程之前,先复习下几种跟锁相关的概念; 快照读 InnoDB 利

    2024年02月12日
    浏览(37)
  • MySQL批量插入技巧

    关于MySQL批量插入的一些问题 MySQL 一直是我们互联网行业比较常用的数据,当我们使用 半ORM框架 进行 MySQL 大批量插入操作时,你是否考虑过这些问题: 进行大数据量插入时,是否需要进行分批次插入,一次插入多少合适?有什么判断依据? 使用 foreach 进行大数据量的插入存

    2024年02月03日
    浏览(47)
  • mysql 批量插入BulkCopy

    一、新建项目:SqlSugarDemo 二、连接串未添加AllowLoadLocalInfile=true 中文提示 : BulkCopy MySql连接字符串需要添加 AllowLoadLocalInfile=true; 添加后如果还不行Mysql数据库执行一下 SET GLOBAL local_infile=1  English Message : connection string add : AllowLoadLocalInfile=true  三、Startup.cs HomeController.cs

    2024年02月12日
    浏览(52)
  • mysql批量插入insert语句

    在MySQL中批量插入数据有几种方法,下面我将介绍其中两种常用的方法: 这是一种简单的方式,可以一次性插入多个值。以下是一个示例: 在上面的示例中,你需要替换your_table_name为你的表名,列名和相应的值。你可以一次性插入多行数据。 另一种批量插入数据的方法是使

    2024年02月06日
    浏览(42)
  • MySQL - 批量插入唯一索引冲突避免办法

    我们在进行大批量的数据插入时,遇到唯一索引冲突是经常的事,报错如下: 在MySQL中有4种方法可以避免唯一索引冲突 (一)导入差异数据,忽略重复数据,IGNORE INTO的使用 (二)导入并覆盖重复数据,REPLACE INTO 的使用 (三)导入保留重复数据未指定字段,INSERT INTO ON DU

    2024年02月01日
    浏览(43)
  • MYSQL批量插入并发场景下的DEADLOCK

    公元2023-10-12(周四)上午,组内的亚梅反馈,用户生成标签报死锁异常     查到当时报错的日志   具体异常信息如下   查看发生Deadlock的代码现场。 代码如下:   观察代码,大致逻辑是,先根据用户id查询出所有标签信息,计算出来需要新增的用户标签,批量入库。其中,

    2024年02月08日
    浏览(37)
  • mybatis批量插入数据list超过一定长度时报错的解决办法(批量插入数据,数据过多时报错解决和批量修改报错

    在使用MyBatis进行批量新增时,如果数据量较大,可以考虑分批次插入以减少数据库的负载压力。这里提供一种基于MyBatis的分批次插入的方法: 创建一个新的Mapper XML文件(例如:BatchInsertMapper.xml)来定义批量插入的SQL语句。在该XML文件中,添加如下内容:   请将上述代码中

    2024年02月16日
    浏览(51)
  • java 批量插入数据

    批量插入数据,常见的使用mybatis foreach 插入的方式,原始的方式和批处理 xml mapper: 对于数据量不是很大的,基本够用。如果同步数据特别慢,再考虑其它的方式。或者晚上凌晨再同步数据。 批量插入 数据库连接: 原始的方法写起来麻烦些。 MybatisGeneralBatchUtils  SpringUtil 

    2024年02月11日
    浏览(82)
  • java实现批量插入数据

    日常工作或者学习中,可能会遇到批量插入数据的需求,一般情况下数据量少的时候,我们会直接调用批量接口插入数据即可,当数据量特别大时,可能由于数据库限制,插入的数据最多不能超过100条(假如限制100条),就算是数据库支持一次性插入千条也会耗内存,如果使用

    2024年02月11日
    浏览(54)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包