java 批量插入千万条数据优化方案【值得收藏】

这篇具有很好参考价值的文章主要介绍了java 批量插入千万条数据优化方案【值得收藏】。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

场景介绍

再实际开发应用中总会面临导入大批量数据插入数据库、数据迁移、同步等操作在java 后台执行,执行效率的优化问题随之而来!比如如何快速往MySQL数据库中导入1000万数据

mybatis

java 批量插入千万条数据优化方案【值得收藏】

2、MySQL中新建一张user表,为了方便演示只保留id、昵称、年龄3个字段,建表语句;

java 批量插入千万条数据优化方案【值得收藏】

3、再次打开pom.xml文件,添加mybatis generator插件用于自动生成mapper映射文件;

java 批量插入千万条数据优化方案【值得收藏】

4、上一步添加了mybatis generator插件之后还不能直接使用,还需要在项目resources目录下新建一个配置文件generatorConfig.xml,里面主要需要配置数据库连接信息、Model文件生成目录、Mapper文件生成目录、以及xml文件生成目录;

java 批量插入千万条数据优化方案【值得收藏】

5、打开resources目录下的application.properties(或是application.yml)文件,添加一下mybatis相关配置和项目数据库连接配置;

java 批量插入千万条数据优化方案【值得收藏】

6、展示一下项目的完整结构

java 批量插入千万条数据优化方案【值得收藏】

Mybatis为什么慢?

首先我们用Mybatis来测试一下,看看插入1000万条数据需要多长时间。

实现步骤:

1、在UserMapper.java和UserMapper.xml文件中实现批量插入方法;

java 批量插入千万条数据优化方案【值得收藏】

2、新建一个Test测试类实现随机生成1000万用户记录,并调用上步已经实现的批量插入方法将数据插入到MySQL数据库;

java 批量插入千万条数据优化方案【值得收藏】

接下来就是正式测试了,没想到中间出了不少问题,在这里说明一下并附上解决方案。

问题一:Java堆内存爆了!

原因分析:由于要生成1000万条用户记录,需要申请大量Java的堆内存,已经超出JVM设置的最大堆内存大小,导致OutOfMemoryError报错:

java 批量插入千万条数据优化方案【值得收藏】

解决办法:增加堆内存。

JVM设置堆内存有两个参数:

  1. -Xms 用于设置堆内存初始值,一般建议设置为和最大值一样;
  2. -Xmx 用于设置堆内存最大值,默认值为物理内存的1/4;

因为我的电脑是32G内存,也就是说默认最大堆内存有8G,8G都不够的话,那我直接来个20G试试,IDEA菜单栏依次打开Run -> Edit Configurations:

修改步骤:

  1. 选中我们的测试类
  2. 在右边找到VM options选项,输入-Xms20480m -Xmx20480m

java 批量插入千万条数据优化方案【值得收藏】

问题二:MySQL报错:Packet for query is too large

原因分析:因为发送到MySQL的数据量过大,超出了设置的最大值,导致报错:

java 批量插入千万条数据优化方案【值得收藏】

解决方案:修改MySQL服务器max_allowed_packet属性。

修改步骤:

  1. 直接在MySQL安装目录下找到my.ini文件,在[mysqld]下面添加一行max_allowed_packet = 4G
  1. 通过MySQL客户端工具修改,这里以我常用的MySQL Workbench客户端来修改,菜单栏找到Server -> Options File,点击切换Networking标签:

java 批量插入千万条数据优化方案【值得收藏】

Tip:不论哪种方式,修改完都要记得重启MySQL,否则修改不生效哦。

我们来看下执行结果:

java 批量插入千万条数据优化方案【值得收藏】

结果:

使用Mybatis插入1000万条数据到MySQL数据库共花费了199.8秒

这结果是快还是慢?我们来具体分析一下耗时分布情况。

分析:

方法:

JDBC驱动中有一个profileSQL属性,可以跟踪记录SQL执行时间,附上官方文档介绍:

java 批量插入千万条数据优化方案【值得收藏】

所以我们需要将数据库连接加上profileSQL=true属性。

再次看下执行结果:

java 批量插入千万条数据优化方案【值得收藏】

其中,duration指的是SQL执行的时间,也就是说MySQL服务器执行具体SQL语句的时间其实只有82.3秒,我们上面统计到Mybatis插入1000万条数据花了近200秒的时间,那么这中间的100多秒都干嘛去了?

分析控制台输出的日志之后我发现了蹊跷所在:从程序调用Mybatis的批量插入方法开始,到MySQL服务器执行SQL,这中间正好差了100多秒,会是巧合吗?

打断点Debug追踪到Mybatis解析SQL语句的方法:

java 批量插入千万条数据优化方案【值得收藏】

这parse方法首先会读取我们xml文件里的SQL模版拿到参数及参数类型信息,拼接生成SQL语句。

每条数据循环一次,那1000W条数据就要循环解析1000万次,不慢才怪!

注意: MySQL的JDBC连接的url中要加rewriteBatchedStatements参数,并保证5.1.13以上版本的驱动,才能实现高性能的批量插入 MySQL JDBC驱动在默认情况下会无视executeBatch()语句,把我们期望批量执行的一组SQL语句拆散,一条一条地发给MySQL数据库,批量插入实际上是单条插入,直接造成较低的性能 url: jdbc:mysql://127.0.0.1:3306/test1?allowMultiQueries=true&rewriteBatchedStatements=true //allowMultiQueries=true,允许一次性执行多条SQL,批量插入时必须在连接地址后面加allowMultiQueries=true这个参数 //rewriteBatchedStatements=true,批量将数据传给MySQL,数据库会更高性能的执行批量处理,MySQL数据库版本在5.1.13以上,才能实现高性能的批量插入 文章来源地址https://www.toymoban.com/news/detail-422329.html

JdbcTemplate让我眼前一亮

接下来使用Spring框架的JdbcTemplate来测试一下。

实现步骤:

  1. 同样的我们新建一个测试类,并用JdbcTemplate实现一个批量插入方法;

java 批量插入千万条数据优化方案【值得收藏】

接下来就可以开始测试了,果然中间又出现了了问题。

问题一:调用JdbcTemplate的batchUpdate批量操作方法,结果却一条条的插数据?

首先看下控制台输出日志:

java 批量插入千万条数据优化方案【值得收藏】

可以看到JdbcTemplate是将我们的数据一条条的发送到MySQL服务器的,每个插入耗时1毫秒,那么1秒钟可以插入1000条记录,那么1000万条数据就需要10000秒,大约需要2.78个小时。

原因分析:JDBC驱动默认不支持批量操作,会将SQL语句分拆再一条条发往MySQL服务器执行,打断点跟踪一下代码,看看是不是这样:

java 批量插入千万条数据优化方案【值得收藏】

分析一下代码:

  • 首先执行步骤1判断rewriteBatchedStatements属性,为false的话直接执行步骤5的逻辑:串行执行SQL语句,也就是一条条顺序执行;
  • 如果rewriteBatchedStatements为true,那么首先会执行步骤2:判断是否为insert语句,结果为true则会改写SQL执行批量插入操作;
  • 如果不是insert语句,再继续根据JDBC驱动版本以及数据量大小判断是否需要执行批量操作;

Tip:对于非insert的批量操作语句,如果数据量小于3条,那也只会一条条顺序执行,不会进行合并批量执行。

附上rewriteBatchedStatements官方文档:

java 批量插入千万条数据优化方案【值得收藏】

大概看了一下,跟我们上面分析的一样,标示是否让JDBC驱动使用批量模式去改写SQL语句。

解决方案:数据库连接上加上rewriteBatchedStatements=true属性,开启批量操作支持。

再次看下执行结果:

java 批量插入千万条数据优化方案【值得收藏】

结果:

使用JdbcTemplate插入1000万条数据到MySQL数据库共花费了80.1秒

分析:

一开始由于没有开启批量操作支持,所以导致MySQL只能一条条插入数据,原因在于我对JDBC驱动不够了解,看来以后还得加强学习。

开启批量操作支持后,通过日志可以观察到真正的SQL执行时间只有67.9秒,但整个插入操作用了80.1秒,中间差的10多秒中应该就是消耗在了改写SQL语句上了。

总得来说,JdbcTemplate批量插入大量数据的效率还不错,让我有眼前一亮的感觉。

原生JDBC就是快啊!

早有耳闻批量插入大量数据必须使用原生JDBC,百闻不如一见,接下来我就使用原生JDBC的方式来测试一下。

实现步骤:

  1. 同样的,我们新建一个测试类,并使用原生JDBC的方式实现一个批量插入方法;

java 批量插入千万条数据优化方案【值得收藏】

接下来就可以测试了,别担心,这次肯定不会再出问题了。

来看下执行结果:

java 批量插入千万条数据优化方案【值得收藏】

结果:使用原生JDBC的方式插入1000万条数据到MySQL数据库共花费了58.9秒

分析:

原生JDBC写起来还是既简单又舒适啊,都多少年没写过了,但是越是简单的东西它越好用。

通过输出日志,我们可以看到整个方法执行时间为58.9秒,而SQL真正的执行时间为46.8秒,中间同样相差了10多秒,同样也是花在了改写SQL语句上,这一结果正好与上面JdbcTemplate的执行结果互相佐证,证明了我们的分析是正确的。

存储过程行不行?

最后使用存储过程的方式来试一下,说实话工作以来很少写存储过程,只好临时恶补了一波知识。

实现步骤:

  1. 首先编写批量插入的存储过程,功能其实很简单,接收一个外部传入的表示循环次数的参数,进行循环插入数据;

java 批量插入千万条数据优化方案【值得收藏】

接下来我们调用存储过程,执行命令:

CALL batchInsert(10000000);
 
 

等待执行完成,看下耗时情况:

java 批量插入千万条数据优化方案【值得收藏】

结果:

调用存储过程向MySQL数据库中批量插入1000万数据需要141.1秒

分析:

存储过程需要141.1秒的时间我还是比较惊讶的,本来我对存储过程还是比较期待的。

仔细想想,其实存储过程用在这个场景并没有发挥出它的优势,时间长点也不奇怪。

为什么这么说?

首先我们来看看存储过程的一些特点:

  1. 可以封装一些复杂的业务逻辑,外部直接调用存储过程即可;
  2. 存储过程只在创建时编译一次,以后每次执行存储过程都不需再重新编译,使用存储过程可提高执行速度;
  3. 将操作直接放到数据库端执行,可以减少客户端与服务端进行网络通讯开销,提高通信效率;

其次我们再来看看存储过程用在我们场景是否合适:

  1. 我们使一次性提交所有数据,所以不存在多次通信增加耗时的操作,在这里存储过程的优势没有发挥出来;
  2. 在存储过程的insert语句中,我们使用了concat函数来拼接字符串,函数运算会降低SQL执行效率;

所以说存储过程在我们这个业务场景并没有发挥出它的优势。

越简单越快

面对快速往MySQL数据库中导入1000万数据这个问题,我们通过MybatisJdbcTemplate原生JDBC以及存储过程4种方式分别进行测试,得出了最终结果:

插入速度:原生JDBC > JdbcTemplate > 存储过程 > Mybatis

结果分析:

Mybatis由于封装程度较高,底层有一个SQL模版解析和SQL拼接的过程,所以导致速度较慢;

存储过程一来由于本应用场景不太适合没有发挥出优势,二来由于SQL语句中加入了函数运算拖累了执行效率;

JdbcTemplate是Spring框架为了方便开发者调用对原生JDBC的一个轻度封装,虽然有点小插曲,但整体来看插入效率还可以;

转载:https://blog.csdn.net/zl1zl2zl3/article/details/105007492

场景介绍

再实际开发应用中总会面临导入大批量数据插入数据库、数据迁移、同步等操作在java 后台执行,执行效率的优化问题随之而来!比如如何快速往MySQL数据库中导入1000万数据

mybatis

java 批量插入千万条数据优化方案【值得收藏】

2、MySQL中新建一张user表,为了方便演示只保留id、昵称、年龄3个字段,建表语句;

java 批量插入千万条数据优化方案【值得收藏】

3、再次打开pom.xml文件,添加mybatis generator插件用于自动生成mapper映射文件;

java 批量插入千万条数据优化方案【值得收藏】

4、上一步添加了mybatis generator插件之后还不能直接使用,还需要在项目resources目录下新建一个配置文件generatorConfig.xml,里面主要需要配置数据库连接信息、Model文件生成目录、Mapper文件生成目录、以及xml文件生成目录;

java 批量插入千万条数据优化方案【值得收藏】

5、打开resources目录下的application.properties(或是application.yml)文件,添加一下mybatis相关配置和项目数据库连接配置;

java 批量插入千万条数据优化方案【值得收藏】

6、展示一下项目的完整结构

java 批量插入千万条数据优化方案【值得收藏】

Mybatis为什么慢?

首先我们用Mybatis来测试一下,看看插入1000万条数据需要多长时间。

实现步骤:

1、在UserMapper.java和UserMapper.xml文件中实现批量插入方法;

java 批量插入千万条数据优化方案【值得收藏】

2、新建一个Test测试类实现随机生成1000万用户记录,并调用上步已经实现的批量插入方法将数据插入到MySQL数据库;

java 批量插入千万条数据优化方案【值得收藏】

接下来就是正式测试了,没想到中间出了不少问题,在这里说明一下并附上解决方案。

问题一:Java堆内存爆了!

原因分析:由于要生成1000万条用户记录,需要申请大量Java的堆内存,已经超出JVM设置的最大堆内存大小,导致OutOfMemoryError报错:

java 批量插入千万条数据优化方案【值得收藏】

解决办法:增加堆内存。

JVM设置堆内存有两个参数:

  1. -Xms 用于设置堆内存初始值,一般建议设置为和最大值一样;
  2. -Xmx 用于设置堆内存最大值,默认值为物理内存的1/4;

因为我的电脑是32G内存,也就是说默认最大堆内存有8G,8G都不够的话,那我直接来个20G试试,IDEA菜单栏依次打开Run -> Edit Configurations:

修改步骤:

  1. 选中我们的测试类
  2. 在右边找到VM options选项,输入-Xms20480m -Xmx20480m

java 批量插入千万条数据优化方案【值得收藏】

问题二:MySQL报错:Packet for query is too large

原因分析:因为发送到MySQL的数据量过大,超出了设置的最大值,导致报错:

java 批量插入千万条数据优化方案【值得收藏】

解决方案:修改MySQL服务器max_allowed_packet属性。

修改步骤:

  1. 直接在MySQL安装目录下找到my.ini文件,在[mysqld]下面添加一行max_allowed_packet = 4G
  1. 通过MySQL客户端工具修改,这里以我常用的MySQL Workbench客户端来修改,菜单栏找到Server -> Options File,点击切换Networking标签:

java 批量插入千万条数据优化方案【值得收藏】

Tip:不论哪种方式,修改完都要记得重启MySQL,否则修改不生效哦。

我们来看下执行结果:

java 批量插入千万条数据优化方案【值得收藏】

结果:

使用Mybatis插入1000万条数据到MySQL数据库共花费了199.8秒

这结果是快还是慢?我们来具体分析一下耗时分布情况。

分析:

方法:

JDBC驱动中有一个profileSQL属性,可以跟踪记录SQL执行时间,附上官方文档介绍:

java 批量插入千万条数据优化方案【值得收藏】

所以我们需要将数据库连接加上profileSQL=true属性。

再次看下执行结果:

java 批量插入千万条数据优化方案【值得收藏】

其中,duration指的是SQL执行的时间,也就是说MySQL服务器执行具体SQL语句的时间其实只有82.3秒,我们上面统计到Mybatis插入1000万条数据花了近200秒的时间,那么这中间的100多秒都干嘛去了?

分析控制台输出的日志之后我发现了蹊跷所在:从程序调用Mybatis的批量插入方法开始,到MySQL服务器执行SQL,这中间正好差了100多秒,会是巧合吗?

打断点Debug追踪到Mybatis解析SQL语句的方法:

java 批量插入千万条数据优化方案【值得收藏】

这parse方法首先会读取我们xml文件里的SQL模版拿到参数及参数类型信息,拼接生成SQL语句。

每条数据循环一次,那1000W条数据就要循环解析1000万次,不慢才怪!

注意: MySQL的JDBC连接的url中要加rewriteBatchedStatements参数,并保证5.1.13以上版本的驱动,才能实现高性能的批量插入 MySQL JDBC驱动在默认情况下会无视executeBatch()语句,把我们期望批量执行的一组SQL语句拆散,一条一条地发给MySQL数据库,批量插入实际上是单条插入,直接造成较低的性能 url: jdbc:mysql://127.0.0.1:3306/test1?allowMultiQueries=true&rewriteBatchedStatements=true //allowMultiQueries=true,允许一次性执行多条SQL,批量插入时必须在连接地址后面加allowMultiQueries=true这个参数 //rewriteBatchedStatements=true,批量将数据传给MySQL,数据库会更高性能的执行批量处理,MySQL数据库版本在5.1.13以上,才能实现高性能的批量插入

到了这里,关于java 批量插入千万条数据优化方案【值得收藏】的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • java查询数据库百万条数据,优化之:多线程+数据库

    今天去面试时hr问了个关于大量数据查询的问题。 面试官:“我们公司是做数据分析的,每次需要从数据库中查询100万条数据进行分析,该接口不能用分页(不限制具体怎么实现),请问怎么优化sql或者java代码呢??” 如果用普通查询需要5分多分钟才查询完毕,所以我们用

    2024年02月15日
    浏览(53)
  • MyBatis批量插入数据优化,增加一个参数,效率提升百倍

    项目中进行接口压测,发现批量插入的速度有点超出预期,感觉很奇怪,经过定位后发现mybatise-plus批量保存的处理十分缓慢,使用的是saveBatch方法,这点有点想不通。于是就进行了相关内容分析。 根据mybatise-plus中saveBatch的方法进行源码查看:   继续跟踪逻辑,从代码上看,

    2024年02月15日
    浏览(44)
  • Oracle高速批量速插入数据解决方案

    最近做短信群发项目有一个需求,需要客户大批量(十万级)导入数据. 开始是用insert单条数据,10万条数据要20分钟 后来发现可以用insert all 一条sql一次导入500条记录,这样10万条数据只用了1.5分钟,导入速度提高了近来20倍 下面就使用insert all的心得体会记录如下. 使用方法: 需要注意

    2024年02月08日
    浏览(42)
  • mysql 批量数据插入很慢(kettle 输入输出组件) 性能优化办法

    背景 最近在做数仓重构项目,遇到一些性能瓶颈,这里记录一下解决办法。 随着业务数据每天都在增加,几年前开发的etl任务开始跑不动了。大表一般是通过增量的方式插入,但是修复bug 或者每月/季度跑一次的情况 需要跑全量,原来的etl任务可能需要跑几个小时,甚至出

    2024年01月17日
    浏览(42)
  • 13 秒插入 30 万条数据,我惊呆了!

    本文主要讲述通过MyBatis、JDBC等做大数据量数据插入的案例和结果。 实体类、mapper和配置文件定义 User实体 mapper接口 mapper.xml文件 jdbc.properties sqlMapConfig.xml 不分批次直接梭哈 循环逐条插入 MyBatis实现插入30万条数据 JDBC实现插入30万条数据 总结 验证的数据库表结构如下: 话不

    2024年02月11日
    浏览(46)
  • 如何往MySQL中插入100万条数据?

    现在有一个 数据量 为100万的数据样本 100w_data.sql 其数据格式如下,截取最后十条数据 999991,XxGdnLZObA999991,XxGdnLZObA,XxGdnLZObA,2020-3-18,1 999992,TBBchSKobC999992,TBBchSKobC,TBBchSKobC,2020-9-8,2 999993,rfwgLkYhUz999993,rfwgLkYhUz,rfwgLkYhUz,2020-2-6,0 999994,GQZXukHouW999994,GQZXukHouW,GQZXukHouW,2020-9-16,1 999995,UMNjgaXtn

    2024年02月15日
    浏览(36)
  • java 批量插入数据

    批量插入数据,常见的使用mybatis foreach 插入的方式,原始的方式和批处理 xml mapper: 对于数据量不是很大的,基本够用。如果同步数据特别慢,再考虑其它的方式。或者晚上凌晨再同步数据。 批量插入 数据库连接: 原始的方法写起来麻烦些。 MybatisGeneralBatchUtils  SpringUtil 

    2024年02月11日
    浏览(82)
  • java实现批量插入数据

    日常工作或者学习中,可能会遇到批量插入数据的需求,一般情况下数据量少的时候,我们会直接调用批量接口插入数据即可,当数据量特别大时,可能由于数据库限制,插入的数据最多不能超过100条(假如限制100条),就算是数据库支持一次性插入千条也会耗内存,如果使用

    2024年02月11日
    浏览(53)
  • 【mysql 插入数据问题】MySQL插入数据阻塞问题及优化方案

    摘要:本文主要介绍了MySQL数据库在插入数据时出现阻塞的常见原因,以及如何查看和优化这些问题。通过分析慢查询日志、优化索引、优化数据类型、批量插入等手段,可以有效地提高MySQL数据库的插入性能。 一、引言 MySQL作为一款广泛应用于各类项目的开源数据库,其性

    2024年02月02日
    浏览(50)
  • Elasticsearch批量插入数据 java api

    在java代码开发中一般通过client api来对es进行CRUD操作。在想es插入数据时,有时候需要对数据进行批量插入。这时候可以使用bulk来实习批量插入操作,创建一个BulkRequest,接着遍历数据列表,在BulkRequest中添加每一条数据的IndexRequest。由于IndexRequest是插入单条数据,因此每一次

    2024年02月11日
    浏览(54)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包