当前位置:首页 >百科 >MyBatis原生批量插入的坑与解决方案! 就出现了以下的一幕:沃

MyBatis原生批量插入的坑与解决方案! 就出现了以下的一幕:沃

2024-06-29 08:00:23 [百科] 来源:避面尹邢网

MyBatis原生批量插入的生批坑与解决方案!

作者:磊哥 数据库 其他数据库 本文我们演示了 MyBatis 量插原生批量插入时的问题:可能会因为插入的数据太多从而导致运行失败,我们可以通过分片的坑解方式来解决此问题。

[[429438]]

作者 | 王磊

MyBatis原生批量插入的坑与解决方案! 就出现了以下的一幕:沃

来源 | Java中文社群(ID:javacn666)

MyBatis原生批量插入的坑与解决方案! 就出现了以下的一幕:沃

转载请联系授权(微信ID:GG_Stone)

MyBatis原生批量插入的坑与解决方案! 就出现了以下的一幕:沃

前面的决方文章咱们讲了 MyBatis 批量插入的 3 种方法:循环单次插入、MyBatis 生批Plus 批量插入、MyBatis 量插 原生批量插入,详情请点击《MyBatis 坑解批量插入数据的 3 种方法!》。

但之前的决方文章也有不完美之处,原因在于:使用 「循环单次插入」的生批性能太低,使用「MyBatis 量插Plus 批量插入」性能还行,但要额外的坑解引入 MyBatis Plus 框架,使用「MyBatis 决方原生批量插入」性能最好,但在插入大量数据时会导致程序报错,生批那么,量插今天咱们就会提供一个更优的坑解解决方案。

原生批量插入的“坑”

首先,我们来看一下 MyBatis 原生批量插入中的坑,当我们批量插入 10 万条数据时,实现代码如下:

  1. import com.example.demo.model.User; 
  2. import com.example.demo.service.impl.UserServiceImpl; 
  3. import org.junit.jupiter.api.Test; 
  4. import org.springframework.beans.factory.annotation.Autowired; 
  5. import org.springframework.boot.test.context.SpringBootTest; 
  6.  
  7. import java.util.ArrayList; 
  8. import java.util.List; 
  9.  
  10. @SpringBootTest 
  11. class UserControllerTest {  
  12.  
  13.     // 最大循环次数 
  14.     private static final int MAXCOUNT = 100000; 
  15.  
  16.     @Autowired 
  17.     private UserServiceImpl userService; 
  18.      
  19.     /** 
  20.      * 原生自己拼接 SQL,批量插入 
  21.      */ 
  22.     @Test 
  23.     void saveBatchByNative() {  
  24.         long stime = System.currentTimeMillis(); // 统计开始时间 
  25.         List<User> list = new ArrayList<>(); 
  26.         for (int i = 0; i < MAXCOUNT; i++) {  
  27.             User user = new User(); 
  28.             user.setName("test:" + i); 
  29.             user.setPassword("123456"); 
  30.             list.add(user); 
  31.         } 
  32.         // 批量插入 
  33.         userService.saveBatchByNative(list); 
  34.         long etime = System.currentTimeMillis(); // 统计结束时间 
  35.         System.out.println("执行时间:" + (etime - stime)); 
  36.     } 

核心文件 UserMapper.xml 中的实现代码如下:

  1. <?xml version="1.0" encoding="UTF-8"?> 
  2. <!DOCTYPE mapper PUBLIC "-//mybatis.org//DTD Mapper 3.0//EN" "http://mybatis.org/dtd/mybatis-3-mapper.dtd"> 
  3. <mapper namespace="com.example.demo.mapper.UserMapper"> 
  4.     <insert id="saveBatchByNative"> 
  5.         INSERT INTO `USER`(`NAME`,`PASSWORD`) VALUES 
  6.         <foreach collection="list" separator="," item="item"> 
  7.             (#{ item.name},#{ item.password}) 
  8.         </foreach> 
  9.     </insert> 
  10.  
  11. </mapper> 

当我们开心地运行以上程序时,就出现了以下的一幕:

沃,程序竟然报错了!

这是因为使用 MyBatis 原生批量插入拼接的插入 SQL 大小是 4.56M,而默认情况下 MySQL 可以执行的最大 SQL 为 4M,那么在程序执行时就会报错了。

解决方案

以上的问题就是因为批量插入时拼接的 SQL 文件太多了,所以导致 MySQL 的执行报错了。那么我们第一时间想到的解决方案就是将大文件分成 N 个小文件,这样就不会因为 SQL 太大而导致执行报错了。也就是说,我们可以将待插入的 List 集合分隔为多个小 List 来执行批量插入的操作,而这个操作过程就叫做 List 分片。

有了处理思路之后,接下来就是实践了,那如何对集合进行分片操作呢?

分片操作的实现方式有很多种,这个我们后文再讲,接下来我们使用最简单的方式,也就是 Google 提供的 Guava 框架来实现分片的功能。

分片 Demo 实战

要实现分片功能,第一步我们先要添加 Guava 框架的支持,在 pom.xml 中添加以下引用:

  1. <!-- google guava 工具类 --> 
  2. <!-- https://mvnrepository.com/artifact/com.google.guava/guava --> 
  3. <dependency> 
  4.   <groupId>com.google.guava</groupId> 
  5.   <artifactId>guava</artifactId> 
  6.   <version>31.0.1-jre</version> 
  7. </dependency> 

接下来我们写一个小小的 demo,将以下 7 个人名分为 3 组(每组最多 3 个),实现代码如下:

  1. import com.google.common.collect.Lists; 
  2.  
  3. import java.util.Arrays; 
  4. import java.util.List; 
  5.  
  6. /** 
  7.  * Guava 分片 
  8.  */ 
  9. public class PartitionByGuavaExample {  
  10.     // 原集合 
  11.     private static final List<String> OLD_LIST = Arrays.asList( 
  12.             "唐僧,悟空,八戒,沙僧,曹操,刘备,孙权".split(",")); 
  13.  
  14.     public static void main(String[] args) {  
  15.         // 集合分片 
  16.         List<List<String>> newList = Lists.partition(OLD_LIST, 3); 
  17.         // 打印分片集合 
  18.         newList.forEach(i -> {  
  19.             System.out.println("集合长度:" + i.size()); 
  20.         }); 
  21.     } 

以上程序的执行结果如下:

从上述结果可以看出,我们只需要使用 Guava 提供的 Lists.partition 方法就可以很轻松的将一个集合进行分片了。

原生批量插入分片实现

那接下来,就是改造我们的 MyBatis 批量插入代码了,具体实现如下:

  1. @Test 
  2. void saveBatchByNativePartition() {  
  3.     long stime = System.currentTimeMillis(); // 统计开始时间 
  4.     List<User> list = new ArrayList<>(); 
  5.     // 构建插入数据 
  6.     for (int i = 0; i < MAXCOUNT; i++) {  
  7.         User user = new User(); 
  8.         user.setName("test:" + i); 
  9.         user.setPassword("123456"); 
  10.         list.add(user); 
  11.     } 
  12.     // 分片批量插入 
  13.     int count = (int) Math.ceil(MAXCOUNT / 1000.0); // 分为 n 份,每份 1000 条 
  14.     List<List<User>> listPartition = Lists.partition(list, count); 
  15.     // 分片批量插入 
  16.     for (List<User> item : listPartition) {  
  17.         userService.saveBatchByNative(item); 
  18.     } 
  19.     long etime = System.currentTimeMillis(); // 统计结束时间 
  20.     System.out.println("执行时间:" + (etime - stime)); 

执行以上程序,最终的执行结果如下:

从上图可以看出,之前批量插入时的异常报错不见了,并且此实现方式的执行效率竟比 MyBatis Plus 的批量插入的执行效率要高,MyBatis Plus 批量插入 10W 条数据的执行时间如下:

总结本文我们演示了 MyBatis 原生批量插入时的问题:可能会因为插入的数据太多从而导致运行失败,我们可以通过分片的方式来解决此问题,分片批量插入的实现步骤如下:

  1. 计算出分片的数量(分为 N 批);
  2. 使用 Lists.partition 方法将集合进行分片(分为 N 个集合);
  3. 循环将分片的集合进行批量插入的操作。

 

责任编辑:姜华 来源: Java中文社群 MyBatis Plus数据库批量插入

(责任编辑:探索)

    推荐文章
    热点阅读