成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

MyBatis批量插入幾千條數據慎用foreach

開發 后端
經排查發現,主要時間消耗在往 MyBatis 中批量插入數據。mapper configuration是用 foreach 循環做的,差不多是這樣。(由于項目保密,以下代碼均為自己手寫的demo代碼)。

近日,項目中有一個耗時較長的 Job 存在 CPU 占用過高的問題。

<insert id="batchInsert" parameterType="java.util.List">
insert into USER (id, name) values
<foreach collection="list" item="model" index="index" separator=",">
(#{model.id}, #{model.name})
</foreach>
</insert>

這個方法提升批量插入速度的原理是,將傳統的:

INSERT INTO `table1` (`field1`, `field2`) VALUES ("data1", "data2");
INSERT INTO `table1` (`field1`, `field2`) VALUES ("data1", "data2");
INSERT INTO `table1` (`field1`, `field2`) VALUES ("data1", "data2");
INSERT INTO `table1` (`field1`, `field2`) VALUES ("data1", "data2");
INSERT INTO `table1` (`field1`, `field2`) VALUES ("data1", "data2");

轉化為:

INSERT INTO `table1` (`field1`, `field2`) VALUES ("data1", "data2"),
("data1", "data2"),
("data1", "data2"),
("data1", "data2"),
("data1", "data2");

在 MySql Docs:https://dev.mysql.com/doc/refman/5.6/en/insert-optimization.html中也提到過這個 trick,如果要優化插入速度時,可以將許多小型操作組合到一個大型操作中。理想情況下,這樣可以在單個連接中一次性發送許多新行的數據,并將所有索引更新和一致性檢查延遲到最后才進行。

乍看上去這個 foreach 沒有問題,但是經過項目實踐發現,當表的列數較多(20+),以及一次性插入的行數較多(5000+)時,整個插入的耗時十分漫長,達到了 14 分鐘,這是不能忍的。在[資料]https://stackoverflow.com/questions/19682414/how-can-mysql-insert-millions-records-fast中也提到了一句話:

?

Of course don't combine ALL of them, if the amount is HUGE. Say you have 1000 rows you need to insert, then don't do it one at a time. You shouldn't equally try to have all 1000 rows in a single query. Instead break it into smaller sizes.

?

它強調,當插入數量很多時,不能一次性全放在一條語句里。可是為什么不能放在同一條語句里呢?這條語句為什么會耗時這么久呢?我查閱了[資料]https://stackoverflow.com/questions/32649759/using-foreach-to-do-batch-insert-with-mybatis/40608353發現:

?

「Insert inside Mybatis foreach is not batch」, this is a single (could become giant) SQL statement and that brings drawbacks:

  • some database such as Oracle here does not support.
  • in relevant cases: there will be a large number of records to insert and the database configured limit (by default around 2000 parameters per statement) will be hit, and eventually possibly DB stack error if the statement itself become too large.

Iteration over the collection must not be done in the mybatis XML. Just execute a simple Insertstatement in a Java Foreach loop. 「The most important thing is the session Executor type」.

SqlSession session = sessionFactory.openSession(ExecutorType.BATCH);
for (Model model : list) {
session.insert("insertStatement", model);
}
session.flushStatements();

Unlike default ExecutorType.SIMPLE, the statement will be prepared once and executed for each record to insert.

?

從[資料]https://blog.csdn.net/wlwlwlwl015/article/details/50246717中可知,默認執行器類型為Simple,會為每個語句創建一個新的預處理語句,也就是創建一個「PreparedStatement」對象。在我們的項目中,會不停地使用批量插入這個方法,而因為MyBatis對于含有<foreach>的語句,無法采用緩存,那么在每次調用方法時,都會重新解析sql語句。

?

Internally, it still generates the same single insert statement with many placeholders as the JDBC code above.

MyBatis has an ability to cache PreparedStatement, but this statement cannot be cached because it contains <foreach /> element and the statement varies depending on the parameters.  

As a result, MyBatis has to 1) evaluate the foreach part and 2) parse the statement string to build parameter mapping [1] on every execution of this statement.  

And these steps are relatively costly process when the statement string is big and contains many placeholders.

[1] simply put, it is a mapping between placeholders and the parameters.

?

從上述[資料] http://blog.harawata.net/2016/04/bulk-insert-multi-row-vs-batch-using.html 可知,耗時就耗在,由于我 foreach 后有 5000+ 個 values,所以這個PreparedStatement 特別長,包含了很多占位符,對于占位符和參數的映射尤其耗時。并且,查閱相關[資料]https://www.red-gate.com/simple-talk/sql/performance/comparing-multiple-rows-insert-vs-single-row-insert-with-three-data-load-methods 可知,values 的增長與所需的解析時間,是呈指數型增長的。

所以,如果非要使用 foreach 的方式來進行批量插入的話,可以考慮減少一條 insert 語句中 values 的個數,最好能達到上面曲線的最底部的值,使速度最快。一般按[經驗]https://stackoverflow.com/questions/7004390/java-batch-insert-into-mysql-very-slow來說,一次性插 20~50 行數量是比較合適的,時間消耗也能接受。

重點來了。上面講的是,如果非要用<foreach>的方式來插入,可以提升性能的方式。而實際上,MyBatis文檔中寫批量插入的時候,是推薦使用另外一種方法。(可以看http://www.mybatis.org/mybatis-dynamic-sql/docs/insert.html中 「Batch Insert Support」 標題里的內容)

SqlSession session = sqlSessionFactory.openSession(ExecutorType.BATCH);
try {
SimpleTableMapper mapper = session.getMapper(SimpleTableMapper.class);
List<SimpleTableRecord> records = getRecordsToInsert(); // not shown
BatchInsert<SimpleTableRecord> batchInsert = insert(records)
.into(simpleTable)
.map(id).toProperty("id")
.map(firstName).toProperty("firstName")
.map(lastName).toProperty("lastName")
.map(birthDate).toProperty("birthDate")
.map(employed).toProperty("employed")
.map(occupation).toProperty("occupation")
.build()
.render(RenderingStrategy.MYBATIS3);
batchInsert.insertStatements().stream().forEach(mapper::insert);
session.commit();
} finally {
session.close();
}

即基本思想是將MyBatis session的executor type設為 「Batch」,然后多次執行插入語句。就類似于 JDBC 的下面語句一樣。

Connection connection = DriverManager.getConnection("jdbc:mysql://127.0.0.1:3306/mydb?useUnicode=true&characterEncoding=UTF-8&useServerPrepStmts=false&rewriteBatchedStatements=true","root","root");
connection.setAutoCommit(false);
PreparedStatement ps = connection.prepareStatement(
"insert into tb_user (name) values(?)");
for (int i = 0; i < stuNum; i++) {
ps.setString(1,name);
ps.addBatch();
}
ps.executeBatch();
connection.commit();
connection.close();

經過試驗,使用了ExecutorType.BATCH的插入方式,性能顯著提升,不到 2s 便能全部插入完成。

總結一下,如果 MyBatis 需要進行批量插入,推薦使用ExecutorType.BATCH的插入方式,如果非要使用<foreach>的插入的話,需要將每次插入的記錄控制在 20~50 左右。

責任編輯:龐桂玉 來源: Java后端技術
相關推薦

2021-09-27 07:56:41

MyBatis Plu數據庫批量插入

2021-11-02 14:46:50

數據

2021-11-19 11:50:48

MyBatisforeachJava

2024-04-15 08:30:53

MySQLORM框架

2022-09-29 10:06:56

SQLMySQL服務端

2021-10-09 06:59:36

技術MyBatis數據

2023-12-30 20:04:51

MyBatis框架數據

2021-11-01 22:29:28

Python數據單身

2024-04-17 08:18:22

MyBatis批量插入SQL

2013-04-01 15:03:58

Android開發Android批量插入

2020-07-28 08:31:05

數據分析技術IT

2011-08-11 14:15:23

SQL Server索引碎片

2024-03-07 08:08:51

SQL優化數據

2023-06-07 08:00:00

MySQL批量插入

2021-10-18 07:58:33

MyBatis Plu數據庫批量插入

2021-04-08 10:55:53

MySQL數據庫代碼

2020-07-19 21:26:48

網絡安全程序員技術

2011-08-04 18:00:47

SQLite數據庫批量數據

2018-06-21 09:12:01

編程語言Python數據分析

2022-04-06 14:15:10

Python數據
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 色综合久久天天综合网 | a级大毛片| 欧美三级在线 | 午夜91| 成年人黄色一级毛片 | 玖玖玖av | 最近最新中文字幕 | 国产精品久久久久久妇女 | 国产一区二区a | 久艹av | 天天夜碰日日摸日日澡 | 在线国产一区二区 | 日韩免费av网站 | 欧美亚洲免费 | 久久综合影院 | 精品欧美乱码久久久久久 | 亚洲精品99 | 日本中文字幕一区 | 欧美日韩亚洲国产 | 亚洲成人av一区二区 | 中文字幕av色 | 欧美一区二区三区四区五区无卡码 | 亚洲性视频 | 成人一区二区三区 | 国产高清视频在线 | 久久久久久久久久影视 | 一区二区三区视频在线观看 | 亚洲精品在线视频 | 亚洲精品国产电影 | 色综合99| 懂色中文一区二区在线播放 | 免费观看一级毛片视频 | 国产欧美性成人精品午夜 | 国产精品久久av | 色综合一区二区三区 | 在线国产中文字幕 | 伊人久久精品 | 日本精品一区二区在线观看 | 久久亚洲91 | 在线一区二区三区 | 国产激情91久久精品导航 |