@Transactional
public <S extends T> S save(S entity) {
if (this.entityInformation.isNew(entity)) {
this.em.persist(entity);
return entity;
} else {
return this.em.merge(entity);
根据源码我们可以看出来,save是先通过判断这个对象是不是新的,新的便会新增,否则就是执行的修改。整个是有分两步进行的,先查询再新增
saveAll()方法
@Transactional
public <S extends T> List<S> saveAll(Iterable<S> entities) {
Assert.notNull(entities, "The given Iterable of entities not be null!");
List<S> result = new ArrayList();
Iterator var3 = entities.iterator();
while(var3.hasNext()) {
S entity = var3.next();
result.add(this.save(entity));
return result;
saveAll()方法是一种更新多条的一种方式,里面传的存对象的集合。分析源码我们可以看出saveAll()底层还是调用的save()方法,也就是每次需要先查询再做修改。在使用上方便,但是因每次涉及到查询、新增,事务的关系,导致修改或者新增耗时得非常的久。
那么下面我们将结合EntityManager对批量新增,修改做出优化。
jpa结合Batch
spring:
#配置 Jpa
properties:
hibernate:
generate_statistics: false
order_insert: true //配置批量新增
order_update: true //配置批量修改
dialect: org.hibernate.dialect.MySQL5InnoDBDialect
jdbc:
batch_size: 1000 //容器内批量的大小
open-in-view: true
EntityManager
EntityManager其实就是一个容器,通过注解引入EntityManager对象 使用EntityManager对新增,修改进行批量处理
* @author 程序员panda
* @date
* @desc 批量处理
@Service
@Transactional
public class BatchService {
@PersistenceContext
private EntityManager entityManager;
//配置文件中每次批量提交的数量
@Value("${spring.jpa.properties.hibernate.jdbc.batch_size}")
private long batchSize;
* 批量插入
* @param list 实体类集合
* @param <T> 表对应的实体类
public <T> void batchInsert(List<T> list) {
if (!ObjectUtils.isEmpty(list)){
for (int i = 0; i < list.size(); i++) {
entityManager.persist(list.get(i));
if (i % batchSize == 0) {
entityManager.flush();
entityManager.clear();
entityManager.flush();
entityManager.clear();
* 批量更新
* @param list 实体类集合
* @param <T> 表对应的实体类
public <T> void batchUpdate(List<T> list) {
if (!ObjectUtils.isEmpty(list)){
for (int i = 0; i < list.size(); i++) {
entityManager.merge(list.get(i));
if (i % batchSize == 0) {
entityManager.flush();
entityManager.clear();
entityManager.flush();
entityManager.clear();
选择一个需要新增的table,将原有的saveAll(),改为调用自定义的batchInsert()方法
public JSONObject sumbitPhone(MultipartFile phoneFile) {
long timeIdStart = System.currentTimeMillis();
JSONObject result=new JSONObject();
List<CheckPhone> phoneList=getPhoneListEn(phoneFile);
batchService.batchInsert(phoneList);
result.put("code",200);
result.put("msg","提交成功");
logger.info("提交预校验数据用时:"+(System.currentTimeMillis() - timeIdStart) / 1000.0+"秒");
return result;
使用batch批量新增的时候,表的主键不能使用自增的形式,需要使用uuid来才能使用批量的新增
运行时间对比
使用saveall()方法耗时(提交1000个号码文件) 从sql监控中可以看到,新增1000个号码,执行了7.962秒,执行了1000次的事务,都是一个个提交的
使用batch批量新增(同为1000个号码)此时执行,提交了两次,执行了两次事务。因为我设置了batch_size为1000。此时用是196毫秒。看一看出他是按999条数据,然后统一提交的
每次提交事务后,JPA 会将缓存中的数据清空,以便加载新的数据。这样可以防止内存溢出和数据库连接超时的问题。另外,在进行分阶段批量更新操作时,应该根据实际情况来调整阶段大小,以便达到最佳的性能和稳定性
1、entityManager.find(Class<T> entityClass, Object primaryKey);
根据主键查找数据;如果主键格式不正确,会抛出illegalArgumentException异常;如果主键在数据库未找到数据返回null;
2、entityManager.persist(Object entity);
新增数据;如果...
有时候要从第三方导入数据,一般量都比较大,除了方法用异步线程@Async之外,如果每条记录都调用一次save显然对数据库压力很大。可以使用JPA的批量保存方法saveAll(Iterable<S> entities)。
由于JPA的批量保存和批量修改是同一个方法,所以本文也适用批量修改操作。
一、Entity改造
增加3个注解,方便在Controller类build方式构造对象。
@Builder
最近准备上spring全家桶写一下个人项目,该学的都学学,其中ORM框架,最早我用的是jdbcTemplate,后来用了Mybatis,唯独没有用过JPA(Hibernate)系的,过去觉得Hibernate太重量级了,后来随着springboot和sp
public void batchWithNativeSql(List<User> list) throws SQLException {
String sql = "Insert into
https://blog.csdn.net/tfstone/article/details/113741890
SessionImpl = entity.getSession().getbatchsize();
session.setJdbcBatchSize(2);
@Entity
@BatchSize(size=25)
entityManager.getDelegate();
<!--批量读取数据。建议值50。需要JDBC和底层数据库的支持-->
<propertyname="hibe
我需要在JPA中使用ID进行批量更新,但需要更新每行的不同值。目前我正在更新具有相同值的所有行,如下所示:queryStm = "Update DUMMY set dlr=:dlr,time=:time,serverTime=:servertime where id IN :arrids ";Query query = em.createNativeQuery(queryStm);query....
jpa 批量更新数据
1、在@Query注解中编写JPQL实现DELETE和UPDATE操作的时候必须加上@modifying注解,以通知Spring Data 这是一个DELETE或UPDATE操作
2、UPDATE或者DELETE操作需要使用事务,此时需要 定义Service层,在Serv...