成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Spring Boot 一個接口實現任意表的 Excel 導入導出

開發 前端
Java的web開發需要excel的導入導出工具,所以需要一定的工具類實現,如果是使用easypoi、Hutool導入導出excel,會非常的損耗內存,因此可以嘗試使用easyexcel解決大數據量的數據的導入導出,且可以通過Java8的函數式編程解決該問題。

Java的web開發需要excel的導入導出工具,所以需要一定的工具類實現,如果是使用easypoi、Hutool導入導出excel,會非常的損耗內存,因此可以嘗試使用easyexcel解決大數據量的數據的導入導出,且可以通過Java8的函數式編程解決該問題。

使用easyexcel,雖然不太會出現OOM的問題,但是如果是大數據量的情況下也會有一定量的內存溢出的風險,所以我打算從以下幾個方面優化這個問題:

  • 使用Java8的函數式編程實現低代碼量的數據導入
  • 使用反射等特性實現單個接口導入任意excel
  • 使用線程池實現大數據量的excel導入
  • 通過泛型實現數據導出

maven導入

<!--EasyExcel相關依賴-->
<dependency>
    <groupId>com.alibaba</groupId>
    <artifactId>easyexcel</artifactId>
    <version>3.0.5</version>
</dependency>

使用泛型實現對象的單個Sheet導入

先實現一個類,用來指代導入的特定的對象

@Data
@NoArgsConstructor
@AllArgsConstructor
@TableName("stu_info")
@ApiModel("學生信息")
//@ExcelIgnoreUnannotated 沒有注解的字段都不轉換
publicclass StuInfo {

    privatestaticfinallong serialVersionUID = 1L;

    /**
     * 姓名
     */
    // 設置字體,此處代表使用斜體
//    @ContentFontStyle(italic = BooleanEnum.TRUE)
    // 設置列寬度的注解,注解中只有一個參數value,value的單位是字符長度,最大可以設置255個字符
    @ColumnWidth(10)
    // @ExcelProperty 注解中有三個參數value,index,converter分別代表表名,列序號,數據轉換方式
    @ApiModelProperty("姓名")
    @ExcelProperty(value = "姓名",order = 0)
    @ExportHeader(value = "姓名",index = 1)
    private String name;

    /**
     * 年齡
     */
//    @ExcelIgnore不將該字段轉換成Excel
    @ExcelProperty(value = "年齡",order = 1)
    @ApiModelProperty("年齡")
    @ExportHeader(value = "年齡",index = 2)
    private Integer age;

    /**
     * 身高
     */
    //自定義格式-位數
//    @NumberFormat("#.##%")
    @ExcelProperty(value = "身高",order = 2)
    @ApiModelProperty("身高")
    @ExportHeader(value = "身高",index = 4)
    private Double tall;

    /**
     * 自我介紹
     */
    @ExcelProperty(value = "自我介紹",order = 3)
    @ApiModelProperty("自我介紹")
    @ExportHeader(value = "自我介紹",index = 3,ignore = true)
    private String selfIntroduce;

    /**
     * 圖片信息
     */
    @ExcelProperty(value = "圖片信息",order = 4)
    @ApiModelProperty("圖片信息")
    @ExportHeader(value = "圖片信息",ignore = true)
    private Blob picture;

    /**
     * 性別
     */
    @ExcelProperty(value = "性別",order = 5)
    @ApiModelProperty("性別")
    private Integer gender;

    /**
     * 入學時間
     */
    //自定義格式-時間格式
    @DateTimeFormat("yyyy-MM-dd HH:mm:ss:")
    @ExcelProperty(value = "入學時間",order = 6)
    @ApiModelProperty("入學時間")
    private String intake;

    /**
     * 出生日期
     */
    @ExcelProperty(value = "出生日期",order = 7)
    @ApiModelProperty("出生日期")
    private String birthday;


}

重寫ReadListener接口

@Slf4j
publicclass UploadDataListener<T> implements ReadListener<T> {

    /**
     * 每隔5條存儲數據庫,實際使用中可以100條,然后清理list ,方便內存回收
     */
    privatestaticfinalint BATCH_COUNT = 100;

    /**
     * 緩存的數據
     */
    private List<T> cachedDataList = ListUtils.newArrayListWithExpectedSize(BATCH_COUNT);

    /**
     * Predicate用于過濾數據
     */
    private Predicate<T> predicate;

    /**
     * 調用持久層批量保存
     */
    private Consumer<Collection<T>> consumer;

    public UploadDataListener(Predicate<T> predicate, Consumer<Collection<T>> consumer) {
        this.predicate = predicate;
        this.consumer = consumer;
    }

    public UploadDataListener(Consumer<Collection<T>> consumer) {
        this.consumer = consumer;
    }

    /**
     * 如果使用了spring,請使用這個構造方法。每次創建Listener的時候需要把spring管理的類傳進來
     *
     * @param demoDAO
     */

    /**
     * 這個每一條數據解析都會來調用
     *
     * @param data    one row value. Is is same as {@link AnalysisContext#readRowHolder()}
     * @param context
     */
    @Override
    public void invoke(T data, AnalysisContext context) {

        if (predicate != null && !predicate.test(data)) {
            return;
        }
        cachedDataList.add(data);

        // 達到BATCH_COUNT了,需要去存儲一次數據庫,防止數據幾萬條數據在內存,容易OOM
        if (cachedDataList.size() >= BATCH_COUNT) {
            try {
                // 執行具體消費邏輯
                consumer.accept(cachedDataList);

            } catch (Exception e) {

                log.error("Failed to upload data!data={}", cachedDataList);
                thrownew BizException("導入失敗");
            }
            // 存儲完成清理 list
            cachedDataList = ListUtils.newArrayListWithExpectedSize(BATCH_COUNT);
        }
    }

    /**
     * 所有數據解析完成了 都會來調用
     *
     * @param context
     */
    @Override
    public void doAfterAllAnalysed(AnalysisContext context) {

        // 這里也要保存數據,確保最后遺留的數據也存儲到數據庫
        if (CollUtil.isNotEmpty(cachedDataList)) {

            try {
                // 執行具體消費邏輯
                consumer.accept(cachedDataList);
                log.info("所有數據解析完成!");
            } catch (Exception e) {

                log.error("Failed to upload data!data={}", cachedDataList);

                // 拋出自定義的提示信息
                if (e instanceof BizException) {
                    throw e;
                }

                thrownew BizException("導入失敗");
            }
        }
    }
}

Controller層的實現

@ApiOperation("只需要一個readListener,解決全部的問題")
@PostMapping("/update")
@ResponseBody
public R<String> aListener4AllExcel(MultipartFile file) throws IOException {
    try {
        EasyExcel.read(file.getInputStream(),
                StuInfo.class,
                new UploadDataListener<StuInfo>(
                        list -> {
                            // 校驗數據
                              ValidationUtils.validate(list);
                            // dao 保存···
                            //最好是手寫一個,不要使用mybatis-plus的一條條新增的邏輯
                            service.saveBatch(list);
                            log.info("從Excel導入數據一共 {} 行 ", list.size());
                        }))
          .sheet()
          .doRead();
    } catch (IOException e) {

        log.error("導入失敗", e);
        thrownew BizException("導入失敗");
    }
    return R.success("SUCCESS");
}

但是這種方式只能實現已存對象的功能實現,如果要新增一種數據的導入,那我們需要怎么做呢?關注公眾號:碼猿技術專欄,回復關鍵詞:1111 獲取阿里內部java性能調優手冊!

可以通過讀取成Map,根據順序導入到數據庫中。

通過實現單個Sheet中任意一種數據的導入

Controller層的實現

@ApiOperation("只需要一個readListener,解決全部的問題")
@PostMapping("/listenMapDara")
@ResponseBody
public R<String> listenMapDara(@ApiParam(value = "表編碼", required = true)
                               @NotBlank(message = "表編碼不能為空")
                               @RequestParam("tableCode") String tableCode,
                               @ApiParam(value = "上傳的文件", required = true)
                               @NotNull(message = "上傳文件不能為空") MultipartFile file) throws IOException {
    try {
        //根據tableCode獲取這張表的字段,可以作為insert與劇中的信息
        EasyExcel.read(file.getInputStream(),
                        new NonClazzOrientedListener(
                                list -> {
                                    // 校驗數據
//                                        ValidationUtils.validate(list);

                                    // dao 保存···
                                    log.info("從Excel導入數據一共 {} 行 ", list.size());
                                }))
                .sheet()
                .doRead();
    } catch (IOException e) {
        log.error("導入失敗", e);
        thrownew BizException("導入失敗");
    }
    return R.success("SUCCESS");
}

重寫ReadListener接口

@Slf4j
publicclass NonClazzOrientedListener implements ReadListener<Map<Integer, String>> {

    /**
     * 每隔5條存儲數據庫,實際使用中可以100條,然后清理list ,方便內存回收
     */
    privatestaticfinalint BATCH_COUNT = 100;

    private List<List<Object>> rowsList = ListUtils.newArrayListWithExpectedSize(BATCH_COUNT);

    private List<Object> rowList = new ArrayList<>();
    /**
     * Predicate用于過濾數據
     */
    private Predicate<Map<Integer, String>> predicate;

    /**
     * 調用持久層批量保存
     */
    private Consumer<List> consumer;

    public NonClazzOrientedListener(Predicate<Map<Integer, String>> predicate, Consumer<List> consumer) {
        this.predicate = predicate;
        this.consumer = consumer;
    }

    public NonClazzOrientedListener(Consumer<List> consumer) {
        this.consumer = consumer;
    }

    /**
     * 添加deviceName標識
     */
    privateboolean flag = false;

    @Override
    public void invoke(Map<Integer, String> row, AnalysisContext analysisContext) {
        consumer.accept(rowsList);
        rowList.clear();
        row.forEach((k, v) -> {
            log.debug("key is {},value is {}", k, v);
            rowList.add(v == null ? "" : v);
        });
        rowsList.add(rowList);
        if (rowsList.size() > BATCH_COUNT) {
            log.debug("執行存儲程序");
            log.info("rowsList is {}", rowsList);
            rowsList.clear();
        }
    }

    @Override
    public void doAfterAllAnalysed(AnalysisContext analysisContext) {
        consumer.accept(rowsList);
        if (CollUtil.isNotEmpty(rowsList)) {
            try {
                log.debug("執行最后的程序");
                log.info("rowsList is {}", rowsList);
            } catch (Exception e) {

                log.error("Failed to upload data!data={}", rowsList);

                // 拋出自定義的提示信息
                if (e instanceof BizException) {
                    throw e;
                }

                thrownew BizException("導入失敗");
            } finally {
                rowsList.clear();
            }
        }
    }

這種方式可以通過把表中的字段順序存儲起來,通過配置數據和字段的位置實現數據的新增,那么如果出現了導出數據模板/手寫excel的時候順序和導入的時候順序不一樣怎么辦?

可以通過讀取header進行實現,通過表頭讀取到的字段,和數據庫中表的字段進行比對,只取其中存在的數據進行排序添加

/**
 * 這里會一行行的返回頭
 *
 * @param headMap
 * @param context
 */
@Override
public void invokeHead(Map<Integer, ReadCellData<?>> headMap, AnalysisContext context) {
    //該方法必然會在讀取數據之前進行
    Map<Integer, String> columMap = ConverterUtils.convertToStringMap(headMap, context);
    //通過數據交互拿到這個表的表頭
//        Map<String,String> columnList=dao.xxxx();
    Map<String, String> columnList = new HashMap();
    columMap.forEach((key, value) -> {
        if (columnList.containsKey(value)) {
            filterList.add(key);
        }
    });
    //過濾到了只存在表里面的數據,順序就不用擔心了,可以直接把filterList的數據用于排序,可以根據mybatis做一個動態sql進行應用

    log.info("解析到一條頭數據:{}", JSON.toJSONString(columMap));
    // 如果想轉成成 Map<Integer,String>
    // 方案1: 不要implements ReadListener 而是 extends AnalysisEventListener
    // 方案2: 調用 ConverterUtils.convertToStringMap(headMap, context) 自動會轉換
}

那么這些問題都解決了,如果出現大數據量的情況,如果要極大的使用到cpu,該怎么做呢?

可以嘗試使用線程池進行實現

使用線程池進行多線程導入大量數據

Java中線程池的開發與使用與原理我可以單獨寫一篇文章進行講解,但是在這邊為了進行好的開發我先給出一套固定一點的方法。

由于ReadListener不能被注冊到IOC容器里面,所以需要在外面開啟。

詳情可見:https://juejin.cn/post/7251566038524133436

通過泛型實現對象類型的導出

public <T> void commonExport(String fileName, List<T> data, Class<T> clazz, HttpServletResponse response) throws IOException {
    if (CollectionUtil.isEmpty(data)) {
        data = new ArrayList<>();
    }
    //設置標題
    fileName = URLEncoder.encode(fileName, "UTF-8");
    response.setContentType("application/vnd.ms-excel");
    response.setCharacterEncoding("utf-8");
    response.setHeader("Content-disposition", "attachment;filename=" + fileName + ".xlsx");
    EasyExcel.write(response.getOutputStream()).head(clazz).sheet("sheet1").doWrite(data);
}

直接使用該方法可以作為公共的數據的導出接口。

如果想要動態的下載任意一組數據怎么辦呢?可以使用這個方法。

public void exportFreely(String fileName, List<List<Object>> data, List<List<String>> head, HttpServletResponse response) throws IOException {
        if (CollectionUtil.isEmpty(data)) {
            data = new ArrayList<>();
        }
        //設置標題
        fileName = URLEncoder.encode(fileName, "UTF-8");
        response.setContentType("application/vnd.ms-excel");
        response.setCharacterEncoding("utf-8");
        response.setHeader("Content-disposition", "attachment;filename=" + fileName + ".xlsx");
        EasyExcel.write(response.getOutputStream()).head(head).sheet("sheet1").doWrite(data);
    }

什么?不僅想一個接口展示全部的數據與信息,還要增加篩選條件?這個后期可以單獨解決這個問題。

責任編輯:武曉燕 來源: 碼猿技術專欄
相關推薦

2025-02-17 07:48:45

2025-04-08 01:00:00

Spring開發系統

2022-06-06 08:42:04

spring-boo開發接口防盜刷

2011-05-06 14:19:29

ExcelSQL Server

2022-08-01 07:02:06

SpringEasyExcel場景

2021-05-14 06:15:48

SpringAware接口

2024-08-05 09:51:00

2020-06-22 07:55:28

接口爬蟲

2020-11-13 07:08:51

Spring Boot應用Spring

2025-03-03 10:30:00

JavaExcelSpringBoot

2023-07-18 17:59:38

2024-11-11 11:30:34

2017-08-22 16:40:22

前端JavaScript接口

2020-09-15 11:40:37

Spring Boot代碼Java

2023-10-18 15:25:29

數據源數據庫

2024-10-18 08:00:00

SpringBoot框架開發

2025-04-07 03:22:00

Excel服務器oss

2009-07-06 17:36:06

ResultSetJDBC Connec

2020-09-27 14:13:50

Spring BootJava框架

2024-02-04 09:19:00

Nacos動態化線程池
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲一区国产 | 2022精品国偷自产免费观看 | 日本一区二区三区在线观看 | 91啪亚洲精品 | 亚洲一二三区av | 国产精品一区二区三区在线 | 中文字幕欧美日韩一区 | 一区二区三区免费在线观看 | 视频1区 | 国产电影一区二区三区爱妃记 | 福利一区二区 | 亚洲精品一区中文字幕乱码 | 国产精品日韩欧美一区二区三区 | 中文字幕第十一页 | 日韩在线看片 | 玖玖视频| 亚洲精品久久久久久久久久久 | 午夜影院在线观看 | 欧美精品在线视频 | 日日摸夜夜添夜夜添特色大片 | 久操伊人 | 中文字幕亚洲一区二区三区 | 欧美精品在线免费 | 亚洲国产一区二区三区 | 婷婷久久五月天 | 日韩在线免费视频 | 久久久久国产一区二区三区 | 一区二区国产精品 | 亚洲欧洲成人av每日更新 | 午夜影院在线观看免费 | 在线观看国产视频 | 日韩在线免费视频 | 久久精品成人热国产成 | 中文精品视频 | 亚洲成人免费视频 | 国产精品日韩高清伦字幕搜索 | 久久视频精品 | 伊人精品在线 | 超碰超碰| 一区欧美 | 爱爱视频日本 |