Java如何高效的读取一个超大文件?(四种方式分析对比)

开发 后端
我最近在优化我的PDF转word的开源小工具,有时候会遇到一个问题,就是如果我的PDF文件比较大,几百兆,如何更快更节省内存的读取它。

[[376197]]

前言

我最近在优化我的PDF转word的开源小工具,有时候会遇到一个问题,就是如果我的PDF文件比较大,几百兆,如何更快更节省内存的读取它。于是我分析对比了四种常见的读取文件的方式,并使用javaVisualVM工具进行了分析。最后的出的结论是commons-io时间和空间都更加的高效。研究分析依然来自哪位baeldung国外大佬。

下面我会给出几种常见的读取大文件的方式。

读取大文件的四种方式

首先我自己在本地压缩了一个文件夹,大概500M左右。虽然不是很大但是,相对还可以。

方法1:Guava读取

String path = "G:\\java书籍及工具.zip";

  1. String path = "G:\\java书籍及工具.zip"
  2. Files.readLines(new File(path), Charsets.UTF_8); 

使用guava读取比较简单,一行代码就搞定了。

下面去jdk的bin目录找到javaVisualVM工具,然后双击运行即可。

从上图可以看到:

  • 时间消耗:20秒
  • 堆内存:最高2.5G
  • CPU消耗:最高50%

我们一个500M的文件,堆内存最高竟然2.5G,如果我们读取一个2G的文件,可能我们的电脑直接死机了就。

方式2:Apache Commons IO普通方式

String path = "G:\\java书籍及工具.zip";

  1. String path = "G:\\java书籍及工具.zip"
  2. FileUtils.readLines(new File(path), Charsets.UTF_8); 

这种方式也比较简单,同样是一行代码。下面运行,也分析一波:

从上图可以看到:

  • 时间消耗:17秒
  • 堆内存:最高2.5G
  • CPU消耗:最高50%,平稳运行25%左右

这种方式和上面那种基本上消耗差不多,肯定不是我想要的。

方式3:java文件流

  1. FileInputStream inputStream = null
  2. Scanner sc = null
  3. try { 
  4.      inputStream = new FileInputStream(path); 
  5.      sc = new Scanner(inputStream, "UTF-8"); 
  6.      while (sc.hasNextLine()) { 
  7.           String line = sc.nextLine(); 
  8.           //System.out.println(line); 
  9.      } 
  10.      if (sc.ioException() != null) { 
  11.           throw sc.ioException(); 
  12.      } 
  13. } finally { 
  14.      if (inputStream != null) { 
  15.           inputStream.close(); 
  16.      } 
  17.      if (sc != null) { 
  18.            sc.close(); 
  19.      } 

这种方式其实就是java中最常见的方式,然后我们运行分析一波:

从上图可以看到:

  • 时间消耗:32秒,增加了一倍
  • 堆内存:最高1G,少了一半
  • CPU消耗:平稳运行25%左右

这种方式确实很优秀,但是时间上开销更大。

方式4:Apache Commons IO流

  1. LineIterator it = FileUtils.lineIterator(new File(path), "UTF-8"); 
  2. try { 
  3.       while (it.hasNext()) { 
  4.           String line = it.nextLine(); 
  5.       } 
  6. } finally { 
  7.      LineIterator.closeQuietly(it); 

这种方式代码看起来比较简单,所以直接运行一波吧:

从上图可以看到:

  • 时间消耗:16秒,最低
  • 堆内存:最高650M,少了一半
  • CPU消耗:平稳运行25%左右

OK,就它了,牛。

结论

通过以上的分析,我们可以得出一个结论,如果我们想要读取一个大文件,选择了错误的方式,就有可能极大地占用我的内存和CPU,当文件特别大时,会造成意向不到的问题。

因此为了去解决这样的问题,有四种常见的读取大文件的方式。通过分析对比,发现,Apache Commons IO流是最高效的一种方式。

本文转载自微信公众号「愚公要移山」,可以通过以下二维码关注。转载本文请联系愚公要移山公众号。

 

责任编辑:武晓燕 来源: 愚公要移山
点赞
收藏

51CTO技术栈公众号