成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

用Node.js編寫內存效率高的應用程序

開發 前端
在本文中,我們通過解決一個問題來了解 NodeJS 的流、緩沖區和管道等結構,并了解它們分別如何支持編寫內存有效的應用程序。

 [[312999]]

一座被設計為能避開氣流的建筑 (https://pixelz.cc)

軟件應用程序在計算機的主存儲器中運行,我們稱之為隨機存取存儲器(RAM)。JavaScript,尤其是 NodeJS (服務端 JS)允許我們為終端用戶編寫從小型到大型的軟件項目。處理程序的內存總是一個棘手的問題,因為糟糕的實現可能會阻塞在給定服務器或系統上運行的所有其他應用程序。C 和 C++ 程序員確實關心內存管理,因為隱藏在代碼的每個角落都有可能出現可怕的內存泄漏。但是對于 JS 開發者來說,你真的有關心過這個問題嗎?

由于 JS 開發人員通常在專用的高容量服務器上進行 web 服務器編程,他們可能不會察覺多任務處理的延遲。比方說在開發 web 服務器的情況下,我們也會運行多個應用程序,如數據庫服務器( MySQL )、緩存服務器( Redis )和其他需要的應用。我們需要知道它們也會消耗可用的主內存。如果我們隨意地編寫應用程序,很可能會降低其他進程的性能,甚至讓內存完全拒絕對它們的分配。在本文中,我們通過解決一個問題來了解 NodeJS 的流、緩沖區和管道等結構,并了解它們分別如何支持編寫內存有效的應用程序。

我們使用 NodeJS v8.12.0 來運行這些程序,所有代碼示例都放在這里:

narenaryan/node-backpressure-internals

原文鏈接:Writing memory efficient software applications in Node.js 

問題:大文件復制

如果有人被要求用 NodeJS 寫一段文件復制的程序,那么他會迅速寫出下面這段代碼: 

  1. const fs = require('fs');  
  2. let fileName = process.argv[2];  
  3. let destPath = process.argv[3];  
  4. fs.readFile(fileName, (err, data) => {  
  5.     if (err) throw err;  
  6.     fs.writeFile(destPath || 'output', data, (err) => {  
  7.         if (err) throw err;  
  8.     });   
  9.     console.log('New file has been created!');  
  10. }); 

這段代碼簡單地根據輸入的文件名和路徑,在嘗試對文件讀取后把它寫入目標路徑,這對于小文件來說是不成問題的。

現在假設我們有一個大文件(大于4 GB)需要用這段程序來進行備份。就以我的一個達 7.4G 的超高清4K 電影為例子好了,我用上述的程序代碼把它從當前目錄復制到別的目錄。 

  1. $ node basic_copy.js cartoonMovie.mkv ~/Documents/bigMovie.mkv 

然后在 Ubuntu(Linux )系統下我得到了這段報錯: 

  1. /home/shobarani/Workspace/basic_copy.js:7  
  2.     if (err) throw err;  
  3.              ^  
  4. RangeError: File size is greater than possible Buffer: 0x7fffffff bytes  
  5.     at FSReqWrap.readFileAfterStat [as oncomplete] (fs.js:453:11) 

正如你看到的那樣,由于 NodeJS 最大只允許寫入 2GB 的數據到它的緩沖區,導致了錯誤發生在讀取文件的過程中。為了解決這個問題,當你在進行 I/O 密集操作的時候(復制、處理、壓縮等),最好考慮一下內存的情況。

NodeJS 中的 Streams 和 Buffers

為了解決上述問題,我們需要一個辦法把大文件切成許多文件塊,同時需要一個數據結構去存放這些文件塊。一個 buffer 就是用來存儲二進制數據的結構。接下來,我們需要一個讀寫文件塊的方法,而 Streams 則提供了這部分能力。

Buffers(緩沖區)

我們能夠利用 Buffer 對象輕松地創建一個 buffer。 

  1. let buffer = new Buffer(10); # 10 為 buffer 的體積  
  2. console.log(buffer); # prints <Buffer 00 00 00 00 00 00 00 00 00 00> 

在新版本的 NodeJS (>8)中,你也可以這樣寫。 

  1. let buffer = new Buffer.alloc(10);  
  2. console.log(buffer); # prints <Buffer 00 00 00 00 00 00 00 00 00 00> 

如果我們已經有了一些數據,比如數組或者別的數據集,我們可以為它們創建一個 buffer。 

  1. let name = 'Node JS DEV' 
  2. let buffer = Buffer.from(name);  
  3. console.log(buffer) # prints <Buffer 4e 6f 64 65 20 4a 53 20 44 45 5> 

Buffers 有一些如 buffer.toString() 和 buffer.toJSON() 之類的重要方法,能夠深入到其所存儲的數據當中去。

我們不會為了優化代碼而去直接創建原始 buffer。NodeJS 和 V8 引擎在處理 streams 和網絡 socket 的時候就已經在創建內部緩沖區(隊列)中實現了這一點。

Streams(流)

簡單來說,流就像 NodeJS 對象上的任意門。在計算機網絡中,入口是一個輸入動作,出口是一個輸出動作。我們接下來將繼續使用這些術語。

流的類型總共有四種:

  •  可讀流(用于讀取數據)
  •  可寫流(用于寫入數據)
  •  雙工流(同時可用于讀寫)
  •  轉換流(一種用于處理數據的自定義雙工流,如壓縮,檢查數據等)

下面這句話可以清晰地闡述為什么我們應該使用流。

Stream API (尤其是 stream.pipe() 方法)的一個重要目標是將數據緩沖限制在可接受的水平,這樣不同速度的源和目標就不會阻塞可用內存。

我們需要一些辦法去完成任務而不至于壓垮系統。這也是我們在文章開頭就已經提到過的。

上面的示意圖中我們有兩個類型的流,分別是可讀流和可寫流。.pipe() 方法是一個非常基本的方法,用于連接可讀流和可寫流。如果你不明白上面的示意圖,也沒關系,在看完我們的例子以后,你可以回到示意圖這里來,那個時候一切都會顯得理所當然。管道是一種引人注目的機制,下面我們用兩個例子來說明它。

解法1(簡單地使用流來復制文件)

讓我們設計一種解法來解決前文中大文件復制的問題。首先我們要創建兩個流,然后執行接下來的幾個步驟。

  1.  監聽來自可讀流的數據塊
  2.  把數據塊寫進可寫流
  3.  跟蹤文件復制的進度

我們把這段代碼命名為 streams_copy_basic.js 

  1. /*  
  2.     A file copy with streams and events - Author: Naren Arya  
  3. */  
  4. const stream = require('stream');  
  5. const fs = require('fs');  
  6. let fileName = process.argv[2];  
  7. let destPath = process.argv[3];  
  8. const readabale = fs.createReadStream(fileName);  
  9. const writeable = fs.createWriteStream(destPath || "output");  
  10. fs.stat(fileName, (err, stats) => {  
  11.     this.fileSize = stats.size;  
  12.     this.counter = 1 
  13.     this.fileArray = fileName.split('.');     
  14.     try {  
  15.         this.duplicate = destPath + "/" + this.fileArray[0] + '_Copy.' + this.fileArray[1];  
  16.     } catch(e) {  
  17.         console.exception('File name is invalid! please pass the proper one');  
  18.     }    
  19.     process.stdout.write(`File: ${this.duplicate} is being created:`);    
  20.     readabale.on('data', (chunk)=> {  
  21.         let percentageCopied = ((chunk.length * this.counter) / this.fileSize) * 100;  
  22.         process.stdout.clearLine();  // clear current text  
  23.         process.stdout.cursorTo(0);  
  24.         process.stdout.write(`${Math.round(percentageCopied)}%`);  
  25.         writeable.write(chunk);  
  26.         this.counter += 1;  
  27.     });    
  28.     readabale.on('end', (e) => {  
  29.         process.stdout.clearLine();  // clear current text  
  30.         process.stdout.cursorTo(0);  
  31.         process.stdout.write("Successfully finished the operation");  
  32.         return;  
  33.     });    
  34.     readabale.on('error', (e) => {  
  35.         console.log("Some error occured: ", e);  
  36.     });     
  37.     writeable.on('finish', () => { 
  38.         console.log("Successfully created the file copy!");  
  39.     });     
  40. }); 

 

在這段程序中,我們接收用戶傳入的兩個文件路徑(源文件和目標文件),然后創建了兩個流,用于把數據塊從可讀流運到可寫流。然后我們定義了一些變量去追蹤文件復制的進度,然后輸出到控制臺(此處為 console)。與此同時我們還訂閱了一些事件:

data:當一個數據塊被讀取時觸發

end:當一個數據塊被可讀流所讀取完的時候觸發

error:當讀取數據塊的時候出錯時觸發

運行這段程序,我們可以成功地完成一個大文件(此處為7.4 G)的復制任務。 

  1. $ time node streams_copy_basic.js cartoonMovie.mkv ~/Documents/4kdemo.mkv 

然而,當我們通過任務管理器觀察程序在運行過程中的內存狀況時,依舊有一個問題。

4.6GB?我們的程序在運行時所消耗的內存,在這里是講不通的,以及它很有可能會卡死其他的應用程序。

發生了什么?

如果你有仔細觀察上圖中的讀寫率,你會發現一些端倪。

Disk Read: 53.4 MiB/s

Disk Write: 14.8 MiB/s

這意味著生產者正在以更快的速度生產,而消費者無法跟上這個速度。計算機為了保存讀取的數據塊,將多余的數據存儲到機器的RAM中。這就是RAM出現峰值的原因。

上述代碼在我的機器上運行了3分16秒…… 

  1. 17.16s user 25.06s system 21% cpu 3:16.61 total 

解法2(基于流和自動背壓的文件復制)

為了克服上述問題,我們可以修改程序來自動調整磁盤的讀寫速度。這個機制就是背壓。我們不需要做太多,只需將可讀流導入可寫流即可,NodeJS 會負責背壓的工作。

讓我們將這個程序命名為 streams_copy_efficient.js 

  1. /*  
  2.     A file copy with streams and piping - Author: Naren Arya  
  3. */  
  4. const stream = require('stream');  
  5. const fs = require('fs');  
  6. let fileName = process.argv[2];  
  7. let destPath = process.argv[3];  
  8. const readabale = fs.createReadStream(fileName);  
  9. const writeable = fs.createWriteStream(destPath || "output");  
  10. fs.stat(fileName, (err, stats) => {  
  11.     this.fileSize = stats.size;  
  12.     this.counter = 1 
  13.     this.fileArray = fileName.split('.');   
  14.     try {  
  15.         this.duplicate = destPath + "/" + this.fileArray[0] + '_Copy.' + this.fileArray[1];  
  16.     } catch(e) {  
  17.         console.exception('File name is invalid! please pass the proper one');  
  18.     }     
  19.     process.stdout.write(`File: ${this.duplicate} is being created:`);   
  20.     readabale.on('data', (chunk) => {  
  21.         let percentageCopied = ((chunk.length * this.counter) / this.fileSize) * 100;  
  22.         process.stdout.clearLine();  // clear current text  
  23.         process.stdout.cursorTo(0);  
  24.         process.stdout.write(`${Math.round(percentageCopied)}%`);  
  25.         this.counter += 1;  
  26.     });     
  27.     readabale.pipe(writeable); // Auto pilot ON!     
  28.     // In case if we have an interruption while copying  
  29.     writeable.on('unpipe', (e) => {  
  30.         process.stdout.write("Copy has failed!");  
  31.     });     
  32. }); 

在這個例子中,我們用一句代碼替換了之前的數據塊寫入操作。 

  1. readabale.pipe(writeable); // Auto pilot ON! 

這里的 pipe 就是所有魔法發生的原因。它控制了磁盤讀寫的速度以至于不會阻塞內存(RAM)。

運行一下。 

  1. $ time node streams_copy_efficient.js cartoonMovie.mkv ~/Documents/4kdemo.mkv 

我們復制了同一個大文件(7.4 GB),讓我們來看看內存利用率。

震驚!現在 Node 程序僅僅占用了61.9 MiB 的內存。如果你觀察到讀寫速率的話:

Disk Read: 35.5 MiB/s

Disk Write: 35.5 MiB/s

在任意給定的時間內,因為背壓的存在,讀寫速率得以保持一致。更讓人驚喜的是,這段優化后的程序代碼整整比之前的快了13秒。 

  1. 12.13s user 28.50s system 22% cpu 3:03.35 total 

由于 NodeJS 流和管道,內存負載減少了98.68%,執行時間也減少了。這就是為什么管道是一個強大的存在。

61.9 MiB 是由可讀流創建的緩沖區大小。我們還可以使用可讀流上的 read 方法為緩沖塊分配自定義大小。 

  1. const readabale = fs.createReadStream(fileName);  
  2. readable.read(no_of_bytes_size); 

除了本地文件的復制以外,這個技術還可以用于優化許多 I/O 操作的問題:

  •  處理從卡夫卡到數據庫的數據流
  •  處理來自文件系統的數據流,動態壓縮并寫入磁盤
  •  更多……

源碼(Git)

你可以在我的倉庫底下找到所有的例子并在自己的機器上測試。

narenaryan/node-backpressure-internals

結論

我寫這篇文章的動機,主要是為了說明即使 NodeJS 提供了很好的 API,我們也可能會一不留神就寫出性能很差的代碼。如果我們能更多地關注其內置的工具,我們便可以更好地優化程序的運行方式。

你在此可以找到更多關于“背壓”的資料:

backpressuring-in-streams

完。 

 

責任編輯:龐桂玉 來源: segmentfault
相關推薦

2013-05-17 09:41:02

Node.js云應用開發IaaS

2023-03-07 14:31:44

Node.jsPython應用程序

2022-09-12 16:02:32

Docker安全Node.js

2020-09-04 15:06:04

Docker容器化Node.js

2022-12-14 14:40:27

Node.js開發應用程序

2024-03-22 11:40:40

Node.jsNodeCRUD

2022-05-09 17:33:23

PWA漸進式Web應用程序離線優先

2023-03-24 15:57:31

Node.js應用程序容器

2023-06-16 15:14:57

Node.js容器化開發

2012-09-17 11:26:14

IBMdw

2023-10-26 01:28:02

2014-07-11 14:16:15

AbsurdJSExpress

2020-10-26 08:34:13

Node.jsCORS前端

2020-09-22 07:35:42

Node.jsVue.js文件壓縮

2015-11-20 17:09:36

jsWeb應用程序

2024-03-27 11:18:02

2023-10-18 16:39:32

2017-03-19 16:40:28

漏洞Node.js內存泄漏

2017-03-20 13:43:51

Node.js內存泄漏

2012-02-02 15:14:29

Node.js
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 精品国产免费一区二区三区五区 | 高清人人天天夜夜曰狠狠狠狠 | 免费看淫片 | 精品亚洲一区二区三区 | 久草视频在线播放 | 亚洲精品一区中文字幕乱码 | 国产成人精品一区二区 | 欧美日韩一区二区三区在线观看 | 视频在线一区二区 | 欧美日韩免费一区二区三区 | 国产欧美精品区一区二区三区 | 国产黄色大片网站 | 成人综合久久 | 国产精品成人一区二区三区 | 国产欧美一区二区三区在线播放 | 91精品国产一区二区三区蜜臀 | 中国一级特黄毛片大片 | 久久久久久亚洲精品 | 亚洲国产欧美一区 | 97超级碰碰| 日本综合在线观看 | 最新国产精品精品视频 | 久久久久国产一区二区三区四区 | 日韩午夜精品 | 天天艹 | 欧美日韩不卡合集视频 | 毛片在线免费 | 一区中文字幕 | 久久高清免费视频 | 精品国产一区二区三区成人影院 | 麻豆视频在线免费观看 | 亚洲精品久久久久中文字幕二区 | 国产一级片在线播放 | 国产精品99久久久久久久久久久久 | 国产成人在线免费 | 久在线视频 | 久久久久黄色 | 欧美不卡一区 | 一级片aaa | 国产日韩精品视频 | 91亚洲视频在线 |