Node.js中實現文件的循環寫入
node.js對所有外部資源調用提供異步機制,文件IO也不例外。在這種異步機制下,進程不會被阻塞,這極大提高了CPU的利用率,為單進程的模式奠定了基礎。但同時,異步機制的引入也給程序邏輯的實現帶來了一定復雜性,原來一些慣常的思維方式需要進行轉換。
本文將以一個文件操作的實例來說明這一點。
假設我們需要新建一個文件,在其中循環寫入0-9的數字,文件的總長度為1G bytes。在通常情況下,我們需要建立一個buffer,將內容放入其中,然后打開文件,在一個循環中多次向文件中寫入,直至寫滿1G的長度。在node.js中我們同樣可以使用同步文件寫操作(例如 fs.writeSync)來實現這個邏輯,但這樣做顯然無法利用node.js提供的異步機制的優勢。寫操作會在fs.writeSync調用時阻塞,如果同時有其他運算任務需要處理,則會在進程中排隊,造成 CPU資源浪費。
如果我們使用基于事件回調的異步文件寫操作(例如 fs.write),如何來模擬同步模式下的循環邏輯呢?自然可以想到的一點是定義一個函數用來處理單次寫入操作,然后依靠事件回調反復調用此函數,直至寫滿計劃中的長度。但問題在于回調函數的參數形式是固定的,無法加入fd (file descriptor)和循環變量來標注當前運行的進度狀況。解決這個問題,我們可以應用js語言中的“閉包”機制,因為閉包函數可以在棧中保存定義此函數的現場。
具體代碼如下:
- var file_size = 1024*1024*1024; //1G
- var buf_size = 10240;
- var fs = require('fs');
- var buf = new Buffer(buf_size);
- // init temp buffer
- var temp = new Buffer(10);
- for (var i=0; i<10; i++) {
- temp[i] = (i).toString().charCodeAt(0);
- }
- // init buf
- for (var i=0; i<buf_size/10-1; i++) {
- temp.copy(buf, 10*i);
- }
- temp.copy(buf, 10*i, 0, buf_size-parseInt(buf_size/10)*10);
- // write to file
- fs.open('big.block', 'w', 0666, function(err, fd){
- if (err) throw err;
- function write(err, written) {
- if (err) throw err;
- if (i>=file_size/buf_size) { //close the file
- fs.close(fd);
- } else { //continue to write
- var length = buf_size;
- if ((i+1)*buf_size>file_size) {
- length = file_size-i*buf_size;
- }
- fs.write(fd, buf, 0, length, null, write);
- i++;
- }
- }
- var i=0;
- write(null, 0);
- });
需要注意緩沖區大小對寫操作的性能影響很大。過小的緩沖區會造成從磁盤到文件系統,甚至用戶程序,整個過程更大的資源消耗,從而影響程序的執行效率。通過time數據可明顯觀察到其差別:
1K緩沖:
real 0m39.340s
user 0m18.244s
sys 0m34.750s
10K緩沖:
real 0m7.985s
user 0m2.037s
sys 0m7.525s
100K緩沖:
real 0m4.223s
user 0m0.312s
sys 0m4.077s
原文:http://cnodejs.org/blog/?p=168#comment-820
【編輯推薦】