在Node 中,Buffer 是一个广泛用到的类,本文将从以下层次来分析其内存策略:
- User 层面,即Node lib/.js 或用户自己的Js 文件调用 new Buffer
- Socekt read/write
- File read/write
Buffer.poolSize = 8 1024; var pool; function allocPool() { pool = new SlowBuffer(Buffer.poolSize); pool.used = 0; }SlowBuffer 为 src/nodebuffer.cc 导出,当用户调用new Buffer时 ,如果你要申请的空间大于8K,Node 会直接调用SlowBuffer ,如果小于8K ,新的Buffer 会建立在当前slab 之上:
- 新创建的Buffer的 parent成员变量会指向这个slab ,
- offset 变量指向在这个slab 中的偏移:
if (!pool || pool.length - pool.used < this.length) allocPool(); this.parent = pool; this.offset = pool.used; pool.used += this.length;比如当你需要2K 的空间时 : new Buffer(21024),它会检查这个slab 的剩余空间,如果有剩余,则分配给你这段可用空间,并把当前 slab 的已用空间 used += 21024 比如当我们连续两次调用new Buffer(21024)时 :



... buf = stream->alloc_cb((uv_handle_t)stream, 64 1024); ...alloc_cb 定义在 stream_wrap.cc 中 uv_buf_t StreamWrap::OnAlloc(uv_handle_t handle, size_t suggested_size)

if (handle_that_last_alloced == handle) { slab_used -= (buf.len - nread); }

// Change strings to buffers. SLOW if (typeof data == 'string') { data = new Buffer(data, encoding); }然后这个Buffer 对应的指针会层层传递,直至 uv 的stream.c 的相应的 write 函数,这个过程也不会再有额外的拷贝操作,尤其要注意的是:当你直接传入一个Buffer 时,直至socket.write 回调返回表示结束,此过程中你不应该再修改它,因为底层正在或将要操作它! 文件读写 regular file 的write 和 socket 比较类似,没什么亮点,我们重点来看 file read。 关于IO 操作时bufsize 大小的重要性,上文已有介绍,记得APUE 中 steven 老先生也有专门的测试结果,此处不再赘述, 在 fs.ReadStream 时,我们可以传入一些参数:
{ flags: 'r', encoding: null, fd: null, mode: 0666, bufferSize: 641024 } 默认bufsize 为 64K ,但在 lib/fs.js 中,还有一个poolSize 控制变量:
var kPoolSize = 40 1024;当node 最终实际调用fs.read 时:
var thisPool = pool; var toRead = Math.min(pool.length - pool.used, this.bufferSize); var start = pool.used;Node 会对用户传入的bufsize 与 当前pool 的剩余空间作比较,取其小者而用之,所以默认的641024 大小其实是永远不会生效的。 好吧,40K 大小也可以接受,但如果你要读取的文件比较小,比如1K ,2K 级别的比较多,这时我们预留40K 的buf ,当读返回时,其实只用到了1K 或 2K ,这时候,Node 不会再像socket.read 那样,再把 pool.used 减去 39K 或 38K ,因为我们实际的fs.read 操作是在另一独立线程中执行的,即 buf alloc → fs read → read cb 这一个过程不是顺序的,我们不能再像socket.read 那样重新设置pool used !这种情况下内存的浪费相当严重! 所以当你想缓存大量小文件时,如静态服务器,我的建议是:自己分配大块Buffer ,然后把从fs.readStream 上浮的Buffer 拷贝到我们自己的大块Buffer 中,然后在这个大块Buffer 上做 slice生成相应的小Buffer ,这样我们就没有引用readStream 上浮的Buffer ,使其可以被V8 回收,当然如果你内存足够你挥霍,当我啥都没说... 内存池 再来看底层的node_buffer : void Buffer::Replace(char data, size_t length, free_callback callback, void hint) 这个函数的内存操作很单纯:
…. delete [] data; …. data = new char[length];其实通过上面分析可知,一个繁忙的网络服务器,很可能会频繁的new/delete 8K / 1M 的内存块,如果是静态文件服务,可能还会有频繁的40K 内存块的操作,所以我试着对node 添加了 8K 内存块的内存池控制,服务繁忙时命中率无限接近100%,可惜总体性能提升没有达到预期,在此就不现拙了,有兴趣的同学可以自己hack 玩玩,有成果了可以知会我一声(http://weibo.com/windyrobin)... 小节: 由以上分析,我们可知
- 不要轻易持久引用由 socket.readStream 或 fs.readStream 上浮的Buffe
- 当你调用stream.write 并直接传递Buffer 进去时,在此操作返回之前,你不应该再修改它
- 当调用fs.readStream 时,如果你对文件大小有估值,尽量传入较接近的bufsize
- 当你持久引用一个Buffer 时,哪怕它只有一个字节,也可能导致其依赖的slab (可能是8K /1M...)得不到释放