Netty的ByteBuf分为池化的和非池化的,池化的优点包含如下两点:

  1. 对于DirectByteBuffer的分配和释放是比较低效的,使用池化技术能快速分配内存。
  2. 池化技术使对象可以复用,从而降低gc频率。

ByteBuf实际包含两部分内容,一部分是底层的真实内存(array或者DirectByteBuffer)和ByteBuf对象。真实内存的池化参见本文第2部分,ByteBuf的对象的池化参见本文第1部分。Netty的ByteBuf泄漏检测(池化和非池化都能检测)原理参见本文的第3部分。

内存池是一套比较成熟的技术了,Netty的内存池方案借鉴了jemalloc。了解一下其背后的实现原理对阅读Netty内存池的源代码还是很有帮助的

  1. jemalloc原理
  2. glibc内存管理ptmalloc源代码分析

为了不陷入无尽的细节泥沼之中,应该先了解下jemalloc的原理,然后就可以构想出内存池大概思路:


  1. 首先应该会向系统申请一大块内存
  2. 然后通过某种算法管理这块内存并提供接口让上层申请空闲内存
  3. 申请到的内存地址应该透出到应用层,但是对开发人员来说应该是透明的,所以要有一个对象包装这个地址,并且这个对象应该也是池化的,也就是说不仅要有内存池,还要有一个对象池。

所以,自然可以带着以下问题去看源码:

  • 内存池管理算法是怎么做到申请效率,怎么减少内存碎片
    主要在于数据结构的组织。Chunk、smallSubPage、tinySubPage、ChunkList按照使用率分配、Chunk的二叉树内存管理、subPage的位图内存管理。
  • 高负载下内存池不断扩展,如何做到内存回收
  • 对象池是如何实现的,这个不是关键路径,可以当成黑盒处理
  • 内存池跟对象池作为全局数据,在多线程环境下如何减少锁竞争
  • 池化后内存的申请跟释放必然是成对出现的,那么如何做内存泄漏检测,特别是跨线程之间的申请跟释放是如何处理的。
    因为采取线程级cache机制,涉及到线程结束时对象的释放,其本质机制是虚引用。从ThreadLocal、WeakHashMap(Map<Stack,WeakOrderQueue>)都是虚引用的用法

标签: 内存, 对象, 申请, Netty, 总览, ByteBuf, 池化

相关文章推荐

添加新评论,含*的栏目为必填