golang内存分配
new一个对象的时候,入口函数是malloc.go中的newobject函数
func newobject(typ *_type) unsafe.Pointer {
flags := uint32(0)
if typ.kind&kindNoPointers != 0 {
flags |= flagNoScan
}
return mallocgc(uintptr(typ.size), typ, flags)
}
这个函数先计算出传入参数的大小,然后调用mallocgc函数,这个函数三个参数,第一个参数是对象类型大小,第二个参数是对象类型,第三个参数是malloc的标志位,这个标志位有两位,一个标志位代表GC不需要扫描这个对象,另一个标志位说明这个对象并不是空内存
const (
// flags to malloc
_FlagNoScan = 1 << 0 // GC doesn't have to scan object
_FlagNoZero = 1 << 1 // don't zero memory
)
mallocgc函数定义如下:
func mallocgc(size uintptr, typ *_type, flags uint32) unsafe.Pointer
它返回的是指向这个结构的指针。
进入看里面的方法
先是会进行下面的操作
// 基本的条件符合判断 ...
// 获取当前goroutine的m结构
mp := acquirem()
// 如果当前的m正在执行分配任务,则抛出错误
if mp.mallocing != 0 {
throw("malloc deadlock")
}
if mp.gsignal == getg() {
throw("malloc during signal")
}
// 锁住当前的m进行分配
mp.mallocing = 1
shouldhelpgc := false
dataSize := size
// 获取当前goroutine的m的mcache
c := gomcache()
var s *mspan
var x unsafe.Pointer
其中的m,p,g的信息需要对下面这个图有印象
然后根据size判断是否是大对象,小对象,微小对象
如果是微小对象:
// 是微小对象
// 进行微小对象的校准操作
// ...
// 如果是微小对象,并且申请的对象微小对象能cover住
if off+size <= maxTinySize && c.tiny != nil {
// 直接在tiny的块中进行分配就行了
x = add(c.tiny, off)
...
return x
}
// 从mcache中获取对应的span链表
s = c.alloc[tinySizeClass]
v := s.freelist
// 如果这个span链表没有微小对象的空闲span了,从MCache中获取tinySize的链表补充上这个tiny链表
if v.ptr() == nil {
systemstack(func() {
mCache_Refill(c, tinySizeClass)
})
}
s.freelist = v.ptr().next
s.ref++
// 预读取指令能加快速度
prefetchnta(uintptr(v.ptr().next))
// 初始化微小结构
x = unsafe.Pointer(v)
(*[2]uint64)(x)[0] = 0
(*[2]uint64)(x)[1] = 0
// 对比新旧两个tiny块剩余空间
if size < c.tinyoffset {
// 如果旧块的剩余空间比新块少,则使用新块替代mcache中的tiny块
c.tiny = x
c.tinyoffset = size
}
如果是小对象
// 是小对象
var sizeclass int8
// 计算最接近的size
if size <= 1024-8 {
sizeclass = size_to_class8[(size+7)>>3]
} else {
sizeclass = size_to_class128[(size-1024+127)>>7]
}
size = uintptr(class_to_size[sizeclass])
// 获取mcache中预先分配的spans链表
s = c.alloc[sizeclass]
v := s.freelist
if v.ptr() == nil {
// 如果没有链表了,则从mcache中划出对应的spans链表
systemstack(func() {
mCache_Refill(c, int32(sizeclass))
})
}
// 有链表则直接使用
s.freelist = v.ptr().next
s.ref++
如果是大对象,则直接从heap上拿内存
// 如果是大对象,直接去heap中获取数据
systemstack(func() {
s = largeAlloc(size, uint32(flags))
})
x = unsafe.Pointer(uintptr(s.start << pageShift))
size = uintptr(s.elemsize)
总结一下
- 如果要申请的对象是tiny大小,看mcache中的tiny block是否足够,如果足够,直接分配。如果不足够,使用mcache中的tiny class对应的span分配
- 如果要申请的对象是小对象大小,则使用mcache中的对应span链表分配
- 如果对应span链表已经没有空span了,先补充上mcache的对应链表,再分配(mCache_Refill)
- 如果要申请的对象是大对象,直接去heap中获取(largeAlloc)
再仔细看代码,不管是tiny大小的对象还是小对象,他们去mcache中获取对象都是使用mCache_Refill方法为这个对象对应的链表申请内存。那么我们可以追到里面去看看。
func mCache_Refill(c *mcache, sizeclass int32) *mspan {
// 获取当时的goroutine
_g_ := getg()
// 锁上m
_g_.m.locks++
// 获取对应sizeclass的span链表,如果对应的链表还有剩余空间,抛出错误
s := c.alloc[sizeclass]
if s.freelist.ptr() != nil {
throw("refill on a nonempty span")
}
// 从mCentral中获取span链表,并赋值
s = mCentral_CacheSpan(&mheap_.central[sizeclass].mcentral)
c.alloc[sizeclass] = s
// 打开锁
_g_.m.locks--
return s
}
这里实际是使用mCentral_CacheSpan来获取内存,这里需要看下mCentral的结构
type mcentral struct {
lock mutex
sizeclass int32
nonempty mspan // list of spans with a free object
empty mspan // list of spans with no free objects (or cached in an mcache)
}
mcentral有两个链表,一个链表是有空闲的span可以使用,叫noempty,另一个链表是没有空间的span可以使用,叫empty。这个时候我们需要获取span,一定是从nonempty链表中取出span来使用。
这两个链表的机制是这样的,我new一个对象的时候,从nonempty中获取这个空间,放到empty链表中去,当我free一个对象的时候,从empty链表中还原到nonempty链表中去。
所以在下面获取空span的时候,会先去empty中查找有没有,如果没有,再去nonempty中查找有没有,nonempty中有可能有为资源回收但是却是没有使用的span。
func mCentral_CacheSpan(c *mcentral) *mspan {
sg := mheap_.sweepgen
retry:
var s *mspan
// 遍历有空间span的链表
for s = c.nonempty.next; s != &c.nonempty; s = s.next {
// 如果这个span是需要回收的,那么先回收这个span,转移到empty链表中,再把这个span返回
if s.sweepgen == sg-2 && cas(&s.sweepgen, sg-2, sg-1) {
mSpanList_Remove(s)
mSpanList_InsertBack(&c.empty, s)
unlock(&c.lock)
// 垃圾清理
mSpan_Sweep(s, true)
goto havespan
}
// 如果nonempty中有不需要swapping的空间,这个就可以直接使用了
mSpanList_Remove(s)
mSpanList_InsertBack(&c.empty, s)
unlock(&c.lock)
goto havespan
}
// 遍历没有空间的span链表,为什么没有空间的span链表也需要遍历呢?
for s = c.empty.next; s != &c.empty; s = s.next {
// 如果这个span是需要回收的,回收之
if s.sweepgen == sg-2 && cas(&s.sweepgen, sg-2, sg-1) {
mSpanList_Remove(s)
mSpanList_InsertBack(&c.empty, s)
unlock(&c.lock)
mSpan_Sweep(s, true)
if s.freelist.ptr() != nil {
goto havespan
}
lock(&c.lock)
goto retry
}
break
}
unlock(&c.lock)
// 到这里就说明central中都没有可以使用的span了,那么,就增长mCentral
s = mCentral_Grow(c)
mSpanList_InsertBack(&c.empty, s)
havespan:
// 找到空span的情况
cap := int32((s.npages << _PageShift) / s.elemsize)
n := cap - int32(s.ref)
if n == 0 {
throw("empty span")
}
if s.freelist.ptr() == nil {
throw("freelist empty")
}
s.incache = true
return s
}
mCentral判断一个span是否过期是使用
s.sweepgen == sg-2 && cas(&s.sweepgen, sg-2, sg-1)
这个sweepgen是span和mheap中各有一个,根据这两个结构的sweepgen就能判断这个span是否需要进入gc回收了。
// sweep generation:
// if sweepgen == h->sweepgen - 2, the span needs sweeping
// if sweepgen == h->sweepgen - 1, the span is currently being swept
// if sweepgen == h->sweepgen, the span is swept and ready to use
// h->sweepgen is incremented by 2 after every GC
如果mCentral没有可用的span了,就需要调用mCentral_Grow(c)
func mCentral_Grow(c *mcentral) *mspan {
...
// 从heap上进行分配
s := mHeap_Alloc(&mheap_, npages, c.sizeclass, false, true)
...
// 设置span的bitmap
heapBitsForSpan(s.base()).initSpan(s.layout())
return s
}
再进入到mHeap_Alloc
func mHeap_Alloc(h *mheap, npage uintptr, sizeclass int32, large bool, needzero bool) *mspan {
...
systemstack(func() {
s = mHeap_Alloc_m(h, npage, sizeclass, large)
})
...
}
再进入mHeap_Alloc_m
func mHeap_Alloc_m(h *mheap, npage uintptr, sizeclass int32, large bool) *mspan {
...
s := mHeap_AllocSpanLocked(h, npage)
...
return s
}
func mHeap_AllocSpanLocked(h *mheap, npage uintptr) *mspan {
...
// 获取Heap中最合适的内存大小
s = mHeap_AllocLarge(h, npage)
// 如果mHeap满了
if s == nil {
// 增长mHeap大小
if !mHeap_Grow(h, npage) {
return nil
}
s = mHeap_AllocLarge(h, npage)
if s == nil {
return nil
}
}
HaveSpan:
// mHeap中有了数据
}
看看如何增长mHeap大小
func mHeap_Grow(h *mheap, npage uintptr) bool {
...
// 调用操作系统分配内存
v := mHeap_SysAlloc(h, ask)
...
}
下面就看到mheap的扩容了,这个之前需要了解heap的结构
type mheap struct {
lock mutex
free [_MaxMHeapList]mspan // free lists of given length
freelarge mspan // free lists length >= _MaxMHeapList
busy [_MaxMHeapList]mspan // busy lists of large objects of given length
busylarge mspan // busy lists of large objects length >= _MaxMHeapList
allspans **mspan // all spans out there
gcspans **mspan // copy of allspans referenced by gc marker or sweeper
nspan uint32
sweepgen uint32 // sweep generation, see comment in mspan
sweepdone uint32 // all spans are swept
// span lookup
spans **mspan
spans_mapped uintptr
// Proportional sweep
spanBytesAlloc uint64 // bytes of spans allocated this cycle; updated atomically
pagesSwept uint64 // pages swept this cycle; updated atomically
sweepPagesPerByte float64 // proportional sweep ratio; written with lock, read without
// Malloc stats.
largefree uint64 // bytes freed for large objects (>maxsmallsize)
nlargefree uint64 // number of frees for large objects (>maxsmallsize)
nsmallfree [_NumSizeClasses]uint64 // number of frees for small objects (<=maxsmallsize)
// range of addresses we might see in the heap
bitmap uintptr
bitmap_mapped uintptr
arena_start uintptr
arena_used uintptr // always mHeap_Map{Bits,Spans} before updating
arena_end uintptr
arena_reserved bool
// central free lists for small size classes.
// the padding makes sure that the MCentrals are
// spaced CacheLineSize bytes apart, so that each MCentral.lock
// gets its own cache line.
central [_NumSizeClasses]struct {
mcentral mcentral
pad [_CacheLineSize]byte
}
spanalloc fixalloc // allocator for span*
cachealloc fixalloc // allocator for mcache*
specialfinalizeralloc fixalloc // allocator for specialfinalizer*
specialprofilealloc fixalloc // allocator for specialprofile*
speciallock mutex // lock for special record allocators.
}
它最重要的结构有三个,spans,指向所有span指针,bitmap是spans的标志位,arena是堆生成区。
+---------------------+---------------+-----------------------------+
| spans 512MB .......| bitmap 32GB | arena 512GB ..................|
+---------------------+---------------+-----------------------------+ +
func mHeap_SysAlloc(h *mheap, n uintptr) unsafe.Pointer {
// 如果超出了arean预留的区块限制了
if n > uintptr(h.arena_end)-uintptr(h.arena_used) {
// 使用一些系统保留的空间
...
}
// 申请的大小在arean范围内
if n <= uintptr(h.arena_end)-uintptr(h.arena_used) {
// 使用系统的sysMap申请内存
sysMap((unsafe.Pointer)(p), n, h.arena_reserved, &memstats.heap_sys)
mHeap_MapBits(h, p+n)
mHeap_MapSpans(h, p+n)
...
}
...
}
func sysMap(v unsafe.Pointer, n uintptr, reserved bool, sysStat *uint64) {
...
// 最终调用mmap
p := mmap(v, n, _PROT_READ|_PROT_WRITE, _MAP_ANON|_MAP_FIXED|_MAP_PRIVATE, -1, 0)
...
}