目录
adb shell dumpsys meminfo pid 解析
adb shell dumpsys meminfo 汇总信息说明
android 的内存分类和linux基本保持一致。如dumpsys meminfo的信息基本上是和/proc/meminfo 中对应计算而来。 但android也增加了一些自己的内存管理方法和统计方式, 如android low memory killer, 单进程的memory统计:dumpsys meminfo pid, ion(android 11及以前)。 本文总结android memory 的一些查看方法, 并主要介绍dumpsys meminfo的统计方式。
Android 上查看memory 信息的方法
- adb shell dumpsys meminfo : 查看系统整体和每个进程meminfo。
- adb shell dumpsys meminfo pid: 查看一个进程的memory占用情况。
- adb shell; cat /proc/zoneinfo:查看zoneinfo
- adb shell; cat proc/meminfo : 系统整体memory占用。
- adb shell procrank: 进程的内存情况, 需要root;
- showmap pid : 查看指定Pid的内存具体信息。
- free -m 查看free memory. free只包括没使用的, 不包括cached。
total used free shared buffers
Mem: 11960 11860 99 14 342
-/+ buffers/cache: 11517 442
Swap: 4095 0 4095
- adb shell top: 只能总的内存和free, 单个进程仅能查看Rss值, 不能看到pss, 一般pss更有意义。 Rss, Pss概念: https://www.jianshu.com/p/995692aa0100。
内存限制和回收
查看内存限制及回收策略得阈值,cgroup和OOM 。不做具体介绍,只列出相关信息。
- 查看cgroup 内存 sys/fs/cgroup/memory/${cgroup}/memory.limit_in_bytes
- 查看oom 最小内存 ,该值触发内存回收/proc/sys/vm/min_free_kbytes :该值为全部zone的min free 总和。 但各zone 水线(min low high)查看cat /proc/zoneinfo
- low memory killer阀值(lmk ) 查看属性sys.lmk.minfree_levels。
手动释放缓存
操作文件:/proc/sys/vm/drop_caches
To free pagecache, use echo 1 > /proc/sys/vm/drop_caches;
to free dentries and inodes, use echo 2 > /proc/sys/vm/drop_caches;
to free pagecache, dentries and inodes, use echo 3 > /proc/sys/vm/drop_caches.
Because this is a non-destructive operation and dirty objects are not freeable, the user should run sync first.
例
adb shell "echo 3 > /proc/sys/vm/drop_caches"
通过 adb shell dumpsys meminfo |grep free 可以看到回收的效果。
adb shell dumpsys meminfo pid 解析
各值之间的关系见图,相同颜色的在等号两边是相当的。
adb shell dumpsys meminfo 汇总信息说明
输出信息处理代码在:dumpApplicationMemoryUsage()@ActivityManagerService.java
实际信息获取代码在: rsystem/memory/libmeminfo/sysmeminfo.cpp
分项说明:
Total RAM
系统总memory size。取自/proc/meminfo的MemTotal
Free RAM
可用内存。
其中 :
- cached pss : 为ams中所有cached app的size。cached app 为oomAdj大于 CACHED_APP_MIN_ADJ(900)的app, 这部分内存在内存紧张时可以被lmkd回收。
- cached kernel :为/proc/meminfo 中KReclaimable+ Buffers+ Cached -Mapped . 代码见: getCachedSizeKb@frameworks/base/core/java/com/android/internal/util/MemInfoReader.java
- free:对应/proc/meminfo中的MemFree。
ION
读取的是ion heap值,为文件:"/sys/kernel/ion/total_heaps_kb"中的值。
注: andnroid 11上使用ion机制, android 12上ion 已经被DMA-buf heaps 替代。
其中
- ION mapped: 读取的是文件/proc/pid/maps中所有以"/dmabuf"开头的行对应的数值总和, 不仅包含ion信息, 同样包含任何其他dma buffer 文件的map信息, 所以该值可能大于ion 的数值。
- unmapped: 为ion -ion mapped, 当ion mapped > ion时该值为负值。这是ion信息不严谨的地方。
ION 信息同样被统计到了meminfo 的其他项中, mapped+unmapped 统计在了Used RAM中。 pools统计到了 Free RAM中, 估计统计到了cached kernel中, 因为如果使用adb shell "echo 3 > /proc/sys/vm/drop_caches" , pools会清零, 同时 cached kernel 大幅减少, free增加。
GPU: android 12新增
GPU总数用 Debug.getGpuTotalUsageKb()获取。实际执行函数 ReadGpuTotalUsageKb() @system/memory/libmeminfo/sysmeminfo.cpp。 该函数通过bfp.mapbfpR0从路径"/sys/fs/bpf/map_gpu_mem_gpu_mem_total_map"中解析,adb shell dumpsys gpu中的mem信息通过frameworks/native/services/gpuservice/gpumem/GpuMem.cpp 也从 /sys/fs/bpf/map_gpu_mem_gpu_mem_total_map中获取。
GPUbuffer分为: gpuPrivateUsage 和gpuDmaBufUsage。
- gpuPrivateUsage = Debug.getGpuPrivateMemoryKb(); pid 0 对应的gpu 内存。
- gpuDmaBufUsage = gpuUsage - gpuPrivateUsage;
google 文档:在 Android 12 中实现 DMABUF 和 GPU 内存计算 | Android Open Source Project
Used RAM
为 所有可以统计到的已经使用的memory。
其中:
- android 11 used pss: 为所有process的pss内存总和- cached pss。需要:
- android 12以上used pss = 为所有process的pss内存总和- cached pss - ss[INDEX_TOTAL_MEMTRACK_GRAPHICS](memtrack中的graphics的占用)+dmabufMapped(dmabufMapped 为meminfo 中ion中mapped值)-ss[INDEX_TOTAL_MEMTRACK_GL](memtrack中的gl的占用)。
TotalPss 计算: 所有process pss ss[INDEX_TOTAL_PSS] += myTotalPss( in dumpApplicationMemoryUsage() @ActivityManagerService.java) 计算所有cpustat 中的pid的pss( 调用 mAppProfiler.forAllCpuStats()获取pid)。
ss[INDEX_TOTAL_MEMTRACK_GRAPHICS] 和ss[INDEX_TOTAL_MEMTRACK_GL]:
每个app的meminfo中, 包含 memtrackGraphics和 memtrackGl 。
memtrackGraphics = info.getOtherPrivate(Debug.MemoryInfo.OTHER_GRAPHICS);
memtrackGl = info.getOtherPrivate(Debug.MemoryInfo.OTHER_GL);
其中memtrackGraphics之和统计进 ss[INDEX_TOTAL_MEMTRACK_GRAPHICS]: ss[INDEX_TOTAL_MEMTRACK_GRAPHICS] += memtrackGraphics;
memtrackGl之和统计进 ss[INDEX_TOTAL_MEMTRACK_GL] += memtrackGl ;每个进呈memoryinfo: 通过Debug.getmemoryinfo(pid,mi)获取 在 android_os_Debug.cpp 中通过读取/proc/pid/smaps和memtrack中获取。
Graphics 内存部分包括 Gfx dev 、EGL mtrack、GL mtrack 三部分. (以下kgsl节点为高通手机平台节点。 其他平台可能没有。)
gfx dev:/d/proc/<pid>/smaps 文件里 tag 为 “/dev/kgsl-3d0” 的内存空间总和,其与应用所申请的 OpenGL 资源(如纹理)大小有直接联系,所申请的资源越多越大,该项统计就会越大。
gl mtrack:/d/kgsl/proc/<pid>/mem 文件里统计的类型为 gpumem 的条目,其含义是GPU 驱动分配给应用的显存资源。OpenGL 资源实际所占用的显存空间则与gfx dev项有关。驱动会多分配多少显存给应用这个不得而知,但毫无疑问,应用申请的 OpenGL 资源越多,该项统计也会越大。
egl mtrack:各平台含义一致,Graphicbuffer 占用的显存空间。window、surfaceview、textureview、hardware bitmap (android O),或其它直接使用 graphicbuffer 的方式都统计在这项里。
原文链接:https://blog.csdn.net/lei7143/article/details/130729785
graphic 的数据有 3 部分。
Gfx dev:绘制时分配,并且已经映射到应用进程虚拟内存中。这里需要注意的是,只有高通的芯片才会将这一块的内存放在 /dev/kgsl-3d0 路径,并映射到进程的虚拟内存中,其他的芯片不会放在这个路径。在上面的 load_maps 方法中,我们也可以看到对这一块内存数据的解析逻辑。
GL mtrack:绘制时分配,没有映射到应用地址空间,包括纹理、顶点数据、shader program 等。
EGL mtrack:应用的 Layer Surface,通过 gralloc 分配,没有映射到应用地址空间。不熟悉 Layer Surface 的话,可以将一个界面理解成一个 Layer Surface,Surface 存储了界面的数据,并交给 GPU 绘制。链接:https://www.zhihu.com/question/589930942/answer/2951417650
- kernel:android 11:为/proc/meminfo 中的 Shmem + SUnreclaim + VmallocUsed + PageTables + KernelStack + ION
- android 12: 为/proc/meminfo 中的 Shmem + SUnreclaim + VmallocUsed + PageTables + KernelStack + ION unmapped + gpuPrivateUsage.
关于:
Lost RAM
无法统计的使用的RAM信息。 系统中内存的使用并不是都被统计, 但是真实在使用, 这部分就为lost RAM, 以alloc_pages分配的内存就是这部分内存。 lost RAM为Total RAM - Free RAM - Used RAM - ZRAM + totalSwapPss(所有进程交换出得内存总和)。 每个进程totalSwapPss 计算参看 getTotalSwappedOutPss()@frameworks/base/core/java/android/os/Debug.java。
ZRAM
获取自: /sys/block/zram/mm_stat or /sys/block/zram/mem_used_total。第三项为zram使用。
swap: 使用的交换区的大小, 取自/proc/meminfo/SwapTotal - SwapFree。 total swap 为 /proc/meminfo/SwapTotal。
Total RAM: 11,650,184K (status normal)
Free RAM: 6,092,133K ( 422,981K cached pss + 136,832K cached kernel + 5,532,320K free)
ION: 749,412K ( 529,816K mapped + 14,220K unmapped + 205,376K pools)
Used RAM: 3,452,774K (1,937,002K used pss + 1,515,772K kernel)
Lost RAM: 2,105,265K
ZRAM: 12K physical used for 0K in swap (4,194,300K total swap)
Tuning: 256 (large 512), oom 322,560K, restore limit 107,520K (high-end-gfx)
/proc/meminfo
推荐博客: Linux:/proc/meminfo参数详细解释-CSDN博客,里面说明的很清楚。
总结如下: 系统内存的使用情况可以用以下公式表示:
MemTotal = MemFree +【Slab+ VmallocUsed + PageTables + KernelStack + HardwareCorrupted + Bounce + X】+【Active + Inactive + Unevictable + (HugePages_Total * Hugepagesize)】 | |||||||
MemTotal = MemFree +【Slab+ VmallocUsed + PageTables + KernelStack + HardwareCorrupted + Bounce + X】+【Cached + AnonPages + Buffers + (HugePages_Total * Hugepagesize)】 | |||||||
MemTotal = MemFree +【Slab+ VmallocUsed + PageTables + KernelStack + HardwareCorrupted + Bounce + X】+【ΣPss + (Cached – mapped) + Buffers + (HugePages_Total * Hugepagesize)】 |
参考文档
内核中内存信息的展示 - Notes about linux and my work
memAailable : https://www.cnblogs.com/cxj2011/p/17455096.html
meminfo详解: Linux:/proc/meminfo参数详细解释-CSDN博客
linux alloc_pages() GFP标志位说明: Linux中的物理内存管理 [三] - 知乎