释放.NET Big Memory和内存映射文件的能量

\

要点:

\\
  • 通常Web服务器具有的内存远远超过了.NET GC在正常情况下可以有效处理的量。\\t
  • 缓存服务器的性能优势通常会因增加了网络成本而下降。\\t
  • 内存映射文件通常是在系统重新启动后填充缓存的最快方式。\\t
  • 服务器端调优的目的是出站网络连接达到饱和的程度。 通过最小化CPU、磁盘和内部网络的使用来达到网络连接饱和的程度。\\t
  • 通过在内存中保存对象图,可以获得图形数据库的性能优势,而且不会提高复杂性。\
\\

延续关于.NET平台(part1part2)的Big Memory主题,本文介绍了使用Agincore’s Big Memory Pile在受管CLR服务器环境中使用大型数据集的优势。

\\

综述

\\

现今RAM已经非常快速和实惠,但是生命周期较短。 每次重新启动进程,内存将被清除,一切都必须重新加载。为了解决这个问题,我们最近添加了内存映射文件来支持我们的解决方案,即NFX堆使用内存映射文件,可以在重新启动后从磁盘快速获取数据。

\\

总的来说,Big Memory方法对于开发人员和企业来说是有益的,因为它改变了.NET平台上的高性能计算模式。 传统的Big Memory系统是以C/C ++风格的语言构建的,主要处理字符串和字节数组。 但是当专注于底层数据结构时,就很难解决实际的业务问题了,所以我们要专注于CLR对象。 内存堆允许开发人员根据对象实例进行思考,并与具有属性编码继承和其他CLR原生功能的数亿个实例配合工作

\\

与语言无关的对象模型不同,就像一些软件供应商(如支持Java和.NET的供应商)所提出的那些,它们引入额外的变换以及需要额外流量/上下文切换/序列化的所有进程外解决方案。相反,我们将讨论进程内的本地堆或类“堆”对象,或者是在托管代码中的大型字节数组中的对象。这些对象对于GC来说是不可见的。

\\

用例

\\

为什么有人会使用几十或几百GB的RAM呢?以下是Big Memory Pile技术的一些已验证过的用例。

\\

首先是缓存。在电子商务后端,存储着数十万种用来显示为详细目录列表的产品。每种产品可能有数十种变体。当在单个屏幕上构建一个展示30多个产品的目录视图时,即使是单个用户使用渐进式加载滚动页面,也需要很快速地获取到这些对象。为什么不使用Redis或Memcached?因为在同一个进程中做相同的事情,可以节省网络流量和序列化开销。将网络数据包转换成对象可能是非常昂贵的操作过程。如果要持有数十万种产品及其变体,您是否会使用字典\u0026lt;id,Product\u0026gt;(或IMemoryCache)?单单缓存数据便提供了足够的动机来使用RAM,但其实还有更多的方面...

\\

另一个缓存用例是REST API服务器,可以将约5000万个很少更改的JSON向量序列化为UTF8编码的字节数组。大约1024字节的数组可以直接发送到Http流中,使得网络瓶颈处在80,000 req / sec左右。

\\

使用复杂对象图是Pile的另一个完美案例。在社交应用中,需要遍历Twitter上的对话线程。当追踪谁在社区媒体网站上什么时候说了什么时,在内存中持有数亿个小向量的价值是无法估量的。也可以选择使用graph DB,而在这个案例中,在同一个进程中(它是由Web MVC应用程序托管的组件),正是使用了graph DB。我们现在正在处理每秒100K以上的REST API调用,这受限于我们的网络连接数,并且我们将CPU使用率保持在较低的水平。

\\

在这个和其他用例中,后台工作人员随着变化而异步地更新社交图表。在许多情况下,如前面提到的产品目录,它可被优先完成。但是你不应该使用只持有数据子集的普通缓存来完成更新。

\\

工作原理

\\

Big Memory Pile通过在大型字符数组中使用CLR对象图的透明序列化来解决GC问题,有效地“隐藏”了GC可获取范围内的对象。然而并不是所有的对象类型都需要完全序列化, 字符串和字节数组对象会被写入堆中,因为缓冲区会绕过所有的序列化机制,在6核主机上每秒可完成超过6百万次64字的字符串插入。

\\

这种方法的主要优点是其实用性。现实生活中的案例,在使用原生CLR对象模型时已显示出惊人的整体性能,因为不需要创建专用DTO,这样可以节省开发时间,而且因为不需要创建中间过程所需的额外副本,运行速度也会更快

\\

总的来说,Pile将大部分I/O绑定代码转换成CPU限制代码。通常情况下,异步(具有I/O绑定)实现的典型案例是100%的同步线性代码,这种代码更加简单,并且在单个服务器上执行多个100K操作/秒时性能更好,因为Task和其他异步/等待的实现有隐藏开销(参见这里这里)。

\\

Big Memory 映射文件

\\

内存中的处理过程是快速和容易实现的,但是当进程重新启动时,数据集会丢失,这个数据集通常(几十到几百GB)是很大的。从原始数据源拉出所有数据可能是非常耗时的,那是在重新启动后无法承受的时间开销。

\\

为了解决这个问题,我们添加了内存映射文件(MMF)来支持使用标准的.NET类:MemoryMappedFileMemoryMappedViewAccessor。现在,我们使用MemoryMappedViewAccessor实例和一些低级技巧来直接使用指针访问数据,而不是使用字节数组作为内存段的后备存储,所有这些操作都使用标准的C#来完成,不需要C ++参与,以保持一切简单,特别是构建链。

\\

通过MemoryMappedViewAccessor(MMFMemory类)写入内存直接修改OS层中的虚拟内存页面。如果操作系统不能将这些页面交换到磁盘中,便会尝试将这些页面放在物理RAM中。将Pile写入MMF的一个很好的功能是,进程在关闭后马上重启则不需要从磁盘重新读取所有内容。即使在进程终止之后,操作系统仍将映射到进程地址空间的页面保留。启动时,MMFPile可以以比从磁盘重新读取更快的方式访问RAM中的页面。

\\

请注意,由于在MMFMemory类中完成了非托管代码的上下文切换,MMFPile的性能会比DefaultPile慢(基于字节数组)。

\\

以下是一些测试结果:

\\

基准测试插入200,000,000字符串[32] 12个线程:

\\

(机器:Intel Core I7 3.2 Ghz,6 Core,Win 7 64bit,VS2017,.NET 4.5)

\\

DefaultPile

\\

24秒@ 8.3百万次插入/秒= 8.5 Gb内存;全GC \u0026lt;8 ms

\\

MMFPile

\\
  • 41秒@ 4.9百万次插入/秒= 8.5 GB内存+磁盘;全GC \u0026lt;10 ms\\t
  • 在Stop()上清除所有数据到磁盘:10秒\\t
  • 读取所有数据到ram:48秒=〜177 mbyte /秒\

正如你所看到的,MMF解决方案确实有额外的开销。由于非托管的MMF转换,吞吐量较低,并且一旦从磁盘安装Pile,则耗时与使用磁盘数据预先分配给RAM的内存量成比例。然而,你不需要等待加载整个工作集,因为MMFPile在Pile.Start()之后立即可用于写入和读取,数据的全部负载将需要时间开销,在上面的示例中8.5 GB数据集需要48秒的时间才能在中档SSD的RAM中预热。

\\

基准测试插入200,000,000 个Person对象(具有7个字段 12个线程:

\\

DefaultPile

\\

85秒@ 2.4百万次插入/秒= 14.5 Gb内存;全GC \u0026lt;10ms

\\

MMFPile

\\
  • 101秒@ 1.9百万次插入/秒= 14.5 GB内存+磁盘;全GC \u0026lt;10ms\\t
  • 在Stop()上清除所有数据到磁盘:30秒\\t
  • 读取所有数据到ram:50秒=〜290万字节/秒\

其他改进

\\

从上一次在InfoQ上发表文章以来,我们对NFX.Pile做了很多改进:

\\

原始分配器/分层设计

\\

Pile的实现可以更好地分层,从而可以将字符串和字节数组直接从RAM的较大的连续块中直接写入/读取。整个序列化机制完全绕过字节数组,从而可以使用Pile作为一个原始的字节数组分配器。

\\
\var ptr = pile.Put(“abcdef”); //这将绕过所有序列化程序\                             //并使用UTF8Encoding代替\var original = pile.Get(ptr)as string;
\\

性能提升

\\

由于引入了试图避免多线程竞争的滑动窗口优化实现,段分配逻辑已经被修改,并且在多线程插入期间提高了50%以上的性能。此外,在大多数情况下字符串和字节数组完全绕过串行器会提高速度近5百万次插入/秒(200%以上的改进)。

\\

枚举

\\

利用IEnumerable \u0026lt;PileEntry\u0026gt;接口实现,可以获得整个堆的内容。 PileEntry结构体如下:

\\
\foreach(var entry in pile){   \Console.WriteLine(“{0} points to \{1} bytes”.Args(                          entry.Pointer,                           \entry.Size));   \var data = pile.Get(entry.Pointer);   \… \}
\\

缓存持久化

\\

出于性能原因,缓存的默认模式是“推测的”。在这种模式下,即使存在足够的内存,散列码冲突也可能导致较低的优先级项从高速缓存中弹出。

\\

缓存服务器可以以“持久”模式存储数据,工作方式更像普通的字典。因为持久化模式需要在bucket中进行重新排列,所以相比推测模式会慢5-10%。对于大多数应用程序来说是难以察觉的。但是需要根据特定的情况进行测试从而确定最佳实现方式。

\\
\//为所有表指定TableOptions,将表持久化\cache.DefaultTableOptions = new TableOptions(“*”)\  {\    CollisionMode = CollisionMode.Durable\  };
\\

地对象突变和预分配

\\

可以在现有PilePointer地址改变对象。新的API Put(PilePointer ...)允许在现有位置放置不同的有效载荷。如果新的有效载荷不适合现有的块,那么Pile将创建一个内部链接到新位置(* nix系统中的一个文件系统链接),有效地使原始指针指向新的位置。删除原始指针将删除链接及其所指向的内容。别名是完全透明的,并在读取时产生目标有效载荷。

\\

还可以通过在调用Put()时指定preallocateBlockSize,为有效负载预分配更多的RAM。

\\
\//堆中存储链表的实现\public class ListNode{\  public PilePointer Previous;\  public PilePointer Next;\  public PilePointer Value;}\  ...\ private IPile m_Pile;//big memory pile \ private PilePointer m_First;//list head\ private PilePointer m_Last;//list tail\ ...\//将Person实例追加到堆中存储的人员链接列表\//返回最后一个节点\public PilePointer Append(Person person){\  var newLast = new ListNode{ Previous = m_Last, \                              Next = PilePointer.Invalid, \                              Value = m_Pile.Put(person)};\    \  var existingLast = m_Pile.Get(m_Last);\  existingLast.Next = node;\  m_Pile.Put(m_Last,existingLast); //在现有的ptr m_Last中进行编辑\  m_Last = m_Pile.Put(newLast); //向尾部添加新节点\\   return m_Last;\}
\\

更多信息,请参阅我们的视频:.NET Big Memory Object Pile - 在RAM中使用数百万个对象

\\

链接

\\

关于作者

\\

20c4d2060b29441dc53fb4aa7d98b111.jpgDmitriy Khmaladze在美国的有超过20年的IT从业经验,主要工作在创业公司和财富500强客户。1998年Galaxy在医疗行业主创了SaaS。在语言与编译设计、分布式架构、系统编程和架构、C / C ++、.NET、Java、Android、IOS、Web设计、HTML5、CSS、JavaScript、RDBMS和NoSQL / NewSQL等领域有15年以上的研究。

\\\\

查看英文原文:https://www.infoq.com/articles/Big-Memory-Part-3

\\

感谢冬雨对本文的审校。

\\

给InfoQ中文站投稿或者参与内容翻译工作,请邮件至editors@cn.infoq.com。也欢迎大家通过新浪微博(@InfoQ@丁晓昀),微信(微信号:InfoQChina)关注我们。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值