ios yymodel 将字典转数组模型_TensorNet——基于TensorFlow的大规模稀疏特征模型分布式训练框架

TensorNet是什么?

TensorNet是一个构建在TensorFlow之上针对广告推荐等大规模稀疏场景优化的分布式训练框架。TensorNet的目标是让所有使用TensorFlow的开发者可以快速的、方便的训练出稀疏参数超过百亿的超大模型。

训练带有大规模稀疏特征模型的主要挑战

在广告、搜索、推荐等场景下的深度模型都会存在大量的高维离散稀疏特征,训练带有高维稀疏特征的模型主要有两个问题:

  1. 训练样本规模大。比如对于360广告场景会有超过100TB的训练数据。
  2. 模型参数多。比如对于360广告场景会有超过100亿的参数。

使用单机模式训练模型速度慢,耗时长,严重制约了模型的迭代速度,使用分布式训练已经成为业界标准。

使用TensorFlow训练稀疏特征模型的主要问题

TensorFlow是最受开发者欢迎的深度学习训练框架,但是TensorFlow对训练带有大规模稀疏特征的模型不太友好,主要问题有:

  1. TensorFlow支持的特征维度有限。一般的,TensorFlow需要对每一个特征定义一个矩阵,这个矩阵受限于内存,往往不能太大。
  2. TensorFlow2.x对参数服务器的支持较少,使用同步训练的模式会比较慢。

TensorNet——基于TensorFlow的专为大规模稀疏特征模型优化的分布式训练框架

TensorNet在复用TensorFlow的所有功能的基础之上,专门定制使其支持大规模稀疏特征模型的训练。TensorNet的主要提升包括:

  1. 使TensorFlow支持的稀疏特征的维度接近于无限
  2. 使TensorFlow2.2 keras支持基于参数服务器的异步训练模式,极大的提升了训练速度。在360真实业务场景下我们将原来的离线训练时间由3.5小时提升到了25分钟
  3. 配合TensorNet通过split graph的方法可以对在线推理的性能进行优化。在360真实场景测试中我们发现有近 35% 的性能提升。

TensorNet分布式训练架构

TensorNet支持异步和同步模式训练。异步模式在仅有CPU的集群中速度提升十分显著,同步模式在网卡速度超过100GbE的GPU集群中表现突出。

TensorNet异步训练架构

在仅有CPU的集群中使用参数服务器的异步训练模式是训练模型速度最快的方法,TensorNet异步训练架构与TensorFlow的异步训练架构有很大的区别:

  1. TensorNet将sparse参数和与dense参数分别使用不同的parameter server管理。
  2. TensorNet不设单独的parameter server节点。在每个worker中都会维护一个sparse paramter server和dense parameter server。这省去了开发人员管理ps节点和worker节点的不少麻烦。
  3. TensorNet对sparse参数使用分布式哈希表按照哈希值均匀分布不同的节点上。这相较于TensorFlow需要让开发者根据自身情况将tensor分布在不同的ps节点上的方法更加灵活,这不仅减小了节点通信热点的概率,还减轻了开发者的工作量。
  4. TensorNet将模型的所有dense参数合并后使用分布式数组切分到不同的机器上,每次pull和push参数的时候只有一次网络请求。相较于TensorFlow对每个tensor都有一次网络请求的方法极大的减少了网络请求的次数从而提升了模型训练的速度。

v2-3dde8b6813c58daba73bf5d4bbca6cc1_b.jpg
TensorNet异步训练架构

TensorNet同步训练架构

TensorNet同步训练架构基本与TensorFlow的MultiWorkerMirroredStrategy架构一致,主要区别如下:

  1. TensorNet使用单独的sparse parameter server节点保存所有sparse参数。通过parameter server可以解决TensorFlow支持的sparse特征维度不能太大的问题。
  2. TensorNet对sparse参数做了特殊的定制化的同步。TensorNet在训练时由于每个batch内的sparse参数的`IndexedSlices`指向的内容与TensorFlow默认的不同,我们对此做了定制化的同步。

v2-8a3fc77860b1ac3f26b2427bdbc6657a_b.jpg
TensorNet同步训练架构

TensorNet核心优化

TensorNet最核心的优化是将模型的embedding tensor优化到了最小。如下图所示,对于最简单的wide&deep模型,如果在一个广告系统中有3亿用户,那么就需要定义一个维度为3亿的embedding矩阵,在训练模型时需要在这个3亿维的矩阵上做embedding_lookup得到当前batch内的用户的embedding信息,近而在embedding之上做更加复杂的操作。

v2-fac431bcd2089b781e84b3917a862526_b.jpg
TensorFlow中的实现

TensorFlow中的实现在高维稀疏场景下,embedding矩阵太大,占用内存多。很显然当特征较多的时候单机无法存储整个模型。

TensorNet使用一个较小的,可以容纳特征在一个batch内所有数据的embedding矩阵代替TensorFlow默认实现中需要定义的较大的embedding矩阵

如下图所示,在batch_size设置为1024的场景下,对于用户id特征,在TensorNet中只需要定义一个维度为1024的embedding矩阵,TensorNet的主要处理步骤如下:

  1. 定义模型时定义userid的embedding矩阵的维度为一个batch内所有用户id个数的最大值。
  2. 训练模型时得到当前batch内的所有用户id。
  3. 将用户id排序,并按照先后顺序为每个userid分配索引,索引从0开始,对应为下图中的virtual sparse feature
  4. 使用userid从parameter server中获取相应的embedding向量,然后按照其对应的索引放置到embedding矩阵中。
  5. 使用转换后的virtual sparse feature作为模型的输入。

v2-3310b6d506a2ca1f73e746c26a57d1a1_b.jpg
TensorNet中的实现

从上述可见,TensorNet由于极大的减小了模型所需要的embedding矩阵,从而可以极大的减小内存的开销,以及通过parameter server的方式使得稀疏特征的维度可以支持到接近无限维,从而可以极大的提升模型的刻画能力。

TensorNet Inference优化

由于TensorNet只更改了模型的第一层,从而模型的inference也变得极其简单。

在使用TensorNet构造模型的时候,可以将模型切分为两部分,如下图所示,embedding_lookup_graph只在离线训练时使用,在线inference时只需要将sparse embedding导出成字典供inference_graph作为输入即可,具体的请参考以下系列文章:

1. 为inference准备——模型切分: https://github.com/Qihoo360/tensornet/blob/master/doc/tutorial/03-split-to-sub-graph.ipynb

2. 使用XLA方式进行在线预估: https://github.com/Qihoo360/tensornet/blob/master/doc/tutorial/04-deploy-tf-graph-online.ipynb

3. sparse embedding字典导出: https://github.com/Qihoo360/tensornet/blob/master/doc/tutorial/05-export-sparse-feature-embedding.ipynb

v2-196d6ee523e927f6804e282d735b6bf7_b.jpg
TensorNet中split graph inference方案

TensorNet中split graph inference方案

在360内部场景中我们测试发现通过split graph配合XLA AOT的方法性能提升近35%

TensorNet开源及使用

TensorNet已经成功落地应用到了360广告ctr预估相关的场景中,并取得了显著的效果,我们已将代码、文档及我们在360广告的应用经验全部整理到了项目中,欢迎关注。

tensorNet主页:https://github.com/Qihoo360/TensorNet

tensornet快速上手:https://github.com/Qihoo360/tensornet/blob/master/doc/tutorial/01-begin-with-wide-deep.ipynb

更多文档请看:https://github.com/Qihoo360/TensorNet/README.md

联系方式:张彦升(zhangyansheng@360.cn),姚磊(yaolei@360.cn)

微信交流群:

https://weixin.qq.com/g/AQYAAB0H54Ncc-QyDTtKD2l-4V19WXGdpbUfFa6QqwS8NphK5kZ5tWAD0_c342jf (二维码自动识别)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值