方案六 V2 阿里拍照购方案 分级类目+triplet 多任务学习、one pass k_means聚类

20170808

拍立淘的技术框架

拍立淘存在典型的技术驱动,在过去的三年多时间,我们不断得通过技术的突破,来实验了业务的增长。

拍立淘流程主要分为离线流程和在线流程,主要步骤如下:

离线流程:主要是指拍立淘每天离线构建索引库的整个流程,涉及选品、离线抠图、离线抽取特征、构建索引等环节。执行完毕之后,每天会在规定时间完成线上图库的更新。

在线流程:主要是指用户一张query图上传之后,到最后返回结果的整个中间过程,包含在线类目识别,在线抠图,在线特征提取和在线索引查询等关键步骤。

宝贝选品

阿里集团内有海量的商品类目和图片,包含宝贝的主图、SKU、副图、晒单图和详情图等,涵盖电商领域的各个方面。如何从这些海量图片中选出用户最喜欢,最想买的宝贝是一件很有意思的工作。

我们首先会根据购物偏好和品质进行全淘图片库的过滤;由于淘宝上相同或者高度相似的宝贝太多,如果不处理的话,最后的搜索结果中就会出现大量一模一样的宝贝,用户体验很差。因此在做完过滤之后,我们增加了图片去重模块,目的是把一模一样或者高度相似的宝贝去重,优化最后的展示;最后,我们会结合运营需求,给最近一段时间做活动的宝贝打上运营标记。

类目预测

拍立淘类目是对淘宝叶子类目的一种划分,既需考虑一定的视觉相似性,又需考虑一定的语义相似性。类目体系不仅仅是个技术问题,也是个业务问题(有利于消费者认知)。目前拍立淘有14个大类,涵盖全淘所有叶子类目

抠图

因为商品的背景复杂,主体常常较小,所以为了减少大量背景干扰和多主体的影响,因此需要将搜索目标从图像中提取出来。下面两幅图反应了对于用户的query,进行主体检测和不进行主体检测的搜索结果差异。

第一幅图没有由于进行抠图,搜索结果中背景干扰比较明显,都出现了绿色的背景,而用户真正关心的主体衣服的搜索质量则很差。第二幅图进行抠图之后,搜索结果有了非常显著的提高,主体衣服的匹配程度非常高。

图像特征

拍立淘的图像特征包括深度特征和局部特征。

深度特征:基于深度学习框架学习出来的图像表示。目前深度学习在图像、语音等领域取得了重大突破,基于深度学习的图像表示在很多任务上已经完胜传统图像特征。拍立淘从立项之初就开始研究深度特征,在这方面积累了大量的经验,这也使得特征成为拍立淘核心竞争力之一,具体细节详见后续章节。

局部特征:局部特征是图像特征的局部表达,它反应的是图像具有的局部特殊性。拍立淘在常见的局部特征基础上进行改进,不仅进行维度压缩,还优化提取速度,同时保证匹配精度不下降。

检索索引

索引的流程可以分成离线和在线两部分。离线过程对商品图像特征构建索引,在线过程对用户query进行分布式的快速查询。

在线查询流程主要分为:粗召回 -> 积召回-> 欧式排序 -> 精排。

拍立淘目前的索引数据量有几十亿,如何高效的构建索引,同时保证在线查询的精度是一个非常具有挑战性的任务,拍立淘在这方面做了很多工作,详见后续章节。

排序

深度特征从高层提取信息,关注语义鸿沟;局部特征关注图像的局部信息。如果将两者有效的结合起来,相辅相成,既能保证语义上的相似性,又能保证局部细节的匹配,因此我们在索引召回之后,会再进行一次排序,将深度特征和局部特征结合在一起。我们会学习一个ranking function,给深度特征和局部特征分配不同的比重,基于最后的score对索引返回结果做二次排序。

上述是拍立淘的各个模块的介绍,下面我们会就拍立淘的三个核心技术:实拍图精度提升;超大规模的向量检索索引;移动端DL进行进一步的描述。

拍立淘核心技术

实拍图的突破

非实拍图主要是指拍摄清晰,背景简单的图片,其中大部分来自淘宝宝贝的原图。对于这种图片,拍立淘的精度已经做的很高。但是对于一个以图搜图商业应用,真正的挑战来自占比用户query大量的实拍图,这类图和非实拍图差距很大,具有光照,角度,多主体等各种问题。

为了把实拍图做好,拍立淘不断突破,在各个类目上都有非常显著的提升。

1.数据“掘地三尺”

数据方面,我们利用了拍立淘log数据,晒单数据和主搜i2i数据。并构建相应的深度学习模型进行特征训练。

在拍立淘的场景,我们发现用户的点击等有效行为大多是针对于同款,因此我们对PVLOG进行挖掘,噪声过滤,形成triplet来进行特征的训练。拍立淘每天产生海量的图像数据,通过构建基于实拍图的deep pairwise ranking特征学习框架,大幅度提高了实拍图的搜索效果。

晒单图可以作为一个用户真实实拍图的近似。目前淘宝上有大量用户上传的晒单图,但晒单图中含有大量的噪声数据。我们先会通过相似度矩阵滤除那些相似度较低的噪声数据。接着我们训练一个同款分类的分类器,由此得到的特征能提高实拍图的精度。

由于同一用户在同一时间段内点击的宝贝具有一定的相似度。通过挖掘主搜的i2i点击数据,形成虚拟label进行深度学习得到的中间层表达也可以作为一种特征表示,用于相似度排序。

除了通过提高特征本身的效果来提高实拍图的精度外,提高实拍图效果的另外一个途径是利用实拍图片来扩充我们的data space,使得整个图搜系统越来越智能。通过下图所示,通过主图+晒单图+LOG图扩充data space,加以distance度量,可以使得同款率提升。

2.升级深度学习

深度学习方面,我们通过Loss函数,网络结构和特征排序框架继续进行创新和突破。

首先我们采用了deeppairwise ranking特征学习框架来学习我们的深度特征:

最大化正/负样本与query之间的距离差来保证特征的效果。

其次我们采用了属性label和虚拟label训练框架来训练精排的深度特征:

另外,在类目识别方面,为了进一步提高分类精度,我们采用层次化的类目识别:

除了拍立淘的大类目之外,还多任务训练一级类目和叶子类目。这种多任务层次化的结构可以进一步提高拍立淘类目预测的精度。

超大规模的向量检索索引

为了涵盖更多更广的数据源,我们要打造一个容纳百亿级别数据量的拍立淘,面临的挑战包括:特征抽取的提速和特征降维;和离线构建索引的提速与查询召回的保证。

特征抽取的提速和特征降维

当数据量达到百亿级别时,如果特征抽取效率不高的话,离线抽取特征的时间就会变成非常长;其次,在线引擎中硬盘和内存的存储也是一个问题。

为了解决这一问题,在保证特征精度的情况下,通过对深度学习网络框架的调整,我们将拍立淘的特征的维度,压缩到了原来的1/4,并通过卷积加速、并行计算等策略实现了一倍的提速。

离线构建索引的提速与查询召回的保证

数据量爆炸式的增长,对离线构建索引也是一个挑战。拍立淘最初对6KW数据的处理,光聚类就要超过10h以上,而且失败率很高。另外,数据量的增长,会导致引擎召回的不断下降。

在离线构建索引效率方面,我们首先采用图计算框架提速积量化和粗量化,将资源消耗降为原来的1/3;同时用Onepass K-means优化原始的K-means,在保证效果的前提下,大大压缩了聚类的时间。离线构建索引效率整体提速超过10+倍。

对于引擎召回,我们首先将“近似粗量化”优化成真正的粗量化,同时用积中心近似表达粗中心,从而达到增加中心点而不增加召回时间的效果。在拍立淘的大部分类目中,我们的索引召回和线性召回已经基本一致。

除此以外,工程架构的优化也是非常重要的。离线系统的优化对整个拍立淘流程非常重要,包括对各个算法模块调度机制的优化和性能的提升。最新的离线系统已经支持混布集群,最大化资源的利用。

移动端的DL

随着高端手机的日益普及,越来越多的任务可以直接放到移动端执行,这样不仅可以减少图片上传带来的时间延迟,同时还可以降低server端的计算成本。

目前拍立淘已经上线移动端的类目预测和物体检测,后续会有更多的任务放到移动端。采用的核心技术包括卷积的提速,DL网络的裁剪和模型压缩等等。

写在最后的话

拍立淘-以图搜图一路走来,得益于算法/工程/产品的充分配合,得益于算法,数据,计算三位一体和大量的用户使用。目前部分解决了用户的拍照搜索需求,但是距离充分满足用户的需求还有一定的距离。项目组正在不断优化,从各个角度去提高。

参考链接:https://t.cj.sina.com.cn/articles/view/5048103321/12ce3f199034001cp7

import pandas as pd import math as mt import numpy as np from sklearn.model_selection import train_test_split from Recommenders import SVDRecommender triplet_dataset_sub_song_merged = triplet_dataset_sub_song_mergedpd triplet_dataset_sub_song_merged_sum_df = triplet_dataset_sub_song_merged[['user','listen_count']].groupby('user').sum().reset_index() triplet_dataset_sub_song_merged_sum_df.rename(columns={'listen_count':'total_listen_count'},inplace=True) triplet_dataset_sub_song_merged = pd.merge(triplet_dataset_sub_song_merged,triplet_dataset_sub_song_merged_sum_df) triplet_dataset_sub_song_merged['fractional_play_count'] = triplet_dataset_sub_song_merged['listen_count']/triplet_dataset_sub_song_merged small_set = triplet_dataset_sub_song_merged user_codes = small_set.user.drop_duplicates().reset_index() song_codes = small_set.song.drop_duplicates().reset_index() user_codes.rename(columns={'index':'user_index'}, inplace=True) song_codes.rename(columns={'index':'song_index'}, inplace=True) song_codes['so_index_value'] = list(song_codes.index) user_codes['us_index_value'] = list(user_codes.index) small_set = pd.merge(small_set,song_codes,how='left') small_set = pd.merge(small_set,user_codes,how='left') mat_candidate = small_set[['us_index_value','so_index_value','fractional_play_count']] data_array = mat_candidate.fractional_play_count.values row_array = mat_candidate.us_index_value.values col_array = mat_candidate.so_index_value.values data_sparse = coo_matrix((data_array, (row_array, col_array)),dtype=float) K=50 urm = data_sparse MAX_PID = urm.shape[1] MAX_UID = urm.shape[0] recommender = SVDRecommender(K) U, S, Vt = recommender.fit(urm) Compute recommendations for test users uTest = [1,6,7,8,23] uTest_recommended_items = recommender.recommend(uTest, urm, 10) Output recommended songs in a dataframe recommendations = pd.DataFrame(columns=['user','song', 'score','rank']) for user in uTest: rank = 1 for song_index in uTest_recommended_items[user, 0:10]: song = small_set.loc[small_set['so_index_value'] == song_index].iloc[0] # Get song details recommendations = recommendations.append({'user': user, 'song': song['title'], 'score': song['fractional_play_count'], 'rank': rank}, ignore_index=True) rank += 1 display(recommendations)这段代码报错了,为什么?给出修改后的 代码
06-08
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

TigerZ*

你点滴支持,我持续创作,羞羞

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值