读书笔记
文章平均质量分 81
rtygbwwwerr
曾在华为、搜狐担任技术研发工作,现任聚熵团队CTO,负责技术团队管理及核心技术研发。
方向:移动开发,人工智能,自然语言处理,信息检索,大数据处理,系统架构等。
展开
-
关于Bot系统的一篇总结性文章(也说bot--一篇survey)
也说bot–一篇surveyhttps://zhuanlan.zhihu.com/p/21626875*:粗体部分为附加说明也说bot–一篇survey张俊·引chatbot是最近一段时间非常火的一个词或者一个应用,不仅仅各大新闻媒体在热炒bot的概念,各大巨头也投入巨大的资源进行研发,arxiv上刷出bot相关的paper也更是家常便饭。炒作归炒作,PR归PR,不得不说一转载 2016-07-27 00:26:18 · 5688 阅读 · 0 评论 -
神经网络模型压缩之Knowledge Distillation
神经网络模型压缩之Knowledge Distillation1. Background随着深度学习理论的普及和PC计算能力的提高, Neural Network也日益趋于复杂化–越来越深和越来越大, 比如VGG系列,深度均在10层以上, 残差网络的深度更是从数十到一百以上. 复杂的网络模型带来的是超强的规则学习能力, 虽然以现在动辄几十或上百多机GPU并行的计算能力而言, 这样的巨大...原创 2018-03-09 13:46:10 · 11820 阅读 · 2 评论