- 博客(5)
- 资源 (3)
- 收藏
- 关注
原创 从ctr预估问题看看f(x)设计—DNN篇
转自:https://zhuanlan.zhihu.com/p/28202287把DNN引入ctr预估无非看重两点:一,改进模型结构,提高“信息利用率”,发现高阶非线性特征,挖掘以前挖不到潜在模式,比如DIN引入attention机制;一般来说Embedding+MLP是标配。二,扩充“信息量”,把图片/文本这类不好处理的数据利用起来,比如DeepCTR;#0 RoadMa
2017-08-24 21:50:57 7008 3
原创 [天池竞赛系列]IJCAI-17 口碑商家客流量预测冠军思路
题目链接:https://tianchi.aliyun.com/competition/introduction.htm?spm=5176.100066.0.0.773ef42fw2ednG&raceId=231591 代码链接:https://github.com/YouChouNoBB/ijcai-17-top1-single-mole-solution ...
2017-08-20 22:32:13 18728 21
原创 python快速入门
来源:http://cs231n.github.io/python-numpy-tutorial/#python-basicTable of contents:PythonBasic data typesContainersListsDictionariesSetsTuplesFunctionsClassesNumpyArraysArray inde
2017-08-18 22:12:31 1713
原创 DenseNet 简介
1.首先对深度学习做一个简单的回顾2.介绍DenseNet1.1 DNN回顾如下图所示是一个基本DNN结构,通过forward传播和backword传播来训练一个模型包含input层,L个隐藏层和一个output隐层使用的sigmoid激活函数一般的优化方法有如下几种GD:对所有样本计算完一次梯度然后更新权重SGD:每个样本计算一次梯度就更新权重
2017-08-17 19:00:11 50790 5
原创 1x1卷积核如何降低参数量
本文介绍1*1的卷积核与googlenet里面的Inception。正式介绍之前,首先回顾卷积网络的基本概念。 1. 卷积核:可以看作对某个局部的加权求和;它是对应局部感知,它的原理是在观察某个物体时我们既不能观察每个像素也不能一次观察整体,而是先从局部开始认识,这就对应了卷积。卷积核的大小一般有1x1,3x3和5x5的尺寸。卷积核的个数就对应输出的通道数,这里需要说明的是对于输入的每个通道,
2017-08-17 15:53:28 11804 1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人