自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

huxcai的专栏

深度学习DL

  • 博客(3)
  • 收藏
  • 关注

转载 ReLu(Rectified Linear Units)激活函数

转载:http://www.cnblogs.com/neopenx/p/4453161.htmlReLu(Rectified Linear Units)激活函数论文参考:Deep Sparse Rectifier Neural Networks (很有趣的一篇paper)起源:传统激活函数、脑神经元激活频率研究、稀疏激活性传统Sigmoid系激活

2016-10-26 10:03:14 619

原创 《论文阅读笔记》Deep Metric Learning via Lifted Structured Feature Embedding

1.解释Lifted ,Structured structured:结构化 可以参考structured learning : to prediction structured ojects ,rather than scalar discrete or real values.For example,the problem of translating a natural language

2016-10-24 22:18:17 2100

转载 Mean Average Precision(MAP)

Precision Main article: Precision and recall Precision is the fraction of the documents retrieved that are relevant to the user’s information need. precision=|{relevant documents}∩{retrieved documen

2016-10-11 15:02:13 2170

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除