自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

长风破浪会有时,直挂云帆济沧海

完美一切 一切完美 止于至善

  • 博客(9)
  • 资源 (6)
  • 收藏
  • 关注

原创 论文阅读学习 - Hard-Aware Deeply Cascaded(HDC) Embedding

Hard-Aware Deeply Cascaded(HDC) Embedding[Paper-version1][Paper-version2][Code-Caffe] 摘要: 深度度量学习基本目标是,使相同类别的图片间的距离比不同类别的图片间的距离小. 由于优化问题,通常采用 hard example mining 来只对样本的 hard 子集进行处理...

2017-11-27 16:23:36 2631

原创 Caffe - Clion 调试 C++ 源码简单使用

Clion 调试 Caffe C++ 源码环境:Ubuntu14.04,Caffe,Clion2017.21. Clion - Ubuntu 安装官网下载 Clion 的 .tar.gz 压缩包 Clion-Linux解压压缩包到当前文件夹tar -zxvf Clion-2017.2.3.tar.gz运行安装脚本cd Clion-2017.2.3./bin/cli...

2017-11-22 15:33:56 9888

原创 Caffe Loss 层 - Lifted Struct Similarity Softmax Layer

Caffe Loss - Lifted Struct Similarity Softmax LayerLoss Layer From Deep-Metric-Learning-CVPR16.1. 在 prototxt 中的定义layer { name: "fc_embedding" type: "InnerProduct" bottom: "pool_ave" ..

2017-11-18 14:38:33 1177

原创 论文阅读学习 - Center Loss: Caffe 实现

Center Loss - Caffe实现

2017-11-16 13:08:48 2444

原创 论文阅读理解 - CenterLoss: A Discriminative Feature Learning Approach

CenterLoss - A Discriminative Feature Learning Approach for Deep Face Recognition[Paper][Caffe-Code] 摘要: Center Loss For Face Recognition - 提高CNN学习的特征的判别能力. Center Loss 通过学习每一类的深度特征的...

2017-11-16 10:52:42 4259

原创 目标检测 - 非极大值抑制(Non Maximum Suppression)

非极大值抑制(Non Maximum Suppression)目标检测中,NMS被用于后期的物体边界框去除中. NMS 对检测得到的全部 boxes 进行局部的最大搜索,以搜索某邻域范围内的最大值,从而滤出一部分 boxes,提升最终的检测精度.

2017-11-13 21:56:16 9759 3

翻译 语义分割 - 基于深度学习的图像背景移除

基于深度学习的图像背景移除[原文-Background removal with deep learning] 这篇博客主要是介绍 greenScreen.AI 中所涉及的工作. 1. Intro深度学习技术的发展为很多以往难以实现解决的问题提供了可能性方案. 给自己设定的目标:提升深度学习技巧提高AI产品的部署水平设计一种具有市场需求的产品Have...

2017-11-10 16:26:15 14605 18

翻译 机器学习 - 计算 Log-Sum-Exp

计算 Log-Sum-Exp[原文-Computing Log-Sum-Exp] 本文的计算技巧是有效的,但在机器学习课程上没有明确提到.假设 NN 个 值的数据集 {xn}Nn=1\{x_n\}_{n=1}^N,需要计算的值为:z=log∑Nn=1exp{xn}z = log \sum_{n=1} ^N exp\{x_n\}当采用 softmax 对 multinomial 分布进行参数化时

2017-11-09 14:43:34 14811 4

转载 Caffe - 使用caffe训练时Loss变为nan的原因

使用caffe训练时Loss变为nan的原因From [原创|使用caffe训练时Loss变为nan的原因]1. 梯度爆炸原因:梯度变得非常大,使得学习过程难以继续现象:观察log,注意每一轮迭代后的loss。loss随着每轮迭代越来越大,最终超过了浮点型表示的范围,就变成了NaN。措施: 减小solver.prototxt中的base_lr,至少减小一个数量级。如果有多个loss layer

2017-11-06 13:19:30 1583

medium-unlimited 浏览器插件

medium-unlimited 浏览器插件

2020-12-31

深度学习及其在淘宝图像应⽤探讨

深度学习及其在淘宝图像应⽤探讨,⼥装图像类⽬预测,采⽤基于深度学习的图像分类⽅法训练⼥装分类的模型

2018-03-10

Neural Network Methods in Natural Language Processing英文原版

Neural Network Methods in Natural Language Processing 原版,对深度学习介绍章节,插图多

2018-02-01

geckodriver-v0.18.0-linux64

geckodriver-v0.18.0-linux64. Selenium Webdriver, firefox

2017-11-29

chromedriver_linux64

chromedriver_linux64. selenium操作chrome浏览器需要有ChromeDriver驱动来协助。

2017-11-29

改进NMF算法

一种改进的非负矩阵分解NMF算法,具有不错的效果.

2014-03-14

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除