自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

MR CODER

111

  • 博客(13)
  • 收藏
  • 关注

原创 cs231n作业:Assignment1-softmax

def softmax_loss_naive(W, X, y, reg): """ Softmax loss function, naive implementation (with loops) Inputs have dimension D, there are C classes, and we operate on minibatches of N exa...

2019-11-28 14:54:21 334

原创 python中的浅拷贝和深拷贝

浅拷贝:(1)切片操作 [:](2)工厂函数,list(),dict()(3)使用copy模块中的copy函数构造方法或切片[:]做的是浅拷贝,即拷贝了最外层的容器(内存地址不一样),副本中的元素都是原容器中的引用(内存地址一样)。深拷贝:不仅拷贝最外层的容器,还会拷贝容器中的元素。相当于完全没有关系不可变对象:int,float,complex,long,str,unicode,...

2019-11-26 10:43:28 119

原创 softmax/sigmoid tanh/ReLU/Leaky ReLU

softmaxσ(xi)=exi∑j=1j=nexj\sigma(x_i) = {\frac{e^{xi}}{\sum_{j=1}^{j=n}e^{xj}}}σ(xi​)=∑j=1j=n​exjexi​概率之和为1,元素之间相互关联抑制,取值被压缩到(0,1)可用于多分类问题。只有一个标签。sigmoid(logistic function)σ(xi)=11+exi\sigma(x_i)...

2019-11-24 22:12:28 311

原创 leetcoder 48. Rotate Image(思维)

题意:将一个矩阵进行顺时针旋转自己的做法:直接推公式,x,y = y, n-1-x,弊端需要开一个标记数组class Solution: def rotate(self, matrix): """ Do not return anything, modify matrix in-place instead. """ dt ...

2019-11-24 20:59:54 73

原创 目标检测骨干网发展

111

2019-11-24 11:52:44 777

原创 LeNet-5 手写字体识别模型

手写字体识别模型LeNet5诞生于1994,是最早的神经网络之一。现在常用的LeNet-5(卷积池化当作一层的话,共5层)结构和Yann LeCun教授在1988年提出的结构在某些地方有区别,比如激活函数的使用,现在一般采用ReLU作为激活函数,输出层一般选择softmax。(论文RBF)性质:随着网络越来越深,图像的高度和宽度在缩小,但channel数量一直在增加。局限性:CNN能够从...

2019-11-23 17:05:56 1590

原创 cs231n作业:Assignment1-SVM

def svm_loss_naive(W, X, y, reg): """ Structured SVM loss function, naive implementation (with loops). Inputs have dimension D, there are C classes, and we operate on minibatches of N...

2019-11-21 22:38:36 201

原创 线性分类(svm/softmax)/损失函数/优化

f(x,W)=Wx + bW:所有训练中的经验都存在W中bias:他不与训练数据交互,而只会给我们一些数据独立的偏好值。(例如,数据集的不平衡带来的差异 )优点:易于使用和理解缺点:难于解决多分类问题,在多模态数据中,比如一个类别出现在不同的领域空间中...

2019-11-19 22:32:42 535

原创 归一化/标准化/正则化

为什么要进行归一化和标准化?因为特征间的单位尺度可能不同,可能会导致计算结果也不同,尺度大的会起决定性作用,为了消除特征间的单位和尺度差异和影响,以对每维特征同等看待,需要对特征进行归一化操作。因尺度差异,其损失函数的等高线可能是椭圆形,梯度方向垂直于等高线,下降会走zigzag路线,而不是指向local minimum,通过对特征进行平均值为0方差为1的变换后,其损失函数的等高线更接近圆形,...

2019-11-18 23:59:00 351

原创 梯度下降法(全局gGD和随机gSGD)

梯度下降法分为全局梯度下降和随机梯度下降全局梯度法训练的时候用的是所有的训练样本gGD=1n∑i=1nΔθL(xi,yi,θt)g_{GD} = {{1} \over {n}}\sum_{i=1}^{n}\Delta_{\theta}L(x^{i},y^{i},\theta_{t})gGD​=n1​∑i=1n​Δθ​L(xi,yi,θt​)θt+1=θt−ηgGD\theta_{t+1} =...

2019-11-17 12:47:53 999

原创 YOLOv3: An Incremental Improvement

摘要(1)比V2体积更大,精度更高,但是速度仍有保障(2)输入320/*320的图片后,v3能在22ms内处理完成,并取得28.2mAP,精度和SSD相当,但速度快上3倍。介绍更新2.1边框预测V3用逻辑回归预测每个边界框的objective score。如果当前预测的边界框比之前的更好的与ground truth对象重合,那他的分数就是1,如果当前的预测不是最好的但是和ground ...

2019-11-06 16:12:07 157

原创 softmax和交叉熵

softmax用于多分类过程中,往往加在神经网络的他将多个神经元的输出,映射到(0,1)区间内,看成概率来解,这些值的累和为1,在选取输出节点的时候选取概率最大的节点作为我们的预测目标,从而进行多分类。Si=ei(∑jej)S_{i} = { \frac{e_{i}} {\choose\sum_{j}e^{j}} }Si​=(∑j​ej​)ei​​softmax 相关求导当对分类的Loss进...

2019-11-04 15:48:46 488

原创 人脸识别基本常识

人脸识别算法主要包含三个模块(1)人脸检测(Face Detection):确定人脸在图像中的大小和位置,也就是在图像中yu代码中的main函数就相当于是test文件,用于输入数据,输出结果代码返回的是图像中人脸的特征向量(多少个人脸就返回多少个向量)实现识别功能的话,先把数据库中的人脸图像跑一遍,得到特征向量再将待测试的图片跑一遍,得到待测试的特征向量,把这两组特征向量计算余弦距离,距...

2019-11-03 11:10:29 1356

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除