自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(796)
  • 论坛 (1)
  • 收藏
  • 关注

原创 linux common question record

Linux给用户添加sudo权限Ubuntu改坏sudoers后无法使用sudo的解决办法

2020-04-05 21:16:55 84

原创 leetcode 452 贪心算法

class Solution { public int findMinArrowShots(int[][] points) { int l = points.length; if(l==0) return 0; Arrays.sort(points,new Comparator<int[]>(){ @Override public int compare(int[] o1, int[] o2)

2021-01-05 18:22:25 17

原创 USACO 1.2

# PROB Your Ride Is Here题意:将字符串中的大写字母转换成1-26,计算每个字母的累乘和模47,判断两个字符串的结果是否相等。in = open ('ride.in', 'r')fout = open ('ride.out', 'w')in1 = fin.readline()in2 = fin.readline()# in1 = input("")# in2 = input("")x = 1for i in in1: x = (ord(i)-ord('

2020-11-21 19:23:11 14

原创 USACO 2019 December Contest, Silver

Problem 1. MooBuzz题意:1-N中将3,5,15的倍数去除,求解第K个数的值。"""ID: yinjiefeiLANG: PYTHON3TASK: moobuzz"""fin = open('moobuzz.in', 'r')fou = open('moobuzz.out', 'w')#in1 = int(fin.readline())# fout.write(1112)# in1 = int(input(""))ans = in1l, r = 1, 1e18

2020-11-21 12:29:14 37

原创 MapReduce

作用:MapReduce是一个用于处理和生成大型数据集的程序模型。实现:用户使用map函数处理输入的键值对来生成一组中间的键值对,使用reduce函数合并中间键值对中相同的键(中间数据是通过迭代的方式来提供给reduce函数的,这样就可以处理内存无法满足的大量数据)优点:运行时,系统负责划分数据,在一组机器上调度程序的执行,处理机器故障和管理所需机器间通信的细节,对使用人员友好不必去了解系统内部的细节。步骤:(1)用户程序中的MapReduce库首先将输入文件分成M份,每份的大小一般都是16-64

2020-06-17 12:00:20 98

原创 cs231n作业:Assignment2-Pytorch

import torchimport torch.nn as nnimport torch.optim as optimfrom torch.utils.data import DataLoaderfrom torch.utils.data import samplerimport torchvision.datasets as dsetimport torchvision.tran...

2020-03-14 22:27:56 284

原创 cs231n作业:Assignment2-Convolutional Networks

def conv_forward_naive(x, w, b, conv_param): """ A naive implementation of the forward pass for a convolutional layer. The input consists of N data points, each with C channels, height H ...

2020-03-03 17:37:15 171

原创 cs231n作业:Assignment2-Fully-Connected Neural Nets

fc_net.pyfrom builtins import rangefrom builtins import objectimport numpy as npfrom cs231n.layers import *from cs231n.layer_utils import *class TwoLayerNet(object): """ A two-layer fu...

2020-02-27 16:59:16 202

原创 cs231n作业:Assignment2-Dropout

def dropout_forward(x, dropout_param): """ Performs the forward pass for (inverted) dropout. Inputs: - x: Input data, of any shape - dropout_param: A dictionary with the following...

2020-02-26 21:09:24 89

原创 cs231n作业:Assignment2-Batch Normalization

from builtins import rangeimport numpy as npdef affine_forward(x, w, b): """ Computes the forward pass for an affine (fully-connected) layer. The input x has shape (N, d_1, ..., d_k) ...

2020-02-24 19:49:46 147

原创 改善深层神经网络:超参数调试,正则化以及优化

11

2020-01-31 18:26:41 66

原创 cs231n作业:Assignment1-Image features exercise

# Use the validation set to tune the learning rate and regularization strengthfrom cs231n.classifiers.linear_classifier import LinearSVMlearning_rates = [1e-9, 1e-8, 1e-7]regularization_strengths...

2020-01-20 09:56:22 88

原创 cs231n作业:Assignment1- two_layer_net

from __future__ import print_functionfrom builtins import rangefrom builtins import objectimport numpy as npimport matplotlib.pyplot as pltfrom past.builtins import xrangeclass TwoLayerNet(obj...

2019-12-16 15:52:10 91

原创 VGG:VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION

VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITIONImageNet2014 定位第一,分类第二"VGG"代表,牛津大学的Oxford Visual Geometry GroupVGG 的特点:(1)小卷积核:作者将卷积核全部替换为3*3,极少用了1*1(2)小池化核:相比AlexNet的3*3的池化核,V...

2019-12-13 19:51:09 92

原创 AlexNet:ImageNet Classification with Deep Convolutional Neural Networks

这个神经网络有6000万参数,和650000个神经元,包含5个卷积层(某些卷积层后面带有池化层)和3个全连接层,最后一个是1000维的softmax。为了防止过拟合,使用了dropout的正则化方法。使用了120万高分辨率图像分到1000个不同的类别中。使用了非饱和的神经元并对卷积操作进行了非常有效的GPU实现。cnn的前面部分,卷积-激活函数-降采样-标准化。AlexNet论文翻译—...

2019-12-01 10:14:16 90

原创 cs231n作业:Assignment1-softmax

def softmax_loss_naive(W, X, y, reg): """ Softmax loss function, naive implementation (with loops) Inputs have dimension D, there are C classes, and we operate on minibatches of N exa...

2019-11-28 14:54:21 67

原创 python中的浅拷贝和深拷贝

浅拷贝:(1)切片操作 [:](2)工厂函数,list(),dict()(3)使用copy模块中的copy函数构造方法或切片[:]做的是浅拷贝,即拷贝了最外层的容器(内存地址不一样),副本中的元素都是原容器中的引用(内存地址一样)。深拷贝:不仅拷贝最外层的容器,还会拷贝容器中的元素。相当于完全没有关系不可变对象:int,float,complex,long,str,unicode,...

2019-11-26 10:43:28 46

原创 softmax/sigmoid tanh/ReLU/Leaky ReLU

softmaxσ(xi)=exi∑j=1j=nexj\sigma(x_i) = {\frac{e^{xi}}{\sum_{j=1}^{j=n}e^{xj}}}σ(xi​)=∑j=1j=n​exjexi​概率之和为1,元素之间相互关联抑制,取值被压缩到(0,1)可用于多分类问题。只有一个标签。sigmoid(logistic function)σ(xi)=11+exi\sigma(x_i)...

2019-11-24 22:12:28 105

原创 leetcoder 48. Rotate Image(思维)

题意:将一个矩阵进行顺时针旋转自己的做法:直接推公式,x,y = y, n-1-x,弊端需要开一个标记数组class Solution: def rotate(self, matrix): """ Do not return anything, modify matrix in-place instead. """ dt ...

2019-11-24 20:59:54 30

原创 目标检测骨干网发展

111

2019-11-24 11:52:44 357

原创 LeNet-5 手写字体识别模型

手写字体识别模型LeNet5诞生于1994,是最早的神经网络之一。现在常用的LeNet-5(卷积池化当作一层的话,共5层)结构和Yann LeCun教授在1988年提出的结构在某些地方有区别,比如激活函数的使用,现在一般采用ReLU作为激活函数,输出层一般选择softmax。(论文RBF)性质:随着网络越来越深,图像的高度和宽度在缩小,但channel数量一直在增加。局限性:CNN能够从...

2019-11-23 17:05:56 251

原创 cs231n作业:Assignment1-SVM

def svm_loss_naive(W, X, y, reg): """ Structured SVM loss function, naive implementation (with loops). Inputs have dimension D, there are C classes, and we operate on minibatches of N...

2019-11-21 22:38:36 70

原创 线性分类(svm/softmax)/损失函数/优化

f(x,W)=Wx + bW:所有训练中的经验都存在W中bias:他不与训练数据交互,而只会给我们一些数据独立的偏好值。(例如,数据集的不平衡带来的差异 )优点:易于使用和理解缺点:难于解决多分类问题,在多模态数据中,比如一个类别出现在不同的领域空间中...

2019-11-19 22:32:42 137

原创 归一化/标准化/正则化

为什么要进行归一化和标准化?因为特征间的单位尺度可能不同,可能会导致计算结果也不同,尺度大的会起决定性作用,为了消除特征间的单位和尺度差异和影响,以对每维特征同等看待,需要对特征进行归一化操作。因尺度差异,其损失函数的等高线可能是椭圆形,梯度方向垂直于等高线,下降会走zigzag路线,而不是指向local minimum,通过对特征进行平均值为0方差为1的变换后,其损失函数的等高线更接近圆形,...

2019-11-18 23:59:00 114

原创 梯度下降法(全局gGD和随机gSGD)

梯度下降法分为全局梯度下降和随机梯度下降全局梯度法训练的时候用的是所有的训练样本gGD=1n∑i=1nΔθL(xi,yi,θt)g_{GD} = {{1} \over {n}}\sum_{i=1}^{n}\Delta_{\theta}L(x^{i},y^{i},\theta_{t})gGD​=n1​∑i=1n​Δθ​L(xi,yi,θt​)θt+1=θt−ηgGD\theta_{t+1} =...

2019-11-17 12:47:53 137

原创 YOLOv3: An Incremental Improvement

摘要(1)比V2体积更大,精度更高,但是速度仍有保障(2)输入320/*320的图片后,v3能在22ms内处理完成,并取得28.2mAP,精度和SSD相当,但速度快上3倍。介绍更新2.1边框预测V3用逻辑回归预测每个边界框的objective score。如果当前预测的边界框比之前的更好的与ground truth对象重合,那他的分数就是1,如果当前的预测不是最好的但是和ground ...

2019-11-06 16:12:07 40

原创 softmax和交叉熵

softmax用于多分类过程中,往往加在神经网络的他将多个神经元的输出,映射到(0,1)区间内,看成概率来解,这些值的累和为1,在选取输出节点的时候选取概率最大的节点作为我们的预测目标,从而进行多分类。Si=ei(∑jej)S_{i} = { \frac{e_{i}} {\choose\sum_{j}e^{j}} }Si​=(∑j​ej​)ei​​softmax 相关求导当对分类的Loss进...

2019-11-04 15:48:46 82

原创 人脸识别基本常识

人脸识别算法主要包含三个模块(1)人脸检测(Face Detection):确定人脸在图像中的大小和位置,也就是在图像中yu代码中的main函数就相当于是test文件,用于输入数据,输出结果代码返回的是图像中人脸的特征向量(多少个人脸就返回多少个向量)实现识别功能的话,先把数据库中的人脸图像跑一遍,得到特征向量再将待测试的图片跑一遍,得到待测试的特征向量,把这两组特征向量计算余弦距离,距...

2019-11-03 11:10:29 292

原创 环境配置

找cuda:ls /usr/bin/cuda查看GPU型号:nvidia-sml下载与cpu对应的pytorch,例如:pip install https://download.pytorch.org/whl/cu90/torch-1.1.0-cp37-cp37m-linux_x86_64.whlpytorch下载网站:https://download.pytorch.org/whl/cu...

2019-10-31 20:03:00 56

原创 cs231n作业:Assignment1-KNN

note:曼哈顿距离依赖于坐标系统的选择(向量中的元素可能都有实际的意义)d1(I1,I2)=∑p∣I1p−I2p∣d_{1}(I_{1}, I_{2}) = \sum_{p}|I_{1}^{p}-I_{2}^{p}|d1​(I1​,I2​)=∑p​∣I1p​−I2p​∣欧式距离对距离的排序不会受到坐标系统的影响d2(I1,I2)=∑p(I1p−I2p)2d_{2}(I_{1}, I_{2...

2019-10-29 10:55:34 60

原创 YOLO9000: Better, Faster, Stronger

1.介绍(1)大多数检测方法受限于小目标(2)YOLOv2可以检测9000多种不同的物体更好(1)由于YOLO的缺点,我们的目标是提高召回和定位,同时保持分类的准确性。(2)我们不是扩展我们的网络,而是简化我们的网络,然后使表示更容易学习。...

2019-10-27 10:02:12 92

原创 xunfei 算法提前批

作者:justonetime链接:https://www.nowcoder.com/discuss/289720来源:牛客网一面挂,第二天就给我发感谢信了1.哪里人;2.工作地点;3.讲一下SSIM公式;4.看过多少论文;5.知不知道分割,检测,识别,这块的论文说一下;6.知道哪些噪声,分别用什么滤波器处理;7.加入一个图像有一条很明显的直线划痕,怎么用传统图像处理去掉划痕;就...

2019-10-21 11:11:04 34

原创 降(上)采样

降采样(subsampled)目标:使得图像符合显示区域的大小,生成对应图像的缩率图。本质就是池化操作(pooling),降低特征的维度保留有效的信息。保持平移,旋转,伸缩不变性。图像的质量可能受到影响,但是也有一些缩放方法能够增加图像的质量。上采样(upsampled)目标:放大原图像,从而可以显示在更高分辨率的图像上。操作:几乎都是采用内插值方法,即在原有图像像素的基础上,在像素点...

2019-10-18 15:52:57 265

原创 学长的收割历程

秋招6月份开始,大部分8,9,10月份蚂蚁金服,kaggle的比赛,传统的机器学习比赛文章:就算没有顶会,能发出文章就能往简历上写(idea足够好)ACM:代码能力很重要,你不能指望别人去实现你的ideakaggle:实验室很难接触工业级的数据,更能接触工业界的场景,实验室的方法可能在工业界根本行不通。腾讯,阿里,头条,讯飞的广告大赛,如果参加可能有面试机会,如果拿了很好的名次可以有很...

2019-10-18 10:48:34 65

原创 目标检测20年

00

2019-10-18 10:47:57 123

原创 目标检测历史进展

早期目标检测流程(1)候选框生成(2)特征向量提取(3)区域分类DeepLearning 时代目标检测(1)二阶检测器(如CNN,(R-CNN)及其变体) 首先使用候选框生成器生成稀疏的候选框集,然后使用深度卷积网络编码生成候选框的特征向量,最后使用区域分类器预测候选框区域类别(2)一阶检测器(如YOLO) 直接对特征图像上的每个位置进行类别预测二阶检测器性能更优,一阶...

2019-10-18 10:47:36 251

原创 吴恩达 深度学习 学习笔记

第二周 深度卷积网络:实例探究2.11计算机视觉当数据量不大时,就需要在人工设计上多下一点功夫通过他人的预训练模型进行微调可能训练效果会很好(大量的数据和GPU资源)集成,可以独立训练几个神经网络并平均它们的输出(基准有所提高)eg:multi-crop第三周 目标检测3.1 目标定位不仅识别出图像的类别,还想定位对象的位置,,需要神经网络输出一个边界框eg:bx,...

2019-10-18 10:46:59 128

原创 讯飞 信息

2019-10-18 10:46:09 41

原创 You Only Look Once: Unified, Real-Time Object Detection

摘要(1)将目标检测的设计看做是一个回归问题,从空间上分割边界框和类别的概率。(2)在一次评估中,仅用一个神经网络就能预测整张图像的边界框和类别概率。(3)特点:1.检测速度非常快。2.与其他实时检测系统相比能实现较高的mAP。3.与其他先进的检测模型相比,定位误差更高,但不太可能将背景检测成目标(FP)。4.能够学到非常泛化的表示。1 介绍(1)RPN网络的一些弊端:1.使用...

2019-10-13 23:52:59 112

原创 准确率和召回率 precision / Recall / mAP(mean average precision) / fps

因为看了很多次都没记住所以自己记录一下西瓜和苹果TP:西瓜检测成西瓜 FP:苹果检测成西瓜FN:西瓜检测成苹果 TN:苹果检测成苹果准确率 =(把西瓜检测成西瓜)/(把西瓜检测成西瓜+把苹果也检测成西瓜)即:检测到的西瓜中确实是西瓜的个数(precision)= TP / (TP+FP)召回率 =(把西瓜检测成西瓜)/(把西瓜检测成西瓜+把西瓜检测成苹果)即:西瓜中有多少被...

2019-10-08 15:07:34 160

空空如也

mrcoderrev的留言板

发表于 2020-01-02 最后回复 2020-01-02

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人 TA的粉丝

提示
确定要删除当前文章?
取消 删除