deep learning
文章平均质量分 62
WYXHAHAHA123
这个作者很懒,什么都没留下…
展开
-
pytorch 实现smooth L1 loss
import numpy as npimport torchimport torch.nn.functional as Fa=torch.Tensor([1,5,3,0.5,0.9])b=torch.Tensor([4,1,0,0.4,0.2])loss1=F.smooth_l1_loss(a,b)loss_part1=torch.abs(a-b)loss_part2=lo...原创 2020-01-23 22:55:36 · 2596 阅读 · 1 评论 -
cross entropy交叉熵损失函数只计算正确类别的损失,不计算错误类别
import torch.nn.functional as Fimport torchinput = torch.randn((3,2),requires_grad=True)target = torch.tensor([0,1,1]).long()loss = F.cross_entropy(input, target)'''https://en.wikipedia.org/wik...原创 2019-04-06 14:04:09 · 989 阅读 · 0 评论 -
CMU 11-785 recitation python中的list类型操作
import torchimport numpy as np'''https://github.com/cmudeeplearning11785/Spring2019_Tutorials/blob/master/recitation-0/Numpy%20%26%20PyTorch.ipynbhttp://deeplearning.cs.cmu.edu/recitation 0 '...原创 2019-03-28 21:08:57 · 227 阅读 · 0 评论 -
CMU 11-785 recitation numpy操作
import numpy as np'''https://github.com/cmudeeplearning11785/Spring2019_Tutorials/blob/master/recitation-0/Numpy%20%26%20PyTorch.ipynb在python中调用numpy package主要是为了实现vectorization向量化的操作假设现在要实现 y=wx...原创 2019-03-28 21:33:18 · 289 阅读 · 0 评论 -
pytorch训练过程中loss出现很大的值
在训练过程中,loss的值非常大,可能是:(1)没有除以归一化的因子(GAN中需要除以256*256*3),或者没有取平均值(2)learning rate太大,导致更新之后的权值参数特别大,从而下一次计算prediction的时候数值很大,最终计算loss的时候prediction 和 ground truth 之间的差值特别大。...原创 2019-04-08 18:44:17 · 19428 阅读 · 0 评论 -
python 求1+2+3+...+n
'''题目描述求1+2+3+...+n,要求不能使用乘除法、for、while、if、else、switch、case等关键字及条件判断语句(A?B:C)对数值型变量左移或者右移1位,分别表示将原始数值乘2或者除2'''# -*- coding:utf-8 -*-class Solution: def Sum_Solution(self, n): # wri...原创 2019-04-14 20:16:57 · 8673 阅读 · 0 评论 -
python 从高分辨图像上抠取图像块
#coding=utf-8import cv2import numpy as npimport os# 程序实现功能:# 根据patch在高分辨率图像上的索引值,crop出对应区域的图像# 并验证程序的正确性'''对于当前输入的3328*3328的高分辨率特征图,首先resize到640*640然后根据当前的patch文件名(包含了patch在高分辨率图像上的行索引和列索引)...原创 2019-05-08 16:24:10 · 2385 阅读 · 0 评论 -
深度学习中的随机种子
'''深度学习代码中的随机种子深度学习网络模型中初始的权值参数通常都是初始化成随机数而使用梯度下降法最终得到的局部最优解对于初始位置点的选择很敏感为了能够完全复现作者的开源深度学习代码,随机种子的选择能够减少一定程度上算法结果的随机性,也就是更接近于原始作者的结果即产生随机种子意味着每次运行实验,产生的随机数都是相同的但是在大多数情况下,即使设定了随机种子,仍然没有办法完全复现...原创 2019-07-20 15:23:39 · 9350 阅读 · 0 评论 -
关于python的学习资料
https://morvanzhou.github.io/learning-steps/https://morvanzhou.github.io/tutorials/machine-learning/torch/https://morvanzhou.github.io/tutorials/machine-learning/ML-intro/3-06-speed-up-learning/...原创 2019-07-22 21:34:13 · 144 阅读 · 0 评论 -
图像算法面经2
CNN中pooling层的作用:对特征图进行下采样,增大特征图中每个像素点的感受野,保持图像的旋转不变性、平移不变性和尺度不变性。logistics regression 逻辑回归的前向传播和反向传播公式推导:# 机器学习中通常需要对分类的预测结果进行评估# 假设所使用的是二分类,评价指标通常包括 precision recall 和 F1 score# P=TP/(TP+FP)...原创 2019-09-10 00:55:20 · 562 阅读 · 0 评论 -
3D图像分割:Thickened 2D Networks for 3D Medical Image Segmentation
Thickened 2D Networks for 3D Medical Image Segmentationhttps://arxiv.org/pdf/1904.01150.pdf本文研究的是血管分割(blood vessels),使用的是3D CT图像。将深度学习用于3D image segmentation,具体到医学图像分割中是三维空间的二分类问题。即确定3D voxel体素...原创 2019-04-03 22:09:32 · 6538 阅读 · 3 评论 -
RCNN Fast RCNN到Faster RCNN
https://blog.csdn.net/u011974639/article/details/78053203这位大神的讲解非常细。然后发现CS231n 2016中lecture8就有对于从RCNN Fast RCNN到Faster RCNN的详细讲解。一、R-CNN下面给出训练R-CNN的过程。step1&step2:准备用于fine-tune CNN的regio...原创 2019-03-11 17:24:37 · 698 阅读 · 0 评论 -
基于深度学习的单目深度估计
最近为了应付面试,把扔了好久当初也没好好学的单目深度估计拿出来,怕面试被问到。 代码:https://github.com/xanderchf/MonoDepth-FPN-PyTorch 1.数据预处理 首先从数据集中分别读取RGB彩色图像和对应的深度图标签从图像中读取出来,得到rgb和depth,其中RGB是彩色图,先resize到192*640,再取出12...原创 2019-03-06 20:47:34 · 2785 阅读 · 7 评论 -
detnet网络模型图
将detnet59作为faster RCNN的backbone,性能在论文中给出的性能很高,但是由于我的数据集中存在大量的小物体,所以不需要使用感受野特别大的卷积神经网络(CNN层数越深,感受野越大,对于大面积的物体感知效果很好,但是对于小面积的物体则可能产生模糊的特征),故而想把detnet50基础网络改成resnet34这种层数较浅的网络,resnet34将会比resnet50的卷积网络少16...原创 2019-03-12 14:55:47 · 909 阅读 · 0 评论 -
深度学习中的BN,LN层
https://blog.csdn.net/pandamax/article/details/72840822转载 2019-03-21 11:53:28 · 1706 阅读 · 0 评论 -
batch-normalization
Google inception V2:batch normalization :通过减少internal covariate shift加速深度神经的训练在对神经网络进行训练的过程中,当第layer层的权值参数发生变化时,第layer+1层的输入数据的分布也会发生变化,这使得训练神经网络的过程变得很复杂。此时,如果再使用饱和的非线性函数(saturate non-linearity)作为激活...原创 2019-03-13 16:40:58 · 178 阅读 · 0 评论 -
深度学习中的偏差和方差
ROC性能曲线原创 2019-03-13 16:43:05 · 514 阅读 · 0 评论 -
training fpnssd
以epoch为单位,计算整个epoch的loss函数和时间。batch size=32或者64,现在程序中设置的batch size=8,每进行一个step需要0.30s,如果训练数据集中包含9600张图片,batch size=32,一个epoch中包含300个step,1秒进行一次step,则300秒一个epoch,5min一个epoch,一小时12个epoch,一般训练过程会跑200-300...原创 2019-03-13 16:44:38 · 807 阅读 · 0 评论 -
深度学习基础(一)
advanced topics in visual computingdeep learning fundamentals:part1深度学习基础、数学推导深度学习的应用:人脸识别、物体检测、图像检索、图像去噪low level image processing :图像去噪、图像增强HDR:高动态范围显示(8-bit RGB数据 -&...原创 2019-03-13 16:46:31 · 273 阅读 · 0 评论 -
CS231N 关于物体检测部分
image classification任务中的网络模型设计:input image->stack of convolution-bn-relu-pooling->fully connected layers->output categories scores vector计算机视觉中的经典任务(typical task):image classification...原创 2019-03-13 16:47:42 · 215 阅读 · 0 评论 -
DCGAN简析(deep convolutional generative adversarial networks)深度卷积生成对抗网络
生成对抗网络最近非常热门,它并不属于监督学习范畴,实际上反过来想,监督学习的功能还是非常强大的,比如图像分类,目标检测,语义分割。GAN比较偏理论性,近年来的进展也非常快,而且文章的citations引用量也非常多。GAN的主要target是以生成一些效果非常逼真的图像为目标,指标评价只能是主观评价,并没有什么量化的指标。https://medium.com/syncedreview/bigg...原创 2019-01-26 23:34:46 · 1232 阅读 · 0 评论