深度学习
dxz_tust
拥抱开源~
展开
-
NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis原创 2022-08-10 23:41:39 · 856 阅读 · 0 评论 -
pytorch 使用copy.deepcopy(model)问题
某次做实验,为了完全复制一个新模型,使用copy.deepcopymodel2 = copy.deepcopy(model1)这样复制后model2中的param.grad都是None,原因是deepcopy 只复制了数值,并没有对相关属性做对应的copy原创 2022-04-06 20:03:16 · 2685 阅读 · 0 评论 -
pytorch dataloader中每个线程随机种子问题
今天调代码遇到一个有趣的现象,在全局设置好随机种子后,在不同的num_workers中,numpy,random,torch中生成的随机数有差别,比如下面#num_wokers=3时候,分别打印print(random.random(),torch.rand(1),np.random.rand()),#可以发现用np随机出来的值竟然是一样的,所以我们如果要想让np随机出来的值不一样,需要自己设置一个回调函数worker_init_fn0.5682499026693681 tensor([0.92原创 2022-03-08 20:06:18 · 1886 阅读 · 0 评论 -
torch.optim.lr_scheduler.OneCycleLR用法
代码:import cv2import torch.nn as nnimport torchfrom torchvision.models import AlexNetimport matplotlib.pyplot as plt#定义2分类网络steps = []lrs = []model = AlexNet(num_classes=2)lr = 0.9optimizer = torch.optim.SGD(model.parameters(), lr=lr, momentum=原创 2021-01-16 17:28:21 · 13882 阅读 · 10 评论 -
pytorch 动态量化加载权重出错unexpected keys _packed_params
相关实验代码:仅仅只是量化对应的权重层,这里只量化lstm,fc层。import numpy as npimport timeimport cv2import torchimport torch.nn as nnimport torch.nn.quantized.dynamic as nnqdclass mymodel(nn.Module): def __init__(self): super(mymodel, self).__init__()原创 2021-01-16 16:15:31 · 746 阅读 · 1 评论 -
关于类激活图(CAM)运行机制的解读
CAM:https://arxiv.org/abs/1512.04150Grad-CAM:https://arxiv.org/pdf/1610.02391v1.pdfGrad-CAM++:https://arxiv.org/abs/1710.11063最近看了网上很多关于这三篇解读的文章,但是对于一个“CAM新人“来说,还是遇到了很多疑惑。下面总结几点:1.CAM能让我们对CN...原创 2020-03-01 17:50:40 · 13294 阅读 · 4 评论 -
山世光老师的FaceAlignment特征检测部分
#include #include #include #include #include "cv.h"#include "highgui.h"#include "face_detection.h"#include "face_alignment.h"#ifdef _WIN32std::string DATA_DIR = "../../data/";std::string转载 2017-12-06 14:05:17 · 381 阅读 · 0 评论 -
基于opencv分类(基于TensorFlow 的训练模型inception_v1)
#include<opencv2\opencv.hpp>#include <opencv2\dnn.hpp>using namespace std;using namespace cv;using namespace cv::dnn;string class_labels = "C:\\Users\\Administrator\\Desktop\\c++\\dat...原创 2018-04-21 16:43:00 · 1873 阅读 · 8 评论 -
吴恩达讲解:经典部分-逻辑回归-反向传播算法
假设有1个样本,其中每个样本中的特征为2个,分别为X1,X2z=w^Tx+ba=sigmoid(z ) 预测概率成本函数为L=-(y*loga+(1-y)*log(1-a))反向更新:w1:=w1-learn_rate*dw1w2:=w2-learn_rate*dw2b:=b-learn_rate*db其中dw1,dw2,db 分别是L(a,y)的导数剩下原创 2017-09-17 15:34:37 · 3945 阅读 · 0 评论