深度学习
deep learning学习日志
孜孜不倦fly
这个作者很懒,什么都没留下…
展开
-
神经网络中间层特征图可视化(输入为音频)(二)
个人感觉这种方法更好。原创 2023-11-22 16:23:44 · 664 阅读 · 0 评论 -
神经网络中间层特征图可视化(输入为音频)(一)
【代码】神经网络中间层特征图可视化(输入为音频)原创 2023-11-14 11:53:19 · 1071 阅读 · 1 评论 -
上采样的几种方式
【代码】上采样的几种方式。原创 2023-10-26 20:16:53 · 107 阅读 · 0 评论 -
深度学习设置随机数种子
【代码】深度学习设置随机数种子。原创 2023-10-22 11:20:08 · 174 阅读 · 1 评论 -
调整网络中参数的形状
1.首先阅读数据预处理的代码,确定送入神经网络的输入x的张量形状。比如现在有个语音输入特征张量x形状为[16, 1, 256, 40],【批量,通道数,像素宽度,特征维度】。如果看不懂,可以先在网络的forward最开始进行print(x.shape)打印。2.常见改变张量形状的方法:(1)#x形状为[16, 1, 256, 40]x = x.view(x.size(0), x.siz...原创 2023-07-05 11:56:00 · 76 阅读 · 0 评论 -
一些报错以及解决办法_1
1.报错信息:TYPEERROR: MAX() RECEIVED AN INVALID COMBINATION OF ARGUMENTS - GOT (AXIS=INT, OUT=NONETYPE, ), BUT EXPECTED ONE OF:报错代码为:def f1_overall_1sec(O, T, block_size): if len(O.shape) == 3: ...原创 2023-07-05 20:02:00 · 240 阅读 · 0 评论 -
使用nn.Conv2d()和nn.MaxPool2d()调整输出的技巧
前提是没有使用dilation,牢记以下公式:1.如果想保持张量大小不变,则:kenel_size=3(奇数),stride_size=1,pad_size=1((kenel_size-1)/2)2.如果想让张量大小按倍数减小,则在1的其他参数设置下,改变stride_size即可...原创 2023-07-28 15:37:00 · 78 阅读 · 0 评论 -
剑指 Offer 52. 两个链表的第一个公共节点(简单)
题目:class Solution {public: ListNode *getIntersectionNode(ListNode *headA, ListNode *headB) { if(!headA||!headB)return NULL; int num1=0,num2=0,diff=0; ListNode* curA=head...原创 2023-07-25 21:16:00 · 35 阅读 · 0 评论 -
获取模型的参数量和计算复杂度
import torchimport net.bilstmimport net.transformerfrom ptflops import get_model_complexity_infodevice = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")# 统计Transformer模型的参数量和计算复...原创 2023-07-20 16:58:00 · 92 阅读 · 0 评论 -
pycharm注释和反注释多行代码快捷键
注释和反注释均使用:Ctrl+/原创 2023-08-24 21:17:00 · 159 阅读 · 0 评论 -
python数据切片特点
1.python的数据用[ ]选择数据下标2.python的下标从0开始3.python的数据切片是“左闭右开的”,例如:python中写a[0:5],实际上是取a中下标为“0-4”的元素,即实际中的第1~5个元素。...原创 2023-07-31 11:39:00 · 38 阅读 · 0 评论 -
深度学习代码实践_train.py文件内容(识别数字0-9)
import cv2from MLP import MLPfrom Cnn import save_modelimport torchimport torch.nn.functional as Ffrom sklearn.metrics import accuracy_score, precision_score, recall_score, f1_scorefrom sklearn...原创 2023-05-18 19:06:00 · 91 阅读 · 0 评论 -
torch和np互相转换
1.torch转np# 创建一个形状为[2, 2, 40, 256]的随机张量torch_tensor = torch.rand(2, 2, 40, 256)# 将张量转换为NumPy数组numpy_array = torch_tensor.numpy()2.np转torch# 创建一个形状为[2, 2, 40, 256]的随机NumPy数组numpy_array = np.ra...原创 2023-08-28 16:25:00 · 564 阅读 · 0 评论 -
nn.MaxPool2d()、transpose().contiguous()、view()说明
1.nn.MaxPool2d()和nn.Conv2D()基本一样,但是stride默认值是kernel_size。2.transpose().contiguous()、view()contiguous一般与transpose,permute,view搭配使用:使用transpose或permute进行维度变换后,调用contiguous,然后方可使用view对维度进行变形print(x.s...原创 2023-07-26 22:35:00 · 89 阅读 · 0 评论 -
打印numpy数组和张量tensor的形状
一.打印np数组import numpy as nparr = np.array([13, 2500])print(np.shape(arr))二.打印tensor张量import torcharr = torch.Tensor([[1, 2, 3], [4, 5, 6]])print(arr.shape)#另一种方法arr = torch.Tensor([[1, 2, 3],...原创 2023-08-31 22:27:00 · 327 阅读 · 0 评论