- 博客(16)
- 收藏
- 关注
原创 matlab截取你输出图片的一部分:imcrop
第三行:调用matlab现成的imcrop方法进行图像剪切,并把切好的图片赋值给pic_1.(从x1向右到x2停,从y1向下到y2停,所围成的矩形就是你剪切好以后的图像范围)2.接下来我允许代码以后,就会出现十字线(注意:因为x1是向右,y1是向下的方向移动的,所以要截取绿框框就要从左上角开始)首先:把第一次的十字线放在绿框框的左上角,鼠标点一下,系统就会记录下来这是x1,y1。3.接下来再次移动十字线,放到绿色框框右下角,再次点击鼠标,就记录下x2,y2了。
2024-06-29 17:17:08
284
原创 python报错:(torch.cuda.FloatTensor) and weight type (torch.FloatTensor) should be the same
不在同一个设备上(一个在 GPU 上,另一个在 CPU 上)原因:这是因为您的模型权重 (二、然后,在调用模型到cpu上。
2024-06-06 18:57:42
262
原创 如何让matlab输出的figures不一个个弹出,而是停靠在图窗里
2.在“startup.m”文件中,编写代码set(0,'DefaultFigureWindowStyle','docked'),然后保存。3.保存好后,关闭matlab。下一次打开matlab再运行有输出图片的代码,就可以在图窗停靠了。1.在你的matlab文件夹下,创建名叫“startup.m”的matlab形式的文件。如上图效果,输出的figure1、2、3一起在图窗停靠,而不一个个单独弹出图画窗口。接下来讲解一下如何实现上述效果。
2024-06-06 11:06:26
390
原创 matlab的tenmat函数,分析形状技巧
我的理解是:将X的第一个维度,即数字3保持不变,因为要转化成一个矩阵形式,剩下两个元素 相乘2×4=8,所以最后X_1的形状 [3,8]我的理解是:将X的第二个维度,即数字4保持不变,因为要转化成一个矩阵形式,剩下两个元素 相乘2×3=6,所以最后X_1的形状 [4,6]官方理解:将张量X的第一个维度(每个元素)转换成一个矩阵,并将结果赋值给变量X_1。
2024-05-31 18:43:34
313
原创 报错:ImportError: attempted relative import with no known parent package 以及 from ... import ... 的路径使用
from ... import ... 的路径使用
2024-05-13 20:17:42
189
1
原创 下载mmcv报错的解决方案
在cmd里面输入python,然后再输入然后再输入import torch,最后输入torch.__version__。这样就可以查看你的cuda和torch版本了。,点进进入以后往下滑,找到我下图的框框,在里面查看你的cuda和torch对应版本的mmcv。第二步:下面给出的pip......,直接复制,然后粘贴到cmd里面就可以成功进行安装了。第一步:输入你刚刚查到的自己的cuda和torch版本。原因:mmcv与你的cuda和torch的版本不匹配。
2024-05-11 19:26:46
482
1
原创 关于for data1,label in train_loader: 报错ValueError: too many values to unpack (expected 2)的问题解决
比如我的train_loader调用的类CatsDogsDataset的返回值有3个,然后我解包是for img,label用来2个变量来遍历,就报错了。然后我就把CatsDogsDataset的返回值设置成一个元祖(img_transformered,label)导致出现这个问题,大概率是你train_loader包含了多个(超过2个)的变量,返回值不止两个。如果你用两个值img,label来解包,就无法匹配,会报错。最好检查一下你train_loader调用的类的返回值是否是两个。
2024-04-29 16:42:45
357
原创 Visual stduio code(vscode)修改字体类型fontfamily
其中第一个consolas代表英文字体类型,第二个‘楷体’代表中文字体类型,可以分别进行两种中英文字体的修改。第二步,进入setting,找到fontfamily就是主题字体类型。第一步,点击左下角齿轮,找到setting。
2024-04-26 10:48:52
1150
1
原创 self-attention流程(以向量形式)以及非线性关系
self-attention呈非线性性是指b1,b2,b3,b4之间是非线性的,他们是分别对应的q与其他向量的相似度计算,所以他们之间是没有无关的。退到过程如下图,是参照李宏毅讲的self-attention自己总结的流程图。有问题欢迎评论区留言讨论。
2024-04-09 20:53:48
309
原创 self-attention中的Q,K,V的简单理解
学习self-attention时,觉得q,k,v的理解很抽象。通过学习,以下是自己对其中q,k,v的理解,因为是初学者,可能存在一些问题。
2024-03-24 20:19:17
256
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人