- 博客(25)
- 收藏
- 关注
原创 :error:identifier “CHECK_EQ“ is undefined报错解决
将所有报错代码中的"CHECK_EQ"替换为"TORCH_CHECK_EQ"即可。
2024-11-20 16:39:36
402
原创 AttributeError:module ‘numpy‘ has no attribute ‘float‘报错解决
np.float用法在Numpy1.20及以后的版本中已经被弃用。
2024-11-20 16:12:40
355
原创 电脑锁屏不断网设置
确保在锁屏时计算机仍然保持网络连接。有些系统在锁屏时会关闭网络适配器来节省电力,这种情况下可能导致向日葵远程连接断开,所以确保锁屏时计算机保持网络连接很有必要。6.选择“电源管理”,取消“允许计算机关闭此设备以节约电源(A)”前的复选框,最后点击确定。3.进入“网络和共享中心”,选择左侧的“更改适配器设置”2.进入“网络和Internet”4.右击网络的“属性”选项。1.打开“控制面板”5.点击“配置”按钮。
2024-10-08 12:50:43
2508
1
原创 CityScapes数据集
广泛用于计算机视觉任务的城市场景分割数据集,包含来自各个城市街道的高分辨率图像(每个图像都有像素级别的标签,标识不同的物体和场景类别)Cityscapes数据集有fine和coarse两套评测标准,fine提供5000张精细标注的图像,coarse提供5000张精细标注和20000张粗糙标注的图像。一般用gt fine样本集进行训练和评估,图片可分为2975张train训练图、500张val验证图、1525张test测试图,每张图片大小都是1024x2048。
2024-02-13 13:59:28
4511
1
原创 GAN生成对抗性网络
用于判别数据是真实数据还是生成数据(伪数据)的判别模型(判别图像真伪的网络):输入一张图像,输出代表其为真实图像的概率值,100%即判断该图像是真的。对于G:G希望自己生成的图片越接近真实越好,即G希望D(G(z))尽可能大,V(D, G)会变小,所以对于G是min_G。对于D:D的能力越强,D(x)越大,D(G(x))越小,V(D,G)会变大,所以对于D是求最大max_D。D(x):D网络判断真实图片是否真实的概率,因为x本来就是真实的,所以该值越接近1越好。2.反向传播阶段—优化目标。
2024-02-13 12:37:34
1545
1
原创 ROS-Ubuntu20.04环境安装
资源代理网站加速rosdep对github raw的访问。现在支持的是python3版本,所以把每个python改为python3。操作系统:Ubuntu20.04。ROS版本:ROS noetic。访问网址不通造成的,添加。
2024-02-13 11:47:00
1249
1
原创 Nvidia GTX 3090:Pytorch安装教程(GPU版本)
GPU版本的pytorch要根据显卡的型号选择合适的版本(Nvidia GTX 3090)
2024-02-13 11:26:26
1425
3
原创 JAVA——下载&安装JDK
a4odJDK提供的编译工具,将.java文件编译成.class文件JDK提供的工具,用来运行.class文件,运行时不加后缀名1.将java安装时自动配置好的path中的环境变量删除2.配置环境变量(路径不带bin)3.再配置Path。
2024-02-12 18:15:29
472
1
原创 TypeError: forward() missing 10 required positional arguments: ‘indices1‘......报错解决
在Python中,定义一个函数时,可以指定它需要接受的参数。调用这个函数时,必须按照定义提供相应数量和类型的实参,否则Python解释器会抛出TypeError。模型调用forward()函数时,没有提供足够的位置参数。调用模型时,将Net1的输出作为Net2的输入。
2024-02-03 19:08:42
640
1
原创 SegNet语义分割网络
基于FCN,修改VGG-16网络得到的正常版SegNet;贝叶斯版SegNet(还根据网络的深度提供了一个basic segnet浅网络)
2024-02-01 19:30:12
582
1
原创 深度学习—Epoch,Iteration,Batch
当一个Epoch的样本数量过大时,将其分成多个小块Batch进行训练。的过程,即所有训练样本在神经网络中都进行一次正向传播和一次反向传播。②使用的是有限的数据集,使用迭代过程即梯度下降来优化学习过程。①在神经网络中,完整的数据集需要传递多次,传递一次不够;将整个训练样本分成多个batch,表示所有样本中的。训练一个Batch就是一次Iteration,表示。batch的大小,即每批样本的样本数量大小。完成一个Batch,模型权重更新一次。
2024-01-25 18:12:47
518
原创 导出项目安装包列表requirenments.txt
导出的requirenments.txt文件在执行上述命令的路径下。xxx是项目使用的虚拟环境的名字。
2024-01-25 12:11:44
601
原创 AttributeError: ‘DataParallel‘ object has no attribute ‘XXX‘报错解决
多卡训练使用DataParallel,model中的方法名添加了module前缀。
2024-01-25 12:01:54
1994
原创 kill命令
发送SIGKILL信号给进程,通知进程已被终结并立刻退出(无条件终止,强制杀死该进程)发送SIGTERM(15)信号给进程,通知进程自行停止运行并退出。pid:进程号,用ps命令查找。signal:发给进程的信号。
2024-01-22 11:37:00
470
原创 Jetson AGX Orin配置环境(安装archiconda,pytorch,torchvision)
在Jetson上安装PyTorch,官方推荐使用anaconda安装,但是anaconda repository里没有aarch64架构的PyTorch预编译包。Jetson AGX Orin的架构是aarch64,和win10,linux不同,不能安装anaconda。根据自己的环境下载对应的版本(这里是JetPack5.1.1+python3.8虚拟环境)也可以直接在GitHub网站下载(一定在官网下载,避免奇怪的错误!在main的Tag里面找到对应的0.14版本并下载解压。
2024-01-16 10:37:09
1781
1
原创 运行Dynamic-DeepJSCC报错及解决
Deep Joint Source-Channel Coding for Wireless Image Transmission with Adaptive Rate Control》论文代码复现。①在运行epoch前,加上if __name__=='__main__'②不使用多线程,num_workers参数设置为0。我的pytorch是CPU版本,命令行中的。是指使用GPU运行程序,所以出现以上报错。
2024-01-15 14:45:21
588
原创 多层感知机(MLP)——简介
输入层—>隐藏层"""注释:这是定义隐藏层的类,首先明确:隐藏层的输入即input,输出即隐藏层的神经元个数。输入层与隐藏层是全连接的。假设输入是n_in维的向量(也可以说时n_in个神经元),隐藏层有n_out个神经元,则因为是全连接,一共有n_in*n_out个权重,故W大小时(n_in,n_out),n_in行n_out列,每一列对应隐藏层的每一个神经元的连接权重。b是偏置,隐藏层有n_out个神经元,故b时n_out维向量。
2024-01-12 17:04:51
24030
1
原创 AttributeError:module ‘attr‘ has no attribute ‘s报错解决
【代码】AttributeError:module ‘attr‘ has no attribute ‘s报错解决。
2024-01-12 11:59:55
1012
1
原创 FileZilla主机间传输文件
文件—>站点管理器—>新站点—>协议:SFTP-SSH File Transfer Protocol—>主机:对应服务器的地址,用户名和密码:对应服务器的用户名和密码—>连接后可以传输文件。
2024-01-12 11:55:16
1035
1
原创 AttributeError: ‘Upsample‘ object has no attribute ‘recompute_scale_factor‘报错解决
Upsample对象没有recompute_scale_factor属性。
2024-01-11 17:33:14
2562
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人