![](https://img-blog.csdnimg.cn/60bb7b16a1df40d096425e36c0a45363.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
深度学习
深度学习
可乐大牛
上海某高校在读cs研究生,希望早点发出论文,考公考编 哈哈哈哈
展开
-
【paddle】加载模型权重后预测报错AttributeError: ‘Model‘ object has no attribute ‘_place‘
使用paddle训练了模型,训练结束,当场做预测的时候没有问题,然后保存了模型之后我加载模型,想要再次预测的时候报错解决在model.load(‘/path’)后面加一句model.prepare()即可是什么原理未知原创 2022-07-05 20:13:13 · 1238 阅读 · 0 评论 -
【资源】部分稀有资源
笔记地址:http://www.ai-start.com/ml2014/笔记地址:http://www.ai-start.com/dl2017/原创 2022-04-25 22:05:15 · 871 阅读 · 0 评论 -
【深度学习】动手学深度学习 pytorch版
目录原创 2022-04-22 13:55:46 · 838 阅读 · 0 评论 -
【pytorch】常用函数
这里写目录标题tensortensor创建:获取形状:shape或者size函数加法:torch.add(x,y,out=y),当然还有其他方式,但是这个方式最好!索引:与numpy类似其余选择函数:改变形状:view函数,1、并且可以使用-1表示系统自动推算,x=torch.randn(15).view(-1,5);2、view返回的tensor与原来的tensor共享内存,可以先clone在使用view,y=x.clonew().view(15)。将tensor转换为python的n原创 2022-04-21 21:37:03 · 676 阅读 · 0 评论 -
【pytorch】从入门到入门 小土堆
一、起步anacondar的安装虚拟环境的创建 conda create -n pytorch python=3.7.0pytorch的安装,上pytorch官网复制命令即可本人是使用conda安装 cpu环境的opencv的安装conda install opencv-python编码环境:pycharm、jupyternotebook、和pycharm内置的python控制台学习法宝:dir()函数和help()函数二、学习加载数据集:Dataset ->提供一种方式原创 2022-01-19 21:24:51 · 3230 阅读 · 0 评论 -
【算法】NMS非极大值抑制
文章目录IOUIOU实现NMSNMS实现IOUIoU 的全称为交并比(Intersection over Union),IoU 计算方法有两种1、 “预测的边框” 和 “真实的边框” 的交集和并集的比值。2、 “预测的边框” 和 “真实的边框” 的交集和较小的预测框的比值一般常用第一种计算 但是当一个框在另一个框内部 IOU很小时 可以次啊用第二种求两个框的交集:两个框box1=[x1,y1,x2,y2],box2=[x1,y1,x2,y2] 分别是框左上角的坐标和右下角的坐标,交集部分的坐标原创 2022-02-13 18:59:44 · 762 阅读 · 0 评论 -
【pytorch】gpu训练的模型在cpu中使用
https://www.cnblogs.com/zgqcn/p/14015832.html原创 2022-02-18 21:49:32 · 2471 阅读 · 0 评论 -
【深度学习】李宏毅深度学习2022
文章目录1、机器学习基本概念介绍1、机器学习基本概念介绍机器学习的任务:回归、分类、结构化学习过程:设计一个带未知有参数的函数(运用领域知识)、设计损失函数、参数优化原创 2022-04-10 19:58:33 · 5111 阅读 · 0 评论 -
【pytorch】tensor常用方法
import torchimport numpy as npDEVICE='cuda' if torch.cuda.is_available() else 'cpu'# 初始化方法1x=torch.tensor([[1,2,7],[3,4,5]],dtype=torch.float32,device=DEVICE,requires_grad=True)# 初始化方法2input=torch.rand((3,3))x=torch.rand_like(input) # 产生与input相同尺原创 2022-04-04 22:03:33 · 1836 阅读 · 0 评论