pytorch
文章平均质量分 58
Catherinemin
这个作者很懒,什么都没留下…
展开
-
WandB的使用
在你的 Python 代码中,使用 wandb.login() 或设置环境变量 WANDB_API_KEY 来配置 WandB 的 API 密钥。在 “API Keys” 部分,你可以生成一个新的 API 密钥。从github上下载了一个项目,结果有个wandb这个库,初始化fail,来了解了解。生成 API 密钥后,将其保存在一个安全的位置,因为你需要在你的代码中使用它。2.登录后,打开 “Settings” 页面,通常位于你的用户资料或主页中。就可以了,到这,代码不报错,后面再来补充!原创 2023-10-27 14:48:43 · 3293 阅读 · 0 评论 -
【pytorch函数笔记】transforms的使用
用的不是很多,了解基础的就行了。原创 2023-07-19 19:28:24 · 1074 阅读 · 0 评论 -
【pytorch函数笔记】TensorBoard 的使用
用于将训练过程中的各种信息写入到 TensorBoard 日志文件中,然后可以通过 TensorBoard 可视化这些信息。就能看到输入图片和输出图片是什么样。在 PyTorch 中,在命令行窗口中,输入。转载 2023-07-19 19:13:51 · 205 阅读 · 0 评论 -
【pytorch函数笔记】torch.sum()、torch.unsqueeze()
torch.sum(imgs, dim=0) # 按列求和torch.sum(imgs, dim=1) # 按行求和。原创 2023-06-29 18:22:36 · 2272 阅读 · 0 评论 -
【pytorch函数笔记】ToTensor()将图像转为tensor格式
如果PIL图像属于模式(L、LA、P、I、F、RGB、YCbCr、RGBA、CMYK,1)之一,或者numpy.ndarray的dtype=np.uint8。可以看到不使用transfomer.ToTensor()时输出是一个PIL.Image.Image类型的图像。可以清楚的看到图像类型从PIL.Image.Image类型转为tensor类型了。将PIL图像或ndarray转换为tensor,并相应地缩放值。2.再来看看使用transfomer.ToTensor()后的。1.先来看看,不使用。原创 2023-06-08 14:38:47 · 694 阅读 · 0 评论 -
写一个python文件,在shell脚本中运行
当用户按下 Enter 键后,脚本会退出,并保持命令窗口打开。3.我们来试试如果main.py中默认不给出参数,直接运行main.py看看行不行。最近要复现论文了,发现代码的主函数在.py文件中,运行脚本是在.sh中。shell脚本中添加以下代码,用来检查,上一行是否执行成功。1.新建一个pycharm项目,新建main.py。要命的事,我不懂,我怎么debug。a.直接运行main.py文件即可。直接运行main.py就报错了。c.运行main.sh文件。2.新建main.sh文件。原创 2023-06-03 00:56:27 · 2664 阅读 · 0 评论 -
【pytorch函数笔记】torch.split
如果split_size_or_sections是一个列表,那么张量将被拆分为len(split_size _or_section)块,其大小根据split_sze_or_secttions为dim。如果split_size_or_sections是整型,那么张量将被拆分为大小相等的块(如果可能的话)。如果沿着给定维度dim的张量大小不能被split_size整除,则最后一个块将更小。) – tensor to split.需要分裂的tensor。每个块都是原始张量的一个视图。原创 2023-04-22 20:51:05 · 483 阅读 · 0 评论 -
【pytorch函数笔记】torch.cat
torch.cat()可以看作是torch.split()和torch.chunk()的逆操作。将给定维度中的seq张量的给定序列连接起来。所有张量必须具有相同的形状(连接维度除外)或为空。原创 2023-04-22 20:15:50 · 168 阅读 · 0 评论 -
【pytorch函数笔记】view()、contiguous()、permute()
permute(),这个函数是做维度交换的torch.view()方法对张量改变“形状”其实并没有改变张量在内存中真正的形状。简单地说,view方法没有拷贝新的张量,没有开辟新内存,与原张量共享内存,只是重新定义了访问张量的规则,使得取出的张量按照我们希望的形状展现。torch.contiguous()方法首先,然后将地址按照形状改变后的张量的语义进行排列。就是说contiguous()方法改变了多维数组在内存中的存储顺序,以便配合view方法使用。转载 2023-04-22 19:22:54 · 755 阅读 · 0 评论 -
【pytorch函数笔记】torch.nn.Sigmod
sigmoid是激活函数的一种,它会将样本值映射到0到1之间。转载 2023-04-22 16:36:22 · 828 阅读 · 0 评论 -
【pytorch函数笔记】torch.nn.Linear
在CNN中,全连接常出现在最后几层,用于对于前面设计的特征做加权和,比如mnist,前面的卷积和池化相当于做特征工程,后面的全连接相当于做特征加权。备注:这里需要注意下,偏置b的加法与普通的矩阵加法不太一样,这里只需要保持偏置b的列数与输出y的列数相同即可,对应位置元素相加,每一行都是加的同样的偏置。对前层是全连接的全连接层可以转化为卷积核为1*1的卷积,而前层是卷积层的全连接层可以转化为卷积核为h*w的全局卷积,h和w分别为前层卷积结果的高和宽。其中x是输入,A是权值,b是偏置,y是输出,转载 2023-04-22 14:19:33 · 736 阅读 · 0 评论 -
【pytorch函数笔记】torch.nn.AdaptiveAvgPool2d
二维平均自适应池化,只需要给出输出的参数就可以自动寻找相应的kernal size以及stride。转载 2023-04-21 20:28:47 · 231 阅读 · 0 评论 -
【pytorch函数笔记】torch.nn.Sequential()
代码查看:# help(torch.ones),我们可以调用help函数。例如,我们来[查看张量ones函数的用法。# 查看torch.nn.Sequential的帮助文档2.用法CLASS*args:Moduleforward()method ofSequentialSequentialSequentialSequential).Sequentialand a?SequentialSequential容器。模块将按照它们在构造函数中传递的顺序添加。转载 2023-04-22 13:30:18 · 274 阅读 · 0 评论