深度学习与神经网络
给芝麻加点糖
这个作者很懒,什么都没留下…
展开
-
Python脚本(连续执行多个Python文件)
import sysimport pytorch_runimport model_testsys.modules['pytorch_run'].__dict__.clear()sys.modules['model_test'].__dict__.clear()pytorch_run.pymodel_test.py原文件格式见上图。原创 2021-06-11 09:41:54 · 1389 阅读 · 1 评论 -
统计数据集的均值(mean)、方差(std)
先放代码:from __future__ import print_function, divisionimport osfrom PIL import Imageimport torchimport torch.utils.dataimport torchvisionfrom skimage import ioimport torchvision.datasets as Datasatimport randomimport numpy as npfrom sklearn.prep原创 2021-04-07 18:20:18 · 3930 阅读 · 1 评论 -
python批量化对文件夹文件重命名
最近需要对数据集文件进行重新命名,然后写了下面的代码,仅供参考# -*- coding:utf8 -*-import os# 批量重命名文件夹中的图片文件class BatchRename(): def __init__(self, imgpath, maskpath, init_tag): self.imgpath = imgpath # 表示需要命名处理的文件夹 self.maskpath = maskpath # 表示需要命名处理的文件夹原创 2021-03-29 16:44:47 · 313 阅读 · 0 评论 -
计算机视觉中的注意力机制
本文转载:https://zhuanlan.zhihu.com/p/146130215一、注意力机制(attention mechanism)attention机制可以它认为是一种资源分配的机制,可以理解为对于原本平均分配的资源根据attention对象的重要程度重新分配资源,重要的单位就多分一点,不重要或者不好的单位就少分一点,在深度神经网络的结构设计中,attention所要分配的资源基本上就是权重了视觉注意力分为几种,核心思想是基于原有的数据找到其之间的关联性,然后突出其某些重要特征,有通转载 2021-03-25 16:21:15 · 950 阅读 · 0 评论