自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(20)
  • 收藏
  • 关注

原创 pytorch基础

张量的基本信息 tensor = torch.randn(2,3,4) print(tensor.type()) # 数据类型 torch.FloatTensor,是一个浮点型的张量 print(tensor.size()) # 张量的shape,是个元组 torch.Size([2, 3, 4]) print(tensor.dim()) # 维度的数量 3 张量的命名 程序中,一个好的命名可以便于其他人读懂代码,张量的命名也是如此。这样可以方便地使用维度的名字来做索引或其他操作,提高了可读性、易用.

2022-03-02 11:44:54 941

原创 运行代码需要安装的环境

安装anaconda(最新版),并验证是否安装成功 用anaconda创建新的环境,使用清华镜像 安装pycharm 在pycharm中配置新环境(在anaconda中已经创建)

2021-12-15 19:19:39 641

原创 模型创建步骤与nn.Module

模型创建的两要素: 构建子模块---->init() 拼接子模块(实现网络的前向传播)---->forward() nn.Module:所有网络层基类,管理网络属性

2021-07-26 18:15:55 117

原创 二十二种transforms数据预处理方法

transform_invert:对图像进行反操作,可视化图像 centerCrop:从图片中心裁剪出尺寸为size的图片 RandomCrop:从图片中随机裁剪出尺寸为size的图片 padding_mode:填充模式,有4中模式 constant:由像素值fill决定 edge:像素值由图像边缘像素决定 reflect:镜像填充,最后一个像素不镜像 symmetric:镜像填充,最后一个像素镜像 RandomResizedCrop: 随机大小,长宽比裁剪图片 size:所需裁剪图片尺寸.

2021-07-22 18:01:47 281

原创 transform模块机制

torchvision transforms:查用图像预处理方法 datasets:常用数据集的dataset实现,MINIST model:常用模型预训练 VGG transforms Compose:对transforms中的方法有序的组合 toTensor:将图片转成张量的形式,并且归一化(将像素值的区间皈依化到0-1) 测试的时候需要增强,验证的时候不需要增强 传给Dataset,构建Dataset,然后构建DataLoader transform.Normalize: 将数据.

2021-07-20 16:21:41 146

原创 数据读取机制Dataloader和Dataset

Dataloader 功能:构建可迭代的数据转载器 dataset:Dataset类,决定数据从哪里读取,以及如何读取 bathsize:批的大小 num_works:是否多进程读取数据 shuffle:每个epoch是否乱序 drop_last:当样本数不能被bathsize整除时,是否舍弃最后一批数 DataSet 1.功能:Dataset抽象类,所有自定义的Dataset需要继承它,并且复写–getitem–() getitem:接收一个索引,返回一个样本。 ...

2021-07-19 15:31:44 132

原创 autograd与逻辑回归

1.逻辑回归模型:线性,二分类 2.机器学习训练步骤:数据,模型,损失函数,优化器,迭代训练

2021-07-12 14:24:42 41

原创 计算图和动态图机制,

1.计算图的作用:使梯度求导更加方便 2.叶子节点:用户创建的张量 3.静态图:先搭建图,后运算 4.动态图:运算和搭建同时进行,灵活,容易调节

2021-07-05 17:43:57 86

原创 张量操作和线性回归

1.张量的拼接和切分 2.torch.reshape 张量的变换 3. torch.transpose 4. 张量的数学运算 加法:逐元素相加 5.线性回归模型 什么是线性回归:分析一个变量与另一个变量的关系 求解的步骤; * 确定模型 * 选择损失函数 * 求梯度并更新w和b 6.机器学习的步骤 确定模型:模型也可以是函数,确定原有的数据的特征属于哪一类函数 训练模型:通过一些方法(最优化)确定函数中的参数 使用模型:将一些新的数据代入函数求值 ...

2021-07-05 17:18:19 72

原创 张量的简介与创建

1.variable封装Tensor,进行自动求导 data:被封装的Tensor grad:data的梯度 grad_fun:创建Tensor的方法,是求导的关键 requires_grad:表示是否需要梯度 is_leaf:表示是否是叶子节点 2.pyTorch0.4.0版本开始,variable并入Tensor dtype:张量的数据类型,如torch.cuda:表示数据存入cpu shape:表示张量的形状,如(64,3,224,224) device:张量所在的设备,GPU/CPU,是加数的关键

2021-07-05 13:56:21 105

原创 pytorch

1.解释器:将python语言翻译成机器指令语言 2.

2021-05-30 19:16:58 49

原创 循环神经网络

序列数据:有关联性 语言模型:计算序列概率 循环神经网络: 隐藏状态:用于记录历史信息

2021-05-30 16:34:34 63

原创 卷积神经网络

猫的视觉系统实验 神经元存在局部感受区域 细胞对角度有选择性 细胞对运动方向有选择 对CNN启发 视觉系统是分层、分级地进行处理,从低级到高级的抽象过程–>堆叠使用卷集和池化 神经元实际上是存在局部的感受区域的,具体来说,他们是局部敏感的–>神经元局部连接 卷积神经网络的发展史 第一个卷积神经网络雏形———新认知机,没有反向传播算法 第一个大规模商用卷积神经网络———Lennet-5,无大量的数据和高性能计算资源 第一个技惊四座的卷积神经网络——-AlexNet 卷积层 图像识别的

2021-05-15 21:22:52 102

原创 神经网络

人工神经元:人工神经元中抽象出来的数学模型 人工神经网络:大量神经元以某种连接方式构成的机器学习模型 第一个神经网络:Perception(感知机),无法解决异或问题 多层感知机:单个神经网络基础上,引入一个或多个隐藏层,使神经网络有多个网络层 前向传播 激活函数: 让多层感知机成为真正的多层,否则等价于一层 引入非线性,使网络可以逼近任意非线性函数(万能逼近定理) 具备以下几个性质: 连续可导,允许少数点上不可导 激活函数及其导函数尽可能简单 激活函数的导函数的值域要在合适的区间内 .

2021-05-12 14:47:34 111

原创 NoSuchBeanDefinitionException: No qualifying bean of type ‘cn.cugb.dao.accountDao‘ available

出错原因:在dao接口的实现类上没有添加Repository注解,导致当前类没有被创建,容器中也就没有该对象。

2021-04-22 10:40:59 196

原创 org.apache.ibatis.binding.BindingException: Invalid bound statement (not found): cn.cugb.dao.account

Mybatis映射文件名字与接口名字不一致 两者必须保持一致,不然报错

2021-04-09 13:28:55 75

原创 Cause: java.sql.SQLException: Access denied for user ‘root‘@‘localhost‘ (using password: YES)

解决方法如下,我把权限改了之后就可以了 https://blog.csdn.net/QQ17680473835/article/details/81841180

2021-04-08 11:33:24 111

原创 空指针异常

原因:1.定义的变量名没有赋值

2021-04-05 20:42:28 55

原创 sql语句

sql语句 update 表名称 set 列名称=列值 where 列名称=某值

2021-04-05 20:19:23 62

原创 Method testFindAll should have no parameters

Method testFindAll should have no parameters 测试时,@Test不要带参数,如public void save(String path){}改成public void save(){}

2021-04-05 20:06:23 242

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除