自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 深度学习之特征提取算法

深度学习之特征提取算法

2022-06-28 10:12:02 16127 2

原创 Pytorch 深度学习 第十一讲

CNN(高级篇)Inception 的内部构造1*1卷积的巧用1*1卷积层的巧用(可以使运算量级减少1/10,从而提升速度)关于模型各层的代码解读将这4个模块拼在一起

2022-02-20 16:13:56 617

原创 Pytorch 深度学习 第十讲

CNN原理图Feature Extraction 为特征提取层负责提取C1,S1,C2,S2的特征作为一个向量Classifiction 为分类器,将得到的向量进行全连接一般有RGB三种通道,C*W*H卷积过程,是数字与数字的相乘,并不是矩阵乘法每一个核都要配备一个通道,若通道有3个,则有3个核;若通道有5个,则有5个核;相应的如果想要有m个输出通道,则需要有m个核。即:卷积核通道数=输入通道数,卷积核个数=输出通道数import torchin_channels,

2022-02-18 11:48:51 706

原创 Pytorch 深度学习 第八讲

加载数据集import torchimport numpy as npfrom torch.utils.data import Datasetfrom torch.utils.data import DataLoader'''Dataset是一个抽象函数,不能直接实例化,所以我们要创建一个自己类,继承Dataset继承Dataset后我们必须实现三个函数:__init__()是初始化函数,之后我们可以提供数据集路径进行数据的加载__getitem__()帮助我们通过索引找到某个样

2022-02-17 10:52:23 810

原创 Pytorch 深度学习 第七讲

处理多维数据特征的输入关于一维特征的输入(也就是只有一个x)应该如何处理?比如下图这个预测一个人在一年之后得糖尿病的概率的例子,这个时候我们的输入将会有很多的指标。你可以把它看成是我们体检的各种值。最后一排的Y代表了他是否会得糖尿病。那么多维的特征输入应该怎么办呢?我们就需要把每一个特征x付以相应的权重。在进行逻辑回归时,把每一个维度的x乘相应的权值的和加上一个偏置量,送入sigmoid函数进行二分类,就像这样:import torchimport torch.nn.f.

2022-02-17 10:33:28 1021

原创 Pytorch 深度学习 第六讲

logistic regression 逻辑回归本节课的一些重点:此图为一些常用的激活函数的示例 2.逻辑回归是在线性回归基础上在最后的结果上乘了sigmoid(激活函数),也称为饱和函数3.二分类损失函数4.预测与标签越接近,BCE损失越小。np.linspace()的用法_nibidal的博客-CSDN博客代码中在画图时有np.linespace()语句,在这里有关于此语句的解释import torch.nn# 引入Mnist数据集import tor...

2022-02-12 20:50:19 645

原创 Pytorch 深度学习 第五讲

用Pytorch完成线性回归以下是pytorch提供的优化器准备数据集 用类来设计模型 构造损失函数和优化器 训练循环(前向,反向,更新)import torchx_data = torch.Tensor([[1.0], [2.0], [3.0]])y_data = torch.Tensor([[2.0], [4.0], [6.0]])class LinearModel(torch.nn.Module): # 构造函数(初始化对象) def __init__(.

2022-02-11 22:56:16 870

原创 Pytorch 深度学习 第四讲

反向传播算法back propagation在反向传播中,w是所求的目标,x是输入,y_pred是输出,先正向求出loss值,再通过偏导数进行反向计算,最后计算出w的值类似于老师讲的这个例子,假设w张量为1,然后进行正向推导,得到loss值,进行反向求偏导。import torchx_data = [1.0, 2.0, 3.0]y_data = [2.0, 4.0, 6.0]w = torch.tensor([1.0]) //w为张量w.requires_grad = True .

2022-02-10 11:41:48 942 2

原创 Pytorch深度学习 第三讲

代码说明:梯度下降算法1.在线性模型的改良下进行,深度学习算法中,并没有过多的局部最优点。2.随机梯度下降法在神经网络中被证明是有效的。效率较低(时间复杂度较高),学习性能较好。随机梯度下降法和梯度下降法的主要区别在于:1、损失函数由cost()更改为loss()。cost是计算所有训练数据的损失,loss是计算一个训练函数的损失。对应于源代码则是少了两个for循环。2、梯度函数gradient()由计算所有训练数据的梯度更改为计算一个训练数据的梯度。3、本算法中的随机梯度主要是指,

2022-02-08 22:43:52 73

原创 Pytorch 深度学习第二讲

第2讲 linear_model 源代码B站 刘二大人 ,传送门 《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili代码说明:1.此代码就是求均方方差的一个过程2、for循环中,使用了np.arange,第一个参数是起点,第二个是终点,第三个是步长。3、python中zip()函数的用法,Python 函数 | zip 函数详解_Amo Xiang的博客-CSDN博客_zip函数import numpy as np //引用numpy包import matplo.

2022-02-08 11:30:45 98

原创 存储层次结构概述(包含策略)

L1高速缓存U B L2高UMRU 2nd 3rd LRU U A D B 访问VBD访问VL1先访问,L1中没有,把U替换为V。M-U因为包含策略:将L2中的B换为V,依照最近最久未使用的规则,再进行排序,类似队列,从左往右走一个,将V放置为MRU的位置。L2中M-B以此类推...

2021-12-09 22:40:05 90

原创 共享存储并行编程(依赖关系)

并行多核体系结构基础中的依赖关系分析

2021-12-08 11:22:22 527

原创 python爬虫(个人学习笔记)

在学习过程中是跟随https://www.bilibili.com/video/BV12E411A7ZQ?p=26&spm_id_from=pageDriver视频中的老师自己多写两遍也就熟悉了,主要还是字母的拼写的正确率还有缩行问题一.正则表达式相关知识一、校验数字的表达式1. 数字:^[0-9]*$2. n位的数字:^\d{n}$3. 至少n位的数字:^\d{n,}$4. m-n位的数字:^\d{m,n}$5. 零和非零开头的数字:^(0|[1-9][0.

2021-08-16 12:04:48 117

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除