![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch编程基础
pytorch编程基础
hithithithithit
王牌飞行员会损失约11架战机。
展开
-
利用Transformers自定义一个神经网络结构
利用Transformers自定义一个神经网络结构原创 2022-06-08 14:44:39 · 415 阅读 · 0 评论 -
TextCNN实现imdb数据集情感分类任务
TextCNN实现imdb数据集情感分类任务原创 2022-06-08 01:31:34 · 552 阅读 · 0 评论 -
BiLSTM实现imdb情感分类任务
BiLSTM实现imdb数据集情感分类任务原创 2022-06-08 01:20:08 · 663 阅读 · 0 评论 -
深度学习基本实用工具
argparse库可以获取命令行的参数并将参数传入到运行文件中,大大方便了深度学习需要不断修改参数的操作。运行命令及其输出:二、logging库用于将程序中的输出或者日志打印、保存起来,极大的方便了查看程序的运行情况。1、输出信息到控制台level=logging.INFO时的输出信息level=logging.DEBUG时的输出信息basicConfig参数及其作用2、将信息保存到文件中log.txt信息,注意,log文件中并不会清除上一次的输出信息 3、将信息同时原创 2022-06-07 14:28:22 · 557 阅读 · 0 评论 -
PyTorch向量变换基本操作
一、torch.cat()或者时torch.concat()对张量在指定维度进行拼接二、tesnsor.unzqueeze()对张量进行维度扩展三、tensor.permute()对张量进行维度变换原创 2022-06-06 21:57:12 · 6419 阅读 · 0 评论 -
略解深度学习优化策略
常见的优化算法:SGD和Adam梯度的简单解释:梯度可以理解为函数的导数,也可理解为函数的倾斜程度。函数图像水平时,函数的梯度消失。凸函数:深度学习中出现的几乎所有优化问题都是非凸的。下面是对凸(convex)和非凸的一个介绍。 由上图可以找到明显的规律是,第一个图形和后两个图形的明显区别,第一张图中的点线段部分出现在了图形外,而后两张线段都被包含在了图形内部。前者是非凸,后者是凸。继续看下面的图形。上面三张图形,中间的是非凸函数,两边的是凸函数,具体来说就是函数上的任意两点连线的线段中间的点的纵坐标大于或原创 2022-06-06 01:29:19 · 714 阅读 · 0 评论 -
略解损失函数
损失函数用来衡量神经网络中的预测值和标签值的差异程度,可以作为一个神经网络好坏的评估标准,然后我们根据这个标准去优化模型的参数。如上面的公式所示,可以知道L1损失函数实际上就是对所有样本的预测值和真实值之间的误差取平均值,其中n表示的是样本的个数,表示的是真实值(0或1的离散值),表示的是预测值(0-1之间的连续值),后面不再提及。L2损失函数就是对所有预测样本的预测值和真实值之间的误差平方取均值,其中n表示的是样本的个数。熵的定义:熵被用来形容一个系统的内在混乱程度,越混乱熵越大。为了方便记忆,可以用一个原创 2022-06-04 23:20:36 · 364 阅读 · 0 评论 -
动手从零实现一个多层感知机(前馈神经网络)
1.首先需要一个数据迭代器用来制造网络的输入部分import randomimport torchtorch.manual_seed(42) # 设置随机数种子# 生成输入输出值X,Ydef synthetic_data(w, b, num_examples): # @save X, Y = [], [] for i in range(num_examples): x = torch.normal(0, 1, (1, len(w)))原创 2022-05-30 11:05:10 · 417 阅读 · 0 评论 -
PyTorch定义模型结构的常用方法
定义模型的几个步骤: 1.定义模型类,使其继承于Module类; 2.在模型类的初始化接口中定义网络层; 3.在模型类的正向数据流处理接口中,将网络层连接起来并添加激活函数。Module类的使用方法Module类的add_module()方法import torch.nn as nn# 继承nn.Module类,构建网络模型class LogicNet(nn.Module): def __init__(self, input...原创 2021-11-27 14:32:28 · 1396 阅读 · 0 评论 -
PyTorch实现一个简单的模型
准备可复现的随机数据%matplotlib inlineimport torchimport numpy as np# 这部分代码必须放在程序的最开始位置,# 才能保证每次生成的随机模拟数据以及模型的初始权重相同torch.manual_seed(0)torch.cuda.manual_seed_all(0)torch.backends.cudnn.deterministic = Truetorch.backends.cudnn.benchmark = Falsenp.random原创 2021-11-26 15:28:51 · 1109 阅读 · 0 评论 -
Variable类型和自动微分模块
Variable是PyTorch中的另一个变量类型。一旦张量被转换成Variable类型便可以实现自动求导。Variable对象和Tensor对象之间的转换>>> import torch>>> from torch.autograd import Variable>>> a = torch.FloatTensor([4])>>> print(Variable(a)) # 将张量转换成Variable...原创 2021-11-26 14:32:15 · 810 阅读 · 0 评论 -
PyTorch中的张量
定义张量将已有数值转换成张量>>> a = torch.tensor(5)>>> atensor(5)>>> anp = np.asarray([4])>>> anparray([4])>>> a = torch.tensor(anp)>>> atensor([4])根据指定形状、类型生成张量>>> torch.get_default_dtype原创 2021-11-25 15:11:40 · 957 阅读 · 0 评论 -
基础数据类型和运算
标量-向量-矩阵-张量1-[1,2]-[[1,2],[1,2]]-tensor[[1,2],[1,2],[1,2],[1,2]]转置矩阵对称矩阵对角矩阵和单位矩阵哈达玛积(Hadamard Product)仅适用于array对应位置相乘a = np.array(range(0,4)).reshape(2,2)b = np.array(range(4,8)).reshape(2,2)print(a*b) # 此处的*为点积# 输出结果[...原创 2021-11-24 20:39:23 · 269 阅读 · 0 评论