pytorch
北四金城武
这个作者很懒,什么都没留下…
展开
-
pytorch基础知识十四【交叉熵】
交叉熵1. 引入2. 信息熵3. 交叉信息熵1. 引入2. 信息熵3. 交叉信息熵原创 2021-12-18 14:57:33 · 175 阅读 · 0 评论 -
pytorch基础知识十三【2D函数优化实例】
2D函数优化实例1. 原函数2. 求最小值3. 代码1. 原函数2. 求最小值3. 代码原创 2021-12-15 00:31:56 · 1697 阅读 · 0 评论 -
pytorch基础知识十二【反向传播算法】
反向传播算法1. 链式法则2. 所输出感知机3. 多层感知机1. 链式法则2. 所输出感知机3. 多层感知机原创 2021-12-15 00:04:16 · 1035 阅读 · 0 评论 -
pytorch基础知识十一【感知机的梯度推导】
感知机的梯度推导1.1.原创 2021-12-14 23:36:19 · 1638 阅读 · 0 评论 -
pytorch基础知识十【激活函数、损失函数及其梯度】
激活函数、损失函数及其梯度1. 激活函数2. 损失函数loss1. 激活函数【1】激活函数简介【2】sigmoid函数【3】tanh函数【3】RELU函数2. 损失函数lossautograd.gradloss.backwardF.softmax原创 2021-12-12 23:15:36 · 616 阅读 · 0 评论 -
pytorch基础知识九【统计属性】
统计属性1. 范数2. p范数3. 常用统计属性4. 高级操作4.1 where4.2 gather1. 范数2. p范数3. 常用统计属性【1】mean、sum、min、max、prod;argmin、argmax(1) prod() 表示连乘(2) argmax()、argmin() 不指定维度,会将张量(tensor)打平乘一个一维的tensor,返回索引; 指定维度后,根据维度返回每一行或每一列中max或min元素的索引。【2】dim、keepdimkeepdim参数原创 2021-12-12 00:14:33 · 1439 阅读 · 0 评论 -
pytorch基础知识八【基本数学运算】
基本数学运算1. 加减乘除2. 矩阵乘法3. 开方4. 近似运算1. 加减乘除a = torch.tensor([[1,2,3],[4,5,6],[7,8,9]])print(a)b = torch.tensor([[10,20,30],[40,50,60],[70,80,90]])# 加法print(a+b)print(torch.add(a,b))# 减法print(torch.all(torch.eq(a-b,torch.sub(a,b))))# 乘法print(torch.原创 2021-12-11 22:44:17 · 1684 阅读 · 0 评论 -
pytorch基础知识七【拼接与拆分】
拼接与拆分1. 拼接1.1 cat()1.2 stack()1.3 cat() VS stack()2. 拆分2.1 split()2.2 chunk()1. 拼接1.1 cat()torch.cat([tensor1,tensor2],dim)[tensor1,tensor2]表示需要拼接的张量;dim 表示在哪个维度上拼接注意:拼接时,除了要拼接的维度外,其他维度的形状必须相同。示意图:根据不同的维度拼接1.2 stack()stack在拼接张量时,会创建新的维度。原创 2021-12-10 00:22:09 · 644 阅读 · 0 评论 -
pytorch基础知识六【broadcast自动扩展】
broadcase自动扩展1. 作用2. 关键点3. 需求4. 应用5. 举例1. 作用broadcast的作用是扩展维度,并且不复制数据,不小号内存。2. 关键点演示:3. 需求4. 应用5. 举例原创 2021-12-09 23:43:52 · 455 阅读 · 0 评论 -
pytorch基础知识五【维度变换】
维度变换1. 改变形状view & reshape2. 增删维度squeeze & unsqueeze2.1 增加维度unsqueeze()2.2 删减维度squeeze()3. 维度形状扩展expand & repeat3.1 expand()3.2 repeat()4. 二位矩阵(张量)转置操作.t()5. 维度交换(两两交换)transpose()6. 维度交换(任意交换)permute()1. 改变形状view & reshape(1).reshape(dim原创 2021-12-09 22:34:04 · 2671 阅读 · 0 评论 -
pytorch基础知识四【索引与切片】
索引与切片1. 索引2. 切片2.1 根据首项/尾项切片2.2 根据步长切片2.3 根据特定索引切片2.4 根据掩码切片2.5 根据索引返回指定索引上的数据集合3. torch.ge()、torch.gt()、torch.le()、torch.lt()3.1 torch.ge()3.2 torch.gt()3.3 torch.le()3.4 torch.lt()1. 索引import torcha = torch.rand(4,3,28,28) # 建立维度为4的张量print(a[0].shap原创 2021-12-09 20:55:59 · 400 阅读 · 0 评论 -
pytorch基础知识三【基本数据类型】
pytorch基本数据类型1.1.原创 2021-12-09 00:46:58 · 698 阅读 · 0 评论 -
pytorch基础知识二【手写数字识别】
手写数字识别1. 环境配置2 .代码3. 测试结果1. 环境配置本次测试使用的显卡为30系列的显卡,对应的pytorch版本: 1.8.0+cu111,cuda版本: 11.1。注意:不同系列的显卡匹配的cuda版本也不一样,匹配不合适时无法调用GPU,或可以调用GPU但计算速度巨慢。2 .代码utils.py #该文件主要将绘图函数集中起来import torchfrom matplotlib import pyplot as pltdef plot_curve(data):原创 2021-12-08 22:47:52 · 95 阅读 · 0 评论 -
pytorch基础知识一【梯度】
梯度1. 引入2. 实例代码1. 引入已知函数表达式为:y = w * x + b如果求未知数w和b,可以给定两个点,联立方程求解,如下图所示:现在给满足此等式的点加入噪声,通过这一系列的点求出w和b的近似值,评价近似值是否最优的的指标为损失函数,如下图所示:如何最优化?2. 实例代码求解过程:给定初始的w和b的值,利用给定的100个观测值按梯度步长逐渐让w和b逼近到其各自的真实值。参数 = 参数 - 学习率 * 梯度import numpy as np# y = wx原创 2021-12-07 22:42:25 · 156 阅读 · 0 评论