Pytorch基础教程
文章平均质量分 91
废物药浪学代码
这个作者很懒,什么都没留下…
展开
-
【sklearn】如何使用Pipeline来整洁深度学习模型代码
Pipeline介绍Pipeline是一种使数据预处理和建模代码井井有条的简单方法。具体来说,管道打包捆绑了(bundles)预处理和建模步骤,因此您可以像使用单个步骤一样使用整个捆绑包。许多数据科学家在没有Pipeline的情况下将模型组合在一起,但Pipeline有一些重要的好处。其中包括:更简洁的代码:在预处理的每个步骤中处理数据可能会变得混乱。使用管道,您无需在每个步骤手动跟踪您的训练和验证数据。更少的错误:错误应用步骤或忘记预处理步骤的机会更少。更易于生产:将模型从原型转换为可大规原创 2021-08-13 17:17:15 · 932 阅读 · 0 评论 -
Pytorch基础教程(8): 强化——混合前端的seq2seq模型部署
本节将介绍如何把seq2seq模型转换为PyTorch可用的前端混合Torch脚本。我们要转换的模型来自于聊天机器人教程Chatbot tutorial。1. 混合前端在一个基于深度学习项目的研发阶段, 使用像PyTorch这样即时eager、命令式的界面进行交互能带来很大便利。 这使用户能够在使用Python数据结构、控制流操作、打印语句和调试实用程序时通过熟悉的、惯用的Python脚本编写。尽管即时性界面对于研究和试验应用程序是一个有用的工具,但是对于生产环境中部署模型时,使用基于图形graph转载 2021-03-13 12:52:14 · 402 阅读 · 0 评论 -
Pytorch基础教程(7): 强化——迁移学习
在深度学习模型日益庞大的今天,并非所有人都能满足从头开始训练一个模型的软硬件条件,稀缺的数据和昂贵的计算资源都是我们需要面对的难题。迁移学习可以帮助我们缓解在数据和计算资源上的尴尬。作为当前深度学习领域中最重要的方法论之一,迁移学习有着自己自身的理论依据和实际效果验证。作为一门实验性学科,深度学习通常需要反复的实验和结果论证。在现在和将来,是否有海量的数据资源和强大的计算资源,这是决定学界和业界深度学习和人工智能发展的关键因素。通常情况下,获取海量的数据资源对于企业而言并非易事,尤其是对于像医疗等特定领.转载 2021-03-13 12:40:54 · 461 阅读 · 0 评论 -
Pytorch基础教程(6): 数据增强——数据加载和处理
Pytorch提供了许多工具来简化和希望数据加载,使代码更具可读性。这里将专门讲述transforms数据预处理方法,即数据增强。数据增强又称为数据增广、数据扩增,它是对训练集进行变换,使训练集更丰富,从而让模型更具泛化能力。from PIL import Imagefrom torchvision import transforms as Timport torch as tto_tensor = T.ToTensor()to_pil = T.ToPILImage()cat = Ima.转载 2021-03-13 12:23:19 · 647 阅读 · 0 评论 -
Pytorch基础教程(5):实战案例----手写数字分类任务
Fashion-mnist分类任务Fashion-mnist经典的MNIST数据集包含了大量的手写数字。十几年来,来自机器学习、机器视觉、人工智能、深度学习领域的研究员们把这个数据集作为衡量算法的基准之一。你会在很多的会议,期刊的论文中发现这个数据集的身影。实际上,MNIST数据集已经成为算法作者的必测的数据集之一。有人曾经调侃道:“如果一个算法在MNIST不work,那么它就根本没法用;而如果它在MNIST上work,它在其它数据上也可能不work!”Fashion-mnist的目的是要成为MNI转载 2021-03-13 12:01:41 · 447 阅读 · 0 评论 -
Pytorch基础教程(4):入门——神经网络
softmax的基本概念分类问题:一个简单的图像分类问题,输入图像的高和宽均为2像素,色彩为灰度。图像中的4像素分别是x1x_1x1,x2x_2x2,x3x_3x3,x4x_4x4。假设真实标签为狗、猫或者鸡,这些标签对应的离散值为y1y_1y1,y2y_2y2,y3y_3y3。我们通常使用离散的数值来表示类别,例如y1=1y_1=1y1=1,y2=2y_2=2y2=2,y3=3y_3=3y3=3。权重矢量o1=x1w11+x2w21+x3w31+x4w41+b1转载 2021-03-13 10:06:14 · 103 阅读 · 0 评论 -
Pytorch基础教程(3):入门——autograd自动微分
Pytorch基础教程(3):autograd-自动微分import torchtorch.manual_seed(7)<torch._C.Generator at 0x7f3c1f9e0490>1. torch.autograd.backward(tensors, grad_tensors=None, retain_graph=None, create_graph=False)功能:自动求取梯度tensors:用于求导的张量,如 lossretain_graph:保存计转载 2021-03-13 09:57:54 · 158 阅读 · 0 评论 -
Pytorch基础教程(2):入门基本原理与如何创建/操作张量
本节含量较大,包含深度学习基本原理、分类与回归基本原理、如何创建张量、自动求导、定义神经网络结构与损失函数。1. 深度学习基本原理深度学习的概念源于人工神经网络的研究,是机器学习研究的一个新的领域,目的是建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像、声音和文本。作为一种机器学习方法,深度学习能让我们用给定的输入值训练AI模型预测输出值。这是在 http://playground.tensorflow.org/ 尝试构建的多层神经网络实现分类,如下图所示。2. 分转载 2021-03-13 09:49:52 · 230 阅读 · 0 评论 -
Pytorch基础教程(1):人工智能与Pytorch简介
Pytorch基础教程(1) :人工智能与Pytorch简介1.人工智能简介人工智能是新一轮科技革命和产业变革的重要驱动力量,其发挥作用的广度和深度堪比历次工业革命。蒸汽革命成就了英国,电气和信息化革命成就了美国。如今人工智能的历史机遇正在全面展开,也将成就新的引领者。下图显示了一部典型iPhone手机上安装的一些常用应用程序。苹果Siri等智能助理和智能聊天类应用,正试图颠覆你和手机交流的根本方式;新闻头条等热门新闻应用依赖于人工智能技术向你推送最适合你的新闻内容;美图秀秀等利用人工智能技术转载 2021-03-05 12:10:03 · 537 阅读 · 0 评论