自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(16)
  • 收藏
  • 关注

原创 二分法ACM

【代码】二分法ACM。

2023-09-14 22:02:57 8

原创 动手学深度学习之读写文件

import torchfrom torch import nnfrom torch.nn import functional as Fx = torch.arange(4)torch.save(x, 'x-file')x2 = torch.load('x-file')print(x2)#存储⼀个张量列表,然后把它们读回内存y = torch.zeros(4)torch.save([x, y],'x-files')x2, y2 = torch.load('x-files')print.

2022-05-12 09:25:46 13

原创 动手学深度学习李沐之参数管理

import torchfrom torch import nnnet = nn.Sequential(nn.Linear(4, 8), nn.ReLU(), nn.Linear(8, 1))X = torch.rand(size=(2, 4))print(net(X))#检查第⼆个全连接层的参数。print(net[2].state_dict())print(type(net[2].bias))print(net[2].bias)print(net[2].bias.data)net[.

2022-05-12 09:23:23 22

原创 【无标题】李沐动手学深度学习之层和块

import torchfrom torch import nnfrom torch.nn import functional as F#多层感知机:具有256个单元和Relu激活函数的全连接隐藏层,具有10个隐藏单元且不带激活函数的全连接输出层net = nn.Sequential(nn.Linear(20, 256), nn.ReLU(), nn.Linear(256, 10))X = torch.rand(2, 20)print(net(X))#自定义类。MLP继承了表示块的类。我们的.

2022-05-12 09:21:29 8

原创 动手学深度学习之kaggle房价预测

#加载下载数据集,并用padas分别将其下载到训练集和测试集中去import hashlibimport osimport tarfileimport zipfileimport requests#@saveDATA_HUB = dict()DATA_URL = 'http://d2l-data.s3-accelerate.amazonaws.com/'def download(name, cache_dir=os.path.join('..', 'data')): #@save .

2022-05-05 19:06:04 21

原创 动手学深度学习李沐之Alexnet

import torchfrom torch import nnfrom d2l import torch as d2limport matplotlib.pyplot as pltnet = nn.Sequential(# 这⾥,我们使⽤⼀个11*11的更⼤窗⼝来捕捉对象。# 同时,步幅为4,以减少输出的⾼度和宽度。# 另外,输出通道的数⽬远⼤于LeNetnn.Conv2d(1, 96, kernel_size=11, stride=4, padding=1), nn.ReLU(), .

2022-04-26 17:35:29 16

原创 动手学深度学习李沐之随机失活

#从零实现dropoutimport torchfrom torch import nnfrom d2l import torch as d2limport matplotlib.pyplot as plt#定义随机失活def dropout_layer(X,dropout): assert 0 <= dropout <= 1 #0<=dropout<=1 # 在本情况中,所有元素都被丢弃 if dropout == 1: ret.

2022-04-25 21:32:10 12

原创 动手学深度学习李沐之权重衰退

权重衰退通过L2正则项使得模型参数不会过大从而控制模型复杂度正则项权重是控制模型复杂度的超参数根据以下公式生成人工数据集import torchfrom torch import nnfrom d2l import torch as d2limport matplotlib.pyplot as plt#标签是关于输⼊的线性函数。标签同时被均值为0,标准差为0.01⾼斯噪声破坏;为了使过拟合的效果更加明显,将问题的维数增加到d = 200n_train, n_test, num_i..

2022-04-24 21:45:10 7

原创 动手学深度学习之拟合问题

import mathimport numpy as npimport torchfrom torch import nnfrom d2l import torch as d2limport matplotlib.pyplot as plt#三阶多项式来⽣成训练和测试数据的标签max_degree=20#多项式的最大阶数n_train,n_test=100,100#测试集和训练集的数目true_w=np.zeros(max_degree)#分配大量的空间true_w[0:4]=np.a.

2022-04-22 17:53:48 39

原创 动手学深度学习李沐之多层感知机从零实现

import torchfrom torch import nnfrom d2l import torch as d2limport matplotlib.pyplot as pltbatch_size=256def get_dataloader_workers(): return 4#使用四个进程来读取数据def load_data_fashion_mnist(batch_size,resize=None): trans=[transforms.ToTensor()] .

2022-04-22 16:00:12 12

原创 李沐动手学深度学习:从零实现softmax回归

1、图片分类数据集import matplotlib.pyplot as pltimport torchimport torchvisionfrom torch.utils import datafrom torchvision import transformsfrom d2l import torch as d2limport osd2l.use_svg_display()trans=transforms.ToTensor()#图片转为tensormnist_train=torc

2022-04-14 17:34:53 105

原创 动手学深度学习李沐 线性回归一 从零实现

a1、构建带噪声的人造数据集import matplotlib.pyplot as pltimport randomimport torchfrom d2l import torch as d2l#构建带噪声的人造数据集def synthetic_data(w,b,num_examples):#num_examples:样本数目 X=torch.normal(0,1,(num_examples,len(w)))#torch.normal(mean, std, *, generator

2022-04-11 18:13:17 10

原创 动手学深度学习笔记2之线性代数

1、标量的运算#标量的加减乘除import torchx = torch.tensor([3.0])y = torch.tensor([2.0])print(x+y)print(x*y)print(x/y)print(x**y)tensor([5.])tensor([6.])tensor([1.5000])tensor([9.])2、向量#向量及运算x = torch.arange(4)print(x[3])print(len(x))print(x.shap

2022-04-09 18:22:53 8

原创 动手学深度学习笔记之数据预处理

1、数据预处理 文件的写读操作import osos.makedirs(os.path.join('..', 'data'), exist_ok=True)#os.makedirs()用于创建递归目录;os.path.join()用于路径拼接文件路径;在当前目录创建data文件夹data_file = os.path.join('..', 'data', 'house_tiny.csv')with open(data_file, 'w') as f:#文件的写操作 f.write('.

2022-04-09 10:53:06 29

原创 a survey of transformer 学习笔记

1、引言一些 X-formers 从以下几个方面提升了vanilla Transformer 的性能:模型的效率、模型泛化、模型适应性2、背景2.1vanilla TransformerThe vanilla Transformer 是一种sequence-to-sequence 的模型由 一个encoder和 一个decoder组成, (encoder和decoder都是由L个相同的块堆叠而成)。encoder块是由多头自注意力模块和position-wiseFFN组成。为了构建更深.

2022-03-30 18:00:07 718

原创 利用python进行数据分析笔记

一、第一章:准备工作1、引入惯例 Python社区已经广泛采取了一些常用模块的命名惯例:import numpy as npimport matplotlib.pyplot as plt import pandas as pd import seaborn as sns import statsmodels as sm二、第二章Python语法基础(一) IPython shell1、Tab补全()补全命名、对象和模块属性。2、自省在变量前后使用问号?...

2022-03-29 10:59:45 1375

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除