- 博客(110)
- 收藏
- 关注
原创 深度学习(21)使用块的网络VGG
一、VGG块(核心思想)👉 一个VGG block = 多个卷积层 + 1个池化层👉 保证卷积前后高宽不变每一层卷积后:👉 通道数变成高宽减半(224 → 112 → 56 → ...👉 把列表展开成一个顺序模型二、VGG整体结构block卷积层数输出通道116421128322564251252512构建网络通道数逐渐增加空间尺寸逐渐减小👉 为什么是7×7?(5次池化)两个 4096 层Dropout 防止过拟合三、输出尺寸变化(重点)
2026-05-05 16:30:02
559
原创 深度学习(20)深度卷积神经网络AlexNet
深度卷积神经网络 (AlexNet)nn.Conv2d(1,96,kernel_size=11,stride=4,padding=1),nn.ReLU(), # 数据集为fashion_mnist图片,所以输入通道为1,如果是Imagnet图片,则通道数应为3nn.Conv2d(96,256,kernel_size=5,padding=2),nn.ReLU(), # 256为输出通道数# Fashion-MNIST图像的分辨率 低于ImageNet图像。将它们增加到224×224。
2026-05-04 22:17:48
326
原创 深度学习(19)经典神经网络LeNet
LeNet(LeNet-5) 由两个部分组成:卷积编码器和全连接层密集块return x.view(-1,1,28,28) # 批量数自适应得到,通道数为1,图片为28X28#两次卷积两次池化#每一层做一次迭代print(layer.__class__.__name__,'output shape:\t',X.shape) # 上一层的输出为这一层的输入Conv2d output shape: torch.Size([1, 6, 28, 28])#第一次卷积层,让通道数变为6。
2026-05-04 21:24:37
458
原创 深度学习(18)池化层
实现池化层的正向传播def pool2d(X, pool_size, mode='max'): # 拿到输入,池化窗口大小Y = torch.zeros((X.shape[0] - p_h + 1, X.shape[1] - p_w + 1)) # 输入的高减去窗口的高,再加上1,这里没有paddingfor i in range(Y.shape[0]): # 行遍历for j in range(Y.shape[1]): # 列遍历return Y# 验证二维最大池化层的输出。
2026-05-03 18:19:19
312
原创 深度学习(17)卷积层里的多输入多输出通道
多输入通道互相关运算# 多通道输入运算return sum(d2l.corr2d(x,k) for x,k in zip(X,K)) # X,K为3通道矩阵,for使得对最外面通道进行遍历# 多输出通道运算def corr2d_multi_in_out(X,K): # X为3通道矩阵,K为4通道矩阵,最外面维为输出通道return torch.stack([corr2d_multi_in(X,k) for k in K],0) # 大k中每个小k是一个3D的Tensor。
2026-05-03 18:05:52
344
原创 深度学习(16)卷积层里的填充和步幅
积层的三个核心参数:padding(填充)、stride(步幅)、kernel_size(核大小)如何影响输出尺寸。整体在干嘛?1.给一个 8×8 的输入 X2.用不同的卷积参数(核大小 / 填充 / 步幅)3.看看输出尺寸怎么变# 在所有侧边填充1个像素def comp_conv2d(conv2d, X): # conv2d 作为传参传进去,在内部使用#由原来的X.shape = (8,8)变成(1, 1, 8, 8)
2026-05-03 15:43:41
78
原创 深度学习(13)PyTorch神经网络基础
① nn.Sequential 定义了一种特殊的Module。就像流水线:tensor([[-0.0214, -0.1789, -0.0700, -0.0238, -0.2697, 0.0381, 0.3078, -0.2082, -0.1502, 0.0433], [ 0.0200, -0.1466, -0.0633, 0.0031, -0.2042, 0.0993, 0.3137, -0.1206, -0.1057,
2026-05-01 16:27:31
907
原创 深度学习(12)Kaggle房价竞赛
👉 定义一个函数net:你的模型(神经网络)features:输入数据(特征)labels:真实答案(标签,比如真实房价)这段代码在做:👉先对预测和真实值取 log → 算均方误差 → 再开根号。
2026-05-01 10:06:35
503
原创 深度学习(11)数值稳定+模型初始化、激活函数
让每一层都保证:均值为0,方差为常数① 假设权重是独立的同分布,均值为0。② 假设输入与权重是相互独立的。”w_i_j^t 是i.i.d“意味着w_i_j这个元素同其他元素(如w_a_b)没有任何依赖关系 是独立存在的。以简化计算和推理h(t-1,i)表示第t-1层网络的第i个神经元的输出,也就是第t层网络的输入w(t, i, j)表示第t层网络的第i个神经元的第j个特征的权重如果想要使均值为0,就要使这个式子为0,但由于ahi为上一层的,均值为0,所以这一层只需保证β为0就可以了。
2026-04-29 10:59:32
217
原创 深度学习(10)丢弃法
实现dropout_layer函数,该函数以dropout的概率丢弃张量输入x中的元素assert 0 <= dropout <= 1 # dropout大于等于0,小于等于1,否则报错return torch.zeros_like(X) # 如果dropout为1,则X返回为全0return X # 如果dropout为1,则X返回为全原值。
2026-04-28 18:31:33
674
原创 深度学习(7)感知机
① 先用蓝色的线分,再用黄色的线分。② 再对蓝色的线和黄色的线分出来的结果做乘法。【同正异负】# 实现一个具有单隐藏层的多层感知机,它包含256个隐藏单元num_inputs, num_outputs, num_hiddens = 784, 10, 256 # 输入、输出是数据决定的,256是调参自己决定的# 实现 ReLu 激活函数a = torch.zeros_like(X) # 数据类型、形状都一样,但是值全为 0# 实现模型。
2026-04-27 09:35:33
508
原创 一口气学完CNN、RNN、GAN、GNN、DQN、Transformer、LSTM等八大深度学习神经网络!
还没有更新完毕,明天就更新完~~~加油!!!
2026-04-13 21:24:06
401
原创 Numpy & Pandas (数据处理教程)(莫烦听课笔记)
可在创建时定义array的type(整数型,浮点型等)a1=np.array([2,3,4],dtype=np.int) #整数型 np.int64a2=np.array([2,3,4],dtype=np.float) #浮点型 np.float32int32float641.2.3定义矩阵#定义矩阵print(a)[[1 2 3][4 5 6]]#定义特殊矩阵a=np.zeros((3,4)) #定义三行四列的零矩阵print(a)
2026-04-05 16:50:26
413
原创 深度优先搜索DFS
需要所有元素(顺序不同算不同)例如:数字排列、字符串排列、N 皇后(每行选一列)用used[]记录有没有被用过每个位置都要填一个数,所有位置填满才结束循环遍历所有可能的值。
2026-03-31 22:23:05
365
原创 深度学习(6)
① 三个常用的损失函数 L2 loss、L1 loss、Huber's Robust loss。① 就像从零开始实现线性回归一样,应该知道softmax的细节。
2026-03-22 22:51:07
360
原创 深度学习(5)线性回归、优化算法
把 PyTorch 张量转成 NumPy 数组,因为。:取所有样本的第2个特征(索引从0开始,所以。:把张量从计算图中分离出来,因为画图不需要梯度。:画散点图,横轴是第二个特征,纵轴是标签值。的标准模式:随机打乱 + 批量读取。开始,取第一批 10 个样本。:把标签也转成 NumPy。需要 NumPy 格式。跳出循环,只取一个批次。生成 1000 个样本。测试时取一个批次验证。
2026-03-19 22:53:58
361
原创 深度学习(4)自动求导
如果输出是标量 y,可以求 dy/dx(一个值对一组变量求导)如果输出是向量 Y = [y₁, y₂, y₃, y₄],你想求什么?是 dy₁/dx 还是 dy₂/dx?不确定。
2026-03-16 16:02:10
534
原创 深度学习(1)介绍、数据操作、张量数据操作、数据预处理
① 如下图所示,X轴是不同的模式,最早的是符号学,然后概率模型、机器学习。Y轴是我们想做什么东西,感知是我了解这是什么东西,推理形成自己的知识,然后做规划。② 感知类似我能看到前面有个屏幕,推理是基于我看到的东西想象未来会发生什么事,根据看到的现象、数据,形成自己的知识,知道所有知识后能进行长远的规划,未来怎么做① 自然语言处理目前还是停留在感知上,人几秒钟能反应过来的东西都属于感知范围,即使像中文翻译成英文,英文翻译成中文那种。② 计算机视觉可以在图片里面可以做一些推理。
2026-03-15 16:55:17
374
原创 三 开发机器学习系统的过程
聚类算法会查看一组数据点,并自动找出相互关联或相似的数据点4.2 K均值直觉看一下K均值-聚类算法的作用K均值算法关键步骤就是第一根据最近的聚类中心将每个点分配给聚类中心,第二将每个聚类中心移动到分配给它的所有点的均值4.3K均值算法现在详细写出K均值算法,接下来会更深的了解K均值算法,看到K均值实际是在优化一个特定的代价函数4.4优化目标前面学的监督学习算法,通过使用训练集、设定代价函数,然后使用梯度下降或其他算法来优化该代价函数;刚才K均值算法也在优化一个特定的函数。
2026-03-03 21:43:44
418
原创 python第一阶段第八章文件操作
f = open("F:/测试.txt","r",encoding="UTF-8")# 方式1:读取全部内容,通过字符串count方法进行统计itheima单词数量# 方式2: 读取内容,一行一行的读取count =0 #用count进行累加line = line.strip() #去除头和尾的空格以及换行符words = line.split(" ") #将字符串按照空格进行分割,返回一个列表count += 1f.close()
2025-12-03 22:35:21
216
空空如也
可以help me吗/\';
2025-03-23
PTA-6翻了【哪错了我】
2025-03-01
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅
1