自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(110)
  • 收藏
  • 关注

原创 深度学习(21)使用块的网络VGG

一、VGG块(核心思想)👉 一个VGG block = 多个卷积层 + 1个池化层👉 保证卷积前后高宽不变每一层卷积后:👉 通道数变成高宽减半(224 → 112 → 56 → ...👉 把列表展开成一个顺序模型二、VGG整体结构block卷积层数输出通道116421128322564251252512构建网络通道数逐渐增加空间尺寸逐渐减小👉 为什么是7×7?(5次池化)两个 4096 层Dropout 防止过拟合三、输出尺寸变化(重点)

2026-05-05 16:30:02 559

原创 深度学习(20)深度卷积神经网络AlexNet

深度卷积神经网络 (AlexNet)nn.Conv2d(1,96,kernel_size=11,stride=4,padding=1),nn.ReLU(), # 数据集为fashion_mnist图片,所以输入通道为1,如果是Imagnet图片,则通道数应为3nn.Conv2d(96,256,kernel_size=5,padding=2),nn.ReLU(), # 256为输出通道数# Fashion-MNIST图像的分辨率 低于ImageNet图像。将它们增加到224×224。

2026-05-04 22:17:48 326

原创 深度学习(19)经典神经网络LeNet

LeNet(LeNet-5) 由两个部分组成:卷积编码器和全连接层密集块return x.view(-1,1,28,28) # 批量数自适应得到,通道数为1,图片为28X28#两次卷积两次池化#每一层做一次迭代print(layer.__class__.__name__,'output shape:\t',X.shape) # 上一层的输出为这一层的输入Conv2d output shape: torch.Size([1, 6, 28, 28])#第一次卷积层,让通道数变为6。

2026-05-04 21:24:37 458

原创 深度学习(18)池化层

实现池化层的正向传播def pool2d(X, pool_size, mode='max'): # 拿到输入,池化窗口大小Y = torch.zeros((X.shape[0] - p_h + 1, X.shape[1] - p_w + 1)) # 输入的高减去窗口的高,再加上1,这里没有paddingfor i in range(Y.shape[0]): # 行遍历for j in range(Y.shape[1]): # 列遍历return Y# 验证二维最大池化层的输出。

2026-05-03 18:19:19 312

原创 深度学习(17)卷积层里的多输入多输出通道

多输入通道互相关运算# 多通道输入运算return sum(d2l.corr2d(x,k) for x,k in zip(X,K)) # X,K为3通道矩阵,for使得对最外面通道进行遍历# 多输出通道运算def corr2d_multi_in_out(X,K): # X为3通道矩阵,K为4通道矩阵,最外面维为输出通道return torch.stack([corr2d_multi_in(X,k) for k in K],0) # 大k中每个小k是一个3D的Tensor。

2026-05-03 18:05:52 344

原创 深度学习(16)卷积层里的填充和步幅

积层的三个核心参数:padding(填充)、stride(步幅)、kernel_size(核大小)如何影响输出尺寸。整体在干嘛?1.给一个 8×8 的输入 X2.用不同的卷积参数(核大小 / 填充 / 步幅)3.看看输出尺寸怎么变# 在所有侧边填充1个像素def comp_conv2d(conv2d, X): # conv2d 作为传参传进去,在内部使用#由原来的X.shape = (8,8)变成(1, 1, 8, 8)

2026-05-03 15:43:41 78

原创 深度学习(15)卷积层

【代码】深度学习(15)卷积层。

2026-05-03 15:15:59 400

原创 深度学习(14)确认GPU

2026-05-03 11:37:23 392

原创 深度学习(13)PyTorch神经网络基础

① nn.Sequential 定义了一种特殊的Module。就像流水线:tensor([[-0.0214, -0.1789, -0.0700, -0.0238, -0.2697, 0.0381, 0.3078, -0.2082, -0.1502, 0.0433], [ 0.0200, -0.1466, -0.0633, 0.0031, -0.2042, 0.0993, 0.3137, -0.1206, -0.1057,

2026-05-01 16:27:31 907

原创 深度学习(12)Kaggle房价竞赛

👉 定义一个函数net:你的模型(神经网络)features:输入数据(特征)labels:真实答案(标签,比如真实房价)这段代码在做:👉先对预测和真实值取 log → 算均方误差 → 再开根号。

2026-05-01 10:06:35 503

原创 深度学习(11)数值稳定+模型初始化、激活函数

让每一层都保证:均值为0,方差为常数① 假设权重是独立的同分布,均值为0。② 假设输入与权重是相互独立的。”w_i_j^t 是i.i.d“意味着w_i_j这个元素同其他元素(如w_a_b)没有任何依赖关系 是独立存在的。以简化计算和推理h(t-1,i)表示第t-1层网络的第i个神经元的输出,也就是第t层网络的输入w(t, i, j)表示第t层网络的第i个神经元的第j个特征的权重如果想要使均值为0,就要使这个式子为0,但由于ahi为上一层的,均值为0,所以这一层只需保证β为0就可以了。

2026-04-29 10:59:32 217

原创 深度学习(10)丢弃法

实现dropout_layer函数,该函数以dropout的概率丢弃张量输入x中的元素assert 0 <= dropout <= 1 # dropout大于等于0,小于等于1,否则报错return torch.zeros_like(X) # 如果dropout为1,则X返回为全0return X # 如果dropout为1,则X返回为全原值。

2026-04-28 18:31:33 674

原创 深度学习(9)权重衰退

代表不同θ下的约束条件。原始损失函数l的等高线,

2026-04-27 21:02:29 392

原创 深度学习(8)过拟合、欠拟合

【代码】深度学习(8)

2026-04-27 10:03:52 345

原创 深度学习(7)感知机

① 先用蓝色的线分,再用黄色的线分。② 再对蓝色的线和黄色的线分出来的结果做乘法。【同正异负】# 实现一个具有单隐藏层的多层感知机,它包含256个隐藏单元num_inputs, num_outputs, num_hiddens = 784, 10, 256 # 输入、输出是数据决定的,256是调参自己决定的# 实现 ReLu 激活函数a = torch.zeros_like(X) # 数据类型、形状都一样,但是值全为 0# 实现模型。

2026-04-27 09:35:33 508

原创 深度学习(6)softmax回归、损失函数、分类

是距离原点时,梯度也不是特别大。第2步:将二维数组展平成一维;第3步:在每张子图上显示图片。

2026-04-26 22:28:23 492

原创 PTA团体程序设计天梯赛-练习集106-110题

PTA团体程序设计天梯赛-练习集106-110题【持续更新中,关注我不迷路】

2026-04-14 14:23:32 564

原创 PTA团体程序设计天梯赛-练习集101-105题

PTA团体程序设计天梯赛-练习集101-105题【持续更新中,关注我不迷路】

2026-04-13 22:01:15 364

原创 一口气学完CNN、RNN、GAN、GNN、DQN、Transformer、LSTM等八大深度学习神经网络!

还没有更新完毕,明天就更新完~~~加油!!!

2026-04-13 21:24:06 401

原创 从函数到神经网络【AI入门01】(b站飞天闪客~~

激活函数。

2026-04-13 08:26:47 531

原创 一口气搞懂人工智能和神经网络

得分阈值。

2026-04-10 19:20:39 363

原创 Numpy & Pandas (数据处理教程)(莫烦听课笔记)

可在创建时定义array的type(整数型,浮点型等)a1=np.array([2,3,4],dtype=np.int) #整数型 np.int64a2=np.array([2,3,4],dtype=np.float) #浮点型 np.float32int32float641.2.3定义矩阵#定义矩阵print(a)[[1 2 3][4 5 6]]#定义特殊矩阵a=np.zeros((3,4)) #定义三行四列的零矩阵print(a)

2026-04-05 16:50:26 413

原创 深度优先搜索DFS

需要所有元素(顺序不同算不同)例如:数字排列、字符串排列、N 皇后(每行选一列)用used[]记录有没有被用过每个位置都要填一个数,所有位置填满才结束循环遍历所有可能的值。

2026-03-31 22:23:05 365

原创 深度学习(6)

① 三个常用的损失函数 L2 loss、L1 loss、Huber's Robust loss。① 就像从零开始实现线性回归一样,应该知道softmax的细节。

2026-03-22 22:51:07 360

原创 深度学习(5)线性回归、优化算法

把 PyTorch 张量转成 NumPy 数组,因为。:取所有样本的第2个特征(索引从0开始,所以。:把张量从计算图中分离出来,因为画图不需要梯度。:画散点图,横轴是第二个特征,纵轴是标签值。的标准模式:随机打乱 + 批量读取。开始,取第一批 10 个样本。:把标签也转成 NumPy。需要 NumPy 格式。跳出循环,只取一个批次。生成 1000 个样本。测试时取一个批次验证。

2026-03-19 22:53:58 361

原创 深度学习(4)自动求导

如果输出是标量 y,可以求 dy/dx(一个值对一组变量求导)如果输出是向量 Y = [y₁, y₂, y₃, y₄],你想求什么?是 dy₁/dx 还是 dy₂/dx?不确定。

2026-03-16 16:02:10 534

原创 深度学习(3)矩阵计算、求导

① y是向量,x是标量的话,求导为标量。② y是向量,x是向量的话,求导为矩阵。

2026-03-16 14:48:57 215

原创 深度学习(2)特征值、标量向量矩阵运算、线性代数

参考github作者,我只是用来学习。

2026-03-15 18:00:00 366

原创 深度学习(1)介绍、数据操作、张量数据操作、数据预处理

① 如下图所示,X轴是不同的模式,最早的是符号学,然后概率模型、机器学习。Y轴是我们想做什么东西,感知是我了解这是什么东西,推理形成自己的知识,然后做规划。② 感知类似我能看到前面有个屏幕,推理是基于我看到的东西想象未来会发生什么事,根据看到的现象、数据,形成自己的知识,知道所有知识后能进行长远的规划,未来怎么做① 自然语言处理目前还是停留在感知上,人几秒钟能反应过来的东西都属于感知范围,即使像中文翻译成英文,英文翻译成中文那种。② 计算机视觉可以在图片里面可以做一些推理。

2026-03-15 16:55:17 374

原创 JavaWeb

Id选择器的优先级最高,最后是元素选择器导入视频value是提交系统的值

2026-03-11 13:15:29 35

原创 蓝桥杯语言基础

【代码】蓝桥杯语言基础。

2026-03-03 22:35:02 110

原创 三 开发机器学习系统的过程

聚类算法会查看一组数据点,并自动找出相互关联或相似的数据点4.2 K均值直觉看一下K均值-聚类算法的作用K均值算法关键步骤就是第一根据最近的聚类中心将每个点分配给聚类中心,第二将每个聚类中心移动到分配给它的所有点的均值4.3K均值算法现在详细写出K均值算法,接下来会更深的了解K均值算法,看到K均值实际是在优化一个特定的代价函数4.4优化目标前面学的监督学习算法,通过使用训练集、设定代价函数,然后使用梯度下降或其他算法来优化该代价函数;刚才K均值算法也在优化一个特定的函数。

2026-03-03 21:43:44 418

原创 python第一阶段第10章

python第一阶段第10章

2025-12-16 21:36:24 259

原创 机器学习----深度学习部分

神经网络的大致工作神经元的显著特点是。

2025-12-05 22:09:23 465

原创 python第一阶段第九章异常、模块、包

4.1 模块的导入4.2 自定义模块。

2025-12-04 20:06:41 216

原创 python第一阶段第八章文件操作

f = open("F:/测试.txt","r",encoding="UTF-8")# 方式1:读取全部内容,通过字符串count方法进行统计itheima单词数量# 方式2: 读取内容,一行一行的读取count =0 #用count进行累加line = line.strip() #去除头和尾的空格以及换行符words = line.split(" ") #将字符串按照空格进行分割,返回一个列表count += 1f.close()

2025-12-03 22:35:21 216

原创 python第一阶段第七章函数进阶

python第一阶段第七章函数进阶

2025-12-02 18:03:16 266

原创 python第一阶段第六章python数据容器

python第一阶段第六章python数据容器

2025-11-29 18:52:05 263

原创 python第一阶段第五章函数

python第一阶段第五章函数

2025-11-29 17:28:51 305

原创 机器学习初级

机器学习初级

2025-11-28 19:31:29 586 1

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除