- 博客(44)
- 收藏
- 关注
原创 DAY44 深度学习实战:图像预训练模型全解析与 ResNet18 代码落地
本文系统梳理了图像预训练模型的核心知识点,从基础概念、主流模型分类、技术发展史、核心策略到 ResNet18 代码实战展开全维度讲解。结合深度学习迁移学习核心逻辑,通过 PyTorch 框架实现 ResNet18 预训练模型的微调落地,为计算机视觉领域的图像分类任务提供可直接复用的技术方案与实践指南。预训练(Pre-training)是深度学习中迁移学习的核心范式,指先在大规模通用数据集(如 ImageNet)上对模型进行无监督 / 有监督训练,让模型学习到通用的视觉特征(边缘、纹理、形状、语义特征等);
2026-04-03 20:50:15
304
原创 DAY43
,该数据集包含 25000 张带标签的猫狗图像,适合 CNN 二分类任务,且数据规模适中,训练成本低。先提供单文件版本,方便快速验证效果,再进行模块化拆分。选用 Kaggle 经典的。
2026-04-02 21:06:30
31
原创 DAY 42 Grad-CAM 与 Hook 函数
CNN 模型强大,但黑盒问题一直存在:模型为什么把这张图分类为 “狗”?它到底看了图片的哪些区域?就是目前最通用、最稳定、无需修改网络的CNN 可视化神器。红色 = 模型最关注的区域蓝色 = 模型几乎不关注。Hook = PyTorch 可解释性的灵魂前向抓特征,反向抓梯度。Grad-CAM = 最通用的 CNN 可视化方法不修改网络、不需要额外训练。本文代码✅ 可直接跑✅ 可直接发 CSDN✅ 可直接用于项目。
2026-03-30 21:37:20
315
原创 DAY 39 图像数据与显存
在深度学习语境下,模型是由多层神经网络(如卷积层、全连接层)堆叠而成的计算图,包含可学习参数(权重、偏置),用于从输入数据中学习特征并完成特定任务(如分类、分割)。
2026-03-26 22:46:41
357
原创 DAY38 Dataset 类和DataLoader 类
CIFAR-10:包含 10 个类别(飞机、汽车、鸟类、猫、鹿、狗、青蛙、马、船、卡车),训练集 50000 张,测试集 10000 张,单张图片为 32×32 彩色图。CIFAR-100:包含 100 个细分类别,结构与 CIFAR-10 类似,类别更多、难度更大。
2026-03-26 22:43:17
77
1
原创 DAY34 GPU 训练与类的 call 方法
实时查看显存占用、GPU 利用率等信息,帮助排查显存不足或性能瓶颈问题。训练过程中,可在命令行输入。
2026-03-24 19:27:07
439
原创 DAY33MLP神经网络的训练
该内容处于深度学习实战入门阶段,重点在于规范搭建 MLP 训练流程。核心在于环境打通与数据类型匹配,只要保证标签类型正确,就能顺利完成第一次神经网络的训练与可视化。# ======================== 1. 环境配置与数据准备 ========================# 检查CUDA是否可用,自动选择设备(GPU/CPU)print(f"使用设备: {device}")# 生成模拟数据集(分类任务)# 输入特征维度:10,类别数:5,样本数:1000。
2026-03-22 22:41:28
297
原创 DAY32 官方文档的阅读
找版本 → 看类参数 → 看方法参数与返回值。绘图时:高级库封装了易用接口,底层仍可通过matplotlib精细调整。作业思路:任选pdpbox里的类(如做交互特征、info_plots做特征分布),按文档步骤实例化→调用方法→绘图即可。@浙大疏锦行。
2026-03-22 22:37:24
320
原创 DAY29 复习类
实例(Instance):类的具体对象,通过类创建,拥有类定义的所有属性和方法(比如Circle(5)是Circle类的实例)。Python 类是面向对象编程的核心,掌握类的定义、属性、方法、三大特性及高级特性,是写出高质量 Python 代码的基础。特点:既不能访问实例属性,也不能访问类属性,功能上与普通函数类似,但逻辑上归属于类,仅用于封装与类相关的通用功能。类(Class):抽象的模板,定义了一类事物的属性和方法(比如Circle类、Person类)。特点:只能访问类属性,不能访问实例属性;
2026-03-18 21:26:48
365
原创 DAY 21 常见的降维算法
一、聚类:基于数据的内在相似性,将无标签数据划分为若干个具有共同特征的“簇”(Cluster),使得簇内样本相似度高,簇间样本相似度低。基于“簇内误差平方和最小化”的目标,预先指定簇数K,通过迭代优化找到K个簇的中心(质心),将每个样本分配到距离最近的质心所在簇。- Calinski-Harabasz指数(CH指数):簇间方差与簇内方差的比值,数值越大说明簇间差异越大、簇内越紧凑。2. 合并簇:计算所有簇对之间的相似度(或距离),将相似度最高(距离最近)的两个簇合并为一个新簇。
2026-03-11 22:32:46
218
原创 Day17 SHAP图绘制
浙大疏锦行SHAP 图的核心是「看贡献度」:红色 = 帮预测值升高,蓝色 = 帮预测值降低;3 种图的用途:想解释 “单个预测结果”→ Force Plot;想知道 “哪些特征最重要”→ Summary Plot;想分析 “某个特征怎么影响结果”→ Dependence Plot;
2026-03-07 22:58:15
349
原创 Day13 启发式算法
模拟退火算法源于固体退火过程的物理现象:将金属加热至高温,然后缓慢冷却,使其达到能量最低的稳定状态。模拟退火算法的核心思想是通过控制温度参数,在优化过程中以一定概率接受差解,从而跳出局部最优,逐步收敛到全局最优解附近。这种"以退为进"的策略使其在复杂的组合优化和函数优化问题中表现出色。所有的核心都是为了让g(参数)取得最大值。遗传算法优化LightGBM。
2026-03-03 21:47:08
34
原创 Day 12 XGBoost原理与贝叶斯优化可视化
XGBoost的核心思想是“集成学习”中的“Boosting”策略。单独一个模型的预测可能不够准确,于是我们组建一个由多个“决策树”模型组成的团队来共同决策。所以元组适合存储不应被程序意外修改的数据(例如配置常量、数据库记录的字段等)。函数返回多个值时,默认就是以元组的形式返回的。由于元组是不可变的,它可以作为字典的键(List 不可以)。这和前几天学的enumerate方法非常像,他可以遍历任何可迭代对象,返回索引+元素。修改后的temp_list:['张三', 26, 92.5]
2026-03-02 22:58:09
912
原创 DAY10 机器学习建模与评估
例如,“Annual Income”“Years of Credit History”“Credit Score”等特征的取值范围差异较大,可通过特征缩放将它们的取值范围统一到[0, 1]或均值为0、标准差为1的分布上。在实际操作中,需要先进行缺失值处理,然后进行数据类型转换,接着处理异常值,再进行特征缩放,最后进行特征工程。特征选择:通过相关性分析等方法,选择与目标变量“Credit Default”相关性较高的特征,去除相关性较低或冗余的特征,以降低模型的复杂度和过拟合的风险。
2026-02-27 23:56:12
639
原创 DAY7 复盘
在代码中执行 help(pd.DataFrame.fillna),会打印出该函数最完整的官方文档,包括每个参数的详细解释、返回值和丰富的示例。直接问 AI (如 ChatGPT, Kimi 等): 把函数名甚至是一段你不理解的代码直接丢给 AI,让它“用大白话解释一下”,这通常比自己啃官方文档或翻译软件要高效得多!我的方法论:日常开发用“鼠标悬停”和“参数提示”,遇到新函数或复杂用法时,优先“问 AI”,如果 AI 解释不清或想看权威说明,再用 help() 或?一、知识点梳理:我的函数探索“武器库”
2026-02-22 00:00:54
144
原创 DAY6数据可视化
2. 中文字符显示不全,把中文文字编码格式转进去。二、认识matplotlib。2. 特征与标签关系可视化。3. 特征与特征关系可视化。1、下方有莫名其妙的警告。1. 单特征分布可视化。
2026-02-19 22:59:06
124
原创 DAY5 离散特征的处理(独热编码)
可以鼠标悬停来查看每个函数的参数,这里采用了类型注解写法,可以看到每个参数的要求类型,同时可以看到参数的默认值,如果没有默认值就是必填参数。在py文件中 一次性处理data数据中所有的连续变量和离散变量。【py文件中,用debugger工具来逐步查看每一步的输出】到此为止,已经掌握了对离散变量做独热编码的所有方法。4. 采取循环对所有离散特征进行独热编码。5. 加上昨天的内容 并且处理所有缺失值。随着学习往后,需要了解的函数越来越多。3. 选择一个离散特征进行独热编码。2. 找到所有离散特征。
2026-02-11 20:56:21
134
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅