- 博客(48)
- 资源 (1)
- 收藏
- 关注
原创 CNN算法实战系列03 | DenseNet121算法实战与解析
本文实现了一个基于DenseNet121的图像分类模型,主要包含以下内容:1) 模型采用密集连接结构,通过特征复用提升性能;2) 数据增强策略包括随机水平翻转和颜色抖动;3) 使用AdamW优化器配合余弦退火学习率调度;4) 引入标签平滑防止过拟合;5) 在1661张图像数据集上训练10个epoch,最终测试准确率达到86.2%。实验结果表明,DenseNet121通过密集连接和优化策略,在图像分类任务中表现出色。
2026-05-15 19:15:55
179
原创 CNN算法实战系列02 | ResNet50V2算法实战与解析
本文介绍了ResNet50V2模型的实现与应用。ResNet50V2采用pre-activation结构(BN→ReLU→Conv),相比V1版本(Conv→BN→ReLU)具有更优的性能。文章详细展示了使用PyTorch实现ResNet50V2的过程,包括数据预处理、模型构建(包含IdentityBlockV2和ConvBlockV2模块)、训练与测试流程。实验结果表明,该模型在10个epoch训练后达到87.7%的最佳测试准确率,验证了ResNet50V2的有效性。文中还提供了完整的代码实现和可视化分析
2026-05-08 20:31:24
197
原创 CNN算法实战系列01 | ResNet-50算法实战与解析
本文基于PyTorch框架实现了ResNet-50模型,用于图像分类任务。主要内容包括:1) 数据预处理,使用ImageFolder加载图像并进行标准化处理;2) 构建ResNet-50网络,包含ConvBlock和IdentityBlock模块;3) 训练过程中采用AdamW优化器和交叉熵损失函数,经过10轮训练后测试准确率达到88.3%;4) 可视化训练过程的准确率和损失曲线,并保存最佳模型参数。实验结果表明该模型能有效完成分类任务,验证了ResNet-50在图像分类中的良好性能。
2026-04-30 23:56:34
197
原创 TensorFlow学习系列11 | 优化器对比实验
摘要:本实验比较了Adam和SGD优化器在VGG16迁移学习模型上的表现。使用17类1800张好莱坞明星人脸数据集,结果显示Adam优化器训练准确率达96.5%,但验证集仅59.7%,呈现严重过拟合;SGD训练准确率81.1%,验证集57.2%,过拟合较轻。虽然Adam收敛更快(10个epoch即达75%),但两种优化器最终验证性能接近,表明Adam的高训练准确率并未带来更好的泛化能力。实验建议在小数据集迁移学习场景中,SGD配合适当策略可能表现更优。
2026-04-17 21:44:30
527
原创 TensorFlow学习系列10 | 数据增强
本文介绍了使用TensorFlow 2进行图像分类的完整流程。首先设置GPU环境并导入数据,包含600张猫狗图片。通过数据预处理将图片归一化并划分为训练集、验证集和测试集。采用数据增强技术(随机翻转和旋转)提升模型泛化能力。构建了一个包含3个卷积层和2个全连接层的CNN模型,使用Adam优化器和交叉熵损失函数进行训练。经过20轮训练后,模型在测试集上达到87.5%的准确率。整个流程涵盖了从数据准备、预处理、模型构建到训练评估的完整步骤,展示了TensorFlow 2在图像分类任务中的典型应用。
2026-04-10 09:46:36
434
1
原创 TensorFlow学习系列09 | 优化猫狗识别
VGG-16 是深度学习计算机视觉领域中非常著名且经典的卷积神经网络(CNN)模型,由牛津大学的 Visual Geometry Group (VGG) 提出。它在 2014 年的 ImageNet 竞赛中取得了极好的成绩,并且因为其结构简洁、规整,至今仍常被用作教学示例或特征提取的基础模型。
2026-04-02 09:33:12
455
原创 TensorFlow学习系列08 | 实现猫狗识别
VGG-16 是深度学习计算机视觉领域中非常著名且经典的卷积神经网络(CNN)模型,由牛津大学的 Visual Geometry Group (VGG) 提出。它在 2014 年的 ImageNet 竞赛中取得了极好的成绩,并且因为其结构简洁、规整,至今仍常被用作教学示例或特征提取的基础模型。
2026-03-20 08:03:15
480
原创 TensorFlow学习系列07 | 实现咖啡豆识别
VGG-16 是深度学习计算机视觉领域中非常著名且经典的卷积神经网络(CNN)模型,由牛津大学的 Visual Geometry Group (VGG) 提出。它在 2014 年的 ImageNet 竞赛中取得了极好的成绩,并且因为其结构简洁、规整,至今仍常被用作教学示例或特征提取的基础模型。VGG-16 最显著的特点就是它的“深度”(16层带权重的层)以及它对小尺寸卷积核(3x3)的坚持使用。我们可以一起来探索它的奥秘。为了理解为什么要“舍大求小”,我们可以想象 “警察审讯嫌疑人” 的场景。
2026-03-13 18:17:01
494
原创 TensorFlow学习系列06 | 实现好莱坞明星识别
摘要:本文实现了一个基于TensorFlow的CNN模型,用于17类名人图像分类。首先配置GPU环境并加载1800张图片数据集,进行数据预处理和可视化。构建的CNN网络包含4个卷积层、3个Dropout层和2个全连接层。采用指数衰减学习率和早停机制,训练71轮后达到95.6%的训练准确率,验证准确率为33.89%。最后对单张测试图片进行预测,成功识别出"Jennifer Lawrence"。模型存在过拟合问题,训练准确率与验证准确率差距较大。
2026-03-06 21:08:33
51
原创 TensorFlow学习系列05 | 实现运动鞋品牌识别
本文记录了深度学习训练营中关于图像分类任务的实践过程。使用TensorFlow构建了一个CNN模型,对运动品牌(adidas和nike)图片进行分类。主要步骤包括:数据预处理(加载578张图片,划分训练/验证集)、构建CNN网络(包含3个卷积层和2个全连接层)、模型训练(采用指数衰减学习率和早停策略)。最终模型在验证集上达到71%准确率,并成功预测了测试图片的品牌类别。整个流程展示了从数据准备到模型评估的完整深度学习项目实现。
2026-02-12 22:45:33
268
原创 TensorFlow学习系列04 | 实现猴痘病识别
本文实现了一个基于CNN的猴痘图像分类模型。首先配置GPU环境并导入数据,使用TensorFlow的image_dataset_from_directory方法加载2142张图片,分为训练集(1714张)和验证集(428张)。构建的CNN网络包含3个卷积层、2个Dropout层和2个全连接层,使用Adam优化器进行训练。经过50轮训练后,模型在验证集上达到88.78%的准确率。最后展示了训练过程的准确率和损失曲线,并通过单张图片预测验证了模型效果。该模型能有效区分"Monkeypox"和
2026-02-06 21:02:27
346
原创 TensorFlow学习系列03 | 实现天气识别
本文介绍了使用TensorFlow构建CNN模型进行天气图片分类的全过程。首先配置GPU环境并导入1125张天气图片(分为cloudy/rain/shine/sunrise四类),通过数据预处理划分训练集和验证集。然后构建包含3个卷积层、2个池化层和2个全连接层的CNN网络,使用Adam优化器训练10个epoch。最终模型在验证集上达到86.22%的准确率,训练过程中准确率逐步提升,损失值持续下降,表明模型具有良好的学习效果。实验完整展示了从数据准备到模型评估的深度学习流程。
2026-01-22 23:47:34
493
原创 TensorFlow学习系列02 | 实现彩色图片分类
本文介绍了使用卷积神经网络(CNN)进行图像分类的完整流程。首先讲解了CNN的基本原理,包括卷积运算、池化操作和网络堆叠结构。然后基于CIFAR-10数据集,使用TensorFlow搭建了一个包含3个卷积层、2个池化层和2个全连接层的CNN模型。经过10个epoch的训练,模型在测试集上达到了70.49%的准确率。实验结果表明,CNN能有效提取图像特征并完成分类任务,但仍有提升空间。文中还详细展示了数据预处理、模型构建、训练过程和评估结果等关键步骤的代码实现。
2026-01-16 00:34:41
531
原创 TensorFlow学习系列01 | 实现mnist手写数字识别
本文介绍了使用TensorFlow构建CNN网络进行MNIST手写数字识别的完整流程。首先通过数据归一化将像素值标准化至0-1区间,然后构建包含两个卷积层、池化层和全连接层的CNN网络结构。使用Adam优化器和交叉熵损失函数进行模型编译,经过10轮训练后,模型在测试集上达到98.44%的准确率。最后展示了模型对测试图片的预测能力,验证了CNN在图像分类任务中的有效性。整个过程涵盖了从数据预处理、模型构建到训练评估的完整深度学习流程。
2026-01-08 19:25:28
395
原创 Pytorch学习系列10 | 实现车牌识别
本文介绍了基于PyTorch的车牌字符识别系统实现。首先针对无法分类的车牌数据集,构建了自定义的MyDataset类进行数据加载,包含32个省份字符、10个数字和26个字母共68个字符类别。数据预处理采用224×224尺寸转换和标准化处理。模型采用CNN架构,包含5个卷积层和2个池化层,最终输出7×69维度的one-hot向量表示7位车牌字符。训练过程使用Adam优化器和交叉熵损失函数,经过30轮训练后测试集损失降至0.0269。实验结果表明,该模型能有效实现多标签车牌字符识别任务,为未分类数据集的处理提供
2025-12-26 21:33:00
308
原创 Pytorch学习系列09 | YOLOv5-Backbone模块实现
本文介绍了YOLOv5目标检测算法中Backbone模块的实现过程。首先通过比喻将Backbone比作提炼书籍重点的机制,说明其核心作用。然后详细展示了代码实现过程,包括:1) 设备设置(GPU/CPU);2) 天气识别数据集的准备和预处理;3) YOLOv5 Backbone模型搭建,包含Conv、Bottleneck、C3和SPPF等关键模块;4) 60个epoch的训练过程,最终测试准确率达到93.8%;5) 训练过程的Loss和Accuracy可视化分析。整个实现过程完整展示了从数据准备到模型训练评
2025-12-17 18:59:22
383
原创 Pytorch学习系列08 | YOLOv5-C3模块实现
本文介绍了YOLOv5中的C3模块及其在天气识别任务中的应用。C3模块基于CSP架构改进,通过分治策略将输入特征图分为两部分处理,既减少了计算量又保证了特征丰富性。实验使用1125张天气图片(cloudy/rain/shine/sunrise),采用80/20划分训练测试集,构建了包含Conv和C3模块的CNN模型。经过20轮训练,模型在测试集上达到94.67%准确率,损失0.204。可视化结果显示训练过程收敛良好,最终保存了最佳模型参数。该方案验证了C3模块在图像分类任务中的有效性。
2025-12-11 19:38:18
978
原创 小白入门LangChain | 02. 快速上手第一个LangChain应用
本文介绍了如何使用LangChain框架搭建一个完整的对话应用。主要内容包括: LangChain架构:由Prompt模板、LLM模型、Output Parser等核心模块组成,通过管道符|连接各组件。 开发流程: 创建Prompt模板定义对话角色和风格 初始化LLM模型用管道符组装Chain 调用Chain获取结构化结果 示例实现:演示了一个AI角色扮演对话程序,可让AI以不同职业(如医生、编程导师)的身份回答问题,并控制回答风格。 通过这个示例,读者可以快速掌握LangChain的基本工作流程和核心功能
2025-12-07 16:16:36
1093
原创 Pytorch学习系列07 | VGG-16算法实现马铃薯病害识别
本文基于VGG-16卷积神经网络实现了马铃薯植株病害分类任务。首先介绍了VGG-16的核心特点:使用统一3×3卷积核、16层深度结构和小卷积核堆叠策略。实验使用2152张马铃薯叶片图像,划分为训练集和测试集,经过数据增强和标准化处理。构建的VGG-16模型包含5个卷积块和3个全连接层,总参数量1.34亿。经过40轮训练,模型在测试集上达到98.14%的准确率,验证了VGG-16在图像分类任务中的有效性。实验还展示了训练过程的准确率和损失曲线,并对单张测试图像进行了成功预测。结果表明,深度卷积神经网络在植物病
2025-12-04 19:21:36
819
原创 小白入门LangChain | 01.开启AI应用开发之旅
欢迎来到LangChain的世界!如果你是第一次接触LangChain,不用担心,本章会用最通俗易懂的方式,带你了解什么是LangChain,为什么它这么重要,以及如何开始使用它。
2025-12-02 11:25:17
1112
原创 Pytorch学习系列06 | VGG-16算法实现人脸识别
VGG-16 是深度学习计算机视觉领域中非常著名且经典的卷积神经网络(CNN)模型,由牛津大学的 Visual Geometry Group (VGG) 提出。它在 2014 年的 ImageNet 竞赛中取得了极好的成绩,并且因为其结构简洁、规整,至今仍常被用作教学示例或特征提取的基础模型
2025-11-20 13:30:00
1015
原创 Pytorch学习系列05 | 实现运动鞋识别
本文实现了一个基于CNN的运动鞋分类模型。首先配置GPU环境并加载运动鞋数据集,包含训练集和测试集。构建了一个包含卷积层、池化层和全连接层的CNN网络结构,采用交叉熵损失函数和SGD优化器进行训练。通过40个epoch的训练,模型在训练集上准确率达到94.8%,测试集准确率为78.9%。结果显示模型存在一定过拟合现象。最后实现了单张图片的预测功能,并将训练好的模型参数保存为.pth文件。整个实验过程完整展示了PyTorch实现图像分类任务的关键步骤。
2025-11-13 12:41:26
590
原创 Pytorch学习系列04 | 实现猴痘病识别
本文介绍了PyTorch实现猴痘图片分类的完整流程。首先设置GPU环境并准备猴痘数据集(1777张图片),通过数据增强和划分获得训练集(1421)和测试集(356)。构建了一个包含卷积层、批归一化和全连接层的CNN网络(Network_bn),使用交叉熵损失和SGD优化器训练20个epoch。最终模型在测试集上达到82%准确率,训练过程中损失曲线和准确率曲线显示模型收敛良好。文章还展示了单张图片预测示例,并将训练好的模型参数保存为.pth文件。整个流程涵盖了深度学习项目从数据准
2025-11-07 19:45:58
448
原创 Pytorch学习系列03 | 实现天气识别
本文实现了一个基于CNN的天气识别系统,使用PyTorch框架对四种天气类型(cloudy、rain、shine、sunrise)进行分类。主要内容包括:1)数据预处理,使用随机裁剪、翻转等增强方法;2)构建包含卷积层、批归一化和全连接层的CNN网络;3)采用Adam优化器和早停策略进行训练,最终测试准确率达93.3%;4)实现本地图片预测功能。项目展示了从数据加载、模型构建到训练评估的完整流程,并提供了可视化训练曲线。
2025-10-22 21:08:57
441
原创 Pytorch学习系列02 | CIFAR10彩色图片识别
本文介绍了使用CNN进行CIFAR-10图像分类的完整流程。CIFAR-10包含10类共6万张32×32彩色图片。CNN通过卷积核提取局部特征,池化层降维,全连接层分类。实现中构建了3层卷积网络,使用交叉熵损失和SGD优化器。训练10个epoch后,测试准确率达到57.4%,损失降至1.203。文中详细说明了数据预处理、网络架构、训练过程和结果可视化方法,为深度学习初学者提供了完整的图像分类实践案例。
2025-10-15 19:31:37
1110
原创 Pytorch学习系列01 | 实现mnist手写数字识别
本文介绍了使用PyTorch实现MNIST手写数字识别的完整流程。首先讲解了CNN的基本结构,包括卷积层、池化层和全连接层等核心组件。然后详细展示了数据准备、模型构建(包含2个卷积层和2个全连接层)、训练和测试过程。通过5个epoch的训练,模型在测试集上达到了98.2%的准确率。最后对训练过程中的准确率和损失进行了可视化分析,验证了模型的有效性。整个项目完整演示了使用PyTorch构建CNN模型进行图像分类的标准流程。
2025-10-10 12:52:26
851
原创 NLP学习系列 | 构建词典
本文介绍了NLP系统中构建词典的核心方法。关键步骤包括:根据任务类型确定词典方向,组合通用语料、领域语料和权威词典作为数据源,通过清洗、分词、停用词过滤等预处理,设计包含词汇、词性、频次等字段的词典结构。提供了自动、半自动和手动三种构建方法,并强调需要定期迭代更新。代码实践部分演示了使用jieba分词、清除标点符号和停用词,以及通过torchtext构建词汇表的过程,最终实现文本数字化。这些方法为后续NLP学习奠定了基础。
2025-09-26 22:44:40
1446
原创 NLP学习系列 | one-hot编码案例
摘要:独热编码是一种将类别数据转换为数值向量的方法,通过为每个类别生成二进制向量(仅对应位为1)实现。它解决了类别数据的平等表示问题,消除虚假顺序关系。实现步骤包括构建词汇表、分配索引和生成独热向量。但存在维度灾难(类别多时向量过长)、数据稀疏和忽略语义关联等局限。代码示例展示了中英文文本的独热编码实现过程,包括分词、构建词汇表和生成独热矩阵。该方法简单有效但需权衡计算成本,适合类别较少场景。
2025-09-17 10:00:00
472
原创 NLP学习系列 | BERT和GPT模型代码简单对比
文章摘要: BERT和GPT是两类主流预训练模型,BERT擅长文本理解任务(如分类、问答),采用双向Transformer编码器,通过掩码语言模型(MLM)和下一句预测(NSP)预训练;GPT专精文本生成,基于单向Transformer解码器,通过自回归语言建模预训练。实践对比显示:BERT在中文分词(WordPiece)和句间关系判断表现优异,微调后分类准确率达100%;GPT在英文续写任务中生成连贯文本。适用性方面,BERT适合资源受限的理解任务,GPT更适合少样本生成场景,但需更高算力支持。两者可通过
2025-09-13 19:35:27
1392
原创 NLP项目实战 | Word2Vec对比Glove进行词类比测试
本文介绍了自然语言处理中的词向量应用,包含Word2Vec和FastText两种模型的训练与可视化方法。通过示例语料库,详细展示了模型参数设置、保存加载、词向量降维(PCA和t-SNE对比)以及可视化过程。特别演示了词类比测试功能,并对比了自训练模型与Glove预训练模型的效果差异。结果表明预训练模型在语义理解上表现更优,如"man:woman::king:queen"的类比测试中,Glove能准确预测"queen"。文章提供了完整的代码实现流程,适合NLP初学者实践
2025-09-10 23:26:31
499
原创 Transformer系列 | Pytorch复现Transformer
本文介绍了Transformer模型的原理与PyTorch实现。首先对比了Seq2Seq和Transformer的区别,指出Transformer通过自注意力机制解决了长序列依赖问题。模型结构包含编码器(自注意力层+前馈网络)和解码器(额外增加编码器-解码器注意力层)。文章详细实现了各组件:Scaled Dot-Product Attention、多头注意力、位置编码、前馈网络等,并最终构建完整的Transformer模型。代码展示了32个样本的输入输出维度(10→20词序列),验证了模型正确性。该实现为自
2025-09-10 10:00:00
1903
原创 项目实战 | LSTM火灾温度预测
本文介绍了一个基于LSTM的时间序列预测项目,使用前8个时间步的温度、一氧化碳和烟尘数据预测第9个时间步的温度。主要步骤包括:数据归一化处理、滑动窗口构建监督样本、搭建双层LSTM模型进行训练。采用SGD优化器和余弦退火学习率策略,最终测试集RMSE为7.03,R²达到0.82。项目展示了完整的时序预测流程,包括数据处理、模型构建、训练评估等关键环节,具有较强的可扩展性,可用于其他时间序列预测任务。
2025-09-04 18:11:16
1333
原创 NLP学习系列 | Transformer代码简单实现
本文介绍了Transformer模型的架构实现,重点讲解了多头注意力机制和位置编码等核心组件。文章首先概述了Transformer在2017年论文中提出的背景,然后通过代码详细展示了从数据准备到模型构建的完整流程,包括:1) 超参数设置;2) 数据集分词和词嵌入;3) 位置编码实现;4) 多头注意力机制的计算过程;5) 残差连接和层归一化;6) 前馈网络的构建。文中配有图解说明关键计算步骤,如QKV矩阵运算、注意力掩码和softmax归一化等。最后展示了模型预测部分,并指出训练不足会导致预测不准确的原因。
2025-09-02 22:33:57
2122
原创 深度学习系列 | Seq2Seq端到端翻译模型
Seq2Seq模型是一种序列转换架构,由编码器和解码器组成,能够处理输入输出长度不同的任务(如机器翻译、语音识别)。编码器将输入序列压缩为上下文向量,解码器基于该向量逐步生成输出序列。传统RNN结构的Seq2Seq存在信息瓶颈和误差累积问题。注意力机制的引入通过动态加权编码器各时间步的隐藏状态,显著提升了长序列处理能力。该技术为后续Transformer模型奠定了基础,但存在计算效率低和单向信息流的局限性。
2025-08-30 16:21:48
1510
原创 深度学习系列 | GRU门控循环单元
摘要:GRU(门控循环单元)通过简化LSTM结构(合并输入门/遗忘门为更新门,取消细胞状态),在保留长期记忆能力的同时提升效率,适用于短序列(<50步)和资源受限场景。其核心机制包括重置门(过滤无用信息)和更新门(平衡新旧信息),参数量比LSTM少33%,训练更快且内存占用更低(IoT设备1.8MB)。但长序列处理(>100步)和抗噪声能力弱于LSTM,适合移动端、实时短文本任务(如评论分类),而长文档、高噪声场景仍需LSTM。GRU通过“两门一状态”实现性价比优化,是轻量级门控模型的典型代表。
2025-08-26 06:56:01
1315
原创 深度学习系列 | RNN心脏病预测项目实战
本文介绍了基于PyTorch构建RNN模型进行心脏病风险二分类预测的完整流程。项目使用heart.csv数据集,包含13个生理特征(如年龄、血压等)预测是否患心脏病(0/1)。主要内容包括:1)数据预处理(标准化、划分数据集);2)构建RNN模型(含1个RNN层和2个全连接层);3)训练过程(50个epoch,使用Adam优化器);4)评估结果(最终测试准确率87.1%)。项目适配Mac M1芯片环境,详细展示了从数据加载到模型评估的完整流程,并提供了可视化分析(准确率/损失曲线、混淆矩阵)。该案例可作为R
2025-08-25 19:33:04
1600
原创 深度学习系列 | LSTM长短时记忆网络
LSTM是一种改进的RNN结构,通过"三门一状态"机制解决传统RNN的长期依赖问题。核心组件包括遗忘门(丢弃无用信息)、输入门(存储新信息)和输出门(选择当前有用信息),配合细胞状态实现长序列信息的有效传递。相比RNN,LSTM能处理100步以上的序列,但存在参数量大、训练效率低等局限。其数学实现通过sigmoid门控和tanh激活函数协同工作,在反向传播时能更好地保持梯度。典型案例显示LSTM通过门控机制动态更新记忆细胞状态,在长文本、语音等任务中表现优异,但当序列超长时仍需结合注意力
2025-08-25 13:39:19
1642
原创 深度学习系列 | RNN循环神经网络
RNN(循环神经网络)是一种通过循环结构和参数共享处理变长序列数据的模型,解决了传统模型难以捕捉长距离依赖和参数爆炸的问题。其核心机制是隐藏状态传递历史信息,但存在梯度消失和记忆容量有限的缺陷。相比CNN的固定感受野,RNN能更好地处理文本等需要长距离关联的任务。典型应用包括命名实体识别(每步输出)和文本分类(最终输出)。虽然对10步以上序列效果下降,但通过结束标记能准确识别序列边界。参数共享特性使其计算效率显著高于传统模型。
2025-08-25 13:08:11
1387
原创 深度学习系列 | 常用激活函数
摘要:激活函数是神经网络实现非线性的关键组件,通过将线性计算结果转换为非线性输出,使网络能够处理复杂模式。常见激活函数包括:Sigmoid(输出0-1,适合概率)、Tanh(输出-1-1,对称性强)、ReLU(简单高效但易导致神经元"死亡")和LeakyReLU(改进ReLU,避免完全失效)。虽然激活函数解决了线性模型的局限性,但也存在梯度消失、神经元死亡等问题。代码示例展示了不同激活函数的特性曲线,直观比较其差异。合理选择激活函数对网络性能至关重要。
2025-08-24 13:46:38
1209
原创 深度学习系列 | 交叉熵误差
摘要: 交叉熵是分类任务中衡量预测与真实分布差异的损失函数,数值越小表示预测越准。其核心思想是通过量化“离谱程度”引导模型优化,相比均方误差更适用于分类(如解决梯度消失问题)。以猜谜游戏类比:预测概率偏离真实答案时,交叉熵值增大,促使模型调整参数。数学上,二分类和多分类场景分别有对应公式,通过负对数惩罚错误预测。但交叉熵对异常值敏感,且需注意类别不平衡问题。典型应用如结合softmax输出概率,实现多分类模型训练。
2025-08-23 19:24:08
1265
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅