自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(127)
  • 收藏
  • 关注

原创 文献阅读:MedSEBA: Synthesizing Evidence-Based Answers Grounded in Evolving Medical Literature

本文介绍了一种基于NLP技术的MedSEBA系统,旨在解决医学信息检索中的立场识别问题。该系统通过PubMed检索相关文献,利用大型语言模型(GPT-4o)生成结构化答案,包括核心论据、立场标签和时间轴可视化。相比传统检索工具,MedSEBA能评估研究对特定医学问题的支持程度,并整合分歧结论。系统采用向量相似度重排序文献,并通过元数据分析提高结果可靠性。尽管存在摘要完整性等局限,但该系统为医学研究者和普通用户提供了更可靠的循证医学信息获取途径。更多内容详见博客网站rn.berlinlian.cn。

2026-03-19 12:20:40 266

原创 循环神经网络的问题:梯度消失与梯度爆炸|Problems with RNNs: Vanishing and Exploding Gradients

本文探讨了循环神经网络(RNN)在序列建模中的梯度问题。文章首先指出RNN在实际训练中表现出"短视"特性,难以记住长距离信息,其核心原因是反向传播中的梯度消失问题。通过数学推导分析了梯度消失的本质,并对比了梯度爆炸现象。文中用语言模型案例说明梯度消失如何影响模型捕捉长期依赖关系,最后介绍了梯度裁剪这一常用解决方案。作者将持续分享斯坦福CS224N课程相关内容,欢迎访问博客网站rn.berlinlian.cn获取更多计算机知识。

2026-03-17 14:15:33 355

原创 困惑度|Perplexity

本文介绍了语言模型的核心概念和评价指标。语言模型本质上是预测下一个词的概率分布系统,RNN等架构是实现语言模型的工具。文章重点阐述了困惑度(Perplexity)的定义和作用,将其理解为模型预测时的"等可能性选择"数量,并揭示其与交叉熵损失函数的数学关系。通过对比n-gram模型与深度学习模型的困惑度数据,展示了RNN、LSTM等架构在语言建模上的优势。困惑度越低,表明模型对语言的建模能力越强。本文是作者学习斯坦福大学CS224N课程的笔记,更多内容可在作者博客rn.berlinlian

2026-03-15 11:54:13 353

原创 循环神经网络RNN|Recurrent Neural Networks, RNN

本文介绍了循环神经网络(RNN)的核心架构及其在自然语言处理中的应用。首先分析了传统神经网络在处理序列数据时的局限性,然后详细阐述了RNN的权值共享机制和隐藏状态的核心计算公式。文章重点讲解了如何构建RNN语言模型,包括词嵌入、隐藏状态更新和预测输出分布等关键环节。同时介绍了训练RNN时使用的交叉熵损失函数和Teacher Forcing策略,以及随时间反向传播(BPTT)算法的实现原理和优化技巧。最后探讨了RNN在文本生成中的应用,展示了其从预测到创作的潜力。

2026-03-13 17:32:56 390

原创 固定窗口神经语言模型|A fixed-window neural Language Model

本文介绍了基于固定窗口的神经语言模型,对比传统n-gram模型具有解决稀疏性和存储优化的优势。文章首先回顾语言模型的任务本质是预测序列中的下一个词,然后详细阐述了固定窗口模型的四个核心步骤:输入层词向量转换、拼接机制、隐藏层计算和输出层softmax处理。虽然该模型相比n-gram有所突破,但仍存在上下文长度受限、权重不均衡等问题,这些问题推动了后续RNN模型的发展。作者正在学习斯坦福大学CS224N课程,将持续分享NLP相关知识。更多内容可访问博客网站rn.berlinlian.cn。

2026-03-11 13:30:22 375

原创 n-gram语言模型|n-gram Language Model

本文介绍了自然语言处理中的语言模型概念,重点讲解了n-gram语言模型的工作原理。文章首先阐述了语言模型的核心任务是预测下一个词的概率分布,并详细说明了如何通过n-gram方法和马尔可夫假设来简化计算。接着分析了n-gram模型面临的稀疏性问题及其解决方案(平滑和回退),最后讨论了文本生成过程和n-gram模型的局限性(上下文窗口有限导致逻辑不连贯)。文章指出这些局限性正是推动神经网络语言模型发展的动因。更多计算机知识欢迎访问作者博客rn.berlinlian.cn。

2026-03-09 16:36:45 443

原创 优化器|Optimizer

本文系统介绍了神经网络优化算法的发展历程与技术要点。首先阐述了优化算法在深度学习中的核心地位,分析了SGD及其调优策略(学习率调度、数据洗牌等)。随后详细讲解了自适应优化器的演进逻辑,包括Adagrad、RMSprop和Adam的原理与优劣,特别指出Adam作为通用起点的优势。最后探讨了现代优化器AdamW和NAdamW的创新点,如权重衰减解耦和Nesterov加速机制。文章结合斯坦福CS224N课程内容,为NLP领域优化算法选择提供了专业指导。

2026-03-07 15:52:17 380

原创 Dropout

本文探讨了深度神经网络中的过拟合问题及Dropout正则化技术。文章首先分析了过拟合现象及其危害,随后详细介绍了Dropout的工作原理:在训练时随机丢弃部分神经元,迫使网络学习更鲁棒的特征。文章从特征共适应抑制、模型集成视角等角度阐述了Dropout的有效性机理,并讨论了测试阶段的权值缩放策略。最后给出了不同层Dropout率的设定建议,指出使用Dropout时需要增加网络容量并延长训练时间。该技术能显著提升模型泛化能力,是深度学习中的重要正则化方法。

2026-03-04 18:53:37 392

原创 文献阅读:Quality control stress test for deep learning-based diagnostic model in digital pathology

在医疗科技飞速发展的今天,数字病理学正迎来它的“高光时刻”。通过深度学习模型(Deep Learning),计算机能够以惊人的速度在成千上万张病理切片中捕捉到前列腺癌等疾病的蛛丝马迹。在理想的实验室环境下,这些算法的准确率往往能超过 98%,表现得像一位经验老道的专家。然而,实验室里的“理想状态”与繁忙医院里的“真实世界”之间,隔着一道名为。

2026-03-02 15:16:46 671

原创 文献阅读:Artificial Intelligence and Digital Pathology: Challenges and Opportunities

通过对这篇论文的深入分析,我们可以清晰地看到,人工智能在数字病理领域的应用正处于一个“希望与挑战并存”的十字路口。正如论文所述,我们正站在病理学转型的门槛上。虽然目前还没有大规模商业化的 AI 驱动病理软件工具 ,但通过合理的管理和技术创新,人工智能终将成为病理学家手中不可或缺的利器。这是我在我的网站中截取的文章,有更多的文章欢迎来访问我自己的博客网站rn.berlinlian.cn,这里还有很多有关计算机的知识,欢迎进行留言或者来我的网站进行留言!!!

2026-02-25 23:13:17 593

原创 文献阅读:A Probabilistic U-Net for Segmentation of Ambiguous Images

本文提出了一种创新的Probabilistic U-Net模型,用于解决医学影像分割中的固有歧义性问题。该模型结合U-Net结构和条件变分自编码器(CVAE),通过潜在空间编码多种合理分割可能性,能生成结构完整且符合解剖逻辑的多样化预测。实验表明,模型不仅能准确还原专家标注的多样性,还能精确预测不同标注出现的频率,在DGED指标上显著优于传统方法。这种生成式分割方法为医疗AI决策提供了更全面的可能性分析,标志着处理医学影像不确定性的重要突破。更多技术细节请访问博客网站rn.berlinlian.cn。

2026-02-01 21:31:10 661

原创 依存句法分析|Dependency Parsing

本文介绍了自然语言处理中两种主流句法分析方法:成分句法分析和依存句法分析。成分句法分析通过嵌套结构组织词语,而依存句法分析则直接描述词间二元关系。文章详细阐述了依存句法的形式化定义、约束条件和关系类型标注,并探讨了如何利用依存结构消除句法歧义(如介词短语附件歧义和协调范围歧义)以及提取语义信息。最后介绍了从传统转移算法到神经网络解析器的技术演进,以及评价解析器的UAS和LAS指标。文章来自作者博客rn.berlinlian.cn,基于斯坦福CS224N课程内容编写。

2026-01-29 11:55:27 948

原创 计算图与反向传播|Computational Graph and Backpropagation

本文介绍了深度学习中的计算图概念及其在反向传播中的应用。计算图通过节点和边将数学运算可视化,其中前向传播计算输出结果,反向传播则通过局部梯度和链式法则传递梯度。文章通过具体数值案例展示了梯度计算过程,并强调统一反向传播的高效性。最后指出现代深度学习框架通过自动微分简化了开发,同时建议使用数值梯度检查验证自定义算子实现。更多计算机知识可访问博客网站rn.berlinlian.cn。

2026-01-27 10:41:24 877

原创 神经网络计算基础与矩阵求导|The Foundation of Neural Network Computation and Matrix Derivatives

本文揭示了神经网络本质上是并行逻辑回归的层级组合,通过矩阵化前向传播和非线性激活实现数据的重表示。文章以NER任务为例,展示了从词向量到预测概率的数据流向,并解析了反向传播中的雅可比矩阵和维度对齐等关键技术。核心观点包括:神经网络通过层级堆叠实现非线性特征学习;矩阵运算简化了深层网络的计算;非线性激活函数避免了线性坍缩;工程实现需严格遵循维度对齐规则。这些数学原理为理解现代深度学习框架提供了理论基础。

2026-01-22 19:01:10 794

原创 解构语义:从词向量到神经分类|Decoding Semantics: Word Vectors and Neural Classification

本文探讨了NLP分类任务的核心挑战与解决方案。文章首先分析语言的离散符号特性与连续语义之间的矛盾,介绍了从独热编码到分布式表示的演进过程。针对多义词处理难题,提出了线性叠加假说和多原型模型两种解决方案。随后详细阐述了从逻辑回归到深层感知器的分类器演进,包括神经单元、多层架构和目标函数的设计原理。最后以命名实体识别(NER)任务为例,展示了深度神经网络如何通过上下文窗口和特征拼接解决多义性问题。文章指出深度学习的本质优势在于实现了表示学习与分类学习的同步优化,为NLP任务提供了更强大的解决方案。

2026-01-11 16:18:11 910

原创 词向量——从 Word2vec 到 GloVe 的演进之路|Word Embeddings: The Evolution from Word2vec to GloVe

摘要:本文系统介绍了词向量技术的发展历程与核心算法。首先指出传统one-hot编码无法表达语义关系的缺陷,引出分布式语义假设和词向量空间概念。重点解析了Word2vec算法,包括其Skip-gram模型、softmax概率计算、负采样优化等关键技术。同时对比了共现矩阵方法和GloVe模型的优势,最后讨论了词向量评估标准及其局限性。全文通过数学公式和算法流程图,深入浅出地展现了词向量如何实现语义表示,为自然语言处理奠定了重要基础。

2026-01-10 12:56:02 652

原创 词向量 —— 从 WordNet 到 Word2Vec 的演进|Word Embeddings —— The Evolution from WordNet to Word2Vec

本文探讨了计算机如何理解语言"意义"的问题。首先分析了传统方法WordNet和独热编码的局限性,指出其无法有效处理语义关联和新词。随后重点介绍了分布式语义理论和Word2Vec模型,通过预测上下文词来学习词向量表示。文章详细解析了Skip-gram模型的架构设计、数学原理和优化过程,展示了词向量在语义空间中的聚类特性。最后指出了静态词向量的局限性,并简要提及BERT等动态词向量技术的优势。文章内容源自斯坦福大学CS224N课程,更多计算机知识可访问作者博客网站rn.berlinlian.

2026-01-07 18:41:39 1000

原创 Measure of Impurity: GINI|杂质度量:基尼系数

本文详细介绍了基尼指数(Gini Index)在决策树算法中的应用。基尼指数用于衡量节点的"混乱程度",取值0-1,值越小表示节点越纯净。文章阐述了二分类和多分类问题下的基尼指数计算方法,以及针对不同属性类型(二元、离散、连续)的分裂策略。通过具体实例演示了如何计算整体数据集和各属性的基尼指数,并选择最优划分属性构建决策树。文中还提供了高效计算连续属性分裂点的方法。更多计算机相关知识可访问博客网站rn.berlinlian.cn。

2025-11-29 15:07:16 1048

原创 Classification: Basic Concepts and Techniques|分类:基本概念与技术

本文系统介绍了分类任务的基本概念与方法。首先区分了有监督学习和无监督学习,阐述了分类的定义与常见应用场景。然后详细讲解了分类模型构建的完整流程,包括数据收集、预处理、模型选择、训练评估和部署等关键步骤。重点介绍了决策树算法,涵盖Hunt算法、测试条件设计(针对名义、有序和连续属性)、最优划分确定(基尼指数、信息熵等指标)等内容。文章还对比了基础分类器和集成分类器的特点,通过具体示例展示了决策树从训练到预测的全过程。更多计算机相关文章可访问作者博客网站rn.berlinlian.cn。

2025-11-26 13:29:24 785

原创 Data Preprocessing|数据预处理

在机器学习或数据挖掘中,我们常听到一句话:“数据质量决定模型上限”。这句话背后的核心,其实就是数据预处理(Data Preprocessing)。在真正建模之前,我们拿到的数据往往是杂乱的、不完整的、有噪声的,如果直接丢给模型训练,得到的结果通常不稳定、误差大,甚至完全没有参考价值。所以,在课程中,数据预处理被称为机器学习流程中最容易被忽略、但最重要的一步。1.1 数据预处理是什么?从课程角度来看,数据预处理是指:在对数据进行建模和分析之前,对原始数据进行整理、转换和优化的一系列操作,目的是

2025-11-25 14:14:22 1050

原创 Mutual Information|互信息

在信息论中,熵(Entropy) 是一个核心概念,它描述了系统中不确定性的程度。通过计算熵,我们可以衡量一个随机变量在平均意义上包含了多少信息量。换句话说,熵越高,代表系统越混乱、越不可预测。然而,熵只能反映单个随机变量的特性。在现实世界中,我们更关心的是两个变量之间的关系。例如,一个学生的考试成绩是否与他平时的出勤率相关?股票价格是否受到市场情绪的影响?这些问题都超越了单个变量的范围。

2025-11-24 12:58:14 680

原创 Understanding and Calculation of Entropy|熵的理解与计算

在信息论中,熵(Entropy)用来衡量一个随机变量的不确定性大小。简单理解:一个系统越“混乱”、越难预测,它的熵就越大;一个系统越“有序”、结果越确定,它的熵就越小。比如:如果抛一枚均匀的硬币,正反两面出现的概率各是 0.5,这时结果很难预测,熵比较大。如果这枚硬币被动过手脚,抛出去几乎每次都是正面,那么结果几乎确定,熵就非常小,甚至接近 0。从本质上看,熵描述的是:平均需要多少比特的信息,才能描述一个事件的结果。

2025-11-23 16:32:28 1342

原创 Correlation vs Cosine vs Euclidean Distance|相关性vs余弦相似度vs欧氏距离

本文系统比较了数据分析中三种常用的相似度度量方法:Pearson相关系数、余弦相似度和欧氏距离。相关系数关注变量的线性趋势变化,对缩放和平移不敏感;余弦相似度衡量向量方向一致性,适用于文本分析等场景;欧氏距离计算绝对数值差异,对缩放平移敏感。文章通过具体案例展示了三种方法在不同变换下的表现差异,并提供了应用场景选择指南:文本相似度推荐余弦相似度,温度时间序列分析适用相关系数,绝对温度比较适合欧氏距离。理解这些方法的本质区别有助于在实际问题中选择合适的度量工具。更多计算机相关内容可访问作者博客网站rn.ber

2025-11-21 14:26:43 906 1

原创 Correlation|相关性

摘要:本文深入探讨了数据分析中的核心概念——相关性。首先介绍了相关性的基本定义及其在商业和科研中的应用价值。重点讲解了皮尔逊相关系数的数学原理,包括协方差和标准差的计算方法,并通过可视化图表展示不同强度的正相关、负相关和无相关关系。文章特别强调相关性的局限性:不意味着因果关系、仅反映线性关系、可能出现偶然相关等。最后提醒读者谨慎解读相关性结果,避免得出错误结论。更多计算机知识请访问作者博客网站rn.berlinlian.cn。

2025-11-20 13:02:30 1212

原创 Types of data sets|数据集的类型

文章摘要:本文系统介绍了三种核心数据类型:记录型数据(Record Data)、图数据(Graph Data)和有序数据(Ordered Data)。记录型数据以表格形式组织,包括数值型Data Matrix、文本型Document Data等变体;图数据通过节点和边表示网络关系,适用于社交网络分析等领域;有序数据强调顺序意义,涵盖时间序列、购物行为序列和时空数据等类型。文章详细解析了每类数据的特点、应用场景及分析方法,为数据处理和分析实践提供了分类基础。访问作者博客rn.berlinlian.cn可获取更

2025-11-18 14:06:11 1058

原创 Important Characteristics of Data|数据的重要特征

本文系统介绍了数据挖掘中的四个关键特征:维度性、稀疏性、分辨率与数据规模。维度性影响计算复杂度与可视化难度;稀疏性要求关注非零信息而非缺失值;分辨率决定数据细节程度,需根据分析目标选择合适粒度;数据规模则直接影响存储与计算需求。理解这些特征对选择分析方法、预处理策略及计算框架至关重要。更多计算机相关知识请访问博客rn.berlinlian.cn。

2025-11-17 11:25:24 857

原创 Types of Attributes|属性类型

本文介绍了数据挖掘与机器学习中的四种属性类型及其数学性质。名义属性(Nominal)仅能判断相等性(如颜色),有序属性(Ordinal)可排序但差值无意义(如满意度等级),区间属性(Interval)允许加减运算但无真实零点(如温度℃),比率属性(Ratio)支持所有数学运算(如重量kg)。不同属性类型决定了适用的分析方法,如k-means算法无法处理名义属性。文章通过具体示例阐明了各类属性的特征与应用限制。更多技术内容见作者博客rn.berlinlian.cn。

2025-11-13 12:57:30 924

原创 Clustering vs Classification|聚类vs分类

摘要:本文对比了机器学习中的分类(Classification)与聚类(Clustering)技术。分类属于有监督学习,依赖已标注数据建立特征与标签的映射关系,用于预测新样本类别(如垃圾邮件识别、医疗诊断)。聚类则是无监督学习,通过数据相似性自动发现潜在结构(如客户分群、主题发现)。两者在学习方式(监督vs无监督)、目标(预测vs探索)和应用场景上存在根本差异。文章还展示了它们的工作机制和实际应用案例,强调二者相辅相成,共同构成机器学习的重要分析框架。更多计算机知识欢迎访问博客网站rn.berlinlian

2025-11-11 14:10:59 805

原创 Regression vs. Classification|回归vs分类

本文系统介绍了机器学习中回归与分类两类核心任务的区别。回归用于预测连续值(如房价、温度),分类用于预测离散类别(如垃圾邮件识别)。文章从定义、实例、应用场景和模型方法等方面对比了两者差异:回归拟合数值关系,分类划分决策边界;分别采用MSE/MAE和准确率/召回率等评估指标。典型回归模型包括线性回归、神经网络回归,分类模型则包含逻辑回归、决策树等。尽管目标不同,两者都通过学习输入输出映射关系实现预测,且在实际应用中常需配合使用。文章强调理解这一区别是掌握监督学习的基础。更多计算机知识可访问博客网站rn.ber

2025-11-10 11:01:34 922

原创 Data Mining Tasks|数据挖掘任务

这是我在我的网站中截取的文章,有更多的文章欢迎来访问我自己的博客网站,这里还有很多有关计算机的知识,欢迎进行留言或者来我的网站进行留言!!!数据挖掘(Data Mining)是现代数据分析的重要组成部分,它的核心目标是从大量数据中提取潜在的、有用的知识与规律。随着大数据与人工智能的发展,数据挖掘已成为企业决策、科学研究与社会治理的重要支撑技术。从广义上看,数据挖掘是一种将数据转化为信息、再将信息转化为知识的过程。它不仅关注结果预测,也关注模式发现;

2025-11-09 15:56:05 1618

原创 Similarity and Dissimilarity Measures|相似性和不相似性度量

本文介绍了数据挖掘和机器学习中相似性与不相似性度量的概念和应用。相似性度量用于量化数据对象间的相似程度,常见方法包括余弦相似度和Jaccard系数;不相似性度量则反映差异程度,如欧氏距离和曼哈顿距离。二者可相互转换,并在聚类、推荐系统、图像识别等领域发挥关键作用。理解这些度量方法对于数据分析算法的实现和效果至关重要。更多计算机知识可访问博客网站rn.berlinlian.cn。

2025-11-08 17:37:08 1273

原创 Mahalanobis Distance|马氏距离

摘要:马氏距离是一种考虑变量相关性的距离度量方法,通过协方差矩阵对数据进行标准化,能更准确地衡量多维数据的差异。与欧氏距离相比,马氏距离能自动调整特征权重,消除冗余信息,其几何意义表现为根据数据分布形成的椭圆等距线。文章详细介绍了马氏距离的数学定义、计算步骤和几何解释,并阐述了其在异常检测、模式识别、聚类分析等领域的应用价值。该距离度量方法特别适用于存在特征相关性或不同尺度的高维数据分析场景。

2025-11-06 10:58:12 866

原创 Manhattan Distance|曼哈顿距离

在数学上,曼哈顿距离定义为两个点在各个坐标轴上的绝对差值之和。如果我们有两个 n 维空间中的点 i=(xi1,xi2,...,xin) 和 j=(xj1,xj2,...,xjn),那么它们之间的曼哈顿距离定义如下:这意味着,曼哈顿距离并不计算“直线距离”,而是逐维度地对比两个点在各个坐标上的差异,然后将这些差值的绝对值相加。换句话说,它衡量的是两点之间沿着坐标轴方向“走多少步”才能相互到达。

2025-11-05 11:28:53 757

原创 Similarity Between Binary Vectors|二元向量的相似性

本文对比了衡量二元向量相似度的两种方法:简单匹配系数(SMC)和杰卡德系数。SMC同时考虑"都为1"和"都为0"的匹配情况,适用于特征分布均衡的场景;而杰卡德系数仅关注"共同为1"的特征,更适合稀疏数据分析和共现特征计算。通过实际案例演示了两种方法的计算过程,并指出SMC强调整体一致性,杰卡德更关注有效交集。文章建议根据数据类型选择合适方法:均衡分布用SMC,稀疏数据用杰卡德。更多计算机知识欢迎访问作者博客rn.berlinlian.cn。

2025-11-04 22:09:30 731

原创 Cosine Similarity|余弦相似度

本文介绍了余弦相似度在数据分析和机器学习中的重要性。相比距离度量方法,余弦相似度通过计算向量夹角的余弦值来衡量方向一致性,有效解决了高维数据中长度差异带来的影响。文章详细阐述了其数学定义、取值范围和几何意义,并通过实例演示计算过程。余弦相似度广泛应用于文本分析、推荐系统、图像识别等领域,特别适合处理稀疏高维数据。未来在深度学习和嵌入表示中,余弦相似度仍将发挥重要作用。更多技术文章请访问作者博客rn.berlinlian.cn。

2025-11-03 11:18:01 867

原创 Minkowski Distance|闵可夫斯基距离

本文介绍了机器学习中常用的距离度量方法,重点阐述了闵可夫斯基距离(Minkowski Distance)作为广义距离度量的普适性。通过调整参数r,它可以退化为多种常见距离:r=1时为曼哈顿距离(适用于离散数据),r=2时为欧氏距离(适合连续空间),r→∞时为切比雪夫距离(强调最大偏差)。文章通过具体计算示例展示了不同r值下的距离差异,并分析了它们在聚类、分类等任务中的应用场景。欢迎访问博客网站rn.berlinlian.cn获取更多计算机相关知识。

2025-11-02 12:03:09 2351

原创 Euclidean Distance|欧式距离

本文介绍了欧式距离(Euclidean Distance)的概念与应用。欧式距离是衡量n维空间中两点"直线距离"的常见方法,源于勾股定理推广。文章通过几何直观解释了二维和三维空间的欧氏距离计算,并给出实例展示其在数据分析中的应用。文中还讨论了实际应用中的注意事项,包括标准化处理、高维数据挑战以及典型应用场景如KNN算法、K-Means聚类和异常检测等。欢迎访问作者博客rn.berlinlian.cn获取更多计算机相关知识。

2025-11-01 15:09:57 967

原创 Algorithm refinement: Mini-batch and Soft Update|算法改进:小批量和软更新

本文对比了全量学习(Batch Learning)与小批量学习(Mini-batch Learning)的差异,指出小批量方法通过随机采样部分数据,在加速训练的同时引入噪声,有助于模型跳出局部最优。文章还探讨了强化学习中的Replay Buffer机制,它通过存储和随机采样经验数据来减少相关性。最后介绍了Soft Update方法,通过渐进式参数更新提高训练稳定性。这些技术共同优化了模型训练效率与稳定性。更多计算机知识详见作者博客rn.berlinlian.cn。

2025-10-31 13:48:03 1022

原创 Algorithm Refinement: ε-Greedy Policy|算法改进:ε-贪婪策略

这是我在我的网站中截取的文章,有更多的文章欢迎来访问我自己的博客网站,这里还有很多有关计算机的知识,欢迎进行留言或者来我的网站进行留言!!!

2025-10-30 21:43:17 1067

原创 Algorithm Refinement: Improved Neural Network Architecture|算法改进:改进的神经网络架构

该文对比了强化学习中深度Q网络(DQN)的两种架构设计。原始架构需要拼接状态和动作作为输入,每次只能计算单个动作的Q值,导致计算冗余、效率低下。改进后的架构仅输入状态,网络一次性输出所有动作的Q值,显著提升了计算效率和稳定性。文章详细分析了两种架构的特点,指出改进后的设计通过并行计算实现了更快的收敛速度、更好的泛化能力,并总结了这种结构优化带来的启示。欢迎访问作者博客rn.berlinlian.cn获取更多计算机知识。

2025-10-27 11:40:32 1085

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除