自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

huanfeng_AI的博客

知识就要多分享

  • 博客(830)
  • 资源 (1)
  • 收藏
  • 关注

原创 人工智能之数学基础:黑塞矩阵(Hessian Matrix)

在多元函数优化的领域中,黑塞矩阵(Hessian Matrix)犹如一把精准的钥匙,能够打开函数局部曲率结构的奥秘之门。这个由德国数学家Ludwig Otto Hesse于19世纪提出的数学工具,通过二阶偏导数的对称方阵形式,为理解复杂函数的极值特性提供了关键视角。本文我们将学习一个特殊的矩阵,叫做黑塞矩阵,这个矩阵是由多元函数的二阶偏导数组成的矩阵。

2026-03-17 22:47:02 115

原创 人工智能之数学基础:梯度

梯度是多元函数对应的一个向量值函数,在场论中也可视为将标量场作用为向量场的算子。对于一个具有n个自变量的多元函数fx1​,x2​,⋯,xn​),其在某一点Px10​,x20​,⋯,xn0​) 处的梯度 ∇f是一个向量,其定义为:梯度非常简单,只需要将梯度看成是函数沿着各个坐标轴偏导数组成的向量。它不仅包含了函数在每个方向上的变化率信息,还通过向量的方向和模长反映了函数变化的综合特征。

2026-03-17 22:45:49 2

原创 每天五分钟深度学习:其它解决过拟合问题的技术

在前面的章节中,我们介绍了几种解决神经网络过拟合问题的方法,比如L2正则化以及随机失活技术。那么在本节课程我们将再介绍几种常见的解决过拟合问题的技术。

2026-03-14 22:02:50 36

原创 人工智能之数学基础:方向导数

在之前的课程中我们学习了导数和偏导数,对于多元函数来说就是偏导数,偏导数可以认为是函数值沿坐标轴方向的变化率,但是很多的时候,我们需要求解函数在某点处沿某一指定方向的变化率,那么沿着某一方面的方向的变化率就是我们所说的方向导数。

2026-03-14 21:38:41 124

原创 人工智能之数学基础:多元复合函数求导的链式法则

前面我们学习了一元复合函数求导的链式法则,本文我们学习多元复合函数的链式求导法则。链式法则是微积分中处理复合函数求导的核心工具,其本质是的思维模式。在多元函数中,若函数z通过中间变量u、v等依赖于自变量x、y,则z对x的导数需考虑所有通过中间变量的“影响路径”,每条路径的贡献为路径上各导数的乘积,最终结果为所有路径贡献之和。

2026-03-14 21:37:04 392

原创 人工智能之数学基础:全微分的介绍

以二元函数为例,函数f(x,y)在(x0,y0)的邻域内有定义,如果存在两个实数A、B,使得有如下式子成立:其中A和B为不依赖△x和△y的常数,则称函数在点(x0,y0)处可微,将A△x+B△y称为在点(x0,y0)处的全微分。可以将△x记为dx,△y记为dy,此时全微分也可以表示为Adx+Bdy。

2026-03-12 23:01:41 341

原创 人工智能之数学基础:多元函数的偏导数

在前面的课程中我们学习了一元函数,所有的函数都有导数,多元函数也不例外,不过多元函数不叫做导数,而是叫做偏导数,下面我们来学习一下多元函数的偏导数。

2026-03-12 23:00:10 25

原创 人工智能之数学基础:什么是多元函数?

多元函数是相对于一元函数而言的,它是指有多个自变量的函数。一般地,设D是n维空间R^n中的一个点集,对于D中的每一个点 (x1​,x2​,⋯,xn​),按照某一确定的法则f,都有唯一确定的实数y与之对应,那么就称f是定义在D上的n元函数,记作yfx1​,x2​,⋯,xn​),其中x1​,x2​,⋯,xn​ 称为自变量,y称为因变量,点集D称为该函数的定义域。

2026-03-11 22:16:38 26

原创 人工智能之数学基础:变上限积分

假设函数f(x)在区间[a,b]内可积,x∈[a,b],则变上限积分定义为:根据牛顿莱布尼兹公式公式可得:注意此时变积分上限积分不是一个定制,而是一个函数,x的取值不同,变积分上限积分的值也是不同的。变上限积分作为微积分学中的重要概念,以其独特的性质和广泛的应用,成为了解决各种实际问题的有力武器。它不仅深化了我们对微分和积分之间关系的理解,更为数学在其他学科领域的应用奠定了坚实的基础。

2026-03-11 22:15:57 171

原创 人工智能智能之数学基础:定积分的介绍

定积分是微积分学的核心概念之一,它通过将连续变化的问题离散化,再通过极限过程将离散结果“缝合”为连续解,为计算面积、体积、弧长等几何量,以及解决物理中的功、流量、概率分布等问题提供了系统方法。在前面的课程中,我们学习了不定积分,本文我们将学习定积分。

2026-03-10 22:03:27 142

原创 人工智能之数学基础:一元不定积分的介绍

对于定义在区间[a,b]内的函数f(x),如果存在一个区间(a,b)内的可导函数F(x),对于任意的x∈(a,b)均有F'(x)=f(x),那么可以将F(x)认为是f(x)的一个原函数,也可以将可导函数F(x)+C称为不定积分,可以将不定积分表示为:其中,fx)称为被积函数dx表示对变量x积分。不定积分的本质是寻找所有满足微分关系的原函数族,常数C体现了原函数在垂直方向上的平移自由度——这是微分运算中信息丢失的必然结果。

2026-03-10 22:00:55 35

原创 人工智能之数学基础:微分的介绍以及导数和微分之间的关系

函数yfx) 在点x0​ 处的导数为:若该极限存在,则称fx) 在x0​ 处可导。关键点导数是增量比Δy​ / Δx的极限,反映了函数变化的瞬时速率;导数存在要求函数在x0​ 处连续,但连续不一定可导(如fx)=∣x∣ 在x=0 处连续但不可导)。导数是微分的“灵魂”,定义了变化的本质;微分是导数的“载体”,将瞬时变化率转化为可操作的线性工具。

2026-03-05 23:35:41 158

原创 人工智能之数学基础:函数的凹凸性

函数的凹凸性是连接函数局部性质与全局行为的关键桥梁。通过二阶导数、一阶导数单调性或定义法,可系统判定函数的凹凸性,并进一步分析其几何意义与应用场景。在经济学中,凹凸性揭示了边际变化的规律;在优化理论中,凸性保证了算法的高效性。

2026-03-05 23:19:58 46

原创 人工智能之数学基础:极值点的判断

本文我们将学习函数的另一个重要性质,极值点。极值点就是一个函数的最值点,比如最大值、最小值。

2026-02-28 21:56:00 128

原创 人工智能之数学基础:函数的单调性(导数)

在前面的课程中,我们学习了导数,导数可以决定可导函数的一些重要性质,其中之一就是单调性。函数的单调性是微积分中的核心概念之一,其与导数的关系通过导数的符号特征得以精确刻画。

2026-02-28 21:54:29 286

原创 人工智能之数学基础:高阶导数

高阶导数通过多层次刻画函数的变化特征,不仅深化了对函数局部性质的理解,还在科学计算、工程建模、经济分析等领域发挥关键作用。掌握高阶导数的计算方法与应用场景,需结合具体函数形式分析其导数规律,并注重理论与实践的结合。其思想更延伸至微分方程理论、数值分析等领域,成为连接数学与实际问题的桥梁。

2026-02-25 10:51:06 37

原创 人工智能之数学基础:一元函数链式法则

链式法则通过“分解—求导—组合”的逻辑,将复杂复合函数的导数问题转化为基本初等函数的导数计算。其思想不仅贯穿微积分学,更延伸至多元函数偏导数、高阶导数等领域,成为分析变量间间接依赖关系的关键工具。掌握链式法则,需理解其数学本质、熟练应用多层复合情形,并能结合实际问题建立正确的复合函数模型。

2026-02-25 10:50:20 24

原创 人工智能之数学基础:一阶导数

导数定义为函数的自变量变化值趋向于0时,函数值的变化量与自变量变化量比值的极限,在x点处的导数为:如上所示,就是函数f(x)在点x处的导数,它的几何意义是函数在点(x,f(x))处切线的斜率,反应了函数在此处变化的快慢。除了使用f'(x)可以表示导数之外,还可以使用dy/dx来表示导数。这一定义蕴含着深刻的哲学思想:通过无限逼近的极限过程,将离散的增量比转化为连续的变化率,从而捕捉到函数在瞬间的“动态特征”。

2026-02-24 16:18:26 39

原创 人工智能之数学基础:函数的连续性

如果函数f(x)满足:那么我们就可以称函数f(x)在a点处连续。从数学角度来说就是函数f(x)在a点处的极限(必须要有极限)就是函数在a点的值。从几何角度来说就是函数在a点处没有端,是完整连接的。

2026-02-24 16:17:29 375

原创 人工智能之数学基础:函数的极限

极限思想萌芽于古代数学家对无穷小问题的探索。古希腊哲学家芝诺的“阿基里斯追龟”悖论首次触及连续与离散的矛盾,而中国《庄子·天下篇》中“一尺之棰,日取其半,万世不竭”的论述则直观描述了无穷级数的收敛性。极限是微积分的基础。

2026-02-23 10:33:05 123

原创 人工智能之数学基础:贝叶斯、极大似然、后验估计的关系

极大似然估计(MLE)属于频率学派方法,认为参数是固定但未知的常数。其核心思想是:在给定观测数据的情况下,寻找使该数据出现概率最大的参数值。例如,抛硬币实验中,若观察到10次中有7次正面,MLE会估计正面概率为0.7,因为它直接最大化观测结果的似然性,不依赖任何先验假设。贝叶斯估计属于贝叶斯学派方法,将参数视为随机变量,服从某种先验分布。其核心思想是:结合先验信息和观测数据,通过贝叶斯定理更新参数的后验分布,最终通过后验分布的期望、中位数或众数进行点估计。

2026-02-23 10:24:09 296

原创 人工智能之数学基础:贝叶斯公式

我们前面学习了先验分布、后验分布、极大似然估计,它们之间的关系可以通过贝叶斯公式来表示:如上所示就是贝叶斯公式,本文我们将更近一步,通过一些例子看一下贝叶斯公式是如何使用的?

2026-02-18 21:39:34 51

原创 人工智能之数学基础:频率学派和贝叶斯学派

在这个世界上对概率的看法分为两种,一种是频率学派,另外一种是贝叶斯学派。这两个学派的目的其实是一个,但是却是具有不同的角度,不同的思维方式。

2026-02-18 21:33:49 52

原创 人工智能之数学基础:先验分布、后验分布、极大似然

P(因)就是先验概率,比如P(温度),展开来说就是p(温度=37摄氏度)=0.1、p(温度=38摄氏度)=0.2等等。先于结果,确定原因的概率分布,就是先验分布。

2026-02-14 09:59:55 34

原创 人工智能之数学基础:极大后验估计

在前面的课程中,我们学习了极大似然估计,学习完极大似然估计之后我们举了一个投硬币的例子,我们发现极大似然估计出现了问题,那么要想解决这个问题,我们需要使用另外一种估计方法,这个估计方法叫做最大后验估计。此时除了极大似然估计之外,还会有一个先验概率帮助解决问题,这样就可以解决上一篇文章中极大似然估计出现的问题了。

2026-02-14 09:58:39 178

原创 人工智能之数学基础:掷硬币和极大似然估计

掷硬币是概率论中最经典的实验之一,而极大似然估计(Maximum Likelihood Estimation, MLE)则是统计学中用于参数估计的核心方法。将掷硬币与极大似然估计结合,可以直观地理解MLE的核心思想及其应用场景。

2026-02-12 19:13:39 43

原创 机器学习江湖的十大“武林高手”

逻辑回归会把线性回归的“直线”变成一条“S形曲线”,把输出值压缩到0到1之间,代表“是”或“否”的概率。不过,决策树也有它的“小脾气”——如果树长得太深,可能会“过拟合”,就像小孩搭积木时太追求完美,反而忽略了整体结构。他们各有各的“独门功夫”,有的擅长“以柔克刚”,有的专攻“以快打慢”,有的则能“以不变应万变”。决策树就像一个爱搭积木的小孩,总能把复杂的问题拆解成一个个简单的“是”或“否”的选择?”,如果答案是“是”,再问“他的预算够吗。它让机器不仅能“看”和“听”,还能“理解”和“创造”。

2026-02-03 22:56:05 527

原创 人工智能之数学基础:极大似然估计和逻辑回归

极大似然估计与逻辑回归之间存在着紧密且深刻的联系,极大似然估计为逻辑回归提供了坚实的理论基础,而逻辑回归则是极大似然估计在分类问题中的典型应用。

2026-02-03 22:55:10 228

原创 每天五分钟深度学习PyTorch:卷积和池化后图片会有什么变化?

卷积和池化,这两个词听起来像厨房里的操作——一个像“搅拌食材”,一个像“过滤汤汁”。实际上,它们在图像处理里干的事儿也差不多:卷积负责“提取特征”,池化负责“压缩信息”。经过这两步,图片会从“原始像素堆”变成更有“内涵”的特征图,就像把一堆散沙捏成有形状的雕塑。

2026-02-02 23:09:39 261

原创 人工智能之数学基础:机器学习和极大似然估计

在机器学习的江湖里,若说算法是各路高手的独门绝技,那极大似然估计就像藏在剑鞘里的锋芒——看似低调,实则贯穿始终。它不是某个具体招式,而是一种“让数据自己说话”的底层逻辑,甚至可以说,许多经典算法的“内功心法”都藏着它的影子。

2026-02-02 23:00:22 107

原创 人工智能之数学基础:极大似然估计

极大似然估计法是在总体的分布类型已知的前提下使用的一种参数估计法,也就是说你必须知道总体分布是什么。设总体X的概率函数为p(x,θ),这是样本x是离散型的情况,连续型时为概率密度函数为f(x, θ),X1,X2,…,Xn是抽自总体X的随机样本。p(x,θ)或者f(x,θ)表示是在参数θ下样本x出现的概率或者概率密度。注意:联合概率就是同时发生的概率,所以要用乘法。如上所示就是样本的联合概率函数或者是联合概率密度函数,在这个函数中θ是未知数,但是一个固定值,

2026-01-31 23:23:43 430

原创 Flink:分布式系统中状态一致性

比如, 如果我们统计电商网站的 UV,需要对每个用户的访问数据进行去重处理,所以即使同一个数 据被处理多次,也不会影响最终的结果,这时使用 at-least-once 语义是完全没问题的。当然, 如果重复数据对结果有影响,比如统计的是 PV,或者之前的统计词频 word count,使用 at-least-once 语义就可能会导致结果的不一致了。对于 Flink 来说,多个节点并行处理不 同的任务,我们要保证计算结果是正确的,就必须不漏掉任何一个数据,而且也不会重复处理 同一个数据。

2026-01-31 23:05:48 262

原创 Flink:检查点Checkpoint的介绍

Checkpoint是Flink中的一种容错机制,用于保证在发生故障时数据的一致性和可恢复性。它的核心思想是将应用程序的状态保存到可靠的存储系统中,以便在发生故障时能够恢复到之前的状态。Checkpoint的实现原理是通过将应用程序的状态序列化为二进制数据,并将其写入持久化存储系统中。在Flink中,可以通过手动触发或自动触发的方式来使用Checkpoint,并可以通过一些配置参数来调整Checkpoint的行为。

2026-01-30 22:29:08 143

原创 人工智能之数学基础:参数估计在模型训练中的应用

深夜的实验室里,屏幕蓝光映着研究员小林的脸。他盯着数据分布图上那团模糊的“云”,手指在键盘上悬停——这团云代表用户点击行为的概率分布,可它的形状参数θ像被迷雾笼罩的山峰,看不见摸不着。这种场景,每个机器学习从业者都熟悉:我们总在假设数据服从某种概率分布,可那些藏在分布里的关键参数,却像调皮的精灵,非得通过训练才能现身。

2026-01-30 22:26:31 174

原创 人工智能之数学基础:参数估计之矩估计

优点:简单易行, 不需要事先知道总体是什么分布。缺点:当总体的分布类型已知时,未充分利用分布所提供的信息。此外,一般情形下,矩估计不具有唯一性,比如上面的例子五。

2026-01-29 23:11:53 178

原创 Flink:算子状态(Operator State)之状态类型

在前面的课程中我们学习了按键分区状态,本文开始我们学习算子状态。算子状态不考虑key的隔离,不同的key只要被分到同一个并行子任务中就会访问到同一个状态。

2026-01-29 23:08:22 101

原创 Flink:按键分区状态之状态生存时间(TTL)

在前面的课程中我们学习了状态,状态是被保存在内存中的,如果不进行处理,那么内存总会有被耗尽的时候。所以我们必须要管理好状态,不再程序会出问题。

2026-01-24 23:15:34 113

原创 人工智能之数学基础:统计量的抽样分布

在前面的课程中我们学习了总体分布和样本分布,本文我们将学习抽样分布。

2026-01-24 23:12:18 439

原创 人工智能之数学基础:数学中常用统计量及其应用

由样本推断总体的某些情况时,需要对样本进行“加工”,构造出若干个样本的已知且确定的函数,其作用是把样本中所含的某一方面的信息集中起来。这种不含任何未知参数的样本的已知函数称为统计量。统计量完全由样本所决定。

2026-01-21 22:54:49 62

原创 Flink:按键分区状态之状态支持的数据结构

在前面的课程中,我们学习了Flink中的状态,在Flink中状态有多种数据结构,不同的数据结构适应不同的任务,本文对此进行学习。

2026-01-21 22:40:42 115

servlet-api.jar

这个是servlet的jar包,很多时候我们想要开发web资源的时候,经常会发现缺少这个jar包,还需要去tomcat中查找,比较麻烦。

2020-06-19

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除