与数学的约会
文章平均质量分 53
数学原理&数学小实验
Top Secret
忙着毕业,暂不回复。
展开
-
聚类效果评估
评价聚类结果效果的指标通常有:误差平方和(Sum of the Squared Errors, SSE),轮廓系数(Silhouette Coefficient)和CH指标(Calinski-Harabaz)。原创 2023-06-13 15:29:21 · 1761 阅读 · 0 评论 -
数学实验——函数绘图实验
3、程序设计及运行结果(1)Octave代码如下:clc;clear;a=1;b=1;x=[-10:0.1:10];y=(b^2*(x.^2/a^2-1)).^0.5;plot(x,y,'k');title('x^2/a^2-y^2/b^2=1,x=-+b/a*x Asymptote')hold onplot(x,-y,'k')plot(-x,y,'k')plot(-x,-y,'k')%渐近线 x=-10:0.1:10;plot(x,b/a.*x,'r')plot(..原创 2022-04-19 15:43:38 · 709 阅读 · 0 评论 -
利用Octave做混沌实验
clc;clear;y=@(k,x)k*x-k*x^2;for k=0:0.04:4 x0=0.1; for i=1:100 x0=y(k,x0); if i>50 plot(k,x0,'.b') hold on; end endend当0<a<1时,系统只有一个稳定点,且为零点。当1<a<3.2时,该方程迭代结果出现一个分支,趋于一个稳定点,且方程...原创 2022-01-07 17:46:59 · 693 阅读 · 0 评论 -
利用Octave做分形几何
利用计算机绘出Sierpinski三角形:Octave代码如下:clc;clear;points1=rand(3,2); %Random pointpoints2=rand(1,2);%Random reference pointN=10000;all_points=zeros(N+3,2);all_points(1:3,:)=points1;for i=1:N points2=(points1(randi([1,3],1),:)+points2)/2; all_原创 2022-01-07 17:42:31 · 297 阅读 · 0 评论 -
概率统计实验
clc;clear;n=100;N=10000;d=0.1; Nx=zeros(1,16/d+1); f=zeros(1,16/d+1); X=zeros(1,n);for i=1:N R=rand(n,1); s=sum(R); X(i)=(s-0.5*n)/(n^0.5);endfor j=1:16/d+1 x=(-8)+(j-1)*d; for i=1:N g=X(i); if(( x-d/2<...原创 2022-01-07 17:50:47 · 202 阅读 · 0 评论 -
协方差矩阵
对两个类内协方差矩阵进行对角化,可以将它们变换为对角矩阵。这个过程可以通过对每个协方差矩阵进行特征值分解来实现,从而得到它们的特征向量和特征值,进而得到它们的对角矩阵形式。这个过程的意义在于,它可以帮助我们找到一个新的坐标系,使得在这个坐标系下,每个特征之间都是独立的,从而简化了计算。具体来说,当我们使用对角协方差矩阵作为特征向量的坐标系时,它意味着每个特征之间都是相互独立的,从而方便了进一步的分析和处理。在实际应用中,对角化协方差矩阵可以用于降维、特征选择和分类等任务。原创 2023-05-05 19:22:07 · 10354 阅读 · 0 评论 -
黎曼几何与黎曼流形
例如内积、范数、平均值等。这些概念可以被用来构建各种机器学习和优化算法,用于处理具有黎曼流形结构的数据集。原创 2023-05-05 19:03:24 · 3531 阅读 · 1 评论 -
Kullback-Leibler散度(KL散度)
2.使用KL散度测量丢失的信息。转载 2023-05-03 19:26:51 · 8635 阅读 · 0 评论 -
广义特征值问题
当直接求解原始问题(广义特征值问题本身)的时候,通用的求解全部广义特征值的方法叫QZ算法,具体细节和QR算法很类似,这也是eig函数求解的一种标准算法. QZ算法在处理Ax=λBx的时候不需要严格要求B非奇异.广义特征值问题可以转换成标准特征值问题以后利用QR算法求解,这个时候需要B的逆存在. 所以求解一般的广义特征值问题,不建议将其转换成标准特征值问题再进行求解.原文链接:https://blog.csdn.net/lagoon_lala/article/details/120800667。转载 2023-04-09 18:37:05 · 999 阅读 · 0 评论 -
数学原理—嵌入矩阵
这些模型通常是基于神经网络的,其目标是最小化嵌入向量之间的距离,使得具有相似上下文的词被嵌入到相近的位置。嵌入矩阵中每一行对应于一个单词的向量表示,可以将这些向量用于不同的自然语言处理任务,例如语言模型、文本分类和命名实体识别等。训练嵌入模型:使用准备好的训练数据,对嵌入模型进行训练,通常使用随机梯度下降等优化算法来最小化模型的损失函数。需要注意的是,嵌入矩阵的维度和嵌入模型的超参数(例如窗口大小、负采样次数等)都会对嵌入效果产生影响,需要在训练前进行调参。,以便于在这个共享的空间中进行分类或回归任务。原创 2023-03-26 22:21:46 · 1216 阅读 · 0 评论 -
数学原理—最小重构误差
最小重构误差(Minimum Reconstruction Error)是指在信号处理、数据压缩等领域中,用来衡量原始数据和经过压缩或降维后的数据之间差异程度的一个指标。它是指原始数据与压缩后重构数据之间的差异程度的最小值。在信号处理领域,最小重构误差通常用于衡量信号经过采样、量化、编码等操作后重构信号与原始信号之间的差距。在数据压缩领域,最小重构误差则用于衡量压缩算法对原始数据的压缩效果。最小重构误差越小,说明重构后的数据与原始数据的差距越小,压缩或降维效果越好。原创 2023-03-26 13:25:52 · 1743 阅读 · 0 评论 -
数学基础理论
中心化矩阵(Centering Matrix)是一种用于线性代数和多元分析中的正方形矩阵。它是一种矩阵,用于将数据矩阵中的列居中,即通过转换矩阵,使数据矩阵的每一列均值为零。通常,中心化矩阵被定义为 I - (1/n)J,其中 I 是单位矩阵,n 是数据矩阵的行数或列数,J 是所有元素都为 1 的矩阵。所得到的中心化矩阵具有对称性和幂等性,也就是说,当它与自己相乘时,会产生相同的矩阵。中心化矩阵在各种应用中都有广泛的使用,包括主成分分析、因子分析和回归分析等。原创 2023-03-26 13:20:47 · 1554 阅读 · 0 评论