matlab 算法集锦

算法集锦

决策树-划分点

function [n,h]=huafendian1(x)
%n返回增益
%h返回划分点
%假设0代表第一类
%假设1代表第二类
%输入x第一列为属性,第二列为用于学习的分类结果

[~,m]=sort(x(:,1));%按小到大排序
x=x(m,:);
t=[];
for i=1:size(x,1)-1
t=[t;(x(i,1)+x(i+1,1))/2];%生成划分点
end
%原分类结果信息熵
E1=[];
C1=length(find(x(:,2)==0))/size(x,1);%第一类比例
C2=length(find(x(:,2)==1))/size(x,1);%第二类比例
E1=-[C1*log2(C1),C2*log2(C2)];
E1(find(isnan(E1),1))=0;%0*log2(0)=NaN,这里是将NaN转化为0,如果纯度100%,则信息熵为0
E1=sum(E1);
%候选划分点信息增益
Ent=[];
if E1>0
for i=1:size(t,1)
x1=x(:,1);
%根据划分点将数据列转化成0和1
%这里默认的是数据越小越倾向第一类
b1=find(x1<=t(i,1));
b2=find(x1>t(i,1));
x1(b1)=0;
x1(b2)=1;
x2=[x1,x(:,2)];%【重新划分的数据列,因变量】
c1=length(find(x2(:,1)==0))/size(x2,1);
c2=length(find(x2(:,1)==1))/size(x2,1);
d1=length(find(x2(find(x2(:,1)==0),2)==0))/size(find(x2(:,1)==0),1);
d2=length(find(x2(find(x2(:,1)==0),2)==1))/size(find(x2(:,1)==0),1);
d3=length(find(x2(find(x2(:,1)==1),2)==0))/size(find(x2(:,1)==1),1);
d4=length(find(x2(find(x2(:,1)==1),2)==1))/size(find(x2(:,1)==1),1);
E=[d1*log2(d1),d2*log2(d2);d3*log2(d3),d4*log2(d4)];
E(find(isnan(E),1))=0;%0*log2(0)=NaN,这里是将NaN转化为0,最多有三个NaN,这里预设三个语句即可
E(find(isnan(E),1))=0;
E(find(isnan(E),1))=0;
E=sum(sum(-E.*[c1,c1;c2,c2]));%重新划分后的信息熵
Ent(i,1)=E1-E;%信息增益
end
[n,m]=max(Ent);
h=t(m);

else%如果已经达到100%纯度则n和h均返回0
n=0;
h=0;
end

随机森林
RBF神经网络(多维)

clc,clear;
close all;
%% 产生训练样本(训练输入,训练输出)
% ld为样本例数
ld=400; 
% 产生2*ld的矩阵 
x=rand(2,ld); 
% 将x转换到[-1.5 1.5]之间
x=(x-0.5)*1.5*2; 
% x的第一行为x1,第二行为x2.
x1=x(1,:);
x2=x(2,:);
% 计算网络输出F值
F=20+x1.^2-10*cos(2*pi*x1)+x2.^2-10*cos(2*pi*x2);
%% 建立RBF神经网络 
eg=1e-30;%目标误差
sc=1;%扩展速度
mn=ld;%最大聚类中心数
display=1;%训练展示,如果是1每增加一个隐藏节点,也就是聚类中心,就会展示下训练误差情况,默认间隔50打印出一次训练误差
net = newrb(x,F,eg,sc,mn,display);%RBF网络训练
%% 建立测试样本
interval=0.1;
[i, j]=meshgrid(-1.5:interval:1.5);
row=size(i);
tx1=i(:);
tx1=tx1';
tx2=j(:);
tx2=tx2';
tx=[tx1;tx2];
%% 使用建立的RBF网络进行模拟,得出网络输出
ty=sim(net,tx);
%% 使用图像,画出3维图
% 真正的函数图像
interval=0.1;
[x1, x2]=meshgrid(-1.5:interval:1.5);
F = 20+x1.^2-10*cos(2*pi*x1)+x2.^2-10*cos(2*pi*x2);
figure
subplot(1,3,1)
mesh(x1,x2,F);
zlim([0,60])
title('真正的函数图像')
% 网络得出的函数图像
v=reshape(ty,row);
subplot(1,3,2)
mesh(i,j,v);
zlim([0,60])
title('RBF神经网络结果')
% 误差图像
subplot(1,3,3)
mesh(x1,x2,F-v);
zlim([0,60])
title('误差图像')

主成分分析


X=[124.3000 134.7000 193.3000 118.6000 94.9000 123.8000
 2.4200 2.5000 2.5600 2.5200 2.6000 2.6500
 25.9800 21.0000 29.2600 31.1900 28.5600 28.1200
 19.0000 19.2500 19.3100 19.3600 19.4500 19.6200
 3.1000 3.3400 3.4500 3.5700 3.3900 3.5800
 79.0000 84.0000 92.0000 105.0000 108.0000 108.0000
 54.1000 53.7000 54.0000 53.9000 53.6000 53.3000
 6.1400 6.7400 7.1800 8.2000 8.3400 8.5100
 3.5700 3.5500 3.4000 3.2700 3.2000 3.1000
 64.0000 64.9600 65.6500 67.0100 65.3400 66.9900]';
mapping.mean = mean(X, 1);
X = X - repmat(mapping.mean, [size(X, 1) 1]);%去均值
C = cov(X);%协方差矩阵
C(isnan(C)) = 0;
C(isinf(C)) = 0;
[M, lambda] = eig(C);%求C矩阵特征向量及特征值
[lambda, ind] = sort(diag(lambda), 'descend');%排序
lambda=lambda./sum(lambda);
lambda=cumsum(lambda);
mapping.lambda = lambda;
k=find(lambda>0.95);
M = M(:,ind(1:k(1)));%%取前k列
mappedX = X * M;%降维后的X
mapping.M = M;%映射的基

方差分析

A=[31.9   24.8   22.1
   27.9   25.7   23.6
   31.8   26.8   27.3
   28.4   27.9   24.9
   35.9   26.2   25.8]; %原始数据输入
[p,anovatab,stats]=anova1(A);%单因素方差分析
fa=finv(0.95,anovatab{2,3},anovatab{3,3});%计算fa
F=anovatab{2,5};%F值
if p<=0.01 && F>fa
    disp('非常显著')
elseif p<=0.05 && F>fa
    disp('显著')
else
    disp('不显著')
end

logistic回归

clc,clear;
close all;
shuju = [0.8+0.2*rand(20,2),ones(20,1)
    0.7+0.2*rand(20,2),zeros(20,1)];
X=shuju;
a1=find(X(:,end)==0);
a2=find(X(:,end)==1);
figure
hold on
plot(shuju(a1,1),shuju(a1,2),'r*')
plot(shuju(a2,1),shuju(a2,2),'b*')

Y=X(:,end);
X(:,end)=[];
X=[ones(size(X,1),1) X];%新增一列常数项
[m,n]=size(X);
%数据归一化处理
X=mapminmax(X',0,1)';

%设定学习率为0.01
delta=0.1;
%初始化参数
f=@(a,x)1./(1+exp(-(a(1).*x(1,:)+a(2).*x(2,:)+a(3).*x(3,:))));
a=lsqcurvefit(f,[1 1 1],X',Y');
theta1=a;

%%训练模型
%正则化后的梯度下降算法θ的更新公式
num=100000;
while num>0
    tmp=X*theta1';
    h=1./(1+exp(-tmp));
    theta1=theta1-delta*mean((h-Y));
    num =num-1;
end

%测试算法准确率
cc=0;
tmp=X*theta1';
Y1=1./(1+exp(-tmp));
for i=1:m
    if Y1(i)>=0.5
        Y1(i)=1;
    else
        Y1(i)=0;
    end
end
1-sum(abs(Y1-Y))/size(Y,1)
a1=find(Y1==0);
a2=find(Y1==1);
hold on
plot(shuju(a1,1),shuju(a1,2),'ro')
plot(shuju(a2,1),shuju(a2,2),'bo')
legend({'第1类','第2类','logistic第1类','logistic第2类'},'Location','northwest','NumColumns',1)

非线性最小二乘

clc,clear;
close all;
shuju=[1.54  1.61 1.62 1.66 1.71 1.72 1.73 1.86 1.92  2 2.21 2.29  2.34 2.38 2.42 2.44  2.57 2.64 2.71 2.85  2.93 3.01 3.14 3.22  3.34 3.49 3.55 3.79  3.99 4.12
    20.1 20.1 20.3 20.4 20.4 20.5 20.6 20.7 20.9 21.1 21.3 21.5 21.7 21.9 22 22.2 22.4 22.5 22.7 22.7 22.8 22.9 23.4 23.7 24.4 24.9 25.3 27.4 28.4 29.1
    5.17 5.14 5.13 5.10  5.08 5.03 5.01 4.99  4.93 4.91 4.89 4.81  4.77 4.75 4.62 4.56  4.5  4.48 4.46 4.31 4.28  4.19 4.12 3.99 3.91  3.84 3.75 3.64 3.51  3.5];
x1=shuju(1,:);%x1、x2为自变量
x2=shuju(2,:);
c=shuju(3,:);%c为因变量
x0=[1 1 1 1];%四个参数的初始值
d=length(x0);
f=@(a,x)0.08*(ones(1,30)-(x(1,:)./7).*(ones(1,30)-a(1)*(ones(1,30)-((x(1,:)./7).^a(2))).*exp(a(3)*sqrt((x(2,:))./2982))))+ones(1,30)*a(4);
a=lsqcurvefit(f,x0,[x1;x2],c)
%%作图
B=0.08*(ones(1,30)-(x1./7).*(ones(1,30)-a(1)*(ones(1,30)-((x1./7).^a(2))).*exp(a(3)*sqrt((x2)./2982))))+a(4)*ones(1,30);
figure
plot3(x1,x2,c,'*')
hold on
plot3(x1,x2,B)
legend('原数据','拟合数据')

figure
plot(c-B)

词云图

figure
wordcloud(ZZ,cs);
title('词云')

数据包络评价

数据包络分析(Data envelopment
analysis,DEA)是运筹学和研究经济生产边界的一种方法。该方法一般被用来测量一些决策部门的生产效率。

clc,clear;
close all;
format long
data=[14.40 0.65 31.30 3621.00 0.00
16.90 0.72 32.20 3943.00 0.09
15.53 0.72 31.87 4086.67 0.07
15.40 0.76 32.23 4904.67 0.13
14.17 0.76 32.40 6311.67 0.37
13.33 0.69 30.77 8173.33 0.59
12.83 0.61 29.23 10236.00 0.51
13.00 0.63 28.20 12094.33 0.44
13.40 0.75 28.80 13603.33 0.58
14.00 0.84 29.10 14841.00 1.00]';
 
X=data([1:3],:);%X为输入变量
Y=data([4:5],:);%Y为输出变量
[m,n]=size(X);
s=size(Y,1);
A=[-X' Y'];%由于目标函数求最小,这里的-X就转化成了求最大
b=zeros(n,1);
LB=zeros(m+s,1);UB=[];
for i=1:n
   f=[zeros(1,m) -Y(:,i)'];
   Aeq=[X(:,i)',zeros(1,s)];
   beq=1;
   w(:,i)=linprog(f,A,b,Aeq,beq,LB,UB);%前3列为投入系数,后2列为产出系数
   E(i,i)=Y(:,i)'*w(m+1:m+s,i);%产出值*产出系数
end
theta=diag(E)';
fprintf('用DEA方法对此的相对评价结果为:\n');
disp(theta);

协同推荐算法
FCM聚类
K-means聚类

clc,clear;
close all;
data=rand(50,2);
K=3
[Idx,C,sumD,D]=kmeans(data,K,'dist','sqEuclidean','rep',4);
%K: 表示将X划分为几类,为整数
%Idx: N*1的向量,存储的是每个点的聚类标号
%C: K*P的矩阵,存储的是K个聚类质心位置
%sumD: 1*K的和向量,存储的是类间所有点与该类质心点距离之和
%D: N*K的矩阵,存储的是每个点与所有质心的距离

%'dist’(距离测度)
%'sqEuclidean' 欧式距离(默认时,采用此距离方式)
%'cityblock' 绝度误差和,又称:L1
%'cosine' 针对向量
%'correlation'  针对有时序关系的值
%'Hamming' 只针对二进制数据

%'Start'(初始质心位置选择方法)
%'sample' 从X中随机选取K个质心点
%'uniform' 根据X的分布范围均匀的随机生成K个质心

%kmeans函数详情请edit调出函数文件查看

%绘制散点图
gscatter(data(:,1),data(:,2),Idx)

KNN分类算法

邻近算法,或者说K最近邻(KNN,K-NearestNeighbor)分类算法是数据挖掘分类技术中最简单的方法之一。所谓K最近邻,就是K个最近的邻居的意思,说的是每个样本都可以用它最接近的K个邻近值来代表。近邻算法就是将数据集合中每一个记录进行分类的方法

%在Matlab中利用kNN进行最近邻查询
X=[0.5.*rand(50,1);0.3+0.5.*rand(50,1)];%产生X
Y=[0.5.*rand(50,1);0.3+0.5.*rand(50,1)];%产生Y
Z=[ones(50,1);2.*ones(50,1)];%产生类别
figure
gscatter(X,Y,Z)  %点图,颜色根据Z中类别区分
legend('Location','best')  %自动生成图列
newpoint = [0.8*rand 0.8*rand];  %待分类的点
line(newpoint(1),newpoint(2),'marker','x','color','k','markersize',10,'linewidth',2)  %绘制待分类的点
Mdl = KDTreeSearcher([X,Y])  ;%创建K树,默认采用欧式距离
%也可以替换距离公式,例如
%Mdl.Distance='cityblock' 曼哈顿距离
%Mdl.Distance='chebychev' 契比雪夫距离
%Mdl.Distance='minkowski' 闵可夫斯基距离
K=10; %邻近点数
[n,d] = knnsearch(Mdl,newpoint,'k',K);  %执行KNN(K近邻)搜索,n返回这K个点的编号,d返回的是距离
line(X(n,1),Y(n,1),'color',[.5 .5 .5],'marker','o','linestyle','none','markersize',10) %绘制周围K个邻近点
tabulate(Z(n));%统计K个邻近点中各类别点的比例,该点归为比例高的一类

PCA图像压缩
缺失数据预测问题(粒子滤波算法)

DBSCAN(Density-Based Spatial Clustering of Applications with
Noise,具有噪声的基于密度的聚类方法)是一种很典型的密度聚类算法,和K-Means,BIRCH这些一般只适用于凸样本集的聚类相比,DBSCAN既可以适用于凸样本集,也可以适用于非凸样本集。

组合评价模型—模糊Borda
BP神经网络
熵权法

clc,clear;
X=[124.3000    2.4200   25.9800   19.0000    3.1000   79.0000   54.1000    6.1400    3.5700   64.0000
  134.7000    2.5000   21.0000   19.2500    3.3400   84.0000   53.7000    6.7400    3.5500   64.9600
  193.3000    2.5600   29.2600   19.3100    3.4500   92.0000   54.0000    7.1800    3.4000   65.6500
  118.6000    2.5200   31.1900   19.3600    3.5700  105.0000   53.9000    8.2000    3.2700   67.0100
   94.9000    2.6000   28.5600   19.4500    3.3900  108.0000   53.6000    8.3400    3.2000   65.3400
  123.8000    2.6500   28.1200   19.6200    3.5800  108.0000   53.3000    8.5100    3.1000   66.9900];
[n,m]=size(X);
for i=1:n
    for j=1:m
        p(i,j)=X(i,j)/sum(X(:,j));
    end
end
%% 计算第 j 个指标的熵值 e(j)
k=1/log(n);
for j=1:m
    e(j)=-k*sum(p(:,j).*log(p(:,j)));
end
d=ones(1,m)-e; % 计算信息熵冗余度
w=d./sum(d) % 求权值 w

层次聚类
LOF异常数据点检测算法
Pearson相关系数,Kendall相关系数和Spearman相关系数
GRNN神经网络
广义回归神经网络general regression neural network(GRNN)
概率神经网络(Probabilistic Neural Network)
秩和比综合评价法

  • 9
    点赞
  • 94
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
说明: 十大算法MATLAB程序,可用于数学建模,算法和程序相对应 十大算法 十大算法\dijkstra 十大算法\dijkstra\dijk.txt 十大算法\Floyd算法 十大算法\Floyd算法\floyd.txt 十大算法\Floyd算法\中国数学建模-数学工具-Floyd最短路算法MATLAB程序.txt 十大算法\免疫算法.txt 十大算法\分治算法 十大算法\分治算法\c程序.txt 十大算法\分治算法\中国数学建模-编程交流-分治算法_1.txt 十大算法\分治算法\中国数学建模-编程交流-分治算法_2.txt 十大算法\动态规划 十大算法\动态规划\中国数学建模-编程交流-动态规划算法_1.txt 十大算法\动态规划\中国数学建模-编程交流-动态规划算法_2.txt 十大算法\动态规划\中国数学建模-编程交流-动态规划算法_3.txt 十大算法\图论 十大算法\图论\哈密尔顿回路 十大算法\图论\哈密尔顿回路\Desktop_.ini 十大算法\图论\哈密尔顿回路\TSP模拟退火 十大算法\图论\哈密尔顿回路\TSP模拟退火\accept.m 十大算法\图论\哈密尔顿回路\TSP模拟退火\annealing.m 十大算法\图论\哈密尔顿回路\TSP模拟退火\calculate.m 十大算法\图论\哈密尔顿回路\TSP模拟退火\cost.mat 十大算法\图论\哈密尔顿回路\TSP模拟退火\cost_sum.m 十大算法\图论\哈密尔顿回路\TSP模拟退火\Desktop_.ini 十大算法\图论\哈密尔顿回路\TSP模拟退火\exchange2.m 十大算法\图论\哈密尔顿回路\TSP模拟退火\exchange3.m 十大算法\图论\哈密尔顿回路\TSP模拟退火\说明.txt 十大算法\图论\哈密尔顿回路\三边交换简单算法 十大算法\图论\哈密尔顿回路\三边交换简单算法\bianquan.m 十大算法\图论\哈密尔顿回路\三边交换简单算法\cost_sum.m 十大算法\图论\哈密尔顿回路\三边交换简单算法\Desktop_.ini 十大算法\图论\哈密尔顿回路\三边交换简单算法\jiaohuan3.m 十大算法\图论\哈密尔顿回路\三边交换简单算法\哈密尔顿回路.rar 十大算法\图论\哈密尔顿回路\三边交换简单算法\说明.txt 十大算法\图论\图论.ppt 十大算法\图论\图论1.pdf 十大算法\图论\图论及其应用.doc 十大算法\图论\最短路f_d.doc 十大算法\图论\用计算机实现图论中的最短路径程序 十大算法\图论\用计算机实现图论中的最短路径程序\Algo7-1.c 十大算法\图论\用计算机实现图论中的最短路径程序\Algo7-2.c 十大算法\图论\用计算机实现图论中的最短路径程序\Algo7-3.c 十大算法\图论\用计算机实现图论中的最短路径程序\Algo7-4.c 十大算法\图论\用计算机实现图论中的最短路径程序\Algo7-5.c 十大算法\图论\用计算机实现图论中的最短路径程序\Algo7-6.c 十大算法\图论\用计算机实现图论中的最短路径程序\Algo7-7.c 十大算法\图论\用计算机实现图论中的最短路径程序\BO7-1.C 十大算法\图论\用计算机实现图论中的最短路径程序\Bo7-2.c 十大算法\图论\用计算机实现图论中的最短路径程序\Bo7-3.c 十大算法\图论\用计算机实现图论中的最短路径程序\Bo7-4.c 十大算法\图论\用计算机实现图论中的最短路径程序\c1.h 十大算法\图论\用计算机实现图论中的最短路径程序\C7-1.H 十大算法\图论\用计算机实现图论中的最短路径程序\C7-2.H 十大算法\图论\用计算机实现图论中的最短路径程序\C7-3.H 十大算法\图论\用计算机实现图论中的最短路径程序\C7-4.H 十大算法\图论\用计算机实现图论中的最短路径程序\F7-1.DAT 十大算法\图论\用计算机实现图论中的最短路径程序\MAIN7-1.c 十大算法\图论\用计算机实现图论中的最短路径程序\Main7-2.c 十大算法\图论\用计算机实现图论中的最短路径程序\Main7-3.c 十大算法\图论\用计算机实现图论中的最短路径程序\Main7-4.c 十大算法\搜索算法 十大算法\搜索算法\中国数学建模-编程交流-搜索算法基础.txt 十大算法\概率算法 十大算法\概率算法\中国数学建模-编程交流-概率算法简介.txt 十大算法\模拟退火算法 十大算法\模拟退火算法\中国数学建模-编程交流-模拟退火算法.txt 十大算法\模拟退火算法\模拟退火算法.txt 十大算法\模拟退火,禁忌搜索,遗传算法,神经网络-MATLAB程序合集 十大算法\模拟退火,禁忌搜索,遗传算法,神经网络-MATLAB程序合集\简单函数优化的遗传算法程序 十大算法\模拟退火,禁忌搜索,遗传算法,神经网络-MATLAB程序合集\简单函数优化的遗传算法程序\cro.m 十大算法\模拟退火,禁忌搜索,遗传算法,神经网络-MATLAB程序合集\简单函数优化的遗传算法程序\ft.m 十大算法\模拟退火,禁忌搜索,遗传算法,神经网络-MATLAB程序合集\简单函数优化的遗传算法程序\ga.m 十大算法\模拟退火,禁忌搜索,遗传算法,神经网络-MATLAB程序合集\简单函数优化的遗传算法程序\init.mat 十大算法\模拟退火,禁忌搜索,遗传算法,神经网络-MATLAB程序合集\简单函数优化的遗传算法程序\main.m 十大算法\模拟退火,禁忌搜索,遗传算法,神经网络-MATLAB程序合集\简单函数优化的遗传算法程序\mut.m 十大算法\模拟退火,禁忌搜索,遗传算法,神经网络-MATLAB程序合集\简单函数优化的遗传算法程序\n2to10.m 十大算法\模拟退火,禁忌搜索,遗传算法,神经网络-MATLAB程序合集\简单函数优化的遗传算法程序\objf.m 十大算法\模拟退火,禁忌搜索,遗传算法,神经网络-MATLAB程序合集\简单函数优化的遗传算法程序\pro.m 十大算法\模拟退火,禁忌搜索,遗传算法,神经网络-MATLAB程序合集\简单函数优化的遗传算法程序\sel.m 十大算法\灰色预测 十大算法\灰色预测\灰色预测.pdf 十大算法\灰色预测\灰色预测MATLAB程序.txt 十大算法\灰色预测\灰色预测法.doc 十大算法\神经网络 十大算法\神经网络\matlab15.pdf 十大算法\神经网络\matlab16.pdf 十大算法\穷举法求解0-1整数规划的matlab程序.txt 十大算法\类比法 十大算法\类比法\数学建模中的类比方法.pdf 十大算法\组合算法 十大算法\组合算法\中国数学建模-编程交流-组合算法概论.txt 十大算法\网上matlab 十大算法\网上matlab\提高matlab运算速度.files 十大算法\网上matlab\提高matlab运算速度.files\index.files 十大算法\网上matlab\提高matlab运算速度.files\index.files\bg.gif 十大算法\网上matlab\提高matlab运算速度.files\index.files\icon_menu_05.gif 十大算法\网上matlab\提高matlab运算速度.files\index.files\icon_menu_06.gif 十大算法\网上matlab\提高matlab运算速度.files\index.files\icon_menu_07.gif 十大算法\网上matlab\提高matlab运算速度.files\index.files\icon_menu_08.gif
各种数学算法MATLAB实现 第4章: 插值 函数名 功能 Language 求已知数据点的拉格朗日插值多项式 Atken 求已知数据点的艾特肯插值多项式 Newton 求已知数据点的均差形式的牛顿插值多项式 Newtonforward 求已知数据点的前向牛顿差分插值多项式 Newtonback 求已知数据点的后向牛顿差分插值多项式 Gauss 求已知数据点的高斯插值多项式 Hermite 求已知数据点的埃尔米特插值多项式 SubHermite 求已知数据点的分段三次埃尔米特插值多项式及其插值点处的值 SecSample 求已知数据点的二次样条插值多项式及其插值点处的值 ThrSample1 求已知数据点的第一类三次样条插值多项式及其插值点处的值 ThrSample2 求已知数据点的第二类三次样条插值多项式及其插值点处的值 ThrSample3 求已知数据点的第三类三次样条插值多项式及其插值点处的值 BSample 求已知数据点的第一类B样条的插值 DCS 用倒差商算法求已知数据点的有理分式形式的插值分式 Neville 用Neville算法求已知数据点的有理分式形式的插值分式 FCZ 用倒差商算法求已知数据点的有理分式形式的插值分式 DL 用双线性插值求已知点的插值 DTL 用二元三点拉格朗日插值求已知点的插值 DH 用分片双三次埃尔米特插值求插值点的z坐标 第5章: 函数逼近 Chebyshev 用切比雪夫多项式逼近已知函数 Legendre 用勒让德多项式逼近已知函数 Pade 用帕德形式的有理分式逼近已知函数 lmz 用列梅兹算法确定函数的最佳一致逼近多项式 ZJPF 求已知函数的最佳平方逼近多项式 FZZ 用傅立叶级数逼近已知的连续周期函数 DFF 离散周期数据点的傅立叶逼近 SmartBJ 用自适应分段线性法逼近已知函数 SmartBJ 用自适应样条逼近(第一类)已知函数 multifit 离散试验数据点的多项式曲线拟合 LZXEC 离散试验数据点的线性最小二乘拟合 ZJZXEC 离散试验数据点的正交多项式最小二乘拟合 第6章: 矩阵特征值计算 Chapoly 通过求矩阵特征多项式的根来求其特征值 pmethod 幂法求矩阵的主特征值及主特征向量 rpmethod 瑞利商加速幂法求对称矩阵的主特征值及主特征向量 spmethod 收缩法求矩阵全部特征值 ipmethod 收缩法求矩阵全部特征值 dimethod 位移逆幂法求矩阵离某个常数最近的特征值及其对应的特征向量 qrtz QR基本算法求矩阵全部特征值 hessqrtz 海森伯格QR算法求矩阵全部特征值 rqrtz 瑞利商位移QR算法求矩阵全部特征值 第7章: 数值微分 MidPoint 中点公式求取导数 ThreePoint 三点法求函数的导数 FivePoint 五点法求函数的导数 DiffBSample 三次样条法求函数的导数 SmartDF 自适应法求函数的导数 CISimpson 辛普森数值微分法法求函数的导数 Richason 理查森外推算法求函数的导数 ThreePoint2 三点法求函数的二阶导数 FourPoint2 四点法求函数的二阶导数 FivePoint2 五点法求函数的二阶导数 Diff2BSample 三次样条法求函数的二阶导数 第8章: 数值积分 CombineTraprl 复合梯形公式求积分 IntSimpson 用辛普森系列公式求积分 NewtonCotes 用牛顿-科茨系列公式求积分 IntGauss 用高斯公式求积分 IntGaussLada 用高斯拉道公式求积分 IntGaussLobato 用高斯—洛巴托公式求积分 IntSample 用三次样条插值求积分 IntPWC 用抛物插值求积分 IntGaussLager 用高斯-拉盖尔公式求积分 IntGaussHermite 用高斯-埃尔米特公式求积分 IntQBXF1 求第一类切比雪夫积分 IntQBXF2 求第二类切比雪夫积分 DblTraprl 用梯形公式求重积分 DblSimpson 用辛普森公式求重积分 IntDBGauss 用高斯公式求重积分 第9章: 方程求根 BenvliMAX 贝努利法求按模最大实根 BenvliMIN 贝努利法求按模最小实根 HalfInterval 用二分法求方程的一个根 hj 用黄金分割法求方程的一个根 StablePoint 用不动点迭代法求方程的一个根 AtkenStablePoint 用艾肯特加速的不动点迭代法求方程的一个根 StevenStablePoint 用史蒂芬森加速的不动点迭代法求方程的一个根 Secant 用一般弦截法求方程的一个根 SinleSecant 用单点弦截法求方程的一个根 DblSecant 用双点弦截法求方程的一个根 PallSecant 用平行弦截法求方程的一个根 ModifSecant 用改进弦截法求方程的一个根 StevenSecant 用史蒂芬森法求方程的一个根 PYZ 用劈因子法求方程的一个二次因子 Parabola 用抛物线法求方程的一个根 QBS 用钱伯斯法求方程的一个根 NewtonRoot 用牛顿法求方程的一个根 SimpleNewton 用简化牛顿法求方程的一个根 NewtonDown 用牛顿下山法求方程的一个根 YSNewton 逐次压缩牛顿法求多项式的全部实根 Union1 用联合法1求方程的一个根 TwoStep 用两步迭代法求方程的一个根 Montecarlo 用蒙特卡洛法求方程的一个根 MultiRoot 求存在重根的方程的一个重根 第10章: 非线性方程组求解 mulStablePoint 用不动点迭代法求非线性方程组的一个根 mulNewton 用牛顿法法求非线性方程组的一个根 mulDiscNewton 用离散牛顿法法求非线性方程组的一个根 mulMix 用牛顿-雅可比迭代法求非线性方程组的一个根 mulNewtonSOR 用牛顿-SOR迭代法求非线性方程组的一个根 mulDNewton 用牛顿下山法求非线性方程组的一个根 mulGXF1 用两点割线法的第一种形式求非线性方程组的一个根 mulGXF2 用两点割线法的第二种形式求非线性方程组的一个根 mulVNewton 用拟牛顿法求非线性方程组的一组解 mulRank1 用对称秩1算法求非线性方程组的一个根 mulDFP 用D-F-P算法求非线性方程组的一组解 mulBFS 用B-F-S算法求非线性方程组的一个根 mulNumYT 用数值延拓法求非线性方程组的一组解 DiffParam1 用参数微分法中的欧拉法求非线性方程组的一组解 DiffParam2 用参数微分法中的中点积分法求非线性方程组的一组解 mulFastDown 用最速下降法求非线性方程组的一组解 mulGSND 用高斯牛顿法求非线性方程组的一组解 mulConj 用共轭梯度法求非线性方程组的一组解 mulDamp 用阻尼最小二乘法求非线性方程组的一组解 第11章: 解线性方程组的直接法 SolveUpTriangle 求上三角系数矩阵的线性方程组Ax=b的解 GaussXQByOrder 高斯顺序消去法求线性方程组Ax=b的解 GaussXQLineMain 高斯按列主元消去法求线性方程组Ax=b的解 GaussXQAllMain 高斯全主元消去法求线性方程组Ax=b的解 GaussJordanXQ 高斯-若当消去法求线性方程组Ax=b的解 Crout 克劳特分解法求线性方程组Ax=b的解 Doolittle 多利特勒分解法求线性方程组Ax=b的解 SymPos1 LL分解法求线性方程组Ax=b的解 SymPos2 LDL分解法求线性方程组Ax=b的解 SymPos3 改进的LDL分解法求线性方程组Ax=b的解 followup 追赶法求线性方程组Ax=b的解 InvAddSide 加边求逆法求线性方程组Ax=b的解 Yesf 叶尔索夫求逆法求线性方程组Ax=b的解 qrxq QR分解法求线性方程组Ax=b的解 第12章: 解线性方程组的迭代法 rs 里查森迭代法求线性方程组Ax=b的解 crs 里查森参数迭代法求线性方程组Ax=b的解 grs 里查森迭代法求线性方程组Ax=b的解 jacobi 雅可比迭代法求线性方程组Ax=b的解 gauseidel 高斯-赛德尔迭代法求线性方程组Ax=b的解 SOR 超松弛迭代法求线性方程组Ax=b的解 SSOR 对称逐次超松弛迭代法求线性方程组Ax=b的解 JOR 雅可比超松弛迭代法求线性方程组Ax=b的解 twostep 两步迭代法求线性方程组Ax=b的解 fastdown 最速下降法求线性方程组Ax=b的解 conjgrad 共轭梯度法求线性方程组Ax=b的解 preconjgrad 预处理共轭梯度法求线性方程组Ax=b的解 BJ 块雅克比迭代法求线性方程组Ax=b的解 BGS 块高斯-赛德尔迭代法求线性方程组Ax=b的解 BSOR 块逐次超松弛迭代法求线性方程组Ax=b的解 第13章: 随机数生成 PFQZ 用平方取中法产生随机数列 MixMOD 用混合同余法产生随机数列 MulMOD1 用乘同余法1产生随机数列 MulMOD2 用乘同余法2产生随机数列 PrimeMOD 用素数模同余法产生随机数列 PowerDist 产生指数分布的随机数列 LaplaceDist 产生拉普拉斯分布的随机数列 RelayDist 产生瑞利分布的随机数列 CauthyDist 产生柯西分布的随机数列 AELDist 产生爱尔朗分布的随机数列 GaussDist 产生正态分布的随机数列 WBDist 产生韦伯西分布的随机数列 PoisonDist 产生泊松分布的随机数列 BenuliDist 产生贝努里分布的随机数列 BGDist 产生贝努里-高斯分布的随机数列 TwoDist 产生二项式分布的随机数列 第14章: 特殊函数计算 gamafun 用逼近法计算伽玛函数的值 lngama 用Lanczos算法计算伽玛函数的自然对数值 Beta 用伽玛函数计算贝塔函数的值 gamap 用逼近法计算不完全伽玛函数的值 betap 用逼近法计算不完全贝塔函数的值 bessel 用逼近法计算伽玛函数的值 bessel2 用逼近法计算第二类整数阶贝塞尔函数值 besselm 用逼近法计算变型的第一类整数阶贝塞尔函数值 besselm2 用逼近法计算变型的第二类整数阶贝塞尔函数值 ErrFunc 用高斯积分计算误差函数值 SIx 用高斯积分计算正弦积分值 CIx 用高斯积分计算余弦积分值 EIx 用高斯积分计算指数积分值 EIx2 用逼近法计算指数积分值 Ellipint1 用高斯积分计算第一类椭圆积分值 Ellipint2 用高斯积分计算第二类椭圆积分值 第15章: 常微分方程的初值问题 DEEuler 用欧拉法求一阶常微分方程的数值解 DEimpEuler 用隐式欧拉法求一阶常微分方程的数值解 DEModifEuler 用改进欧拉法求一阶常微分方程的数值解 DELGKT2_mid 用中点法求一阶常微分方程的数值解 DELGKT2_suen 用休恩法求一阶常微分方程的数值解 DELGKT3_suen 用休恩三阶法求一阶常微分方程的数值解 DELGKT3_kuta 用库塔三阶法求一阶常微分方程的数值解 DELGKT4_lungkuta 用经典龙格-库塔法求一阶常微分方程的数值解 DELGKT4_jer 用基尔法求一阶常微分方程的数值解 DELGKT4_qt 用变形龙格-库塔法求一阶常微分方程的数值解 DELSBRK 用罗赛布诺克半隐式法求一阶常微分方程的数值解 DEMS 用默森单步法求一阶常微分方程的数值解 DEMiren 用米尔恩法求一阶常微分方程的数值解 DEYDS 用亚当斯法求一阶常微分方程的数值解 DEYCJZ_mid 用中点-梯形预测校正法求一阶常微分方程的数值解 DEYCJZ_adms 用阿达姆斯预测校正法求一阶常微分方程的数值解 DEYCJZ_adms2 用密伦预测校正法求一阶常微分方程的数值解 DEYCJZ_ yds 用亚当斯预测校正法求一阶常微分方程的数值解 DEYCJZ_ myds 用修正的亚当斯预测校正法求一阶常微分方程的数值解 DEYCJZ_hm 用汉明预测校正法求一阶常微分方程的数值解 DEWT 用外推法求一阶常微分方程的数值解 DEWT_glg 用格拉格外推法求一阶常微分方程的数值解 第16章: 偏微分方程的数值解法 peEllip5 用五点差分格式解拉普拉斯方程 peEllip5m 用工字型差分格式解拉普拉斯方程 peHypbYF 用迎风格式解对流方程 peHypbLax 用拉克斯-弗里德里希斯格式解对流方程 peHypbLaxW 用拉克斯-温德洛夫格式解对流方程 peHypbBW 用比姆-沃明格式解对流方程 peHypbRich 用Richtmyer多步格式解对流方程 peHypbMLW 用拉克斯-温德洛夫多步格式解对流方程 peHypbMC 用MacCormack多步格式解对流方程 peHypb2LF 用拉克斯-弗里德里希斯格式解二维对流方程的初值问题 peHypb2FL 用拉克斯-弗里德里希斯格式解二维对流方程的初值问题 peParabExp 用显式格式解扩散方程的初值问题 peParabTD 用跳点格式解扩散方程的初值问题 peParabImp 用隐式格式解扩散方程的初边值问题 peParabKN 用克拉克-尼科尔森格式解扩散方程的初边值问题 peParabWegImp 用加权隐式格式解扩散方程的初边值问题 peDKExp 用指数型格式解对流扩散方程的初值问题 peDKSam 用萨马尔斯基格式解对流扩散方程的初值问题 第17章: 数据统计和分析 MultiLineReg 用线性回归法估计一个因变量与多个自变量之间的线性关系 PolyReg 用多项式回归法估计一个因变量与一个自变量之间的多项式关系 CompPoly2Reg 用二次完全式回归法估计一个因变量与两个自变量之间的关系 CollectAnaly 用最短距离算法的系统聚类对样本进行聚类 DistgshAnalysis 用Fisher两类判别法对样本进行分类 MainAnalysis 对样本进行主成分分析
Matlab常用算法大集合: Floyd算法.rar 免疫算法.rar 分治算法.rar 动态规划.rar 图论.rar 学习路线.png 搜索算法.rar 概率算法.rar 模拟退火算法.rar 灰色预测.rar 穷举法求解0-1整数规划的matlab程序.rar 类比法.rar 组合算法.rar 网上matlab.rar 聚类算法.rar 蒙特卡洛.rar 课前必读.txt 贪婪算法.rar 遗传算法.rar 遗传退火法.rar 先进算法讲义.pdf 十大算法 图论算法及其MATLAB实现++完成.pdf 学习路线.png 常用算法PPT.rar 最优化计算机原理与算法程序设计.pdf 第03章 非线性规划.pdf 第04章 动态规划.pdf 第05章 图与网络.pdf 第06章 排队论.pdf 第07章 对策论.pdf 第08章 层次分析法.pdf 第09章 插值与拟合.pdf 第10章 数据的统计描述和分析.pdf 第11章 方差分析.pdf 第12章 回归分析.pdf 第13章 微分方程建模.pdf 第14章 稳定状态模型.pdf 第15章 常微分方程的解法.pdf 第16章 差分方程模型.pdf 第17章 马氏链模型.pdf 第18章 变分法模型.pdf 第19章 神经网络模型.pdf 第20章 偏微分方程的数值解.pdf 第21章 目标规划.pdf 第22章 模糊数学模型.pdf 第23章 现代优化算法.pdf 第24章 时间序列模型.pdf 第25章 存贮论.pdf 第26章 经济与金融中的优化问题.pdf 第27章 生产与服务运作管理中的优化问题.pdf 第28章 灰色系统理论及其应用.pdf 第29章 多元分析.pdf 第30章 偏最小二乘回归.pdf 算法数论.pdf 蒙特卡罗算法案例.pdf 蚁群算法最短路径matlab程序.doc 蚂蚁算法.rar 课前必读.txt 遗传算法matlab代码.doc 遗传算法matlab实现源程序.doc 遗传算法及其matlab实现[1][1].pdf 遗传算法及其MATLAB程序.doc 附录一 Matlab入门.pdf 附录二 Matlab在线性代数中的应用.pdf 附录四 判别分析.pdf
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值