数学
文章平均质量分 67
AI强仔
人工智能爱好者、机器人爱好者
展开
-
似然(likelihood)、极大似然、对数似然、最大后验等
似然(likelihood)、极大似然、对数似然、最大后验等原创 2023-05-22 11:51:17 · 2422 阅读 · 0 评论 -
状态空间模型与卡尔曼滤波
状态空间模型与卡尔曼滤波、HMM、ARMAX、最小二乘原创 2023-02-02 18:23:53 · 4633 阅读 · 0 评论 -
几种最小二乘法及python代码:ELS、TLS、RLS
增广最小二乘法Extended Least Squares method、总体最小二乘法Total Least Squares method、递推/递归最小二乘法Recursive Least Squares method、加权最小二乘法原创 2023-01-29 17:34:38 · 4134 阅读 · 0 评论 -
信息准则:AIC、BIC、FPE、LILC
信息准则方法:AIC、BIC、FPE、LILC原创 2023-01-17 18:14:51 · 6203 阅读 · 0 评论 -
论文分享-《基于数据驱动多输出 ARMAX 建模的高炉十字测温中心温度》
主要是采用NARMAX模型进行预测,多输入多输出,有5个输出,预测中心五个点位的温度。下面讲的M-ARMAX等同于NARMAX。原创 2023-01-17 10:08:06 · 723 阅读 · 0 评论 -
正交最小二乘法求解NARMAX
正交最小二乘法求解NARMAX翻译 2023-01-12 22:29:28 · 889 阅读 · 0 评论 -
非线性系统辨识:非线性 ARX 和 Hammerstein-Wiener
非线性系统辨识:非线性 ARX 和 Hammerstein-Wiener原创 2023-01-08 13:32:34 · 5823 阅读 · 0 评论 -
线性模型:AR、MA、ARMA、ARMAX、ARX、ARARMAX、OE、BJ等
线性模型:AR、MA、ARMA、ARMAX、ARX、ARARMAX、OE、BJ等原创 2023-01-07 11:24:22 · 12285 阅读 · 0 评论 -
法国数学家 阿达马
雅克·所罗门·阿达马(Jacques Solomon Hadamard,1865年12月8日—1963年10月17日)是法国数学家,他主要的贡献有数论、复分析、微分几何和偏微分方程。翻译 2022-12-12 22:22:19 · 456 阅读 · 0 评论 -
朗道-西格尔零点猜想(the Landau-Siegel Zeros Conjecture)
朗道-西格尔零点猜想(the Landau-Siegel Zeros Conjecture),是一个数学难题。要理解朗道-西格尔零点猜想,首先需要理解黎曼猜想,进而需理解广义黎曼猜想,以及狄利克雷L函数。断言L函数没有异常零点(西格尔零点)的猜测就被称为Landau-Siegel猜想。原创 2022-11-26 18:41:57 · 4176 阅读 · 1 评论 -
素数定理π(x)
素数定理π(x)原创 2022-08-31 22:24:39 · 615 阅读 · 0 评论 -
黎曼猜想--黎曼1859年《论小于某给定值的素数的个数》
黎曼1859年《论小于某给定值的素数的个数》原文是德文。本文是根据1998年David R. Wilkins翻译的英文总结写的。在该文中黎曼引出了黎曼函数、黎曼猜想,并且给出了小于或等于x的素数个数π(x)的公式。翻译 2022-08-19 23:04:18 · 3700 阅读 · 1 评论 -
数学公式大全--极限、微分、积分
常用极限、微分、积分公式原创 2022-08-18 22:19:42 · 4204 阅读 · 2 评论 -
黎曼猜想--论文笔记《On the Number of Primes Less Than a Given Magnitude》
本文根据2009年Eric Barkan等人翻译的《On the Number of Primes Less Than a Given Magnitude》总结的。这个不是黎曼的原文(原文是德文)《论小于某给定值的素数的个数》直接翻译,而是加了不少内容,更加通俗易懂,有46页。...翻译 2022-07-27 22:21:05 · 923 阅读 · 0 评论 -
黎曼函数-欧拉乘积
欧拉乘积-黎曼函数原创 2022-07-26 20:46:26 · 1202 阅读 · 0 评论 -
黎曼猜想历史进展-大事记
黎曼猜想原创 2022-06-28 22:03:13 · 386 阅读 · 0 评论 -
黎曼猜想简介
黎曼猜想简介原创 2022-06-17 22:11:38 · 1797 阅读 · 0 评论 -
各种数学不等式
1.琴生(Jensen)不等式(也称为詹森不等式)以丹麦技术大学数学家约翰·延森(John Jensen)命名。它给出积分的凸函数值和凸函数的积分值间的关系。2.柯西不等式是数学家柯西(Cauchy)在研究数学分析中的“流数”问题时得到的。2.2 卡尔松不等式(Carlson)是柯西不等式的推广.3.赫尔德不等式赫尔德不等式是数学分析的一条不等式,取名自奥图·赫尔德(Otto Hölder)4.闵可夫斯基不等式(Minkowski inequality)是德国数学家赫尔曼·闵可夫原创 2022-05-23 22:53:10 · 5694 阅读 · 0 评论 -
深度神经网络与高斯过程的等价性
1 概要近些年,深度神经网络发展迅速,而Gaussian process (GP)只是被当做传统的非参数工具。而在无限宽度的单层神经网络时,这两者的等价性在1994年就被发现了。在无限网络宽度的限制下,参数为独立同分布的单层全连接神经网络等价于高斯过程(Gaussian process (GP))。这样就可以通过评估GP,在回归任务上进行无限宽度神经网络的贝叶斯预测。最近,模仿多层随机神经网络的核函数有所发展,但也不是贝叶斯的。所以,目前这些核函数还没有被用来作为GP的协方差函数,进而用于深度神经网络的翻译 2021-05-25 18:02:13 · 1875 阅读 · 0 评论 -
GBDT、XGBoost、LightGBM比较
1.GBDTGBDT (Gradient Boosting Decision Tree) 梯度提升决策树。DT-Decision Tree决策树,GB是Gradient Boosting,是一种学习策略,GBDT的含义就是用Gradient Boosting的策略训练出来的DT模型在前几年深度学习还没有大行其道之前,GBDT在各种竞赛是大放异彩。一是效果确实挺不错。二是即可以用于分类也可以用于回归。三是可以筛选特征。Boosting共有的缺点为训练是按顺序的,难以并行,这样在大规模数据上可能导致速度过原创 2020-10-23 16:31:22 · 808 阅读 · 0 评论 -
《LightGBM: A Highly Efficient Gradient Boosting Decision Tree》论文笔记
1 简介本文根据2017年microsoft研究所等人写的论文《LightGBM: A Highly Efficient Gradient Boosting Decision Tree》翻译总结。Gradient Boosting Decision Tree (GBDT)已是一个流行的机器学习方法,也存在一些实施,例如XGBoost和pGBRT。可以进行多类别分类、点击率预测、学习排名等应用场景。但他们的效率和可扩展性还是不太满意,尤其是针对高维度数据和大数据时。其中一个主要原因是:对于每个特征,他们需原创 2020-10-23 15:55:58 · 1923 阅读 · 0 评论 -
NP、NPC、NP-Hard
**P类:**已有多项式时间算法的判定问题.NP问题(Non-deterministic problem):多项式复杂程度的非确定性问题。 NP 就是指能在多项式时间内 验证 一个解是否满足的一类问题。NPC问题:而如果任何一个NP问题都能通过一个多项式时间算法转换为某个NP问题,那么这个NP问题就称为NP完全问题(Non-deterministic Polynomial complete problem)。NP完全问题也叫做NPC问题。NP-Hard :Class of problems wh原创 2020-10-22 15:51:29 · 239 阅读 · 0 评论