Data Science:统计学习
文章平均质量分 77
图灵的猫.
给行业以ai,而不是给ai以行业
展开
-
机器学习:了解混淆矩阵(Confusion Matrix)
混淆矩阵是数据科学、数据分析和机器学习中总结分类模型预测结果的情形分析表,以矩阵形式将数据集中的记录按照真实的类别与分类模型作出的分类判断两个标准进行汇总。我的机器学习教程「美团」算法工程师带你入门机器学习以及 「三分钟系列」数据结构与算法 已经开始更新了,欢迎大家订阅~这篇专栏整合了这几年的算法知识,简单易懂,也将是我实体书的BLOG版。也欢迎大家关注微信公众号「图灵...原创 2018-04-18 20:07:06 · 27486 阅读 · 2 评论 -
机器学习:维度灾难(Curse of Dimensionality)
在三维情况下,要覆盖特征空间20%的体积,则需要在每个维度上取得58%的取值范围...在维度接近一定程度时,要取得同样的训练样本数量,则几乎要在每个维度上取得接近100%的取值范围,或者增加总样本数量,但样本数量也总是有限的。换句话说,通过使用更少的特征,避免了维数灾难的发生(也即避免了高维情况下的过拟合)。维数灾难与过拟合:在上面这个分类的例子中,我们假设猫和狗图片的数量是有限的(实际上也确实如此,样本数量总是有限的),就假设有10张图片吧,接下来我们就用这仅有的10张图片来训练我们的分类器。翻译 2018-06-11 16:08:11 · 14689 阅读 · 1 评论 -
机器学习之旅:支持向量机通俗导论(理解SVM的三层境界)
支持向量机通俗导论(理解SVM的三层境界)作者:July、pluskid ;致谢:白石、JerryLead出处:结构之法算法之道blog。前言 动笔写这个支持向量机(support vector machine)是费了不少劲和困难的,原因很简单,一者这个东西本身就并不好懂,要深入学习和研究下去需花费不少时间和精力,二者这个东西也不好讲清楚,尽管网上已经有朋友写得不错了(见文末参考链接),但...转载 2018-06-05 11:40:48 · 1006 阅读 · 0 评论 -
对核函数(kernel)最通俗易懂的理解
左图为原数据,右图为映射到三维的数据,可以看出:同样是降到1维,先通过Kernel映射到(Kernel是映射的内积,不要弄乱了)三维,再投影到1维,就容易分离开,这就是Kernel在PCA降维中的应用,本质还是对原有数据增加维度。在实用中,很多使用者都是盲目地试验各种核函数,并扫描其中的参数,选择效果最好的。的内积,映射函数本身仅仅是一种映射关系,并没有增加维度的特性,不过可以利用核函数的特性,构造可以增加维度的核函数,这通常是我们希望的。二维映射到三维,区分就更容易了,这是聚类、分类常用核函数的原因。原创 2018-06-07 10:23:25 · 132145 阅读 · 9 评论 -
机器学习:提升算法之Adaboost
说了这么多,也举了这么多例子,就是为了让你从细节上明白Adaboost的基本原理,博主认为理解Adaboost的两种权重的关系是理解Adaboost算法的关键所在。原创 2018-06-14 13:13:19 · 1379 阅读 · 0 评论 -
聊聊机器学习中的损失函数(hinge/soft/square/0-1)
机器学习作为一种优化方法,学习目标就是找到优化的目标函数——损失函数和正则项的组合;有了目标函数的“正确的打开方式”,才能通过合适的机器学习算法求解优化。不同机器学习方法的损失函数有差异,合理理解各种损失优化函数的的特点更有利于我们对相关算法的理解。原创 2018-06-07 14:34:10 · 10756 阅读 · 2 评论 -
深入理解目标检测与YOLO(从v1到v3)
对小目标检测,有很多新的算法,但是YOLO V3版本却做到了,它对这种距离很近的目标或者小目标有很好的鲁棒性,虽然不能百分百检测,但是这个难题得到了很大程度的解决。YOLO V2是一个纵向自上而下的网络架构,随着通道数目的不断增加,FLOPS是不断增加的,而V3网络架构是横纵交叉的,看着卷积层多,其实很多通道的卷积层没有继承性,另外,虽然V3增加了anchor centroid,但是对GT的估计变得更加简单,每个GT只匹配一个先验框,而且每个尺度只预测3个框,V2预测5个框,这样的话也降低了复杂度。原创 2018-06-14 16:20:54 · 6030 阅读 · 4 评论 -
什么是数据脱敏(Data Masking)?
数据脱敏(Data Masking),又称数据漂白、数据去隐私化或数据变形。百度百科对数据脱敏的定义为:指对某些敏感信息通过脱敏规则进行数据的变形,实现敏感隐私数据的可靠保护。在涉及客户安全数据或者一些商业性敏感数据的情况下,在不违反系统规则条件下,对真实数据进行改造并提供测试使用,如身份证号、手机号、卡号、客户号等个人信息都需要进行数据脱敏。生活中不乏数据脱敏的例子,比如我们最常见的火车票、电商收货人地址都会对敏感信息做处理,甚至女同志较熟悉的美颜、有些视频中的马赛克都属于脱敏。原创 2018-06-11 15:45:21 · 19252 阅读 · 0 评论 -
什么是熵(entropy)?
下面分别给出熵、联合熵、条件熵、相对熵、互信息的定义。熵:如果一个随机变量X的可能取值为X = {x1, x2,…, xk},其概率分布为P(X = xi) = pi(i = 1,2, ..., n),则随机变量X的熵定义为:把最前面的负号放到最后,便成了:上面两个熵的公式,无论用哪个都行,而且两者等价,一个意思(这两个公式在下文中都会用到)。联合熵:两个随机变量X,Y的联合分布,可以形成联合熵Joint Entropy,用H(X,Y)表示。条件熵。原创 2018-06-03 19:56:14 · 94550 阅读 · 1 评论 -
何为启发式算法——退火算法,蚁群算法,遗传算法
由于仿照基因编码的工作很复杂,我们往往进行简化,如二进制编码,初代种群产生之后,按照适者生存和优胜劣汰的原理,逐代(generation)演化产生出越来越好的近似解,在每一代,根据问题域中个体的适应度(fitness)大小选择(selection)个体,并借助于自然遗传学的遗传算子(genetic operators)进行组合交叉(crossover)和变异(mutation),产生出代表新的解集的种群。此时,当前解实现了一次迭代。以上是算法学习过程中所引用的一些理论上的知识,有关应用请参看具体应用部分。原创 2018-04-24 17:00:19 · 4610 阅读 · 0 评论 -
深入学习理论:VC维(VC dimensions)
这篇文章主要是从第二个式子来讨论问题,就是主要分析模型的泛化能力,推导模型的复杂程度和泛化能力之间的关系(也就是表征系统复杂度的vc维和泛化误差之间的关系)。vc维在这里面起到了一个惩罚项的作用,它所表征的是模型的复杂程度,当模型越复杂的时候,vc维越大,泛化能力就越差;(其实在这里我们可以换一种说法来描述“模型的种类”——模型的复杂度,从上面可以看出,模型越复杂的时候,1.第一个式子反映了平均意义下,我们所训练的模型预测的好坏,趋于0就代表模型预测的效果越好。自然而然的,首先想到的是尽量的让。原创 2018-04-20 15:49:33 · 7770 阅读 · 2 评论 -
如何直观理解拉格朗日乘子法与KKT条件
以前学习SVM时曾草草了解到过KKT条件,当然,关于KKT条件的前身也就是拉格朗日乘子法,是高数就接触过的。如今学习最优化理论,又碰到了他俩,不得不说是一种缘分,当然这两个概念也是机器学习算法中非常重要的,因为机器学习归根到底就是一种优化。接下来让我们来一起看看。原创 2018-05-02 16:37:13 · 5155 阅读 · 0 评论 -
【感知机/支持向量机】点到平面距离公式的由来
在感知机模型中,输入空间中任意一点 到超平面S的距离:原创 2018-05-26 10:52:23 · 1086 阅读 · 0 评论 -
随机梯度下降(SGD)和批量梯度下降(BGD)的区别
随机梯度下降(SGD, stochastic gradient descent):名字中已经体现了核心思想,随机选取一个店做梯度下降,而不是遍历所有样本后进行参数迭代。因为梯度下降法的代价函数计算需要遍历所有样本,而且是每次迭代都要遍历,直至达到局部最优解,在样本量庞大时就显得收敛速度比较慢了,计算量非常庞大。梯度下降(GD, gradient descent):梯度下降法是求解无约束最优化问题的一种常用方法,比较适用于控制变量较多,受控系统比较复杂,无法建立准确数学模型的最优化控制过程。原创 2018-05-26 11:02:44 · 6215 阅读 · 0 评论 -
机器学习之旅:三分钟读懂最大熵模型
最大熵模型假设分类模型是一个条件概率分布P(Y|X)P(Y|X),X为特征,Y为输出。给定一个训练集(x(1),y(1)),(x(2),y(2)),...,(x(m),y(m))(x(1),y(1)),(x(2),y(2)),...,(x(m),y(m)),其中x为n维特征向量,y为类别输出。我们的目标就是用最大熵模型选择一个最好的分类类型。原创 2018-06-03 18:46:59 · 3270 阅读 · 0 评论 -
Coursera机器学习课后作业Matlab代码(1~9周)
这个月在coursera上开始刷ng老师的课(主要是为了复习),每一周都有编程作业,有的难度不小,有的BUG频出。我自己经常死磕半天才写出来,实在没办法了才去GITHUB上找标准答案对着改。为了方便大家检验查阅,这里放上每个周的(目前刷到第六周)MATLAB作业代码。可以用来借鉴,但不建议大家直接复制粘贴。PS. 所有代码已经submit 100%通过。想上课还没报名的同学可以申请看看。,别忘了star哦~原创 2018-06-15 21:08:22 · 6689 阅读 · 3 评论 -
集成学习:Boosting与Bagging
根据个体学习器的生成方式,目前的集成学习方法大致可分为两大类,即个体学习器间存在强依赖关系、必须串行生成的序列化方法,以及个体学习器间不存在强依赖关系、可同时生成的并行化方法;而在RF中,对基决策树的每个结点,先从该结点的属性集合中随机选择一个包含k个属性的子集,然后再从这个子集中选择一个最优属性用于划分. 随机森林简单、容易实现、计算开销小.效果能使得最终集成的泛化性能可通过个体学习器之间差异度的增加而进一步提升.Boosting:每个弱分类器都有相应的权重,对于分类误差小的分类器会有更大的权重.原创 2018-06-16 19:04:21 · 715 阅读 · 0 评论 -
随机森林(Random Forest)通俗教程
作为新兴起的、高度灵活的一种机器学习算法,随机森林(Random Forest,简称RF)拥有广泛的应用前景,从市场营销到医疗保健保险,既可以用来做市场营销模拟的建模,统计客户来源,保留和流失,也可用来预测疾病的风险和病患者的易感性。最初,我是在参加校外竞赛时接触到随机森林算法的。最近几年的国内外大赛,包括2013年百度校园电影推荐系统大赛、2014年阿里巴巴天池大数据竞赛以及Kaggle数据科学竞赛,参赛者对随机森林的使用占有相当高的比例。原创 2018-06-16 19:27:47 · 32701 阅读 · 6 评论 -
机器学习实战系列(六):Adaboost提升法
目前刚开始做,有不对的欢迎指正,也欢迎大家star。除了 版本差异,代码里的部分函数以及代码范式也和原书不一样(因为作者的代码实在让人看的别扭,我改过后看起来舒服多了)。在这个系列之后,我还会写一个scikit-learn机器学习系列,因为在实现了源码之后,带大家看看SKT框架如何使用也是非常重要的。Adaboost提升算法是机器学习中很好用的两个算法之一,另一个是SVM支持向量机;机器学习面试中也会经常提问到Adaboost的一些原理;原创 2018-07-13 13:56:26 · 794 阅读 · 0 评论 -
机器学习实战系列(七):数值回归与预测
课程的所有数据和代码在我的Github:Machine learning in Action,目前刚开始做,有不对的欢迎指正,也欢迎大家star。除了 版本差异,代码里的部分函数以及代码范式也和原书不一样(因为作者的代码实在让人看的别扭,我改过后看起来舒服多了)。在这个系列之后,我还会写一个scikit-learn机器学习系列,因为在实现了源码之后,带大家看看SKT框架如何使用也是非常重要的...原创 2018-07-14 15:18:49 · 2418 阅读 · 1 评论 -
机器学习实战系列(八):分类与回归树
课程的所有数据和代码在我的Github:Machine learning in Action,目前刚开始做,有不对的欢迎指正,也欢迎大家star。除了 版本差异,代码里的部分函数以及代码范式也和原书不一样(因为作者的代码实在让人看的别扭,我改过后看起来舒服多了)。在这个系列之后,我还会写一个scikit-learn机器学习系列,因为在实现了源码之后,带大家看看SKT框架如何使用也是非常重要的。 ...原创 2018-07-26 22:17:40 · 847 阅读 · 0 评论 -
Python机器学习基础教程(一):简介
关于这本书,其实就是一个非常实用的scikit-learn使用教程,比官方文档讲的要好而且是中文翻译,基本上机器学习该用到的库都讲到了。建议大家在阅读前至少掌握入门级的机器学习算法知识,因为这本书不讲算法和数学,只教你用Sklearn调参和模型权衡。原创 2018-08-02 19:13:46 · 6344 阅读 · 0 评论 -
机器学习之Grid Search网格搜索(自动调参)
Grid Search:一种调参手段;:在所有候选的参数选择中,通过循环遍历,尝试每一种可能性,表现最好的参数就是最终的结果。其原理就像是在数组里找最大值。(为什么叫网格搜索?以有两个参数的模型为例,参数a有3种可能,参数b有4种可能,把所有可能性列出来,可以表示成一个3*4的表格,其中每个cell就是一个网格,循环过程就像是在每个网格里遍历、搜索,所以叫grid search)原创 2019-01-10 13:26:30 · 60619 阅读 · 2 评论 -
FTRL在线学习算法的前世今生-从SGD到TG再到FOBOS与RDA
牛顿和拟牛顿等方法一般对于光滑的正则约束项(例如2范数)效果很好,据说是求解2范数约束的逻辑回归类问题最好的方法,应用也比较广,但是当目标函数带L1非光滑、带不可微点的约束项后,牛顿类方法比较无力,理论上需要做修改。(后面会看到其实很多都是这种混合正则化的格式,而且是有一定直观含义的)。迭代公式中:gt是loss函数(单点的loss,未加和)的subgradient,与gt相加的那一项是混合正则化项中的第二项的梯度,投影集合C是约束空间(例如可能是1范数的约束空间),跟上面介绍的投影梯度下降类似的做法。原创 2019-02-28 17:54:50 · 1893 阅读 · 0 评论 -
机器学习实战系列(五):SVM支持向量机
课程的所有数据和代码在我的Github:Machine learning in Action,目前刚开始做,有不对的欢迎指正,也欢迎大家star。除了 版本差异,代码里的部分函数以及代码范式也和原书不一样(因为作者的代码实在让人看的别扭,我改过后看起来舒服多了)。在这个系列之后,我还会写一个scikit-learn机器学习系列,因为在实现了源码之后,带大家看看SKT框架如何使用也是非常重要的...原创 2018-07-10 13:36:39 · 1593 阅读 · 1 评论 -
对梯度提升树(GBDT)的通俗理解
针对这一问题,Freidman提出了梯度提升算法:利用最速下降的近似方法,即利用损失函数的负梯度在当前模型的值,作为回归问题中提升树算法的残差的近似值,拟合一个回归树。对于Boosting来说,每一步我们都会在上一轮的基础上更加拟合原数据,所以可以保证偏差(bias),所以对于每个基分类器来说,问题就在于如何选择variance更小的分类器,即更简单的分类器,所以我们选择了深度很浅的决策树。当模型越简单时,即使我们再换一组数据,最后得出的学习器和之前的学习器的差别就不那么大,模型的方差很小。原创 2018-06-16 20:07:43 · 23172 阅读 · 3 评论 -
强化学习通俗导论(一):什么是强化学习
Q Learning 的算法框架和 SARSA 类似, 也是让系统按照策略指引进行探索,在探索每一步都进行状态价值的更新。而这时,强化学习会在没有任何标签的情况下,通过先尝试做出一些行为得到一个结果,通过这个结果是对还是错的反馈,调整之前的行为,就这样不断的调整,算法能够学习到在什么样的情况下选择什么样的行为可以得到最好的结果。有一种走法是这样的,在 A 时,可以选的 (B, C, D, E),发现 D 最优,就走到 D,此时,可以选的 (B, C, F),发现 F 最优,就走到 F,此时完成任务。转载 2020-01-03 10:23:26 · 36001 阅读 · 5 评论 -
一文读懂Xgboost
xgboost算法的步骤和GB基本相同,都是首先初始化为一个常数,gb是根据一阶导数ri,xgboost是根据一阶导数gi和二阶导数hi,迭代生成基学习器,相加更新学习器。(2). GB中使用Loss Function对f(x)的一阶导数计算出伪残差用于学习生成fm(x),xgboost不仅使用到了一阶导数,还使用二阶导数。(1). xgboost在目标函数中显示的加上了正则化项,基学习为CART时,正则化项与树的叶子节点的数量T和叶子节点的值有关。对上式做二阶泰勒展开:g为一阶导数,h为二阶导数。原创 2018-06-16 23:45:44 · 1279 阅读 · 0 评论 -
SMO算法最通俗易懂的解释
SVM通常用对偶问题来求解,这样的好处有两个:1、变量只有N个(N为训练集中的样本个数),原始问题中的变量数量与样本点的特征个数相同,当样本特征非常多时,求解难度较大。2、可以方便地引入核函数,求解非线性SVM。求解对偶问题,常用的算法是SMO,彻底地理解这个算法对初学者有一定难度,本文尝试模拟算法作者发明该算法的思考过程,让大家轻轻松松理解SMO算法。文中的“我”拟指发明算法的大神。转载 2018-06-18 13:32:56 · 70899 阅读 · 25 评论 -
R代码模拟世界杯1000次,速成2018世界杯预言帝
本文翻译自 Mango Solution 的博客,作者杨环,就职于 Mango Solutions,担任数据科学咨询顾问。本文已获得原作者授权。几周前的皇家马德里 VS 利物浦的欧冠总决赛是我差不多十年来唯一严肃认真看完的一场比赛,但我居然会挺胸抬头地预测捧起 2018 年大力神杯的会是巴西队?如果(真假伪)各界球迷朋友发现本文口感略柴,可能是因为我的足球类自然语言处理能力欠佳。不要紧,你可以关注...翻译 2018-06-30 11:29:35 · 2439 阅读 · 0 评论 -
通俗理解Meanshift均值漂移算法
以上是官方的说法,即书上的定义,我的理解就是,在d维空间中,任选一个点,然后以这个点为圆心,h为半径做一个高维球,因为有d维,d可能大于2,所以是高维球。真正大牛的人就能创造算法,例如像meanshift,em这个样的算法,这样的创新才能推动整个学科的发展。还有的人就是把算法运用的实际的运用中,推动整个工业进步,也就是技术的进步。解释一下K()核函数,h为半径,Ck,d/nhd 为单位密度,要使得上式f得到最大,最容易想到的就是对上式进行求导,的确meanshift就是对上式进行求导.原创 2018-06-30 15:37:07 · 11678 阅读 · 4 评论 -
隐马尔可夫模型通俗导论
我的机器学习教程「美团」算法工程师带你入门机器学习 以及「三分钟系列」数据结构与算法已经开始更新了,欢迎大家订阅~这篇专栏整合了这几年的算法知识,简单易懂,也将是我实体书的BLOG版。欢迎大家扫码关注微信公众号「图灵的猫」,除了有更多AI、算法、Python相关文章分享,还有免费的SSR节点和外网学习资料。其他平台(微信/知乎/B站)也是同名「图灵的猫」,不要迷路哦~...原创 2018-06-20 14:36:55 · 521 阅读 · 0 评论 -
什么是特征工程?如何进行特征工程?
再让我们回归一下本文开始的特征工程的思维导图,我们可以使用sklearn完成几乎所有特征处理的工作,而且不管是数据预处理,还是特征选择,抑或降维,它们都是通过某个类的方法fit_transform完成的,fit_transform要不只带一个参数:特征矩阵,要不带两个参数:特征矩阵加目标向量。这些难道都是巧合吗?还是故意设计成这样?方法fit_transform中有fit这一单词,它和训练模型的fit方法有关联吗?接下来,我将在《使用sklearn优雅地进行数据挖掘》中阐述其中的奥妙!原创 2017-12-22 23:09:18 · 84406 阅读 · 6 评论 -
有趣的算法(一):如何让有情人终成眷属
看过《非诚勿扰》的同学一定还记得节目中的相亲模式,当男嘉宾入场后会首先选择最喜欢的心动女生,然后在几轮“面试”后由最后亮灯的女生,也就是心仪男嘉宾的女生与男嘉宾一开始选择的心动女生做比较。有趣的是,有时候,留灯的女生即便是男嘉宾不喜欢的类型,很多时候也会被牵手,而也有女嘉宾在台上站了很多期节目,被优质的人翻号,却没有被所带走,到最后反而被一些很普通的男生牵手成功。现在,考虑将上述过程的选择次数增加至多次,并允许与女嘉宾人数(假设为N)相同的男嘉宾同时上台。原创 2018-01-19 13:15:12 · 1732 阅读 · 0 评论 -
监督学习的分类:判别/生成模型,概率/非概率模型、参数/非参数模型
其中,监督学习是其中发展最为成熟的分支。这不仅是由于在监督学习框架下面有各种各样的学习模型,如逻辑斯特回归、朴素贝叶斯、支持向量机等,更是因为这个框架有着坚实的理论支撑,机器学习中的计算学习理论就是主要为监督学习服务的:这套理论以概率的方式回答了哪些问题是可学习的,学习成功的概率有多大等问题,其中比较常见的理论有VC理论、PAC理论、PAC-Bayes理论等。非概率模型指的是直接学习输入空间到输出空间的映射h,学习的过程中基本不涉及概率密度的估计,概率密度的积分等操作,问题的关键在于最优化问题的求解。原创 2018-01-22 22:10:24 · 5703 阅读 · 1 评论 -
关于信息熵的简单理解
我的机器学习教程「美团」算法工程师带你入门机器学习 已经开始更新了,欢迎大家订阅~任何关于算法、编程、AI行业知识或博客内容的问题,可以随时扫码关注公众号「图灵的猫」,加入”学习小组“,沙雕博主在线答疑~此外,公众号内还有更多AI、算法、编程和大数据知识分享,以及免费的SSR节点和学习资料。其他平台(知乎/B站)也是同名「图灵的猫」,不要迷路哦~信息是我们一直在谈论的东西,但...原创 2018-01-16 20:36:35 · 7989 阅读 · 0 评论 -
用最通俗易懂的语言告诉你什么是信息熵
直接传递ABCD的ascii码的话,每个答案需要8个bit的二进制编码,从传输的角度,这显然有些浪费。信息论最初要解决的,就是数据压缩和传输的问题,所以这个作弊团伙希望能用更少bit的编码来传输答案。实际上,熵的概念首先在热力学中引入,用于表述热力学第二定律。信息熵的定义与上述这个热力学的熵,虽然不是一个东西,但是有一定的联系。直觉上,信息量等于传输该信息所用的代价,这个也是通信中考虑最多的问题。,那么同样需要问3次(问题1,问题2,问题3),概率为。,那么需要问3次(问题1,问题2,问题3),概率为。原创 2018-01-16 20:41:17 · 25540 阅读 · 5 评论 -
贝叶斯分类与贝叶斯网络
贝叶斯分类是一类分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类。本文作为分类算法的第一篇,将首先介绍分类问题,对分类问题进行一个正式的定义。然后,介绍贝叶斯分类算法的基础——贝叶斯定理。最后,通过实例讨论贝叶斯分类中最简单的一种:朴素贝叶斯分类。在上一篇文章中我们讨论了朴素贝叶斯分类。朴素贝叶斯分类有一个限制条件,就是特征属性必须有条件独立或基本独立(实际上在现实应用中几乎不可能做到完全独立)。原创 2017-12-24 21:53:19 · 12893 阅读 · 2 评论 -
机器学习的数学(三)范数的简单介绍
我的机器学习教程「美团」算法工程师带你入门机器学习 以及「三分钟系列」数据结构与算法已经开始更新了,欢迎大家订阅~这篇专栏整合了这几年的算法知识,简单易懂,也将是我实体书的BLOG版。欢迎大家扫码关注微信公众号「图灵的猫」,除了有更多AI、算法、Python相关文章分享,还有免费的SSR节点和外网学习资料。其他平台(微信/知乎/B站)也是同名「图灵的猫」,不要迷路哦~...原创 2018-01-25 13:08:44 · 1246 阅读 · 0 评论 -
Toeplitz matrix 与 Circulant matrix
之所以专门定义两个新的概念,在于它们特殊的形式,带来的特别的形式。原创 2018-01-10 19:21:18 · 1786 阅读 · 0 评论