![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
数学之美
「已注销」
自认为自己可以做数学的人工智能研究者;梦想是钢琴家Olga Scheps能跟我说句话;专业毛子鉴赏师和挨骂师;为了接触毛子去跳芭蕾和练体操的无耻人士。
展开
-
AC和Zorn‘s Lemma的另外一个证明
今天花了几个小时时间读了很爽的证明,就是关于AC和Zorn's Lemma的。先贴一下地址吧。On the Bourbaki’s fixed point theorem and the axiom of choicehttps://arxiv.org/pdf/1905.09782.pdf当然了,这个文章写的有点糙,好多定义没有给(大汗),但是这个证明是非常优美的。个人认为,如果是想要真的做数学的,第一个就可以尝试着找到AC和Zorn's Lemma定价性的各种其他证明。原因很简单,这里面没有什么特别复杂原创 2021-10-18 19:02:05 · 170 阅读 · 0 评论 -
Concentration of Measure
今天的话因为懒得读paper就介绍一篇关于数学的内容吧!今天的一本书是Ledoux写的Concentration of Measure. 这本书从某种意义上来说,是Talagrand和Ledoux多年以来研究的两个最重要的成果之一。原书的话在这里。当然,Ledoux这本书的特点就是他证明不等式的方法往往是通过一些很清奇的方法,而不是修修补补。这本书非常好读,而且非常符合传统的这种教材的方法。作者不是上来就一坨不等式扔给你,而是从一个个小的定理出发,展现出这些定理的作用之后,再把所有的推导核心均放在一原创 2021-10-14 15:13:39 · 293 阅读 · 0 评论 -
Lucien Le Cam的书籍和理论
如果要问二十世纪最伟大的统计学家是谁,大部分的回答不会是Fisher或者Wald,而是Lucien Le Cam。从最近开始我会组织一些同学去翻译Le Cam的大作Asymptotic Methods in Statistical Decision Theory。所以不妨现在就对这部分内容做个简介。这本书的内容从统计学角度来说,最难的问题基本上是三个:1. 如何评价统计决策手段的效果;2. 在这个评价体系之下,最好的界是什么;3. 知道最好的界之后,我们是否可以达到。虽然Le C原创 2021-09-27 15:12:58 · 435 阅读 · 0 评论 -
关于黎曼几何初学者的踩坑经历
说句实话,微分几何部分一直是我心里面的痛。从抽象的数学角度,一般来说泛函分析牵扯的一堆东西常常是被认为最“抽”的。泛函分析的一个最大特点就是,虽然内容很多,但是真正做起来往往证明都不长(虽然不简单,很考验创造力),而且章节独立性很强。就我个人而言,Schaefer的Topological Vector Space,Meyer的Banach Lattices还有Fell和Duran的关于*-representation的上下册,基本包含了传统泛函里面的大部分内容。这几本书的好处在于:这几本书多半都是sel原创 2021-05-24 21:21:15 · 1615 阅读 · 0 评论 -
翻译文档
下面是关于Foundations of Modern Probability和Asymptotic Methods in Statistical Decision Theory的翻译说明。翻译地址(目前为只读):Foundations of Modern Probability;Asymptotic Methods in Statistical Decision Theory;建议采用Mathpix Snip将原文正文和公式进行OCR识别后,再进行翻译;请将原文作为注释形式,以段落为单位留在Late原创 2021-05-23 22:18:49 · 309 阅读 · 0 评论 -
新立flag:两本数学书的翻译
本来一直在翻译van der Vaart的Asymptotic Statistics,结果一直也没时间。最近稍微有一点时间了,然后发现这个坑已经被填了。幸运的是,目前还发现两本非常想翻译的书。第一本是Kallenberg的Foundations of Modern Probability。这本书的最大的特点是,几乎所有的证明都是非常优美的。这是唯一两本可以说每一个证明都可以学到新东西的书。现在终于出了第三版,作者居然又简化和优美了一些证明。这让我想起来了另一本多年以前希望翻译的书。这本被Prof.原创 2021-05-19 23:28:52 · 405 阅读 · 0 评论 -
那个数学课终于好了
还记得我超级不要脸自吹自夸的那个数学课么?经过bilibili不过审核,CSDN不行,原来录音方式不行,现在终于可以进行了。基本内容高级泛函分析+微分集合+抽象概率论+不等式+Le Cam理论。频道之前各种问题,后来终于跟三个人一块合开了。这个就是地址。里面还有一些其他东西,有个很牛小姐姐讲健身,有个很牛的教练讲国家队乒乓球技术。我在这里是最拉垮的,所以都不敢露脸。。。...原创 2021-01-20 11:23:00 · 2564 阅读 · 6 评论 -
AI数学课的新地址
很抱歉,由于之前课程有错误,以及油管原来频道有很多问题,我把之前数学课的地址换了。这是和三个人合开的。内容没变。原创 2021-01-17 00:55:21 · 374 阅读 · 0 评论 -
Vector Meausre, Mackey Topology和Dunford-Pettis Property
一般来说,近十年出的数学论文多少都是很难读懂,而且很多时候不一定很有借鉴价值。这倒不是因为结果不好用,而是因为工具太复杂了。我最近看了一篇论文,这篇论文讲的题目如图。可以说,这是我见过的最好的一篇十年类的论文。他把几个很重要的东西放在了一起。Mackey topology。基本上Weak Topology等价于Mackey Topology的时候你的证明就完成了。Dunford-Pettis。达不到compact的时候(即使在很弱的拓扑),Dunford-Pettis基本就代替了compactnes原创 2021-01-06 13:00:38 · 235 阅读 · 0 评论 -
关于泛函分析几何部分的推荐
Rudin的书是经典。但是Rudin的书有几个问题。证明很多不好。有的是写的太长。比如说Banach-Alaoglu,明明一个Ultra Filter直接两行搞定,写了一大堆。推广性不好。关于对偶和重对偶,Rudin的体系好像感觉这俩完全不是一回事。其实是一回事。习题过于简单。当时Leiden博士做的时候,大概30分钟一道课后题;我的话,比较慢,2小时差不多也做出来了。对于研究生来说,这个难以程度不好。目前对于几何部分,非常好的一本书,但是很少有人看的,是Schaefer。这本书比大部分很近的号原创 2021-01-02 08:44:15 · 493 阅读 · 0 评论 -
关于AI理论的问题
经常有人问我AI理论有啥。其实很难有一套系统的理论,不是说AI理论没用,而是目前大家还在探索阶段。好多人说看不懂老顾的文章,其实这方面还有难得多的paper,最典型就是Le Cam理论,比如说看这个。实际上,这里面要求大量所谓抽象数学。我刚开始只是想做一个讲座把这个课讲明白,后来想想看,干脆出一套免费的AI理论数学班吧。包括两套东西抽象部分具体部分抽象部分比较多,主要是讲几何、代数和高级的随机分析。比如说会讲一般的对偶理论(不是Rudin那么简单的),Banach Lattice,黎曼几何,算子原创 2020-12-31 10:04:07 · 235 阅读 · 0 评论 -
关于张量求导的事情
一般来说,矩阵求导到两个向量还能做,否则的话就没法定义了。这导致深度学习推导后向传递公示的时候,都先拉直然后在说。比如说这个CNN的推导。这里还比较幸运,还是能折腾出来的,等到RNN就不好办了。其实借用于微分几何的方法,可以定义一套很简单的办法。这套办法在这里肯定写不清楚,所以我上传到我的资料去了。最后说一下,为什么要学这个。面试在大部分实现中,AutoGrad都不太好,所以自己能写出来能大大加速。...原创 2020-12-31 09:56:54 · 267 阅读 · 0 评论