一些数学杂记

数学

• 零输入响应:只有伤口(状态)但没撒盐(输入) 比如一个RC电路,当电容电荷不为零时,这个电路不输入信号,但也发生响应  零状态响应:没有伤口的情况下撒盐

• 卷积的物理意义:

如果小明每年都往银行中存入新的100元钱,那么这个收益表格将是这样的:

求和符号来简化这个公式,可以得到第5年时的收益为:

在上式中,f( τ )为小明的存钱函数,而g( τ )为存入银行的每一笔钱的复利计算函数。在这里,小明第5年最终得到的钱就是他的存钱函数和复利计算函数的卷积。(当5换成t时成了关于t的函数)

如果我们将小明的存款函数视为一个信号发生(也就是激励)的过程,而将复利函数视为一个系统对信号的响应函数(也就是响应),那么二者的卷积就可以看做是在第t时刻对系统进行观察,得到的观察结果(也就是输出)将是过去产生的所有信号经过系统的「处理/响应」后得到的结果的叠加,这也就是卷积的物理意义了。

卷积定理+(离散)傅立叶变换+采样实现连续信号转换成数字信号(频域好储存)。

• 欧拉公式:我们只需要了解三个函数的泰勒级数。

sinx=x- (1/3!)x^3+ (1/5!)x^5+•••  cosx=1 - (1/2)x^2 +( 1/4)x^4+•••

e^x=1+ x +( 1/2)x^2 + (1/3! )x^3+•••  注:!为阶乘。

可以很容易的看出,如果忽略Sin和cos各项的正负号,它们两者相加就是指数函数。

泰勒等人当时肯定也发现了这一点,可是没有当时没有什么符号能够让这两者产生联系。

直到欧拉提出了虚数的概念,i^2=-1。我们只需要将e^x中的x用ix代替变成e^ix.

e^ix=1+ ix - (1/2)x^2 -(1/3!)ix^3 + ( 1/4!)x^4 + (1/5!)ix^5+•••

再把其中的实数和虚数项分离。

=(1 - (1/2)x^2 +( 1/4)x^4+•••) + i(x- (1/3!)x^3+ (1/5!)x^5+•••)

可以看出前项就是cosx ,后项就是sinx。即得e^ix= cosx + isinx.(cosx + isinx复平面单位圆)

• 傅里叶变换www.zhihu.com/question/22085329/answer/103926934

一个域的离散(采样)对应另一个域的周期化(延拓);时域采样后离散化,频域周期延拓,如果延拓周期过小,出现叠加;因为DFS为时域频域均为周期的,所以都可以取主值区间储存,他们之间的变换为DFT;DFT(有快速算法)可以用来计算循环卷积,循环卷积一定条件下等于线性卷积,最终用来求线性卷积;加大窗函数的长度可以减少过渡带的宽度,改变窗函数的种类可以改变阻带衰减

• 泰勒级数:实际应用中,总是会出现一堆复杂的函数,这类函数往往令物理学家和数学家都十分头疼。为了解决这一窘境,泰勒想:会不会存在一种方法,把一切函数表达式都转化为多项式函数来近似呢?经过泰勒的研究,终于他研究出了泰勒级数的理论。只有能保证n阶导数存在,就能将它的局部用多项式展开。

• e的含义:

数学里的 e 为什么叫做自然底数?是不是自然界里什么东西恰好是 e? - 灵剑的回答 - 知乎 https://www.zhihu.com/question/20296247/answer/35473303

如何理解三大微分中值定理? - 马同学的文章 - 知乎 https://zhuanlan.zhihu.com/p/47436090 数学里的 e 为什么叫做自然底数?是不是自然界里什么东西恰好是 e? - 知乎

•从线性看线性代数

• ax+by=c 特解: x。,  y。通解:x = x。+ bt    y = y。- at

•  计算 50 个人至少有两个人生日相同的概率,先求生日都相同的概率,每个人选365天中的一天,第一个人有365种选法,第二个人保证与第一个人不同还有364中选法,依次类推50次,分母365^50总的种数,所以P0 = (365×364×…×317×316)/365^50=2.963%  1-P0=97.037%

• 神经网络

神经元它的实质就是用直线/平面/超平面把特征空间一切两半,认为两瓣分别属两个类。

神经元模型的一种学习方法称为Hebb算法:先随机选一条直线/平面/超平面,然后把样本一个个拿过来,如果这条直线分错了,说明这个点分错边 了,就稍微把直线移动一点,让它靠近这个样本,争取跨过这个样本,让它跑到直线正确的一侧;如果直 线分对了,它就暂时停下不动。

 神经网络神奇的地方在于它的每一个组件非常简单——把空间切一刀+某种激活函数(0-1阶跃、sigmoid、max-pooling),但是可以一层一层级联。输入向量连到许多神经元上,这些神经元的输出又连到一堆神经元上,这一过程可以重复很多次,每次都对某一特征进行分类。

神经网络的训练依靠反向传播算法:最开始输入层输入特征向量,网络层层计算获得输出,输出层发现输出和正确的类号不一样,这时它就让最后一层神经元进行参数调整,最后一层神经元不仅自己调整参数,还会勒令连接它的倒数第二层神经元调整,层层往回退着调整。

• 用卷积进行图像的处理

这个滤波器要对这种曲线有很高的输出,对其他形状则输出很低,这也就像是神经元的激活。

神经网络浅讲:从神经元到深度学习 - 计算机的潜意识 - 博客园 偏导数就是z = f(x,y) ,在三维空间中,y一定的情况下对x进行求导。 Backpropagation反向传播算法(BP算法) - pannyvan - 博客园

•  假如有一个罐子,里面有黑白两种颜色的球,数目多少不知,两种颜色的比例也不知。可放回取100次,有70次是白球,请问罐中白球所占的比例最有可能是多少?很多人马上就有答案了:70%。而其后的理论支撑是什么呢? 我们假设罐中白球的比例是p,那么黑球的比例就是1-p。因为每抽一个球出来,在记录颜色之后,我们把抽出的球放回了罐中并摇匀,所以每次抽出来的球的颜色服从同一独立分布。这里我们把一次抽出来球的颜色称为一次抽样。题目中在一百次抽样中,事件的概率是P(样本结果|Model)。

设第一次抽样的结果记为x1,第二次抽样的结果记为x2....那么样本结果为(x1,x2.....,x100)。可以得到观察样本结果(七十次是白球的,三十次为黑球)出现的概率表达式:P(样本结果|Model) = P(x1,x2,…,x100|Model) = P(x1|Mel)P(x2|M)…P(x100|M) = p^70(1-p)^30。现在要求模型的参数,也就是求的式中的p。

不同的p,直接导致P(样本结果|Model)的不同。那么既然事情已经发生了,为什么不让这个出现的结果的可能性最大呢?这也就是最大似然估计的核心。我们想办法让观察样本出现的概率最大,转换为数学问题就是使得:p^70(1-p)^30最大,这太简单了,未知数只有一个p,我们令其导数为0,即可求出p为70%,与我们一开 始认为的70%是一致的。其中蕴含着我们的数学思想在里面。

• 条件概率公式:设A,B是两个事件,且P(B)>0,则在事件B发生的条件下,事件A发生的条件概率(conditional probability)为: P(A|B)=P(AB)/P(B) 用韦恩图去思考;全概率公式、贝叶斯公式推导过程 - ohshit - 博客园

• 最小二乘法求线性回归方程:因为点可能在线的上面或者下面,故而距离有正有负,取绝对值又太麻烦,于是我们就直接把每个距离都取一个平方变成正的,然后试图找出一个距离所有点的距离的平方和最小的这条线,简单粗暴而有效最小二乘法求回归直线方程的推导过程_Neo-T的博客-CSDN博客_最小二乘法求线性回归方程

• 从一亿个数中找出最大的一万个数:用前一万个数初始化一个固定大小为10000的最小堆,这时根节点是10000个数里最小的一个。把后续的数依次与最小堆的根节点比较,如果小于等于不做处理,大于则放进最小堆(这个操作同时会弹出一个元素并改变根节点)。这个算法的复杂度几乎接近于O(n)。

• 区域链货币

密码学Hash()函数的单向性:Hash(x) =y ,通过y很难找到x 添加一个随机数(Nonce)假如现在有顺序产生的数据块 A, B , C (给定的)。 我们来这样计算hash头。 注意 “||” 表示拼接。

h0=  Hash(A|| Nonce0)  

h1 = Hash(B || h0 || Nonce1)   

h2 = Hash(C || h1 || Nonce2)

h2是我们计算的hash头部,现在来看, 为什么我们管这个东西叫Hash链, 因为h2 的值依赖于之前一系列数据的内容和计算顺序。 这里我们还添加一个额外的要求, 就是 h0, h1, h2 必须都得是以指定数目的0 bit开头的,例如要求每个哈希值都必须以5个0开头,则h0,h1,h2都应该是这样的形式(00000*****************)添加了这个要求以后, h0, h1, h2就都不是那么容易计算的了, 因为你不能根据输出的形式来反推输入是什么, 而A, B, C又是给定的, 那只能不断更改Nonce2来穷举计算h2, 然后找到一个可以满足要求的Nonce2值 ,使得h0, h1, h2符合要求.到这里大家就知道所谓的矿工是在干什么了, 就是接受广播出来的数据块,然后计算当前最新的哈希链的头部, 当成功计算出了一个符合要求的Hash后, 就告诉所有人,自己找到了, 让别人再去计算下一个哈希头部。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值