基础知识学习
文章平均质量分 76
Stalker_DAs
咕咕咕
展开
-
泰勒公式学习笔记
而在x=0时,如果我们能让函数的切线斜率和cos(x)相等的话就能得到更近似的函数如下图所示,否则近似的多项式函数的值在离x=0处很近的地方就会出现明显的偏差了。这就是我们学习泰勒公式的目的,通过一个多项式(由于多项式函数容易计算、求导、积分),在某点近似一个复杂的函数,以代替该函数研究相关性质。而当我们在处理不规则的函数时,也可以通过求导得到函数P中的每个参数,如上式所示,这就是泰勒多项式的一般形式。此时,我们计算cos(x)在0处的导数为-sin(0)=0,并带入P(x)中,可以得到。原创 2023-08-12 22:04:01 · 178 阅读 · 0 评论 -
梯度下降法理解
这里我想重新学习一下梯度下降算法,因为以前仅仅是对其应用和知道沿着梯度的方向能够使网络下降最快,进而使损失函数最优,但一直不理解梯度究竟是什么,所以趁着入学我想重新学习一下这部分知识。转载:https://blog.csdn.net/weixin_44671418/article/details/107480212。转载 2023-08-07 11:17:02 · 46 阅读 · 0 评论 -
正则化项 笔记
正则化项或正则惩罚项一般位于损失函数的后面,用于与经验风险构成结构风险,通过使其最小化使模型到达最优值。f∈FminN1i1∑NLyifxi))λJf)]其中L为经验风险,J⋅是度量模型f复杂度的函数,λ为控制经验风险和模型复杂度的权重,通常大于0。当最小化结构风险时,我们不仅要考虑最小化经验风险,同时还要考虑模型复杂度。原创 2023-08-07 11:13:28 · 194 阅读 · 0 评论 -
范数 笔记
在学习深度学习时,惩罚项、计算空间中两样本距离时等经常会用到范数,下面对不同的范数进行介绍。原创 2023-08-07 11:11:58 · 57 阅读 · 0 评论 -
Hamming Distance
汉明距离是以理查德·卫斯里·汉明的名字命名的。在信息论中,两个等长字符串之间的汉明距离是两个字符串对应位置的不同字符的个数。换句话说,它就是将一个字符串变换成另外一个字符串所需要替换的字符个数。比较简单的操作,就是可以通过异或得到两个字符串的差值,再计算其中1的个数即可。2143896 与 2233796 之间的汉明距离是 3。1011101 与 1001001 之间的汉明距离是 2。"toned" 与 "roses" 之间的汉明距离是 3。原创 2023-08-07 11:08:43 · 46 阅读 · 0 评论 -
卷积和反卷积(逆卷积,转置卷积)
转置卷积又叫反卷积、逆卷积。不过转置卷积是目前最为正规和主流的名称,因为这个名称更加贴切的描述了卷积的计算过程,而其他的名字容易造成误导。在主流的深度学习框架中,如TensorFlow,Pytorch,Keras中的函数名都是conv_transpose。所以学习转置卷积之前,我们一定要弄清楚标准名称,遇到他人说反卷积、逆卷积也要帮其纠正,让不正确的命名尽早的淹没在历史的长河中。我们先说一下为什么人们很喜欢叫转置卷积为反卷积或逆卷积。转载 2023-08-07 11:05:30 · 478 阅读 · 0 评论 -
数字图像处理·双线性插值笔记
在数字图像处理中,可以通过双线性插值法对原始图像进行缩放。原创 2023-07-31 22:27:24 · 192 阅读 · 0 评论