自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(16)
  • 收藏
  • 关注

转载 来自知乎的SVD的深度好文

作者:漫漫成长链接:https://zhuanlan.zhihu.com/p/29846048来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。以下内容来自刘建平Pinard-博客园的学习笔记,总结如下:奇异值分解(Singular Value Decomposition,以下简称SVD)是在机器学习领域广泛应用的算法,它不光可以用于降维算法中的特征分解,还可以用于推荐系统,以及自然语言处理等领域。是很多机器学习算法的基石。本文就对SVD的原理做一个总结,并讨论在在PCA

2022-02-21 07:57:26 283

原创 RSA算法正确性的证明

用M代表原文(plain text),第一次加密获得的C(ciphertext)为密文,加密过程需要公钥e和n其中n = p*q,这里p和q是两个大质数RSA加密 C = MeM^eMe% nnnRSA解密 M = CdC^dCd% nnn要想证明解密获得的M,CdC^dCd% nnn确实等于M,即证明((((M^e%\%%n)d) ^d)d)%n = M因为我们知道((a%b)^n)%b = (a ^ n)%b (这个公式令a = pb+r二项式展开即可起送证明右侧也为r ^n%b)所以证

2021-05-10 06:38:49 529

原创 nn.CrossEntropyLoss细谈

nn.CrossEntropyLoss细谈nn.CrossEntropyLoss的官方定义This criterion combines LogSoftmax and NLLLoss in one single class.https://pytorch.org/docs/stable/nn.htmlCrossEntropyLoss代码实例import torchy = torch.LongTensor([0])z = torch.Tensor([[0.2,0.1,-0.1]])crit

2021-04-10 19:11:21 446

原创 numpy 切片

参考文献:https://www.zmonster.me/2016/03/09/numpy-slicing-and-indexing.htmlhttps://www.quora.com/What-do-the-dots-mean-in-Pythonpython切片总结:切片的形式arr[a:b,c:d,e:f]。 其中的a:b,c:d是不同维度的切片, 用逗号分割,代表不同的维度。切片从最外面的括号逐层向里读,比如下图的arr1是4*2*3的维度,arr1[0] = [[10,20,30],[40

2021-01-30 02:00:45 115 2

原创 奇怪bug,keras加了逗号会报错

def vgg_16_(img_input): # Block 1 512,512,3 -> 512,512,64 x = Conv2D( filters=64, kernel_size=3, padding="same", activation="relu")(img_input) x = Conv2D(filters=64, kernel_size=3, padding="same", activatio..

2021-01-27 18:23:52 225

原创 Keras Conv2D和Pytorch Conv2D图片格式的区别

Conv2D中Keras默认input格式和Pytorch input格式的差异Keras的Conv2D的默认输入格式是 batch, width, height, channelPytorch的Conv2D是 batch, channel, width, height下面是图例keras:由上图可见默认是batch, width, height, channelspytorch...

2021-01-26 19:44:42 1070

原创 BatchNormalization: 根据每一个batch计算均值方差

本文大部分转自: https://blog.csdn.net/weixin_44278406/article/details/105554268min-max normalization假设在网络中间经过某些卷积操作之后的输出的feature maps的尺寸为N×C×W×H,5为batch size(N),3为channel(C),W×H为feature map的宽高,则Batch Normalization的计算过程如下。3. 相关公式4. 思考根据公式BatchNormaliz

2021-01-19 18:15:23 751

原创 COMP 201 lecture21

Use case diagrams which describes the tasks which the system must help to performa use case diagram show the functionality of the system but not the sequence of events.Class diagramshows the static structure of the systeminteraction diagrams1. seq

2020-12-11 17:10:32 142

原创 COMP 201 lecture20

Aggregation and composition are both ways of recording that an object of one class is part of an object of another class.Aggregation ()Usually we do not name an aggregation association since it is usually “is a part of”.Composition (special kind of aggr

2020-12-11 06:22:44 116

原创 COMP201 lecture 18

Introductory Case Study四类UML图:Use case diagramsClass diagramsSequence diagramsState diagramsproject中最难的部分: understanding the task you are attemptingClarifying the Requirements不同用户需求可能冲突用户表达不清楚需求很难想象和一个只看到描述的系统工作Use Case Model高质量的系统必须满足

2020-12-02 17:44:09 164

原创 Comp 201 lecture 17

Concepts of Object Oriented DesignOO design 定义:organize the software as a collection of discrete objects that incorporate both data structure and behaviourobject定义:可能重用的componentobject的其他定义:a thing which has (1)behaviour, (2)state, (3)identity.behavi

2020-11-24 16:08:36 101

原创 Comp 201 lecture 16

Distributed Systems Architectures定义: 不止在一个processor上运行的软件系统类型Personal System: 只在自己电脑上运行的Embeded System: 在一个或 a group of integrated processorsDistributed System: software runs on a loosely integrated group of cooperating processors.Distributed Sys

2020-11-22 20:06:25 155

原创 卷积神经网络图片的尺寸变化及其推导

大部分转自:https://blog.csdn.net/qq_36444039/article/details/103984502相信很多同学搞机器学习的时候,每一步卷积池化以后,对图片的尺寸和大小很迷茫,不知道如何计算的。这里,我给大家分享几个公式,帮助大家理解。不明白的欢迎在下方留言。1、卷积层(Conv Layer)的输出张量(图像)的大小定义如下:O=输出图像的尺寸。I=输入图像的尺寸。K=卷积层的核尺寸N=核数量S=移动步长P =填充数输出图像尺寸的计算公式如下:上述公式

2020-09-30 20:21:19 2256

原创 卷积的理解

input的格式:batch, channel, width, heightbatch即为configuration中的batch size, 每一次从dataloader中取出来的数量channel:也被称为feature map, 图片通道的数量,MNIST黑白的为单通道,彩色图片为3通道RGB, 经过卷积可以由更多的channel,由核的个数决定width和height为图片的宽和高卷积代码实例:torch.nn.Conv2d卷积可以理解为 图片不断变小(如果没有padding的话

2020-09-30 17:46:06 539

原创 旅行商问题 branch and bound 解法lower bound选择的思考

旅行商作为np-hard问题无法在多项式时间内解决,因此人们各种近似算法求解。branch and bound是其中一种。对于brand and bound需要选择lower bound。我们希望选lower bound尽可能有效,比如每个都取0肯定是符合lower bound的定义但够好,没有起到剪枝的作用。再优化一下也许有人会提出选择每一行中最小的数,贪心法。可是这样的模拟还不够精确,因为是回路,肯定有一条边出去,一条边回来,而具体那一条边出去哪一条回来?我们希望概率尽量均等。所以我们选择每一行的最

2020-05-14 20:39:37 707

原创 算法4 二叉查找树deleteMin的理解

算法4中二叉查找树的deleteMin的理解算法四里面的源码有很多值得学习借鉴的地方,最近读到BST即二叉查找树这个类,里面很多都是利用递归实现,我总是认真思考方能领会其中道理。deleteMin()这个代码只有三行但是却实现了删除最小的操作,觉得十分精妙。...

2020-04-29 14:31:19 797

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除