机器学习自学
爱生活爱自己爱学习
这个作者很懒,什么都没留下…
展开
-
对于信息量 信息熵的通俗解释(与你分享 看了就会懂!
来自于一篇文章的收获,受益匪浅太长不看版:首先信息量是衡量编码一个信息需要的编码长度(这样就是更高概率出现的事件其信息量更低,这也是通信领域的实际应用,类似于什么树?记不清了,就像太阳从西方升起比太阳从东方升起会具有更大的信息量,这也符合我们的日常认知)因此信息量比较自然的想法就是用log()函数来表示:-log(p) (很容易就可以可看出达到了出现概率大的数值小,出现概率小的数值...原创 2020-03-17 09:59:30 · 1301 阅读 · 0 评论 -
关于VAE的一个通俗的介绍
http://kvfrans.com/variational-autoencoders-explained/原创 2020-03-11 16:43:48 · 438 阅读 · 0 评论 -
吴恩达 深度学习 卷积神经网络第一周
1、为什么要进行padding因为不适用padding会有两个问题。1是图片会越来越小,如果网络层数较多的话,那么图片就会非常小了,这不是我们希望看到的;另一方面是容易忽视一些边缘信息,边缘的像素被更少的核所处理两种padding方案最终计算公式多层多通道时,输出的通道数等于卷积核的个数下面是一个计算宽高的例子...原创 2020-01-07 21:01:42 · 137 阅读 · 0 评论 -
吴恩达 深度学习 序列模型第三周
1、改进的定向搜索:说存在的问题是一方面长度越长,累乘的结果就会越小,影响最终的结果(由于差别会非常小,四舍五入的影响就会非常大),所以使用log的方式,通过累加来解决前面的问题,第二点是说这样最终的结果会偏向于选择长度短的输出结果,所以又在前面乘了一个归一化项(句子长度),这样在束搜索时,从众多长度不同的结果中,选择一个最优的结果作为最终的结果。如何选择最优的束宽。...原创 2020-01-06 16:05:14 · 164 阅读 · 0 评论 -
吴恩达 深度学习 序列模型第二周
词嵌入的一般用法2.4下面讲了词嵌入矩阵的例子,通过词潜入矩阵(300*10000)乘以一个矩阵(10000*1)可以得到一个新的(300*1)的矩阵,这就是我们得到的词向量。但是由于onhot编码得长度一般比较长,并且大多数的位置都是0,这样矩阵乘法的计算量很大,并且很多部分都是无用的。...原创 2020-01-05 15:57:05 · 175 阅读 · 0 评论 -
吴恩达 深度学习 序列模型第一周
1、单词的表示,需要把单词表示为数字的形式,下面的例子是one-hot编码2、介绍循环网络模型首先为什么不使用全连接神经网络(一方面是不便于处理变长序列,并不是所有句子都有相同的长度,虽然我们可以通过填充的方式将其填充到相同的长度,另一方面是参数量大,并且比如学习人名识别问题时,作者说如果将这个人名放到句子的另一个位置,可能就识别不出来了)lstm...原创 2020-01-04 22:12:10 · 106 阅读 · 0 评论 -
数据分析 来自bit.ly的1.usa.gov数据
#!/usr/bin/python#coding=utf-8import numpy as npimport pandas as pdimport matplotlib.pyplot as pltimport jsondef get_counts(sequence): # 用于统计总数 counts = {} for x in sequence: i...原创 2018-11-05 17:57:17 · 776 阅读 · 0 评论