- 博客(8)
- 资源 (3)
- 收藏
- 关注
原创 《tensorflow 实战》学习4——AlexNet(经典CNN)
几大经典CNN:AlexNet、VGGNet、GoogleNet、ResNet。是2012以来ILSVRC的冠军或亚军。在学习CNN时,分析一下各网络的结果以及参数、神经元(tensor)的数量计算.1. AlexNet的结构整个网络有8层,这8层中,其中前5层为卷积层,后三层是全连接层。 第1、2个卷积层由卷积滤波、ReLU激活、LRN局部响应归一化、Max Pool池化组成,第3、4个卷积层由
2017-08-16 19:11:31 644
原创 《Deep Learning》学习1——基于特征分解的主成分分析
这篇文章是基于《Deep Learning》第二章以及UFLDL Tutorial之主成分分析做的总结和python算法实现。《Deep Learning》第二章主要讲的是矩阵的一些重要性质,由于《Deep Learning》完全讲理论,且很严肃正统,所以,顺带结合UFLDL和斯坦福cs229对应课程一起学习,同时跑UFLDL提供的练习。 一.纯理论1. 线性相关当我
2017-08-10 15:31:53 664
原创 《tensorflow实战》学习3——实现简单的卷积神经网络
一.知识点总结1. 卷积神经网络出现的初衷是降低对图像的预处理,避免建立复杂的特征工程。因为卷积神经网络在训练的过程中,自己会提取特征。2. 灵感来自于猫的视觉皮层研究,每一个视觉神经元只会处理一小块区域的视觉图像,即感知野。放到卷积神经网络里就是每一个隐含节点只与设定范围内的像素点相连(设定范围就是卷积核的尺寸),而全连接层是每个像素点与每个隐含节点相连。这种感知野也
2017-08-03 21:03:01 1119
原创 AC自动机2——KMP字符串匹配算法
KMP算法一开始看了很久都似懂非懂的,直到看了阮一峰大侠的博客http://blog.sae.sina.com.cn/archives/307 终于觉得看懂了,然后找了一个程序,程序如下:def compute_prefix_function(p): m = len(p) pi = [0] * m k = 0 for q in range(1, m):
2017-08-02 13:40:52 463
原创 AC自动机1——适用于utf-8编码的Trie树
最近需要用到文本的拼音相似度计算,看了hankcs大神的hanlp里面通过ac自动机实现拼音的存储,想把它转成python版本的。开始啃AC自动机吧。AC自动机建立在Trie树和KMP字符串匹配算法。首先啃Trie树。关于Trie树的概念,http://blog.csdn.net/v_july_v/article/details/6897097这一篇讲得很好,还附赠了后缀树。我所要做的
2017-08-01 18:22:12 1558
原创 《tensorflow实战》学习2——实现多层感知机
上一篇实现softmax,整个网络只有输入层和softmax分类,作者说那不算是神经网络。而这一篇实现多层感知机实际上是在上一篇的网络中,添加了一层隐含层。首先总结这一章学到的知识点。 一.知识点汇总1. 稀疏编码:早年学者发现,几乎所有的图像碎片都可以由64种正交的边组合得到,并且组合出一张图像碎片的边的数量是很少的,即稀疏的。学者们同时从大量未标注音频中发现了20种基
2017-08-01 09:40:15 492
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人