人工智能
waveletbob
这个作者很懒,什么都没留下…
展开
-
自编码算法
自编码神经网络是一种无监督学习算法,它使用了反向传播算法,并让目标值等于输入值,它是一种尽可能复现输入信号的神经网络。为了实现这种复现,自动编码器就必须捕捉可以代表输入数据的最重要的因素,就像PCA那样,找到可以代表原信息的主要成分。 一、AutoEncoder算法的思路 1)给定无标签数据,用非监督学习学习特征: 在我们之前的神经网络中,如第一个图,我们输入的样本是有标签的,即(inp原创 2016-10-27 18:16:44 · 1764 阅读 · 0 评论 -
深度学习资料合集
深度学习笔记 吴立德老师深度学习课 2016年不可错过的21个深度学习视频、教程和课程编程库 书籍: 1天搞懂深度学习 Bengio新书 deep learning 深层学习为何要“deep” 课程: 开发者入门必读:最值得看的十大机器学习公开课 ufldl cs229 li feifei cs231n deep原创 2016-12-29 11:14:09 · 1219 阅读 · 0 评论 -
LDA实现
Python实现 shiyo的lda arongdari的LDA ahmaurya Blei代码 其他原创 2017-04-12 15:43:33 · 520 阅读 · 0 评论 -
CNN了解知识相关
原理 CNN发展历史 了解一遍转载 2017-02-16 21:15:22 · 195 阅读 · 0 评论 -
深度学习UFLDL(一)
基础:机器学习 稀疏自编码: 神经网络简介 反向传导算法 梯度检验和高级优化 自编码器与稀疏性 练习:产生训练集稀疏自编码目标(损失函数)梯度检验 训练稀疏自编码器 可视化结果 所谓稀疏自编码就是一种无监督学习算法,使用BP,将目标值设为输入值 目标:hW,b(X)≈x 稀疏性:最少的隐含层单位来表示输入层特征原创 2016-11-30 13:53:53 · 303 阅读 · 0 评论 -
计算机科研会议
CORE Computer Science Conference Rankings Acronym Standard Name Rank AAAI National Conference of the American Association for Artificial Intelligence A+ AAMAS International Conference on Auto原创 2016-11-13 10:46:46 · 2489 阅读 · 0 评论 -
情感分析简要介绍
斯坦福大学自然语言处理课程关于情感分析的简要介绍原创 2016-09-17 14:05:29 · 459 阅读 · 0 评论 -
Attention Model简介
Attention Model注意力模型是一种资源分配机制,某一时刻,你的注意力总是集中在某一个焦点部分,对其他的部分视而不见。 Encoder-Decoder框架 Encoder-Decoder框架可以这么直观地去理解:可以把它看作适合处理由一个句子(或篇章)生成另外一个句子(或篇章)的通用处理模型。对于句子对转载 2016-09-18 12:48:13 · 430 阅读 · 0 评论 -
RNN入门神经网络
参考博客: 从NN到RNN再到LSTM RNN一般指递归神经网络Recursive Neural NetWork,其中有一种使用很广泛的特殊结构Recurrent Neural Network时间递归神经网络,用于把当前隐含层的数据信息传递给下一次输入层并同时在下一层隐含层中传递的结构,能够记住之前的状态import copy, numpy as npnp.random.seed(0)# co原创 2016-09-23 21:45:06 · 341 阅读 · 0 评论 -
推荐系统论文资料集
书籍: 《推荐系统实践》 《推荐系统:技术、评估及高效算法》 《推荐系统:奥地利版》 入门教程: IBM开发者系列 推荐系统相关的会议和论坛及博客原创 2017-05-08 17:27:35 · 511 阅读 · 0 评论