- 博客(6)
- 收藏
- 关注
原创 深度学习,如何用去噪自编码器预测原始数据?
去噪自编码器(denoising autoencoder, DAE)是一类接受损坏数据作为输入,并训练来预测原始未被损坏数据作为输出的自编码器。去噪自编码器代价函数的计算图。去噪自编码器被训练为从损坏的版本~x 重构干净数据点x。这可以通过最小化损失L = -log pdecoder(x|h = f(~x)) 实现,其中~x 是样本x 经过损坏过程C(~x| x) 后得到的损坏版本。
2017-12-25 15:49:03 3697
原创 机器学习可以解决哪些类型的任务?
机器学习可以让我们解决一些人为设计和实现固定程序很难解决的问题。从科学和哲学的角度来看,机器学习受到关注是因为发展我们对机器学习的认识需要发展我们对智能背后原理的理解。如果考虑“任务”比较正式的定义,那么学习的过程并不是任务。学习是我们所谓的获取完成任务的能力。例如,我们的目标是会行走的机器人,那么行走便是任务。我们可以编程让机器人学会如何行走,或者可以编写特定的指令,人工指导机器人如
2017-12-22 10:56:35 4512
转载 深度神经网络为何很难训练?
假设你是一名工程师,接到一项从头开始设计计算机的任务。某天,你在工作室工作,设计逻辑电路,构建AND门,OR门等等时,老板带着坏消息进来:客户刚刚添加了一个奇特的设计需求:整个计算机的线路的深度必须只有两层:
2017-12-21 10:41:08 318
原创 "人工智能时代下的变革与创新发展”技术分享会纪实
12月15日,培训中心2017年技术分享会在中科院计算所礼堂举行。来自培训中心的谢新华教授、计算所寒武纪公司的副总裁钱诚博士、大数据专家王元卓博导、区块链技术刘立祥博士分别做了精彩演讲。如何提升创新能力?许多人相信,创造性是一种特殊才能或精英能力,但这种偏见正在被逐渐推翻。人们认识到,创造性是可以通过学习和实践获得的。谢老师提出创新思维的要点,发散思维、收敛思维、细化思维!
2017-12-18 14:41:00 1154
原创 Python基础原理:FP-growth算法的构建
和Apriori算法相比,FP-growth算法只需要对数据库进行两次遍历,从而高效发现频繁项集。对于搜索引擎公司而言,他们需要通过查看互联网上的用词,来找出经常在一块出现的词。因此就需要能够高效的发现频繁项集的方法,FP-growth算法就可以完成此重任。FP-growth算法是基于Apriori原理的,通过将数据集存储在FP(Frequent Pattern)树上发现频繁项集。
2017-12-11 10:02:51 570
原创 为什么图式一旦被启动,就会像程序一样被严格执行下去?
所谓创新,本质上是更深刻的认识事物的过程,那么人类的大脑是怎么认识事物的?他有什么特点?针对人类认知问题的研究,瑞士心理学家让•皮亚杰(Jean Piaget,1896—1980)首先创建了认识论。早期人们对人类认知的理解主要是行为主义的 S→R 模型。针对行为主义模型的缺点,皮亚杰提出了图式(SCHEMA,间架)这个概念。图式(schema)是指一
2017-12-04 13:44:04 538
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人