人工智能
Ethiopia1024
何以解忧,唯有暴富
展开
-
NAS-Bench-101:Towards Reproducible Neural Architecture Search 迈向可再现的神经体系结构搜索
1,背景 搜索NASNet需要训练数千个网络,因此进行多次试验来公平地评估搜索算法在计算上是不可行的。目前的文献主要以最终测试精度来评价NAS算法,而目前已经展示了许多最先进的NAS算法,如DARTS、NAO、ENAS等,在相同的设置下甚至无法超越随机搜索。为了真正评估一个搜索算法,并绕过计算挑战,Christ等人收集了NASBench,它列举了≤7个节点的所有可能的DAGs,构成(42...原创 2019-11-29 10:16:59 · 1252 阅读 · 0 评论 -
AlphaX: eXploring Neural Architectures with Deep Neural Networks and Monte Carlo Tree Search中文译文
AlphaX:利用深度神经网络和蒙特卡罗树搜索探索神经结构Linnan WangYiyang ZhaoYuu JinnaiYuandong TianRodrigo FonsecaBrown University Facebook AI Research摘要我们介绍AlphaX,一个完全自动化的代理,从零开始设计复杂的神经架构。AlphaX...原创 2019-10-31 12:34:24 · 1117 阅读 · 0 评论 -
蒙特卡洛树搜索(MCTS)——AlphaGo / Go Zero的核心算法
蒙特卡洛树搜索(Monte-Carlo Tree Search,简称MCTS) 这是许多游戏的核心算法。顾名思义,这是一种常见的数据结构——树。这棵树的每一个节点都代表游戏的一个当前局面的确定状态。在每局游戏过程中,每一步落子前,蒙特卡罗树搜索都会模拟游戏多次,就像人类思考的方式一样(比如职业棋手在每一步落子前都会预测若干步接下来的落子),通过模拟游戏的发展方向,观察每一步可以落子的...原创 2019-10-14 20:52:01 · 5501 阅读 · 2 评论 -
深度学习 强化学习 迁移学习
人工智能现在越来越火,很多非行业内的人对深度学习,强化学习,迁移学习等概念会感到很陌生,同时各种偏理论性和学术性的解释也会显得很晦涩难懂。 其实这类机器学习的机制和人类的学习机制其实很相似,因此本文会列举一些日常中人们是如何学习的例子来说明深度学习,强化学习和迁移学习等概念。 深度学习和强化学习都属于机器学习,而机器学习又是人工智能的一部分。深度学习和...转载 2019-03-11 08:10:47 · 1142 阅读 · 0 评论 -
批量(batch)、随机(stochastic)和小批量(mini-batch)梯度下降法
深度学习的优化算法,说白了就是梯度下降。每次的参数更新有两种方式。第一种,遍历全部数据集算一次损失函数,然后算函数对各个参数的梯度,更新梯度。这种方法每更新一次参数都要把数据集里的所有样本都看一遍,计算量开销大,计算速度慢,不支持在线学习,这称为Batch gradient descent,批梯度下降。另一种,每看一个数据就算一下损失函数,然后求梯度更新参数,这个称为随机梯度下降,sto...转载 2019-03-13 11:17:33 · 1060 阅读 · 0 评论