AI
文章平均质量分 96
一碗风
矫情的人
展开
-
Adaboost算法与应用实例简析
Adaboost 算法wiki简介AdaBoost,是英文"AdaptiveBoosting"(自适应增强)的缩写,是一种机器学习方法,由YoavFreund和RobertSchapire提出。[1]AdaBoost方法的自适应在于:前一个分类器分错的样本会被用来训练下一个分类器。AdaBoost方法对于噪声数据和异常数据很敏感。但在一些问题中,AdaBoost方法相对于大多数其它学习算法原创 2017-05-16 21:44:41 · 3628 阅读 · 0 评论 -
为何sigmoid激活函数要配合sigmoid_cross_entropy_with_logits损失函数使用?
先说答案:为何sigmoid激活函数要配合sigmoid_cross_entropy_with_logits损失函数使用?为了获得一个凸性的损失函数(就创造了这样一个性质良好的函数(PS:还可导哦))。鉴于公式画图啥的略微麻烦,我这里直接用糟糕的笔记来说明具体原因。资料来源于斯坦福机器学习教程。...原创 2019-02-28 20:26:46 · 1612 阅读 · 1 评论 -
快速了解ML中的正规方程
目录正规方程特点与用法Python code推导正规方程正规方程干嘛的? 用来直接求解线性模型的最优解的方法,即如果你的拟合函数为(线性模型)对应的损失函数:那么可以直接得到h关于θ的最优解(这就是正规方程)X为训练集特征矩阵,为X的转置,训练集结果(标签)为y。特点与用法无需迭代计算。只适用于线性模型,不适合逻辑回归模型...原创 2019-02-28 19:25:01 · 524 阅读 · 0 评论 -
什么是 Batch normalization
目录Batch_normalizationBN来源:BN原因:BN做法:BN优缺点:LRN为什么要有LRN 局部响应归一化?LRN公式 :Ref:归一化(normalization)将一批不太标准的数据统一到指定的格式.我们在数据处理时常用的是将一组范围差距较大或者单位不同的数据依据一定规则变化到指定的范围之内。Batch_normalizati...原创 2019-02-11 13:56:32 · 57464 阅读 · 4 评论 -
Embedding小结
目录何为嵌入(嵌套,Embedding)特点神经网络中的Embedding可能的应用Ref 何为嵌入(嵌套,Embedding)嵌入是从离散对象(例如字词)到实数向量的映射。嵌入是一种相对低维的空间,您可以将高维矢量映射到这种低维空间里。通过使用嵌入,可以让在大型输入(比如代表字词的稀疏矢量)上进行机器学习变得更加容易。试想,在N分类任务中,每个标签是由N长...原创 2019-02-11 13:52:17 · 1880 阅读 · 0 评论 -
AlexNet结构简析
本篇介绍下神经网络中的入门知识----AlexNet网络,并使用TensorFlow手写一个AlexNet结构。AlexNet出自论文《ImageNet Classification with Deep Convolutional Neural Networks》(论文及其译文于本文末尾Ref处可见)鉴于本篇主要是实现,所以不会做详细介绍论文。 AlexNet网络结构如下图...原创 2018-08-15 21:28:47 · 1676 阅读 · 0 评论 -
算法篇-14-A*算法解决八数码问题
问题描述八数码问题:在3×3的方格棋盘上,摆放着1到8这八个数码,有1个方格是空的,其初始状态如图1所示,要求对空格执行空格左移、空格右移、空格上移和空格下移这四个操作使得棋盘从初始状态到目标状态。1238 04765 (a)初始状态原创 2017-04-21 11:50:18 · 3535 阅读 · 0 评论 -
Kmeans算法及其示例
Kmeans算法Kmeans是简单的聚类分析算法。其常用在数据分析与人工智能中。简单说,Kmeans算法就是把一个集合中的东西分为若干子集,这几个子集内的元素具有空间相近或者特点相近。做法:1. 随机选取K各中心点,生成对应的k个簇。2. 遍历所有的数据点,依据“距离’”将每一个数据点划分到最近的中心点所在的簇。3. 计算每个簇所有的数据点的平均值原创 2017-05-25 14:48:07 · 25292 阅读 · 2 评论 -
零和博弈-极大极小搜索&Alpha-Beta剪枝(井字游戏)
零和博弈概念二人利益对立完备信息博弈过程,在我们分析表达中就是对一个过程进行按规定双方交替操作,每次操作即搜索时选择对自己有利的情况(获益选最大,损失选最小),借助的数据结构自然是树。博弈树中每一层是某一方的走法选项。假设先手为MAX,后手为MIN。MAX可选的方案间为or关系(MAX自己掌握选项),MAX可选的方案对于可供 MIN选的方案为and关系(MAX无法决定,是MIN决定,也就是原创 2017-06-08 15:38:24 · 6027 阅读 · 5 评论 -
Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering论文解读( and code)
《Convolutional Neural Networks on Graphswith Fast Localized Spectral Filtering》 提供了已实现的GCN,并且针对 《Spectral Networks and Deep Locally Connected Networks on Graphs》存在的问题:1 计算复杂度高 2 filter并不局部 做出了相应的改...原创 2019-03-26 10:51:34 · 14094 阅读 · 52 评论