AI
文章平均质量分 58
qyhyzard
愿技术分享成为一种习惯
展开
-
AI——Agent和环境
Agent追求更可能好的行为我们期望设计出尽可能理性的Agent,抽象来描述,就是环境因素进入到Agent时会形成一个感知序列,根据感知序列,Agent做出相应的行为,并根据行为不断地纠正。 不同时刻,对理性的判断依赖于: 定义成功标准的度量(即给出正确答案或者期望的答案 Agent对环境的先验知识(对认知环境有了一定的知识基础,比如训练过一定大小的训练集 ...原创 2018-10-02 19:51:14 · 2058 阅读 · 0 评论 -
pytorch 学习 | 全局平均池化 global average pooling 实现 和作用优点解析
pytorch 实现在一些论文中,我们可能会看到全局平均池化操作,但是我们从pytorch官方文档中却找不到这个API,那我们应该怎么办?答案是:利用现有的pooling API实现全局平均池化的效果。首先我们简单理解全局平均池化操作。如果有一批特征图,其尺寸为 [ B, C, H, W], 我们经过全局平均池化之后,尺寸变为[B, C, 1, 1]。也就是说,全局平均池化其实就是对每...原创 2019-05-24 01:09:25 · 40693 阅读 · 6 评论 -
深度学习 | 优质的深度学习资源(DL、ML、CV、paper、blog、比赛....)
优质课程CS231n :http://cs231n.github.io/【英文】 斯坦福大学李飞飞教授主讲,几乎是CV入门必看。网易云吴恩达coursera机器学习课程:https://study.163.com/course/introduction/1004570029.htm【英文】学习深度学习也需要了解常见的机器学习知识滴!几乎是DL入门必看!DL大神李沐在伯克利...原创 2019-05-23 20:17:25 · 564 阅读 · 0 评论 -
深度学习 | 深入解析CNN pooling 池化层原理及其作用
笔者最近碰到了几种池化层,如最常见的max pooling,后来又遇到了全局平均池化,自适应池化等操作,感叹有点疑惑,这些不同的pooling之间的作用是什么啊?翻了一下pytorch的官方文档,发现竟然还有很多没见过的pooling操作。有点震惊。于是,笔者决定花费一点时间来了解认识这些不同类别的池化操作,研究其作用机理。本文内容将从以下几点展开进行:经过一番网上的搜索,大多数又是针对...原创 2019-05-23 15:40:49 · 17507 阅读 · 6 评论 -
pytorch 学习 | 使用pytorch动手实现LSTM模块
LSTM 简介LSTM是RNN中一个较为流行的网络模块。主要包括输入,输入门,输出门,遗忘门,激活函数,全连接层(Cell)和输出。其结构如下:上述公式不做解释,我们只要大概记得以下几个点就可以了:当前时刻LSTM模块的输入有来自当前时刻的输入值,上一时刻的输出值,输入值和隐含层输出值。所谓的门就是前一时刻的计算值输入到sigmoid激活函数得到一个概率值,这个概率值决定了当前输入的...原创 2019-05-17 21:15:31 · 10145 阅读 · 29 评论 -
pytorch学习笔记 | Focal loss的原理与pytorch实现
Focal 原理简述Focal loss是一个针对单阶段物体检测正负样本不均衡而提出来的损失函数,论文地址来自arxiv先放focal loss(FL)和cross entropy(CE)两个函数的数学定义。可以看到focal loss的设计很简单明了,就是在标准交叉熵损失函数的focal loss 称为焦点损失函数,通过改进标准的二元交叉熵损失函数来控制对正负样本的训练,为了解决在on...原创 2019-05-17 20:19:43 · 4736 阅读 · 2 评论 -
pytorc实战 | Helen人脸解析数据集加载使用
最近在做人脸相关的任务,涉及到了这个 Helen人脸解析数据集,发现在网上关于该数据集的介绍很少,并且难以找到直接可用的数据加载方式,在这里记录以下,希望能帮助到大家。Helen数据集下载Helen数据集原本是用于人脸特征点任务的数据集,不过在13年的CVPR一篇论文将它应用于人脸解析分割任务,在原来数据集的基础上进行了手工标注。相关链接如下:Henlen dataset: face-pa...原创 2019-05-21 19:37:44 · 4886 阅读 · 11 评论 -
wget方式下载MS COCO数据集
最近正在做实例分割的项目,需要下载MS 2017 的COCO数据集,但是呢,直接从官网上下载,速度较慢(需要fq),用迅雷更是完全不行滴。翻遍整个CSDN(误),都没有找到合适的下载源。最后在github上找到以下的方法来下载标签文件,图片文件,特此分享给大家。在linux 终端中,新建下载脚本。vim coco.sh使用 wget 的方法获取2017的数据集。#!/bin/sh复...原创 2019-05-11 19:29:26 · 6771 阅读 · 4 评论 -
pytorch 实战 | 动手设计CNN+MNIST手写体数字识别
文章目录前言引入库函数预设超参数加载数据集设计CNN训练前准备训练模块预测模块运行结果总结前言相信对于每一个刚刚上手深度学习的孩子来说,利用mnist数据集来训练一个CNN是再好不过的学习demo了。本文使用 pytorch 来动手搭建一个卷积神经网络来训练和预测手写数字。通过本文,你将了解到pytorch的一些功能:高效加载数据集;简单灵活设计神经网络;各种学习优化器(一...原创 2019-03-15 13:10:28 · 1927 阅读 · 4 评论 -
pytorch 入门笔记 | 谈谈pytorch的框架特色
pytorch 可以说是深度学习入门首选的框架,语法特点特别接近numpy,上手简单。作为一门流行的框架,总有它流行的原因,笔者认为这是pytorch框架的一些特色所决定的,以下内容来源笔者在入门学习中的体会,因此作文总结。近期我简单入门了一下深度学习,对 pytorch 有了一定的掌握和认识,不得不感慨 pytorch 大法好,对深度学习新手特别友好,和numpy有着相似的语法特点,但有...原创 2019-03-04 00:40:52 · 1620 阅读 · 0 评论 -
使用OpenCV3.4的SVM实现mnist手写体的训练和预测
最近在用C++做手写体识别,踩了许多坑。。网上使用SVM的教程遇到的都比较坑,看了半天没怎么涉及原理,而代码又比较乱,没怎么介绍,害我搞了一下午,所以就很烦,所幸最后终于找到了方法,所以想把这段比较痛苦的经历记录下来,造福后人。如果是想从本文弄懂原理的话,那比较抱歉。说明 实验环境是:VS2017 + OpenCV3.4.0+win10;关于配置OpenCV.3.4.0, 整个过程...原创 2019-01-04 17:17:08 · 1694 阅读 · 2 评论 -
SVM支持向量机原理及python实现
文章目录@[toc]基本概念函数间隔kernelsoft margin & slack variableSequential Minimal Optimizationpython 实现基本概念最简单的支持向量机是一个二分类的分类器。分类思想是给定一组包含正负样本的集合,然后找到一个超平面(可以是一维或者多维),来对正负样本进行分割。该方法对于解决小样本,非线性,及高维模式识别中表现出...原创 2018-12-24 22:58:28 · 2223 阅读 · 0 评论 -
K近邻算法原理及python简单实现
基本概念k 近邻算法是一种经典且简单的机器学习算法之一,用于分类和回归。在本文只探讨分类问题中的 k 近邻法。k 近邻算法是一种少数服从多数的思想。给定一个训练数据集,数据集中的每一条数据都由一个特征向量表出如(x_1, x_2…),每一条数据对应一个类别即标签。我们输入一个新数据的向量到该数据集中,我们找到与该实例最邻近的 K 个实例,这K个实例中的多数属于某个类, 那么我们就把该输入实...原创 2018-12-24 22:55:22 · 428 阅读 · 0 评论 -
简单 | mnist 数据集转为csv格式读取
前言对于刚入门AI的童鞋来说,mnist 数据集就相当于刚接触编程时的 “ hello world ” 一样,具有别样的意义,后续许多机器学习的算法都可以用该数据集来进行简单测试。mnist数据来源:戳这里。从官网上下载下来的数据是以下格式的,我想大多数人都不太熟悉。网站也给出了数据集的格式,但是要手动解析这些数据也是有点复杂的。所以我们会想着如果这些文件能转换成我们常...原创 2018-12-20 17:04:48 · 7912 阅读 · 17 评论 -
Adaboost 原理介绍和python代码实现
Adaboost 原理Adaboost 全称为 adaptive boost, 意为自适应的提升方法,作用是能够通过分布不同权重的方式将多个弱分类器提升为一个强分类器,不同的弱分类器解决不同的分类问题,多个弱分类器通过加权组合得到一个强分类器。详细公式过程如下:给定 N 个样本的特征向量 (x1,.....) (x2.....) .....原创 2018-12-20 10:29:27 · 1201 阅读 · 0 评论 -
人工智能算法——随机重启爬山法,模拟退火算法,遗传算法求解N皇后问题
一、爬山法爬山法就是完全的贪心算法,每一步都选最优位置,可能只能得到局部最优解。本实验对普通爬山法进行了简单的优化,采用了传统爬山法的变种——随机重启爬山法,当爬山步数超过一定值时,会重新打乱棋盘,重新“爬山”。适应度函数:冲突皇后的总对数 “爬山”:每一步就是将棋盘的某一行的皇后移动到最优的位置,即该位置让冲突的皇后对数最少,即适应度函数值最小。 “不断地爬山”: 循环对棋盘的每一行...原创 2018-10-07 16:47:49 · 8546 阅读 · 1 评论 -
LFWA+ 人脸属性数据集下载地址 【Google Drive】
如果你在做人脸属性多标签分类的相关项目,那么你必然绕不开两个数据集,CelebA,另外一个是就是LFWA+数据集了。这两个数据集来源是这篇论文:@inproceedings{liu2015faceattributes, author = {Ziwei Liu and Ping Luo and Xiaogang Wang and Xiaoou Tang}, title = {Deep Lea...原创 2019-06-03 21:32:03 · 3887 阅读 · 2 评论