人工智能
文章平均质量分 89
金刚哥葫芦娃
这个作者很懒,什么都没留下…
展开
-
【2017CS231n】第二讲:图像的分类(KNN和线性分类器)
开始学习CS231n课程了,记录一下,也希望对其他人有帮助,可能会有错误,希望大家指正。一.如何让机器理解图像 人看到猫的图片就知道这是猫,看到狗的图片就知道这是狗。但是电脑看到的呢?在计算机中图片的存储形式就是一个个的矩阵,代表了图片的像素值。所以在人看来很直观的图片,对计算机来说只是一个个矩阵。所以如何让计算机从这些像素中理解它们所表示的含义,这对计算机来说是个很难的问题。 从像素...原创 2018-03-29 09:21:13 · 1636 阅读 · 0 评论 -
TensorFlow错误:fatal error: tensorflow/core/framework/op.h: 没有那个文件或目录(PointCNN遇到的错误)
跑了PointCNN,基于TensorFlow,遇到了错误,编译的时候找不到头文件。我是Virtualenv方式安装的Tensorflow,但是编译文件tf_sampling_compile.sh里面的路径是这么写的:TF_PATH=/usr/local/lib/python$PYTHON_VERSION/dist-packages/tensorflow/include但是我的TensorFlow...原创 2018-06-29 10:33:57 · 15223 阅读 · 12 评论 -
ubuntu16.04 TensorFlow GPU版本安装+cuDNN v7.0+CUDA9.0
点我。谢谢这位博主,安装过程很顺利。转载 2018-06-28 21:55:13 · 191 阅读 · 0 评论 -
【2017CS231n】第十四讲:深度增强学习
一.概述 强化学习:我们有一个代理,能够在其环境中采取行动,也可以因为其行动获得奖励,它的目标是学会如何行动以最大限度地获得奖励。 这节主要讲了以下几个问题:什么是强化学习,马尔科夫决策过程(这是对强化学习问题的数学抽象),然后是两类主要的强化学习算法:Q-learning,策略梯度算法。二.强化学习 在强化学习中我们有一个代理和一个环境,环境赋予代理一个状态,反过来代理将采取...原创 2018-07-04 21:16:58 · 1343 阅读 · 0 评论 -
【2017CS231n】第十三讲:生成模型(PixelRNN/PixelCNN,变分自编码器,生成对抗网络)
一.有监督学习与无监督学习 有监督学习我们都很熟悉了,我们有数据x和标签y,我们在有监督学习中学习到一个函数可以将数据x映射到标签y,标签可以有很多形式。典型的有监督学习有:分类问题中输入一张图片,输出图片的分类;目标检测中输入一张图片,输出目标物体的边框;语义分割中,给每个像素都打上标签。下面说一下无监督学习。1.1无监督学习 无监督学习在我们只有一些没有标签的训练数据的情况下,学习...原创 2018-06-22 09:19:22 · 22987 阅读 · 3 评论 -
【2017CS231n】第十二讲:可视化和理解卷积神经网络
一.特征可视化1.1理解神将网络的层 下面我们了解一下神经网络内部发生了什么。1.2最大激活块1.3遮挡实验1.4显著图1.5引导式反向传播二.梯度上升三.对抗样本四.DeepDream五.风格迁移...原创 2018-06-14 11:15:22 · 7978 阅读 · 3 评论 -
【2017CS231n】第九讲:CNN架构
第九讲的概述如下:这一讲就是介绍几个CNN的网络,AlexNet、VGG、GoogleNet、ResNet。1. AlexNet 第一个在ImageNet中获胜的大型卷积神经网络。 基本结构:卷积层,池化层,归一化,卷积,池化,归一化,最后是一些全连接2. VGG3. GoogleNet4. ResNet...原创 2018-06-09 21:49:53 · 907 阅读 · 0 评论 -
【2017CS231n】第八讲:深度学习软件
这一讲我没有好好听,只是大概略了一下,各位感兴趣的可以去完整地看一下这一讲的课程。深度学习框架的优势:目前主流的深度学习框架:原创 2018-06-06 21:50:17 · 235 阅读 · 0 评论 -
【2017CS231n】第七讲:训练神经网络(下)
先回顾一下第六讲: 数据预处理。 当我们对数据进行归一化红,分类器对权重矩阵的扰动不是特别敏感,鲁棒性更好。左边的分类器稍微变动一点就会破坏分类效果。 右边的数据移到原点附近,并缩小单位方差,仍然可以进行良好的分类。当我们稍微转动分类的直线,损失函数对参数中的变动就不那么敏感,从而让优化变得容易。1. 更好的优化1.1 随机梯度下降法训练神经网络的核心策略是一个优化问题。写下损失...原创 2018-06-06 21:47:32 · 1402 阅读 · 0 评论 -
【2017CS231n】第十一讲:图像分割、定位、识别
一.语义分割二.图像分类和定位三.对象识别原创 2018-06-13 10:42:26 · 19333 阅读 · 1 评论 -
【2017CS231n】第十讲:循环神经网络(RNN)
一.RNN 最左边是Vanilla前馈网络,固定尺寸的输入,给出单一的输出结果。 对来说RNN我们有一对多的模型,固定的输入对象,输出是可变长度的序列(例如一段描述,不同的描述对应不同的单词数量,所以需要可变的输出长度)。 多对一模型,输入的尺寸是可变的,例如输入一段文字,输出情感的分析(积极或消极);或者输入是一个视频,帧数是可变量,输入的视频有可变的时间,最后输出判断视频发生...原创 2018-06-12 21:04:36 · 3632 阅读 · 0 评论 -
【2017CS231n】第六讲:训练神经网络(上)
一.激活函数二.数据预处理三.网络权值初始化四.批量归一化五.监督训练过程六.优化超参数原创 2018-06-05 22:31:57 · 1110 阅读 · 0 评论 -
Ubuntu14.04下安装TensorFlow
Successfully installed tensorflow numpy protobuf wheel six setuptoolsCleaning up...Ubuntu下安装TensorFlow很简单,敲两行命令就行了.安装很顺利,基本没遇到什么问题.1.Python相关终端输入以下命令sudo apt-get install python-pip python-dev之后会多次询问...原创 2017-12-20 17:34:44 · 273 阅读 · 0 评论 -
【2017CS231n】第五讲:卷积神经网络
一.视觉之外的神经网络 1.1 一个例子 先举一个例子,我们有一个32*32*3的输入图片,有五个5*5的卷积核,也可以叫5*5的感受野,因为这个感受野就是这个卷积核能够感受到的区域。 我们可以暂时把卷积核看做是一个滤波器,然后让其中一个卷积核划过整个图片,会得到一个输出。输出是28*28。至于输出为什么是28*28我们先不用管,后面会说明。 这5个卷积核参数相同,大小相同...原创 2018-04-29 20:14:31 · 1807 阅读 · 0 评论 -
【2017CS231n】第四讲:介绍神经网络
一.反向传播 在说反向传播前,先介绍计算图的概念,我觉得计算图是个利器。1.1 计算图 我们可以把f=W*x用一张类似流程图的东西表达出来,如下图所示,我们成这张图叫做计算图。其实就是把公式分解成小的计算单元。 在这张图中,输入的训练数据x和权重W通过*连接到一起,运算后得到分数s,s经过hinge loss计算得到损失项Li,通过加法符号与正则项R连接得到结果L。 ...原创 2018-04-18 22:06:00 · 372 阅读 · 0 评论 -
【2017CS231n】第三讲:损失函数和优
一. 损失函数 在上一讲的线性分类器中,我们使图像与一个权重w相乘,然后输出每个分类可能性的分数。某个类别的分数越高,图像就越有可能是这一类。但是如何确定w的好坏,我们需要一个评价的标准。 我们可以把w输入到一个函数中,这个函数会返回对w的评价结果(一个分数),这个函数的返回值反映了w的好坏。这个函数我们就叫做损失函数。 1.1 多分类SVM的损失函数 将猫、车、青蛙的图片输入到...原创 2018-04-04 22:30:13 · 441 阅读 · 0 评论 -
【2017CS231n】第十五讲:神经网络模型压缩和加速(硬件、算法层面)
一.算法1.剪枝不是所有的神经网络连接都有用。减少连接,但不降低准确性。尝试性:剪枝,训练不断重复,找到对准确性影响最高的那一部分连接。2.参数共享1.98 2.09 1.92 1.87 都用2来表示,不是所有权重都需要用精确的数字来表示,这样反而可能会造成过拟合。思路:所有权重聚类,如果相近,就用聚类质心来表示其他数。霍夫曼编码:对经常出现使用的权重采用霍夫曼编码3.量化用标准浮点数训练一个网络...原创 2018-07-04 21:29:43 · 1100 阅读 · 0 评论