深度学习/机器学习
文章平均质量分 67
BigBzheng
机器学习、深度学习、数据挖掘、NLP
展开
-
教你如何读懂卷积神经网络(CNN)
自今年七月份以来,一直在实验室负责卷积神经网络(Convolutional Neural Network,CNN),期间配置和使用过theano和cuda-convnet、cuda-convnet2。为了增进CNN的理解和使用,特写此博文,以其与人交流,互有增益。正文之前,先说几点自己对于CNN的感触。先明确一点就是,Deep Learning是全部深度学习算法的总称,CNN是深度学习算法在图像处翻译 2016-03-19 15:00:50 · 1049 阅读 · 0 评论 -
深度学习之caffe入门(4)
caffe入门学习原文地址:http://blog.csdn.net/hjimce/article/details/48933813作者:hjimce本文主要讲解caffe的整个使用流程,适用于初级入门caffe,通过学习本篇博文,理清项目训练、测试流程。初级教程,高手请绕道。我们知道,在caffe编译完后,在caffe目录下会生成一个build目录,在build目录下有个to转载 2016-05-07 17:25:31 · 737 阅读 · 0 评论 -
深度学习之卷积神经网络入门(2)
卷积神经网络入门学原文地址:http://blog.csdn.net/hjimce/article/details/47323463作者:hjimce卷积神经网络算法是n年前就有的算法,只是近年来因为深度学习相关算法为多层网络的训练提供了新方法,然后现在电脑的计算能力已非当年的那种计算水平,同时现在的训练数据很多,于是神经网络的相关算法又重新火了起来,因此卷积神经网络就又活了起来。转载 2016-05-07 17:27:51 · 7452 阅读 · 0 评论 -
深度学习之caffe环境搭建(3)
ubuntu 系统下的Caffe环境搭建原文地址:http://blog.csdn.net/hjimce/article/details/48781693作者:hjimce对于caffe的系统一般使用linux系统,当然也有windows版本的caffe,不过如果你一开始使用了windows下面的caffe,后面学习的过程中,会经常遇到各种错误,网上下载的一些源码、模型也往往不能快速的转载 2016-05-07 17:28:54 · 3100 阅读 · 0 评论 -
深度学习之-Dropout的讲解(5)
原文地址:http://blog.csdn.net/hjimce/article/details/50413257作者:hjimce一、相关工作 本来今天是要搞《Maxout Networks》和《Network In Network》的,结果发现maxout和dropout有点类似,所以就对dropout做一下相关的总结,了解一下其代码层面的实现。 Dropout是2转载 2016-05-08 19:41:00 · 4734 阅读 · 0 评论 -
深度学习之-caffe预测、特征可视化python接口调用 (6)
原文地址:http://blog.csdn.net/hjimce/article/details/48972877作者:hjimce网上有很多caffe训练好的模型,有的时候我们仅仅想要方便的调用已经训练好的模型,利用python进行预测分类测试,查看可视化结果,这个时候,我们可以使用caffe为我们写好的python接口文件,我们在安装caffe的时候,有一步:make pycaffe转载 2016-05-08 20:09:20 · 798 阅读 · 0 评论 -
【python gensim使用】word2vec词向量处理中文语料
word2vec介绍word2vec官网:https://code.google.com/p/word2vec/word2vec是google的一个开源工具,能够根据输入的词的集合计算出词与词之间的距离。 它将term转换成向量形式,可以把对文本内容的处理简化为向量空间中的向量运算,计算出向量空间上的相似度,来表示文本语义上的相似度。 word2vec计算的是余弦值,距离范围为0-1之...转载 2016-08-17 22:30:53 · 3221 阅读 · 1 评论 -
搞机器学习要哪些技能
1. 前言本来这篇标题我想的是算法工程师的技能,但是我觉得要是加上机器学习在标题上,估计点的人会多一点,所以标题成这样了,呵呵,而且被搜索引擎收录的时候多了一个时下的热门词,估计曝光也会更多点。不过放心,文章没有偏题,我们来说正经的。今天就说说机器学习这个最近两年计算机领域最火的话题,这不是一篇机器学习的技术文章,只是告诉大家机器学习里面的坑实在是太多,而且很多还没入门或者刚刚入门的朋友们转载 2016-08-22 22:10:38 · 971 阅读 · 5 评论 -
深度学习在人脸识别中的应用 ——优图祖母模型的“进化”
序言——“弱弱”的人工智能 说到人工智能(Artificial Intelligence, AI)人们总是很容易和全知、全能这样的词联系起来。大量关于AI的科幻电影更给人工智能蒙上一层神秘的色彩。强如《黑客帝国》、《机械公敌》中的AI要翻身做主人统治全人类。稍弱点的《机械姬》里EVA懂得利用美貌欺骗中二程序员,杀死主人逃出升天。最不济也可以蠢萌蠢萌的像WALL·E能陪玩、送礼物还能谈个恋爱。 其实翻译 2016-08-13 19:48:48 · 1538 阅读 · 0 评论 -
ML 工程师需了解的 10 大算法
毫无疑问,机器学习/人工智能的子领域在过去几年越来越流行。由于大数据是目前科技领域最热门的趋势,基于这些大规模的数据,机器学习在预测和计算建议方面变得不可思议的强大。最常见的机器学习的例子就是 Netflix(一家在线影片租赁提供商)的算法,它能基于你过去看过的电影来推荐电影,或着 Amazon 的算法,它能基于你过去买的书,来推荐书给你。那么如果你想进一步了解机器学习,你应该怎样开始原创 2016-08-14 09:28:40 · 809 阅读 · 0 评论 -
面试机器学习、大数据岗位时遇到的各种问题
自己的专业方向是机器学习、数据挖掘,就业意向是互联网行业与本专业相关的工作岗位。各个企业对这类岗位的命名可能有所不同,比如数据挖掘/自然语言处理/机器学习算法工程师,或简称算法工程师,还有的称为搜索/推荐算法工程师,甚至有的并入后台工程师的范畴,视岗位具体要求而定。机器学习、大数据相关岗位的职责自己参与面试的提供算法岗位的公司有 BAT、小米、360、飞维美地、宜信、猿题库 等,根原创 2016-08-14 09:31:16 · 2524 阅读 · 0 评论 -
南京大学LAMDA所长周志华:机器学习的现状与未来
周志华,南京大学教授,计算机科学与技术系副主任,软件新技术国家重点实验室常务副主任,机器学习与数据挖掘研究所(LAMDA)所长;ACM杰出科学家,IEEE Fellow,AAAI Fellow, IAPR Fellow,中国计算机学会会士;长江学者特聘教授,国家杰出青年基金获得者。在 2016 CCF-GAIR 全球人工智能与机器人峰会上,周志华教授接受了雷锋网的采访,分享了他对于转载 2016-08-14 09:33:37 · 5988 阅读 · 0 评论 -
深度学习RCNN系列总结
RCNN学习笔记(11):R-FCN: Object Detection via Region-based Fully Convolutional NetworksRCNN学习笔记(10):SSD:Single Shot MultiBox DetectorRCNN学习笔记(8):Fully Convolutional Networks for Semantic Segmentati转载 2016-12-11 22:04:13 · 965 阅读 · 0 评论 -
深度学习(deep learning)--资料大全
最近在学深度学习相关的东西,在网上搜集到了一些不错的资料,现在汇总一下:Free Online BooksDeep Learning66 by Yoshua Bengio, Ian Goodfellow and Aaron CourvilleNeural Networks and Deep Learning42 by Michael NielsenDeep Learning27 b转载 2017-01-15 10:57:36 · 1903 阅读 · 0 评论 -
深度学习的下一个热点——GANs将改变世界
本文作者 Nikolai Yakovenko 毕业于哥伦比亚大学,目前是 Google 的工程师,致力于构建人工智能系统,专注于语言处理、文本分类、解析与生成。生成式对抗网络—简称GANs—将成为深度学习的下一个热点,它将改变我们认知世界的方式。准确来讲,对抗式训练为指导人工智能完成复杂任务提供了一个全新的思路,某种意义上他们(人工智能)将学习如何成为一个专家。转载 2017-01-12 15:44:53 · 891 阅读 · 0 评论 -
迁移学习和微调深度卷积神经网络
这是由几个部分组成的博客系列,我将在此系列中聊一聊我对深度学习的经验及认识。在第一部分,我讨论了不同的有代表性的框架的优劣,以及我选择 Theano(与 Lasagne)作为我的平台的原因。第二部分是基于我将要在 2016 年度数据科学论坛(The Data Science Conference)上的发言内容整理的。我将在这部分讲解深度卷积神经网络(DCNN:Deep Convolut翻译 2016-08-30 20:59:32 · 11587 阅读 · 2 评论 -
论文笔记《ImageNet Classification with Deep Convolutional》
一、摘要 了解CNN必读的一篇论文,有些东西还是可以了解的。二、结构 1、 Relu的好处: 1、在训练时间上,比tanh和sigmod快,而且BP的时候求导也很容易 2、因为是非饱和函数,所以基本不会出现梯度消失的情况 Relu只要控制好learing rate,可以说是完胜之前的激活函数,也因此可...原创 2018-09-27 12:18:11 · 453 阅读 · 0 评论 -
深度学习相关资料(1)
一、学习清单1、综合类(1)收集了各种最新最经典的文献,神经网络的资源列表:https://github.com/robertsdionne/neural-network-papers 里面包含了深度学习领域经典、以及最新最牛逼的算法,如果把这个列表学过一遍,基本已然达到了大神级别。(2)机器学习学习清单:https://github.com/ujjwalkarn/Machine-L原创 2016-05-07 17:11:12 · 1335 阅读 · 0 评论 -
基于R-CNN的物体检测
基于R-CNN的物体检测原文地址:http://blog.csdn.net/hjimce/article/details/50187029作者:hjimce一、相关理论 本篇博文主要讲解2014年CVPR上的经典paper:《Rich feature hierarchies for Accurate Object Detection and Segmentation》,这篇转载 2016-05-07 17:06:26 · 857 阅读 · 0 评论 -
CNN应用之性别、年龄识别
原文地址:http://blog.csdn.net/hjimce/article/details/49255013作者:hjimce一、相关理论 本篇博文主要讲解2015年一篇paper《Age and Gender Classification using Convolutional Neural Networks》,个人感觉这篇文献没啥难度,只要懂得Alexnet,实现这篇文转载 2016-05-07 10:28:49 · 1848 阅读 · 0 评论 -
七步教你精通Python机器学习
开始。这是最容易令人丧失斗志的两个字。迈出第一步通常最艰难。当可以选择的方向太多时,就更让人两腿发软了。从哪里开始? 本文旨在通过七个步骤,使用全部免费的线上资料,帮助新人获取最基本的 Python 机器学习知识,直至成为博学的机器学习实践者。这篇概述的主要目的是带领读者接触众多免费的学习资源。这些资源有很多,但哪些是最好的?哪些相互补充?怎样的学习顺序才最好?我假定本原创 2016-03-19 21:23:12 · 850 阅读 · 0 评论 -
支持向量机SVM(一)
1 简介支持向量机基本上是最好的有监督学习算法了。这份材料从前几节讲的logistic回归出发,引出了SVM,既揭示了模型间的联系,也让人觉得过渡更自然。2 重新审视logistic回归Logistic回归目的是从特征学习出一个0/1分类模型,而这个模型是将特性的线性组合作为自变量,由于自变量的取值范围是负无穷到正无穷。因此,使用logistic函数(或称作sigmoid函转载 2016-04-03 11:23:58 · 1009 阅读 · 0 评论 -
支持向量机SVM(二)
6 拉格朗日对偶(Lagrange duality) 先抛开上面的二次规划问题,先来看看存在等式约束的极值问题求法,比如下面的最优化问题: 目标函数是f(w),下面是等式约束。通常解法是引入拉格朗日算子,这里使用来表示算子,得到拉格朗日公式为 L是等式约束的个数。 然后分别对w和求偏导,使得偏转载 2016-04-03 11:47:49 · 653 阅读 · 0 评论 -
支持向量机SVM(三)
7 核函数(Kernels)考虑我们最初在“线性回归”中提出的问题,特征是房子的面积x,这里的x是实数,结果y是房子的价格。假设我们从样本点的分布中看到x和y符合3次曲线,那么我们希望使用x的三次多项式来逼近这些样本点。那么首先需要将特征x扩展到三维,然后寻找特征和结果之间的模型。我们将这种特征变换称作特征映射(feature mapping)。映射函数称作,在这个例子中转载 2016-04-03 11:49:29 · 749 阅读 · 0 评论 -
支持向量机SVM(四)
9 规则化和不可分情况处理(Regularization and the non-separable case)我们之前讨论的情况都是建立在样例线性可分的假设上,当样例线性不可分时,我们可以尝试使用核函数来将特征映射到高维,这样很可能就可分了。然而,映射后我们也不能100%保证可分。那怎么办呢,我们需要将模型进行调整,以保证在不可分的情况下,也能够尽可能地找出分隔超平面。看下面两张转载 2016-04-03 11:50:16 · 622 阅读 · 0 评论 -
支持向量机SVM(五)
11 SMO优化算法(Sequential minimal optimization)SMO算法由Microsoft Research的John C. Platt在1998年提出,并成为最快的二次规划优化算法,特别针对线性SVM和数据稀疏时性能更优。关于SMO最好的资料就是他本人写的《Sequential Minimal Optimization A Fast Algorithm for转载 2016-04-03 11:51:16 · 136 阅读 · 0 评论 -
对支持向量机SVM的总结和理解篇(六)
之前以为SVM很强大很神秘,自己了解了之后发现原理并不难,不过,“大师的功力在于将idea使用数学定义它,使用物理描述它”,这一点在看SVM的数学部分的时候已经深刻的体会到了,最小二乘法、梯度下降法、拉格朗日乘子、对偶问题等等被搞的焦头烂额。在培乐园听了讲课之后才算比较清晰的了解了整个数学推导的来龙去脉。1. 为什么一定要研究线性分类?首先说一下为什么对数据集一定要说线性可分或线性不可分,转载 2016-04-04 08:59:04 · 3535 阅读 · 0 评论 -
支持向量机SVM核函数的选择(七)
支持向量机是建立在统计学习理论基础之上的新一代机器学习算法,支持向量机的优势主要体现在解决线性不可分问题,它通过引入核函数,巧妙地解决了在高维空间中的内积运算,从而很好地解决了非线性分类问题。要构造出一个具有良好性能的SVM,核函数的选择是关键也是最重要的一步.通常来讲核函数的选择包括两部分工作:一是核函数类型的选择,二是确定核函数类型后相关参数的选择。如何根据具体的数据选择恰当的核函数是SVM应原创 2016-04-04 10:05:08 · 20558 阅读 · 1 评论 -
Bagging算法细讲
Bagging算法:让该学习算法训练多轮,每轮的训练集由从初始的训练集中随机取出的n个训练样本组成,某个初始训练样本在某轮训练集中可以出现多次或根本不出现,训练之后可得到一个预测函数序列h_1,⋯ ⋯h_n ,最终的预测函数H对分类问题采用投票方式,对回归问题采用简单平均方法对新示例进行判别。思想:1).从原始样本集中用Bootstrap采样选出n个样本(新)2).对这n个样本建立分类原创 2016-04-04 14:14:55 · 5033 阅读 · 0 评论 -
读Nature文章,看AlphaGo养成
博主是围棋小白,下棋规则都记不清楚,也没有设计过棋类AI程序。这篇文章主要是阅读《Nature》论文及关于AlphaGo的相关文章的学习心得。本文的主要目的是增进分享,交流学习,方便初学者了解AlphaGo中的算法,以及一些机器学习中的常见思路。真正的工程实现过程远比本文介绍得复杂。本文更多是启发式地进行阐述与分析,包括一些作者结合自己的理解进行的简化处理。文章中不严谨和理解不当之处,欢迎大家翻译 2016-04-04 14:53:07 · 1661 阅读 · 0 评论 -
机器学习中的范数规则化之(一)L0、L1与L2范数
机器学习中的范数规则化之(一)L0、L1与L2范数 今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化。我们先简单的来理解下常用的L0、L1、L2和核范数规则化。最后聊下规则化项参数的选择问题。这里因为篇幅比较庞大,为了不吓到大家,我将这个五个部分分成两篇博文。知识有限,以下都是我一些浅显的看法,如果理解存在错误,希望大家不吝指正。谢谢。转载 2016-04-04 16:44:47 · 579 阅读 · 0 评论 -
机器学习中的范数规则化之(二)核范数与规则项参数选择
机器学习中的范数规则化之(二)核范数与规则项参数选择 上一篇博文,我们聊到了L0,L1和L2范数,这篇我们絮叨絮叨下核范数和规则项参数选择。知识有限,以下都是我一些浅显的看法,如果理解存在错误,希望大家不吝指正。谢谢。 三、核范数 核范数||W||*是指矩阵奇异值的和,英文称呼叫Nuclear Norm。这个相对于上面火热的L1和L2来说,可能大家就会陌生点转载 2016-04-04 17:37:05 · 668 阅读 · 0 评论 -
Stanford机器学习-- 逻辑回归和过拟合问题的解决 logistic Regression & Regularization
什么是逻辑回归?Logistic回归与多重线性回归实际上有很多相同之处,最大的区别就在于它们的因变量不同,其他的基本都差不多。正是因为如此,这两种回归可以归于同一个家族,即广义线性模型(generalizedlinear model)。这一家族中的模型形式基本上都差不多,不同的就是因变量不同。如果是连续的,就是多重线性回归;如果是二项分布,就是Logistic回归;转载 2016-04-05 23:26:24 · 5788 阅读 · 0 评论 -
CVPR 2015 之深度学习总结
Part 1 - AlexNet 和 VGG-Net 今年的 CVPR 非常的火爆,总共有2800多人参与,相比去年增加了700多人,这与deep learning的异军突起是不无关系的。CVPR 2015 基本是 “the year of deep learning”,有大概70%的文章是关于deep learning的。大会请来了2位 keynote speakers: 计算原创 2016-05-12 22:46:37 · 1373 阅读 · 0 评论 -
caffe的层结构可视化工具
Netscope这个工具主要是支持可视化神经网络结构,它可以用来可视化caffe结构里的prototxt结构Gist SupportIf your .prototxt file is part of a GitHub Gist, you can visualize it by visiting this URL:http://ethereon.github.io/n原创 2016-05-13 09:05:33 · 4655 阅读 · 0 评论 -
深度学习导论 - 读李宏毅《1天搞懂深度学习》
ppt下载地址”《1天搞懂深度学习》,300多页的ppt,台湾李宏毅教授写的,非常棒。不夸张地说,是我看过最系统,也最通俗易懂的,关于深度学习的文章。“这是slideshare的链接:http://www.slideshare.net/tw_dsconf/ss-62245351?qid=108adce3-2c3d-4758-a830-95d0a57e46bc&v=&b=&a...转载 2018-09-29 16:22:26 · 480 阅读 · 0 评论