自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

开心妙妙屋

开发、科研及学习交流的平台

  • 博客(144)
  • 收藏
  • 关注

转载 MLP多层感知机原理简介+代码详解

DeepLearning tutorial(3)MLP多层感知机原理简介+代码详解@author:wepon@blog:http://blog.csdn.net/u012162613/article/details/43221829本文介绍多层感知机算法,特别是详细解读其代码实现,基于python theano,代码来自:Multilayer Perceptron,如果你想详细了...

2019-07-21 11:37:02 17367 1

转载 ML算法整理(一)线性回归与梯度下降 python实现

回归算法以下均为自己看视频做的笔记,自用,侵删!转自https://www.cnblogs.com/douzujun/p/8370657.html一、线性回归θ是bias(偏置项)线性回归算法代码实现# coding: utf-8​get_ipython().run_line_magic('matplotlib', 'inline'...

2019-03-25 18:34:12 452

原创 梯度下降-单变量线性回归-理论+代码+解释

用梯度下降实现线性回归y = mx + b 其中m是线性函数的斜率(Slope of the line),b是偏置(bias)数据集:Swedish Insurance Dataset代价函数/损失函数 Cost Function [J]= (1/2n) * sum((y_hat-y)^2)其中:n为输入数据点的总个数y_hat:使用从梯度下降获得的“m”和“b”值的y...

2019-03-25 10:46:58 679

原创 梯度下降-从0开始一行代码一解释

问题描述 :求y=(x+5)²的最小值,x从3开始。我们知道当x=-5时,y=0是最小值,现在我们通过梯度下降来实现这个过程。步骤1:初始化时从x=3开始,求出导数函数,dy/dx = 2*(x+5).步骤2:向梯度下降方向移动,考虑如何移动,比如下没有台阶的楼梯,楼梯的斜率(倾斜度)是多少?每一步的步长是多少?我们假设斜率即learning rate→ 0.01.步骤3:开...

2019-03-25 10:01:10 485

转载 【转】详解GAN代码之逐行解析GAN代码

训练数据集:手写数字识别下载链接:https://pan.baidu.com/s/1d9jX5xLHd1x3DFChVCe3LQ 密码:ws28   在本篇博客中,笔者将逐行解析一下NIPS 2014的Generative Adversarial Networks(生成对抗网络,简称GAN)代码,该篇文章作为GAN系列的开山之作,在近3年吸引了无数学者的目光。在2017-2018年,各大计...

2019-02-21 17:03:43 2273 2

转载 对抗样本

聪明汉斯的故事 在二十世纪初的德国,有一匹名叫汉斯的马非常有名。在主人威廉•冯•奥斯滕的训练下,聪明的汉斯经过了一段时间的训练,掌握了简单的数学运算。当奥斯滕问汉斯“一加一等于几”的时候,它会用蹄子在地上“嗒,嗒,嗒”的敲出答案。围观的群众看到汉斯能够正确的回答各种数学题,都感到惊讶和神奇。  同时,人们也疑惑,汉斯是否真的通过训练学会了过去人们认为动物做不到的事情。在一系...

2018-11-03 10:44:10 1055

转载 Bayesian Personalized Ranking

在推荐系统的实现中,几乎总会遇到从较多候选集中为用户选取特定的少数几个物品进行推荐,这本质上是一个Ranking问题。 在推荐场景中用户更缺乏耐性,对推荐结果的消费也十分有限。因此,排序的好坏直接决定了用户对一个准确率为90%的推荐候选集的满意度是否真的有90%。 这里我们为大家介绍一种“基于贝叶斯后验优化的个性化排序算法”:Bayesian Personalized Rankin...

2018-10-11 08:47:28 397

原创 基于Pairwise排序学习的因子分解推荐算法

摘要: 针对基于内存的协同过滤推荐算法存在推荐列表排序效果不佳的问题,提出基于Pairwise排序学习的因子分解推荐算法(简称Pairwise-SVD推荐算法)。新算法将因子分解的预测结果作为排序学习算法的输入,把排序问题转化成分类问题使用排序学习理论进行排序产生推荐列表。实验结果表明相比基于内存的协同过滤推荐算法,Pairwise-SVD推荐算法的排序效果更佳。其在指标Kendall-tau上提...

2018-10-07 11:35:00 1321

原创 1分钟带你理解pairwise

题目找到你的另一半都说优秀的程序员擅长面向对象编程,但却经常找不到另一半,这是为什么呢?因为你总是把自己局限成为一个程序员,没有打开自己的思维。这是一个社群的时代啊,在这里你应该找到与你有相同价值观但又互补的另一半。譬如:你编程能力强,估值11分,如果以20分为最佳情侣来计算,你应该找一个设计能力强,估值为9分的女生。那么当你遇到一个设计能力为9分的女生,千万别犹豫,大胆去表白...

2018-10-07 11:33:03 18018

转载 机器学习排序之Learning to Rank简单介绍

机器学习排序之Learning to Rank简单介绍 标签: Learning to Rank学习排序PointwisePairwiseListwise2015-01-03 21:50 2318人阅读 评论(0) 收藏 举报本文章已收录于:分类:学习排序(2) 作者同类文章X机器学习(9) 作者同类文章X目录(?)[+]1 机器学习排序Learning ...

2018-10-07 11:29:02 542

转载 迁移学习:经典算法解析

http://blog.csdn.net/linolzhang/article/details/73358219一. 了解迁移学习       迁移学习(Transfer Learning)目标是将从一个环境中学到的知识用来帮助新环境中的学习任务。            > The ability of a system to recognize and apply knowle...

2018-09-23 08:59:34 2752 1

转载 梯度下降探究

机器学习所涉及的内容实在是太多了,于是我决定挑个软柿子捏起,从最基础的一个优化算法开始聊起。这个算法就是梯度下降法,英文Gradient Descent。什么是梯度下降法作为大众耳熟能详的优化算法,梯度下降法受到的关注不要太多。梯度下降法极易理解,但凡学过一点数学的童鞋都知道,梯度方向表示了函数增长速度最快的方向,那么和它相反的方向就是函数减少速度最快的方向了。对于机器学习模型优化的问题,...

2018-09-19 15:13:32 171

转载 机器学习路线图(附资料)

注:此篇博客为转载,尊重原创。原文链接地址为:http://blog.csdn.net/longxinchen_ml/article/details/50749614作者: 龙心尘 && 寒小阳 时间:2016年2月。 出处:http://blog.csdn.net/longxinchen_ml/article/details/50749614 http://blog.cs...

2018-09-19 08:36:58 384

转载 最值得看的十大机器学习公开课

在当下的机器学习热潮,人才匮乏十分显著。截至目前,国内开设人工智能(AI)专业的高校不多,相当多的开发者是跨界入门,需要自学大量知识并摸索。因而优质的学习资源至关重要。因此,雷锋网搜集了全世界范围内最受欢迎的机器学习课程,整理成这份“机器学习十大入门公开课”盘点,集中呈现给各位。这份推荐榜颇费心血,综合考虑了难易、侧重点、时效性等诸多因素,希望能帮助大家找到最适合自己的学习资源。这些课程全部免...

2018-09-19 08:12:14 306

转载 协同过滤算法概述与python 实现协同过滤算法(usr-item,item-item)

协调过滤推荐概述  协同过滤(Collaborative Filtering)作为推荐算法中最经典的类型,包括在线的协同和离线的过滤两部分。所谓在线协同,就是通过在线数据找到用户可能喜欢的物品,而离线过滤,则是过滤掉一些不值得推荐的数据,比比如推荐值评分低的数据,或者虽然推荐值高但是用户已经购买的数据。   协同过滤的模型一般为m个物品,m个用户的数据,只有部分用户和部分数据之间是有评分数据...

2018-09-17 21:10:24 1557 1

转载 pyCharm第三方库安装

在机器学习过程中,我使用的是JetBrains的python开发工具pyCharm,发现很多函数操作借助第三方函数库能够很容易的实现,但是下载好的pyCharm不自带各种类库,网上推荐还要借助其他类似Anaconda的工具导入,十分麻烦,lz更新pyCharm至最新版后发现它自带第三方库添加功能,分享给大家:1、点击pyCharm右上角的file选中settings2、找到项目下...

2018-09-17 08:04:57 852

转载 一文概述深度学习中的正则化(含Python代码)

如果图片无法显示,请查看源文章转载之https://www.jqr.com/article/000173 作者:SHUBHAM JAIN 翻译:和中华 校对:丁楠雅 本文约3500字,建议阅读20分钟。 本文简单介绍了什么是正则化以及在深度学习任务中可以采用哪些正则化技术,并以keras代码具体讲解了一个案例。   简介 数据科学家...

2018-09-09 07:58:34 1294

转载 机器学习之正则化(Regularization)

 1. The Problem of Overfitting1还是来看预测房价的这个例子,我们先对该数据做线性回归,也就是左边第一张图。如果这么做,我们可以获得拟合数据的这样一条直线,但是,实际上这并不是一个很好的模型。我们看看这些数据,很明显,随着房子面积增大,住房价格的变化趋于稳定或者说越往右越平缓。因此线性回归并没有很好拟合训练数据。我们把此类情况称为欠拟合(und...

2018-09-09 07:47:55 224

转载 L2正则化推导

在机器学习中,无论是分类还是回归,都可能存在由于特征过多而导致的过拟合问题。当然解决的办法有   (1)减少特征,留取最重要的特征。  (2)惩罚不重要的特征的权重。 但是通常情况下,我们不知道应该惩罚哪些特征的权重取值。通过正则化方法可以防止过拟合,提高泛化能力。 先来看看L2正则化方法。对于之前梯度下降讲到的损失函数来说,在代价函数后面加上一个正则化项,得到 ...

2018-09-09 07:34:14 4278

原创 Coursera公开课笔记: 斯坦福大学机器学习第七课“正则化(Regularization)”

斯坦福大学机器学习第七课"正则化“学习笔记,本次课程主要包括4部分:1)  The Problem of Overfitting(过拟合问题)2)  Cost Function(成本函数)3)  Regularized Linear Regression(线性回归的正则化)4)  Regularized Logistic Regression(逻辑回归的正则化)以下是每一部分的...

2018-09-09 07:25:39 218

转载 矩阵分解(MF)方法及代码

一、基于投影梯度法的非负矩阵分解论文:Projected gradient methods for non-negative matrix factorization 代码:Matlab及Python源码二、基于类牛顿法的最小二乘矩阵近似解法论文:Fast Newton-type Methods for the Least Squares Nonnegative Matrix App...

2018-09-08 16:42:18 1138

原创 SVD在推荐系统中的推导及应用-简单明了

参考自:http://www.igvita.com/2007/01/15/svd-recommendation-system-in-ruby/其实说参考也不准确,准确地说应该是半翻译半学习笔记。仔细整理一遍,感觉还是收获很大的。线性代数相关知识:任意一个M*N的矩阵A(M行*N列,M>N),可以被写成三个矩阵的乘积:1. U:(M行M列的列正交矩阵)2. S:(M*N...

2018-09-08 16:31:30 486

原创 迁移学习和数据扩充(附代码)

一 迁移学习如果你要做一个计算机视觉的应用,相比于从头训练权重,或者说从随机初始化权重开始,如果你下载别人已经训练好网络结构的权重,你通常能够进展的相当快,用这个作为预训练,然后转换到你感兴趣的任务上。计算机视觉的研究社区非常喜欢把许多数据集上传到网上,如果你听说过,比如 ImageNet, 或者 MS COCO,或者 Pascal 类型的数据集,这些都是不同数据集的名字,它们都是由大家上传到...

2018-09-05 06:23:01 5125

转载 迁移学习——数据不够的情况下训练深度学习模型

https://news.cnblogs.com/n/562441/  深度学习大牛吴恩达曾经说过:做 AI 研究就像造宇宙飞船,除了充足的燃料之外,强劲的引擎也是必不可少的。假如燃料不足,则飞船就无法进入预定轨道。而引擎不够强劲,飞船甚至不能升空。类比于 AI,深度学习模型就好像引擎,海量的训练数据就好像燃料,这两者对于 AI 而言同样缺一不可。  随着深度学习技术在机器翻译、策略游戏和...

2018-09-05 06:12:29 923

转载 李宏毅机器学习课程-Transfer Learning

深度学习 -> 强化学习 ->迁移学习(杨强教授报告)李宏毅机器学习课程-Transfer Learning迁移学习-吴恩达 freeze待处理的理解深层神经网络中的迁移学习及TensorFlow实现Transfer Learning模式Similar domain, different tasksDifferent domains, same t...

2018-09-05 06:00:40 306

转载 为什么我们需要研究迁移学习?

 首先,生活上我们遇到更多的是小数据,而在小数据上学习的模型,才是真正的智能。第二,我们希望构建的系统不仅在那个领域能够发挥作用,在其周边也可以发挥作用。即我们希望系统是可靠的,其可以举一反三和融会贯通,这也是我们赋予智慧的一种定义。第三,我们希望更重要的是如何能够把一个通用的系统加上个人的小数据,而迁移到个人的场景当中去,因此我们可以向个性化方向发展。迁移学习就是一个必不可少的工具。...

2018-09-05 05:58:23 2166

转载 小数据、高准确率的文本分类:利用迁移学习创造通用语言模型

作者 | Jeremy Howard、Sebastian Ruder译者 | Liu Zhiyong编辑 | Natalie,VincentAI 前线导读:本文是对 Fast.ai 新论文的介绍,面向大众读者,阐述了如何自动对文档进行分类,同时比以前的方法具有更高的准确率,以及更少的数据需求。本文将用简单的术语来解释:自然语言处理、文本分类、迁移学习、语言建模;以及这个新的方法是如何将...

2018-09-05 05:51:39 1960

转载 GMIS 2017大会杨强演讲:迁移学习的挑战和六大突破点

转自:2017-05-28 · 机器之心   5 月 28 日,机器之心主办的为期两天的全球机器智能峰会(GMIS 2017)进入第二天,全天议程中最受关注的是多位重要嘉宾出席的领袖峰会,包括《人工智能:一种现代方法》的作者 Stuart Russell、第四范式联合创始人兼首席科学家杨强、科大讯飞执行总裁兼消费者事业群总裁胡郁、阿尔伯塔大学教授及计算机围棋顶级专家Martin Müll...

2018-09-01 11:12:23 216

转载 什么是迁移学习?迁移学习的实现方法与工具分析

 深度学习主要强调的是特征,强化学习主要强调的是反馈,而迁移学习主要强调的是适应。之前介绍过人工智能之机器学习算法有前5大类内容,具体请参见相关文章。今天我们重点探讨一下第6类--迁移学习(Transfer Learning)。^_^传统的机器学习是种瓜得瓜,种豆得豆,而迁移学习可以举一反三,投桃报李。人工智能竞争,从算法模型的研发竞争,转向数据和数据质量的竞争,这些成功的模型和算法主...

2018-09-01 11:00:57 14694

转载 机器学习的明天——迁移学习

         上个月,柯洁大战AlphaGo落下帷幕,19岁的男孩少有地在比赛中落泪,赛后他为我们留下一句话,柯洁说“AlphaGo”看上去像神一样的存在,好像他是无懈可击的···        的确,DeepMind创造的AlphaGo让人为之赞叹,让柯洁为之疯狂。而背后,从机器学习的角度,充分证明了深度强化学习和大数据的重要意义。DeepMind就是将深度学习应用到强化学习的范例,...

2018-09-01 10:55:33 425

转载 迁移学习

摘要: 到底是迁移学习?什么时候使用它?如何使用它?所谓迁移学习是指针对新问题重新使用预先训练的模型。由于它能用较少的数据训练深度神经网络,这使得目前它在深度学习领域非常流行。通过这篇文章您将会了解什么是迁移学习,它是如何工作的,为什么应该使用它以及何时可以使用它。同时这篇文章将向您介绍迁移学习的不同方法,并为您提供一些已经预先训练过的模型的资源。目录:1.   它是什么?2....

2018-09-01 10:52:16 1586

转载 基于深度学习和迁移学习的识花实践

罗大钧关键词:深度学习; 迁移学习; VGG; CNN编辑:王佳;审稿:张源源、黄俊文、边蓓蕾深度学习是人工智能领域近年来最火热的话题之一,但是对于个人来说,以往想要玩转深度学习除了要具备高超的编程技巧,还需要有海量的数据和强劲的硬件。不过 TensorFlow 和 Keras 等框架的出现大大降低了编程的复杂度,而迁移学习的思想也允许我们利用现有的模型加上少量数据和训练时间,取得不俗...

2018-09-01 10:37:13 1203 1

转载 什么是迁移学习?它都用在深度学习的哪些场景上?

 迁移学习是机器学习方法之一,它可以把为一个任务开发的模型重新用在另一个不同的任务中,并作为另一个任务模型的起点。这在深度学习中是一种常见的方法。由于在计算机视觉和自然语言处理上,开发神经网络模型需要大量的计算和时间资源,技术跨度也比较大。所以,预训练的模型通常会被重新用作计算机视觉和自然语言处理任务的起点。这篇文章会发现告诉你,如何使用迁移学习来加速训练过程和提高深度学习模型的性...

2018-09-01 10:31:20 1388

转载 迁移学习:经典算法解析

一. 了解迁移学习       迁移学习(Transfer Learning)目标是将从一个环境中学到的知识用来帮助新环境中的学习任务。            > The ability of a system to recognize and apply knowledge and skills learned in previous tasks to novel tasks。...

2018-09-01 10:24:21 2092

转载 什么是迁移学习 (Transfer Learning)?这个领域历史发展前景如何?

深度神经网络,相比于之前的传统机器学习方法,可以看成是一个全新的物种,这背后的原因,最明显的还是深度学习对机器算力的巨大需求,在深度学习入门最少需要知道什么?中介绍了深度学习所需的显卡资源,而当前大内存的机器不贵,而高性能,大显存的显卡就没那么便宜了。这使得使用深度学习去处理实际生活中遇到的问题,例如图像和语音的识别时,需要消耗大量的资源。而迁移可以改变这一切,显著的降低深度学习所需的硬件资源。...

2018-09-01 10:12:56 519

原创 推荐系统综述

一、推荐系统的发展     1992 年, Goldberg等人在帕洛阿尔托研究中心Tapestry系统]中第一次引入了协同过滤的思想。此后的三年内,用来对Usenet新闻消息进行自动协同过滤的Grouplens系统,对音乐专辑及艺术家进行协同过滤的Ringo系统,对电影进行协同过滤的贝尔视频推荐器相继出现,极大的促进了协同过滤技术的发展。     1997 年,Resni

2017-02-15 10:10:18 8960

转载 NMF从0-1

http://blog.csdn.net/pipisorry/article/details/52098864非负矩阵分解(NMF,Non-negative matrix factorization)NMF的发展及原理  著名的科学杂志《Nature》于1999年刊登了两位科学家D.D.Lee和H.S.Seung对数学中非负矩阵研究的突出成果。该文提出了一种新的矩阵分解思想

2017-02-10 09:47:00 3847

转载 从贝叶斯定理说开去

从贝叶斯定理说开去罗朝辉 (http://kesalin.github.io/)CC 许可,转载请署名并保留出处简介贝叶斯定理是18世纪英国数学家托马斯·贝叶斯(Thomas Bayes)提出得重要概率论理论。以下摘一段 wikipedia 上的简介:所谓的贝叶斯定理源于他生前为解决一个“逆概”问题写的

2017-02-05 08:16:28 436

转载 PCA是啥

出处:blog.csdn.net/yoboboboMotivationPCA的作用是什么我们为什么要用PCADefinitionPCA是啥Related knowledge要预备的知识Main Process处理流程Why为什么特征值这么神奇详细线型变换最近自学的重点是特征工程,首当其冲的当然是PCA,可是看了好几篇国内搜索靠前的博客大部分都是

2017-02-05 07:39:31 927

转载 过拟合

从上周开始,突然想起了正则化这么个东西,一直都听到加个范数就可以防止过拟合,正则化为什么这么神奇呢? 断断续续地看了一周的相关书籍,博客,决定先来个短暂的总结,以后有了更深入的理解再来补充。什么是过拟合第一范数正则化项定义模型变化基于 Occams razor 的解释第二范数正则项定义模型变化condition number再遇贝叶斯总结

2017-02-05 07:24:35 573

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除