机器学习
文章平均质量分 94
huahuazhu
这个作者很懒,什么都没留下…
展开
-
卷积神经网络(CNN)反向传播算法推导
在之前的文章中我介绍了多层感知机反向传播的数学推导,主要是用数学公式来进行表示的,在全连接神经网络中,它们并不复杂,即使是纯数学公式也比较好理解。而卷积神经网络相对比较复杂,在本篇文章中我们将从直观感受和数学公式两方面来介绍CNN反向传播算法的推导。南柯一梦宁沉沦:神经网络中反向传播算法数学推导83 赞同 · 10 评论文章首先我给大家介绍一下我分析delta误差反向传播过程的简单方法,如果神经网络l+1层某个结点的delta误差要传到l层,我们就去找前向传播时l+1层的这个结点和第l层的哪转载 2021-08-04 13:57:50 · 1266 阅读 · 0 评论 -
推荐系统架构
推荐系统介绍当下,个性化推荐成了互联网产品的标配。但是,人们对推荐该如何来做,也就是推荐技术本身,还不甚了解。为此,好学的你肯定在收藏着朋友圈里流传的相关文章,转发着微博上的相关讨论话题,甚至还会不断奔走在各种大小行业会议之间,听着大厂职工们讲那些干货。我知道,这样碎片化的吸收,增加了知识的同时,也增加了焦虑。因为技术的不平等广泛存在于业界内,推荐系统也不例外。推荐系统从搜索引擎借鉴了不少技术...转载 2019-07-02 14:06:57 · 417 阅读 · 0 评论 -
一文简单理解推荐系统
本文主要介绍什么是推荐系统,为什么需要推荐系统,如何实现推荐系统的方案,包括实现推荐系统的一些常见模型,希望给读者提供学习实践参考。1 推荐系统概述为什么需要推荐系统信息爆炸对于信息消费者,需要从大量信息中找到自己感兴趣的信息,而在信息过载时代,用户难以从大量信息中获取自己感兴趣、或者对自己有价值的信息。 对于信息生产者,信息生产者,需要让自己生产的信息脱颖而出,受到广大...转载 2019-07-01 16:59:47 · 936 阅读 · 0 评论 -
吴恩达《神经网络与深度学习》课程笔记(1)-- 深度学习概述
本课程笔记参考了黄海广博士和红色石头的笔记,加入了自己的理解。本课程对应的作业,本人已翻译,放在github上,地址如下:https://github.com/fuhuaxu/deeplearning-ai-assignment/tree/master/lesson11. What is a neural network?简单来说,深度学习(Deep Learning)就是更复杂的...原创 2019-05-05 21:34:47 · 695 阅读 · 0 评论 -
吴恩达《神经网络与深度学习》课程笔记(2)-- 神经网络基础之逻辑回归
本笔记参考了黄海广博士和红色石头的笔记。本课程对应的作业,本人已翻译,放在github上,地址如下:https://github.com/fuhuaxu/deeplearning-ai-assignment/tree/master/lesson1上节课我们主要对深度学习(Deep Learning)的概念做了简要的概述。我们先从房价预测的例子出发,建立了标准的神经网络(Neura...原创 2019-05-05 21:54:56 · 964 阅读 · 0 评论 -
吴恩达《神经网络与深度学习》课程笔记(5)-- 深层神经网络
本笔记主要参考了红色石头的笔记,在此表示感谢。本课程对应的作业,本人已翻译,放在github上,地址如下:https://github.com/fuhuaxu/deeplearning-ai-assignment/tree/master/lesson1上节课我们主要介绍了浅层神经网络。首先介绍神经网络的基本结构,包括输入层,隐藏层和输出层。然后以简单的2 layer NN为例,详...原创 2019-05-06 10:46:11 · 720 阅读 · 0 评论 -
吴恩达《神经网络与深度学习》课程笔记(4)-- 浅层神经网络
本课程对应的作业,本人已翻译,放在github上,地址如下:https://github.com/fuhuaxu/deeplearning-ai-assignment/tree/master/lesson1上节课我们主要介绍了向量化、矩阵计算的方法和python编程的相关技巧。并以逻辑回归为例,将其算法流程包括梯度下降转换为向量化的形式,从而大大提高了程序运算速度。本节课我们将从浅层...原创 2019-05-06 10:31:58 · 644 阅读 · 0 评论 -
吴恩达《神经网络与深度学习》课程笔记(3)-- 神经网络基础之Python与向量化
本笔记参考了黄海广博士和红色石头的笔记内容。本课程对应的作业,本人已翻译,放在github上,地址如下:https://github.com/fuhuaxu/deeplearning-ai-assignment/tree/master/lesson1上节课我们主要介绍了逻辑回归,以输出概率的形式来处理二分类问题。我们介绍了逻辑回归的Cost function表达式,并使用梯度下降...原创 2019-05-06 10:11:07 · 438 阅读 · 0 评论 -
win10(NVIDIA MX150) 安装tensorflow-gpu及keras
折腾了一天多TensorFlow-GPU的坑,安装了两次cuda。本篇基于NVIDIA GeForce MX150 安装 CUDA,cuDNN,Python(anaconda)TensorFlow-GPU(Windows10操作系统)安装顺序: 查看配置环境 —> CUDA Toolkit —> cuDNN —> Visual Studio 2015 Communi...原创 2019-04-13 14:32:32 · 4005 阅读 · 2 评论 -
随机森林的原理分析及Python代码实现
转载地址:https://blog.csdn.net/flying_sfeng/article/details/64133822/在讲随机森林前,我先讲一下什么是集成学习。集成学习通过构建并结合多个分类器来完成学习任务。集成学习通过将多个学习器进行结合,常可获得比单一学习器更好的泛化性能。考虑一个简单例子:在二分类任务中,假定三个分类器在三个测试样本上的表现如下图,其中√表示分类正确,×表示分类错...转载 2018-04-17 17:19:55 · 11317 阅读 · 0 评论 -
梯度下降算法总结
在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最常采用的方法之一,另一种常用的方法是最小二乘法。这里就对梯度下降法做一个完整的总结。1. 梯度 在微积分里面,对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。比如函数f(x,y), 分别对x,y求偏导数,求得的梯度向量就是(∂f/∂x, ∂f/∂转载 2018-01-25 10:55:21 · 882 阅读 · 0 评论 -
推荐系统学习--基于item的协同过滤算法及python实现
转载地址:http://blog.csdn.net/gamer_gyt/article/details/513461591:协同过滤算法简介2:协同过滤算法的核心3:协同过滤算法的应用方式4:基于用户的协同过滤算法实现5:基于物品的协同过滤算法实现一:协同过滤算法简介 关于协同过滤的一个最经典的例子就是看转载 2017-07-05 11:23:55 · 3091 阅读 · 0 评论 -
决策树算法及python实现
1 什么是决策树决策树(Decision Tree)是一种基本的分类与回归方法,本文主要讨论分类决策树。决策树模型呈树形结构,在分类问题中,表示基于特征对数据进行分类的过程。它可以认为是if-then规则的集合。每个内部节点表示在属性上的一个测试,每个分支代表一个测试输出,每个叶节点代表一种类别。 决策树的优点: 1)可以自学习。在学习过程中不需要使用者了解过多的背景知识,只需要对训练数据...原创 2017-06-13 11:48:21 · 33215 阅读 · 22 评论 -
TensorFlow学习---tf.nn.dropout防止过拟合
一、 Dropout原理简述:tf.nn.dropout是TensorFlow里面为了防止或减轻过拟合而使用的函数,它一般用在全连接层。Dropout就是在不同的训练过程中随机扔掉一部分神经元。也就是让某个神经元的激活值以一定的概率p,让其停止工作,这次训练过程中不更新权值,也不参加神经网络的计算。但是它的权重得保留下来(只是暂时不更新而已),因为下次样本输入时它可能又得工作了。示意图如下原创 2017-06-23 16:15:17 · 64956 阅读 · 13 评论 -
TensorFlow学习---tf.nn.conv2d实现卷积操作
tf.nn.conv2d是TensorFlow里面实现卷积的函数。tf.nn.conv2d(input, filter, strides,padding, use_cudnn_on_gpu=None, name=None)除去name参数用以指定该操作的name,与方法有关的一共五个参数:第一个参数input:指需要做卷积的输入图像,它要求是一个Tensor,具有[batch,in_h原创 2017-06-21 15:09:15 · 3445 阅读 · 0 评论 -
卷积神经网络学习--卷积和池化
卷积神经网络(CNN)由输入层、卷积层、激活函数、池化层、全连接层组成,即INPUT-CONV-RELU-POOL-FC。本文主要针对卷积层和池化层涉及的技术进行学习和整理,有理解的不对的地方希望能给指出,谢谢。卷积卷积层是用来进行特征提取的。下面就举一个简单例子来说明在卷积层是如何进行特征提取的。下图中的5*5矩阵A,是一副图像的像素值,使用一个3*3的卷积核(矩阵B)在原创 2017-06-19 17:21:10 · 10163 阅读 · 0 评论 -
神经网络浅讲
神经网络是一门重要的机器学习技术。它是目前最为火热的研究方向–深度学习的基础。学习神经网络不仅可以让你掌握一门强大的机器学习方法,同时也可以更好地帮助你理解深度学习技术。本文以一种简单的,循序的方式讲解神经网络。适合对神经网络了解不多的同学。本文对阅读没有一定的前提要求,但是懂一些机器学习基础会更好地帮助理解本文。神经网络是一种模拟人脑的神经网络以期能够实现类人工智能的机器学习技术转载 2017-06-20 21:13:41 · 652 阅读 · 0 评论 -
CNN笔记:通俗理解卷积神经网络
通俗理解卷积神经网络(cs231n与5月dl班课程笔记)http://blog.csdn.net/v_july_v/article/details/518124591 前言 2012年我在北京组织过8期machine learning读书会,那时“机器学习”非常火,很多人都对其抱有巨大的热情。当我2013年再次来到北转载 2017-06-20 20:59:40 · 517 阅读 · 0 评论 -
梯度下降算法及python实现(学习笔记)
批量梯度下降算法、随机梯度下降算法、mini-batch梯度下降算法 python实现原创 2017-06-17 21:00:46 · 25458 阅读 · 6 评论