机器学习与深度学习
Iseno_V
这个作者很懒,什么都没留下…
展开
-
深入理解Softmax回归
深入理解Softmax回归前面介绍的Logistic回归,浅层和深层全连接网络都是以二分类问题为例来介绍的(点击我的头像,找到 机器学习与深度学习 分区,来查看我的其他文章)。二分类模型的特征一般为:以sigmoid函数为输出层的激活函数,且输出层只有一个神经元。本文主要介绍如何使用Softmax激活函数实现多分类问题。在介绍多分类的全连接网络前,先从介绍最简单的多分类模型Softmax回归开...原创 2019-11-23 21:19:41 · 513 阅读 · 0 评论 -
全连接网络原理
全连接网络原理上一期介绍了只包含单隐层的浅层全连接网络,本期介绍更具有普遍性的深层全连接网络。推荐先看一下上期的内容,将更有助于理解。上一期的链接为:https://blog.csdn.net/Iseno_V/article/details/102941210公式推导部分依旧采用截图的形式,如果需要源文档可以给我留言。1. 网络结构图下图为一个2分类问题的四层结构全连接网络。2. 原...原创 2019-11-16 15:19:58 · 3572 阅读 · 0 评论 -
单隐层全连接神经网络原理
单隐层全连接神经网络原理本文主要介绍全连接网络的前向传播和后向传播过程的详细推导,没有用到矩阵求导的相关知识,只用了最基本的线性代数和微积分理论,同时最好先了解下python的广播机制。csdn上的公式编辑器不太会用,所有公式推导都用截图的形式了,如果需要源文档可以留言。不喜欢看推导可以直接跳到后面看算法总结和代码。1.网络结构图所谓单隐层神经网络是一种二层结构的浅层神经网络,如下图所示。...原创 2019-11-06 19:56:57 · 3078 阅读 · 0 评论 -
Logistic回归详解
logistic回归详解1 原理讲解算法结构如下图所示:1.1 前向传播过程1.2 反向传播过程2 向量化实现方法3 代码实现为了便于理解,首先采用循环的形式实现。正向传播计算损失函数,梯度下降法反向传播更新参数。代码实现如下:# -*- coding: utf-8 -*-"""Created on Thu Oct 24 21:27:14 2019@author: ...原创 2019-11-01 16:42:31 · 554 阅读 · 0 评论