自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

逐梦er的博客

到底什么是热爱 源于内心的脆弱 短暂的快活 像飞蛾扑火

  • 博客(19)
  • 收藏
  • 关注

原创 pytorch学习笔记(九):softmax回归的简洁实现

文章目录1. 获取和读取数据2. 定义和初始化模型3. softmax和交叉熵损失函数4. 定义优化算法5. 训练模型6. 总代码7.小结使用Pytorch实现一个softmax回归模型。首先导入所需的包或模块。import torchfrom torch import nnfrom torch.nn import initimport numpy as npimport syssys.path.append("..") import d2lzh_pytorch as d2l1. 获取和

2020-07-23 19:03:32 3349 20

原创 pytorch学习笔记(八):softmax回归的从零开始实现

文章目录1. 获取和读取数据2. 初始化模型参数3. 实现softmax运算4. 定义模型5. 定义损失函数6. 计算分类准确率7. 训练模型8. 预测小结这一节我们来动手实现softmax回归。首先导入本节实现所需的包或模块。import torchimport torchvisionimport numpy as npimport syssys.path.append("..") # 为了导入上层目录的d2lzh_pytorchimport d2lzh_pytorch as d2l1.

2020-07-23 13:26:23 8235 31

原创 pytorch学习笔记(六):softmax回归

文章目录前言1. 分类问题2. softmax回归模型3. 单样本分类的矢量计算表达式4. 小批量样本分类的矢量计算表达式5. 交叉熵损失函数6. 模型预测及评价小结前言模型输出可以是一个像图像类别这样的离散值。对于这样的离散值预测问题,我们可以使用诸如softmax回归在内的分类模型。和线性回归不同,softmax回归的输出单元从一个变成了多个,且引入了softmax运算使输出更适合离散值的预测和训练。本节以softmax回归模型为例,介绍神经网络中的分类模型。1. 分类问题让我们考虑一个简单的图

2020-07-20 12:43:01 1384 17

原创 sklearn学习笔记(一):数据预处理

文章目录1.缺失值处理2. 数据的规范化2.1 缩放规范化2.1.1 最大值-最小值缩放2.1.2 最大绝对值缩放2.1.3 自定义缩放区间2.2 标椎化2.3 范数规范化3. 非线性变换3.1 二分类变换3.2 分位数变换1.缺失值处理这里使用sklearn.impute库中的SimpleImputer模块进行缺失值的处理import numpy as npfrom sklearn.impute import SimpleImputer'''参数: missing_values: n

2020-07-19 23:56:13 2160 43

原创 pytorch学习笔记(五):线性回归的简洁实现

文章目录前言1 生成数据集2 读取数据3 定义模型4 初始化模型参数5 定义损失函数6 定义优化算法7 训练模型小结前言随着深度学习框架的发展,开发深度学习应用变得越来越便利。实践中,我们通常可以用比上一节更简洁的代码来实现同样的模型。在本节中,我们将介绍如何使用PyTorch更方便地实现线性回归的训练。1 生成数据集我们生成与上一节中相同的数据集。其中features是训练数据特征,labels是标签。num_inputs = 2num_examples = 1000true_w = [2,

2020-07-19 13:38:42 1253 20

原创 pytorch学习笔记(四):线性回归从零开始实现

文章目录前言1 生成数据集2 读取数据3 初始化模型参数4 定义模型5 定义损失函数6 定义优化算法7 训练模型小结前言在了解了线性回归的背景知识之后,现在我们可以动手实现它了。尽管强大的深度学习框架可以减少大量重复性工作,但若过于依赖它提供的便利,会导致我们很难深入理解深度学习是如何工作的。因此,本节将介绍如何只利用Tensor和autograd来实现一个线性回归的训练。首先,导入本节中实验所需的包或模块,其中的matplotlib包可用于作图,且设置成嵌入显示。%matplotlib inlin

2020-07-19 13:33:34 1819 19

原创 pytorch学习笔记(三):线性回归

文章目录前言3.1.1 线性回归的基本要素3.1.1.1 模型定义3.1.1.2 模型训练(1) 训练数据(2) 损失函数(3) 优化算法3.1.1.3 模型预测3.1.2 线性回归的表示方法3.1.2.1 神经网络图3.1.2.2 矢量计算表达式小结前言线性回归输出是一个连续值,因此适用于回归问题。回归问题在实际中很常见,如预测房屋价格、气温、销售额等连续值的问题。与回归问题不同,分类问题中模型的最终输出是一个离散值。我们所说的图像分类、垃圾邮件识别、疾病检测等输出为离散值的问题都属于分类问题的范畴。

2020-07-19 13:31:01 1116 16

原创 LeetCode Week 4:第 31 ~ 40 题

文章目录31. 下一个排列2. 最长有效括号34. 在排序数组中查找元素的第一个和最后一个位置35. 搜索插入位置36. 有效的数独37. 解数独38. 外观数列39. 组合总和40. 组合总和 II31. 下一个排列题目描述实现获取下一个排列的函数,算法需要将给定数字序列重新排列成字典序中下一个更大的排列。如果不存在下一个更大的排列,则将数字重新排列成最小的排列(即升序排列)。必须原地修改,只允许使用额外常数空间。以下是一些例子,输入位于左侧列,其相应输出位于右侧列。1,2,3 → 1,3,

2020-07-18 13:04:06 2802 44

原创 pytorch学习笔记(二):自动求梯度

文章目录前言1 概念2 Tensor3 梯度前言在深度学习中,我们经常需要对函数求梯度(gradient)。PyTorch提供的autograd包能够根据输入和前向传播过程自动构建计算图,并执行反向传播。本节将介绍如何使用autograd包来进行自动求梯度的有关操作。1 概念Tensor是这个包的核心类,如果将其属性.requires_grad设置为True,它将开始追踪(track)在其上的所有操作(这样就可以利用链式法则进行梯度传播了)。完成计算后,可以调用.backward()来完成所有梯度计

2020-07-17 23:46:11 2283 15

原创 pytorch学习笔记(一):Tensor(张量)

在深度学习中,我们通常会频繁地对数据进行操作。作为动手学深度学习的基础,本节将介绍如何对内存中的数据进行操作。在PyTorch中,torch.Tensor是存储和变换数据的主要工具。如果你之前用过NumPy,你会发现Tensor和Num

2020-07-17 23:16:12 9550 16

原创 LeetCode Week 3:第 21 ~ 30 题

文章目录21. 合并两个有序链表22. 括号生成23. 合并K个排序链表24. 两两交换链表中的节点25. K 个一组翻转链表26. 删除排序数组中的重复项27. 移除元素28. 实现 strStr()29. 两数相除30. 串联所有单词的子串21. 合并两个有序链表题目描述将两个升序链表合并为一个新的 升序 链表并返回。新链表是通过拼接给定的两个链表的所有节点组成的。示例:输入:1->2->4, 1->3->4输出:1->1->2->3->4-

2020-07-16 16:10:05 3219 19

原创 深度学习入门笔记(六):误差反向传播算法

误差反向传播法——能够高效计算权重参数的梯度的方法。要正确理解误差反向传播法,有两种方法: 一种是基于数学式;另一种是基于计算图(computational graph)。前者是比较常见的方法,机器学习相关的图书中多数都是以数学式为中心展开论述的。因为这种方法严密且简洁,所以确实非常合理,但如果一上来就围绕数学式进行探讨,会忽略一些根本的东西,止步于式子的罗列。因此,本章希望大家通过计算图,直观地理解误差反向传播法。然后,再结合实际的代码加深理解,相信大家一定会有种“原来如此!”的感觉。

2020-07-15 21:37:04 6200 41

原创 深度学习入门笔记(五):神经网络的学习

本章的主题是神经网络的学习。这里所说的“学习”是指从训练数据中自动获取最优权重参数的过程。本章中,为了使神经网络能进行学习,将导入损失函数这一指标。而学习的目的就是以该损失函数为基准,找出能使它的值达到最小的权重参数。为了找出尽可能小的损失函数的值,本章我们将介绍利用了函数斜率的梯度法

2020-07-11 13:07:40 6973 24

原创 深度学习入门笔记(四):神经网络

上一个笔记我们学习了感知机。对于复杂的函数,感知机也隐含着能够表示它的可能性。即便是计算机进行的复杂处理,感知机(理论上)也可以将其表示出来。坏消息是,设定权重的工作,即确定合适的、能符合预期的输人与输出的权重,现在还是由人工进行的。神经网络的出现就是为了解决刚才的坏消息。具体地讲,神经网络的一个重要性质是它可以**自动地从数据中学习到合适的权重参数**。本章中,我们会先介绍神经网络的概要,然后重点关注神经网络进行识别时的处理。在下一章中,我们将了解如何从数据中学习权重参数。

2020-07-09 22:09:33 7361 47

原创 深度学习入门笔记(三):感知机

本章通俗易懂,容易理解,没有太多很难理解的数学公式,适合数学水平一般、零基础入门学习的学生,同时本文章通过python原生代码来实现感知机,从底层原理去深入了解并熟练掌握,只要学过python基础的东西就都能看懂。感知机是由美国学者FrankRosenblatt在1957年提出来的。为何我们现在还要学习这一很久以前就有的算法呢?因为感知机也是作为神经网络(深度学习)的起源的算法。因此,学习感知机的构造也就是学习通向神经网络和深度学习的一一种重要思想。文章目录1. 什么是感知机2. 简单逻辑电路2.1 与

2020-07-09 00:16:50 8959 20

原创 LeetCode Week 2:第 11 ~ 20 题

文章目录11. 盛最多水的容器12. 整数转罗马数字13. 罗马数字转整数14. 最长公共前缀15. 三数之和未完待续11. 盛最多水的容器题目描述给你 n 个非负整数 a1,a2,...,ana_1,a_2,...,a_na1​,a2​,...,an​,每个数代表坐标中的一个点 (i,ai)(i, a_i)(i,ai​) 。在坐标内画 n 条垂直线,垂直线 i 的两个端点分别为 (i,ai)和(i,0)(i, a_i) 和 (i, 0)(i,ai​)和(i,0)。找出其中的两条线,使得它们与 x 轴

2020-07-07 19:42:07 5103 29

原创 深度学习入门笔记(二):神经网络基础

前言神经网络是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应”.我们在机器学习中谈论神经网络时指的是“神经网络学习”,或者说,是机器学习与神经网络这两个学科领域的衣叉部分。文章目录前言1. 神经元模型2. 感知机与多层网络2.1感知机2.2 多层神经网络3. 误差逆传播算法4. 全局最小与局部极小5. 其他常见神经网络5.1 RBF网络5.2 ART网络5.3 SOM 网络5.4 级联相关网络5.5 Elman网络1. 神经元模型神经网络中

2020-07-03 23:25:09 9685 20

原创 LeetCode Week 1:第 1 ~ 10 题

文章目录1. 两数之和2. 两数相加3. 无重复字符的最长子串4. 寻找两个正序数组的中位数5. 最长回文子串未完待续。。。1. 两数之和题目描述给定一个整数数组 nums 和一个目标值 target,请你在该数组中找出和为目标值的那 两个 整数,并返回他们的数组下标。你可以假设每种输入只会对应一个答案。但是,数组中同一个元素不能使用两遍。示例:给定 nums = [2, 7, 11, 15], target = 9因为 nums[0] + nums[1] = 2 + 7 = 9所以返回 [

2020-07-03 12:52:20 6345 26

原创 深度学习入门笔记(一):机器学习基础

专栏——深度学习入门笔记文章目录专栏——深度学习入门笔记本章内容一.人工智能的机遇与挑战二.机器学习2.1 什么是机器学习2.2 用机器学习解决问题的一般流程2.3 数据预处理2.4 特征工程2.5 模型性能的评估与选择三深度学习的发展历程和应用3.1 深度学习的发展历程3.2 深度学习的应用本章内容人工智能的发展及其面临的挑战机器学习的基础知识和基本概念特征工程的方法和流程深度学习的发展及应用1956年8月,约翰.麦卡锡在美国达特茅斯学院(Dartmouth College)发起的一次研

2020-07-02 23:33:28 31332 44

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除