机器学习、深度学习
文章平均质量分 76
这是我的深度学习的一些笔记,里面包括了《动手学深度学习》(PyTorch版)(Dive-into-DL-PyTorch)的学习笔记,里面有一些代码是我自己拓展的,加入了自己的理解。
三耳01
对AI较感兴趣,乐于分享学习经验
展开
-
周志华机器学习(6):支持向量机
基本是大段摘录加上一些自己的补充,去除了冗余的话。原创 2022-11-23 18:27:43 · 1527 阅读 · 3 评论 -
【李宏毅】元学习(Meta learning)的概念与步骤
只讲了元学习概念和步骤,简单做了解,稍微复杂一点的都没讲原创 2022-10-20 02:02:10 · 3673 阅读 · 0 评论 -
2021李宏毅机器学习(5):Domain Adaptation
2021李宏毅机器学习(5):Domain Adaptation1 Domain Shift2 Domain Adaptation2.1 Basic Idea——寻找 Feature Extractor2.2 Domain Adversarial Training2.2.1 Feature Extractor2.2.2 Domain Classifier2.2.3 Limitation2.2.4 类对齐问题3 其它情况3.1 Target Domain 极少Data3.2 对 Target Domain 一原创 2022-02-18 19:18:58 · 1210 阅读 · 0 评论 -
2021李宏毅机器学习(4):卷积神经网络CNN
2021李宏毅机器学习(4):卷积神经网络CNN1 前言2 简化方法1:Receptive field(感受野)1 前言图片一般用的是三维的张量,也就是:三维就是 长度*高度*通道数,在长宽里面每一个长度、宽度都包含了一个像素,像素里面包含了三个数字(RGB这三个通道的),为了能够输入进神经网络,就把这三维拉直成一个tensor:从图片可以看出,这样的数据量其实是非常巨大的,于是我们想要简化。那么,我们是如何进行图片识别的?比如我们识别一个鸟,是通过它的特定部分(比如鸟嘴、爪子)识别的,因此,原创 2022-02-17 23:34:18 · 1938 阅读 · 0 评论 -
2021李宏毅机器学习(3):类神经网络训练不起来怎么办
2021李宏毅机器学习(3):类神经网络训练不起来怎么办1 任务攻略1.1 如果在训练集上的 loss 始终不够小1.2 如果 loss 在训练集上小,在测试集上大1.3 任务攻略的示意图2 局部最小值 (local minima) 与鞍点 (saddle point)3 批次(batch)与动量(momentum)3.1 批次(batch)3.2 动量(momentum)1 任务攻略1.1 如果在训练集上的 loss 始终不够小情况一:model bias(模型本身有很大限制)——构造更复杂的模型原创 2022-02-13 22:33:24 · 2081 阅读 · 0 评论 -
2021李宏毅机器学习(2):PyTorch
2021李宏毅机器学习(2):PyTorch1 基础内容1.1 产生tensor1.2 squeeze压缩维度1.3 unsqueeze展出维度1.4 transpose转置1.5 cat指定dimension连接多个tensor1.6 计算梯度2 神经网络2.1 读取data2.2 torch.nn2.3 torch.optim3 整个流程3.1 training3.2 validation3.3 testing4 下载和加载4.1 Save4.2 Load1 基础内容1.1 产生tensorimp原创 2022-02-12 18:41:11 · 718 阅读 · 0 评论 -
2021李宏毅机器学习(1):基本概念
2021李宏毅机器学习(一)——基本概念B站上2021李宏毅机器学习课程的学习笔记,供复习用。1、机器学习就是寻找一个函数2、不同的函数类别:回归Regression——输出是数值分类Classification——输出是不同的类别classes,做选择题结构学习Structured Learning——产生一个有结构的文件(画一张图、写一篇文章),就是让机器学会创造3、如何寻找函数(Training):首先,写出一个带有未知参数的函数;其次,定义loss(一个与参数有关的函数,MAE—原创 2022-02-11 19:29:08 · 769 阅读 · 0 评论 -
用numpy、PyTorch自动求导、torch.nn库实现两层神经网络
用numpy、PyTorch自动求导、torch.nn库实现两层神经网络,实现从手动求导到自动求导再到模型的一步步深入。原创 2021-12-31 20:28:47 · 2122 阅读 · 1 评论 -
常用的 os.path 类方法
(1)os.path.join:将输入参数中的两个名字拼接成一个完整的文件路径。data_dir = “C:/Users/xinyu/Desktop/data/DogsVSCats/”root = os.path.join(data_dir, train)路径就变成了C:/Users/xinyu/Desktop/data/DogsVSCats/train(2)os.path.dirname:用于返回一个目录的目录名,输入参数为文件的目录。(3)os.path.exists:用于测试输入参原创 2021-11-26 12:29:03 · 427 阅读 · 0 评论 -
深度学习计算机视觉理论基础(PyTorch)
深度学习计算机视觉理论基础(PyTorch)1 神经网络与cv1.1 经典的人工神经元模型:M-P 模型1.2 感知机(Perceptron)的诞生1.3 计算机视觉2 深度神经网络基础2.1 监督学习和无监督学习2.1.1 监督学习(Supervised Learning)(1)回归问题(2)分类问题2.1.2 无监督学习(Unsupervised Learning)2.1.3 小结2.2 欠拟合和过拟合2.2.1 欠拟合学习唐进民的《深度学习之PyTorch实战计算机视觉》的理论部分(前四章)的笔记。原创 2021-11-24 16:38:17 · 5164 阅读 · 2 评论 -
torch.nn 包中常用的损失函数
torch.nn 包中常用的损失函数1、torch.nn.MSELoss:均方误差2、torch.nn.L1Loss:平均绝对误差3、torch.nn.CrossEntropyLoss :计算交叉熵1、torch.nn.MSELoss:均方误差import torchfrom torch.autograd import Variableloss_f = torch.nn.MSELoss() #不用传入任何参数'''随机生成两个维度都是(100,100)的参数'''x = Variable(t原创 2021-11-23 20:33:19 · 2385 阅读 · 0 评论 -
torch.nn.Sequential
torch.nn.Sequential1、直接嵌套2、以 orderdict 有序字典的方式进行传入torch.nn.Sequential 类是 torch.nn 中的一种序列容器(嵌套有各种类→实现神经网络具体功能),最主要的是,参数会按照我们定义好的序列自动传递下去。将嵌套在容器中的各个部分看作各种不同的模块(可以自由组合),模块的加入有以下两种方式:1、直接嵌套hidden_layer = 100 input_data = 1000 output_data = 10 models =原创 2021-11-23 20:12:48 · 4802 阅读 · 0 评论 -
深度学习PyTorch笔记(13):多层感知机
这是《动手学深度学习》(PyTorch版)(Dive-into-DL-PyTorch)的学习笔记,里面有一些代码是我自己拓展的。原创 2022-10-26 17:17:06 · 1399 阅读 · 0 评论 -
深度学习PyTorch笔记(12):线性神经网络——softmax回归
深度学习PyTorch笔记(12):线性神经网络——softmax回归6 线性神经网络——softmax回归6.1 softmax回归6.1.1 概念6.1.2 softmax运算6.2 图像分类数据集(Fashion-MNIST)6.2.1 读取数据集6.2.2 读取小批量6.2.3 整合所有组件6.3 softmax回归的从零开始实现6.3.1 获取和读取数据6.3.2 初始化模型参数6.3.3 实现softmax运算6.3.4 实现softmax回归模型6.3.5 计算损失函数6.3.6 计算分类准确原创 2021-11-19 10:13:26 · 1114 阅读 · 0 评论 -
深度学习PyTorch笔记(11):线性神经网络——线性回归
深度学习PyTorch笔记(11):线性神经网络5 线性神经网络5.1 线性回归5.1.1 线性回归的基本元素5.1.2 解析解5.1.3 数值解5.2 线性回归的从零开始实现5.2.1 生成数据集5.2.2 读取数据5.2.3 建立模型5.3 线性回归的简洁实现5.3.1 生成数据集5.3.2 读取数据5.3.3 建立模型这是《动手学深度学习》(PyTorch版)(Dive-into-DL-PyTorch)的学习笔记,里面有一些代码是我自己拓展的。其他笔记在专栏 深度学习 中。这并不是简单的复制原文原创 2021-11-15 22:48:32 · 3040 阅读 · 0 评论 -
深度学习PyTorch笔记(10):PyTorch绘制函数图像及切线
PyTorch绘制函数图像及切线学习自DIVE INTO DEEP LEARNING,当时学的时候没运行成功,就是因为d2l的导入问题,现在用pip install d2l搞好了,所以干脆把这里面的代码拿出来学习一遍。#pip install d2l 安装d2l这个包,这是重点,要不然后面编译不出%matplotlib inlineimport numpy as npfrom IPython import displayfrom d2l import torch as d2ldef f(原创 2021-11-15 14:56:57 · 12553 阅读 · 6 评论 -
深度学习PyTorch笔记(9):自动求导
深度学习PyTorch笔记(9):自动求导4. 自动求导4.1 理解4.2 梯度4.3 .requires_grad与.grad_fn4.4 调用.backward()反向传播来完成所有梯度计算这是《动手学深度学习》(PyTorch版)(Dive-into-DL-PyTorch)的学习笔记,里面有一些代码是我自己拓展的。其他笔记在专栏 深度学习 中。4. 自动求导4.1 理解逼近法就是积分(integral calculus)的起源。在微分学最重要的应用是优化问题,即考虑如何把事情做到最好。原创 2021-11-14 22:04:07 · 1750 阅读 · 0 评论 -
深度学习PyTorch笔记(8):线性代数
深度学习PyTorch笔记(8):线性代数3 线性代数3.1 标量、向量、矩阵、张量3.2 降维3.2.1 非降维求和3.3 点积、向量积、矩阵乘3.4 范数这是《动手学深度学习》(PyTorch版)(Dive-into-DL-PyTorch)的学习笔记,里面有一些代码是我自己拓展的。其他笔记在专栏 深度学习 中。3 线性代数3.1 标量、向量、矩阵、张量#标量import torchx = torch.tensor([3])y = torch.tensor([2])x + y, x *原创 2021-11-14 22:01:15 · 922 阅读 · 0 评论 -
深度学习PyTorch笔记(7):数据预处理
深度学习PyTorch笔记(7):数据预处理2 数据预处理2.1 生成数据2.2 处理缺失值2.3 转换为张量格式这是《动手学深度学习》(PyTorch版)(Dive-into-DL-PyTorch)的学习笔记,里面有一些代码是我自己拓展的。其他笔记在专栏 深度学习 中。2 数据预处理2.1 生成数据创建一个人工数据集,并存储在C:/Users/xinyu/Desktop/myjupyter/data/class.csv中:import osos.makedirs(os.path.join(原创 2021-11-14 22:00:15 · 1165 阅读 · 0 评论 -
深度学习PyTorch笔记(6):Tensor与NumPy、标量的转换
深度学习PyTorch笔记(6):Tensor与NumPy、标量的转换1.5 Tensor和NumPy相互转换1.5.1 Tensor转NumPy1.5.2 Numpy转Tensor1.5.3 直接用torch.tensor()将NumPy数组转换成Tensor1.6 将大小为1的张量转换为Python标量这是《动手学深度学习》(PyTorch版)(Dive-into-DL-PyTorch)的学习笔记,里面有一些代码是我自己拓展的。其他笔记在专栏 深度学习 中。1.5 Tensor和NumPy相互转换原创 2021-11-14 21:56:48 · 4337 阅读 · 0 评论 -
深度学习PyTorch笔记(5):广播机制与内存开销
深度学习PyTorch笔记(5):广播机制与内存开销1.3 广播机制1.4 运算的内存开销这是《动手学深度学习》(PyTorch版)(Dive-into-DL-PyTorch)的学习笔记,里面有一些代码是我自己拓展的。其他笔记在专栏 深度学习 中。1.3 广播机制当对两个形状不同的Tensor按元素运算时,可能会触发广播(broadcasting)机制:先适当复制元素使这两个Tensor形状相同后再按元素运算。x = torch.tensor([[1, 2]])y = torch.tensor(原创 2021-11-14 21:55:22 · 435 阅读 · 0 评论 -
深度学习PyTorch笔记(4):Tensor的其它操作
深度学习PyTorch笔记(四):Tensor和NumPy相互转换1.5 Tensor和NumPy相互转换1.5.1 Tensor转NumPy1.5.2 Numpy转Tensor1.5.3 直接用torch.tensor()将NumPy数组转换成Tensor这是《动手学深度学习》(PyTorch版)(Dive-into-DL-PyTorch)的学习笔记,里面有一些代码是我自己拓展的1.5 Tensor和NumPy相互转换1.5.1 Tensor转NumPyimport torcha = torch原创 2021-11-07 14:40:16 · 1016 阅读 · 0 评论 -
深度学习PyTorch笔记(3):Tensor的索引
深度学习PyTorch笔记(三):广播机制1.3 广播机制1.4 运算的内存开销这是《动手学深度学习》(PyTorch版)(Dive-into-DL-PyTorch)的学习笔记,里面有一些代码是我自己拓展的1.3 广播机制当对两个形状不同的Tensor按元素运算时,可能会触发广播(broadcasting)机制:先适当复制元素使这两个Tensor形状相同后再按元素运算。x = torch.tensor([[1, 2]])y = torch.tensor([[1], [2], [3]])print原创 2021-11-07 14:39:23 · 1020 阅读 · 0 评论 -
深度学习PyTorch笔记(2):Tensor的算术操作
深度学习PyTorch笔记(二):Tensor的一些操作1.2 操作1.2.1 算术操作1.2.2 索引1.2.3 改变形状1.2.4 一些简单的矩阵操作这是《动手学深度学习》(PyTorch版)(Dive-into-DL-PyTorch)的学习笔记,里面有一些代码是我自己拓展的1.2 操作1.2.1 算术操作# x + yx = torch.tensor([[1, 2, 3], [4, 5, 6], [7, 8, 9]])y = torch.tensor([[3, 2, 1], [6, 5,原创 2021-11-07 14:37:36 · 390 阅读 · 0 评论 -
深度学习PyTorch笔记(1):创建Tensor
深度学习PyTorch笔记(一):创建Tensor1. Tensor预备知识1.1 创建Tensor1.1.1 创建未初始化的Tensor1.1.2 生成随机数1.1.3 torch.Tensor()与torch.tensor()1.1.4 一些特殊值矩阵这是《动手学深度学习》(PyTorch版)(Dive-into-DL-PyTorch)的学习笔记,里面有一些代码是我自己拓展的1. Tensor预备知识1.1 创建TensorTensor即张量,更适合深度学习,可以看作一个多维数组。标量:0维原创 2021-11-07 14:41:02 · 3224 阅读 · 0 评论