自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(20)
  • 收藏
  • 关注

原创 新版PC端三星笔记非GalaxyBook无法使用

点击更新微软商店后,发现新版的三星笔记只能是GalaxyBook才能使用,在尝试winget install “Samsung Notes”后还是只能下载最新的有限制版。

2023-08-13 17:07:14 2303 2

原创 交大ACM算法-Task01-C++语法

这是我在Datawhale组队学习ACM中关于C++的部分知识整理,主要涉及循环结构,for循环。多重循环,计算循环次数。

2022-04-18 17:09:50 523

原创 Hello Transformer

文章目录前言背景Self-Attention简述模型结构概览模型输入EncoderDecoder模型输出模型构建实战案例前言这是我在Datawhale组队学习CV之Transformer的记录,既作为我学习过程中的笔记,也供同好们一起交流研究,之后还会继续更新相关内容的博客,欢迎点赞收藏关注。背景2017年谷歌在一篇名为《Attention Is All You Need》的论文中,提出了一个基于attention(自注意力机制)结构来处理序列相关的问题的模型,名为Transformer。Tr

2021-10-17 23:54:11 342

原创 DW吃瓜笔记—Task01(下)—模型的评估与选择

文章目录前言误差与过拟合评估方法如何划分训练集与测试集留出法交叉验证法自助法调参前言这是我在Datawhale组队学习《机器学习》与《机器学习公式详解》的记录,既作为我学习过程中的笔记,也供同好们一起交流研究,之后还会继续更新相关内容的博客,欢迎点赞收藏关注。误差与过拟合我们将学习器对样本的实际预测结果与样本的真实值之间的差异定义为:误差(error)。定义:在训练集上的误差称为训练误差(training error)或经验误差(empirical error)。在测试集上的误差称为测试

2021-10-05 20:26:11 185

原创 DW吃瓜笔记—Task01(上)—绪论

文章目录前言机器学习定义基本术语总结前言这是我在Datawhale组队学习《机器学习》与《机器学习公式详解》的记录,既作为我学习过程中的笔记,也供同好们一起交流研究,之后还会继续更新相关内容的博客,欢迎点赞收藏关注。机器学习定义我们根据过去的经验来判断明天的天气,吃货们希望根据之前购买经验挑选一个好瓜,那能不能让计算机帮助人类来实现这个呢?机器学习正是这样的一门学科,人的“经验”对应计算机中的“数据”,让计算机来学习这些经验数据,生成一个算法模型,在面对新的情况中,计算机便能作出有效的判断,这便

2021-09-15 00:09:18 120

原创 李宏毅机器学习-神经网络梳理

文章目录前言背景整体把握传播函数激活函数反向传播函数损失函数总结前言这是李宏毅机器学习系列的一个补充博客,对于课程中一些比较模糊的重点会再次进行梳理,起到一个修补的作用背景本篇背景是对于机器学习中的神经网络进行梳理,由于李宏毅老师在讲解过程中将神经网络进行了拆分,容易导致初学者对于神经网络不能整体把握,本篇则是作者根据课程和一些博客,对神经网络的进行一次整体梳理。整体把握神经网络最基本的模型是由4个函数组成的。它们分别是:传播函数、激活函数、反向传播函数、损失函数  它们分别实现了几个

2021-09-06 23:12:32 389

原创 DW李宏毅机器学习笔记—Task05(六)—卷积神经网络

文章目录前言为什么用CNN总结前言这是我在Datawhale组队学习李宏毅机器学习的记录,既作为我学习过程中的一些记录,也供同好们一起交流研究,之后还会继续更新相关内容的博客。为什么用CNN我们都知道CNN常常被用在影像处理上,如果你今天用CNN来做影像处理,当然也可以用一般的neural network来做影像处理,不一定要用CNN。比如说你想要做影像的分类,那么你就是training一个neural network,input一张图片,那么你就把这张图片表示成里面的pixel,也就是很长.

2021-08-31 17:18:53 353

原创 DW李宏毅机器学习笔记—Task05(五)—批次标准化(Batch Normalization)简介

文章目录前言Changing LandscapeFeature Normalization总结前言这是我在Datawhale组队学习李宏毅机器学习的记录,既作为我学习过程中的一些记录,也供同好们一起交流研究,之后还会继续更新相关内容的博客。Changing Landscape我们在解决问题时,一种的方向是不断改进我们的方法,第二种方向就是不断简化问题。同理,我们在训练时,不仅可以改进我们的训练方法,也可以对我们的Error Surface进行简化,变得简单易于训练。上图中蓝色图像的成因就是x

2021-08-30 13:07:57 520

原创 DW李宏毅机器学习笔记—Task05(四)—略看分类问题

文章目录前言分类是怎么做的将分类转化为回归Softmax登场分类问题的Loss使用Cross-entropy的优点总结前言这是我在Datawhale组队学习李宏毅机器学习的记录,既作为我学习过程中的一些记录,也供同好们一起交流研究,之后还会继续更新相关内容的博客。分类是怎么做的将分类转化为回归回归就是输入一组数据,输出一个数。分类的话就是输入一组数据,输出一个类别。而将回归转化成分类的话是通过输出的数字来判别类别。通过回归来分类,这要求神经网络输出是一个向量。这个向量中的每一个元素代

2021-08-29 23:05:02 141

原创 DW李宏毅机器学习笔记--Task05(三)-自动调节学习速率(Learning Rate)

文章目录前言Training stuck不一定是Small Gradient单一固定的学习率遇到的问题总结前言这是我在Datawhale组队学习李宏毅机器学习的记录,既作为我学习过程中的一些记录,也供同好们一起交流研究,之后还会继续更新相关内容的博客。Training stuck不一定是Small Gradient如上图所示,Loss在不断下降最后不再下降,也就是说遇到了Training Stuck了,而这就是一定是遇到了Critical Point吗?再看norm of gradient(梯

2021-08-29 17:26:13 500

原创 DW李宏毅机器学习笔记--Task05(二)-批次与动量

文章目录前言回顾:批量操作为什么要用BatchBatch对training有什么帮助总结前言这是我在Datawhale组队学习李宏毅机器学习的记录,既作为我学习过程中的一些记录,也供同好们一起交流研究,之后还会继续更新相关内容的博客。回顾:批量操作在实际训练中,我们并不是将整个数据集去训练,而是将数据集分成很多份,也叫做batch,一份一份的进行梯度下降。而将所有的batch都用过一遍就叫做 1 epoch。而数据集训练时要用多次也就是epoches,而在每次用数据集去训练前要先对数据集改.

2021-08-28 10:27:07 393

原创 DW李宏毅机器学习笔记--Task05(一)-局部最值与鞍点

文章目录前言最优化失败的原因如何区分局部最值和鞍点泰勒级数近似数学基础的补充判断方法总结前言这是我在Datawhale组队学习李宏毅机器学习的记录,既作为我学习过程中的一些记录,也供同好们一起交流研究,之后还会继续更新相关内容的博客。最优化失败的原因如图所示,在梯度下降中,Loss应该不断下降并达到一个最小值。但在我们训练中,有可能出现Loss下降到了一个谷底,但此时并没有足够小的情况,也有可能Loss就没怎么下降(对应图中蓝,橙曲线)。出现这种情况的原因是下降中遇到了临界点(critica

2021-08-27 16:44:37 320

原创 DW李宏毅机器学习笔记--Task04(下)-反向传播

文章目录前言链式法则反向传播取出一个Neuron进行分析Forward Pass总结前言这是我在Datawhale组队学习李宏毅机器学习的记录,既作为我学习过程中的一些记录,也供同好们一起交流研究,之后还会继续更新相关内容的博客。# 背景## 梯度下降给到 θ\thetaθ (weight and bias)先选择一个初始的 θ0\theta^0θ0,计算 θ0\theta^0θ0 的损失函数(Loss Function)设一个参数的偏微分计算完这个向量(vector)偏微分,然后就可

2021-08-25 12:56:12 155

原创 DW李宏毅机器学习笔记--Task04(上)-深度学习简介

文章目录前言深度学习的三个步骤Step1:神经网络完全连接前馈神经网络Step2: 模型评估Step3:选择最优函数思考隐藏层越多越好?普遍性定理总结前言这是我在Datawhale组队学习李宏毅机器学习的记录,既作为我学习过程中的一些记录,也供同好们一起交流研究,之后还会继续更新相关内容的博客。# 深度学习的发展历程回顾一下deep learning的历史:1958: Perceptron (linear model)1969: Perceptron has limitation198

2021-08-22 14:03:21 205

原创 DW李宏毅机器学习笔记--Task03(下)-梯度下降

文章目录前言什么是梯度下降法?Tip1:调整学习速率小心翼翼地调整学习率自适应学习率Adagrad 算法Adagrad 是什么?Adagrad举例Adagrad 存在的矛盾?多参数下结论不一定成立Adagrad 进一步的解释Tip2:随机梯度下降法Tip3:特征缩放为什么要这样做?怎么做缩放?梯度下降的理论基础问题数学理论泰勒展开式定义多变量泰勒展开式利用泰勒展开式简化梯度下降的限制总结前言这是我在Datawhale组队学习李宏毅机器学习的记录,既作为我学习过程中的一些记录,也供同好们一起交流研究,之

2021-08-20 22:51:14 203

原创 DW李宏毅机器学习笔记--Task03(上)-误差从哪来

文章目录前言Error的来源估测估测变量x的偏差和方差评估x的偏差与方差求x的偏差求x的方差为什么会有很多的模型?考虑不同模型的方差考虑不同模型的偏差偏差v.s.方差怎么判断?分析偏差大-->欠拟合方差大-->过拟合模型选择交叉验证N-折交叉验证总结前言这是我在Datawhale组队学习李宏毅机器学习的记录,既作为我学习过程中的一些记录,也供同好们一起交流研究,此后还会继续更新相关内容的博客。Error的来源从上节课测试集数据来看,Average ErrorAverage

2021-08-19 17:31:45 125

原创 DW李宏毅机器学习笔记--Task02-回归

文章目录前言一、回归定义二、模型步骤Step 1:模型假设 - 线性模型一元线性模型(单个特征)多元线性模型(多个特征)Step 2:模型评估 - 损失函数如何判断众多模型的好坏Step 3:最佳模型 - 梯度下降梯度下降推演最优模型的过程梯度下降算法在现实世界中面临的挑战w和b偏微分的计算方法如何验证训练好的模型的好坏总结前言这是我在Datawhale组队学习李宏毅机器学习的记录,既作为我学习过程中的一些记录,也供同好们一起交流研究,此后还会继续更新相关内容的博客。一、回归定义回归(Regres

2021-08-18 09:15:54 344

原创 DW李宏毅机器学习笔记--Task01-机器学习介绍

文章目录前言一、机器学习介绍1.人工智能、机器学习、深度学习之间的关系2.Hand-crafted rules与Machine learning3.机器学习的思路二、机器学习相关的技术1.监督学习A.回归(Regression)问题分类(Classification)问题Deep Learning2.半监督学习迁移学习无监督学习监督学习中的结构化学习(structured learning)强化学习总结前言这是我在Datawhale组队学习李宏毅机器学习的记录,既作为我学习过程中的一些记录,也供同好们

2021-08-16 16:45:37 266

原创 PTA乙级1030(C++)

文章目录前言一、题干二、我的代码三、易错点分析总结前言 这是我关于PTA刷题的一些记录,希望能对你有些帮助。一、题干1030 完美数列 (25 分)给定一个正整数数列,和正整数 p,设这个数列中的最大值是 M,最小值是 m,如果 M≤mp,则称这个数列是完美数列。现在给定参数 p 和一些正整数,请你从中选择尽可能多的数构成一个完美数列。输入格式:输入第一行给出两个正整数 N 和 p,其中 N(≤10^5 )是输入的正整数的个数,p(≤10 ^9 )是给定的参数。第二行给出 N

2021-08-06 12:47:55 136

原创 如何VS中检查并安装numpy,pandas,matplotlib,scipy等第三方库

如何VS中检查并安装numpy,pandas,matplotlib,scipy等第三方库前言:在学习应用python进行数据分析和神经网络训练中,我发现不少萌新和最开始的我一样对于numpy,pandas,matplotlib,scipy等第三方库在VS中的安装表示困惑,所以写一个简明教程帮助你踏出这第一步。一、找到资源管理器二、右击“python环境”并点击“查看所有python环境”三、检查是否安装所需要的第三方库选择“包”即可查看你己经安装的库四、安装所需要的库(在此以pandas为例

2021-02-18 11:06:38 8129 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除