![](https://img-blog.csdnimg.cn/20190918140158853.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
AI Learning
文章平均质量分 95
人工智能领域相关的学习
10000hours
这个作者很懒,什么都没留下…
展开
-
【DeepLizard】Pytorch神经网络编程学习笔记(第二部分)
视频地址(B站):适用于初学者的PyTorch神经网络编程教学课程官方博客地址:DEEPLIZARD个人笔记第一部分:DeepLizard:Pytorch神经网络编程教学(第一部分)说明:对应视频:P14∼P16P_{14}\sim P_{16}P14∼P16略。torchvision包,它可以使我们访问以下资源:Datasets;Models;Transforns;Utils如要使用torchvision获取FashionMNIST数据集,可以通过以下代码实现:参数说明roo原创 2023-04-04 00:16:11 · 723 阅读 · 0 评论 -
【DeepLizard】Pytorch神经网络编程学习笔记(第一部分)
1. 笔记为个人学习笔记,如有错误,欢迎指正!2. 本篇笔记整理的内容为课程的第一部分,对应视频为$P_1\sim P_{13}$3. DeepLizard课程为全英文授课,B站视频为中文字幕,且每个视频都有配套的博客与课后测试题。原创 2023-03-27 15:46:01 · 540 阅读 · 1 评论 -
VGG16+UNet个人理解及代码实现(Pytorch)
以下内容均为个人理解,如有错误,欢迎指正。VGG16网络结构vgg16的网络结构如下所示,16的含义就是说网络中有16个全连接层。图1没有画出最后的卷积层。结合这两张图来看,捋一下网络的结果和卷积的过程:1.第一阶段:假设输入图片大小为224 x 224 x 3(如图2),先经历两次3 x 3的卷积,得到 224 x 224 x 64,再经历一次最大池化,得到112 x 112 x 1282.第二阶段:由阶段一得到112 x 112 x 128的输入,先经历两次3 x 3的卷积,得到原创 2022-04-06 17:24:02 · 12931 阅读 · 9 评论 -
UNet-3D个人理解及代码实现(PyTorch)
以下内容均为个人理解,如有错误,欢迎指正。UNet-3D论文链接:地址网络结构UNet-3D和UNet-2D的基本结构是差不多的,分成小模块来看,也是有连续两次卷积,下采样,上采样,特征融合以及最后一次卷积。UNet-2D可参考:VGG16+UNet个人理解及代码实现(Pytorch)不同的是,UNet-3D的卷积是三维的卷积。关于2D卷积和3D卷积的区别可参见这篇文章:链接需要注意的是,UNet-3D的连续两次卷积操作中,第一次卷积和第二次卷积的输出通道数是不同的(UNet-2D的连续两原创 2022-04-07 11:23:19 · 23224 阅读 · 14 评论 -
拉格朗日函数、拉格朗日对偶问题、KKT条件个人理解
最近学习SVM的相关内容时,接触到了拉格朗日函数及其对偶问题,于是就学习了一些相关内容,在此整理总结一下。文章目录1. 引言1.1 在约束条件下求函数的极值1.2 引入拉格朗日乘数法2. 拉格朗日乘数法2.1 拉格朗日乘数法简介2.2 几何理解:拉格朗日函数与梯度的关系2.3 松弛与紧致1. 引言1.1 在约束条件下求函数的极值我们一般见到的问题大多都是直接求函数的极值,通常我们会求解函数的导数并令其等于0来求出其极值。但是对于有约束条件的求函数极值的问题该怎么处理?定义:称满足以下条件的(x0,原创 2022-05-11 19:20:13 · 760 阅读 · 0 评论 -
机器学习(七)——机器学习诊断
机器学习(六)——正则化当我们训练得到了一个模型之后,我们如何评估它?如何决定下一步要执行怎样的操作对我们的模型进行调整?本文将简要介绍机器学习诊断。文章目录1. 训练集、验证集、测试集1.1 数据划分的意义1.2 模型选择1.3 交叉验证 Cross Validation2. 偏差和方差2.1 诊断偏差和方差2.2 正则化和偏差方差3. 学习曲线3.1 什么是学习曲线3.2 学习曲线能告诉我们什么3.3 下一步怎么做4. 误差分析4.1 类偏斜的误差度量4.2 查准率和查全率4.2.1 混淆矩阵4.2原创 2022-05-01 18:28:42 · 1417 阅读 · 0 评论 -
机器学习(六)——正则化
我们之前在机器学习(二)——线性回归 和 机器学习(五)——逻辑回归中分别介绍了线性回归算法和逻辑回归算法,并尝试训练我们自己的预测模型。但是有时我们的模型会遇到过拟合的问题,从而导致模型的泛化能力大大降低,使模型的效果很差。本文将通过引入这些问题,介绍正则化技术。文章目录1. 引言1.1 欠拟合与过拟合1.2 解决过拟合问题1.3 引入正则化2. 正则化2.1 线性回归中的正则化2.1.1 梯度下降最小化损失函数2.1.2 正规方程2.2 逻辑回归中的正则化2.3 常用的正则化方法2.3.1 岭回归 R原创 2022-04-28 17:11:45 · 1353 阅读 · 0 评论 -
机器学习(五)——逻辑回归
机器学习(四)——PCA我们在机器学习(二)——线性回归中介绍了线性回归算法,我们知道线性回归主要做的工作是拟合样本数据,用拟合好的模型进行预测。在本篇中我们将介绍逻辑回归,它主要用来解决分类问题。文章目录1. 引言1.1 分类问题1.2 逻辑回归2. 逻辑回归算法2.1 逻辑回归模型2.2 决策边界2.3 逻辑回归的损失函数2.3.1 损失函数的定义2.3.2 使用梯度下降最小化损失函数2.3.3 一些高级优化2.4 解决多分类问题2.4.1 OvR(one-vs-rest)2.4.2 OvO(one原创 2022-04-27 11:34:52 · 913 阅读 · 0 评论 -
机器学习(四)——PCA
在机器学习(三)——梯度下降中记录了一种寻找函数局部最小值的方法:梯度下降法,在本篇中将记录一种非监督的机器学习算法——主成分分析PCA1.引言有时我们收集到的数据有很多特征,可能有成百上千个特征,那么使用这些数据进行训练就会非常耗时并且会占用大量的内存。此时就可以对数据进行降维。1.1 数据降维从低维度来理解数据降维,可以把数据降维理解为投影:(1)比如有三个特征的样本数据,现希望将其降维到二维,就可以理解成这些三维空间中的点投影到一个二维平面上,形成新的二维平面上的二维样本数据;借用吴恩达老原创 2022-04-21 23:04:36 · 1361 阅读 · 0 评论 -
机器学习(三)——梯度下降
机器学习(二)——线性回归1. 对梯度的理解借用百度上对梯度的定义:梯度的本意是一个向量(矢量),表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该点处沿着该方向(此梯度的方向)变化最快,变化率最大(为该梯度的模)。简单来说:梯度就是一个函数最陡的方向。更多关于梯度、偏导数、方向导数可参考:链接2.对梯度下降的理解借用吴恩达老师的话,把下降比作下山,那么梯度下降就是找一个方向,沿着该方向能最快下山。3. 模拟梯度下降过程说明:代码编写和测试均在notebook中实现3.1原创 2022-04-17 21:18:59 · 1579 阅读 · 0 评论 -
机器学习(二)——线性回归
线性回归思想:找一条直线,最大程度的拟合数据的特征和数据的输出标记之间的关系。这里的特征和数据标记,比如房屋价格和房屋面积的关系,在这个关系中,特征就是房屋面积,输出标记就是房屋价格。1. 简单线性回归简单线性回归针对的是只有一个特征的样本数据。即找到一条直线y=ax+b,使得根据直线方程得到的预测值与真值之间的误差最小现在要做的工作就是寻找参数a,b使得上述式子的值最小。此时我的脑海中响起我中学数学老师的声音:“最小二乘法!”老师谢谢你,这么多年了我还是忘不了您对我的谆谆教导最小二乘法的公式就原创 2022-04-17 10:49:24 · 1313 阅读 · 0 评论 -
机器学习(一)——kNN
最近对机器学习很上头,虽然之前学校开过机器学习的课,但是课很水我也很水,水到最后脑子里啥都没学到,这不,又重来一次,真的是相当上头的一次。1.机器学习过程的理解用图说话就是把数据喂给算法,训练出模型,然后用模型预测。2.kNN算法2.1 几种距离这是最最入门的算法了,这里就简单记录一下几种距离的计算:字丑莫嘲2.2 算法实现2.2.1自己实现封装一个kNN分类器:(较为简陋)import numpy as npfrom math import sqrtfrom collecti原创 2022-04-16 22:49:16 · 820 阅读 · 0 评论