自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(45)
  • 收藏
  • 关注

原创 跟李沐学AI:语义分割

语义分割将图片中的每个像素分类到对应的类别。语义分割重点关注于如何将图像分割成属于不同语义类别的区域。语义分割可以识别并理解图像中每一个像素的内容:其语义区域的标注和预测是像素级的。

2024-08-23 00:03:32 131

原创 跟李沐学AI:转置卷积

卷积不会增大输入的高宽,通常卷积层后高宽不变或减半。转置卷积则可以用来增大输入的宽高。转置卷积是一种卷积,它将输入和核进行了重新排列,通常用作上采用。如果卷积将输入从变为,同样超参数的情况下,转置卷积将变为input中的每个元素分别乘以卷积核中的所有元素,最后所有中间结果相加以获得最终结果。

2024-08-23 00:01:17 234

原创 跟李沐学AI:目标检测的常用算法

R-CNN是最早也是最有名一类地基于锚框和CNN地目标检测算法。Fast/Faster R-CNN持续提升性能。Fasster R-CNN和Mask R-CNN是在追求高精度场景下地常用算法。SSD通过单神经网络检测模型以每个像素为中心产生多个锚框在多个段的输出上进行多尺度的检测。

2024-08-16 20:04:39 747

原创 跟李沐学AI:目标检测、锚框

物体检测或目标检测之别图片中多个物体的类别和位置。位置常用边缘框表示。一类目标检测算法基于锚框进行预测。首先生成大量锚框并赋予标号,每个锚框作为一个样本进行训练。在预测时,使用NMS去除冗余的预测。

2024-08-16 18:26:00 432

原创 跟李沐学AI:微调

微调通过使用大规模数据集上训练好地预训练模型来初始化自己模型权重以提升模型精度。预训练模型的质量很重要。微调通常速度更快、精度更高。

2024-08-14 20:35:25 158

原创 跟李沐学AI:CPU和GPU

CPU可以处理通用计算。性能优化考虑数据读写效率和多线程。GPU使用更多的小核和更好的内存带宽,适合大规模并行的计算任务。

2024-08-13 18:46:56 382

原创 跟李沐学AI:数据增广

数据增广通过变形数据来获取多样性从而使得模型泛化性能更好常见图片增广包括翻转、切割、变色。

2024-08-13 11:31:34 159

原创 跟李沐学AI:批量归一化

批量归一化固定小批量中的均值和方差,然后学习出合适的偏移和缩放。BN可以加速收敛但一般不改变模型精度。

2024-08-09 10:49:31 286

原创 跟李沐学AI:GoogLeNet含并行连结的网络

Incpetion块用4条不同超参数的卷积层和池化层来抽取不同的信息,具有模型参数少,计算复杂度低的特点。GoogleNet用了9个Inception块,是第一个达到上百层的网络,并在后续得到改进。

2024-08-07 19:02:24 148

原创 跟李沐学AI:NiN网络中的网络

NiN块使用卷积层加两个1x1的卷积层,后者对每个像素增加了非线性性。NiN使用全局平均池化层来替代VGG和AlexNet中的全连接层,使得不容易过拟合,参数个数减少。

2024-08-04 20:30:12 212

原创 跟李沐学AI:LeNet

LeNet是早期成功的神经网络。先使用卷积层来学习图片空间信息。然后使用全连接层来转换到类别空间。

2024-08-04 10:55:56 143

原创 跟李沐学AI:AlexNet、VGG

AlexNet是一个更大更深的LeNet新加入了丢弃发、ReLU、最大池化层和数据增强AlexNet引发了新一轮的神经网络热潮VGG使用可重复使用的卷积快来构建深度卷积神经网络。不同卷积块个数和超参数可以得到不同复杂度的变种。

2024-08-04 10:55:36 264

原创 跟李沐学AI:池化层

池化层返回窗口中最大或平均值缓解卷积层对位置的敏感性同样具有窗口大小、填充和步幅作为超参数。

2024-07-25 20:17:52 167

原创 跟李沐学AI:多个输入和输出通道

输出通道是卷积层的超参数每个输入通道有独立的二维卷积核,所有通道结果相加得到一个输出通道结果每个输出通道有独立的三位卷积核m_h*m_w。

2024-07-24 20:26:35 167

原创 跟李沐学AI:卷积层

卷积是一个特殊的全连接层。卷积神经网络是包含卷积层的一类特殊的神经网络。在深度学习研究社区中,𝑉被称为卷积核(convolution kernel)或者滤波器(filter),亦或简单地称之为该卷积层的权重,通常该权重是可学习的参数。当图像处理的局部区域很小时,卷积神经网络与多层感知机的训练差异可能是巨大的:以前,多层感知机可能需要数十亿个参数来表示网络中的一层,而现在卷积神经网络通常只需要几百个参数,而且不需要改变输入或隐藏表示的维数。

2024-07-24 12:00:12 985

原创 跟李沐学AI:PyTorch神经网络基础

每个块都要事先如下基本功能:将输入数据作为其前向传播函数的参数。通过前向传播函数来生成输出。请注意,输出的形状可能与输入的形状不同。例如,我们上面模型中的第一个全连接的层接收一个20维的输入,但是返回一个维度为256的输出。计算其输出关于输入的梯度,可通过其反向传播函数进行访问。通常这是自动发生的。存储和访问前向传播计算所需的参数。根据需要初始化模型参数。# 用模型参数声明层。这里,我们声明两个全连接的层# 调用MLP的父类Module的构造函数来执行必要的初始化。

2024-07-22 23:04:10 565

原创 跟李沐学AI:数值稳定性、模型初始化和激活

当数值过大或过小时会导致数值问题问题常发生在深度模型中,因为其会对n个数值累乘。

2024-07-19 17:01:04 428

原创 跟李沐学AI:丢弃法

一个好的模型,应该有较好的平滑性,即函数不应该对其输入的微小变化敏感。如对图像进行分类时,向图像像素中添加一些随机的噪声应对分类结果基本没有影响。丢弃法在前向传播的过程中,计算内部每层权重的同时注入噪声。因为当训练一个有多层的深层网络时,注入噪声只会在输入-输出映射上增强平滑性。丢弃法已经成为训练神经网络的常用技术。这种方法之所以被称为丢弃法,因为从表面上,训练过程中一些神经元被丢弃了(置为0)。丢弃发将一些隐藏层的输出项随机置0来控制模型复杂度常作用于多层感知机的隐藏层输出。

2024-07-17 20:04:29 148

原创 跟李沐学AI:权重衰退

权重衰退通过L2正则项使得模型参数不会过大,从而控制模型复杂度。正则项权重λ是控制模型复杂度的超参数。

2024-07-17 18:16:18 303

原创 跟李沐学AI:模型选择、过拟合和欠拟合

训练数据集用于训练模型参数验证数据集用于选择模型超参数非大数据集可以使用k-则交叉验证进行训练模型容量需要匹配数据复杂度,否则可能导致欠拟合和过拟合。

2024-07-16 19:20:20 282

原创 跟李沐学AI:多层感知机

感知机是一个二分类模型,是最早的AI模型之一它的求解算法等价于使用批量大小为1的梯度下降它不能拟合Xor函数,导致第一次AI寒冬多层感知机在输出层和输入层之间增加一个或多个全连接隐藏层,并通过激活函数转换隐藏层的输出。常用的激活函数包括ReLU函数、sigmoid函数和tanh函数。使用Softmax来处理多类分类超参数为隐藏层数和各个隐藏层大小W_1b_1b_2%5Csigmab_1%29b_2。

2024-07-16 16:54:05 721

原创 Vue3学习:如何在Vue3项目中创建一个axios实例

首先,确保你的项目中已经安装了 Axios。目录下)创建一个新的 JavaScript 文件,例如。接下来,可以在项目的某个合适的位置(比如。

2024-07-15 18:11:20 461

原创 Vue3学习:Vue3基础

使用ref包裹引用数据类型数据,返回的仍然是RefImpl实例,故仍需要通过xx.value.attr来访问对象的属性值。使用ref包裹引用数据类型数据,底层会通过reactive包装引用数据类型数据。

2024-07-15 17:26:27 926

原创 跟李沐学AI:简单损失函数

特点:当真实值y与预测值y'相差较远时,梯度较大,参数更新较多。当预测值与真实值靠近时,梯度越来越小。特点:当预测值与真实值相差较远时,梯度永远为常数,能带来稳定性的好处,但是0点处不可导,具有不平滑性。当预测值与真实值相差较大时,是绝对值误差。当预测值与真实值相差较小时是平方误差。

2024-07-12 21:49:33 163

原创 跟李沐学AI:Softmax回归

Softmax回归是一个多类分类模型使用Softmax操作子得到每个类的预测置信度使用交叉熵来衡量预测值和标号(label,实际值)的区别b。

2024-07-12 21:30:26 976

原创 跟李沐学AI:线性回归

线性回归是对n维输入的加权外加偏差使用平方损失来衡量预测值和真实值的差异线性回归有显示解线性回归可以看作单层神经网络梯度下降通过不断延着反梯度方向更新参数求解小批量随机梯度下降是深度学习默认的求解算法两个重要的超参数是批量大小batch_size和学习率w2x2+w3x3+bw2x2+...+

2024-07-12 18:51:27 412

原创 JavaWeb学习:在SSM框架中配置一个简单的监听器和过滤器

一定要加上@WebListener注解!在WebConfig配置类中声明listener的bean组件好像没有用,只有通过注解才能正确注入容器。编写一个记录有多少个请求访问的监听器,通过面向全部访问路径的过滤器更新监听器中的visitCount次数。需要使用@WebFilter注解并声明相关信息!/*则说明对所有请求进行过滤。

2024-06-01 17:42:03 268

原创 JavaWeb学习:Vue+Element-plus实现文件上传

在tomcat设置中on frame deactivation为Update Resource则不需要重新部署文件,便可以从外部通过路径访问新上传的图片。后端MultipartFile对应的是前端FormData数据,为成功上传至后端,需要对上传过程进行一些修改,将自定义的上传过程编写在before-upload周期中,返回值为false则不会调用默认的上传方法。FormData类型的数据无法直接在控制台中log出来,直接log会生成空对象{},用遍历方式便可输出FormData中保存的对象。

2024-05-30 22:25:38 804

原创 JavaWeb学习:Vue+SSM利用Cookie实现自动登录

2. 用户初次登录,或登出后 ,Cookie没有携带相关信息时,需要对用户登录的合规性进行验证,验证通过后将用户的id信息添加至Cookie,下次访问时便可直接登录。1. 从已有Cookie中查找用户id信息,如果Cookie已经包含相关信息,说明用户已经登录过,直接返回相关用户数据即可。3. 当前端发出登出请求时,删除Cookie中已保存的用户id信息,下次登录需中心进行合规性验证。4. login函数被调用时,将用户id信息放入cookie中。5. 登出时从cookie中删除用户id信息。

2024-05-28 21:36:20 441

原创 前端知识点杂记

后端若想接收JSON数据,首先需要进行相关配置,同时只能使用@RequestBody和对象来承接JSON,不能自动映射,也不能使用@RequestParam进行映射。如这个函数中,gruops作为对象,可以直接使用[keyName]访问对应的value,且可以对key对应的value进行赋值等操作。或者使用Object.keys()获取键的数组,键数组的长度即为classifiedList的长度。对象包含了子组件传递给插槽的所有属性和方法,这些属性和方法可以在插槽的内容中。3. 使用方法生成uuid实例。

2024-05-28 21:03:47 1788

原创 Vue路由学习:守卫路由

Vue Router的导航守卫,也被称为路由守卫或路由拦截,是Vue Router提供的一种机制,主要通过跳转或取消的方式守卫(即控制)导航。这种机制允许开发者在路由发生变化前后执行一些操作,比如验证用户权限、设置标题、发送统计数据等。来重定向未验证的用户。如果用户已通过验证,或者目标路由就是登录页面,则返回。Vue Router提供了几种类型的导航守卫,其中最常用的是全局前置守卫。1. 首先,你需要在Vue项目中定义好你的路由。,因为如果不执行任何返回操作,导航将默认继续)守卫通过返回登录页面的路径。

2024-05-28 18:27:01 170

原创 SSM学习:配置整合

SSM需要整合两个IoC容器,分别为Web容器和Root容器,组件分类管理。通过初始化两个容器可以将各个层及的关注点进行分离,使得各个层次的组件能更好地聚焦于各自的责任和功能。使每个模块可以独立操作和测试,提高可代码的可维护性和可测试性。可以为每个容器日工各自配置,满足不同层次和组件的特定需求。

2024-05-21 16:33:43 617 1

原创 Spring MVC学习:响应数据

handler方法即Controller层中处理前端请求的方法。handler需要使用@RequestMapping系列注解指定访问路径,用于接收请求参数、调用业务逻辑、响应前端数据。

2024-05-19 17:14:45 242 1

原创 Spring MVC学习:接收数据

Spring Web MVC是基于Servlet API构建的原始Web框架,从一开始就包含在Spring Framework中。SpringMVC的作用主要覆盖的是表述层,功能包含:请求映射、数据输入、视图界面、请求分发、表单回显、会话控制、过滤拦截、异步交互、文件上传等。

2024-05-19 16:23:11 607 1

原创 PyTorch学习:神经网络基础

nn.Module是所有神经网络基本类,所有模型都需要继承此类,nn.Module为神经网络提供了模板,但是开发者也可以根据需求重写模板实现自定义。类的初始化方法。self标识类的实例本身,允许访问类的属性和方法前向输出,需要被继承子类重写。定义每次调用时执行的计算。

2024-05-17 23:19:44 400 1

原创 Pytorch学习:数据加载

Dataset()是一个抽象类,所有数据集dataset都会继承DataSet类。

2024-05-16 23:07:17 934

原创 Pytorch学习:Anaconda Prompt的基本使用

不同的模型有不同的package需求,为了方便管理和调整不同模型的不同package,我们可以为不同模型单独创建独立的conda环境。利用PyCharm创建Python Project时,我们可以导入已经创建好的conda环境。根据已创建Conda环境的路径,选择环境中的python.exe,随后OK -> create 即可。左上角New按钮即可在指定Conda环境env_name中运行python程序。1. 检查CUDA版本:nvidia-smi。逐行输入,显示为True则成功安装。

2024-05-16 14:45:13 720

原创 MyBatis学习:动态语句

进行数据库查询时,有很多参数并不需要传入或没有值传入,具体情况随用户提交的请求确定。当查询条件不确定是,后端应该如何输入最终的SQL语句呢?这时候,MyBatis动态语句便出现了!动态 SQL 是 MyBatis 的强大特性之一。使用动态 SQL 并非一件易事,但借助可用于任何 SQL 映射语句中的强大的动态 SQL 语言,MyBatis 显著地提升了这一特性的易用性。在 MyBatis 之前的版本中,需要花时间了解大量的元素。

2024-05-15 23:04:53 806

原创 MyBatis学习:多表映射

setting name="autoMappingBehavior">标签:指定 MyBatis 应如何自动映射列到字段或属性。NONE 表示关闭自动映射;PARTIAL 只会自动映射没有定义嵌套结果映射的字段。FULL 会自动映射任何复杂的结果集(无论是否嵌套)。进行多表resultMap映射的时候,可以省略符合列和属性命名映射规则(列名=属性名,或者开启驼峰映射也可以自定映射)的result标签!--开启resultMap自动映射 -->-- 开启自动映射,并且开启驼峰式支持!

2024-05-15 11:38:03 1886

原创 MyBatis学习:基本使用

数据输出:resultType一般有两种形式:增、删、改操作所影响的行数:返回值为int类型查询操作的查询结果所对应的数据类型。

2024-05-15 09:08:34 1954

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除