自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 [模式识别] 实验报告——贝叶斯、Fisher线性判别、K近邻、LeNET、PCA变换实验

本资源整合了模式识别课程的五个实验报告,分别为贝叶斯分类器、Fisher线性判别法、K近邻算法、使用PCA变换的方法对ORL人脸数据集进行人脸识别、使用LeNet神经网络进行MINIST手写数字的识别。

2022-11-26 18:05:48 1571 1

原创 HTML+JS 实现 input 框回车事件

很多时候input框我们输入结束后都习惯直接按回车,而不是点击button。在form表单中可以实现点击回车即可提交表单,但如果只是一个单独的input框,则无法通过直接按回车来提交内容。这种情况我们可以使用JavaScript脚本实现input框回车事件,其实现方法很简单,这里用到了jQuery框架,代码如下:只需要在script标签中直接加入以下内容即可。keycode==13即代表按下了回车键,同理可以通过更改此代码实现其他按键的触发事件。

2022-09-09 12:02:00 15496

原创 [蓝桥杯嵌入式STM32] EEPROM At24c02读取时出现乱码问题的解决

[问题描述]在使用At24c02向存储器中写入数据时,可能会出现读取出来的数据是一堆乱数字的情况。[问题解决]问题在于勾选了“Micro LIB”,取消勾选即可。但是取消勾选后,可能会出现“printf”函数不能用的情况。为了顺利使用printf函数,我们需要在usart.c文件中添加如下代码:#pragma import(__use_no_semihosting) _sys_exit(int x) { x = x; } struct __FILE {

2022-05-12 20:39:15 1515

原创 [算法] 最易理解的贪心算法讲解(带实例)

一、定义贪心算法,定义为:将一个大的问题拆解为若干个小问题,在求解问题的每一步中,不管当前这一步的决策会对未来有什么影响,都只将眼前的决策取到最优即可。如此反复,直至最终得到最优解。缺陷:只是希望得到最优解,尽管每一步都是最优解,但在整体上并不一定能够得到最优解。优点:时间复杂度通常都比较低,也就是花的时间比较少。整体可能不是最优,但也八九不离十。二、举例有这么一堆数,按照金字塔排列下来,如下图所示。我们从顶点开始,求从顶部到底部的最大路径之和;换句话说就是从顶到底每层依次加一个数,令这

2022-05-09 22:18:58 753

原创 [论文排版] 实现公式居中、编号右对齐

第一步:创建1×3的表格第二步:将中间的表格调大,两侧的调窄。注意:左右两边一定要等宽!!第三步:在中间表格插入公式,右边表格插入序号。并将中间公式设置为居中,右侧编号设置为右对齐。第四步:此时序号飘在半空中,需要设置垂直对齐,右键选择单元格对齐方式,点选垂直居中第五步:去除边框,选中整个表格,点击边框和底纹,并点击“无”第六步:完工!...

2022-02-17 10:51:51 1435

原创 [Pytorch] 学习记录(七)MNIST多分类问题

在处理多分类问题的时候会用到一个叫做softmax的分类器,本讲将主要从softmax分类器入手来实现多分类问题。在前一章我们对糖尿病模型进行了二分类,二分类问题中只需要输出一个概率,另外的一个概率通过用1来减即可获得。但多分类需要输出多个概率。本次我们采用MNIST手写数字数据集,首先我们来看一下如果有十个分类那他们的输出该是什么样的。若有十个分类,那这10个概率的输出应该是总和=1且均>0的。但某些情况下,可能会出现P(y=1)=0.8,P(y=2)=0.9 这样的情况,所以当我们求出P(y=

2022-02-13 15:45:15 1174 3

原创 [Pytorch] 学习记录(六)处理多维特征输入

在之前的章节中一直在进行单维的特征输入 ,本节将进行多维特征输入的学习。图1为数据集样例,该数据集是关于糖尿病的数据集。图1 数据集样例我们将进行糖尿病的分类任务,每一行为一个样本Sample,每一列称为一个特征Feature。显然,每个样本拥有8个特征。由于特征的增加,在计算logistic模型的时候就不能再按照先前的一维计算,公式如下所示:公式中,需要将每个x的特征值取出,与ω相乘。在这里我们将xn看作一个向量,就相当于做如下的运算:其与单维的区别在于ω不再只是一个数字,而

2022-02-12 17:09:09 985

原创 [Pytorch] 学习记录(五)Logistic(Sigmoid) 回归

本章将开始进行机器学习中的分类问题,虽然名字叫回归,但他是做分类的。分类问题最基本的一个思维方式:比如识别手写数字,模型会将输入的图片进行十个类别的预测,并给出10个概率。从当中选取概率最高的一个作为预测结果,即为多分类。这里我们采用一个经典的数据集——minist,该数据集可从pytorch中下载,代码如下:import torchvisiontrain_set = torchvision.datasets.MNIST(root=’../dataset/mnist',train=FTrue,d

2022-02-12 15:22:45 1011

原创 [Pytorch] 学习记录(四)使用Pytorch实现线性回归

在之前的几节里涉及到过简单的线性模型,本章将利用pytorch提供的工具来实现线性回归。我们会介绍诸如Module、构造Loss函数、构造随机梯度下降优化器等。这些东西pytorch都会提供,因此本章的主要作用就是如何利用pytorch提供的工具来帮助我们更方便的实现构建线性模型。首先回顾一下前面讲过的,第一步是要确定Linear Model,再定义损失函数进行优化。在pytorch中进行优化的时候,要用到的是sgd(随机梯度下降),而用sgd核心的步骤是要求出每一个损失函数关于权重的偏导(梯度),这就

2022-02-11 09:40:40 1054

原创 [Pytorch] 学习记录(三)反向传播

反向传播是神经网络中非常重要的一个算法,它可以在图上进行梯度传播。如图是最简单的神经网络,ω为权重存在于模型中,是我们要训练的目标。y为最终的输出,*为进行计算的地方。在训练的时候实际上就是对ω权重进行更新,更新的时候是在计算Loss对权重的导数。图1 最简单的神经网络梯度下降的完整公式为,而导数部分经推导可得。对于简单的模型我们可以用上面的解析式方法去做,但是对于复杂的模型就不能再这样做了。图2 复杂的模型如图2,每一个圆圈里都有一个自己的ω,权重数量非常多。...

2022-02-09 17:50:20 985

原创 [Pytorch] 学习记录(二)回归与梯度下降

本文将对回归进行深入了解

2022-02-09 09:57:07 524

原创 [Pytorch] 学习记录(一)

本篇内容包含基础部分诸如梯度下降、variable、激活函数等。

2022-02-08 16:43:01 452

原创 Android Studio实现透明状态栏的最简单方法

共有两步。第一步:在 “public class MainActivity extends AppCompatActivity { ” 下添加如下代码,以下代码是通用的,不需要修改。但是通常复制以后会有一处标红,只需按其提示新建一个xml文件即可解决,新建的xml文件里不需要另加东西。//是否使用特殊的标题栏背景颜色,android5.0以上可以设置状态栏背景色,如果不使用则使用透明色值 protected boolean useThemestatusBarColor = false;

2021-08-27 12:04:43 3192 4

模式识别实验报告(五个实验)

此文档包含贝叶斯分类器、Fisher线性判别法、K近邻算法、使用PCA变换的方法对ORL人脸数据集进行人脸识别、使用LeNet神经网络进行MINIST手写数字的识别。

2022-11-26

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除