自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(44)
  • 收藏
  • 关注

原创 SQL语言初步认识

表名><列名><数据类型>[<默认值>|<标识列设置>][<该列的完整性约束>]`完整性约束:①NOT NULL :该列值不能为空②NULL :该列值可以为空③UNIQUE :该列值不能有相同者<视图名>[<列名清单>]AS<子查询>[WITH CHECK OPTION]:之后对视图进行插入、修改、删除操作,会加上子查询中的条件,如果条件判断成立,则进行插入、修改和删除的操作。

2024-04-19 21:57:39 992 1

原创 卷积神经网络(LeNet5实现对Fashion_MNIST分类

本次实验旨在探索卷积神经网络在Fashion_MNIST数据集上的应用,以经典的LeNet-5模型为基础进行分类任务。在实验过程中,我逐步优化了模型架构,并对比了不同模型的性能表现,以达到更好的分类准确率。首先,Fashion_MNIST数据集包含10个类别的衣物和配饰图像,每个类别包含7000张28x28像素的灰度图像。我采用了LeNet-5模型作为初始模型架构,该模型包含了卷积层、池化层和全连接层,经典简洁。随后,在训练过程中我注意到模型的性能不尽如人意,于是尝试了调整参数和模型架构。

2024-04-14 12:37:30 986

原创 Bezier曲线

bezier曲线的公式原理、bezier曲线绘制、PyOpenGL的使用

2024-03-31 13:33:08 359

原创 PyOpenGL环境配置教程

计算机图形学需要使用到 PyOpenGL,在pycharm中使用。

2024-03-16 14:54:00 463

原创 数据结构课程设计实践--哈夫曼树

4. 译码的过程是对二进制电文从根节点出发做自上而下搜搜,当搜搜到树叶结点时则确定了一段二进制电文对应的一个字符,这一搜索过程的时间复杂度是O(lg n),若二进制电文中可译出的字符数为m,则译码的过程的时间复杂度为O(m*lg n)2. 对每个字符的编码,是从树叶结点出发自下而上搜索至根结点的过程,这一搜索过程的时间复杂度为O(lg n),对有n个树叶的哈夫曼树而言,建立编码表的时间复杂度为O(n*lg n)显示根据在内存中的或者从文件“hfmTree.txt”中读入的哈夫曼树建立的各个字符的编码。

2024-03-16 13:15:16 730

原创 数据挖掘(作业4--异常值检测

异常检测方法通常可分为使用参数的方法和基于距离的方法。

2024-03-13 21:47:52 1133

原创 数据科学导论大作业(数据分析/收入预测分析

参考python 数据分析-- 实战1(收入预测分析) - sinlearn - 博客园 (cnblogs.com)

2024-03-13 21:47:19 592

原创 数据结构--栈和队列

是限定仅在表尾进行插入或删除操作的线性表表尾即栈顶Top表头即栈底Base特点:后进先出是限定只能在表的一段(表尾)进行插入,在表的另一端(表头)进行删除的线性表队尾rear:允许插入的一端队头front:允许删除的一端先进先出。

2024-01-21 18:54:10 450

原创 数据结构--数组和广义表

略广义表一些操作可以看数据结构--广义表_空广义表的表头和表尾-CSDN博客。

2024-01-18 13:50:19 530

原创 数据结构--串

2024-01-18 13:10:44 520

原创 数据结构--排序

插入排序、希尔排序、冒泡排序、快速排序、简单选择排序、堆排序、归并排序、基数排序以及各种排序方法的比较

2024-01-14 20:09:45 1151

原创 机器学习--ROC & AUC

ROC和 AUC的一些基本认识

2024-01-03 16:45:50 915

原创 基于CNN神经网络的手写字符识别实验报告

在MNIST手写字符识别任务中,CNN(例如LeNet-5)模型表现出了较好的性能,能够有效地提取图像特征,获得较高的准确率。参数调优对模型性能影响显著,如学习率、批处理大小、优化算法和激活函数等。具体调整这些参数能够显著地改变模型的收敛速度和准确率。不同的优化算法和激活函数对模型性能有重要影响。自适应学习率算法(如Adam、RMSprop)和ReLU激活函数通常能在训练效率和性能上取得较好的平衡。手写字符识别问题在现代深度学习中仍然是一个重要的研究领域,不同的模型和方法在实际应用中各有优劣。

2023-12-30 17:01:36 1697 1

原创 Transformer模型中的Attention算法

参考【经典精读】万字长文解读Transformer模型和Attention机制 - 知乎 (zhihu.com)图解Transformer_transformer模型训练准确率曲线图-CSDN博客The Illustrated Transformer – Jay Alammar – 一次可视化一个概念的机器学习。Transformer是《Attention is all you need》论文里提出来的新的框架,其就是一个升级版的seq2seq,也是由一个encoder和一个decoder组成的。

2023-12-29 12:44:17 960

原创 softmax函数

Softmax从字面上来说,可以分成soft和max两个部分。max故名思议就是最大值的意思。Softmax的核心在于soft,而soft有软的含义,与之相对的是hard硬。很多场景中需要我们找出数组所有元素中值最大的元素,实质上都是求的hardmax。下面使用Numpy模块以及TensorFlow深度学习框架实现hardmax。a = np.array([1, 2, 3, 4, 5]) # 创建ndarray数组通过上面的例子可以看出hardmax最大的特点就是只选出其中一个最大的值,即非黑即白。

2023-12-28 20:27:57 1111

原创 高斯函数、高斯核函数(RBF、径向基函数

作为机器学习中的一种算法,在解决分类问题中,高斯核函数便可发挥用途,当数据集不是线性可分的时候,需要利用核函数将数据集映射到高维空间,使其线性可分。如下图所示,有一组一维数据,两个类别,明显是线性不可分的情况:然后通过多项式将样本数据再增加一个维度,假设就是 ‍‍,样本数据就变成这样了:此时原本线性不可分的样本数据,通过增加一个维度后就变成线性可分的状态。这就是多项式升维的意义。

2023-12-27 14:31:24 1346

原创 数据结构--查找

1. 就是若它的左子树不空,则左子树上所有节点的值均小于它的根节点的值;2. 若它的右子树不空,则右子树上所有节点的值均大于其根节点的值。3. 其左右子树本身又各是一棵二叉排序树1. 树的每个结点至多有m棵子树2. 若根结点不是叶子结点,则至少有两棵子树3. 除根结点之外的所有非终端结点至少有m/2 棵子树4. 一个包含个关键字的结点有+1 个孩子;5. 所有叶子结点都出现在同一层次,不含任何信息6. 一个结点中的所有关键字升序排列,两个关键字1 和。

2023-12-26 15:58:54 1016

原创 读论文之StoryGAN

故事可视化。由一个深度上下文编码器组成,该编码器动态跟踪故事流,以及故事和图像级别的两个鉴别器,以提高图像质量和生成序列的一致性。

2023-12-25 23:38:28 952

原创 数据挖掘(作业3

对以下数据集使用K均值聚类算法:1)观察实验结果是否符合预期;2)利用SSE标准确定K值;3)自行调参并观察对聚类结果的影响。注意:需要把类别信息去掉。“tutorial3_Data Exploration”中的鸢尾花数据集“iris.data”“tutorial4_Data Preprocessing”中的癌症数据集“breast-cancer-wisconsin.data”

2023-12-24 23:40:42 1005

原创 scikit-learn文档中的数据生成器

(int或RandomState实例,可选):用于随机数生成器的种子。生成一组聚类问题的数据集,可以设置聚类数量、中心点数量、特征数量等。的数据集的函数,通常用于可视化分类器的学习过程或者测试机器学习算法的性能。的函数,通常用于可视化分类器的学习过程或者测试机器学习算法的性能。(int):生成的信号的原子数量(即特征数)。可以看出它生成的各类数据交织在一起,很难做线性的分类。(int):每个样本中非零系数的数量。(int):生成的样本数量。(int):样本的特征数。:用于生成信号的字典或基向量。

2023-12-24 14:15:34 1124

原创 层次聚类(学习笔记

Ward方法是一种层次聚类算法中使用的一种合并策略,它旨在最小化合并后的群集的方差增加量。在层次聚类中,通过将最相似的群集合并来构建一棵树状结构,最终形成一个完整的聚类结果。该方法在某些情况下能够产生更均衡和更紧凑的聚类结果,尤其适用于聚类数量较少、群集大小差异较大或群集之间差异较大的情况。它倾向于形成均衡的群集,对于较大的数据集也相对高效。在这种方法中,两个群集之间的距离被定义为一个群集中的每个点与另一个群集中的每个点之间的。在全链接方法中,两个群集之间的距离定义为一个群集中的最远成员与另一个群集中的。

2023-12-23 13:28:21 420

原创 BP神经网络

每个神经元都接受来自其它神经元的输入信号,每个信号都通过一个带有权重的连接传递,神经元把这些信号加起来得到一个总输入值,然后将总输入值与神经元的阈值进行对比(模拟阈值电位),然后通过一个“因为参数是随机的,所以第一次计算出的结果跟真实的结果会有一个非常大的误差,所以我们需要根据误差去调整参数,让参数可以更好的去拟合,直到误差达到最小值,这时就需要模型的反向传播==第二阶段是误差的反向传播,从输出层到隐含层,最后到输入层,依次调节隐含层到输出层的权重和偏置,输入层到隐含层的权重和偏置。

2023-12-14 08:48:17 61

原创 生成式对抗网络(GAN

GAN包含有两个模型,一个是生成模型,一个是判别模型。生成模型的任务是生成看起来自然真实的、和原始数据相似的实例。判别模型的任务是判断给定的实例看起来是自然真实的还是人为伪造的(真实实例来源于数据集,伪造实例来源于生成模型)。·结合整体模型图示,再以生成图片作为例子具体说明下面。我们有两个网络,G(Generator)和D(Discriminator)。·Generator是一个生成图片的网络,它接收一个随机的噪声z,通过这个噪声生成图片,记做G(z)。

2023-12-12 15:55:06 1094

原创 卷积神经网络(学习笔记

卷积神经网络正是将空间不变性(spatial invariance)的这一概念系统化,从而基于这个模型使用较少的参数来学习有用的表示。平移不变性(translation invariance):不管检测对象出现在图像中的哪个位置,神经网络的前面几层应该对相同的图像区域具有相似的反应,即为“平移不变性”。局部性(locality):神经网络的前面几层应该只探索输入图像中的局部区域,而不过度在意图像中相隔较远区域的关系,这就是“局部性”原则。最终,可以聚合这些局部特征,以在整个图像级别进行预测。

2023-12-12 00:05:48 22

原创 find()

【代码】find()

2023-12-12 00:00:00 34 1

原创 优先队列1

size() 返回优先队列中拥有的元素个数。top() 返回优先队列队顶元素。C++中的优先队列是由二叉堆实现的。默认是使用大根堆实现。是默认的大根堆实现,top()是当前优先队列的最大值。是最小值的优先队列,top() 是当前优先队列的最小值。是最大值的优先队列,top() 是当前优先队列的最大值。empty() 如果队列为空返回真。pop() 删除队顶元素。push() 入队一个元素。

2023-12-11 23:59:00 37 1

原创 排序笔记111

快排因为是用了递归算法,当待排数量较小的时候,用递归算法的缺点就非常明显,不仅速度不快,而且会占用栈空间,那么用cutoff这个阈值来做切割,一旦数组长度小于这个值,则用第2小节的三个算法,这样更好。如果比根结点大,那么弹出根结点,将新数据插入堆中,并且将堆重排序,从P[0]开始,往下过滤,保证仍然是最小堆。一般不直接选待排序列的第一个元素,而是挑选待排序列的首、中。根据题目特点,所需要找到的大富翁数量M的上限,远小于N的上限,因此在实际的排序中,并不需要将整个N序列都排好,只要能找到前M个就行。

2023-12-11 23:56:15 33 1

原创 关键活动(pta

【代码】关键活动(pta。

2023-12-11 22:38:35 81 1

原创 背包问题(动态规划

在使用二维数组的时候,递推公式:dp[i][j] = max(dp[i - 1][j], dp[i - 1][j - weight[i]] + value[i]);所以递归公式: dp[i][j] = max(dp[i - 1][j], dp[i - 1][j - weight[i]] + value[i]);回顾一下dp[i][j]的含义:从下标为[0-i]的物品里任意取,放进容量为j的背包,价值总和最大是多少。读到这里估计大家都忘了 dp[i][j]里的i和j表达的是什么了,i是物品,j是背包容量。

2023-12-11 19:00:39 60 1

原创 并查集(排座位

并查集是一种维护集合的数据结构,用于处理一些不相交集合的合并及查询问题,在数据结构中的作用就是判断图中两点的连通性,是一种空间换时间的算法,比搜索来的要更快。构建完成的并查集从其数据结构上来说是树。1.并查集支持下面两个操作:(1)合并:合并两个集合(2)查找:判断两个元素是否在一个集合2.并查集的实现:并查集通过数组来实现,在数组中散列某结点的父亲节点,形成一个记录父亲结点的静态链表,通过判断父系关系来表示元素所属的集,类似反向遍历的树。

2023-12-10 13:05:49 33 1

原创 数据挖掘--聚类

聚类

2023-12-10 11:44:36 897 1

原创 数据结构--图

图、图的存储结构、图的遍历、广度优先搜索、深度优先搜索、最小生成树最短路径、拓扑排序、关键路径、bfs、dfs、Kruskal、Prim、Dijkstra、Floyd

2023-12-09 21:00:28 736

原创 Floyd

【代码】Floyd。

2023-12-09 16:52:53 16

原创 数据科学导论Python代码的实现

在1到1000之间随机生成一个数,然后请用户循环猜测这个数字,对于每个答案只回答“猜大了”或“猜小了”,直到猜测准确为止,输出用户的猜测次数。提供6张图,纵坐标为每日收盘价以周、月为单位的平均值,横坐标为周或月,显示形式为折线图、散点图和柱形图。Bootstrap采样中性别比例不接近于总体样本的性别比例。总体样本男女比例: 0.5555555555555556。平均男女比例: 0.556057。

2023-11-22 11:05:20 47 1

原创 数据结构课程设计PTA练习题

快排因为是用了递归算法,当待排数量较小的时候,用递归算法的缺点就非常明显,不仅速度不快,而且会占用栈空间,那么用cutoff这个阈值来做切割,一旦数组长度小于这个值,则用第2小节的三个算法,这样更好。农夫要修理牧场的一段栅栏,他测量了栅栏,发现需要N块木头,每块木头长度为整数Li​个长度单位,于是他购买了一条很长的、能锯成N块的木头,即该木头的长度是Li​的总和。根据题目特点,所需要找到的大富翁数量M的上限,远小于N的上限,因此在实际的排序中,并不需要将整个N序列都排好,只要能找到前M个就行。

2023-11-17 14:50:43 248

原创 数据结构--二叉树作业

ps:其中的二叉树的创建很特别,值得二次看。利用队列进行层次遍历。

2023-11-17 10:55:55 79

原创 python学习

【代码】python学习。

2023-11-07 23:05:02 15 1

原创 深度学习--CNN(卷积神经网络)学习笔记

卷积神经网络是一种专门用来处理具有类似网格结构的数据的神经网络。卷积网络是指那些至少在网络的一层中使用卷积运算来替代一般的矩阵乘法运算的神经网络。2. 卷积神经网络的五个结构2.1 输入层2.2 卷积层常用的尺寸有3×3,5×52.3 池化层池化层不会改变三维矩阵的深度,但是它可以缩小矩阵的大小。通过池化层,可以进一步缩小最后全连接层中节点的个数,从而达到减少整个神经网络参数的目的。使用池化层既可以加快计算速度也可以防止过拟合。池化层filter的计算不是节点的加权和,而是采用。

2023-11-05 18:05:41 65

原创 遗传算法解决旅行商问题--人工智能导论学习笔记

2.在过去的几代中,个体没有明显的改进。这可以通过存储每一代获得的最佳适应度值,然后将当前的最佳值与预定的几代之前获得的最佳值进行比较来实现。如果差异小于某个阈值,则算法可以停止。(原文链接:https://blog.csdn.net/LOVEmy134611/article/details/111639624。在确定算法是否可以停止时,可能有多种条件可以用于检查。这也用于限制算法消耗的运行时间和计算资源。消耗了一定的成本或预算,例如CPU时间和/或内存。最好的解已接管了一部分种群,该部分大于预设的阈值。

2023-10-31 22:41:43 59 1

原创 数据挖掘学习笔记

协方差(covariance)和相关性(correlation)都是用来描述两个随机变量之间的关系的统计概念。

2023-10-31 22:39:31 516 1

数据结构课程设计实践-哈夫曼树

数据结构课程设计实践-哈夫曼树

2024-03-16

数据结构课程设计实践-哈夫曼树

数据结构课程设计实践-哈夫曼树

2024-03-16

English-to-Spanish

实验中用到的数据集

2024-01-09

修改后的生成对抗网络生成的图像

生成的图像

2024-01-07

基于MNIST数据集的生成对抗网络性能优化:架构调整的研究

实验报

2024-01-07

修改后的生成对抗网络(GAN

代码文件

2024-01-07

收入预测:预测居民年收入是否会超过5万美元

实验报告(完整、提交作业版

2024-01-06

Data-Analysis

实验用到的完整代码文件

2024-01-06

Anomaly-Detection

数据集1

2024-01-04

Anomaly-Detection

代码文件

2024-01-04

income-dataset

实验用到的数据集

2024-01-03

基于CNN神经网络的手写字符识别实验报告

基于CNN神经网络的手写字符识别实验报告

2023-12-30

基于CNN神经网络的手写字符识别实验报告

基于CNN神经网络的手写字符识别实验报告

2023-12-30

Li-StoryGAN-A-Sequential-Conditional-GAN-for-Story-Visualization

Li-StoryGAN-A-Sequential-Conditional-GAN-for-Story-Visualization

2023-12-25

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除