自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(73)
  • 收藏
  • 关注

原创 java-----画图

因为小球是在JPanel上画出来的,所以让MyPanel类继承KeyListener.并且实现里面的三个方法。Graphics类你可以理解就是画笔,为我们提供了各种绘制图形的方法:[参考jdk帮助文档]:java.awt.event事件类库的某个类创建的对象,把它称为“事件的对象”。事件源产生一个事件后,就会把相关的信息封装成一个对象,就是一个事件对象。事件源:即产生事件的东西,如(鼠标,键盘,按钮等。然后将这个事件传递给监听者,交给监听者去处理。”,当事件发生时,产生事件的对象()会把此“信息”传递给。

2024-09-24 14:33:14 952

原创 java -----泛型

int a = 10;理解:泛(广泛)型(类型)=>Integer, String,Dog1)泛型又称参数化类型,是Jdk5.0 出现的新特性,解决数据类型的安全性问题2)在类声明或实例化时只要指定好需要的具体的类型即可3)Java泛型可以保证如果程序在编译时没有发出警告,运行时就不会产生ClassCastException异常。同时,代码更加简洁、健壮4)泛型的作用是:可以在类声明时通过一个标识表示类中某个属性的类型或者是某个方法的返回值的类型,或者是参数类型。

2024-09-22 15:41:38 1067

原创 Java ----常用类

StringBuilder 和 StringBuffer 均代表可变的字符序列,方法是一样的,所以使用和StringBuffer一样,[参考StringBuffer].(2)arraycopy:复制数组元素,比较适合底层调用。基本介绍:Math类包含用于执行基本数学运算的方法,如初等指数、对数、平方根和三角函数。Arrays 里面包含了一系列静态方法,用于管理或操作数组(比如排序和搜索)。(2)BigDecimal 适合保存精度更高的浮点型(小数)1)String是一个final类,代表不可变的字符序列。

2024-09-21 13:35:39 1209

原创 java 异常-Exception

当程序中出现了某些“错误”,但该错误信息并没有在Throwable子类中描述处理,这个时候可以自己设计异常类,用于描述该错误信息。(1)定义类:自定义异常类名,继承 Exception 或 RuntimeException。(2)如果继承Exception,属于编译异常。(3)如果继承,属于运行异常(一般来说继承 RuntimeException)。当我们接收Person对象年龄时,要求范围在18-120之间,否则抛出一个自定义异常(要求 继承RuntimeException),并给出提示信息。

2024-09-21 13:35:17 874

原创 java -- 枚举和注解

(1)不需要提供setXxx方法,因为枚举对象值通常为只读(2)对枚举对象/属性使用 final + static 共同修饰,实现底层优化(3)枚举对象名通常使用全部大写,常量的命名规范(4)枚举对象根据需要,也可以有多个属性1)构造器私有化2)本类内部创建一组对象[四个春夏秋冬]3)对外暴露对象(通过为对象添加publicfinalstatic修饰符)4)可以提供get方法,但是不要提供set使用Annotation时要在其前面增加。

2024-09-21 13:34:50 1030

原创 java--章面向对象编程(高级部分)

定义语法:访问修饰符 static 数据类型 变量名;(1)代码块又称为初始化块,属于类中的成员【即是类的一部分】,类似于方法,将逻辑语句封装在方法体中,通过{}包围起来。(2)但和方法不同,没有方法名,没有返回,没有参数,只有方法体,而且不用通过对象或类显式调用,而是加载类时,或创建对象时隐式调用。静态方法和属性的经典使用设计模式是在大量的实践中总结和理论化之后优选的代码结构、编程风格.以及解决问题的思考方式。设计模式就像是经典的棋谱,不同的棋局,我们用不同的棋谱,免去我们自己再思考和摸索。

2024-09-20 20:17:51 1382

原创 java--面向对象编程(中级部分)

1) 公开级别:用public 修饰,对外公开2) 受保护级别:用protected修饰,对子类和同一个包中的类公开3) 默认级别:没有修饰符号,向同一个包的类公开.4) 私有级别:用private修饰,只有类本身可以访问,不对外公开.继承可以解决代码复用,当多个类存在相同的属性(变量)和方法时,可以从这些类中抽象出父类,在父类中定义这些相同的属性和方法,所有的子类不需要重新定义这些属性和方法,只需要通过extends来声明继承父类super代表父类的引用,用于访问父类的属性、方法、构造器。

2024-09-20 11:18:03 994

原创 java-----IDE(集成开发环境)

1) Eclipse 是一个开放源代码的、基于Java的可扩展开发平台。2) 最初是由IBM 公司耗资3000万美金开发的下一代IDE开发环境3) 2001 年11月贡献给开源社区4) Eclipse 是目前最优秀的Java开发IDE之一。

2024-09-20 09:39:35 772

原创 Java-面向对象编程(基础部分)

在某些情况下,我们要需要定义成员方法(简称方法)。比如人类:除了有一些属性外(年龄,姓名..),我们人类还有一 些行为比如:可以说话、跑步..,通过学习,还可以做算术题。这时就要用成员方法才能完成。现在要求对Person类完善。访问修饰符 返回数据类型 方法名(形参列表..) {//方法体语句;return 返回值;1)形参列表:表示成员方法输入 cal(int n) , getSum(int num1, int num2)2)返回数据类型:表示成员方法输出, void 表示没有返回值。

2024-09-19 18:07:33 731

原创 java基础---(自用,学习笔记)

1) JRE(Java Runtime Environment JRE =JVM+Java 的核心类库[类] Java 运行环境)2) 包括Java虚拟机(JVMJavaVirtual Machine)和 Java 程序所需的核心类库等,如果想要运行一个开发好的Java程序, 计算机中只需要安装JRE即可。ASCII:上个世纪60年代,美国制定了一套字符编码(使用一个字节),对英语字符与二进制位之间的关系,做了统一的规定。这被称为ASCII码。

2024-09-19 14:22:29 1302

原创 \uline命令中包含\cite

\uline命令中包含\cite\uline命令不支持大括号的参数命令的解决办法Extra }, or forgotten \endgroup.Extra }, or forgotten \endgroup.Missing } inserted.

2024-09-10 22:15:12 215

原创 Java 集合Collection(List、Set)Map

Collection:单列集合类的根接口,用于存储一系列符合某种规则的元素,它有两个重要的子接口,分别是 java.util.List 与 java.util.Set。List 的特点是有索引存取有序可重复。Set 的特点是无索引存取无序(LinkedHashSet除外)、不可重复。而两个子接口又分别有各自对应的实现类。List 接口的主要实现类包括 java.util.ArrayList 和 java.util.LinkedList;

2024-08-29 14:06:50 1366

原创 Java日期类Date、Calendar、LocalDate、LocalTime、LocalDateTime

1. 创建 SimpleDateFormat 对象,可以指定相应的格式2. 这里的格式使用的字母是规定好,不能乱写1. 可以把一个格式化的String 转成对应的 Date2. 得到Date 仍然在输出时,还是按照国外的形式,如果希望指定格式输出,需要转换3. 在把String-> Date , 使用的 sdf 格式需要和你给的String的格式一样,否则会抛出转换异常。

2024-08-27 14:33:26 882

原创 在线 LaTeX 表格编辑器

现成的工具可以可视化生成 LaTeX 表格代码。

2024-08-01 16:47:12 683

原创 BP神经网络

BP (Back Propagation) 神经网络是1986年由 Rumelhart 和 McClelland 为首的科学家提出的概念,是一种按照误差逆向传播算法训练的多层前馈神经网络,是应用最广泛的神经网络。,从输出层到隐含层,最后到输入层,依次调节隐含层到输出层的权重和偏置,输入层到隐含层的权重和偏置。,旨在最小化损失函数,从而对输入数据进行精确的分类或回归预测。输入层到隐藏层的权重,w隐藏层到输出层的权重。神经网络是一种多层前馈神经网络,它通过。,从输入层经过隐含层,最后到达输出层;

2024-06-25 20:28:41 482

原创 双向长短期记忆神经网络BiLSTM

网络,一个按照正向顺序处理输入序列,另一个按照反向顺序处理输入序列。遗忘门(forgetgate):决定上一个时间步的细胞状态对当前时间步的影响程度。输入门(input gate):决定当前时间步的输入信息对细胞状态的影响程度。隐藏状态(hiddenstate):当前时间步的输出,也是下一个时间步的输入。输出门(output gate):决定细胞状态对当前时间步的输出影响程度。输入门用来控制当前输入数据对记忆单元状态值的影响。LSTM 是一种特殊的 RNN,它通过引入。输出门用来控制记忆单元状态值的输出。

2024-06-25 20:10:25 1016

原创 什么是云计算

将巨大的数据计算处理程序分解成无数个小程序,然后,通过多部服务器组成的系统进行处理和分析这些小程序得到结果并返回给用户。高性能并行计算。

2024-06-25 16:08:05 879

原创 计算机怎么进入安全模式

最近老是蓝屏------显示是REGISTRY_ERROR(注册表错误)----重启之后,根据界面提示,选择F1-F12中的一个建,我重启之后,按F8进不了安全模式。通过另一种方式进入,重启之后选择进入安全模式。

2024-06-25 10:49:49 257

原创 神经网络——数据预处理

方差缩放方法能够根据神经元的链接数量来自适应地调整初始化分布地方差,尽可能的保证每个神经元的输入和输出方差一致。

2024-06-24 15:25:33 573

原创 神经网络参数-----batch_size

在神经网络的训练过程中,一个非常直观的需要调整的超参数就是batch size。我们需要决定在一次训练中,要选取多少样本喂给神经网络,这个要选择的样本个数,就是batch size。batch size的。

2024-06-24 15:01:40 2847

原创 神经网络参数-----学习率(Learning Rate)

学习率是训练神经网络的重要超参数之一,它代表在每一次迭代中梯度向损失函数最优解移动的步长。在网络训练过程中,模型通过样本数据给出预测值,计算代价函数并通过反向传播来调整参数。可知道除了梯度本身,这两个因子直接决定了模型的权重更新,从优化本身来看它们是影响模型性能收敛最重要的参数。学习率直接影响模型的收敛状态,batchsize则影响模型的泛化性能,两者又是分子分母的直接关系,相互也可影响,因此这一次来详述它们对模型性能的影响。在训练过程中,一般根据训练轮数设置动态变化的学习率。根据上述公式我们可以看到。

2024-06-24 11:38:01 1914

原创 电脑开机后出现Aptio Setup Utility 处理方法

电脑开机后出现Aptio Setup Utility怎么处理

2024-06-21 12:25:21 5650

原创 基本循环神经网络(RNN)

在前馈神经网络中,信息的传递是单向的,这种限制虽然使得网络变得更容易学习,但在一定程度上也减弱了神经网络模型的能力。在生物神经网络中,神经元之间的连接关系要复杂的多。前馈神经网络可以看着是一个复杂的函数,每次输入都是独立的,。。比如一个有限状态自动机,其下一个时刻的状态(输出)不仅仅和当前输入相关,也和当前状态(上一个时刻的输出)相关。此外,前馈网络难以处理时序数据,比如视频、语音、文本等。。因此,当处理这一类和时序相关的问题时,就需要一种能力更强的模型。是一类具有短期记忆能力的神经网络。

2024-06-19 15:53:05 1214

原创 pytorch安装----CPU版本

激活环境开始下载pytorch。

2024-06-17 17:26:38 420

原创 神经网络 torch----使用GPU(cuda)

在训练过程中,要想利用我们的GPU,有两个基本要求。这些要求如下:默认情况下,在创建 PyTorch 张量或 PyTorch 神经网络模块时,会在 CPU 上初始化相应的数据。具体来说,这些数据存在于 CPU 的内存中。

2024-06-17 14:17:20 959

原创 scikit-learn安装

Sklearn安装要求Python(>=2.7 or >=3.3)、NumPy (>= 1.8.2)、SciPy (>= 0.13.3)。如果已经安装NumPy和SciPy,安装scikit-learn可以使用pip install -U scikit-learn。安装顺序:numpy/ scipy / matplotlib / scikit-learn。-U就是 --upgrade,意思是如果已安装就升级到最新版。

2024-06-17 13:41:07 334

原创 数据预处理——调整方差、标准化、归一化(Matlab、python)

(a)、将输入信号的方差调整在0.02;(b)、将数据标准化为具有零均值和单位方差;(c)、将输入数据进行归一化处理(最值归一化。

2024-06-13 17:13:11 640

原创 神经网络 torch.nn---nn.LSTM()

c_0 是shape=(num_layers*num_directions,batch_size,hidden_size)的张量, 保存着batch中每个元素的初始化细胞状态的Tensor。:长短时记忆网络层,它的主要作用是对输入序列进行处理,对序列中的每个元素进行编码并保存它们的状态,以便后续的处理。i_t, f_t, g_t, o_t分别代表 输入门,遗忘门,细胞和输出门。x_t是上一层的在时刻t的隐状态或者是第一层在时刻t的输入。:当前时间步的输出,也是下一个时间步的输入。c_t是时刻t的细胞状态,

2024-06-13 12:20:46 1975

原创 神经网络 torch.nn---nn.RNN()

的shape应该是[batch_size, time_step, feature],输出也是这样。默认是 False,就是这样形式,(seq(num_step), batch, input_dim),也就是将序列长度放在第一位,batch 放在第二位。x_t是上一层时刻t的隐状态,或者是第一层在时刻t的输入。weight_ih_l[k] – 第。weight_hh_l[k] – 第。bias_ih_l[k] – 第。bias_hh_l[k] – 第。偏置, 可学习,形状是。h_t是时刻t的隐状态。

2024-06-13 11:49:10 929

原创 MATLAB神经网络---trainingOptions

对梯度的一阶矩估计(First Moment Estimation,即梯度的均值)和二阶矩估计(Second Moment Estimation,即梯度的未中心化的方差)进行综合考虑,计算出更新步长。优化器结合了Adagrad善于处理稀疏梯度和RMSprop善于处理非平稳目标的优点,能够自动调整学习速率,收敛速度更快,在复杂网络中表现更优。8、'Verbose':如果将其设置为true,则有关训练进度的信息将被打印到命令窗口中。'none'不画出训练曲线。、更新的步长能够被限制在大致的范围内(初始学习率)

2024-06-13 10:17:20 704

原创 MATLAB神经网络---lstmLayer(LSTM 长短期记忆神经网络)

描述LSTM就要先描述一下循环神经网络循环神经网络循环神经网络通过使用带自反馈的神经元,使得网络的输出不仅和当前的输入有关,还和上一时刻的输出相关,于是在处理任意长度的时序数据时,就具有短期记忆能力。如下是一个按时间展开的循环神经网络图:梯度消失和梯度爆炸是困扰RNN模型训练的关键原因之一,产生梯度消失和梯度爆炸是由于RNN的权值矩阵循环相乘导致的,相同函数的多次组合会导致极端的非线性行为。梯度消失和梯度爆炸主要存在RNN中,因为RNN中每个时间片使用相同的权值矩阵。

2024-06-13 10:16:43 1979

原创 torch.squeeze() dim=1 dim=-1 dim=2

对数据的维度进行压缩将输入张量形状中的1 去除并返回。如果输入是形如(A×1×B×1×C×1×D),那么输出形状就为: (A×B×C×D)当给定dim时,那么挤压操作只在给定维度上。例如,输入形状为: (A×1×B), squeeze(input, 0) 将会保持张量不变,只有用 squeeze(input, 1),形状会变成 (A×B)。

2024-06-12 21:26:03 670 1

原创 MATLAB神经网络---序列输入层sequenceInputLayer

sequenceinputlayer是Matlab深度学习工具箱中的一个层,用于处理序列数据输入。它可以将输入数据转换为序列格式,并将其传递给下一层进行处理。该层通常用于处理文本、语音、时间序列等类型的数据。在使用该层时,可以设置输入序列的长度、特征维度等参数,以适应不同的数据类型和任务需求。

2024-06-12 11:33:37 1230

原创 MATLAB神经网络---regressionLayer回归输出层

回归层计算回归任务的半均方误差损失。Matlab中的regressionLayer函数是一个深度学习工具箱中的函数,用于定义回归问题的损失函数层。它可用于神经网络模型的最后一层,将预测值与目标值进行比较,并计算出损失值。

2024-06-12 11:22:03 1414

原创 MATLAB神经网络---全连接层fullyConnectedLayer

的每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来。由于其全相连的特性,一般全连接层的参数也是最多的。在卷积神经网络的最后,往往会出现一两层全连接层,全连接一般会把卷积输出的二维特征图转化成一维的一个向量。,是深度学习神经网络中的一种基本层类型。全连接层的每个神经元都与前一层的所有神经元相连接,每个连接都有一个权重用于调节信息传递的强度,并且每个神经元还有一个偏置项。

2024-06-12 11:14:05 892

原创 MATLAB神经网络---激活层

修正线性单元 (ReLU) 层ReLU 层对输入的每个元素执行阈值运算,其中任何小于零的值都设置为零。此运算等效于。

2024-06-12 11:02:34 546

原创 神经网络搭建(2)

注意测试时用的模型是CPU还是GPU,前后保持一致。

2024-06-06 22:01:08 300

原创 神经网络搭建(1)----nn.Sequential

因此,之后通过第一个线性层,(in_features=64 * 4 * 4, out_features=64)之后使用Flatten。函数将图像展成一列,此时图像尺寸变为:1×(64×4×4),即1×1024。→ 变成32通道,16×16的图像 ( 经过一个5×5的卷积)→ 变成32通道,32×32的图像 (经过2×2的最大池化)→ 变成32通道,16×16的图像 (经过2×2的最大池化)→ 变成32通道,8×8的图像 ( 经过一个5×5的卷积)→ 变成64通道,8×8的图像(经过2×2的最大池化)

2024-06-06 21:48:00 654

原创 神经网络---网络模型的保存、加载

正确的调用格式需要复制原模型的类定义。在另一个文件加载该模型,会报错。模型加载(在另一个文件加载)

2024-06-06 21:14:17 521

原创 神经网络----现有网络的下载和使用(vgg16)

以下两种方法已经用不了。

2024-06-06 21:01:50 580

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除