- 博客(28)
- 收藏
- 关注
原创 数据库:学生管理系统
参数:管理员和学生共同可见页面方法返回得到的user(username,password)1:定义四个私有的静态全局变量:driver,URL,username,password。目标:根据用户名和密码得到该账户的type,从而进入不同的功能菜单页面(管理员和学生)参数:修改学生菜单页面返回的user(username,password)参数是管理员可见的添加学生信息功能菜单页面返回的用户名和密码。参数:查询学生信息功能菜单的返回值学生账户的用户名。参数:删除学生信息页面返回得到的学生账户的用户名。
2024-03-25 22:12:36 316
原创 基于resnet的花卉识别神经网络
定义超参数#model就是使用的神经网络,criterion就是损失函数,optimizer就是优化器,is_inception就是要不要去使用其他的神经网络best_acc=0#最好的准确率,在25次epoch中寻找准确率最高的val_acc_history=[]#测试集的准确率train_acc_history=[]#训练集的准确率train_losses=[]#测试集的损失valid_losses=[]#测试集的损失。
2024-03-09 22:16:27 635 1
原创 神经网络的构建
人为添加3~5个负采样方案(negative samples),target=0。3.数据训练:通过指定的滑动窗口,持续地改变输入input和输出output。1.词向量:一般维度在50~300维之间,维度越高,数据的精确度就越高。二级分类:输入值是两个单词,输出值是两个单词是否具有相邻关系的概率。2.skip-gram模型可以输入值,得到相应的相应的上下文。target=1表示是正采样数据,两个词之间具有相邻关系。CBOW模型可以输入上下文,得到中间的预测值。将神经网络想象成一个黑匣子。
2024-03-08 22:21:08 264
原创 PyTorch: 交叉熵
当P=Q时,H(p,Q)=H(P)=-P(i)*log2[P(i)].sum()=Q时,H(P,Q)=-P(i)*log2[Q(i)].sum()#uncertainty越高,信息越多;entropy越高,信息越少。#分类问题使用交叉熵:cross entropy,而不使用mse。#Entropy=-P(i)*log2[P(i)]的求和。3. 交叉熵Cross Entropy。#二值分类:cat和dog。2. 熵Entropy。
2024-03-07 21:38:49 276
原创 PyTorch: 感知机的梯度推导和链式法则
sigmoid函数,函数值在0~1之间,函数的导数=函数值(1-函数值)梯度的推导:O*(O-t)*(1-O)*xj0。:输入的值和权重,w*x进行求和,得到X01。:E=1/2(激活函数的结果-t)**2求和。2. 单层多个感知机。
2024-03-05 20:55:25 261
原创 PyTorch: 激活函数的梯度:sigmoid tanh relu
①Tanh函数的表达式:f(x)=(e^x-e^-x)/(e^x+e^-x)=2sigmoid(2x)-1。②对输入的数据进行加权求和,然后再通过阈值响应机制,满足一定的条件,输出特定的值。②梯度信息是1,而且保持梯度不变,避免了梯度弥散和梯度爆炸的情况。①函数是单调递增的,并且值控制在0~1之间。②函数的导数=f(x)*[1-f(x)]②函数值在-1~1之间,函数是单调递增的。2、sigmoid函数。
2024-03-04 20:26:16 149
原创 PyTorch: 属性统计
norm(2):就是元素的平方和再开方。norm(1):就是元素的绝对值之和。min,max表示最小值,最大值。argmax表示最大值对应的索引。argmin表示最小值对应的索引。
2024-03-03 17:27:04 131 1
原创 PyTorch:合并与分割
2. stack:size必须完全一样。1. cat:size可以有不一样的。3. split:按照长度分割。4. chunk:按照数目分割。
2024-03-02 21:09:15 204
原创 Deep Learning:PyTorch--Broadcasting
【代码】Deep Learning:PyTorch--Broadcasting。
2024-03-02 20:27:11 94
原创 PyTorch:Tensor的维度变换
4.expand : 拷贝的结果,只有size=1才能扩展,-1表示保持不变。6. .t() dimension=2的矩阵的转置。3.squeeze :size=1时维度删减。2.unsqueeze : 增加一个维度。5.repeat:拷贝的次数。
2024-03-02 19:08:50 250
原创 深度学习:PyTorch创建Tensor
6.torch.ones()和torch.zeros()1.使用numpy创建tensor。2.使用torch创建tensor。3.设置tensor默认的数据类型。3.将所有元素赋值成同一个值。
2024-02-29 20:43:09 193
原创 CNN卷积神经网络
图像当中边界的像素点被利用的次数少,图像中间的像素点被利用的次数多,因此进行边缘填充弥补边缘特征不被充分利用的问题。#eg:32*32*3的图像,用10个5*5*3的卷积核进行卷积操作,所需要的权重参数有多少?#输出长度=(输入长度-卷积核的长度+2*填充的圈数)/滑动窗口步长+1。#输出宽度=(输入宽度-卷积核的宽度+2*填充的圈数)/滑动窗口步长+1。#权重参数矩阵:找到最好的权重参数矩阵中的数据,可以提取出图像的特征。#卷积核尺寸:卷积核越小,提取到的特征比较细腻,卷积核一般是3*3。
2024-02-26 21:27:18 369 1
原创 图像的读入、显示和保存
显示控制参数有cv2.IMREAD_UNCHANGED:不改变原来图像的形式。# delay<0表示是等待键盘单击,一旦键盘单击窗口就消失了。#图像的读取操作:cv.imread(文件名,显示控制参数)#显示图像的操作:cv2.imshow(窗口名,图像名)# cv2.IMREAD_GRAYSCALE:灰度图像。#保存文件:cv2.imwrite(文件名,图像名)# cv2.IMREAD_COLOR:彩色图像。# delay>0表示等待delay毫秒。# delay=0表示无限等待。
2024-02-01 12:42:26 99
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人