自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(119)
  • 资源 (3)
  • 收藏
  • 关注

原创 怎么查询鸿蒙真机支持的API版本

6、输入 getprop hw_sc.build.os.releasetype 查看手机版本类型。5、输入 getprop hw_sc.build.os.apiversion 查看API版本。3、进入hdc.exe所在目录。(鸿蒙OS IDE的SDK下载目录中)1、打开设备的开发者模式与USB调试并通过USB连接上电脑。4、输入hdc shell,进入特殊模式。2、管理员身份运行cmd。7、输入 exit 退出。

2024-01-30 10:42:10 1924

转载 Your build is currently configured to use Java 17.0.6 and Gradle 5.6.4.

http://t.csdnimg.cn/trVdH

2023-12-15 14:32:34 178

原创 warning: in the working copy of ‘XXX‘,LF will be replaced by CRLF the next time Git touches it

2023-11-14 20:18:41 231

原创 kaggle中报错NameError: name ‘q_1‘ is not defined

在开始练习之前,先点击“全部运行”按钮。

2023-11-08 17:42:16 228

原创 Pytorch R-CNN目标检测-汽车car

custom_finetune_dataset.py,该脚本不用主动执行,在训练微调模型的时候,自然会调用到,以下只说这个脚本做了什么事①CustomFinetuneDataset类继承自Dataset。

2023-11-08 15:47:46 3914 1

转载 Android Studio下载gradle速度慢—解决方法

打开Android Studio -> File -> setting。最后,重启Android Studio即可。配置对所有项目起效的项目环境。其次,到文件夹中打开。

2023-11-07 16:41:10 1522 1

原创 简述SVM

SVM,即支持向量机(Support Vector Machine),是一种常见的监督学习算法,用于分类和回归问题。它是一种基于统计学习理论和结构风险最小化原则的机器学习方法。SVM的主要思想是在特征空间中找到一个最优的超平面,将不同类别的样本点分隔开来。这个超平面可以被视为一个决策边界,用于对新的样本进行分类。SVM的目标是找到具有最大间隔(下图中margin的一半)的超平面,以实现更好的泛化性能。

2023-11-07 16:08:18 3633 1

原创 unityhub获取免费的个人版许可证无响应

删除 Windows 目录下 C:ProgramData/Unity/Unity_lic.ulf 文件,重新申请 即可。该文件属于 Unity 许可证文件。多数情况下,删除该许可证即可解决问题。

2023-11-07 10:16:09 2296 2

原创 残差网络ResNet

传统的网络结构,输出H(x) = F(x),而残差网络引入短路连接或称为跳跃连接,使得输出H(x) = F(x) + x在深度神经网络中,随着训练过程中反向传播权重参数的更新,网络中某些卷积层已经达到最优解了,此时这些层的输入和输出差别不大,已经没有训练的必要了,所以我们可以设F(x) = 0,这时H(x) = x就是最优输出。在传统的网络结构中,即便网络训练已经达到最优解了,但是随着网络继续训练、权重参数的更新,有可能将已经达到最优解的权重参数继续更新为误差更多的值。

2023-11-02 19:10:40 143

原创 梯度下降算法更新公式推导

如果用一阶泰勒展开式,得到的函数近似表达式是:f(θ) = f(θ0) + (θ - θ0)*f '(θ0)。我们知道梯度下降每走一步都是朝着最快下山的方向(因为希望尽快收敛得到最佳值),因此应该最小化f(θ) - f(θ0) = (θ - θ0)*f '(θ0)。当v和f '(θ0)反方向时,我们可以用f '(θ0)向量来表示v,即v = -η*f '(θ0) (其中η表示长度大小)这样就得到了更新公式 θ = θ0 - η*f '(θ0) (其中η是学习率,f '(θ0)是函数在θ0处的梯度)

2023-11-02 16:02:52 437

原创 梯度消失和梯度爆炸的原因

即已知函数y = f(u),当u表示为u = g(x)时,y作为x的函数就可以表示为y = f(g(x))这样的嵌套结构,这种嵌套结构的函数,就称为f(u),g(x)的复合函数。已知函数y = f(u),函数u = g(x),复合函数y = f(g(x))的导函数可以表示为y' = dy/dx = (dy/du)*(du/dx)为了求得w的最优值,使得loss最小,从上图很容易看出来当w = -1时,loss最小,也就是当loss函数的导数为0时。如果激活函数S为Sigmoid,则S'的函数曲线如下。

2023-11-02 15:04:45 120

原创 Pytorch 文本情感分类案例

①generateDictionary.py用于生成词典。②datasets.py定义了数据集加载的方法。③models.py定义了网络模型。④configs.py配置一些参数。⑤run_train.py训练模型。⑥run_test.py测试模型。generateDictionary.py如下。run_train.py如下。datasets.py如下。run_test.py如下。configs.py如下。models.py如下。

2023-10-31 09:51:37 299

原创 Pytorch 猫狗识别案例

【代码】Pytorch 猫狗识别案例。

2023-10-30 11:58:32 687

原创 Pytorch L1,L2正则化

偏置的作用:偏置(bias)是模型中的一个常数项,它的作用是调整模型预测值与实际值之间的偏差。权值在模型中起到了控制特征的重要作用,对权值进行正则化可以有效地减少模型的复杂度,提高泛化能力。数据中的偏移:在实际的数据中,通常会存在一些偏移(bias),即使我们对权值不进行正则化,模型也可以通过调整偏置来适应这种偏移。因此,对偏置进行正则化可能会导致对数据中的偏移进行过度拟合,而忽略了模型对其他特征的学习能力。L1正则化和L2正则化是常用的正则化技术,用于在机器学习模型中控制过拟合。

2023-10-30 11:47:10 798

原创 运行报错one of the variables needed for gradient computation has been modified by an inplace operation

这个错误通常是由于在计算梯度时,某些变量被原地(inplace)操作修改导致的。原地操作是指直接在原始张量上进行修改,而不创建新的张量。这样PyTorch 将会输出更详细的错误信息,帮助你找到具体的原地操作导致错误的位置。2.检查你的代码,确保没有在计算梯度的过程中对张量进行原地操作。等函数或者形如x += 1,它们会直接修改原始张量的值。你可以尝试使用相应的非原地操作,如。等,并将结果赋值给一个新的变量;又或者使用detach()方法。可以看到报错位置是这段代码。

2023-10-28 15:43:36 657

原创 Pytorch detach()方法

是 PyTorch 中的一个方法,用于从计算图中分离(detach)张量。它可以将一个张量从当前计算图中分离出来,返回一个新的张量,该张量与原始张量共享相同的底层数据,但不再追踪梯度信息。方法会创建一个新的张量,该张量与原始张量共享相同的底层数据,但不再追踪梯度信息。避免梯度传播:通过分离张量,你可以阻止梯度从分离的张量向后传播。这在需要使用张量的值,但不需要进行梯度计算的情况下很有用。当你需要在计算图中保留一部分张量的梯度信息,而将另一部分张量从计算图中分离出来,以便进行后续操作时,可以使用。

2023-10-28 15:42:43 1644

原创 Pytorch入门实例

数据集是受教育年限和收入,如下图。

2023-10-27 09:34:37 88

原创 Pytorch入门实例的分解写法

数据集是受教育年限和收入,如下图。

2023-10-26 19:08:31 142

原创 Pytorch指定数据加载器使用子进程

的值从 4 增加到 8 时,如果你的计算机硬件配置和数据集大小等因素没有发生变化,那么两者之间的性能差异可能会很小,或者甚至没有显著差异。的数量可以提高数据加载的效率,因为它可以使数据加载和预处理工作在多个进程中同时进行。的数量超过一定阈值时,增加更多的进程可能不会再带来更多的性能提升,甚至可能会导致性能下降。的数量过多时,进程间通信的开销可能会超过并行化所带来的收益,从而导致性能下降。类的一个参数,它指定了数据加载器使用的子进程数量。的数量,可以并行地读取和预处理数据,从而提高数据加载的速度。

2023-10-25 17:35:38 501 1

原创 Pytorch使用torch.utils.data.random_split拆分数据集,拆分后的数据集状况

可以看到总共25000张图片的数据集,分割后并不是cats_num:10000,dogs_num:10000,cats_num2:2500,dogs_num2:2500。对于这个API,我最开始的预想是从 '猫1猫2猫3猫4狗1狗2狗3狗4' 中分割出 '猫1猫2狗4狗1' 和 '猫4猫3狗2狗3' ,但是打印结果和我预想的不一样。也就是说,分割后的状况是猫狗的数量并不一定相等,如结果为 '猫1猫2猫4狗1' 和 '狗4猫3狗2狗3'数据集文件的存放路径如下图。

2023-10-25 15:22:01 1091

原创 Pytorch使用torchvision.datasets.ImageFolder读取数据集,数据集的内容排列状况

当使用torchvision.datasets.ImageFolder读取猫狗数据集时,dataset中存的图片是 '猫狗猫狗猫狗猫狗' 还是 '猫猫猫猫狗狗狗狗' 呢?可以得知,是 '猫猫猫猫狗狗狗狗'数据集文件的存放路径如下图。

2023-10-25 15:04:14 680

原创 Pytorch训练<识别手写数字>

【代码】Pytorch训练<识别手写数字>

2023-10-25 13:42:06 356

原创 Pytorch显示图片

【代码】Pytorch显示图片。

2023-10-24 20:43:35 485

原创 TensorFlow2从磁盘读取图片数据集的示例(tf.data.Dataset.list_files)

【代码】TensorFlow2从磁盘读取图片数据集的示例(tf.data.Dataset.list_files)

2023-10-23 15:03:46 685

原创 TensorFlow2从磁盘读取图片数据集的示例(tf.keras.utils.image_dataset_from_directory)

【代码】TensorFlow2从磁盘读取图片数据集的示例(tf.keras.utils.image_dataset_from_directory)

2023-10-23 13:48:22 504

原创 TensorFlow2代码解读(7)

【代码】TensorFlow2代码解读(7)

2023-10-17 20:49:56 67

原创 TensorFlow2代码解读(6)

【代码】TensorFlow2代码解读(6)

2023-10-17 09:30:55 53

原创 TensorFlow2代码解读(5)

【代码】TensorFlow2代码解读(5)

2023-10-16 13:51:23 54

原创 TensorFlow2代码解读(4)

【代码】TensorFlow2代码解读(4)

2023-10-16 12:29:05 73

原创 TensorFlow2代码解读(3)

【代码】TensorFlow2代码解读(3)

2023-10-16 11:20:35 56

原创 TensorFlow2代码解读(2)

【代码】TensorFlow2代码解读(2)

2023-10-13 11:22:07 52

原创 TensorFlow2代码解读(1)

【代码】TensorFlow2代码解读(1)

2023-10-12 19:14:30 73

原创 TensorFlow入门(二十五、单个神经元的扩展——Maxout网络)

Maxout是Goodfellow在2013年提出的一个新的激活函数,与其它的激活函数相比,Maxout是需要参数的,且参数可以通过网络的反向传播得到学习,因此它比其它激活函数有着更好的性能,理论上可以拟合任意凸函数,进而使得网络取得更好的性能。而Maxout网络是将激活函数变成一个网络选择器,原理是将多个神经元并列地放在一起,从它们的输出结果中找到最大的那个,代表对特征响应最敏感,然后取这个神经元的结果参与后面的运算。axis为计算方向,axis = 0时按列求最大值,axis = 1时按行求最大值。

2023-10-12 15:35:42 811

原创 TensorFlow入门(二十四、初始化学习参数)

如果mode = "fan_in",n为输入单元的节点数,如果mode = "fan_out",n为输出单元的节点数,如果mode = "fan_avg",n为输入和输出单元节点数的平均值。stddev为正态分布的标准差,默认值为1;①tf.random_uniform_initializer(minval.maxval,seed,dtype):可简写为tf.RandomUniform(...),该方法生成一组符合均匀分布的tensor对象,参数minval为指定的最小值,maxval为指定的最大值。

2023-10-12 13:50:51 892

原创 TensorFlow入门(二十三、退化学习率)

values为学习率列表,存放在不同区间该使用的学习率的值。多项式衰减方法的原理为 : 定义一个初始的学习率和一个最低的学习率,然后按照设置的衰减规则,学习率从初始学习率逐渐降低到最低的学习率,并且可以定义学习率降低到最低的值之后,是一直保持使用这个最低的学习率,还是再升高到一定的值,然后再降低到最低的学习率,循环反复这个过程。参数global_step为用于衰减计算的全局步数,decay_steps为衰减步数,decay_rate为衰减率,staircase用于定义是应用离散阶梯型衰减,还是连续衰减。

2023-10-12 12:43:43 1240

原创 TensorFlow入门(二十二、梯度下降)

其主要思想是,如果一个可学习的参数已经梯度下降了很多,则减缓其下降的速度,反之如果一个参数和初始化相比没有下降很多,则保证它有一个比较大的下降速度。该方法是为了克服上面两种方法的缺点,采取的一种折中方法。其中,RMSProp是Adagrad算法的一个扩展,它处理的是急剧下降的学习率。以上训练过程中,每次的正向传播后都会得到输出值与真实值的损失值,也就是cost,这个损失值越小,代表模型越好,而梯度下降的算法就用在这里,帮助寻找最小的那个损失值,从而反推出对应的学习参数b和w,从而达到优化模型的效果。

2023-10-12 10:33:26 784

原创 TensorFlow入门(二十一、softmax算法与损失函数)

由于交叉熵的损失函数只和分类正确的预测结果有关系,因此交叉熵的计算适用于分类问题上,不适用于回归问题。而均方差(MES)的损失函数由于对每一个输出结果都非常重视,不仅让正确的预测结果变大,还让错误的分类变得平均,更适用于回归问题,不适用于分类问题。使用softmax交叉熵函数计算损失值时,如果传入的实参logits是神经网络前向传播完成后的计算结果,则不需要对logits应用softmax算法,因为softmax交叉熵函数会自带计算softmax。

2023-10-11 21:10:50 1454

原创 TensorFlow入门(二十、损失函数)

Sigmoid交叉熵,即tf.nn.sigmoid_cross_entropy_with_logits(_sentinel = None,labels = None,logits = None,name = None),该函数对logits计算sigmoid的交叉熵。softmax交叉熵,即tf.nn.softmax_cross_entropy_with_logits(logits,labels,name = None),该函数的参数logits和labels,与Sigmoid交叉熵函数的一样。

2023-10-11 18:37:46 1315

原创 TensorFlow入门(十九、softmax算法处理分类问题)

对于属于y1类的概率,可以转化成输入x1满足某个条件的概率,与x2满足某个条件的概率的乘积,即y1 = (x1*w11)*(x2*w12)。在网络模型里把等式两边都取ln,ln后的属于y1类的概率就可以转化成,ln后的x1满足某个条件的概率加上ln后的x2满足某个条件的概率,即y1 = x1*w11+x2*w12等于ln后y1的概率。如果判断输入属于某一个类的概率大于属于其他类的概率,那么这个类对应的值就逼近于1,其他类的值就逼近于0。如图所示,输入的是x1和x2,识别输出的为y1、y2和y3三个类。

2023-10-11 14:26:26 1168

原创 TensorFlow入门(十八、激活函数)

这会导致后一层的神经元将得到上一层输出的非0均值的信号作为输入,会产生一个结果,即当x>0,f=(w^T)x+b时,对w求局部梯度则都为正,这样在反向传播的过程中w要么都往正方向更新,要么都往负方向更新,从而产生捆绑的现象,使得收敛速度比较缓慢。注意 : relu6存在的原因是防止梯度爆炸,当节点和层数特别多而且输出都为正时,它们相加后的和会是一个很大的值,尤其在经历几层变换之后,最终的值可能会离目标值相差太远,误差太大,会导致对参数调整修正值过大,从而引起网络抖动得较厉害,最终很难收敛。

2023-10-11 12:53:51 781

git可视化工具.rar

git可视化工具.rar

2024-03-05

UniWebView4.2.0.zip

UniWebView4.2.0.zip

2023-12-06

7000汉字 符号 英文字符集.txt

7000汉字 符号 英文字符集.txt

2023-12-01

spaceship-titanic

spaceship-titanic

2023-11-13

Pytorch-R-CNN.zip

Pytorch-R-CNN.zip

2023-11-08

hit-stopwords.zip

停用词表

2023-10-31

weibo-senti-100k

文本情感分类数据集

2023-10-31

猫狗识别数据集.zip

猫狗识别数据集 训练集有12500张猫图片和12500张狗图片 测试集猫狗一共12500张图片

2023-10-30

MNIST数据集.zip

train-images-idx3-ubyte t10k-images-idx3-ubyte t10k-labels-idx1-ubyte train-labels-idx1-ubyte

2023-10-10

UnityBehaviorDesigner.zip

UnityBehaviorDesigner.zip

2023-05-05

SDK接入或升级遇到的坑

SDK接入或升级遇到的坑

2023-03-02

Sirenix.rar

Sirenix.rar

2022-08-05

AssetStudio.net6.v0.16.47.zip

可以查看AssetBundle资源的软件

2022-07-07

4000常用简体汉字+常用字符

部分内容: 啊阿埃挨哎唉哀皑癌蔼矮艾碍爱隘鞍氨安俺按暗岸胺案肮昂盎凹敖熬翱袄傲奥懊澳芭捌扒叭吧笆八疤巴拔跋靶把耙坝霸罢爸白柏百摆佰败拜稗斑班搬扳般颁板版扮拌伴瓣半办绊邦帮梆榜膀绑棒磅蚌镑傍谤苞胞包褒剥薄雹保堡饱宝抱报暴豹鲍爆杯碑悲卑北辈背贝钡倍狈备惫焙被奔苯本笨崩绷甭泵蹦迸逼鼻比鄙笔彼碧蓖蔽毕毙毖币庇痹闭敝弊必辟壁臂避陛鞭边编贬扁便变卞辨辩辫遍标彪膘表鳖憋别瘪彬斌濒滨宾摈兵冰柄丙秉饼炳病并玻菠播拨钵波博勃搏铂箔伯帛舶脖膊渤泊驳捕卜哺补埠不布步簿部擦猜裁材才财睬踩采彩菜蔡餐参蚕残惭惨灿苍舱仓沧藏操糙槽曹草厕策侧册测层蹭插叉茬茶查碴搽察岔差诧拆柴豺搀掺蝉馋谗缠铲产阐颤昌猖场尝常长偿肠厂敞畅唱倡超抄钞朝嘲潮巢吵炒车扯撤掣彻澈郴臣辰尘晨忱沉陈趁衬撑称城橙成呈乘程惩澄诚承逞骋秤吃痴持匙qwertyuiopasdfghjklzxcvbnmQWERTYUIOPASDFGHJKLZXCVBNM1234567890/*-+.`~!@#$%^&*()_=,<>/?;:'"[]{}\|

2022-06-19

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除