人工智能
文章平均质量分 73
ywfwyht
这个作者很懒,什么都没留下…
展开
-
Error: loaded state dict contains a parameter group that doesn’t match the size of optimizer’s group
在这个示例中,我们检查了 optimizer 的 state_dict 和 checkpoint 的 state_dict 尺寸是否匹配。如果它们匹配,我们就可以使用。来加载 optimizer 的 state_dict。否则,我们打印一个错误信息来指示尺寸不匹配。您需要根据您的实际场景来修改示例代码。这个错误通常是由于加载的模型权重和当前模型的结构不一致导致的。通过手动去除偏差参数后,我们可以成功地进行优化。通过对比可以发现,模型的权重中没有。,而优化器中的参数组却包含了。原创 2023-11-24 16:09:57 · 2443 阅读 · 0 评论 -
OpenCV将两张图片拼接成一张图片
【代码】OpenCV将两张图片拼接成一张图片。原创 2023-11-22 16:16:06 · 5154 阅读 · 1 评论 -
pytorch中常见loss函数归纳(二分类、多分类、检测、分割、回归)
PyTorch中的loss函数源码通常可以在torch.nn.functional模块中找到。这些函数接受模型的输出和真实标签作为输入,并计算出模型预测的误差,从而帮助优化器调整模型参数。二分类任务只有两个类别,如判断一张图片是猫还是狗。常用的损失函数有:(1)BCELoss(Binary Cross Entropy Loss):二分类交叉熵损失函数,适合输出为概率值的情况。原创 2023-11-15 17:27:15 · 4309 阅读 · 0 评论 -
OHEM在线难例挖掘原理及在代码中应用
在传统的训练过程中,模型会在训练集中遇到大量易于分类的样本,而只有少量的难以分类的样本。在以上代码中,我们首先定义了一个交叉熵损失函数,然后在每个batch的训练过程中,按照损失值从大到小排序,并选择损失值排名前50%的样本作为难例样本。具体来说,OHEM在每个batch的训练中选择一定数量(通常为batch size的1/2)的难例样本,这些难例样本的损失函数被优先考虑。因此,模型会更加关注难以分类的样本,在训练过程中逐渐学会处理难例样本的能力,提高模型的泛化性能。在代码中,我们首先定义了模型,并使用。原创 2023-11-08 16:26:44 · 495 阅读 · 0 评论 -
基于关键点的车道线检测
以下是提供的几种基于关键点的车道线检测方案思路,并不代表具体的任务方案。原创 2023-11-01 14:39:03 · 1558 阅读 · 11 评论 -
分类任务中softmax+argmax和直接argmax得到的结果有什么异同?
从输出结果可以看出,softmax+argmax和argmax的结果是一样的,但是softmax+argmax得到的结果是归一化后的概率值。因为矩阵中的每个值都大于0,因此softmax不会改变矩阵中元素的相对大小。在实际应用中,softmax可能会对结果产生影响并产生不同的输出。原创 2023-08-31 10:59:09 · 781 阅读 · 0 评论 -
ONNX模型及自定义plugin的动态链接库转TensorRT模型推理
ONNX是一种用于表示机器学习模型的格式,而TensorRT是一个高性能的推理引擎,用于在NVIDIA GPU上进行推理。自定义plugin则是指在TensorRT中自定义一些操作(如卷积、ReLU等),以提高模型推理效率。首先,需要定义一个继承自ITensorRT接口的plugin类,实现其对应的虚函数,例如前向计算函数和反向传播函数等。在实现以上步骤时,需要注意TensorRT的版本和系统配置。使用TensorRT的Python API或C++ API,将ONNX模型转换为TensorRT引擎。原创 2023-06-03 16:58:59 · 846 阅读 · 2 评论 -
实现PyTorch/ONNX自定义节点操作的TensorRT部署
这样,我们就获得了带有自定义操作的ONNX模型。原创 2023-05-29 22:27:17 · 1473 阅读 · 1 评论 -
基于C++的UKF代码示例,跟踪三次多项式曲线
这是一个简单的示例代码,可以根据需要进行修改和扩展。原创 2023-05-28 15:21:17 · 1329 阅读 · 0 评论 -
pytorch:余弦退火学习策略和warmup
深度学习中的“warmup”是指在模型训练的初始阶段,逐渐增加学习率的过程。它的作用主要有以下几个方面:加速模型收敛:在训练开始时,学习率通常设置得较小,这样可以保证模型在初始阶段不会过度拟合,同时也减少了训练过程中的震荡。但是,如果学习率过低,模型训练的速度会较慢。通过warmup,可以在训练开始时逐渐增加学习率,加速模型的收敛过程。提高模型的泛化能力:研究表明,在训练的早期阶段,模型更容易被错误的样本所干扰。原创 2023-05-26 19:56:42 · 1627 阅读 · 5 评论 -
准确率、精确率、召回率、F1-score
追求召回率高,则通常会影响精确率。F1值为算数平均数除以几何平均数,且越大越好,将Precision和Recall的上述公式带入会发现,当F1值小时,True Positive相对增加,而false相对减少,即Precision和Recall都相对增加,即F1对Precision和Recall都进行了加权。直白的意思就是模型预测为正例的样本中,其中真正的正例占预测为正例样本的比例,用此标准来评估预测正例的准确度。以实际样本为判断依据,实际为正例的样本中,被预测正确的正例占总实际正例样本的比例。原创 2023-02-22 13:58:52 · 14260 阅读 · 2 评论