![](https://img-blog.csdnimg.cn/direct/97a0b84b7de44c8e8dcaf2c06089b5c6.jpeg?x-oss-process=image/resize,m_fixed,h_224,w_224)
知识杂烩
文章平均质量分 60
涉及到学习过的方方面面吧。
爱写代码的dancer
写博客的初衷:帮助别人+搭建知识框架。
展开
-
【论文投稿】Biomedical Signal Processing and Control投稿过程
正在重新修改实验和论文,准备转投其他期刊。2023.10.27 提交。原创 2023-12-08 14:31:19 · 1147 阅读 · 1 评论 -
【BUG处理】mmtracking报错RuntimeError: CUDA error: device-side assert triggered
【代码】mmtracking报错RuntimeError: CUDA error: device-side assert triggered。原创 2023-12-08 10:27:00 · 352 阅读 · 0 评论 -
【论文笔记】Convolutional Neural Networks for Medical Image Analysis: Full Training or Fine Tuning?
Convolutional Neural Networks for Medical Image Analysis: Full Training or Fine Tuning?作者通过分层微调网络,发现:(1)不同任务需要微调的网络深度不同,任务和原任务越相似微调的深度越浅,反之越深;(2)数据量的大小不同微调网络的深度也不同,数据量越小微调越浅越好,数据量大的话重新训练也无可厚非;(3)息肉检测适合微调所有层。原创 2023-10-29 12:33:56 · 52 阅读 · 0 评论 -
【基础知识】目标检测评估指标大全
准确率(Accuracy)AccuracyTPTNFPFNTPTN精确度(Precision)=阳性预测值(Positive Predictive Value) PPVPrecisionTPFPTP召回率(Recall)= 敏感性(Sensitivity)SensitivityTPFNTP特异性(Specificity)SpecificityTNFPTN漏检率(Miss Rate)Speci。原创 2023-12-22 13:06:10 · 1062 阅读 · 0 评论 -
【基础知识】时序特征融合(注意力机制)
比如:当前帧和参考帧的图像通道数是1024,假设8头的话(N=8),图像就会被拆成8个128通道的特征,并对每个特征分别进行注意力。自注意力机制是注意力机制的一种特殊形式,其中查询、键和值都来自于同一组输入序列。主要关注输入序列中不同元素之间的关系。注意力机制是一种机制,用于在输入序列中对不同位置的信息分配不同的权重。主要关注输入元素与外部/全局元素之间的关系。理解:相当于卷积神经网络中的多个kernel,多个kernel可以学习多种特征表达。这个up主对于注意力公式的讲解非常容易理解和记忆。原创 2023-12-24 23:15:40 · 872 阅读 · 1 评论 -
endnote x9如何批量导入 .enw
EndNote的import file只能一个一个导入,非常麻烦。自带的import folder只能导入pdf,无法导入文献索引。参考:https://blog.csdn.net/veritasalice/article/details/117042043。解决方法:在文件夹里按住Ctrl键,多选需要导入的.enw文件,然后拖动到下图灰色区域内就可以导入啦,需要些时间,耐心等待。原创 2024-02-24 12:08:02 · 1754 阅读 · 0 评论