神经网络
文章平均质量分 70
ma_studd
这个作者很懒,什么都没留下…
展开
-
Python编程总结(二)
1. pytorch中保存好加载网络及参数的代码: a. 保存及加载整个网络的结构及权重信息: torch.save(Target_model, "model_save.pth"); Target_model=torch.load("model_save.pth"); b. 只保存网络的权重参数: torch.save(Target_model.state_dict, "model_save.pth"); Targe...原创 2021-08-10 22:31:10 · 1063 阅读 · 0 评论 -
3D文章修改总结
1. Xiao Min那篇文章的思想:假设有k类,其中的字典为:其中,表示的第i类的训练集合,测试样本为,然后解决下面的l1最小化问题:最小化这个式子得到最小化参数\hat{s}后,然后依次计算下面的残差:然后输出测试样本所属标签:.2. 文章中在介绍自己的网络结构前,先用一个表给出所有字母符号代表的意义。多学学已出版文章中的绘图方式。Wasserstein triplet loss,采用Wasserstein 距离来作为损失函数的,可以考虑下如何去设计一个针对偏原创 2021-07-03 16:28:39 · 707 阅读 · 0 评论 -
思维才是力量
1. 以前总认为知识就是力量,但是今天听了钱旭红老师的讲座之后,才体会到,知识只是 学习的结果,是前人已经创造出来的东西,而思维是创造新东西的这个过程,相当于授人以渔中的渔,而不是授人以鱼中的鱼。知识的掌握在现在看来更多的是一个重复、无新的东西产生的体力劳动过程,而创造新事物的这个思维则是提高生产力的关键。这里思维的含义主要有三个:总的来说就是思维=形象思维(想象力思维)+逻辑思维(形式)+系统性思维(格局)。2. 本来在讲座最后是要提问一个问题的,但是由于时间关系没来得及提,有点遗憾,后面需要及早大胆原创 2021-04-16 23:09:08 · 163 阅读 · 0 评论 -
最近工作总结(一)(2019.12.09)
最近工作总结(一)(2019.12.09)1. 下一个方向:a. 将之前的分割方法应用到偏振图像中;b. 如何结合目前最新的神经网络(GAN,膨胀卷积,增强学习,何恺明的最新文章);c. silu给的染色图像和偏振图像的配准,然后再拼接(shaojun的项目);d. zhuyuanhuan的30张图像对齐的问题;e. 元学习(meta learning);2. 强化学习(Reinforcement learning, RL): 又称为再励学习,评价学习或增强学习,是机..原创 2020-11-19 10:53:15 · 189 阅读 · 0 评论 -
分类或聚类任务中常用的评价指标计算方法
1. 预备知识: 预测为正 预测为负 真值为正 TP FN 真值为负 FP TN TPR: TP/(TP+FN),真正率,正样本中被预测为正的比例;FNR:FN/(TP+FN), 漏检率,正样本被预测为负的比例;FPR: FP/(FP+TN), 虚警率,负样本被预测为正的比例;TNR: TN /(FP.原创 2020-10-24 09:55:50 · 824 阅读 · 0 评论 -
MATLAB绘制ROC曲线并计算AUC值
最近需要比较不同CNN网络的分类效果,用到了Auc值,所以学习了下用MATLAB绘制ROC曲线并计算Auc值的代码,总结如下。1. 子函数代码:% 计算AUC值,同时绘制ROC曲线% 二值分类,predict为预测为真的概率值,ground_truth为真值标签,均为一维向量% 返回值:PX, PY为ROC曲线上的点,Auc为ROC曲线下面面积值% Create Date: 2020/10/16function [PX,PY,Auc] = calculate_roc(predict, g原创 2020-10-16 15:21:20 · 8634 阅读 · 5 评论 -
神经网络参数更新公式推导(三)——卷积神经网络(CNN)
一、引言与全连接神经网络不同,卷积神经网络每一层中的节点并不是与前一层的所有神经元节点相连,而是只与前一层的部分节点相连。并且和每一个节点相连的那些通路的权重都是相同的。举例来说,对于二维卷积神经网络,其权重就是卷积核里面的那些值,这些值从上而下,从左到右要将图像中每个对应区域卷积一遍然后将积求和输入到下一层节点中激活,得到下一层的特征图。因此其权重和偏置更新公式与全连接神经网络不通。通过卷积核替代权重矩阵的意义在于:1. 降低的计算量;2. 权重得到共享,降低了参数量。UFLDL(Unsuperv原创 2020-08-30 13:42:18 · 6948 阅读 · 1 评论 -
神经网络参数更新公式推导(一)——单隐层网络
一、 神经网络的发展过程:1. MP 神经元;2. 感知机;3. 多层前馈神经网络;4. 误差逆向传播算法;二、 神经网络发展中的问题:早期的感知机只有一个MP神经元,不能处理非线性问题,甚至连最简单的“异或”问题都不能解决。出现这种显现的问题在于只有一个MP神经元,但是自然界中绝大多数生物都不止一个细胞,当单个MP神经元出现局限的时候,自然会想到在感知机基础上增加更多的神经元,让感知机更加强大。解决非线性问题的方法:增加MP神经元数量,例如可以再增加一层神经元,如下图:原创 2020-08-20 18:01:48 · 5003 阅读 · 0 评论 -
神经网络参数更新公式推导(二) ——全连接深度神经网络
一、引言与仅包含一层隐含层的网络不同,深度神经网络一般采用的激活函数为ReLU而不是Sigmoid函数,并且没有了阈值,而在每一层的输出上加上了偏置(Bias)。对于三层神经网络中隐层的节点,其输入首先要与阈值作差,然后将差值输入到激活函数(Sigmoid)中。虽然都是采用BP算法进行更新,但三层网络更新的是权重和阈值,而深度网络中更新的是权重矩阵和偏置。此外,由于是多层隐含层,所以需要在更新当前层的时候用到后面一层的信息,需要明确给出权重矩阵和偏置的更新公式。二、输入变换1. 以卷积神经网络为原创 2020-08-20 11:41:45 · 3631 阅读 · 0 评论