![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
学习篇
文章平均质量分 79
小田的一天天
这个作者很懒,什么都没留下…
展开
-
CT二分类
网址 https://covid-ct.grand-challenge.org/首先阅读比赛相关的:一 评估标准 F1 AUC ACC二 数据集说明有来自216个病人的349张ct图片还有阴性的图片比赛方已经分好了测试集训练集和验证集,用txt保存比赛方还给出了两种参考方案也放在了数据集中三 准备工作1 数据集和代码都放在服务器上,并托管在github上2目录结构...原创 2020-06-06 18:02:44 · 535 阅读 · 0 评论 -
u-net
上采样用到的转置卷积1 普通卷积2转置卷积从图中可以看到转置卷积做到了关联的一致性,如a和1有关,d和1234都有关。原创 2019-11-20 18:56:27 · 233 阅读 · 0 评论 -
unet对voc2012数据集分割
数据的读取torch.utils.data.Dataset对Dataset的具体介绍Dataset是一个抽象类,相比于自己写的迭代器,它可以方便地实现多线程读取,shuffle,batch操作自定义一个类继承它,需要自己实现__getitem__ () len__()...原创 2019-11-20 18:55:48 · 3392 阅读 · 3 评论 -
对resnet densenet的理解
resnet1最重要的是残差网络的使用,在神经网络深度比较深的时候,按理说越深的网络,特征提取和拟合能力越强,但是时机训练的过程中发现,较深的网络会出现退化的问题,即准确率还不如浅层的网络。作者想到,能不能在至少不差于浅层网络的基础上,提升深层网络的准确率,下图的这种残差模块实现了这种想法加入残差模块之后,我们基本上可以放心地增加深度,因为虽然我们并不知道网络具体什么深度才是最合适的,但是通...原创 2019-10-29 18:11:17 · 866 阅读 · 0 评论 -
resnet跑猫狗数据集
记录1 learning rate 0.01 batch_size 64 看到loss一直在0.25左右,准确率也上不去,说明可能是局部最优了,需要增大下学习率让他跳出去,此时想到,先保存此时参数,换一个学习率继续试试acc 0.859375iter169 loss is 0.27760iter170 loss is 0.27365iter171 loss is 0.25925...原创 2019-10-29 18:15:27 · 920 阅读 · 1 评论 -
inception v3学习笔记
论文中提到的几个基本原则规则1:要防止出现特征描述的瓶颈(representational bottleneck)。所谓特征描述的瓶颈就是中间某层对特征在空间维度进行较大比例的压缩(比如使用pooling时或者是降维),导致很多特征丢失。虽然Pooling是CNN结构中必须的功能,但我们可以通过一些优化方法来减少Pooling造成的损失,不知道在哪儿看的,尤其是在前面的层,尽量不要降维,整体的要...原创 2019-10-10 21:23:18 · 599 阅读 · 0 评论 -
Alexnet--vgg
Alexnet总共8层,前五层卷积层,后三层全连接层,开始用比较大的卷积核,并采用maxpool,总的参数量:6千多万。第一次成功采用了relu激活函数,相对于sigmoid,relu能有效防止梯度弥散问题,并且很好地增加了非线性。其归一化层norm后来证实并没有很大的作用,后来的模型一般没有在用。在全连接层采用了dropout,防止过拟合vggvgg-16,一共有16层,与Alexne...原创 2019-09-19 15:27:58 · 593 阅读 · 0 评论 -
python基础——字典,格式化输出
dict={‘a’: any thing is os,‘b’: anything is ok}注意每对之间逗号,隔开引用的时候dict[‘a’]注意 a的引号Python的格式化输出——format杳杳控制格式输出就用format,{}内为format参数填充的地方,字符形式的一定要加引号...原创 2019-09-14 14:01:19 · 6768 阅读 · 0 评论 -
对文件的操作,os.walk(),遍历文件夹
一般用法 for root , dirs, files in walk(path):root为目录,dirs,文件夹,files文件输出所有文件夹路径输出所有文件路径#本次用到把猫狗数据集的图片全部切割为224*224import cv2,osdir="./r\trian"for root, dirs, file_name in walk(dir) for file in fi...原创 2019-09-12 15:25:05 · 150 阅读 · 0 评论 -
tensorflow——模型的保存和恢复tf.trian.saver()
保存1创建saver对象,确定save哪些:saver=tf.trian.Saver(),不填写参数的话默认全部2指定在哪个session中保存,以及保存路径:saver.save(sess, ‘./ckpt’)恢复saver.restore(sess, “ckpt_path”)...原创 2019-09-10 16:42:59 · 104 阅读 · 0 评论 -
信息论初探
熵交叉熵:两个概率分布的相似程度,用在深度学习就是预测的概率分布和实际的label差别互信息:两个概率分布的相关度,一个随机变量被另外一个变量携带了多少信息,有点像相关系数,书上说比相关系数更加泛化,普通的相关系数仅捕捉线性关系。KL散度 :用一个Q去拟合真实分布P时,或者说用Q替代P时会有多少信息损失,用卷积提取图象特征时,提取之后会损失一些信息。(用于无监督机器学习) 目前没接触到...原创 2019-09-07 18:30:27 · 78 阅读 · 0 评论 -
tf.name_scope和variable_scope
with tf.name_scop() 和tf.variable_scope()理解为命名空间或者变量空间在用tf.Variable上没有区别,在tf.get_variable()+name_scope的组合上,不能有重复的变量名字原创 2019-09-07 17:35:36 · 93 阅读 · 0 评论