文章
liuqiang3
这个作者很懒,什么都没留下…
展开
-
关于keras 二分类情况下sigmoid与softmax激活函数以及binary_crossentropy与categorical_crossentropy损失函数的总结
最近在研究focal_loss时发现各种交叉熵损失函数写的形式都不一样,总结一下,以防以后使用.首先sigmoid与softmax激活函数联系与区别:sigmoid激活函数:p(x)=11+exp(x) = \frac{1}{1+e^x}p(x)=1+ex1softmax激活函数:p(xi)=exi∑j=1nexjp(x_i) =\frac{e^{x_i}}{\sum_{j=1}...原创 2020-01-03 23:11:47 · 5384 阅读 · 1 评论 -
Accurate and robust deep learning-bast segmentation MICCAI 2019最佳论文笔记
论文标题Accurate and robust deep learning-based segmentation of the prostate clinical target volume in ultrasound images这是2019 MICCAI最佳论文因为是关于超声的文章,而我自己也是做超声图像的,认真读了下从中汲取灵感。1。文章目的:文章主要目的是解决超声前列腺体积分割过程...原创 2019-12-17 01:37:33 · 454 阅读 · 0 评论 -
THIS DATASET DOES NOT EXIST: TRAINING MODELS FROM GENERATED IMAGES论文笔记
文章概要:问题:在以往文章的实验中,单独利用生成样本训练模型性能相较于真实样本训练得到的模型性能下降很大,即使是biggan这样逼真的生成图像用来训练模型性能仍然下降很多。论文作者推测可能原因是:生成模型样本的多样性与真实样本相比较少。方法:文章中生成器是训练好的Biggan网络。网络结构图:文章提出了单纯利用生成数据训练网络的三种策略来解决生成样本训练模型性能差的问题:1使用困难...原创 2019-11-13 00:19:27 · 395 阅读 · 0 评论 -
SAGAN阅读
问题文章作者提出传统GAN网络往往可以生成逼真的纹理特征但在生成几何结构特征时如狗的爪子时往往效果不佳。原因作者介绍问题的原因是因为卷积神经网络中卷积核大小固定,只能对局部特征进行提取,而一些与全局具有依赖关系的几何特征提取不到,如果通过多个卷积层来增大感受野的话,会增加模型的深度,较浅的模型不能做到,而且优化器需要寻找不同层参数之间的协同关系,增加了训练难度,另一种方法是通过加大卷积核的尺...原创 2019-08-16 23:17:14 · 335 阅读 · 0 评论 -
关于反向传播算法最好的解释
反向传播算法梯度消失和梯度爆炸解释及原因转载 2019-02-19 17:31:22 · 180 阅读 · 0 评论 -
tensorflow1.9 eager问题
tensorflow1.9 .在eager模式下,我用model.get_weight查看参数时发现,tf.train.checkpoint 无法保存模型参数tf.kerasConvLSTM2D层。每次加载预先训练好的模型时convlstm层的参数都不同,而卷积层却能正常加载。2 在网络层中使用maxpooling3d 后 ,模型梯度不能计算。感觉eager还没完善,等2.0之后再使用吧...原创 2019-02-23 17:02:46 · 232 阅读 · 0 评论 -
INSTAGAN论文笔记
论文链接:https://arxiv.org/pdf/1812.10889.pdfICLR 链接:https://openreview.net/forum?id=ryxwJhC9YX文章介绍了一种利用实例分割标签和原图作为输入,在保证背景不变的前提下对实例进行转换的图像翻译方法。主要内容:1.网络结构:生成器网,鉴别器网络结构与cyclegan相似,将多个不同的实例分割标签图一起conc...翻译 2019-01-09 23:13:14 · 2079 阅读 · 0 评论 -
迁移学习综述:A Survey on Transfer Learning
https://blog.csdn.net/XYlittlework/article/details/79095394原创 2018-12-12 15:03:52 · 1959 阅读 · 0 评论 -
顶级深度学习论文
ICLR 2019 biggan计算机视觉顶会 CVPR ICCV ECCV医学图像顶级会议 MICCAIAAAI、ACL NIPSCVPR 2019 截止日期2018年 11月16日AAAI 2019 将于2019年1.27-2.1在美国夏威夷召开,摘要截止日期为:2018.9.1...原创 2018-12-05 16:43:14 · 1568 阅读 · 0 评论 -
多任务学习
多任务学习转载深度神经网络的多任务学习概览(An Overview of Multi-task Learning in Deep Neural Networks转载 2018-11-14 14:43:17 · 98 阅读 · 0 评论 -
论文X-gan:Unsupervised Image-to-Image Translation for Many-to-Many Mappings
风格迁移网络 Xgan之前在利用cyclegan做数据集的风格迁移,最近读了下Xgan的论文,相较于cyclegan,xgan的创新点主要使用了语义一致损失函数(semantic -consistency loss)代替了cyclegan的逐像素点计算的循环一致损失函数(cycle-consistency loss),保留语义特征级别信息而不是像素级别内容。...原创 2018-11-13 17:04:01 · 849 阅读 · 0 评论