![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
笔记
文章平均质量分 86
微信公众号[机器学习炼丹术]
每天都要进步
展开
-
生成专题4 | StyleGAN2的其他改进
文章转自微信公众号:机器学习炼丹术作者:陈亦新(欢迎交流共同进步)联系方式:微信cyx645016617学习论文:Analyzing and Improving the Image Quality of StyleGAN文章目录4.1 Path length regularization4.2 代码实现PLloss4.3 No Progressive growth4.1 Path length regularization在生产人脸的同时,我们希望可以控制人脸的属性,不同的latent c.原创 2022-04-07 17:39:00 · 410 阅读 · 0 评论 -
生成专题3 | StyleGAN2对AdaIN的修正
文章转自微信公众号:机器学习炼丹术作者:陈亦新(欢迎交流共同进步)联系方式:微信cyx645016617学习论文:Analyzing and Improving the Image Quality of StyleGAN文章目录3.1 AdaIN3.2 AdaIN的问题3.3 weight demodulation3.4 代码学习3.1 AdaINStyleGAN第一个版本提出了通过AdaIN模块来实现生成,这个模块非常好也非常妙。图片中的latent Code W是一个一维向量。然后.原创 2022-03-04 18:07:11 · 3758 阅读 · 0 评论 -
生成专题2 | 图像生成评价指标FID
文章转自微信公众号:机器学习炼丹术作者:陈亦新(欢迎交流共同进步)联系方式:微信cyx645016617文章目录2.1 感性理解2.2 代码实现2.1 感性理解FID是Fréchet Inception Distance。FID依然是表示生成图像的多样性和质量,为什么FID越小,则图像多样性越好,质量越好。FID的计算器中,我们也是用了inception network网络。inception netowrk其实就是特征提取的网络,最后一层输出图像的类别。不过我们会去除最后的全连接或者池化.原创 2022-03-02 17:56:17 · 5772 阅读 · 0 评论 -
生成专题1 | 图像生成评价指标 Inception Score (IS)
文章转自微信公众号:机器学习炼丹术作者:陈亦新(欢迎交流共同进步)联系方式:微信cyx645016617文章目录1.1 感性理解1.2 数学推导1.3 KL散度的物理意义1.1 感性理解IS是Inception Score。熵entropy可以被用来描述随机性:如果一个随机变量是高度可预测的,那么它就有较低的熵;相反,如果它是乱序随机的,那么它就是有较高的熵。这和训练分类网络所用的交叉熵是同一个道理。如下图,我们有两个概率:高斯分布和均匀分布。可以推断出,高斯分布的entropy小于均匀分.原创 2022-03-02 14:16:21 · 4683 阅读 · 0 评论 -
DTI特征工程 | iDTI-ESBoost | 2017 | REP
文章转自微信公众号:机器学习炼丹术论文名称:iDTI-ESBoost: Identifcation of Drug Target Interaction Using Evolutionary and Structural Features with Boosting作者:炼丹兄(欢迎交流共同进步)联系方式:微信cyx645016617论文链接:https://github.com/farshidrayhanuiu/FRnet-DTI/【前言】:我百度了一下,sci reports是四大水.原创 2022-02-07 14:32:44 · 1231 阅读 · 0 评论 -
self-training | MICCAI2021 | BN层的source free的迁移
文章转自微信公众号:机器学习炼丹术论文名称:Adapting Off-the-Shelf Source Segmenter for Target Medical Image Segmentation作者:炼丹兄(欢迎交流共同进步)联系方式:微信cyx645016617论文链接:https://arxiv.org/abs/2109.09735【前言】:Source-free的论文被拒之后,reviewer给出了很好的意见,并且给出了一些相关的论文。之前的文献整理阶段没有做完善,对比试验比较少,.原创 2022-01-28 16:55:18 · 3994 阅读 · 0 评论 -
NLP | 简单学习一下NLP中的transformer的pytorch代码
经典transformer的学习文章转自微信公众号【机器学习炼丹术】作者:陈亦新(已授权)联系方式: 微信cyx645016617欢迎交流,共同进步文章目录代码细讲transformerEmbeddingEncoder_MultipleLayersEncoder完整代码代码细讲transformerclass transformer(nn.Sequential): def __init__(self, encoding, **config): super(tra.原创 2022-01-18 11:32:00 · 435 阅读 · 0 评论 -
DTI | Drug-target interaction | 基础知识
Drug Targets Interactions (DTI)基础概念文章转自微信公众号【机器学习炼丹术】作者:陈亦新(已授权)联系方式: 微信cyx645016617欢迎交流,共同进步第一次接触蛋白质结构预测,记录一下笔记。1 基础概念学习好的学习视频推荐:https://www.youtube.com/watch?v=u49k72rUdyc1.1 Drug Targets药物靶点Drug targets是蛋白质蛋白质是大型生物分子,由很多的氨基酸amino acid.原创 2022-01-15 13:43:10 · 1232 阅读 · 0 评论 -
self-training | 域迁移 | source-free(三)
文章转自微信公众号:机器学习炼丹术论文名称:Domain Adaptive Semantic Segmentation without Source Data会议名称:ACM MM作者:炼丹兄(欢迎交流共同进步)联系方式:微信cyx6450166170 综述上图展示了source-free domain adaptation和一般的DA的区别。在之前的两篇source-free的论文中已经反复讲解,不再赘述。1 方法这文章也是使用Positive learning和Negative .原创 2021-11-11 16:28:31 · 1882 阅读 · 0 评论 -
self-training | 域迁移 | source-free(二)
文章转自微信公众号:机器学习炼丹术论文名称:Model Adaptation: Historical Contrastive Learning for Unsupervised Domain Adaptation without Source Data作者:炼丹兄(欢迎交流共同进步)联系方式:微信cyx6450166170 摘要无监督域适配旨在对齐标记的源域和未标记的目标域,但它需要访问经常引发关注数据隐私、数据便携性和数据传输效率。我们研究的无监督模型自适应(unsupervised mo.原创 2021-11-01 15:16:54 · 997 阅读 · 0 评论 -
self-training | 域迁移 | source-free的域迁移一
文章转自微信公众号:机器学习炼丹术论文名称:Give Me Your Trained Model: Domain Adaptive Semantic Segmentation without Source Data作者:炼丹兄(欢迎交流共同进步)联系方式:微信cyx6450166170 什么是source-free问题训练得益于大量的数据,A数据集有标注,B数据集无标注。如何利用A数据集在B数据集上取得效果,这是经典的Domain adaptation问题。然而最近隐私越来越关注,在真实场景.原创 2021-10-28 17:09:55 · 2298 阅读 · 0 评论 -
图网络 | Graph Attention Networks | ICLR 2018 | 代码讲解
【前言】:之前断断续续看了很多图网络、图卷积网络的讲解和视频。现在对于图网络的理解已经不能单从文字信息中加深了,所以我们要来看代码部分。现在开始看第一篇图网络的论文和代码,来正式进入图网络的科研领域。论文名称:‘GRAPH ATTENTION NETWORKS’文章转自:微信公众号“机器学习炼丹术”笔记作者:炼丹兄联系方式:微信cyx645016617(欢迎交流,共同进步)论文传送门:https://arxiv.org/pdf/1710.10903.pdf01 代码实现代码github原创 2021-09-09 16:07:42 · 584 阅读 · 0 评论 -
小样本分割 | FSS1000 | CVPR2020
论文名称:“FSS-1000: A 1000-Class Dataset for Few-Shot Segmentation”笔记作者:炼丹兄(已授权)联系方式:微信cyx645016617(欢迎交流,共同进步)【预告】:近期会更新5篇CVPR2020到2021的小样本分割的文章心得综述文章贡献主要是两个:提出了FSS-1000的小样本分割数据集;并且用一个不是很创新的小样本框架来证明,在这个数据集上预训练的模型其实在各种小样本分割任务中都有不错的提升。这里关于小样本任务的定义就.原创 2021-08-25 10:42:13 · 1082 阅读 · 0 评论 -
图像分割必备知识点 | Unet++ 超详解+注解
文章来自周纵苇大佬的知乎,是Unet++模型的一作大佬,其在2019年底详细剖析了Unet++模型,讲解的非常好。所以在此做一个搬运+个人的理解。 文中加粗部分为个人做的注解。需要讨论交流的朋友可以加我的微信:cyx645016617,也可以加入我建立的一个氛围超好的AI算法交流群。我只是一个在智能算法路上缓慢前行的应届混子。参考目录:文章目录1 铺垫2 展开3 主体4 高潮5 最后一提1 铺垫在计算机视觉领域,全卷积网络(FCN)是比较有名的图像分割网络,医学图像处理方向,U-Net可以说是一个更原创 2020-12-03 17:49:34 · 13887 阅读 · 7 评论 -
图像分割必备知识点 | Unet详解 理论+ 代码
文章转自:微信公众号【机器学习炼丹术】。文章转载或者交流联系作者微信:cyx645016617Unet其实挺简单的,所以今天的文章并不会很长。喜欢的话可以参与文中的讨论、在文章末尾点赞、在看点一下呗。0 概述语义分割(Semantic Segmentation)是图像处理和机器视觉一个重要分支。与分类任务不同,语义分割需要判断图像每个像素点的类别,进行精确分割。语义分割目前在自动驾驶、自动抠图、医疗影像等领域有着比较广泛的应用。上图为自动驾驶中的移动分割任务的分割结果,可以从一张图片中有效的识别原创 2020-11-26 13:47:11 · 46394 阅读 · 12 评论 -
图像分割必备知识点 | Dice损失 理论+代码
本文包含代码案例和讲解,建议收藏,也顺便点个赞吧。欢迎各路朋友爱好者加我的微信讨论问题:cyx645016617.在很多关于医学图像分割的竞赛、论文和项目中,发现 Dice 系数(Dice coefficient) 损失函数出现的频率较多,这里整理一下。使用图像分割,绕不开Dice损失,这个就好比在目标检测中绕不开IoU一样。1 概述Dice损失和Dice系数(Dice coefficient)是同一个东西,他们的关系是:DiceLoss=1−DiceCoefficientDiceLoss = 1-原创 2020-11-25 10:52:23 · 12442 阅读 · 2 评论 -
3D卷积入门 | 多论文笔记 | R2D C3D P3D MCx R(2+1)D
文章转自微信公众号:【机器学习炼丹术】。有问题或者需要加入粉丝交流群可以私信作者~文章目录0 前言1 R2D2 C3D2.1 R3D3 P3D4 MCx5 R(2+1)D【前前沿】:某一次和粉丝交流的时候,收获一句话:人点亮技能书,不是一次性电量的。是反复折腾,反复批判,反复否定与肯定,加深了记忆轴。 —某位粉丝0 前言看到这篇论文是因为之前看到一篇Nature上的某一篇医疗影像的论文中用到了这几个算法,R3D,MC3和R2+1D的3D卷积的算法。因为对3D卷积的算法了解比较局限,所以开始补一原创 2020-11-22 14:19:11 · 3309 阅读 · 3 评论 -
医学AI论文解读 |Circulation|2018| 超声心动图的全自动检测在临床上的应用
文章来自微信公众号:机器学习炼丹术。号主炼丹兄WX:cyx645016617.文章有问题或者想交流的话欢迎~参考目录:文章目录0 论文1 概述2 pipeline3 技术细节3.1 预处理3.2 卷积网络3.3 VGG分类网络结构3.4 图像分割4 遇到的问题0 论文论文是2018年的,发表在医学期刊《Circulation》的一篇文章《Fully Automated Echocardiogram Interpretation in Clinical Practice》 (超声心动图在临床中的自动化原创 2020-11-19 17:21:07 · 997 阅读 · 0 评论 -
局部搜索 邻域搜索
通常考察一个算法的性能通常用局部搜索能力和全局收敛能力这两个指标。局部搜索是指能够无穷接近最优解的能力,而全局收敛能力是指找到全局最优解所在大致位置的能力。局部搜索能力和全局搜索能力,缺一不可。向最优解的导向,对于任何智能算法的性能都是很重要的。局部最优问题(或叫局部峰值局部陷井):现实问题中,f在D上往往有多个局部的极值点。一般的局部搜索算法一旦陷入局部极值点,算法就在该点处结束,这时得到的可...转载 2020-01-19 20:25:53 · 7172 阅读 · 0 评论