随笔
skyfengye
研究机器学习,图像处理,图形处理的小菜鸟
展开
-
语义分割现状
个人感觉现阶段语义分割已经走上了一种全新阶段了,我看了一下最近相关语义分割论文,现在语义分割论文逐渐分成了两个层次,一些好的团队已经将其他领域的一些新的知识应用到语义分割网络上,还有一些普通的团队还是在和U-Net 死磕。我等普通人需要加油了。原创 2024-01-10 11:20:14 · 492 阅读 · 0 评论 -
语义分割方面的思考
我个人感觉现在深度学习的语义分割对普通人越来越不友好了,现在分割网络逐渐开始拼财力拼服务器算力了,对于普通人来说跑一些简单的网络做一些简单的修改发一些好文章越来越难了。现在大组逐渐开始讲究团队合作了。对于我们普通人来说只能走一步看一步了。原创 2023-11-30 17:04:53 · 436 阅读 · 0 评论 -
人生之路漫长
人生不同的时间会遇到不同的人和事,你不知道这些事会对你以后产生什么影响,只希望后面有好的收货。原创 2023-08-24 12:20:53 · 104 阅读 · 0 评论 -
神经网络原理探索
每个神经元后面带有一个非线性的激活函数,输入经过一层神经网络非线性映射相当于对原始的输入空间做了一种非线性扭曲,在扭曲后的空间上再用一层神经元做半平面的剖分,那么两层神经网络综合的作用相当于把decision region 凸多边形那种划分。但是针对神经网络具体原理现在是公说公有理婆说婆有理,每个人都有自己一套理论研究。在我看到一篇很好的文章,对于神经网络进行的解释,大家可以看一下。当然这只是一家之言,每个人都有自己的想法,如果要看更详细的说明可以看文章。这个文章,里面有详细的说明,神经网络的拓扑结构。原创 2023-01-10 11:52:38 · 130 阅读 · 0 评论 -
人生不如意十之八九
人生就是这样,不如意的事,十之八九,没有一直顺利。原创 2022-09-08 12:07:52 · 170 阅读 · 0 评论 -
半监督的语义分割
半监督语义分割原创 2022-07-11 16:46:35 · 2275 阅读 · 0 评论 -
六月感想--针对今天不顺心的事的总结
个人随想原创 2022-06-22 16:26:11 · 277 阅读 · 0 评论 -
解决Anaconda3 安装库 卡 solving environment 的方法
解决方法使用mamba安装mambaconda install -c conda-forge mamba安装完之后就可以使用mamba来替代conda进行所有下载操作。常用命令添加包mamba install 包名删除包mamba remove 包名原创 2022-04-30 23:52:41 · 1973 阅读 · 0 评论 -
医学图像语义分割感触
研究医学图像语义分割也有几年时间了,论文也发了几篇,项目也做了几个。但是自从这段时间闲下来,不需要为了毕业赶论文,手上几篇灌水论文的工作也慢慢停了下来,进度也越来越慢。看着我以前写的论文和即将要写完的论文,突然有点感触写下来。我现在不知道医学图像语义分割的研究点在哪?难道真的是加几个模块,引入一个概念然后写几篇论文?现在深度学习感觉已经过了打榜的时代了。每天都会发现一些新的论文新的网络结构,但是有时候想想这些结构或者网络真的有效吗?真的只要能够发论文就可以了吗?也许你会说你可以不追求发论文,现在医学图像原创 2021-11-08 15:31:13 · 409 阅读 · 3 评论 -
新的开始,新的征程。
2021年9月10 今天正式答辩结束,标志着我即将开始一个新的生活。加油,努力。原创 2021-09-10 20:32:51 · 148 阅读 · 0 评论 -
python 画图显示中文乱码问题
在进行python 画图时 显示图片中文标题时会出现乱码。在最前边设置这两条属性即可:plt.rcParams[‘font.sans-serif’]=[‘SimHei’]plt.rcParams[‘axes.unicode_minus’] = False这里SimHei 表示黑体,如果想换成别的,大家也可以看看python 字体。...原创 2021-07-16 09:53:04 · 7037 阅读 · 1 评论 -
Keras中损失函数binary_crossentropy和categorical_crossentropy产生不同结果的分析
我在进行一个小的实验时突然发现了两个不同的结果,在进行首先体识别的任务中。这是一个多分类的问题,它总共有10类。一开始我只是为了验证一下实验的效果,就直接在网络上找了一个代码然后就直接对着这个代码跑了。最后实验也跑通了。最后发现了一个特征奇怪的问题。当我直接跑这个代码的时候发现准确度很高,而且出奇的稳定。没有多少波动。当我从别的地方import 一个网络运行时发现结果差别很大。我检查了两个代码发现没啥问题。为什么结果差别很大。最后一看训练的参数,发现错了,第一个代码使用了binary_crossentr原创 2021-03-23 12:34:38 · 3329 阅读 · 0 评论 -
Faster R-CNN
今天在知乎上面看到一篇讲Faster R-CNN 网络的文章 写的很好。我在这里分享给大家。令我“细思极恐”的Faster R-CNN大家搞目标检测的可以看看这篇文章。学习学习。原创 2020-12-29 23:32:37 · 124 阅读 · 0 评论 -
layer quant_conv2d_8 expects 2 weights, but the saved weights have 1 elements keras
我在两个服务器上运行代码的时候,把一个运行的权重加载到另一个服务器模型上面去,突然出现了。layer quant_conv2d_8 expects 2 weights, but the saved weights have 1 elements这样问题。当时我检查了一下模型发现两个一样了。并没有什么不同。为什么出现这样的问题。最后我在Google上找到了答案。原来是我两个模型 一个使用了use_bias=False 而另一个 我把这个给注释了。这么一个小小的错误。就导致了出现这个问题。大家以后再模.原创 2020-11-27 19:34:50 · 1002 阅读 · 0 评论 -
大的batchsize 降低了模型泛化能力
最近在跑ImageNet 数据集,在弄到了一个很好的服务器以后,我把模型训练从原来的batchsize=128调到可512,这个时候突然发现模型训练的准确度降低了很多。一开始我以为是我模型的问题,我把模型稍微修改了,然后把学习率之类的也进行了调整,最后发现这个问题还是存在。这个时候我才意识到这个不一定时我的模型的问题了。也许是batchsize的问题了,然后我进行了一些文献的调查发现确实有这些问题。然而在早期深度学习,过大的 batch size 训出的模型往往会比小 batch size 训出的模型差原创 2020-11-20 16:27:36 · 2012 阅读 · 0 评论 -
模型过参数化在医学图像中的影响 个人看法
在神经网络训练中,模型参数越多,虽然越容易导致过拟合,但是也可以容易的训练。在进行transfer learning时,可以看出过参数化是网络可以成功的关键。The Utility of Feature Reuse和Transfusion这两篇论文讨论了这些问题。...原创 2020-05-25 16:42:32 · 1500 阅读 · 0 评论 -
工作随笔
由于今年疫情的原因,弄到今天才到院里来,才开始正式的工作。希望在剩下的下半年之类,能多发论文,然后明年顺利毕业。加油。原创 2020-05-13 11:01:54 · 270 阅读 · 0 评论 -
Zero-shot One-shot Few-shot learning 算法
Zero-shot learning 指的是我们之前没有这个类别的训练样本。但是我们可以学习到一个映射X->Y。如果这个映射足够好的话,我们就可以处理没有看到的类了One-shot learning 指的是我们在训练样本很少,甚至只有一个的情况下,依旧能做预测few-shot learining 指的是训练样本少量,但稍微比one-shot 多一点。...原创 2019-06-17 21:17:23 · 1677 阅读 · 0 评论 -
2019年开工大吉
在家过年拖拖拉拉搞到昨天才正式到实验室。2019年开工大吉。希望今年一切顺利能多发论文。原创 2019-02-19 11:13:54 · 271 阅读 · 0 评论