理论学习
文章平均质量分 94
陈知鱼
这个作者很懒,什么都没留下…
展开
-
机器学习中的正则化——L1范数和L2范数
机器学习中的正则化——L1范数和L2范数正则化是什么?为什么要正则化?LP范数L0范数(补充了解)L1范数L2范数L1范数和L2范数的区别以深度学习的角度看待L1范数和L2范数正则化是什么?为什么要正则化?在数学与计算机科学中,尤其是在机器学习和逆问题领域中,正则化是指为解决适定性问题或过拟合而加入额外信息的过程。 在机器学习和逆问题的优化过程中,正则项往往被加在目标函数当中。——维基百科正则化的本质是对某一问题加以先验的限制或约束(如L1范数和L2范数),以达到某种特定目的的一种手段或操作(函数的稀原创 2021-01-09 16:54:32 · 5767 阅读 · 2 评论 -
常见开源脑影像分析产品
常见开源脑影像分析产品 软件名称 类型 描述 官网或下载链接 3D Slicer 通用 3D Slicer是一款开源免费的软件,用于图像处理和分析,支持三维处理切片等功能,可在多个平台使用,支持Windows, Linux以及Mac OS X。 MIMICS 通用 MIMICS是一款工具化的图像处理平台,功能丰富自主性强,系统采...原创 2019-11-02 16:39:02 · 681 阅读 · 0 评论 -
各种池化的实现
中值池化 中值池化是参考图像处理中的中值滤波而引申的一种池化方式。在目前CNN架构中极为少见,仅发现一篇论文:基于卷积神经网络和中值池化的人脸识别,不确定是否为水文。 在前向与反向传播过程中,中值池化类似于最大值池化,故不再赘述。 中值池化同样具有学习边缘和纹理结构的特性,同时具有抗噪性。代码描述参考:# 代码摘自开源项目:pytorch-image-modelsclas...原创 2019-10-22 21:04:43 · 1664 阅读 · 3 评论 -
电脑硬件基础知识及购买指南
基础知识推荐黑冰教程1.0:https://www.bilibili.com/video/av66251569/?p=1内容包括:CPU 内存 硬盘 主板 显卡 机箱 电源 散热观看以上基础课程视频,大约8个小时。强烈推荐!!!购买指南推荐黑冰教程2.0: 电脑三大件CPU 内存 硬盘:https://www.bilibili.com/video/av680...原创 2019-10-11 08:54:33 · 296 阅读 · 0 评论 -
神经网络中通过add和concate(cat)的方式融合特征的不同
cat与add知乎的回答 - 知乎https://www.zhihu.com/question/306213462作者一:Hengkai Guo的回答 - 知乎https://www.zhihu.com/question/306213462/answer/562776112对于两路输入来说,如果是通道数相同且后面带卷积的话,add等价于concat之后...原创 2019-09-09 14:22:31 · 22371 阅读 · 0 评论 -
深度学习中的各种卷积网络
内容包括:1. 卷积 VS 互关联2. 深度学习中的卷积网络(单通道版,多通道版)3.3D 卷积4. 1x1 卷积5. 卷积算法6. 转置卷积(反卷积,棋盘效应)7. 空洞卷积(扩张卷积)8. 可分离卷积(空间可分离 卷积,深度可分离卷积)9. 扁平化卷积10. 分组卷积11. 混洗分组卷积12. 逐点分组卷积1-6:https://ai...原创 2019-09-09 08:16:16 · 219 阅读 · 0 评论 -
研究生论文写作中常见的误区
问题1:摘要与结论几乎重合。多数情况下,论文中摘要部分与结论部分重复率超过70%。对于摘要而言,首先要用一小句话引出为什么做这个研究,然后,简单地概述采用了那些研究方法,然后,直接了当地说出这篇论文的最重要结果,而不是所有的结果,最后说说在这些工作之外重点讨论了一个什么现象就可以。对于论文的结论部分,不再需要把为什么做这个研究、怎么做这个研究说一遍了。正常情况下,应该直接明白地概述所发现的...原创 2019-08-24 11:06:58 · 624 阅读 · 0 评论 -
快速了解GCN(图卷积神经网络)
如何理解 Graph Convolutional Network(GCN)?https://www.zhihu.com/question/54504471推荐初学者可以先从知乎的这个问题出发,点赞最多的《从CNN到GCN的联系与区别——GCN从入门到精(fang)通(qi)》该篇文章非常详细且能够帮助初学者理解的讲述了GCN的大部分理论过程。再补充以后面几人回答的知识,便可以说对GCN有了...转载 2019-08-06 13:58:08 · 388 阅读 · 0 评论 -
关于神经网络的输出神经元个数的思考
博主对于神经网络的输出神经元个数的问题,起源于“识别手写数字的神经网络为什么需要10个输出而不是四个?”.实际上,这是两种不同的编码方式,两种的网络架构都是可行的,但是我们选择十个神经元而不是四个神经元来表达各类别,是因为这是经验上的选择,从效果来说,输出为十个的效果更好。具体理由如下:如果输出为四个,那么输出层的每个神经元需要学习的是“1和2的手写体之间的区别”之类的断言;...原创 2019-07-30 13:00:44 · 7352 阅读 · 0 评论 -
核磁T1加权像和T2加权像的区别
转载 2019-07-05 22:41:54 · 13181 阅读 · 3 评论 -
Bagging和Boosting 概念及区别
Bagging和Boosting都是将已有的分类或回归算法通过一定方式组合起来,形成一个性能更加强大的分类器,更准确的说这是一种分类算法的组装方法。即将弱分类器组装成强分类器的方法。首先介绍Bootstraping,即自助法:它是一种有放回的抽样方法(可能抽到重复的样本)。1、Bagging (bootstrap aggregating)Bagging即套袋法,其算法过程如下:A)从原始样...转载 2018-12-13 08:34:50 · 283 阅读 · 0 评论 -
傅里叶变换之按在地上摩擦
本文为作者个人的理解,参考一些文献,同时主要借鉴了此文:https://zhuanlan.zhihu.com/p/19763358,非常感谢这位博主分享。如何理解傅里叶变化?傅里叶变换这个概念,我们最早应该是在高等数学里面接触到的,后来可能有些学习信号与系统或数字信号处理方面课程的童鞋会再深入些的学习。从概念来说:只要满足狄里赫莱条件,任何周期函数都可以变换成一系列正弦函数的叠加。...原创 2019-04-28 10:41:50 · 230 阅读 · 0 评论