![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
人工智障理论
Arthur-Ji
不要崇拜,不要自卑
不要盲目相信高势能
不要随波逐流
脚踏实地
展开
-
李飞飞深度学习计算机视觉(二)——数据驱动的图像分类方式,K最近邻与线性分类器
好像之前听过类似的这个课了,连PPT都是一样的,只不过是中文的,哈哈哈,算啦,不看了,有空再补剩下的18h视频先占个坑原创 2019-07-24 10:18:03 · 346 阅读 · 0 评论 -
李飞飞深度学习计算机视觉(一)——介绍
https://www.bilibili.com/video/av18443065/?p=485%的数据都是图像视频数据从三维建模跳到了识别,回到了AI2012CNN模型使用...原创 2019-07-23 22:35:56 · 404 阅读 · 0 评论 -
边缘检测︱基于 HED网络TensorFlow 和 OpenCV 实现图片边缘检测
本文摘录自《手机端运行卷积神经网络的一次实践 – 基于 TensorFlow 和 OpenCV 实现文档检测功能》 只截取...转载 2020-04-21 15:12:42 · 1426 阅读 · 0 评论 -
【边缘检测】HED论文笔记
论文全称:Holistically-Nested Edge Detection亮点1、基于整个图像的训练和预测2、多尺度和多水平的特征学习3、基于FCN和VGG 改进4、通过多个side output输出不同scale的边缘,然后通过一个训练的权重融合函数得到最终的边缘输出。可以solve edge...转载 2020-04-21 14:58:31 · 539 阅读 · 0 评论 -
DeblurGAN-v2: Deblurring (Orders-of-Magnitude) Faster and Better阅读笔记
论文:https://arxiv.org/pdf/1908.03826.pdf代码:https://github.com/TAMU-...转载 2020-04-18 19:28:00 · 917 阅读 · 0 评论 -
Non-local算法笔记
论文:Non-local Neural Networks for Video Classification 论文链接:https:/...转载 2020-01-09 16:22:14 · 300 阅读 · 0 评论 -
GAN原理,优缺点、应用总结
GAN原理,优缺点、应用总结 本文已投稿至微信公众号–机器学习算法全栈工程师,欢迎关注1.GAN的...转载 2019-12-06 16:15:10 · 916 阅读 · 0 评论 -
一文详解生成对抗网络(GAN)的原理,通俗易懂
<div class="rich_media_content"> <p style="line-height:1.75em;text-align:justify;margin-left:8px;margin-...转载 2019-12-06 16:14:36 · 1277 阅读 · 0 评论 -
深度学习卷积神经网络——经典网络GoogLeNet(Inception V3)网络的搭建与实现
一、Inception网络(google公司)——GoogLeNet网络的综述获得高质量模型最保险的做法就是增加模型的深度(层数)或者是其宽度(层核或者神经元数),但是这里一般设计思路的情况下会出现如下的缺陷:1.参数太多,若训练数据集有限,容易过拟合;2.网络越大计算复杂度越大,难以应用;3.网络越深,梯度越往后穿越容易消失,难以优化模型。 解决上述两个缺点的根本方法...转载 2019-12-04 15:46:07 · 749 阅读 · 0 评论 -
深入理解GoogLeNet结构
inception(也称GoogLeNet)是2014年Christian Szegedy提出的一种全新的深度学习结构,在这之前的AlexNet、VGG等结构都是通过增大网络的深度(层数)来获得更好的训练效果,但层数的增加会带来很多负作用,比如overfit、梯度消失、梯度爆炸等。inception的提出则从另一种角度来提升训练结果:能更高效的利用计算资源,在相同的计算量下能提取到更多的特征,从而...转载 2019-12-04 15:45:05 · 174 阅读 · 0 评论 -
Inception家族
本文简要介绍了 Inception 家族的主要成员,包括 Inception v1、Inception v2 和 Inception v3、Inception v4 和 Inception-ResNet。它们的计算效率与参数效率在所有卷积架构中都是顶尖的,且根据 CS231n 中所介绍的,Inception V4 基本上是当前在 ImageNet 图像分类任务 Top-1 正确率最高的模型。Inc...转载 2019-12-04 15:42:27 · 189 阅读 · 0 评论 -
全卷积网络 FCN 详解
背景CNN能够对图片进行分类,可是怎么样才能识别图片中特定部分的物体,在2015年之前还是一个世界难题。神经网络大神Jonathan Long发表了《Fully Convolutional Networks for Semantic Segmentation》在图像语义分割挖了一个坑,于是无穷无尽的人往坑里面跳。全卷积网络 Fully Convolutional Networks...转载 2019-12-03 20:50:01 · 350 阅读 · 0 评论 -
DenseNet详细解读
这篇文章是Densely Connected Convolutional Networks的解读,在精简部分内容的同时补充了相关的概念...转载 2019-11-19 22:09:45 · 923 阅读 · 0 评论 -
DenseNet解读
Densely Connected Convolutional Networks ,作者清华姚班的刘壮,获得cvpr 2017 best paper。非常值得阅读。DenseNet优势:(1)解决了深层网络的梯度消失问题(2)加强了特征的传播(3)鼓励特征重用(4)减少了模型参数DenseNet的网络基本结构如上图所示,主要包含DenseBlock和transition layer...转载 2019-11-19 21:40:18 · 183 阅读 · 0 评论 -
DenseNet算法详解
论文:Densely Connected Convolutional Networks 论文链接:https://arxiv.org...转载 2019-11-19 21:33:42 · 303 阅读 · 0 评论 -
关于训练神经网路的诸多技巧Tricks
欢迎访问Oldpan博客,分享人工智能有趣消息,持续酝酿深度学习质量文。前言很多人都说训练神经网络和炼金术师炼药的过程相像,难以破解其中的黑盒子。其实不然,在训练的时候我们依然可以通过大量的技巧去最大化我们的训练效果,从而帮助我们的任务取得不错的精度,这些技巧是训练神经网络不可缺少的一环。本文尽可能说明训练过程中所需要的各种小技巧,会有不完善的地方,限于篇幅每个点不会说很细,但是这些观念是我们都需...转载 2020-01-08 15:37:56 · 306 阅读 · 0 评论 -
训练神经网络不得不看的33个技巧
据说开始训练神经网络很容易,许多库和框架都以可以用30行的奇迹代码片段解决你的数据问题而自豪,给人一种即插即用的(错误)印象。常见的做法是:123 copy>>> your_data = # plug your awesome dataset here>>> model = SuperCrossValidator(SuperDuper.fit, your_da...转载 2020-01-08 15:32:42 · 873 阅读 · 0 评论 -
from detectron2.engine import DefaultPre AttributeError: module ‘typing‘ has no attribute ‘Counter‘
在使用detectron2的时候from detectron2.engine import DefaultPre发生了报错 File "<stdin>", line 1, in <module> File "/home/anaconda3/envs/detectron2/lib/python3.6/site-packages/detectron2/engine/__init__.py", line 11, in <module> from .hooks原创 2020-08-09 00:33:41 · 581 阅读 · 0 评论 -
【深度学习论文】:U-Net
U-Net在深度学习应用到计算机视觉领域之前,人们使用 TextonForest 和 随机森林分类器进行语义分割。卷积神经网络(CN...转载 2019-12-03 21:33:23 · 293 阅读 · 0 评论 -
U-Net 网络结构理解
在图像分割领域,不像单纯的图像分类任务,任务一般要求不仅输出图像的类别,还要告诉我类别图像的位置。一般数据的输入是一个图像(多通道或单...转载 2019-12-03 21:13:54 · 2200 阅读 · 0 评论 -
全卷积神经网络图像分割(U-net)-keras实现
最近在研究全卷积神经网络在图像分割方面的应用,因为自己是做医学图像处理方面的工作,所以就把一个基于FCN(全卷积神经网络)的神经网络用...转载 2019-12-03 20:59:22 · 838 阅读 · 0 评论 -
神经网络量化简介
神经网络量化简介黎明灰烬阿里巴巴 机器学习工程师128 人赞同了该文章原载于黎明灰烬 博客。采用知识共享 署名-非商业性使用-禁止演绎 4.0 国际许可授权,转载请注明出处。文章是从 Neural Network Quantization Introduction 转译而来,因此有些翻译感,对原文感兴趣亦可直接查看。知乎似乎不支持对公式编号,如果公式和文字的联系对你比较重要,建议参考原文。前言计...转载 2019-11-26 13:48:25 · 1783 阅读 · 0 评论 -
FLOPS的理解
在描述GPU的性能的时候,我们常常用到FLOPS进行描述。FLOPS是Floating-point Operations Per Second的简写,即每秒所能够进行的浮点运算数目(每秒浮点运算量). 在以往形容GPU的运算...转载 2019-11-26 13:36:44 · 2196 阅读 · 0 评论 -
ASPP 语义分割(semantic segmentation)--DeepLabV3之ASPP(Atrous Spatial Pyramid Pooling)代码详解
ASPP: Atrous Spatial Pyramid Poolingdeeplabv2中的aspp如上图所示,在特征顶部映射图使用了四中不同采样率的空洞卷积。这表明以不同尺度采样时有效的,在Deeolabv3中向ASPP中添加了BN层。不同采样率的空洞卷积可以有效捕获多尺度信息,但会发现随着采样率的增加,滤波器有效权重(权重有效的应用在特征区域,而不是填充0)逐渐变小。如下图当我们以不同采样率的3*3卷积核...转载 2020-08-21 12:46:49 · 3552 阅读 · 0 评论 -
ECCV2020 | Cityscapes上83.7 mIoU,通过解耦的主体和边缘监督改进语义分割
本文解读的是ECCV 2020 论文《Improving Semantic Segmentation via Decoupled Body and Edge Supervision》,作者来自北京大学、牛津大学、商汤科技以及之江实验室。本论文解读首发于“AI算法修炼营”。作者 | SFXiang编辑 | 丛 末论文地址:https://arxiv.org/pdf/2007.10035.pdf代码地址:https://github.com/lxtGH/DecoupleSegNets现有的语义分割方法要么通过对转载 2020-08-21 11:32:42 · 876 阅读 · 1 评论 -
干货 | 一文概览主要语义分割网络,FCN、UNet、SegNet、DeepLab 等等等等应有尽有
翻译不易,麻烦 Ctrl-C Ctrl-V 之后标注转载并加上原译者!!部分内容翻译,部分内容原创。内容较多,可以传送门直达。新...转载 2019-12-13 20:00:40 · 518 阅读 · 0 评论 -
perceptual loss(感知loss)介绍
1.介绍 在讲感知损失函数之前,我们先讲一下,网络所提取到的特征代表什么,在下图中,layer1,layer2学到的是边缘,颜色,亮度等底层的特征;layer3开始变得复杂,学到的是纹理的特征,Layer4则学到的是一些有区别性的特征,Layer5学到的特征是比较完整的,具有辨别性的关键特征。可以知道CNN学习到的特征逐渐抽象到更高级别上。 &nb...转载 2020-08-10 12:27:52 · 1211 阅读 · 0 评论 -
pytorch loss function 总结
最近看了下 PyTorch 的损失函数文档,整理了下自己的理解,重新格式化了公式如下,以便以后查阅。值得注意的是,很多的 loss 函数都有 size_average 和 reduce 两个布尔类型的参数,需要解释一下。因为一般损失函数都是直接...转载 2020-06-22 17:32:54 · 521 阅读 · 0 评论 -
总结 | 计算机视觉领域最常见几中损失函数
原标题:总结 | 计算机视觉领域最常见几中损失函数 作者: Sowmya Yellapragada 编译:ronghuaiyang 导读 损失函数在模型的性能中起着关键作用。选择正确的损失函数可以帮助你的模型学习如何将注意力集中在数据中的正确特征集合上,从而获得最优和更快的收敛。 计算机视觉是计算机科学的一个领...转载 2020-04-05 23:10:47 · 3055 阅读 · 0 评论 -
元学习(Meta Learning)学习笔记
<p class="MsoNormal"><a name="_Toc10802404">致谢李宏毅老师的视频教程:</a><a href="https://www.bilibili.com/video/av46561029/?p=32"><span lang="EN-US">https://www.bilibi...转载 2019-12-17 11:06:04 · 437 阅读 · 0 评论 -
全连接层与卷积转化
理解全连接层:连接层实际就是卷积核大小为上层特征大小的卷积运算,卷积后的结果为一个节点,就对应全连接层的一个点。(理解)假设最后一个卷积层的输出为7×7×512,连接此卷积层的全连接层为1×1×4096。如果将这个全连接层转化为卷积层:1.共有4096组滤波器2.每组滤波器含有512个卷积核3.每个卷积核的大小为7×74.则输出为1×1×4096由于每个滤波核的大小和上一层的feature ...转载 2019-12-04 15:38:59 · 1519 阅读 · 0 评论 -
KNN和K-means聚类有什么不同
KNN分类算法 监督学习 数据集是带Label的数据 没有明显的训练过程,基于Memory-based learning K值含义 - 对于一个样本X,要给它分类,首先从数据集中,在X附近找离它最近的K个数据点,将它划分为归属于类别最多的一类K-means聚类算法 非监督学习 数据集是无Label,杂乱无章的数据 有明显的训练过程 K值含义- K是事先设定的数字,将...原创 2019-11-01 09:52:18 · 1583 阅读 · 0 评论 -
recall 召回率解释 实例解释
recall 召回率解释 实例解释Recall=TP/(TP+FN)原创 2019-08-10 11:43:51 · 1617 阅读 · 1 评论 -
别人的【计算机视觉算法岗面经】“吐血”整理:2019秋招面经
别人的【计算机视觉算法岗面经】“吐血”整理:2019秋招面经 相关链接:【计算机视觉算法岗面经】“吐血”整理:2019秋招资料/...转载 2019-08-09 22:42:22 · 1141 阅读 · 1 评论 -
别人的【计算机视觉算法岗面经】“吐血”整理:2019秋招资料
别人的【计算机视觉算法岗面经】“吐血”整理:2019秋招资料 相关链接:【计算机视觉算法岗面经】“吐血”整理:2019秋招面经/...转载 2019-08-09 22:39:57 · 1393 阅读 · 0 评论 -
支持向量机——问的最多的机器学习算法之一,核函数
问的最多的机器学习算法之一得看看别的分别取正负1,所以恒大于零暂时留个坑,先去学点别的,过几天时间再填原创 2019-08-13 23:21:34 · 260 阅读 · 0 评论 -
python文本分析与关键词提取,相似度计算
没啥用的词,并且大量出现叫做停用词关键词提取 tf-idf提取出文章中比较有代表性的文字,这里面就是蜜蜂和养殖相似度搜狗新闻文本分析实例https://blog.csdn.net/Arthur_Holmes/article/details/99431106https://nbviewer.jupyter.org/github/nightss...原创 2019-08-13 14:14:35 · 4970 阅读 · 0 评论 -
统计学之三大相关性系数(pearson、spearman、kendall)
(转自 微信公众号克里克学苑)三个相关性系数(pearson, spearman,kendall)反应的都是两个变量之间变化趋势的方向以及程度,其值范围为-1到+1,0表示两个变量不相关,正值表示正相关,负值表示负相关,值越大表示相关性越强。1. person correlationcoefficient(皮尔森相关性系数)公式如下:重点关注第一个等号后面的公式,最后...转载 2019-07-30 10:19:55 · 3218 阅读 · 0 评论 -
什么是模式识别
什么是模式识别?当我们人眼看到一幅画时,我们能够很清晰的知道其中哪里是动物,哪里是山,水,人等等,但是人眼又是如何识别和分辨的呢,其实很简单,人类也是在先验知识和对以往多个此类事物的具体实例进行观察的基础上得到的对此类事物整体性质和特点的认识的,并不是人类原本就有对这类事物的记忆,就好比婴孩时期的我们,并不知道什么是狗,什么是帅哥,什么是美女,但是随着我们的慢慢长大,我们观察的多了,见的多...原创 2019-04-19 11:26:00 · 1846 阅读 · 0 评论 -
Bias-Variance Tradeoff -----bias(偏差)和variance(方差),过拟合与欠拟合
首先说结论:Bias is reduced and variance is increased in relation to model complexity在下面的图中就是。。。从右下角到左上角国内翻译或者写的都是XXX !找了国内的文章看了半天看不懂,而且好像讲的还都有些出入。然后翻到一篇国外的文章,读了一开头就什么都明白了!这是国内说的:机器学习训练要保证模型在训...原创 2019-04-16 15:43:08 · 2105 阅读 · 0 评论