- 博客(27)
- 收藏
- 关注
原创 论文阅读20.06-第二周
文章目录FBNetV3: Joint Architecture-Recipe Search using Neural Acquisition FunctionFBNetV3: Joint Architecture-Recipe Search using Neural Acquisition Function这篇文章的出发点在于目前的NAS都只搜了结构而对训练时的其他参数(输入分辨率、优化算法、学习率、ema等等),那么本文的最终目的就是要联合搜索网络结构和训练超参数。问题的难点在于训练超参数是不可导的,
2020-06-14 22:20:38 706
原创 论文阅读20.05-第四周
文章目录Rethinking Performance Estimation in Neural Network SearchRethinking Performance Estimation in Neural Network Search
2020-06-02 15:39:03 464
原创 论文阅读笔记20.05-第三周:ResNet的多种变种
Residual Attention Network for Image Classification这是一种将Attention和深层的ResNet思想结合的网络设计。利用Attention加强选择焦点、不同特征表征的能力,嵌入到已有的ResNet网络中去,在cifar-10/100和ImageNet上都取得了不错的效果。RAN网络由一系列Attention模块构成,每一个模块有一个mask分支和一个trunk分支,后者就是正常地计算特征图,而前者则为每一个特征乘上了一个掩模。文中表示这是为了防止错误
2020-05-24 23:54:24 903 1
原创 论文阅读笔记20.05-第二周
Reading 20.05 Week 2Angle-based Search Space Shrinking for Neural Architecture Search文献回想论文想法Angle-based Search Space Shrinking for Neural Architecture Search这篇文章主要讲述的是一种通过减小搜索域的方法来提高NAS搜索网络性能的故事。作者认为,他找到了一种公平、准确、且可以直接加到各种NAS算法上的逐渐减小搜索域的算法。目的:改善搜索结果方
2020-05-17 23:15:12 644
原创 计算机算法设计与分析
网络流算法由来:美国对于苏联铁路网的轰炸企图相关问题:最小割,找到一个边集将整个图划分为S和T两个子图,使S中的任意一个顶点都到不了T中的任一个顶点(S为一个包括源点的集合,T为一个包含终点的集合)可以构造一个线性规划问题:然而挺麻烦的,明明网络结构能保证一个更高效的解法Ford Fulkerson算法Improvement的算法。找一个流,然后构造它的剩余图,然后改进。初始解:零...
2020-01-10 08:32:46 415
原创 图像处理与分析
图像压缩概念如果bbb,b′b'b′分别代表相同信息的两种不同表示的比特数,则压缩率定义为C=b/b′C=b/b'C=b/b′,相对信息冗余定义为R=1−1/CR=1-1/CR=1−1/C信息冗余主要有三类:编码冗余、空间和时间冗余(像素间冗余)、不相关的信息(心理视觉冗余)图像压缩的一般框架:每像素的平均比特数的下界为:Lavg≥−∑Pr(rk)log2Pr(rk)L_{avg}...
2020-01-09 15:17:52 2346 1
原创 arxiv笔记190428
目录Learning Better Features for Face Detection with Feature Fusion and Segmentation SupervisionSwitchable Whitening for Deep Representation LearningLearning Better Features for Face Detection with Fea...
2019-04-28 20:02:50 638
原创 arxiv笔记190423
目录Deep Anchored Convolutional Neural NetworkAn Energy and GPU-Computation Efficient Backbone Network for Real-Time Object DetectionBounding Box Regression with Uncertainty for Accurate Object Detection...
2019-04-23 20:26:13 792 1
原创 EAT-NAS: Elastic Architecture Transfer for Accelerating Large-scale Neural Architecture Search
文章地址论文目录EAT-NAS: Elastic Architecture Transfer for Accelerating Large-scale Neural Architecture Search引言相关工作网络结构搜索基于进化算法的NAS弹性结构迁移基本框架搜索域种群质量结构尺度搜索子代结构生成方式实验与结果Stage 1: CIFAR-10Stage 2: ImageNet简化测试结...
2019-01-21 19:37:07 665
原创 网络结构(1)ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices
论文目录ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices引言ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices本文针对计算资源非常有限(10-150 MFLOPs)的移动设备...
2019-01-08 15:47:47 896 1
原创 Detection论文总结(3)FA-RPN: Floating Region Proposals for Face Detection
文章链接:arxiv论文目录FA-RPN: Floating Region Proposals for Face Detection引言相关工作FA-RPN: Floating Region Proposals for Face Detection本文提出了一个新的方法在人脸检测任务中生成候选区域。相比于利用特征图上的一个像素来对anchor分类,我们采用了一种基于池化的方法。然而,池化成百...
2018-12-26 17:14:10 1213
原创 Detection论文总结(2)AutoFocus: Efficient Multi-Scale Inference
论文链接:论文目录AutoFocus: Efficient Multi-Scale Inference引言相关研究背景](论文目录)AutoFocus: Efficient Multi-Scale Inference文章提出了AutoFocus,一种高效的多尺度目标检测算法。相较于以前对整个图像金字塔进行处理,该方法以一种由表及里的姿态,仅处理哪些整体上看来很有可能存在小物体的区域。这个可以...
2018-12-23 22:29:53 3204
原创 Distillation论文总结(3)Face Model Compression by Distill Knowledge from Neurons
论文目录Face Model Compression by Distill Knowledge from Neurons引言人脸模型压缩用神经元选择算法训练学生网络神经元的特征区分能力Face Model Compression by Distill Knowledge from Neurons目前一流的人脸识别都是用深度神经网络或者是其集成系统,然而,昂贵的计算成本阻碍了其实际应用。我们提出...
2018-12-18 12:50:30 808
原创 Detection论文总结(1)Feature Pyramid Networks for Object Detection
文章地址:arxiv论文目录Feature Pyramid Networks for Object Detection引言相关研究特征金字塔网络应用目标检测上的试验Feature Pyramid Networks for Object Detection首先,特征金字塔对于不同尺度的检测问题来说是非常基本的组件,而不同大小的目标往往对应在不同的特征层当中。然而,在最近的一些深度学习检测模型中...
2018-12-13 20:08:29 423
原创 Distillation论文总结(1)Do Deep Nets Really Need to be Deep?
论文地址: NIPS2014; arxiv.论文目录Do Deep Nets Really Need to be Deep?引言模仿学习训练浅层网络模型压缩用L2Loss回归来模仿学习引入线性层加速模仿学习TIMIT Phoneme Recognition目标检测: CIFAR-10讨论为什么蒸馏比直接训练原数据好浅网络的表征能力并行分布处理VS深度顺序处理未来工作结论Do Deep Nets...
2018-12-12 11:49:31 571
转载 Markdown欢迎界面与使用(自存)
欢迎使用Markdown编辑器写博客本Markdown编辑器使用StackEdit修改而来,用它写博客,将会带来全新的体验哦:Markdown和扩展Markdown简洁的语法代码块高亮图片链接和图片上传LaTex数学公式UML序列图和流程图离线写博客导入导出Markdown文件丰富的快捷键快捷键加粗 Ctrl + B 斜体 Ctrl + I...
2018-04-16 14:09:34 452
原创 数字电子技术复习(六)——存储器与可编程逻辑器件
可编程逻辑器件介绍按集成度分为低、高密度可编程逻辑器件 按结构分为PLD(基本逻辑结构是与阵列和或阵列,CPLD基于乘积项技术)和FPGA(查找表技术)。 按编程工艺分为熔丝或反熔丝编程器件(PROM、PAL、PLA)、电擦写的浮栅型编程元件(GAL)、SRAM编程器件(FPGA)。具体结构表示方法注意缓冲器、与或门、连线表示方法。低密度PLD器件由...
2017-06-02 10:37:30 2053
原创 数字电子技术复习(五)——脉冲的产生与整形
本章主要介绍时钟脉冲相关的器件和电路。施密特触发器比较类似于模电里面的迟滞电压比较器吧。它有两个阈值电压,当输入上升到上限阈值电压时输出会翻转;下降到下限阈值电压时也会翻转。、 这种特性称为回差特性,上下限阈值电压之差为回差电压。应用脉冲整形脉冲变换:把变化很慢的正弦波、三角波等变换成矩形脉冲信号鉴幅电路:剔除幅度不够大的脉冲构成多谐振荡器:利用电容与电阻微处理...
2017-06-01 22:39:08 2325
原创 数字电子技术复习(四)——A/D与D/A转换
数/模、模/数转换数/模转换把输入的数字信号转换成与之成正比的输出模拟电压或电流。 转换方法为按权展开法,把输入每一位按其对应权大小转换为相应的模拟量,再利用求和运算放大器相加。 输入数字量为1时的输出电压称为DAC的单位量化电压。显然,可输出的最大电压为uOmax=(2n−1)UΔuOmax=(2n−1)UΔu_{Omax}=(2^n-1)U_\Delta。 多数集成DAC是电...
2017-06-01 15:10:50 3154
原创 数字电子技术复习(三)——触发器和时序电路
只要包含记忆元件的电路就是时序电路,其基本单元是锁存器和触发器。锁存器和触发器锁存器是电平控制数据输入,触发器是脉冲边沿控制数据输入。 注意这两种元件的初态不确定性。 锁存器存在空翻现象锁存器基本RS锁存器置位和复位信号均无效时输出保持,哪个有效输出就是哪个,不允许均有效(Q和Q非均为一,但一起跳为无效后会不确定)。 由于电路存在传输时延,故要求置位和复位脉冲...
2017-06-01 10:22:12 6655
原创 系统动力学复习博客(二)——液压与气动系统
在工业中广泛采用流体(液体或气体)作为传递信号和功率的最通用的介质。液体和气体基本上可由它们的相对不可压缩性,及液体可以有自由表面,而气体能充满其整个容器的性质来加以区分。
2017-05-30 08:32:45 1142
原创 数字电子技术复习(二)——组合逻辑电路与器件
数字逻辑电路分为组合逻辑电路和时序逻辑电路两种,其中组合逻辑电路输出仅取决于当前输入,不存在记忆元件。集成门是组合逻辑电路的最基本器件。 通常遇到的问题分为两类,分别是逻辑电路的分析和设计,其实就是电路连接图和功能表的互相推导。对于中规模逻辑器件,一般要学会查看数据手册中的逻辑符号图和功能表,这样可以了解其外部特性与功能。
2017-05-23 18:18:05 2631
原创 数字电子技术复习(一)——集成门器件
这里开始介绍数字电子技术的一些知识点,第一篇就从最基本的逻辑门器件说起吧。 集成电路有很多种分类方法,可以按集成度分、可以按处理信号的不同分,也可以按晶体管类型分。大多数集成逻辑门都是DIP双列直插式封装的,这里要学会识别DIP封装的引脚号分布。一个芯片上一般有若干个相同但是独立的门电路,每个门电路的输入端数量为扇入数。集成门主要技术指标逻辑电平与噪声容限表示逻辑0和1的几个...
2017-05-22 20:57:35 1772
原创 系统动力学复习博客(一)——机电系统
不多介绍基本的东西了,本博客是以应试为目的。 机电系统主要是要对两大系统建模,(直流)电动机和发电机,所幸这两者的模型基本上没有什么区别。所用到的基本原理是电磁感应和电磁力定律。基本定律电磁力定律带电导体在磁场中,若其电流方向与磁力线方向垂直,则其受到电磁力所用,大小F=BIlF=BIl,方向由左手定则确定:磁力线穿过手心,四指指向电流方向,则大拇指指向力的方向。电磁感应导体以速度vv在垂直于磁感
2017-05-18 17:47:59 1342
原创 Deep Learning学习笔记(二)——BP反向传播算法及其在CNN中的计算
这里主要牵扯的问题是如何利用Cost Function来更新所有参数权值的问题,并针对CNN网络特殊的结构具体应用方式作出一定的总结。
2017-04-24 12:53:09 989
原创 Deep Learning学习笔记(一)——基本介绍
开始学习Deep Learning了,为了使自己学习的过程至于什么都没有留下,决定写一写博客,理一理思路,这样回头复习起来还好复习一点是不是?入门DL是从李宏毅老师的《一天搞懂深度学习》这个PPT开始的,这一部分的简介也是以这个内容为主。
2017-04-21 19:24:25 501
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人