计算机视觉
文章平均质量分 96
Zhqi HUA
同济大学计算机系在读
展开
-
超宽带被动单光子成像 论文解读(Passive Ultra-Wideband Single-Photon Imaging)
当前高速成像的基本法则是:场景变化越快,就需要越多的光线来精确成像才不会有过多的噪声和运动模糊,所以在低通量环境无法实现。需要操作相机和信号源之间的同步频率,使用相同的重复频率成像。捕捉超快事件的同时无法同时捕捉较慢事件,因为同步周期是无法准确捕获事件的边界。时间在同步周期结束,在较长时间跨度内发生的任何事情都会被模糊化。简单来说,在低光条件下,现有的单光子相机的光通量估计技术无法适用于秒到皮秒级时间尺度的成像。因此本文开发了一种基于随机微积分(stochastic calculus)和。原创 2023-10-10 16:56:52 · 184 阅读 · 1 评论 -
AlexNet 论文解读 - ImageNet Classification with Deep Convolutional Neural Networks
提出的AlexNet基于卷积神经网络,限定了层数,提出激活函数ReLUReLUReLU和局部反应归一化方法LRNLRNLRN,使用数据处理、DropoutDropoutDropout等方法应对过拟合。原创 2023-10-05 17:34:33 · 209 阅读 · 0 评论 -
VGG Net 论文解读 - Very Deep Convolutional Networks for Large-scale Image Recognition
本文基于现有的卷积神经网络模型基础上,对其模型结构进行优化。本文所做的优化是增加模型深度(Depth),即增加更多的卷积层。而使用3x3的小卷积和可以使得高深度模型中数据的规模不会快速减小(图像上表现为不会过于降低分辨率)。改进后的模型在图像识别任务上有前所未有的精度,在2014年ImageNet挑战赛中获得了头把交椅。原创 2023-09-29 23:02:28 · 124 阅读 · 1 评论 -
Transformer 模型论文解读 - Attention Is All You Need
对于解决序列转导问题(常用的有语言建模、机器翻译、语音识别等) ,当前较为流行的方法是使用递归神经网络(特别是长短时记忆/门控递归神经网络)and这些任务的完成本质上使用的是注意力机制Attention使用神经网络进行注意力机制的计算受到顺序计算的限制(前馈传播),无法使用并行计算,即使使用因子分解和条件计算也不能更快的提高性能。因此引入模型。完全依赖于注意力机制,绘制输入输出的全局依赖关系。注意力机制:(即为该元素和前后文之间的关系)允许模型在特定位置生成输出时将注意力集中在输入序列的不同部分。原创 2023-09-24 15:24:57 · 117 阅读 · 1 评论 -
Numpy 1.2+(Scipy) 矩阵运算与图像处理
numpy库是python中的基础数学计算模块,主要以矩阵运算为主;scipy基于numpy提供高阶抽象和物理模型。本文使用版本,该版本相对于1.1不再支持scipy.misc等模块,故推荐使用Pillow库中的相关函数代替。python #命令行进入py环境 >> > import numpy >> > numpy.__version__直接使用array。原创 2023-04-14 10:42:52 · 301 阅读 · 0 评论