深度学习
tbw5201
这个作者很懒,什么都没留下…
展开
-
跨域语义分割CrDoCo
跨域语义分割1.介绍主要是讲一个域(源域)中学习到的知识应用到另外一个域(目标域)中。由于由于域移位问题(即源和目标数据集之间的域间隙),所学习的模型通常无法概括到新数据集。本文贡献:1)提出了一种对无监督域适应的对抗学习方法,其适用于广泛的密集预测任务;2)提出了跨域一致性损失,为网络训练提供了额外的监控信号,从而进行更准确和一致的任务预测;3)性能目前最强。源代码:https://yunchunchen.github.io/CrDoCo/2.模型结构主要有两个模块:1)图像-图像翻译网络;2)原创 2021-04-22 11:35:00 · 967 阅读 · 0 评论 -
手推前向与后向传播
原创 2021-01-20 15:23:40 · 137 阅读 · 0 评论 -
集成学习之Bagging
集成学习之Bagging① Bagging又叫自助聚集,是一种根据均匀概率分布从数据中重复抽样(有放回)的技术。② 每个抽样生成的自助样本集上,训练一个基分类器;对训练过的分类器进行投票,将测试样本指派到得票最高的类中。③ 每个自助样本集都和原数据一样大④ 有放回抽样,一些样本可能在同一训练集中出现多次,一些可能被忽略过程:输入:训练集 D={(x1, y1), (x2, y2), (x3, y3), …(xm, ym)};基学习算法#(网络模型net);训练轮数T.过程:1:f原创 2020-11-12 11:26:54 · 804 阅读 · 1 评论 -
GoogLeNet阅读笔记
论文地址摘要提出了一种名为GoogLeNet的深度神经网络,该神经网络共有22层。在保证预算不变的情况下,增加了网络的深度和广度,架构设计时基于Hebbian principle和多尺度处理。引言目前该领域大部分的进步不仅仅是更强大的硬件、更大的数据集和更大的模型的结果,而是新思想、算法和改进的网络架构的结果。相关工作 从LeNet-5开始,CNN已经有了标准的结构----堆叠的卷积层后面加一或多个全连接层。对于一些大型数据集,一种趋势是增加层的数量和层的大小,而用dropout处理过拟合原创 2020-10-13 14:52:18 · 122 阅读 · 0 评论