深度学习
Tourior
这个作者很懒,什么都没留下…
展开
-
腾讯TNN相关资料 整理
腾讯TNN相关资料 整理文章目录腾讯TNN相关资料 整理资料资料多场景适配,TNN如何优化模型部署的存储与计算Github–TNN Tencent -TNN 学习 pytorch模型部署到移动端原创 2020-07-20 14:07:24 · 473 阅读 · 0 评论 -
Opencl学习资料整理
OPENCL学习资料文章目录OPENCL学习资料Opencl 博客资料OPENCL书籍资料OPENCL实例代码OPENCL错误码Opencl 博客资料麦克老狼 非常好的讲解资料OPENCL错误码整理OPENCL书籍资料OPENCL实例代码OPENCL错误码...原创 2020-04-22 20:33:27 · 512 阅读 · 0 评论 -
行人重识别AlignedReID:AlignedReID: Surpassing Human-Level Performance in Person Re-Identificat 重点亮点学习资料整理
行人重识别(Person re-identification)论文:AlignedReID: Surpassing Human-Level Performance in Person Re-Identification旷视科技Face++的研究团队–首次识别效果超越人类论文链接arxiv论文学习:中文翻译Re-ranking原理解释triplet loss原理推导及其代码实现m...原创 2018-11-07 10:38:34 · 2411 阅读 · 0 评论 -
keras 冻结指定层(设置为不可训练/可训练)
Fine-tune 冻结固定层fine-tune 某些公开模型时,由于我们自己的任务类别数会与公开模型的类别数不同,因此通常的做法是将模型的最后一层的改变,并且固定全连接层之前的模型权重重新训练如下面的例子,我们使用inceptionV3 模型作为base model,后面接上1*1的卷积层和全连接层。为了复用InceptionV3模型的参数,应当设置base model不可训练及冻结bas...原创 2018-11-07 14:12:52 · 17249 阅读 · 3 评论 -
Keras 使用Residual-Block 加深U-net网络的深度
#Keras Residual-Block+U-net将residual-block加在U-net上,增加U-net的深度# batchnormalization 后激活def BatchActivate(x): x = BatchNormalization()(x) x = Activation('relu')(x) return x# 卷积blockdef c...原创 2018-11-08 14:45:24 · 7917 阅读 · 10 评论