胖大海pyh
这个作者很懒,什么都没留下…
展开
-
深度学习自学记录(3)——两种多分类混淆矩阵的Python实现(含代码)
深度学习自学记录(2)——两种混淆矩阵的Python实现(含代码)1、什么是混淆矩阵2、分类模型评价指标3、两种不同混淆矩阵三级目录1、什么是混淆矩阵深度学习中,混淆矩阵是ROC曲线绘制的基础,同时它也是衡量分类型模型准确度中最基本,最直观,计算最简单的方法。它可以直观地了解分类模型在每一类样本里面表现,常作为模型评估的一部分。首先要明确几个概念:真正例(True Positive,TP):...原创 2020-04-19 14:19:10 · 12364 阅读 · 11 评论 -
实例分割总结 Instance Segmentation Summary(Center Mask、Mask-RCNN、PANNet、Deep Mask和Sharp Mask)
实例分割总结 Instance Segmentation Summary实例分割常用网络总结Mask-RCNN网络PANnetDeep Mask和Sharp MaskCenterMask二阶段(two-stage)实例分割方法一阶段(one-stage)实例分割方法实例分割常用网络总结实例分割网络经常接触到有:Mask-RCNN:基于Faster-RCNN的改进,加了一个语义分割的分支FCN网络,是自顶而下的思想(先检测到包围框实现了分类,再对每一个包围框进行语义分割。检测结果中每一个目标的标签是不同原创 2020-07-19 18:38:33 · 3092 阅读 · 0 评论 -
深度学习自学记录(7)——yolov3的整体流程四大步详细纪录
深度学习自学记录(7)——yolov3的实现思路个人纪录整体流程二级目录三级目录整体流程二级目录三级目录原创 2020-05-15 17:14:38 · 2345 阅读 · 1 评论 -
深度学习自学记录(6)——标准化、归一化和BatchNormal的理解
深度学习自学记录(6)——归一化和BatchNormal的理解1、标准化与归一化1.1归一化的目的和优势1.2常用的数据标准化方法2、BatchNormal2.1BN算法强大之处2.2BN算法诞生的背景与目的2.3BN算法思路2.4BN算法实战2.5Keras中的Batch Normalization3、总结4、参考1、标准化与归一化数据的标准化(normalization)是将数据按比例缩放,使之落入一个小的特定区间,或有特定的数据分布。在某些比较和评价的指标处理中经常会用到,去除数据的单位限制,将其原创 2020-05-11 18:44:05 · 4425 阅读 · 3 评论 -
深度学习自学记录(5)——简单明了地实现Keras的生成对抗网络(GAN)(含代码)
深度学习自学记录(5)——简单明了地实现Keras的生成式对抗网络(GAN)1、生成式对抗网络(GAN)的原理2、GAN的训练思路3、GAN的Keras实现1、生成式对抗网络(GAN)的原理2、GAN的训练思路3、GAN的Keras实现...原创 2020-04-27 13:50:49 · 1588 阅读 · 0 评论 -
深度学习自学记录(4)——模型训练过程中调参经验(持续更新中。。。)
因为课题的需要,我也训练过几个自己的模型,并对yolov3和faster rcnn做了一些改进。抱着学习的态度记录一下模型训练过程中调参的一些经验。。。怕的就是以后忘记还要翻来覆去的找资源。。。。1、要想训练自己的模型,首先找一个能跑通的的其他任务的架子,在它的基础上修改。2、先准备一个小的数据集试试水,看模型能不能过拟合。如果不能过拟合,可能是学习率设置太大;调小学习率仍不能过拟合那就要检查...原创 2020-04-20 17:05:15 · 1319 阅读 · 0 评论 -
深度学习自学记录(2)——Keras迁移学习(升级版)+模型融合实现详解
最近时间充裕在学习深度学习,用博客记录一下自己的理解,毕竟好记性不如烂笔头。如果有错误的地方,希望大家指正,一起进步。如果这篇博客对你有帮助,点赞支持一下,码字不易。。。。。迁移学习是深度学习中常用的一个手段,从头开始训练一个模型需要耗费大量的资源,在训练好的权重(预训练)的基础上训练自己的模型是迁移学习的重要思想。Keras 的应用模块(keras.applications)提供了带有预训练权...原创 2020-04-12 20:19:08 · 6542 阅读 · 9 评论 -
深度学习自学记录(1)——Tensor的维度理解(参数axis)
**深度学习自学记录——Tensor的维度理解(axis)**本人小白自学深度学习时,涉及到矩阵和数组的计算常常出现参数axis,一直搞不懂矩阵和数组中axis参数的含义,参考了大佬的博客在这里记录一下自己的理解,毕竟好记性不如烂笔头。张量(tensor)首先了解一下什么是张量,它可以看作是向量和矩阵的自然推广。0维张量表示的是一个数(点),1维张量表示的是一个向量(线),2维张量是一个...原创 2020-04-08 19:18:18 · 2878 阅读 · 5 评论