机器学习
文章平均质量分 95
CExploer
智慧、创造、奇迹
展开
-
AAAI 2020,数据增强方法:Random Erasing Data Augmentation
Random Erasing Data Augmentation厦门大学 智能多媒体实验室的一项工作,Leader:李绍滋,发表在AAAI 2020上。Zhong, Zhun, et al. “Random erasing data augmentation.” Proceedings of the AAAI Conference on Artificial Intelligence. Vol. 34. No. 07. 2020.1. 摘要:介绍了一种新的训练卷积神经网络(CNN)的数据增强方法——原创 2021-05-09 00:38:21 · 1194 阅读 · 1 评论 -
机器学习实战——k近邻算法
学习都得有输出,这篇博客用于做自己的日常学习记录,同时也对外开放分享自己的个人学习笔记。这是我正在看机器学习实战这本书,是一本很经典的机器学习与python的书,书中未涉及到tensorflow等框架,但是这些框架基本上都是基于深度学习的,我准备在python的机器学习以及matlab数学建模的算法上探索一翻,体会数学之美。当然,书中有很多的库和函数,这些都是很难记住,即使一边记住了后面也一定...原创 2018-10-19 00:07:50 · 332 阅读 · 0 评论 -
实力分割模型的复现:Windows下的DeepLabv2 tensorflow模型:tensorflow-deeplab-resnet的复现
此博客为博主在复现模型时的记录,好处是问题比较全面,缺点是语言表述可能不够清晰。最近需要用到实力分割模型,之前介于mask rcnn的运行速度过慢,所以这次为了练手,选择了这个实力分割的模型。地址:https://github.com/DrSleep/tensorflow-deeplab-resnet#after-training-i-have-multiple-files-tha...原创 2018-12-20 13:31:32 · 2175 阅读 · 18 评论 -
tensorflow复现googlenet_v1,非高度集成模块
本次使用tensorflow的tf.nn函数,在尽可能少地定义函数的情况下复现googlenet-v1这里demo在每一个inception是堆叠卷积后的结果,使用tf.concat函数可以。这里官方手册上给的通道在前,需要连接的多维矩阵在后,但是高版本的tensorflow是反过来的。新版tensorflow:layer_4a = tf.concat([layer_4...原创 2019-03-29 18:04:31 · 498 阅读 · 1 评论 -
tensorflow手动复现论文中的Resnet34结构(不借助keras和slim模块)
看了resnet的论文,然后手动用tf.nn模块搭建了resnet34。虽然比较累与笨,但是还是方便了我的理解。这里说说我的理解,残差网络主要是为了防止退化,因此会将特征跳动到下一个以防衰退。实线部分就是将前面的model与卷积后的model直接相加,形状不变的。而后面的虚线怎么理解呢?虚线是因为前面的model和后面的model不一样的shape。这里论文中说可以通过填充0来解决...原创 2019-04-15 11:23:17 · 2706 阅读 · 12 评论 -
Inception4的tensorflow实现,主要借助nn模块
实现inception4网络,这是googlenet与resnet结合的卷积神经网络。本文按照论文复现,论文中的InceptionA,InceptionB,InceptionC,以及reduction模块已写入函数,此次也将卷积函数简化,具体见demo:# -*- coding: utf-8 -*-"""Created on Fri May 31 2019@author: Ruoy...原创 2019-05-31 11:36:08 · 783 阅读 · 0 评论 -
Yolo v3目标检测模型代码使用
最近使用yolo作为目标检测的模型,此代码使用的是keras与python,在环境配置问题上会很方便。该文档主要是为了留给自己实验室的同学为了能快速使用深度学习的目标检测模型,主要讲究应用,而不是研究yolo的内部结构。我个人认为keras框架的确简单方便,但是也有很多的不方便,比如在此yolov3工程中我们就很难实现训练一部分同时保存模型,而tensorflow就可以很好地解决。如在运行...原创 2020-02-28 19:28:41 · 4311 阅读 · 8 评论