深度模型(GAN的扩展)提出一种基于贝叶斯方法的数据扩展方法

深度学习中分类和识别需要大量数据集,为解决数据集稀少问题,可采用数据增强方式增强模型鲁棒性。本文先介绍传统数据增强方法,后提出基于贝叶斯方法的GAN数据增强方式,阐述了数据扩展流程、Bayesian Neural Networks及优化函数,该方法优点在图像分类任务中得到验证。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、总览

在进行深度学习的时候,不管是分类还是识别,都需要大量的数据集,为了解决数据集稀少的问题,我们可以通过各种数据集增强的方式来增强模型的鲁棒性。
在这之前我们用到了传统的数据增强方式,比如:图像旋转,图像翻转,仿射变换,噪声添加,图像色彩干扰等各种方法(详情请看),先如今我们来使用GAN(基于贝叶斯方法)来增强数据
论文:https://papers.nips.cc/paper/6872-a-bayesian-data-augmentation-approach-for-learning-deep-models.pdf

数据增强的过程自动生成新的带注释的训练样本。通过应用于带注释训练样本的随机几何或外观变换来获得新的训练样本,

数据扩展方法整体流程如下:
在这里插入图片描述

二、深度学习中的数据增强算法

Bayesian Neural Networks

我们的目标是使用注释的训练集来估计深度学习模型的参数。记为 Y = { y n } n − 1 N \mathcal{Y} = \{\rm y_n\}_{n-1}^N Y={yn}n1N ,当 y = ( t , x ) \rm y = (t,x) y=(t,x), t ∈ { 1 , 2 , . . . , K } ( K ≠ C l a s s e s ) t \in \{1,2,...,K\} (K\neq \rm Classes) t{1,2,...,K}(K̸=Classes) 数据集表示为 x ∈ R D \rm x \in \R^D xRD,模型参数为 θ \theta θ。训练过程的优化问题定义如下:
θ ∗ = arg max ⁡ θ   log ⁡ p ( θ ∣ y ) \theta^* = \textrm{arg} \max _ {\theta}^~ \log p(\theta|y) θ=argθmax logp(θy)

由于 p ( θ ∣ y ) = p ( θ ∣ t , x ) ∝ p ( t ∣ x , θ ) p ( x ∣ θ ) p ( θ ) p(θ|y) =p(θ|t,x)∝p(t|x,θ)p(x|θ)p(θ) p(θy)=p(θt,x)p(tx,θ)p(xθ)p(θ)
假设数据样本 Y \mathcal{Y} Y是条件独立的,最大化的代价函数定义为:
log ⁡ p ( θ ∣ y ) ≈ log ⁡ p ( θ ) + 1 N ∑ n − 1 N ( log ⁡ p ( t n ∣ x n , θ ) + log ⁡ p ( x n ∣ θ ) ) \log p(\theta|\textrm{y}) \approx \log p(\theta)+\frac{1}{N}\sum_{n-1}^{N}(\log p(t_n|\textrm{x}_n,\theta)+\log p(\textrm{x}_n|\theta)) logp(θy)logp(θ)+N1n1N(logp(tnxn,θ)+logp(xnθ))

在这里插入图片描述

优化函数

在这里插入图片描述

在本文中,我们提出了一种新的贝叶斯DA,改进了深度学习分类模型训练进程。与目前主要的对观测到的训练样本应用随机变换的方法不同,我们的方法在理论上是合理的;缺失的数据是从从带注释的训练集学习的分布中采样的。然而,我们不训练生成分布独立于训练的分类模型。相反,两个模型都是基于我们提出的贝叶斯DA公式联合优化的,该公式将统计学习中的经典潜变量方法与现代深生成模型联系起来。我们的数据增强方法的优点在几个图像分类任务得到验证。

项目地址;
https://github.com/toantm/keras-bda
https://github.com/lukedeo/keras-acgan

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

SongpingWang

你的鼓励是我创作的最大动力!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值