- 博客(18)
- 资源 (15)
- 收藏
- 关注
原创 OpenCV学习 基础图像操作 (五):Smooth和Blur
常用滤波器均值滤波均值滤波也称为线性滤波,其采用的主要方法为邻域平均法。线性滤波的基本原理是用均值代替原图像中的各个像素值,即对待处理的当前像素点(x,y),选择一个模板,该模板由其近邻的若干像素组成,求模板中所有像素的均值,再把该均值赋予当前像素点(x,y),可用下面公式表示:特点:均值滤波本身存在着固有的缺陷,即它不能很好地保护图像细节,在图像去噪的同时也破坏了图像的细节部分,从而使图像变得模糊,不能很好地去除噪声点。中值滤波中值滤波是基于排序统计理论的一种能有效抑制噪声的非线性
2020-06-27 15:26:49 1590 1
原创 OpenCV学习:基础图像操作 (四):绘制几何图形
API简介//基础数据结构//点Point p1=Point(100,100)Point p2; p2.x = 200; p2.y = 300;//矩阵Rect rect = Rect(200,100,300,300);//起点x,y,长300,宽300//颜色向量Scalar color = Scalar(0,0,255);//画线line(bgImage,p1,p2,color,1,LINE_8);//背景图片,起点,终点,颜色向量,线条粗细,线条类型//线条类型:L
2020-06-27 10:45:17 445
原创 On Convergence and Stability of GANs(小白学GAN :十四)
原文链接:https://arxiv.org/pdf/1705.07215v5.pdf简介基础结构代码实践
2020-06-26 09:04:20 1588 6
原创 OpenCV学习:基础图像操作 (三):对比度与亮度调整,图片融合
图片对比度与亮度在图像像素公式g(x)=a*f(x)+b其中:参数f(x)表示源图像像素。 参数g(x) 表示输出图像像素。 参数a(需要满足a>0)被称为增益(gain),常常被用来控制图像的对比度。 参数b通常被称为偏置(bias),常常被用来控制图像的亮度。图片融合意义:将多张图片中的信息关联起来,使得单张图片包含更多的信息元素,方便后续地控制处理。方法:基于深度学习:使用GAN网络生成,使用编解码网络生成,使用特征图融合技术等 基于图像处理:像素...
2020-06-26 08:50:32 812
原创 OpenCV学习:基础图像操作 (二):Mat对象的使用
Mat对象构造函数与复制//构造函数Mat()Mat(int rows,int cols, int type) // rows 行数Mat(Size size,int type) // cols 列数Mat(int rows,int cols,const Scalar &s) // Size 图片大小(x,y)Mat(int ndims, const int *sizes, int type) // ndim
2020-06-25 01:30:37 659
原创 OpenCV学习:基础图像操作 (一):打开、显示、保存图像,用像素指针访问图像像素
1.打开图像#include <opencv2/opencv.hpp>#include <iostream>using namespace cv;int main(int argc, char** argv){ //打开图片 Mat src = imread("1.jpg"); //判断图片是否成功打开 if(src.empty()) { printf("打开图片不存在!"); retur
2020-06-24 00:17:44 546
原创 Paddle强化学习从入门到实践 (Day5):连续动作空间的求解
离散空间和连续空间之前我们做出的决策都是基于离散状态的,简单来说是类似于在做“选择题”。而连续的动作,我们输出的将不是某个动作,而是更加细致的动作的程度,类比深度学习的分类任务与回归任务。当然,具体选何种模型可以根据具体情况灵活选择,有时离散动作和连续动作之间是可以灵活转换的。选择回归模型,那么意味着输出动作种类是无限多的,因此为了减少不确定性,使用连续动作输出的模型时,使用的是确定性策略,即同样的输入会得到同样的输出,而随即策略是有一定的概率得到不同的输出结果的。用于连续动作输出的值我
2020-06-23 19:51:35 1474 1
原创 Paddle强化学习从入门到实践 (Day4)基于策略梯度求解RL:PG算法
基于值与基于决策在强化学习中,有两大类方法,一种基于值(Value-based),一种基于策略(Policy-based)Value-based的算法的典型代表为Q-learning和SARSA,将Q函数优化到最优,再根据Q函数取最优策略。 Policy-based的算法的典型代表为Policy Gradient,直接优化策略函数。两者的区别一目了然,即一种是根据价值以确定的方案去决策,另一种直接一步到位得出决策的结果,而不是依次计算每个状态的奖励后去逐步做决策的。随机策略在
2020-06-21 15:53:25 906
原创 Paddle强化学习从入门到实践 (Day3)基于深度学习的方法:DQN
背景简介在现实场景中有很多情况,我们无法简单的抽象为一些离散的状态(或者离散后状态过多),导致我们没有办法使用基于表格的方法,那么此时我们就应该引入深度学习的方法来帮我们感知状态,充当Q函数来求此状态下各Action的Q。值函数就是Q函数,Q表格的作用就是可以根据输入状态的动作来查表并输出Q值表格方法的缺点:表格可能占用极大内存 当表格极大时,查表效率低下那么实际上,我们就可以用带参数的Q函数来近似Q表格,比如可以用多项式函数或者神经网络使用值函数近似的优点:仅需存储有限的参数 状
2020-06-21 00:43:00 580
原创 Paddle强化学习从入门到实践 (Day2)基于表格的方法:Sarsa和Q-learning
SarsaSarsa全称是state-action-reward-state'-action',目的是学习特定的state下,特定action的价值Q,最终建立和优化一个Q表格,以state为行,action为列,根据与环境交互得到的reward来更新Q表格,更新公式为: Sarsa在训练中为了更好的探索环境,采用ε-greedy方式来训练,有一定概率随机选择动作输出。Q-learningQ-learning也是采用Q表格的方式存储Q值(状态动作价值),决策部分与Sarsa是一...
2020-06-18 13:38:54 409
原创 Unsupervised Pixel–Level Domain Adaptation with Generative Adversarial Networks(小白学GAN 十二)
原文链接:https://arxiv.org/pdf/1612.05424.pdf简介基础结构代码与实践结果
2020-06-18 10:08:11 795
原创 Paddle强化学习从入门到实践 (Day1)
强化学习简介定义:强化学习(英语:Reinforcement learning,简称RL)是机器学习中的一个领域,强调如何基于环境而行动,以取得最大化的预期利益。核心思想:智能体agent在环境environment中学习,根据环境的状态state(或观测到的observation),执行动作action,并根据环境的反馈 reward(奖励)来指导更好的动作。简单归结为下图: 注意:从环境中获取的状态,有时候叫s...
2020-06-17 23:20:39 803
原创 Least Squares Generative Adversarial Networks(小白学GAN 十一)
原文链接:https://arxiv.org/pdf/1611.04076.pdf简介背景:原始的GAN使用sigmoid与cross entropy来优化判别器,这样会存在如下问题:当部分生成数据远远偏离真实数据分布时,判别器的LOSS却无力将其区分出来,也就是说当真实数据分布被生成数据分布所覆盖时,判别的作用就失效了。核心思想:去掉sigmoid激活函数,将LOSS函数换为最小均方LOSS,拟合的意义从判断两个分布是否“靠近”,变为判断两个分布是否“相似”。基础结构网络改进
2020-06-16 13:17:32 1371
原创 Energy-Based Generative Adversarial Networks(小白学GAN 十)
原文链接:https://arxiv.org/pdf/1609.03126.pdf简介背景:此文又回到了GAN绕不过的难题上,即如何稳定优化,本篇文章与之前“WGAN”和“W系列GAN”不同,它并不是通过设计目标函数来达到此目的,而是另辟蹊径通过改变判别器的结构来实现的。核心思想:将判别器改为一个能量函数,使得数据在流行分布附近时能量低,在其他地方时能量高。由上图可知,判别器的结构发生了改变,不似以往单一的神经网络结构,而是由一对编码器与解码器组成,且能量的输出是基于整个编解码结构来构造
2020-06-05 20:59:14 1000
原创 Coupled Generative Adversarial Networks(小白学GAN 九)
原文链接:https://arxiv.org/pdf/1604.07379.pdf简介基础结构代码与实践结果
2020-06-04 20:06:46 759
原创 Interpretable Representation Learning by Information Maximizing Generative Adversarial Net(小白学GAN 八)
原文链接:https://arxiv.org/pdf/1606.03657.pdf简介
2020-06-02 17:37:07 474
原创 Semi-Supervised Learning with Generative Adversarial Networks(小白学GAN 七)
原文链接:https://arxiv.org/pdf/1606.01583.pdf简介
2020-06-02 00:41:04 1073
keras_mnistm.pkl.gz
2020-06-04
graphviz-2.38.rar
2019-10-22
计算机英语基础
2018-03-23
rtl8192eu-linux-driver-master(TL-WN821N 在kali上的驱动)
2017-02-15
s3c44b0x中文数据手册
2017-02-01
51单片机下载说明
2017-02-01
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人