【视觉入门】——空域图像增强(邻域运算部分):图像卷积、多种滤波器;二值图像分析及形态学图像处理 本篇接上篇,介绍了空域图像增强方法中的领域运算,也即卷积运算。并基于此介绍了多种滤波器。最后,补充了二值化相关与形态学图像处理的相关知识
【视觉入门】——图形处理基础知识、BMP图像文件介绍、空域图像增强(点运算部分)——图像间变换、灰度变换、直方图变换 本篇博客主要介绍了图形处理的入门基本知识,相关的图像概念,以及空域图像增强的点运算部分
Ubuntu18.04安装配置使用Intel RealSense D435i深度相机以及在ROS环境下配置 最近因为学习开发需要,要开始接触一些视觉相关的内容,拿到了一个Inter 的D435i深度相机,记录一下在Ubuntu18环境下配置SDK 包的历程。
【数字信号处理】基于Matlab Designer制作的信号生成、叠加与检测器 工程测试技术课程作业,实现不同信号的输入与叠加以及实时观测,并使用matlab自带的播放功能,可以从听觉上感知信号的输出。
DQN网络代码调用env.reset()后存储观测信息报错问题ValueError: setting an array element with a sequence.解决处理 **reset()函数返回的是一个array类型以及其中数据的type!模拟游戏进行学习任务。因此需要将observation指定为真正需要的array信息即可,得到的的变量observation类型与Agent存储时的。因此怀疑返回的observation有问题,于是通过。报错信息提示为数据维度不对应,也即最初通过。在强化学习DQN网络代码实现过程中,针对。
【从RL到DRL】深度强化学习基础(五)离散控制与连续控制——确定策略梯度方法(DPG)、使用随机策略进行连续控制 本文为深度强化学习基础的第五篇,介绍了从离散控制进阶到连续控制,分别介绍了确定策略梯度方法进行连续控制,以及使用随机策略进行连续控制
【从RL到DRL】深度强化学习基础(四)——策略梯度中的Baseline,Reinforce与A2C的对比 本文Hi胜读强化学习基础的第四篇博客,主要学习记录了策略梯度中使用Baseline方法来降低动作价值函数的方差,提高收敛速度;并介绍了A2C方法,分析了其与Reinforce的联系与差别。
【从RL到DRL】深度强化学习基础(三)——蒙特卡洛算法、TD算法改进:经验回放与高估问题的优化——Target网络与Double DQN,DQN结构改进——Dueling网络 本文为深度强化学习的第三篇,承接上篇介绍了蒙特卡洛算法的应用,并结合TD算法的具体缺点,从两个角度介绍了两个改进方案——经验回放与高估问题优化,最后介绍了对DQN网络结构的优化——Dueling Network 结构
【从RL到DRL】深度强化学习基础(二)——Actor-Critic Methods中策略与价值网络机构以及算法迭代过程、实例分析——AlphaGo的训练过程、蒙特卡洛树初步 本文是深度强化学习基础的第二篇,从AC算法的角度接入,并介绍了AlphaGo的训练流程以及其中涉及到的相关知识。
【从RL到DRL】深度强化学习基础(一)——基本概念、价值学习(DQN与TD算法)、策略学习与策略梯度 本篇为深度强化学习基础的第一篇,回顾并介绍了强化学习中的一些基本概念,并初步阐释了神经网络在策略学习与价值学习中的应用。
【从RL到DRL】强化学习基础(三)——动态规划、小型网格世界中的随机策略评估 本文为强化学习基础的第三篇内容,主要记录了基于动态规划方法求解贝尔曼期望方程的迭代算法,以及相应的迭代策略评估、策略迭代、价值迭代内容
【从RL到DRL】强化学习基础(二)——马尔可夫决策过程与相关贝尔曼方程 本文为强化学习基础的第二篇内容,主要围绕马尔可夫性质与马尔可夫奖励、决策过程展开,并通过回溯图等形式深入分析了贝尔曼方程与贝尔曼最优方程的组成与意义
人工智能原理自学(五)——序列依赖问题、循环神经网络与LSTM网络自然语言处理实践 人工智能原理入门的最后一篇内容,主要实现了基于循环神经网络的语言处理过程,初步介绍了经典RNN网络结构以及LSTM网络结构