自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 资源 (1)
  • 收藏
  • 关注

原创 归并分类算法C++实现(递归/非递归/自然合并)

归并排序 归并分类的方法是算法分析中的重要内容,传统的归并排序(递归实现,空间复杂度为O(n))较为适合初学者理解分治法的思路,同时也很好地体现了递归分解的思想。 基本思想: (1)将待排序元素分成大致相同的两个子集合 (2)分别对两个子集合进行排序 (3)将排好序的两个子集合并成一个排好序的集合 一、递归法。 将长度为n的数组,从中间递归分隔为n个自然有序的单个元素,再两两合并,最终合并为有序的整体。 具体 实现代码如下: void mergesort(int* a,int low,int high){

2021-05-10 18:14:29 1447

原创 Sarsa 对比 Q-Learning

Sarsa 对比 QLlearning 算法 Sarsa 的决策部分和 Q-Learning 一模一样, 因为我们使用的是 Q 表的形式决策, 所以我们会在 Q 表中挑选值较大的动作值施加在环境中来换取奖惩。但是不同的地方在于 Sarsa 的更新方式是不一样的。 从上图中可以看到,Sarsa的Q值更新,直接选取最大潜在奖励的动作,直接执行;而Q-learning 在这一步只是估计了一下接下来的动作值,但是在真正要做决定时, 却不一定会选取到那个带来最大奖励的动作。 从算法上来看,Sarsa属于On-pol

2021-03-21 09:37:55 351

原创 强化学习 Q Learning 学习笔记1(莫烦PYTHON)

本篇博文是博主在莫烦PYTHON博客中的学习笔记,不用于任何商业用途,仅用于个人学习交流! Q Learning Q Learning 整体算法如下图: 参数 意义 ϵ−greedy\epsilon-greedyϵ−greedy 用在决策上的一种策略 α\alphaα 学习率(小于1), 用来决定这次的误差有多少是要被学习的 γ\gammaγ 对未来 reward 的衰减值. 比如 ϵ\epsilonϵ = 0.9 时, 说明有90% 的情况会按照 Q 表的最优值选择行为,

2021-01-22 22:47:38 221 1

吉大软院C++课设模拟即时通信系统.zip

对QQ,微信和微博各系统进行整合,形成统一的立体社交软件平台,并完成该平台的设计和实现。

2021-12-16

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除