如何让自己像打王者荣耀一样发了疯、拼了命、石乐志的学习?

阶段性反馈机制(如何持之以恒、让自己发疯)
反馈机制是王者荣耀的核心武器,击杀野怪获得金币,击杀敌人之后的画面、音效刺激大脑,不断地努力,获得奖励是我们不断的玩这个游戏的主要原因,也是人的本能,我什么都得不到凭什么这么做?,对记得初二的时候,父亲说如果你能考全校第三我就给你买一台电脑,当时我从全校几十名考到了全校第二,而这只用了一个月的时间,还有,我希望给电脑换一个内存条,为什么?因为我希望电脑变得很快,对奖励机制十分重要,所以如果想要努力的做一件事情,就要反复的告诉自己我如果做成功了,能得到什么?而能得到的这件东西也是你特别想要得到的东西,包括名利、金钱、女朋友,人类都是有欲望的,这是不可争的必然存在的无须掩饰的事实,而我们为什么不把这些略显丑陋的东西转化为我们努力前进过程的一个诱饵,得到与否,可耻与否不重要,重要的是得到了努力的过程。

而阶段性的反馈机制更是重要,王者荣耀多玩一局,就能攒更多金币买新的铭文;补一个兵就能得到金币,致使你最终达到摧毁水晶的目的,如果中间没有补兵、升级、击杀带来的快感、强化装备这些实时的反馈,估计没人能够坚持十几二十分钟甚至半小时(LOL时间更长)的时间来不停的摩擦手机屏幕。包括嗑瓜子,为什么人们嗑瓜子,都是一个接一个?停不下来,因为这件事情轻而易举,只需要抬抬手,就能很快得给我们反馈,让我们感到愉快,所以就会对嗑瓜子这件事情乐此不疲。为什么刷抖音一刷半天过去了,可是自己却感觉不到。可是学习,一天、两天、一周、一个月、半年,甚至一年都没有什么变化,看不到成效,可是突然有一天,你会发现自己,hia hia 流弊 ~ 可是很多人都等不到那一天。

为什么打游戏的过程中不能被干扰,一次坐公交车,我前方的女士在玩鲁班,男朋友一个电话过来,挂掉,接着打,男朋友又打来,接了,游戏输了,然后她回电话给男朋友,我们分手吧。为什么游戏中一分一秒都显得那么的珍贵?因为你现在每补的一个兵,每击杀的一个地方英雄都直接影响到最终的胜利,而你在这个过程中也越来越强,这也是一种实时的反馈。之前的穿越火线、DNF、QQ飞车等都没有这种机制,我想这也是为什么英雄联盟能够长时间霸榜的原因之一吧。

当然也可以理解为收获,就像我学习了一项技能,如果这项技能用不到,久而久之就荒废了,我学他没用啊,对不对。如果我学习了这项技能,短期内工作中用到了,获得了金钱的回报,那也能持久的学习下去了吧我认为。

为此我们应该:

反复的告诉自己只有努力的xxx才能得到xxx,只要努力xxx就一定能得到xxx。
每完成一个小目标就给自己一个小小的奖励:看场电影、买一套新衣服、cherry键盘、换一个手机、换一个mac、说走就走的旅行,你能想到的自己想要的能满足自己欲望的但是平时又不敢或者不舍得且来之不易的东西。人都是有欲望的,当然如果你的欲望就是学习,那你就奖励自己再学五百年吧~哈哈(注意:这里的奖励不要是让人上瘾的东西,你奖励自己打游戏、刷肥皂剧,那不在骗自己吗?)
比如马上速度与激情:特别行动就要上映了,好像是八月二十三号,可以把这个当做奖励,督促自己在这段时间完成某个小目标,然后就去嘿嘿嘿~
比如每学习完某个小的阶段,奖励自己看一部电影(提前将自己最最最最最喜欢看的电影列一个清单)或者奖励自己弹两小时吉他。
当你第一次出色完成任务,并得到奖励,后面再进行“反馈”,会轻松很多,如此往复,直到建立了完整的反馈机制,那你的身体就能跟着你的思想走了,也就可以把自己玩的团团转了。
坚持玩那个种树的游戏(具体的名字我先不说了,不是打广告),将自己的学习量化,让自己知道自己努力了(虽然看起来像是仪式感太强,但是我觉得表面努力也是一种努力,不应该完全忽略,还有学习不应该怕被别人发现)。这是我认为目前将奖励机制做的最好的时间管理软件,最后希望能种植一棵真正的树,也算小小的成就感吧~哈哈
Leetcode等网站做题,做出其中一道题也会给人短暂的快感、成就感
在工作中,以每一个问题为目标,每解决一个问题给自己及时反馈,不仅自我提升,还能涨工资。
在电脑桌、床头等地方放几个相框,相框里面是能够激励自己的事物(比如喜欢公司的办公楼、喜欢的大学、喜欢的美女、喜欢的豪车、面朝大海的房子等)。
番茄工作法,这也是一种奖励机制,25分钟的高度集中,换来放松5分钟的奖赏,多次重复,形成习惯,让自己形成条件反射,能够更加专注的做事,说实话我们确实需要跟自己的身体进行有效的谈判,而不是强制。(番茄时间和休息时间根据自己实际情况调整)
Forest的种树间隔默认是25分钟,番茄TODO、滴答清单,等也都能设置番茄钟,实在不行手机倒计时也行。
tips:我个人认为如果自己能够保持长时间专注,或者说正在进行不需要充分专注的工作内容(比如正在用Docker安装一个环境,你自己已经很熟练不会遇到任何问题),就不要用到番茄工作法,前者不用番茄钟已经可以做到专注,用了反而会打断自己的思路;后者重复性劳动本身不需要专注,却消耗番茄时间,番茄的休息时间也没有落下,骗自己么?真正需要番茄工作法的是需要高度集中注意力的工作,比如逻辑推理、大量的运算、持续的记忆等,才能将番茄钟的价值体现到最大化。
tips:我个人认为屏住呼吸是最好的专注和自律的方法
番茄工作法是一个训练自控力的方法,但并非完成某件事的必要条件。那些有所成就的人,必然已经是拥有强大的自控力属性,让他们能在和别人同样的 24 小时内更多更好的完成了工作。科比不需要设个番茄钟来规范自己每练习投篮 25 分钟就休息 5 分钟,但是他能看到「洛杉矶 4 点钟的样子」,第一个到球场训练,退役时手指因为投篮训练过度而变形——这是自控力的一种体现,也是番茄工作法的所追求的目标。
摘自:https://sspai.com/post/37307

直播学习,bilibili上有很多这样的学播,可以尝试下,看到观看人数的增长、粉丝的增长也是一种反馈,让自己有动力持续播下去,当然,直播这种形式,可能让自己分心,但是就算分心自己也把时间花在了学习上,总比一点不学强了呢~,看自己怎么取舍了。

请等一等,以上所说大部分为外界奖励。

奖励机制分为外界奖励和自我奖励
外界奖励:以物质、精神鼓励等形式对一件事情进行肯定;外界奖励被普遍运用在现在的学习、教学中。
优点:1.简单快捷 2.条件反射
缺点:1.可能失去对于事务本身的热爱 2.需要持续的外界刺激,奖励消失,行为难以继续保持

自我奖励:和激情相关;享受实践过程大于结果;无需外界奖励作为刺激;纯天然的满足感
优点:不会随着时间的推移而减弱甚至丧失,给人带来高幸福感与满足感;
缺点:仅仅适用于自己真正喜爱的事物,对于其他工作较难实施
难点:找到自己热爱的事物

最好的激励方式=自我激励+外界激励

一群熊孩子总是喜欢去一位老爷爷的后花园玩耍,老爷爷想尽所有的办法都不能使得他们离开,最后他想到了一个办法:召集所有的熊孩子,他们每来一次后花园就给他们一元钱。熊孩子们玩的更加开心,既能开心的玩耍还有钱赚。但是一周后,老爷爷很不幸的说自己破产了并且再也没有钱给他们了,熊孩子们说我们来这里玩就是为了你那一元钱,现在钱也没了,我们再也不来了,嘤嘤嘤~

以上奖励机制的分类来自:让你比别人聪明10倍的哈佛学习力课

不断的外界奖励会导致我们丧失对于学习这件事情本身的热爱,如果有一天再也没有了外界奖励(大餐、衣服、电影),我们也就不会再学习了,因为我们爱的不是学习,而是是大餐、衣服、电影,而学习这件事情就像例行公事,完成任务。这也可能就是为什么考上大学之后很多人都不再好好学习了,因为好好学习就是为了考大学,也可能是为什么很多人找到心仪的工作之后就不在好好学习了,因为好好学习就是为了找到心仪的工作。

自我奖励能让自己充满激情,能持久的带给我们更高满足感,如果学习这件事情对我们来说本身就是一种奖励(学习自己喜欢的东西),每时每刻都在给我们进行着反馈,那还需要什么"身外之物"么?我们是小确幸的,因为我们是程序猿/媛,你懂我的意思吧。如果是为了得到某样东西而去学习一样东西,那永远也走不远至少我这么认为,可能会是短期的动力和快速的回报,但是一旦到达某个阈值,那会不会发生雪崩式的反弹?

为此我们应该:

从内心深处明白自己想要什么,渴望什么,静下心来,全身心的投入进去,发自内心的喜欢它,热爱它,渴望它,真真切切的享受它 + 适当的外界奖励。

如果你已经拥有了自我奖励,那请不要往下看了,剩下的都不重要了,不要在听我在这里比比来来胡说八道浪费时间,赶紧去保持自己的热爱与激情罢!

排名机制
王者荣耀善用朋友圈+排名的机制,每个人都是希望自己与众不同、比别人强,这也是人类能够不断进步的根本原因,和上面的阶段性反馈一样,能够得到什么和希望比别人优秀都是人的本能,希望我们能善用人的本能。
杠精要出来了,"千万不要有跟人斗的心,不要跟人比,你要赢得是你自己。"是啊,这是电影《头文字D》中藤原文太说给藤原拓海的一段话,可是反着想,为什么他会跟拓海这么说?因为他害怕拓海跟别人比,因为这是人的本能。

排名机制提供的这种虚假的社会地位,使我们找到了存在感,很好的激励了我们,如果能够将排名的机制用在学习中,相信任何人也会乐此不疲!

为此我们应该:
————————————————
版权声明:本文为CSDN博主「Leesin Dong」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/dataiyangu/article/details/97544551

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
基于YOLOv9实现工业布匹缺陷(破洞、污渍)检测系统python源码+详细运行教程+训练好的模型+评估 【使用教程】 一、环境配置 1、建议下载anaconda和pycharm 在anaconda中配置好环境,然后直接导入到pycharm中,在pycharm中运行项目 anaconda和pycharm安装及环境配置参考网上博客,有很多博主介绍 2、在anacodna中安装requirements.txt中的软件包 命令为:pip install -r requirements.txt 或者改成清华源后再执行以上命令,这样安装要快一些 软件包都安装成功后才算成功 3、安装好软件包后,把anaconda中对应的python导入到pycharm中即可(不难,参考网上博客) 二、环境配置好后,开始训练(也可以训练自己数据集) 1、数据集准备 需要准备yolo格式的目标检测数据集,如果不清楚yolo数据集格式,或者有其他数据训练需求,请看博主yolo格式各种数据集集合链接:https://blog.csdn.net/DeepLearning_/article/details/127276492 里面涵盖了上百种yolo数据集,且在不断更新,基本都是实际项目使用。来自于网上收集、实际场景采集制作等,自己使用labelimg标注工具标注的。数据集质量绝对有保证! 本项目所使用的数据集,见csdn该资源下载页面中的介绍栏,里面有对应的下载链接,下载后可直接使用。 2、数据准备好,开始修改配置文件 参考代码中data文件夹下的banana_ripe.yaml,可以自己新建一个不同名称的yaml文件 train:训练集的图片路径 val:验证集的图片路径 names: 0: very-ripe 类别1 1: immature 类别2 2: mid-ripe 类别3 格式按照banana_ripe.yaml照葫芦画瓢就行,不需要过多参考网上的 3、修改train_dual.py中的配置参数,开始训练模型 方式一: 修改点: a.--weights参数,填入'yolov9-s.pt',博主训练的是yolov9-s,根据自己需求可自定义 b.--cfg参数,填入 models/detect/yolov9-c.yaml c.--data参数,填入data/banana_ripe.yaml,可自定义自己的yaml路径 d.--hyp参数,填入hyp.scratch-high.yaml e.--epochs参数,填入100或者200都行,根据自己的数据集可改 f.--batch-size参数,根据自己的电脑性能(显存大小)自定义修改 g.--device参数,一张显卡的话,就填0。没显卡,使用cpu训练,就填cpu h.--close-mosaic参数,填入15 以上修改好,直接pycharm中运行train_dual.py开始训练 方式二: 命令行方式,在pycharm中的终端窗口输入如下命令,可根据自己情况修改参数 官方示例:python train_dual.py --workers 8 --device 0 --batch 16 --data data/coco.yaml --img 640 --cfg models/detect/yolov9-c.yaml --weights '' --name yolov9-c --hyp hyp.scratch-high.yaml --min-items 0 --epochs 500 --close-mosaic 15 训练完会在runs/train文件下生成对应的训练文件及模型,后续测试可以拿来用。 三、测试 1、训练完,测试 修改detect_dual.py中的参数 --weights,改成上面训练得到的best.pt对应的路径 --source,需要测试的数据图片存放的位置,代码中的test_imgs --conf-thres,置信度阈值,自定义修改 --iou-thres,iou阈值,自定义修改 其他默认即可 pycharm中运行detect_dual.py 在runs/detect文件夹下存放检测结果图片或者视频 【特别说明】 *项目内容完全原创,请勿对项目进行外传,或者进行违法等商业行为! 【备注】 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用!有问题请及时沟通交流。 2、适用人群:计算机相关专业(如计科、信息安全、数据科学与大数据技术、人工智能、通信、物联网、自动化、电子信息等)在校学生、专业老师或者企业员工下载使用。
王者荣耀强化学习环境是指在玩王者荣耀游戏过程中,通过使用强化学习算法训练AI模型,使其能够自动玩游戏。根据引用内容,可以看到有两个引用提到了使用训练好的模型玩王者荣耀,而另一个引用提到了使用minitouch工具来操作虚拟机中的王者荣耀游戏。据此可以得出结论,王者荣耀强化学习环境的搭建包括两个关键步骤:训练AI模型和操作游戏。具体步骤如下: 1. 训练AI模型:首先需要准备好训练数据,并使用合适的强化学习算法对其进行训练。可以使用训练数据截取工具来获取游戏中的状态和动作数据。根据引用内容,可以使用训练数据截取.py来实现这一步骤。该脚本可以在启动王者荣耀5v5人机对战后运行,以截取游戏中的数据供后续训练使用。 2. 操作游戏:在训练好AI模型后,可以使用minitouch工具来操作虚拟机中的王者荣耀游戏。根据引用内容,需要将minitouch工具拖动到虚拟机中的特定位置,或者使用adb push命令将其推送到指定位置。minitouch工具可以实现对游戏的触摸操作,从而实现AI模型自动玩游戏的功能。 综上所述,王者荣耀强化学习环境的搭建包括训练AI模型和操作游戏两个关键步骤。通过截取训练数据并使用合适的强化学习算法进行训练,同时使用minitouch工具来操作虚拟机中的游戏,即可实现AI玩王者荣耀的功能。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值