听Q分享有感

互联网行业的离职率似乎特别高,加之上去年领导层又做了一个错误决定,导致去年一整年,我们整个部门都在疯狂加班,年终奖又少得可怜,今年年初,已经有很多人走了。

这个月,我的直属leader Q也要走了。

坦白来讲,Q是一个非常优秀的人,和惯例一样,在临走之前,他给我们分享了一些他的工作经验。

这个分享差不多持续了1个小时,基本上,他讲的东西我都知道,偶尔也会听到一些不知道的,不过这和我想象中还是有点出入,我以为他会讲得很深奥。

但是,即便是这样一场不算深奥的分享,我也能感受到Q和普通员工的差别,进而也察觉到自己和Q的差距。

Q演讲的PPT很简单,他略有发散,但是也不算太广,在这些发散之中,我发觉对很多东西的理解,都不如他深入。拿最简单的例子来说,android各种分辨率适配,平常工作可能也就是drawable-hdpi/ldpi这样区分一下图片资源,或者dp/px转化一下。之前我也看过密度dp/px一些相关的资料,但看过也就看过了,不能像他这样侃侃而谈(不是说这个东西多么有技术含量,只是举例,有多少东西是我们能说得很清楚,而不仅仅只是会用的?)。

我记得很久以前,我第一次参加工作的时候,我的技术总监对我说过一句话,技术分为三个层次——1你能用;2你懂了;3你能讲给别人听。或许还要再加一个层次——4你不需要每次都去google,能信手拈来,侃侃而谈。

现如今科技这么发达,很多东西都可以共享共用,平常开发也没有人要求你一定要想破头皮去研究一个最新最高效别人从来没有实现过的东西,相反,技术是通用的。可以这么说,老板给你一个东西,你或多或少都能说出这个东西的实现思路,哪怕不是很具体,一定都有个方向在那儿,只要有了这个方向,就可以去查,去找资料,总是能做出来。狭隘一点来说,假如把你毫无头绪简直没法实现的东西才称之为‘难’,如此看来,平常工作,简直没什么难的。

但正是因为网络的发达,导致资源获取太方便,人也变得越来越懒惰。

我记得以前写px和dp的转化函数,每次都是上网去查,这个函数就2句,连转弯都不需要,但就是不想放在脑子里,想着反正网上有,以后要用,直接去查就是。

知识是需要积累的,就像溪流,一点一点从四面八方汇聚,才能成为大河甚至大海。不是说这个东西只有你知道,别人不知道,你就很牛,并且网络的发达,正在逐步淡化这个区别。把简单的东西一点一滴累积起来,就像往海里打桩,越打越深,越长越高,越来越稳——这才是搞技术。

怪不得那么多人写博客,同样的东西,千百个人都在总结——把东西梳理一遍,消化,真正变成你的和只是看懂别人的东西,终究是不一样的。

与大家共勉。

转载于:https://www.cnblogs.com/arthur3/archive/2013/04/23/3038748.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Q-learning 是一种强化学习算法,常用于解决迷宫问题。在迷宫中,智能体需要通过不断地尝试与环境交互,来获得与其行为相对应的奖励。通过感知这些奖励,智能体不断调整自己的行为,使其能够在迷宫中找到出路。Q-learning 算法的核心是一个 Q 表,该表记录了所有在给定状态下采取不同行为的价值。通过不断地对 Q 表进行更新,智能体能够逐渐学会在特定状态下应该采取哪种行为。 在 MATLAB 中实现 Q-learning 迷宫问题通常需要以下几步:首先,需要定义迷宫问题的各种参数,比如迷宫的大小、智能体的初始位置、奖励等。然后,需要针对这些参数设计 Q 表,并设置初始值。接着,智能体可以开始在迷宫中漫游,通过感知奖励值来更新 Q 表,并调整自己的行为。在 Q-learning 中,为了保证算法的稳定性,通常会使用一些典型的值函数,如 $\epsilon$-greedy 或 softmax 策略。 在 MATLAB 中实现 Q-learning 迷宫问题可以更好地理解 Q-learning 算法的基本思想和实现方法。同时,通过实际编程,可以更直观地感受到 Q-learning 算法的强大表现力,以及强化学习在解决实际问题中的巨大潜力。 ### 回答2: Q-learning是一种常用的强化学习方法,可以用于解决迷宫问题。在迷宫中,智能体需要通过移动来找到终点,Q-learning算法可以通过不断尝试、学习从而找到一条最优路径。 Matlab是一种功能强大的数值计算软件,可以用于实现Q-learning算法。在Matlab中,可以通过设置不同的迷宫大小、智能体的起始位置和终点位置等参数,来完成迷宫问题的求解。可以利用Matlab中的矩阵运算、数据显示等功能,对算法的实现和结果进行可视化处理,便于深入了解算法的性质和效果。 Q-learning的基本思想是通过更新状态-动作值函数Q,来实现对最优策略的学习。在每次探索中,智能体会根据当前状态和当前状态下的所有可行动作,选择一个动作并执行。根据执行结果,智能体会获得一个奖励,用于更新Q函数。从不断更新的Q函数中,智能体可以得到一些策略,用于优化路径选择。 综上,借助Q-learning算法和Matlab工具,我们可以很好地解决迷宫问题,并以实验结果验证算法的优越性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值