如何有效的给出反馈(二)

一个月前,我承诺“如何有效的给出反馈(一)”这个话题的后续文章,国庆节闲下来正好兑现。

上篇我提及人们通常不愿意接受反馈,根源是认知系统威胁的问题。David Rock的《你的大脑在工作》(your brain at work)一书中,讨论人们认知系统触发“威胁”和“奖励”两种状态,威胁会引起恐惧和压力,限制了创造性;奖励会创建安全的空间,赋能创造性。David的SCARF 模型中对触发威胁的五个社会因素进行了分类。(见SCARF模型解读)。这五个因素有:

 SCARF模型

S地位感Status  – 你相对他人的重要程度(Your importance relative to other people)

C确定性Certainty – 你预见未来的感知能(Your perceived ability to predict the future)

A自主性Autonomy – 你掌控情势的感受(Your sense of being in control of events)

R归属感Relatedness – 你与他人安全相处的感受(Your sense of being safe with others)

F公平性Fairness – 你认为付出和收获是公平合理的(Your perception that exchanges are equitable)

反馈失败的原因

反馈对于学习和成长至关重要,敏捷环境下,通过对产品的评审,流程的检视(inspect),基于反馈来调整流程和优化产品, 避免跑偏太多。但如果反馈激活认知的“威胁”状态,反馈就会徒劳无功,学习也不会发生,敏捷如此,日常的对话也如此,这是因为:

✔ 反馈经常在未经我们许可的情况下提供,对自主性威胁;

✔ 反馈常常挑战我们的能力,对地位感威胁;

✔ 反馈通常来自主管职位,对地位感威胁;

✔ 反馈常常让我们感到惊讶,对确定性威胁;

✔ 提供的反馈通常来自非常有限的视角,对公平性/归属感威胁。

研究表明,大脑认为个体的“变化请求”是异常的,第一反应是最好忽略掉。特别是,当人脑处于这些“威胁”状态时,人们会专注威胁本身,响应威胁,而不再关注反馈。因为反馈与他们自己变得不相关,接收反馈的人可能会丢弃反馈,并启动缺省模式:人们倾向于采取默认的习惯和行为,而不是回应“还有什么不同的做法?这样接受反馈和建议就更加困难。

催化型对话

 -- 5步对话法

这样看来,在我们的对话中,如何减少和推迟威胁就非常重要。下面介绍“催化型对话” ,即5步对话法来改进给出反馈的有效性,为了讨论方便,我们约定:

给出反馈方:简称“给出者”(Giver);管理者和敏捷教练

反馈接收者:简称“接收者”(Receiver);员工和敏捷团队成员

1.对齐目标(Align Objectives)

不作假设——给出者先设定并检查双方对话的意图(intent)。给出者首先要检查他们的假设、时机、参与情况,在介入具体讨论之前先征求接收者的许可和态度。

2.探询对方的观点(Explore Perspectives)

不是从给出者的想法开始,先寻求接收者的想法和感受。给出者询问他人的想法、感受和行动,围绕该主题进一步寻求新的理解、背景和一致性。

3.澄清理解(Clarify Understanding)

抛开给出者的“过滤器”,身临现场并深入倾听对方所说的话。

给出者自己反思、总结并验证他们所听到的内容,寻求从他人的视角理解。

4.分享见解/智慧/意见(Share Insights / Wisdom / Opinions)

给出者不要过度迁就或过度主张自己的观点。

给出者根据对当前形势,从他人的需求和新的认识出发,流畅地平衡自己的权力风格。

5.赋能行动(Empower Actions)

避免给出者对结果负责,而是让接收者拥有责任和下一步的行动。

给出者激发新想法、验证选项并挖掘接收者的能量,让接受者拥有主动权并推进后续步骤。

运用5步对话法

给出反馈示例

SCARF模型解读五步对话法:

1.对齐目标(确定性Certainty, 自主性Autonomy)

示例:“John,我知道跟xx客户沟通很艰难,我想和你聊聊这件事。现在方便吗?还是你今天晚些时候更好?”

在展开对话时,我发现表明意图(intent)和目的是重要的第一步,避免没有铺垫,直奔主题和直接给出意见。应该基于事实,让接收者自主选择对话的时间。体现了SCARF模型的“自主性”的属性。我记得在我早年工作时,老板会走到办公室丢一句话:“we need to talk”,让你摸不着头脑,引发“不确定性”;你会琢磨可能不会有好事,开始猜疑并预防。对齐目标,增加对话主题的“确定性”,而且主题是中性的,不会对接收者的“地位“造成威胁。试想一下:“你的销售业绩不太好”,这样的评判会对后续的对话和反馈造成负面影响,你的最初用意和有影响力的信息不会传递。

2.探询对方的观点(地位Status;公平性Fairness)

示例:“您对目前的状况有什么看法?有什么感受?”

先让对方表达想法,你给对方以尊重,提升了接收者的地位感,让对方从他/她的视角分享观点,体现公平性和公正感。如果给出者先发言,很有可能带来在地位上的威胁和不公正性。咄咄逼人,“接收者”会启动自我保护模式,甚至开始辩护。给出者如果是管理者或教练,权势(power)已占有先机。这时候给出者需要“放下身段”,虚心倾听,创造平等的对话氛围,全面了解更多的信息,让对方畅所欲言。假如这个阶段谈论问题或直接反馈就可能引发威胁。

探询对方的观点,降低了对话威胁级别,容易展开对话。切记,hold住你的假设和偏见!

3. 澄清理解(相关性Relatedness)

示例:“让我澄清一下是否理解了你的观点”

我们说,同理心=倾听+说出对方的感受。你听到的内容不一定等于你理解了,使用归纳总结,简要重述,或者Repeat back的技能都是帮助我们确认是否真正在“聆听”,是否听懂了。肢体语言比如点头和一些短句都会加强相关性。澄清理解这一步,分享你的感受或承认对方的感受也会加强相关性。你对接收者观点的理解和下一步(第四步)分享你想法,帮助建立连接和了解差异(gap),也避免过早的进入“谁的意见/观点是正确”的争论中。注意:承认感受不等于同意对方的观点。如果这一步理解有偏差,第三步的过程中也可能退回第二步,让对方有机会进一步陈述观点。

4.分享见解/智慧/意见(相关性Relatedness)

示例:“我有一个不同的观点想分享给你,xxx,你对此有何看法?”

到目前第四步,你回避了过早反馈带来的威胁。但在反馈对话中,几乎完全避免威胁的可能性很小。你的目标是:通过延缓和减少威胁,避免威胁覆盖和冲蚀你的观点,最终还要“亮明你的灯牌”,使反馈有效,好处是这时的观点与步骤2接收者的观点和语境(context)建立了连接,减少不必要的冲突和误解。

因为你有1到3步足够的时间了解和确认对方的观点,也提供了给出者有足够的时间处理信息(processing time), 并梳理你的见解和反馈。分享见解阶段也可能推翻最初的想法,分享你新的反馈。提高了反馈的准确性,避免过早反馈带来的误解。

5.赋能行动(地位Status,自主性Autonomy,公平性Fairness)

示例:“你认为有哪些选项可以推动当前情况的进展?”

这一步是教练的艺术。对话的结束以接收者的行动计划为核心。赋能行动,体现了给足接收者的地位感和自主性,体现公平性。当然如果需要,你也可以退回到第四步给出或补充一些具体行动上的建议。

通过以上解读示例,运用SCARF模型分析5步对话法,即催化型对话,可以有效避免威胁并为他人创造奖励,改善会话效果,提高反馈的有效性,获得双赢的机会。

5步对话法,这个结构化的框架(framework)指导我们管理者和敏捷教练日常“好好”说话。我认为,上篇文章《如何有效的给出反馈(一)》推荐的4Fs反馈框架,给出者还是过于强势,效果不一定好。4Fs框架只是给出反馈的一种模型,我更推荐“催化型反馈的对话”,因为它是平等的教练的对话方式。

小结:反馈的过程无非是提升我们的自我认知和觉察意识,这是第一步,然后才有可能创造增加责任感和所有权的机会。“所有的模型都是错的,但有一些是有用的(George Box)”。前提是,学习理解这些工具,刻意训练实践,才有可能转化为我们自身的能力。

作者:Jim Wang王军

写于2023年10月1日

参考资料:

(1)Jim Wang, CAL-E/CAL-O 中文课件 

(2)Pete Behrens, Agility in Leadership & Organizations Workbook 2023

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 强化学习是一种有效的机器学习方法,可以让机器通过反复尝试和反馈来学习如何解决问题和实现目标。一个典型的强化学习案例是机器人移动。机器人可以通过评估它们在移动中所做出的决定,学习如何有效率地移动到目的地。机器人可以跟踪自己的位置,并从之前的行为中学习,改善自己的移动策略。 ### 回答2: 强化学习是一种机器学习方法,通过智能体与环境的交互学习,从而使智能体可以根据环境的反馈不断优化自身的策略。以下是一个使用C语言实现强化学习算法的案例。 在这个案例中,我们假设智能体是一个机器人,其目标是通过学习来在迷宫中找到宝藏。迷宫是一个维的网格,其中有一些墙壁和一个宝藏,机器人只能在墙壁之间移动,每一步的移动只能是上、下、左、右四个方向之一。 首先,我们需要定义迷宫的状态空间和动作空间。状态空间可以表示机器人所在的位置,而动作空间则包含机器人可以选择的动作,即上、下、左、右四个方向。我们可以使用维数组来表示迷宫,其中每个元素代表迷宫中的一个位置,墙壁用1表示,空地用0表示。 然后,我们需要定义智能体的策略。策略是智能体根据当前状态选择动作的规则。在这个案例中,我们可以使用epsilon-greedy策略,即以ε的概率随机选择一个动作,以1-ε的概率选择当前状态下具有最高奖励的动作。 接下来,我们可以使用Q-learning算法来训练智能体。Q-learning是一种基于值函数的强化学习算法,其中Q值表示在某个状态下采取某个动作所获得的累计奖励。我们可以使用一个维数组来表示Q值。 训练过程中,智能体会根据当前状态选择动作,并根据环境的反馈更新Q值。具体地,智能体会根据当前状态和动作得到一个新的状态和奖励,然后使用更新规则更新Q值。 最后,当智能体完成训练后,我们可以使用训练得到的Q值来进行测试。智能体会根据当前状态选择具有最高Q值的动作,并根据环境的反馈不断更新状态和奖励,直到找到宝藏或者到达迷宫的出口。 这个案例只是一个简单的示例,实际的强化学习算法可能更加复杂和庞大。但通过这个案例,我们可以理解使用C语言实现强化学习算法的基本思路和方法。 ### 回答3: 强化学习是通过智能体与环境的交互学习最优策略的一种机器学习方法。下面是一个使用C语言实现强化学习算法的简单案例。 假设有一个迷宫游戏,其中智能体需要在迷宫中移动并找到宝藏。我们使用强化学习算法来训练智能体找到最优路径。 首先,我们定义迷宫的大小和布局。我们可以使用一个维数组来表示迷宫,其中不同的值代表不同的状态。例如,0表示空的路径,1表示墙壁,2表示智能体,3表示宝藏。 接下来,我们需要定义智能体的行为和策略。智能体可以选择向上、向下、向左或向右移动,并且策略确定了智能体在每个状态下选择的动作。可以使用一个维数组来表示策略,其中每个状态对应一个动作。 然后,我们随机选择一个起始状态,并开始训练。在每个时间步,智能体选择动作并与环境交互。智能体根据环境的反馈(奖励或惩罚)更新策略,以获得更好的结果。可以使用Q-learning算法来更新策略。 具体来说,可以使用一个维数组Q来表示每个状态-动作对的Q值。在每次训练中,智能体根据当前状态选择一个动作,与环境交互后获得奖励和下一个状态。然后,根据Q-learning算法,使用下面的公式更新Q值: Q(s, a) = Q(s, a) + α(R + γ(maxQ(s', a')) - Q(s, a)) 其中,s表示当前状态,a表示智能体选择的动作,R表示奖励,s'表示下一个状态,α表示学习速率,γ表示折扣因子。 通过多次训练迭代,直到智能体能够找到宝藏为止。最终,智能体学到的策略将指导它在迷宫中找到最优路径。 以上是一个使用C语言实现强化学习算法的简单案例。实际情况中,可能需要更多复杂的算法和技巧来解决更具挑战性的问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值