团队、团伙:你的内心,喜欢哪个?

价值观是脆肉鲩。

640?wx_fmt=jpeg


  • 价值观是脆弱的:不食嗟来之食和齐人之福之间,真的很难选。

  • 价值观是柔软的:总有东西触动我们内心最柔软的部分。

  • 价值观是顽强的:多年前,马云、柳传志、牛根生、张瑞敏合作一曲《在路上》,言犹在耳。


敏捷教练的功夫是:

640?wx_fmt=jpeg

  • 无中生有:敏捷所倚恃的价值观和原则是看不见的东西。

  • 改变空气:敏捷所带来的实践也是在空中飘荡。

  • 手无寸铁:敏捷没有任何实体的抓手。

  • 亦可杀人:敏捷的威力日益彰显。


敏捷的重要改造点是团队。


团队、团伙:你的内心,喜欢哪个?


640?wx_fmt=jpeg


冒菜是一个人的火锅,狂欢是一群人的寂寞。

640?wx_fmt=jpeg



请听本文主人公小丫的独白--



640?wx_fmt=jpeg


引入

      每次参加卫红的工作坊,无论主题是什么,到最后都变成了看自己。

     对于我这种脑子比感觉发达100倍的人,就会打开的非常非常慢,一般都是第三天我才能感知到自己的部分。比较庆幸的是,卫红的工作坊都是三天的,否则我就啥也没感受到呢,就结束了。虽然打开的慢,但是进入的会比较深,以至于到了最后,我除了能感知到自己,其他的啥都没记住。


我与权威感

      惧怕权威,这一直是我的人生大课题,我在不同的场合曾经多次提到并尝试解决过。

      以前甚至到了见到上司不知道说什么,怕说错,不敢跟上司乘同一部电梯的地步。自从我成为自由职业者之后,我觉得自己已经很大程度上克服了这种状态。物理上来说,我已经没有领导了;另外我意识到这个东西的存在就会有意识的避免。

      这次体验场域的过程,我会有更深层次的看到。过程总体来说,就是我们去以下几种类型的场域中去感受不同。


640?wx_fmt=jpeg

1、不想脱离群众的学霸

      在“课桌式”的场域中,我会自觉自动的选择第1排。据说第1排都是学霸的位置,而越往后坐的一般就会越学渣。我坐在第1排静静的闭上眼睛感受一下。我会有一种冲动,想要回过头去看看第2排第3排的同学都在做什么,想跟他们有一个交流。

     我自己会有学霸就是被权威(老师)喜欢,但是被群众讨厌,但是内心深处,我不希望任何人讨厌我。

     所以,做一个不愿意脱离群众的好人缘学霸。

640?wx_fmt=jpeg


2、狐假虎威的2号人物

      在会议室的场域中,我会自觉自动的坐在领导旁边的那个位置。并且一坐过去,就立刻有冲动拿着文件去向领导汇报。

      首先,我没有选择坐在首位,很显然是我并不想当头号人物,因为那样要承担责任。

      其次,我也没有做的很远,我想做一些事情,但是自己能量感不足,就想利用权威(老板)。

     最后,当设想到首位没有人做的时候,我忽然感觉很无力,觉得这次会议开起来可能也不会最后有结果。

     这简直就是现实生活的写照,比如我从来没有当过舵主,比如我纠结的时候就让老公做决定,生怕自己做错决定了承担那个后果。

640?wx_fmt=jpeg

3、追求平等的自由主义者

      最后一个环节我们是可以选择自己喜欢的场域去坐,我立刻跑到了这个圆形的场域。因为在那里更能够有一种平等的和自由自在的感觉,这也是我价值观中最重要的一部分。一种程度上也是在极力摆脱等级制度。

640?wx_fmt=jpeg


挺有意思的自我发现:

     我惧怕权威,是因为我的力量感缺失,不想要承担和责任。

     也是因为这样,我又乐意靠近权威,依靠权威,给我这种力量感。

      因为有这种对权威的惧怕,也害怕自己不知不觉成为权威,被别人害怕和讨厌。


    当然我思故我在,也可以从另外一个角度进行解释。

比如课桌式,我坐在第1排说明我是一个爱学习非常认真的人;比如会议室,我坐在副手位置,说明我是一个喜欢做事但不喜欢管人的人。


生命是一个个待展开的奥秘,小丫一直在探秘的路上,哼着歌~~~~


深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值