如何有效获取建议

前几天,我偶然看到有个非常棒的视频分享,是黄仁勋给大学生做的分享,其实已经有年头了,我的读者告诉我,那是2009年,黄教主在俄勒冈州立大学做的分享。不过我是最新看到,我就特别像分享出来,其实内容很简单,只有三条。

第一条,要热爱自己的工作。

我的理解,这其实分两种情况,第一种是寻找自己热爱的工作;第二种是努力热爱自己从事的工作;如果你有足够的选择权,你当然应该寻找自己热爱的工作,但如果无奈需要向现实折腰,那么能不能尝试热爱自己的工作,而不是当作一种折磨。

只有热爱,才能真正发挥你的能力,体现你的价值。

第二条,拥抱失败。

黄教主用英伟达的案例来讲,从失败中学会了重新认识客户,重新认识行业,从而在后续的发展中做出正确的判断和选择。

从失败中吸取教训和经验,从而走上成功的道路,很多时候,失败是不可避免的。

第三条,用童真去看待世界。

其实这恰恰对应我旧文说过的,不要被思想钢印所约束,不要自我设限,要有更开放的思维和更大胆的设想。

我说个国内的案例,可能现在很多人不可思议的,在二十多年前,中国互联网刚起步的时候,盗版单机游戏铺天盖地,中国网民是不会为游戏付费的,这是当时的行业共识你信么。今天觉得不可思议对么,但当年被当作是行业铁律,所以才会有陈天桥神奇崛起的故事。QQ都是低龄用户毫无商业价值,也是曾经的行业共识。在早期一些行业论坛里,各种所谓资深互联网广告从业者全都这么说。(那时候你从业两三年就资深了,没办法,行业历史就这么点)

所谓打破偏见,其实就是打破某些固有认知,思想钢印,才能发现更大的机会空间。

我觉得这三条很经典,也和我一直以来所倡导的职场及人生原则很契合,然后我就想分享出来,但是转念一想,这里有个问题,因为我一旦分享出来,一定会有人留言说,曹老师,你何不食肉糜,你根本不了解底层,你太脱离现实了。

而且,必须承认,这些评论说的还都很对。

然后我就想到了今天的话题,兜兜转转,终于回到这个话题了,很多时候,你会看到很多建议,那么,哪些建议是值得去听从的,哪些建议是不值得听从的,你会接受怎样的建议,而哪些建议可能让你误入歧途。

这里我又要说一个关键点

为什么我不喜欢武断的给建议 这是我的旧文,从提建议的角度来说,不理解对方背景诉求的情况下就出主意,我认为是不明智的,但是,不好意思,今天换个视角,从接受建议的角度来说,你不要指望提建议的人,能真的站在你的角度上。

我旧文强调过几次类似的逻辑,关于人生的容错性的话题,作为领导,你需要体恤下属,能够知人善任,了解员工隐藏的优点和劣势,并能正确传递信息和任务;但作为员工,你要敢于表现,能够主动担当,并在领导有缺陷的情况下还能实现有效的沟通和推进。但现实每个人都是反的,领导希望无论自己表达多模糊员工都能担当,能正确理解并完成任务,领导最喜欢的就是所谓找到加西亚的段子给员工洗脑;而员工则希望领导各个都能深入挖掘自己的优点,希望领导火眼金睛不放过自己任何一点贡献和功劳。大家都希望对方足够优秀,来掩盖自己的问题。所以如果我说自己容错性强一些,很多人就不愿意听了,凭什么不是别人容错我呢。

回到今天的话题,如果你去提建议,我希望你多了解一下对方的背景和诉求,但如果你去听建议,我要讲一个残酷的事实,很多有价值的建议,很抱歉,还真就不是为你量身定制的。

我说一个逻辑,很简单的逻辑,什么建议有价值,很多人会说出来两条,第一,是高阶人士提出来的,至少比自己更有地位,更有能力的人,他们提出来的才是能让自己上个台阶的,同等阶层的建议只会让自己止步不前;第二,是针对自己的群体,诉求的,对吧,不要高高在上,不要趾高气扬,要真的能理解自己的诉求,理解自己的目标,能站在自己的立场上谈。然后还有隐藏的第三条,要有情绪价值,对吧,鼓励为主,肯定为主,自己更容易接受,更愿意去践行,别跟那个整天梦呓的caoz似的,一点情绪价值都不提供,还天天pua核心读者。

很多人会认为这样的建议,才是真正好建议对吧。

但很抱歉,现实中不可能,为什么不可能。

愿意理解你,体谅你,容忍你的,往往是和你同一个阶层的人,你的朋友,你的亲戚,对不对。比你见识多,比你身价高的人,凭什么花很多时间和精力去理解你,去包容你,还要去照顾你的情绪,你想想凭什么。

然后就有疑似这样的,看上去身价又高,话术又特别体谅你,然后又特别理解你,特别愿意包容你和肯定你,这种是什么,流量密码啊,大镰刀啊。人家讨好你为了自己获利而已,真以为人家爱你。前些年泛滥成灾的新浪微博上各路股神不都是这种。

我以前分享过一些我人生中收获的忠告,可以认为是一些对我人生成长帮助很大的建议。-> 哪些言论和文字,会让你受教终生?

这些内容有什么特点呢,简单朴素直接,而且毫无情绪价值,很多就是当面批评,但是对我的影响可以说是终身的,而且我认为是具有普适性的,是值得分享给更多人的。

我个人觉得,有价值的建议,应该如何去甄别。

1、是真正高段位+可信赖的人讲出来的,而不是包装出来的。

俞军老师的分享,张小龙的分享,巴菲特的分享,段永平的分享,黄仁勋的分享,等等。我认为都是非常有价值,值得去多听听,多理解的。

高段位+可信任;有些人我承认比我身价高,比我地位高,但是我是绝对不信的,我以前就说过,贾跃亭如日中天的时候,我都没相信过他。

什么人可信,什么人不可信,每个读者有自己的判断,我就不越俎代庖了。

2、认清自己的位置和参照系。

旧文说过的,就算是巴菲特老爷子讲的话,他也是有参照系的,如果你不处于相关的参照系下,可能那些建议真的不适合你,不是他讲错了,而是你还没达到可以接受的境地。

你不能指望一个公开发言,一个公开分享,需要加无数的前缀定语,叠加无数护甲,才能分享一点观点和感悟。人家说出来,是针对他所期望的目标人群,如果你不是,你要认清自己的位置。

3、选择适合自己的部分。

就算是我最认可,最崇拜的人给我的建议,我也不会全盘接受,我会认真去思考,去核对,去看看自己有哪些地方可以基于对方的建议去调整,去改进,但也会基于自己的其他诉求,顾虑,或者其他原因,可能会摈弃一些建议。

俞军老师给我的建议我都没有完全去践行,不是因为他的建议不对,而是因为我自己一直缺乏那样的追求境界,或者说,贪图安逸。但其实每次我都会认真思考,并基于此对自己的认知不断调整。

所以,有效获取合理建议的前提,其一是找到能体现出较高境界,并且值得信赖的建议者,我必须坦白说,当前舆论环境下,很多大佬的公开场合发言并不值得信赖;其二是自己要清楚自己的境界和诉求,不要苛求别人是为你量身定做的建议,但自己要明确自己处于什么位置,是否适合接纳相关的建议,如果不符合,那些建议可能对你有害无益。然后第三就是基于自身情况合理选择,还是多了解自己。而且可能要做一些信息的二次核对,做一些功课。

那么回到前面提到的,黄仁勋的建议,热爱自己的工作,如果你有选择,请寻找自己热爱的工作;如果你没有选择,请尝试热爱现有的工作;如果二者都做不到,那么可以多想想,自己热爱的是什么,有没有机会找到一条通路,实现自己的热爱。

然后我就特别想推荐一个人,我认为是我朋友圈里热爱工作的典范,知识星球的运营 刘容,其实今天文章也是因为她的文章引发的

非常建议对比阅读 别让烂建议毁了你

也可以围观一下,热爱工作的人的日常状态是怎样的。刘容其实刚入行的时候背景一点都不好,专业知识也很欠缺,经常被我批评,但很好的一点就是她从来不生气。她以前很胖的,好像是140多斤,有一段时间朋友圈开始秀减肥,正好有个星球的活动我会去参与,我就开了句玩笑,我说你不减到100斤我就不见你,结果人家真减到了,相当狠有没有。说真的,我再说一个这些年对我很有刺激的金句,所有做出大成绩的人对自己都非常狠。那时候还没有热辣滚烫这个电影。


题图,干一行爱一行

3e30a416de80b1e1fa781594c08c259c.jpeg

选择这个图是个玩笑,请勿模仿。

1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能做出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值