领导力:不要做个“好人”

最近和人聊女孩子应该找一个什么样的老公,我给的第一建议是这个人必须是个好人,好人的意思就是要本心善良,有empathy 共情能力,但是给的第二个建议就是要有领导力,做什么才能锻炼领导力,这里面有很多东西需要学习和做的东西,但是判断一个人没有领导力有一条比较管用,就是这个人在做事的时候如果一直是“好人”,那么他就是不具备领导力。这个好人和我第一个建议的里本心善良的好人是不同的,但是这两个好人是可以集于一人之身,为什么需要领导力,因为领导力不光让我们可以做好工作,也可以让我们更好的生活,因为领导是一个职位,但是领导力不是职位,而是做事和解决问题的能力。 由于我不是一个情感博主,加上我今年一个工作的重点是我自己和团队里的Leader的领导力的提高,这篇文章我们就重点谈谈第二点。

前几天,一个朋友跟我抱怨说,自己这几年一直很努力,做事能力也可以,和团队的人相处大家对他评价都挺好的,但是一直得不到职位的提拔,有些比他年轻的人业务能力不如他,都开始带团队了,自己感觉非常不公,我想不少人也有这个问题,但是大部分人都会抱怨公司,抱怨领导,但是因为是朋友,如果聪明点做个好人,我和他一起骂他领导就可以了,但是因为是朋友嘛,就尽量说点有用的,我给他的回答大概就是,不要找领导的问题,我们大部分的问题都是自己的原因,我们平时做事有没有体现出来领导力,比如团队里人有问题,他说了觉得自己得罪人,那么就是缺乏领导力,缺乏领导力怎么可能去带领队伍呢?从平时对人来看,就是一个老好人,要想提升,我给的建议就是不要做老好人。

为什么具有领导力的人不能做个“好人”,我这里举一个例子,因为做个好人的结果就是这样的,假如你是一个男生,你让人给你介绍一个女性的朋友,这个女生挑不出你的毛病,但是最后人家还是拒绝你,拒绝的时候还会鼓励你说:“这个人是个好男人,老实,认真,勤奋,他一定能找到更适合的人”,看出这个问题了吗?你是一个好人,别人挑不出你的毛病,但是事情的结果呢?没有进展。你最多可以陪她看夕阳,永远没机会一起去看朝阳

那么回到领导力这块儿,假如你在一个公司里,领导对你的评价就是你是一个好人,你只是一个好人,那么你就要注意了,等于直接就说你没有领导力,但是,有的时候,我和人沟通,很多人竟然举一些例子,说你看看谁谁是大领导,你看看人家的是多么好,从不发脾气,和和气气。我只想说,如果理解还是这样,我就会觉得不光是没领导力的问题,智商都堪忧,首先大领导都是想得多,说的少,但是决定事情的时候都是非常有决断力,非常的狠,而且大领导是不会有时间去管你一个小兵的,那么小兵需要谁来管呢,当然是中层领导,中层领导如果做一个好人的话,大领导为什么让你当中层领导呢?大领导刚开始创业的时候有几个脾气好的?

我接触的一些人,本来各方面技术能力,工作态度等等都非常不错,但是一直很难有所突破,最重要的一个原因,就是选择做一个“好人”,不愿意得罪人,这就导致自己停留在一个Level上被困死了,这里面经常表现为以下几个:

  • 团队成员工作态度不认真,不想说。
  • 团队成员工作质量有问题,不想说。
  • 团队工作态度不认真或者质量有问题,不能直接说,说的很委婉,委婉的别人要么没听懂,要么装作没听懂
  • 团队人员工作不能改进,不敢换人。
  • 如果领导有问题,则更不想说,即使影响自己的发展都不说,选择自己忍着,选择自己吃亏。

这里面经常出现的原因有几个:

  1. 不想说,不想得罪人,因为我就拿这点钱,为什么要做得罪人的事。
  2. 不知道怎么说

但实际上,不管是做领导还是做团队一员,发现团队问题和提升的东西,就算不谈团队协作能力,对自己的利益来说,都是对自己有益的事情,你是领导,你成员有问题,你不提,他怎么提高。 你是团队成员,你领导有问题,他领导不好团队,你不说,你又不离职,最后受害的更是自己,这里的受害就是整个团队不会成功,一个团队都不成功,你怎么可能成功? 这里面很多人觉得第二个问题知道怎么说是能力问题,但是我却认为第一个更是能力问题,当你这么想的时候,基本上你拿多少钱都不会这么干,因为一个人能力不是自己脑子想的自己能做就能做,一个人的能力不是知而是行,不是看你知道多少,而是要看你把知道的东西行动和应用的能力,如果你不去”行“,那么你就永远停留在“知”这个层面,而且知的这个不通过验证,你怎么知道你知道的就是实际情况呢。

这里面最重要的问题就是,很多能力都是不断累积的,尤其是领导力,更是需要通过实际的领导经验的,这领导就是要领导和组织去完成一件事情,或者负责协调去解决一个问题的。如果我们不开始实际着手解决一个小问题,怎么有能力去解决一个大问题呢?如果你不领导好一个小团队,谁会给你机会去领导一个大团队呢?

所以,领导力的一个很重要的一点就是不能做一个老好人,一个团队,领导是老好人,最后的结果就是问题不会得到解决,事情得不到解决,整个团队就会遭殃,最终这个老好人自己不能升职加薪,团队大部分人还会从心里记恨,觉得自己跟了一个不行的领导。 回到整个社会上也一样,你很难期望所有人都非常遵守规矩,而实际上也不可能的,不然不会有法律,不会有警察。如果其它人都选择做好人,那么整个社会的环境不是这样的。

回到家庭也一样,如果你对所有的事情都是老好人,对所有人都一样,你家里的事情肯定也办不好,你家里的人大概率也会受不少窝囊气,现在我去问女孩子,大部分的女孩子都不会再去选择一个老实人嫁了,嫁了的都后悔了,时代变了。我自己大学刚毕业时,和一个老乡,人家给他介绍一个女朋友,女孩子家人觉得他是一个大学生,收入也还可以,但他自己真的是一个好人,两人出去玩座公交车都隔几个座位,送女孩子回家都是后面跟着隔几米,过几天,女孩子这个人太老实了,自己不愿意了,后来经人介绍,和另一个人闪婚了,10几天后,女孩子跑了,理由是这个男孩子人太好了,太老实了。

一个家庭,一篇祥和,没有一丁点摩擦,这个家庭大概率就要完了,工作上,一个团队一篇祥和,没有争论,没有一点冲突,这个时候就需要小心了,证明团队没有进步了。

说了这么多,为什么领导力不能是老好人,因为老好人可以勉强做好自己的事情,但是不能推动那些需要其他人协作的事情往前进展,不能推动事情的解决。只要事情不能解决,不管是愿意不愿意得罪人,最终体现出来的都是能力问题。 这个就像一个穷人说不是不想挣大钱,而是不愿意去挣,大概率这个人是在做梦。**

扫码关注公众号

1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能做出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 、资源5来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 、资源5来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。、 5资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值