“形象代言人”与“抽风式管理”

本文来自CSDN博客:http://blog.csdn.net/sunljm1000/archive/2011/04/07/6306962.aspx

“形象代言人”与“抽风式管理”两者似乎没有什么联系,和程序员似乎更没什么关系。但软件行业内,这两样东西都是存在的。

先说“形象代言人”:

什么是“形象代言人”,成龙对于“霸王洗发水”,郭德纲对于“藏秘排油”,都是形象代言人。那么,一个软件开发团队的形象代言人是谁呢?他真的存在么?

一个软件开发团队当中,往往存在这样的一类人,他们不做任何具体的编码工作,而且极有可能不会编码,具体工作是陪各种领导及客户吃喝玩乐一条龙,独自一人的时候在独立办公室内玩空档接龙和红心大战,闲着没事的时候,拿个点名册在办公室门口抓迟到的下属,或者把某个程序员叫到他的办公室内做批判性“谈心”。

幸运的是,绝大多数团队中这类人不存在或者极少数的在;不幸的是,这类人往往会被冠以领导的头衔。

我把这类人,称之为软件团队的“形象代言人”。就好比成龙代言霸王洗发水,他只是一个提升广告效应的形象,而不会做洗发水。回想一下,你的团队中是否有这样的角色存在。

我个人不反对这样的“形象代言人”存在,但“形象代言人”的某些行为会让我感到反感。先用微软做个例子吧!

在微软的团队中,所有的测试人员,必须会编码!为什么?因为不能编码的人,无权评判代码的是否正确!

与此同时,微软中所有的项目经理,都有自己负责的编码任务!为什么?因为不能编码的人,无权指导别人的工作!

虽然我对微软的部分行为持保留意见,但对以上两个做法是十分赞同的!一个不懂得厨艺的人,如何在一家五星级酒店当厨师长?他可以是大堂经理,可以是服务生的领班,但一定不能是厨师长!为什么?我不解释!

回到原来的话题,如此比较,一个软件团队的“形象代言人”可以空档接龙,可以花天酒地,但他们可以指挥一群程序员进行工作么?

Of course……

not !

如果作为领导的“形象代言人”同志,将决策权下放给程序员,那么结果也许会不错。如果他行使了领导该有的决策权,那结果一定很糟糕。这结果也就是我接下来要说的——“抽风式管理”!

作为一个软件团队的领导,其实大可不必事必躬亲,但一定要做到了如指掌,对自己直属部下的工作内容及进度了如指掌。也就是说,他作为自己的下属,也可以很好的完成任务,也就是可以“躬亲”。

中国有一种“大好”的风俗——外行人统领内行人,各行各业都存在,最典型的莫过于“叉腰肌”同志。最终只会让内行人耻笑。而软件团队的“形象代言人”不断的做决策,以彰显自己的领导地位的话,其实也就是在招致内行人的耻笑,更何况程序员本身就是一群聪明的、有独立思想的“内行人”。

第一,作为外行人,他并不知道要如何去做,却在指挥内行人按照外行的方式进行工作,结果是只能让内行人变成外行人,或者仅能做到一个外行人的水平。试问你的领导一边问你什么是“视图”一边和你说这个东西要写“视图”处理,你会是什么感觉?

第二,“形象代言人”肯定无法做到了如指掌、事必躬亲。那么他插手管理及决策的效果就是打一枪换一个地方。无法做长期的规划和指导,也无法对每个下属做有连贯意义的指引。也就是“抽风”。今天抽A,明天抽B,然后每天风向都会变,作为帆船的Developer在不断变化的风向中很难到达彼岸。

“抽风式”管理的最终结果是将一个团队抽成了散沙,每个人都在忙活自己那点东西,同时也将“专家”抽成了“雏儿”。孙悟空保唐僧西天取经一样,悟空同志火眼金睛,偏偏有个肉眼凡胎的师傅,老唐还偏偏要指导悟空,“亲爱的,那个妖怪不是妖怪!”于是,孙悟空的火眼金睛废了!

这就是“抽风式管理”,而抽风式管理的出现是因为有一个“形象代言人”存在。Jole Spolsky说过:坐在独立办公室里看《星际迷航》的项目经理,没有决策权!

我表示同意!当然,“形象代言人”的出现未必代表一定形成“抽风式管理”,前提是成龙同志不指导“霸王”如何做洗发水!

转载于:https://www.cnblogs.com/matchcolor/archive/2011/04/16/2018305.html

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值