超级工作:干得越多越不开心?

 

如今,各家公司都希望员工能够创造更大的价值。来到丹佛市(Denver)的高档餐厅里奥哈饭店(Rioja),你就会发现这一点。如果你喜欢吃这里的榛仁提拉米苏,那么就要感谢糕点师埃里克•戴尔(Eric Dale)。如果你碰巧走进糕点房而且喜欢地面铺的瓷砖,那么你应该感谢的还是戴尔。

自从戴尔的老板、主厨詹•亚辛斯基(Jen Jasinski)发现他十分得力之后,就让他兼做起了维修工的工作。他已经花了很多的时间给烤炉重新刷漆,修理下水管道以及安装垃圾处理装置,而这仅仅是个开始。过去,他负责亚辛斯基一家餐厅的糕点制作,而现在他要负责三家餐厅。全算下来,戴尔说,他每周的工作时间已经超过了60个小时。

在这个“超级工作”的新时代,每个人都会被派去干些杂事,当你抱怨工作太辛苦时,没准还会听到有关隔壁工作间那位主管的更可怕的故事。受目前才刚刚开始缓解的失业危机的推动,无论是大公司还是小公司都要求员工承担一些额外的任务,这些任务与他们的本职和专业几乎没有任何关系——工程师去搞推销,会计兼做客户服务,首席财务长要另外兼管一个部门。有人认为,这种转变是永久性的,因为变化节奏的加快需要职场中的每个人都具有更大的灵活度。

管理顾问里奇•莫兰(Rich Moran)说,员工会尽一切所能帮助他们的公司在竞争中胜出:“职位描述写在沙地上,而风却一直在吹。”莫兰的客户包括苹果公司(Apple)和美国电话电报公司(AT&T)。

一些职场专家表示,公司管理层寻求提高公司的成本效率,给员工安排“超级工作”也就顺理成章了。最新的转变发端于经济衰退期间公司重新分配工作量的时候;去年开始的经济复苏又使这一进程得到了强化。在Spherion Staffing公司最新开展的一项调查中,53%的受访员工表示他们承担了新的工作,其中大多数人拿不到额外的薪水(只有7%的人得到加薪或奖金)。人力资源专家表示,由于销售业绩开始回升,员工们会有更多的工作需要去做,但是公司却不愿招募新人。一些公司对未来的经济情况表示担忧,另一些公司则看到人员的精简会导致公司利润的增加。

要做好超级工作并不容易,不过员工是能从中受益的。怡安翰威特公司(Aon Hewitt)负责“人才奖励”项目的高级副总裁西摩•阿德勒(Seymour Adler)说,研究显示,很多成功的领导者在“紧张经历”中成长最快。但是,即便是最不讲情面的老板也知道员工们能够承受的压力是有限度的。实际上,世界大型企业研究会(Conference Board)最近的一项调查发现,只有43%的美国人对他们的工作感到满意——这创下了历史新低。

奥兰多市LSA Partners公司的生产力顾问黛比•兹莫伦斯基(Debbie Zmorenski)表示,向现有员工布置新任务可能是明智之举。但是,在经济衰退期间,很多公司并不是在认真评估员工技能的基础上周密地重新分配工作,而是随意分配并且几乎不提供任何培训的机会。兹莫伦斯基说,当你安排一个才气过人但性格内向的IT专家去做销售时,“你是存心让他以失败收场。”

承担额外的工作并不意味着你一定得到晋升。一些管理人员发现他们正在花时间做一些过去由低级职员干的杂活。费城地区的广告撰稿和市场行销顾问卡洛琳•弗里斯(Carolyn Frith)在一个家居用品生产企业担任销售主管,她并不介意在产品经理休产假的时候负责校对价格表。在保安被解雇后,为停车场的大门输安全码的任务也落到了她的头上,她是什么反应呢?唉,有什么不行呢?她说,唯一的问题是:“很难抽出时间制定战略计划和与客户见面了。”

如果你想知道为什么做好一份新工作这么难,就去请教神经学家吧。最近的研究表明,一个人同时负责多项工作会降低效率,因为从一项工作转换到另一项工作需要耗费大量的脑力。而且,组织管理心理学家和咨询师苏珊•柯恩(Susan Koen)表示,仅仅是超级工作需要的时间也会影响员工的表现,因为长时间工作会让人的大脑产生疲劳。柯恩的客户包括辉瑞制药公司(Pfizer)、美国铝业公司(Alcoa)和宝洁公司(Procter & Gamble)。

值得称赞的是,一些雇主正在采取更多的措施来帮助他们的超级明星。在2010年业绩有所回升的一些公司正在帮助它们的主管加强时间管理和工作安排。

另一项受欢迎的策略是:制定表彰计划,奖励承担额外工作的员工。阿德里安•高斯蒂克(Adrian Gostick)说,一些大型公司现在开始使用“奇才”软件,按照预先设定的自动化程式进行奖励。高斯蒂克是《胡萝卜原则》(The Carrot Principle)一书的合作者之一,曾经担任过O.C. Tanner员工激励方案咨询公司的副总裁。

当然,管理工作量的最终责任还在员工自身。专家称,在很多情况下,雇主并不清楚他们到底给一位员工安排了多少任务,因此员工必须要自己“设法应对”。

克里斯•佩里(Chris Perry)是新泽西州帕西帕尼(Parsippany)的一位品牌经理,负责价值6,500万美元的生产线。佩里表示,他在最近得到升职后事业兴旺,这要归功于他认真规划的结果。为了晚上回家陪妻子,他每天一大早就开始工作——而且经常会在清晨发出几封电子邮件,以确保别人注意到他的努力。当手头的项目太多忙不过来时,他会要求公司高层指明应该优先处理哪些事情。

尽管如此,佩里承认当他看到同事们都加班到很晚的时候,经常也会忍不住这么做。他说,“在给人留下好印象和满足现实需要之间找到平衡的确很难。”

1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能做出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值