西方式的996 中国学不来

文/阑夕

  来源:阑夕(ID:techread)

  1、事到如今,其实很多关于“996”的讨论都已失焦,尤其是在劳资双方的代表性表达里,前者将“996”视为职场压迫的象征,不满丧失议价权的处境与地位,而后者把“996”抽象为个人拼搏的要素,赞美具有主观能动性的员工品质。两边操着不同的语言争执不下,却是徒有热闹,实则鸡同鸭讲。

  2、当然,劳动法层面的“996”缺乏问津,是因为教条总是枯燥而乏味的,毫无情绪上的延展空间,加上真正有意愿施行“996”的公司,但凡HR不是吃白饭的,就会规避劳动仲裁介入的风险,把“996”通过企业文化而非一纸制度的方式推行下去,自古以来,“既要拔掉鹅毛、又不让鹅叫唤”的技能都是流行的。

  (若无特制,本文谈论的“996”,也是抽象意义上的,而不是文本意义上的。)

  3、马云两次长谈“996”,都在核心论点之外用了篇幅巨大的注释和补充,来弱化角色乃至阶层对立的锋芒,足见民意的汹涌澎湃。只是当老板的万无可能唆使员工享受生活,怎么建立统一战线——也就是强调共同利益——倒是成为一门说话的艺术,决定着立场的偏移指数。

  4、资本主义和自由主义共享价值观,生产要素的自由流动,成就了生产力大爆发的今天,雇主和雇员皆有双向挑选的权利,“道不同,不相为谋”的条件若是摆在前面,倒也没有多少不妥。当然也可以说,企业要求员工付出是天经地义的,与此同时,员工向企业争取符合付出的待遇,也是理所当然的,有句话说得好,办公室里的一切委屈,都是钱没给够。

  5、前段时间,TheInformation在报道头条的组织架构时,记者跑去滴滴出行那边旁敲侧击,想问问有没有头条的前员工可以爆料,结果滴滴给出的答复很是真实:包括我们在内的这些头部互联网公司都很难从头条挖人,因为后者的薪酬“远高于行业平均水平”。我也问过不少抱怨“996”的程序员们,除了工作强度的压力之外,他们最为厌恶的,就是公司总是极力避免和员工保持纯洁的金钱关系,而是想方设法的灌输理想主义,把合伙人的头衔下发给每一个人,但又不给合伙人的一毛股份,所谓“德不配位,必有灾殃”。

  6、相比之下,马云的辩解技巧在于,他可以冒天下之大不的拥护“996”背后的奋斗精神,但又把这种主张与阿里的管理要求进行切割,如果工作本身能够提供足够的动力——肯定是会有的——那么“996”就成为了个人选择而非外部强制,为了攀登自我实现的高峰,废寝忘食自然不在话下。然而这里涉及到的概念理解在于,当我们谈论“996”的时候,谈论的究竟是勤奋,还是疲劳?还是说,勤奋和疲劳,就是一枚硬币的正反两面?

  7、无论“996”的执行细则如何,选择或是接受它,都意味着同等重量的舍弃必然发生,比如生活的乐趣、家庭的温暖以及身体的活力,在我看来,马云说他后悔因为创办阿里巴巴无暇顾及家庭是真话,说现在的年轻人有机会“996”是一种福报也是真话。

  真话的本质,是真实,而不是逻辑,就像现在很多妈妈一边狠心把孩子的周末日程排满往各种培训班里送,一边又真切的心疼自己孩子在这么小的时候就不得不开始承受人生的痛苦,竞争世界的游戏规则,就是如此分裂。或者说,马云想要重视他自己的家庭,但不想让阿里巴巴的员工们重视他们的家庭,因为只有后者的运转,才有前者的成立。

  8、“新约”里有个故事,大意是一帮商人想要陷害耶稣,说你既是神子,那你给恺撒纳税吗,耶稣拿出一枚银币反问,这纳税的钱是谁铸的,对方回答,说那当然是罗马,于是耶稣用那句著名的话终结了这场不怀好意的谈话:“那就让上帝的归上帝,让恺撒的归凯撒。”如果市场配置能够实现接受“996”的员工投奔鼓励“996”的公司、反对“996”的员工加入无意“996”的公司,那么便会皆大欢喜,但是就像快要过期的酸奶如果和其他在其酸奶放在一条货架上就必然卖不出去的道理一样,在一个长期的买方市场里,不进则退的淘汰只会倒逼提前排队的积极。

  9、西方有种先苦后甜的职业管理规划,即在青壮年阶段投入大量心血——可以等同于某种“996”式的付出和回报——借此换来财务积累的超前完成,在四十多岁的时候卸任退休,在真正“无欲无求”的晚年来临之前,尽情享受生活快乐。

  而中国学不来这样的风尚,不止是因为经济发展还没有到相应的级别——改革开放才多少年呢一更重要的是,在缺乏系统性的保障机制——比如工会、福利等等——的情况下,疲于奔命的年轻人很容易沦为人肉电池,到了三十多岁被榨干了,然后得到“岗位优化”的处理,把位置腾出来让给下一批年轻人,若是房贷什么的还没清完,提前退休的梦想就成了提前破产。

  10、那些反抗“996”的人在另一个场景里,未尝不是赞颂大国崛起奇迹的热血青年,只是国运这种虚无缥渺的大词,落地之后一定是由无数具血肉之躯给鼎力打起来的,中国的互联网行业如今可以在应用层面做到和美国划洋而治,显然不是靠天赋异禀。就像那个被联合国安排对着各国政要演(bei)讲(song)阐述气候问题有多严重所以人类应该停止追求经济增长的孩子在微博上被嗤笑“何不食肉糜”一样,现在,“何不食肉糜”的人变成了当初的嗤笑者们。

1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能做出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据的时间依赖性。 5. **长短记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据的时间依赖性。 5. **长短记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据的时间依赖性。 5. **长短记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据的时间依赖性。 5. **长短记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值