强制6点下班不再996?腾讯回应。。。

上一篇:一个90后员工猝死的全过程

来源:钛媒体

近年来,互联网大厂普遍996的工作模式,让朝九晚五的生活变成了奢侈。因此,近日,#腾讯试点强制六点下班# 的新闻成功登上了微博热搜。

据悉,腾讯互娱(IEG)旗下光子工作室群日前发布了“快乐工作健康生活”的加班管理机制,6月14日起开始执行。该管理机制中提及:

1.周三健康日全部门下午六点下班;

2.其余工作日必须晚上九点前下班,特殊加班人数封顶10%,违规团队下周集体六点下班;

3. 全面双休,特殊加班人数封顶10%,违规团队未来一个月不得加班;

4. 禁止周末连续两天加班。

光子工作室群加班管理机制

对于该消息,腾讯互娱相关负责人表示,为鼓励员工劳逸结合,进一步提升工作效率,同时也更好地关注身心健康,留出更多时间陪伴家人,腾讯互娱光子工作室群推出相关措施。

事实上,腾讯互娱该政策的推出,是源于此前腾讯内部论坛KM(类似于企业版内部知乎)上员工家属的控诉。

5月29日凌晨,“在腾讯就没有生活,真的是理应如此?”的一条KM帖子,由腾讯IEG旗下光子工作室的家属发出后,引来了三万多名腾讯员工的激烈讨论。

光子工作室群官网显示,光子工作室群成立于2008年,为腾讯互动娱乐事业群(IEG)四大游戏工作室群之一。光子的产品包括《和平精英》《黎明觉醒》《自由幻想》《欢乐斗地主》等。这位发帖的家属,是光子工作室一名男员工的妻子。

这位愤怒的妻子点名责问丈夫所在的相关部门:对加班严重的部门能否进行警告甚至强制措施?其他许多员工也纷纷跟帖表示赞同。

因此,迫于舆论压力之下,腾讯互娱旗下光子工作室对于员工加班的规章制度进行了强制的限制措施。

对6点强制加班的评论

对此,网友展开了热议。不少网友表示支持,互联网公司应当保障员工的正常休息时间。腾讯这是树立了正确的风气,为其他大厂带了个好头。有网友发出了“其他公司不学一下吗”的感慨。

但也有一些网友表示,“本来是劳动法的规定,现在成了‘强制’,还要说成‘福利’,实在是没什么可夸的。”

另有一些网友则认为,为员工减负关键在于减工作量,否则唯一的变化就在于从在单位加班变成了在家加班,不能解决根本问题。

据《国务院关于职工工作时间的规定》:

第3条:职工每日工作8小时、每周工作40小时;

以及第7条:国家机关、事业单位实行统一的工作时间,星期六和星期日为周休息日。企业和不能实行前款规定的统一工作时间的事业单位,可以根据实际情况灵活安排周休息日。

超出工作规定时间,得遵守三点:

1.每日加班不超1小时,最多不能超过3小时;

2.每个月加班时间不能超过36小时;

3.公司安排加班,得和工会或者员工本人协商;

而这些规定,对于互联网大厂来说,想要达成还有长远的距离。

不过,尽管当下互联网大厂的加班问题依旧严重,但只要社会舆论、企业和法律监管对于职场员工的基本休假权益更为重视,就意味着矫正“加班文化”趋势是向好的。

今年1月6日,新华社刊文《扭曲“奋斗观”当休矣》,其中提到:

拼搏不是拼命,勤劳不能过劳,漠视劳动者权益、透支劳动者健康的所谓‘奋斗’,绝不是什么‘福报’,这既违反劳动法,更背离奋斗精神,其社会危害性不可小看。

新华社的观点,显然对于扼制加班文化会起到不可小觑的作用。

企业方面,两年之前,阿里等企业还在提倡“996是福报的文化”。不过,996的文化引发了上班族的激烈争论后,在此后两年间,加班严重的现象已逐渐成为企业试图去摒弃的顽疾,而不是骄傲的资本。

对于一些新兴互联网公司来讲,更是从成立之初就给了员工人性化的工作时间安排。譬如上海包括心动网络在内的一批游戏公司,不限制打卡、无限期年假、强调“成年人文化”,工作和生活要平衡等等,就是在向新型的企业管理模式过渡。为了抢夺人才,这些新兴公司的企业运作模式,一定也会倒逼传统互联网大厂的管理模式。

当然,除此之外,法律监管条例在反超负荷工作文化中也是不可缺少的一环。

因此,也有专家建议:把企业违反劳动法的行为列入信用惩戒体系,通过这些机制倒逼企业守法,尤其是遵守劳动法。通过包括大数据在内的新技术新手段对用人单位用工情况加以监管。

由此,劳动法此前的立法就可以在司法层面得到执行。

你们公司还在996吗?欢迎留言讨论。

最后,关注公众号互联网架构师,在后台回复:2T,可以获取我整理和创作的 Java 系列教程非常齐全。

 推荐阅读 

1、2019 年 9 月全国程序员工资统计,你是什么水平?

2、如何才能成为优秀的架构师?

3、从零开始搭建创业公司后台技术栈

4、程序员一般可以从什么平台接私活?

5、37岁程序员被裁,120天没找到工作,无奈去小公司,结果懵了...

6、滴滴业务中台构建实践,首次曝光

7、不认命,从10年流水线工人,到谷歌上班的程序媛,一位湖南妹子的励志故事

8、15张图看懂瞎忙和高效的区别!


1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能做出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值