80后生存状态揭露:月薪未过万了吗?

开场白


有人说:“80后是尴尬的一代,生活苦不堪言,钱都让50后60后挣去了,女人都给70后泡去了。”


住房、婚恋、竞争压力、父母赡养等,构成了“80后”青年普遍面临的现实枷锁。理想与现实之间的落差让他们感到迷茫与焦虑,但他们依然相信,“风雨之后总会有彩虹”。


八成80后,月薪未过1万元


受访的80后,超过五成的人出生于1986年至1989年,他们主要集中在中国的一线城市和中小城市,其中有近五成80后在民营企业工作,国营企业和事业单位各占两成。


有42%的人月收入在3000元至5999元之间,2999元以内、6000元至9999元各占两成,


也就是说八成80后的月收入在万元以内,有人算过一笔账(房租,吃喝穿行,应酬,电话,人情,交通),万元收入在广州也会成为“月光族”,如果你是房奴和车奴,生活将更为窘迫。


在回答“你每月会存多少钱?”时


45%的人回答“999元以内”,


而在回答“你现在有多少存款?”时,


27.33%的人回答只有“1万~49999元”,


21.18%的人回答“10万元以上”


18.84%的人自称是“月光族”。


有近六成的80后表示,每月不会给父母一分钱家用。


3.57%人不但不给,反而在啃老。



十个80后,四个房奴,三个车奴,还有三个啃老族


在中国,无论是恋爱或结婚,“最大件”的显然是房子。


调查发现,八成“80后”存款不足10万元,根本不够付首付,买房显然是一种不能承受之重。


有34%的人选择了租房,


有18%的人选择和父母挤在一起,


只有29%的人买了房付了首付,


付清房款还完房贷的仅占14%。


关于买房的钱,有26%的人是由“父母资助大部分,自己(含配偶)存款占小部分”,


19.48%的人是由父母、亲戚全额资助,由自己付清的仅有14%。


由于囊中羞涩,有42.4%的人声称在近两年内不会买车,


有车族仅为29%。


换句话说,十个80后仅3个有车。



80后的三大压力之源:工作、生活、社会评价


在回答“你认同哪种对80后生存压力的描述?”时,


有57.04%的人称“每一代人都有自己的压力,很正常”,

有37.52%的认为“很大,超过70后与90后”。


在“与所在城市的生活水平相比,你感觉自己的生活水平怎么样?”的调查中,


33.2%感觉“基本持平,不满意”,

25%的人表示“低于平均水平,不满意”,

23%的人表示“基本持平,满意”。

可见,“80后”虽然心态积极,但幸福感普遍不强。


那么,他们的压力主要来自哪些方面?


排在第一位的是工作,35.11%的人认为压力来自“工作的压力,要闯出一番事业太难”;


排在第二位的是生活负担,34.16%的人认为压力来自“生活经济的压力,如买房子车子养孩子等”;


排在第三位的是社会评价体系,有20.12%的人认为压力来自“社会压力,累到喘不过气来”;


排在最后的是父母的期望,有10.61%的人感觉“父母家长对自己的期望值太高”。



剩男剩女,不是上网就是睡觉


80后在玩什么?


24.18%的人在上网,

14.81%的人在睡觉,

11.96%的人在看电视,

10.81%的人在看书看报,

10.15%的人在逛街,10.11%的人在旅游,

剩下的80后玩体育运动、相亲和约炮。


显然,80后生活中最主要的休闲娱乐活动就是上网,上网淘宝、看美剧、打游戏、玩微信,当你看到地铁和街道遍地都是低头族的时候,你就会明白,上网已经成为80后深入骨髓的生活方式。


在性这件事情上,相对于父辈,80后对恋爱和性的态度相当开放,对婚前性行为的认同度和接受程度更高。


调查中,近七成80后的初恋发生在大学以前,


有36.1%的人初夜发生在工作后,


33.64%的人的初夜发生在大学期间,


超一成的人的初夜发生在高中和高中以前。


令人意外的是,19.99%的人声称他们至今未有性经历


那么,让我们来观察一下80后的婚恋状态

有22.61%的人已经成为奶爸奶妈,为中国成为宇宙大国做出了一份贡献。

20.75%的人是剩女,

18.8%的人是剩男,

18.01%的已婚未育,

2.86%的人坦诚自己是基友或拉拉,

可见,在性取向问题上,80后相较前辈已相对开明。



最受欢迎的80后偶像是韩寒


最不受欢迎的是郭敬明


80后的身上,被贴满了标签。


在回答“你认为以下哪些对80后的描述可以使用到自己身上?”时,


24.02%的人选择了“独立”,

15.37%的人认为“宅男腐女、垮掉的一代、叛逆、另类、自私、脆弱”都是不公正的描述,

11.72%的认同80后是“宅男腐女”,

11.41%的认为80后“脆弱”,

12.13%的人认为80后其实是“自信”的一代。


而在回答“你认为谁是你心目中80后的先锋代表?”时

有35.13%的选择了“没有”,

32.12%的人选择了“韩寒”,

“郭敬明”排在最末,

只有4.18%的投票率。

紧跟“韩寒”之后的是“刘翔”,

有7.7%的人非常自信,给“我”自己投了一票,

在“我”之后,是“丁俊晖”和“李宇春”。


1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能做出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值