5G覆盖全国可能要6年以后,4G与5G将长时间共存

工业和信息化部原部长、中国工业经济联合会会长李毅中在“看2020财经峰会”上表示5G覆盖全国需要600万基站,耗资最高1.5万亿元,预计覆盖全国要6-7年时间,如此4G与5G将共存相当长时间。

华为今年宣传它的balong5000基带芯片支持NSA/SA模式,让5G SA独立组网模式受到业界的高度关注。随后中国移动要求明年1月起入网的手机需要支持SA模式,日前中国电信和中国联通也宣布在明年一季度启动向5G SA独立组网模式演进,这一切都让人以为4G网络将会就此被放弃。

然而5G SA独立组网面临太多的问题,其中最主要的就是由于5G采用了高频频段,导致基站覆盖面积远较4G的小,导致5G基站网络的建设密度远大于4G。目前全国的4G基站数量达到440万座,李毅中估计的600万座5G基站数量是4G基站数量的1.36倍,而且5G基站价格远较4G的高,这是导致建设5G基站网络需要投入1.5万亿巨资的原因。

中国在2014年商用4G,至今已有5年时间,才完成了440万座4G基站的建设,按照4G基站网络的建设进度,预计用6年多时间建设覆盖全国的5G网络应该算是合理的。

事实上运营商的5G网络建设进度远较4G缓慢,实力最强的中国移动预计到明年底才能完成覆盖全国地级市的计划,而2014年商用4G的时候它仅用一年时间就建设了70万座4G基站,初步将4G网络覆盖至全国,对比可见中国移动在5G网络建设方面的进度远比4G缓慢。

资金实力雄厚的中国移动尚且如此,中国电信和中国联通两家负有过千亿债务、净利润只有中国移动几份之一,为了缩短与中国移动在5G网络建设方面的差距,同时节省资金投入,中国电信和中国联通选择了共建5G网络的方式,后两家运营商在5G网络建设方面更无法比中国移动快。

导致运营商对于建设5G网络采取保守策略是有原因的,中国移动在2014年就商用4G,而中国联通和中国电信其实在2015年获得LTE-FDD牌照后才开始大规模建设4G网络的,4G网络商用时间才4-5年时间,运营商的投入成本尚未回收,在这个时候又要大规模投入建设5G网络,并且预计5G网络的投入资金将至少是4G网络的1.5倍以上,无疑让运营商不堪重负。

在这样的情况下,运营商选择先在城市建设5G网络,而在广阔农村地区继续用4G网络提供服务,这可以充分利用4G网络,继续发挥4G网络的余热,同时降低5G网络的建设投入,减少运营商的投资压力。

运营商继续以4G网络提供服务是有迹可寻的,在5G网络建设进度较4G网络缓慢的同时,在4G网络覆盖方面最差的中国联通在今年初还花了超过200亿建设4G网络,可见它预计未来4G网络将与5G网络共存相当长的时间。

如此一来,消费者其实大可以放心继续使用手里的4G手机,在未来的数年都无需担心没有网络可用,而对于希望购买5G手机的用户而言同样也可以放心选购当下的5G手机,因为不管是否支持NSA/SA模式的5G手机在未来数年的使用都不会成为问题。

------------------------------------

柏铭科技 BMtech007

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值