清华大咖~分享终于有人把云计算、大数据和人工智能讲明白了

人工智能已经逐渐走进我们的生活,并应用于各个领域,它不仅给许多行业带来了巨大的经济效益,也为我们的生活带来了许多改变和便利。那么我们很多觉得学习人工智能是一件很难的事情,接下来小编想通过这些文章的分享,让大家对编程和人工智能有更进一步的认识!

巨量模型是 AI 发展的大势所趋

虽非蟾宫谪降仙,何惧冰殿冷彻骨。窥帘斜视金屋小,多少俊才在此关。

上面这首名诗并非是中国古代那位大家之作,而是浪潮新近发布的全球最大规模人工智能巨量模型—— “源1.0” 的杰作。“源1.0”,其参数量高达 2457 亿,借助文本分析模型,获取 5TB 高质量中文数据集,其作为语言模型可较好完成尤其针对中文的阅读、理解、推理、逻辑判断等任务。

为什么会出现如此体量巨大的模型那?随着各类行业人工智能场景应用的增多,AI 模型越来越多样化、复杂化,AI 小模型可以完成各行各业中的实际应用,但其通用性较差,精准度也存在局限性,应用场景更换,AI 小模型有可能就无法适用。

“人工智能如何发展出像人类具备逻辑、意识和推理的认知能力,是人工智能研究一直在探索的方向。目前来看,通过大规模数据训练超大参数量的巨量模型,被认为是非常有希望实现通用人工智能的一个重要方向。”王恩东院士认为,随着巨量模型的兴起,巨量化已成为未来人工智能发展非常重要的一个趋势。

巨量模型将是规范化创新的基础。在过去的十年间全球范围内,人工智能模型参数大小逐级递增,由千万级增长至千亿级。2020 年,OpenAI 在发布 GPT-3 深度学习模型具备 1750 亿参数,正式将语言模型带入千亿参数时代。2021 年,世界范围内也出现了几个超大模型,例如英文领域有微软和英伟达推出的 MT-NLG 巨量模型,具备 5300 亿参数;中文领域有浪潮推出的具备 2457 亿参数的源1.0,百度和 PCL 团队推出的具备 2600 亿参数的 ERNIE 3.0 Titan , 甚至还有 Switch Transformer 这种 1.6 万亿参数的模型(Switch Transformer 使用混合专家 Mix of Expert,MoE,不是单体模型)

从 2021 年巨量模型的研究发展来看,巨量模型的趋势才刚刚开始,2022 年,甚至会推出万亿级别的单体模型。同时,巨量模型的资源使用方面的优化也会成为新的研究方向,相信未来会出现更多参数但需要更少 GPU 的巨量模型。

对于人工智能的发展来说,在实现理想泛化能力的基础上,越小的模型,将会更加广泛与灵活地适配应用场景。但在这条通完理想的道路上,首先需要使用大模型、通过提取海量有价值数据进行充分的训练和学习,才能逐渐调优至最优最理想结果,然后在进行小模型的训练,实现灵活广泛的适配。

AI 不断超边缘侧渗透

边缘计算指的是在网络边缘结点来处理、分析数据。边缘结点指的就是在数据产生源头和云中心之间任一具有计算资源和网络资源的结点。比如手机就可以是人与云中心之间的边缘节点,网关是智能家居和云中心之间的边缘结点。

在物联网技术迅速发展的当下以及日益增长的业务实时性要求使边缘测和端侧计算能力变得越来越重要。例如在工业互联网中,对数据采集的准确性以及实时性要求不断提高,采集的数据量也越来越巨大。为了更好的实时分析数据以及处理海量终端数据并减轻云端网络传输压力࿰

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值