AI未来十年新范式,生成式人工智能的挑战与机遇_生成式ai+少样本

x

)

P\left( \hat{y}|\boldsymbol{x} \right)

P(y^​∣x)建模求得数据的最优决策边界;后者通过对联合概率

P

(

x

,

y

^

)

P\left( \boldsymbol{x},\hat{y} \right)

P(x,y^​)建模求得数据各模式的决策边界。

在这里插入图片描述

机器学习模型的分类(绿色为新样本)

如图所示,判别式模型通过最优决策边界计算

P

(

y

^

x

)

P\left( \hat{y}|\boldsymbol{x} \right)

P(y^​∣x),并选择使

P

(

y

^

x

)

P\left( \hat{y}|\boldsymbol{x} \right)

P(y^​∣x)较大的

y

^

\hat{y}

y^​作为

x

\boldsymbol{x}

x的预测值;生成式模型通过比较样本

x

\boldsymbol{x}

x与模型各模式间的相近程度,即通过联合概率间接计算样本

x

\boldsymbol{x}

x对各模式的后验概率,并选择使后验概率较大的

y

^

\hat{y}

y^​作为

x

\boldsymbol{x}

x的预测值

两类模型的具体对比如表所示

项目判别式模型生成式模型
特点寻找最优决策边界,反映不同模式数据间的差异性寻找各模式边界,反映数据全体的统计全貌及不同模式间的相似度
联系由生成式模型可推导判别式模型,反之不成立
本质对后验概率建模对联合概率建模
实例线性回归、Logistic回归、支持向量机、决策树、神经网络等贝叶斯网络、贝叶斯分类器、隐马尔科夫模型等
性能学习过程更简单,但不能反映数据本身特性模型信息量更丰富、灵活,但学习过程较复杂
应用图像文本分类、时间序列预测等自然语言处理等

从上面的分析可以看出:生成式模型和判别式模型是两种截然不同的人工智能模型。判别式模型的主要任务是对给定输入进行分类或标记,而生成式模型则是根据给定的条件生成新的数据。

在过去,人们只希望基于已有的给定数据做一些预测和拟合,因此判别式模型得到发展并且很好地解决了大部分任务;而未来,人们将目标转向用生成式模型生成全新数据,进行迁移学习等,也就是常说的人工智能生成内容(AI Generated Content, AIGC)

在这里插入图片描述

图源网络,侵删

为什么我们需要生成全新数据?

答案很简单:我们希望提高人工智能的工作上限,就不能仅仅依靠它对已有数据的拟合,而是像人一样有一定的创新能力。

生成式模型相比判别式模型的独特优势,使之可以应对更多的任务,例如推动内容开发、视觉艺术创作、数字孪生、自动编程,甚至为科学研究提供AI视角、Al直觉…因此生成式人工智能的未来发展趋势。

针对生成式人工智能,杨小康教授还提出了一个有意思的问题

预计到2025,生成式人工智能产生的数据将占据人类全部数据的10%,那么根据二八原则,当生成式数据超过80%的时候,人类是否全面进入元宇宙?

大家可以思考一下~

2 生成式模型的挑战

挑战与机遇并存,生成式模型带来广阔前景的同时,也存在着非常大的挑战。杨小康教授主要总结了三点:

  • 解空间巨大

大家对高等代数中的解空间可能比较陌生,但是在人工智能领域有一个更形象的词——维数灾难(curse of dimensionality)

如何理解这个问题?首先考虑单个特征的情形,假设在样本

x

x

x任意小邻域

δ

\delta

δ内都存在样本,则称对样本空间进行了密采样(dense sample)。例如取

δ

=

0.01

\delta =0.01

δ=0.01,则在归一化样本平均分布的情况下需要采样100个样本。

然而,机器学习任务中通常面临高维特征空间,若特征维数为40,则要实现密采样就需要

1

0

80

10^{80}

1080个样本——相当于宇宙中基本粒子的总数。所以密采样在高维特征空间中无法实现,换言之,高维特征样本分布非常稀疏,给机器学习训练、算法采样优化带来了困难。这种高维情形下机器学习任务产生严重障碍现象就称为维数灾难,维数灾难还会以指数级的规模造成计算复杂度上升、存储占用大等问题。

在这里插入图片描述

  • 宏观一致性

以视频生成为例,需要的像素感受野很大。如何预测目标及结构的长期运动变化?杨小康教授指出现在图像三维重建的一个问题是,重建出来的图像在多个角度呈现的宏观结构可能不一致,比如一个人在做转头的动作,重建出来的人像可能差异较大

  • 微观清晰度

如何有效逼近多模分布,避免产生模糊预测效果?包括数据不完整、模型不准确、外部干扰等对图像生成造成的影响。例如,在生成图像时,模型可能会将一些细节部分模糊化或缺失,导致生成的图像与原始图像相比缺乏细节。

3 自主智能新架构

前面说过,生成式模型是全新的人工智能模式,核心是让AI创造出新数据。这就要求AI需要像人一样具有对世界的理解,以及基于此的创新能力。

然而,动物和人类表现出的学习能力和对世界的理解,远远超出了 AI 和机器学习系统。一个青少年可以在大约 20 小时的练习中学会开车,小朋友可以在只需要很少的交流后就学会语言沟通,人类可以在他们从未遇到过的情况下采取行动。

相比之下,无论是传统的判别式模型还是现在着力发展的生成式模型,都需要花费比人类大几个量级的试验进行训练,以便在训练期间可以覆盖最意外的情况。尽管如此,我们最好的AI系统在现实世界任务——例如自动驾驶中仍远未达到人类可靠性。

这是否意味着当下的人工智能学习模式,和人工智能模型的发展产生不适配?杨小康教授以此引出图灵奖得住LeCun提出的全新自主智能架构

在这里插入图片描述

图源网络,侵删

在上图所示的自主智能架构中包含多个模块,其中的核心也是最复杂的组件是世界模型,因为要实现通用人工智能,最关键的一点是让机器了解世界是如何运转的,掌握广泛的现实知识,并依据此进行推理

世界模型可以

  • 估计感知模块未提供的关于世界状态的缺失信息,例如杨小康教授介绍的神经流体物理仿真推理工作;
  • 预测世界的合理未来状态,由表征世界状态不确定性的潜在变量进行参数化,这是AI学会推理的基础

4 持续学习与表征解耦

世界模型有一个关键的问题:它必须能够表征世界状态的多种可能预测。然而,自然世界不是完全可以预测的,特别是包含具有对抗性的智能体时尤其如此。但即使世界只包含无生命的物体,它们的行为仍然是混乱的,其状态不能完全观察到。因此,在思考世界模型构建方法时,必须考量

杨小康:世界模型的核心问题是使用什么样的学习范式来训练世界模型;以及世界模型采用什么架构,如何用于决策?

毫不夸张的说,未来几十年阻碍人工智能发展的真正障碍是为世界模型设计架构以及训练范式。

4.1 学习范式

什么叫做学习范式?其实就是一种学习的规范方法。

世界模型中一个难点是灾难性遗忘,因为待学习的视觉控制任务是持续变化的,任务间存在先后顺序,和人一样,学习了新知识的AI就会对旧知识有所淡忘。例如,AI对机械臂的运动轨迹预测不准,对环境中其他物体的形貌预测模糊等等;另一个难点称为多重分布漂移,简单来说,就是在学习过程中假设标签分布固定,而只有输入数据分布的漂移而世界模型由于进行自回归训练,输出视频预测结果,因此不仅存在输入数据分布漂移,还存在输出数据分布漂移,以及不同任务间时空动态信息的分布漂移。

在这里插入图片描述

图源网络,侵删

可想而知,如果不采取一个好的学习范式,世界模型的泛化能力并不高。针对此,杨小康教授介绍了三种前沿方法:

  • 混合世界模型:变分推断+混合高斯,在各任务上学习独立的隐变量先验,缓解时空动态分布漂移
  • 预测式经验回放:经验回放其实是强化学习中的一个概念,原理是通过固定上一任务学习好混合世界模型参数,用于在后续任务上回放旧任务上的图像序列,回放结果与当前任务的真实数据混合,重新训练世界模型M,缓解输入和输出分布漂移
  • 持续世界模型:训练任务流式到来,训练环境不断变化;持续学习结束后,回测各历史任务,使持续预测学习中的任意阶段都能很好的保持已学习的时空动态信息,生成结果运动明确,物体清晰

4.2 学习架构

世界模型的第二个问题是学习架构,这里采用的核心思想是解耦。杨小康教授举了个例子来说明什么是解耦:当你驱车前往某地,你的驾驶行为不会对其他人的驾驶产生直接影响,每个人都是独立的智能个体,因此可以抽象出来分别考虑,这就是解耦。

最后的内容

在开头跟大家分享的时候我就说,面试我是没有做好准备的,全靠平时的积累,确实有点临时抱佛脚了,以至于我自己还是挺懊恼的。(准备好了或许可以拿个40k,没做准备只有30k+,你们懂那种感觉吗)

如何准备面试?

1、前期铺垫(技术沉积)

程序员面试其实是对于技术的一次摸底考试,你的技术牛逼,那你就是大爷。大厂对于技术的要求主要体现在:基础,原理,深入研究源码,广度,实战五个方面,也只有将原理理论结合实战才能把技术点吃透。

下面是我会看的一些资料笔记,希望能帮助大家由浅入深,由点到面的学习Java,应对大厂面试官的灵魂追问

这部分内容过多,小编只贴出部分内容展示给大家了,见谅见谅!

  • Java程序员必看《Java开发核心笔记(华山版)》

  • Redis学习笔记

  • Java并发编程学习笔记

四部分,详细拆分并发编程——并发编程+模式篇+应用篇+原理篇

  • Java程序员必看书籍《深入理解 ava虚拟机第3版》(pdf版)

  • 大厂面试必问——数据结构与算法汇集笔记

其他像Spring,SpringBoot,SpringCloud,SpringCloudAlibaba,Dubbo,Zookeeper,Kafka,RocketMQ,RabbitMQ,Netty,MySQL,Docker,K8s等等我都整理好,这里就不一一展示了。

2、狂刷面试题

技术主要是体现在平时的积累实用,面试前准备两个月的时间再好好复习一遍,紧接着就可以刷面试题了,下面这些面试题都是小编精心整理的,贴给大家看看。

①大厂高频45道笔试题(智商题)

②BAT大厂面试总结(部分内容截图)

③面试总结

3、结合实际,修改简历

程序员的简历一定要多下一些功夫,尤其是对一些字眼要再三斟酌,如“精通、熟悉、了解”这三者的区别一定要区分清楚,否则就是在给自己挖坑了。当然不会包装,我可以将我的简历给你参考参考,如果还不够,那下面这些简历模板任你挑选:

以上分享,希望大家可以在金三银四跳槽季找到一份好工作,但千万也记住,技术一定是平时工作种累计或者自学(或报班跟着老师学)通过实战累计的,千万不要临时抱佛脚。

另外,面试中遇到不会的问题不妨尝试讲讲自己的思路,因为有些问题不是考察我们的编程能力,而是逻辑思维表达能力;最后平时要进行自我分析与评价,做好职业规划,不断摸索,提高自己的编程能力和抽象思维能力。
0)]

[外链图片转存中…(img-dVzz15Kd-1718807273390)]

③面试总结

[外链图片转存中…(img-DVsDsxor-1718807273391)]

[外链图片转存中…(img-eR7AXiiw-1718807273391)]

3、结合实际,修改简历

程序员的简历一定要多下一些功夫,尤其是对一些字眼要再三斟酌,如“精通、熟悉、了解”这三者的区别一定要区分清楚,否则就是在给自己挖坑了。当然不会包装,我可以将我的简历给你参考参考,如果还不够,那下面这些简历模板任你挑选:

[外链图片转存中…(img-WHez6HPP-1718807273391)]

以上分享,希望大家可以在金三银四跳槽季找到一份好工作,但千万也记住,技术一定是平时工作种累计或者自学(或报班跟着老师学)通过实战累计的,千万不要临时抱佛脚。

另外,面试中遇到不会的问题不妨尝试讲讲自己的思路,因为有些问题不是考察我们的编程能力,而是逻辑思维表达能力;最后平时要进行自我分析与评价,做好职业规划,不断摸索,提高自己的编程能力和抽象思维能力。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值