2024-北京智源大会-通用人工智能的关键问题及思考-李开复、张亚勤

3 篇文章 0 订阅
2 篇文章 0 订阅

李开复、张亚勤|Fireside Chat

整体概要

大模型作为人工智能历史上的一次重大革命,依托于计算能力和数据量的指数级增长,以及近似无损的压缩技术,极大推进了人工智能的应用和发展。尽管面临诸多挑战,如算力依赖、工程复杂性及最近发现的记忆与幻觉问题,全球科研人员正积极解决这些问题,对未来保持乐观态度。大模型已取得显著成就,尤其是在大数据处理和分析方面,但由于目前尚无法像人脑那样高效运作且缺乏对物理世界的深刻理解和推理能力,其发展仍面临局限。未来的研究将侧重于提高效率、深化对物理世界的理解,并明确模型的能力边界。随着AI技术进入2.0时代,大模型正在推动产业升级,特别是在2C和2B市场展现出巨大的潜力。面对2B市场的接受度、成本控制以及技术质量与竞争性报价之间的平衡等挑战,相关企业和开发者需深入了解市场需求,精选合作伙伴,并通过提供优质技术和服务建立竞争优势。同时,对于2C市场,低成本和创新营销模式成为推广的关键。讨论还触及了从信息智能向物理智能的演进趋势,特别是无人驾驶和机器人技术领域的广阔前景。随着技术不断进步,无人驾驶技术在特定环境下的实际应用已经展示了其巨大的经济价值和社会潜力,尽管如此,安全、机械稳定性和人工智能的可控性仍然是该领域亟待解决的问题。最终,本次讨论着眼于通用人工智能的未来发展,预估了不同智能阶段的实现时间,并强调了在追求技术创新的同时必须考虑风险管理和人类未来发展的角色。

观点总结-李开复 零一万物 CEO

深入探讨了人工智能(AI)的发展、应用及其面临的挑战。他首先强调了大数据和更强计算能力对AI进步的重要性,并提出通过“scaling law”不断加强AI模型力量的理念。他认为大模型的智慧源自于近乎无损的数据压缩,并且提出了一个严谨的数学方法来评估模型性能。虽然算力提升是AI发展的一个重要方向,但他也提醒需要关注工程问题和资源的高效利用。同时,他提到了大模型存在的问题,如幻觉问题,并指出这些问题正在得到解决。 对于AI的应用前景,他预见短期To C端将有更多的机会,而长期To B端将会贡献更大的价值。然而,他也指出B端实施面临诸多挑战,如企业采纳新科技的速度和重视程度不足。为此,他强调了高质量的工程化实现和对基础设施投入的重要性。 他还提到了AI在多个行业中的应用,比如无人驾驶和虚拟助理,并指出了物理世界与虚拟世界在AI应用上的差异。特别地,他对当前人形机器人的实用性与必要性表示了质疑。 最后,他着重强调了AI安全性和伦理问题,尤其是对AI可能被用于不道德目的的担忧,并认为应在发展AI的同时,谨慎考虑其潜在的社会影响。

观点总结-张亚勤 清华大学智能产业研究院院长

主要介绍了当前大模型技术的三大成功之处及其面临的挑战,并对其未来发展趋势进行了展望。首先,大模型技术通过利用大数据、算力提升及高效的算法(如Transformer),实现了对海量数据的有效处理和学习,展现出规模效应、基于Token的表示转换能力和跨模态的通用性。然而,这些大模型也面临着效率低下、缺乏对物理世界的深入理解和边界问题等挑战。未来五年内,预计大模型将在信息智能领域取得重大进展,接近或实现人类水平的智能。同时,物理智能和生物智能的实现可能需要更长的时间,约十年至二十年。他强调了通用人工智能(AGI)的重要性,并认为AGI应该具备强大的能力。

大模型:AI发展的新里程碑与挑战

概要:大模型代表了人工智能历史上的重大革命,其成功源于scalinglaw(随着计算量和数据量的增加而增强的趋势)以及接近无损的压缩技术,这种技术将压缩与智能联系起来,使得模型能够通过更严谨的方法论进行评估和改进。尽管大模型面临着众多挑战,如过度依赖算力、工程问题以及近期出现的记忆和幻觉问题,但全球研究人员的努力正逐步解决这些问题,展现出对未来的乐观预期。

主持人:关于大模型这几年特别热,应该说包括刚才的报告,大家也感受到了这个大模型的能量和在各种领域的应用的潜力。大模型到底做对了什么,使得这么成功,还有哪些欠缺的地方需要后续需要发展?

李开复:

1、大模型肯定是AI的有史以来最大的一个革命。我觉得里面特别重要的就是scaling law. 也就是说我们能够用更多的计算和数据,不断的让它增加就会变强。这一点是已经被验证,而且肯定还没有达到一个顶峰,还在推进中,这是让我们非常振奋的。

2、我觉得其实他大模型他本身的智慧来自于一个接近无损的压缩。这一点我觉得也是非常的重要,这点可能不是当年我们很多做人工智能的,想到会把压缩和这个智能能够连接在一起。因为我们scaling law的过程中,不能就盲目的就丢丢更多的GPU, 所以我们会需要有一个方法来去评估我们有没有越做越好,两个方法哪个做的更好。所以在我们01万物的内部,我们其实是有一个这数学严谨的一个方法论是用压缩的这个理念来去评估。

大模型可能面临的一些挑战:

仅仅是用更多的算力来把它往前推动。这个如果是主要的方向的话,那么呃我觉得如果未来会继续看到它的快速上升,那这样的话就会导致只有那些特别有GPU的公司或国家能够在这方面胜出。

当然我觉得话说回来我们也验证了国内的很多大模型都已经是接近了,甚至在有些例子里打平或者偶尔会超过美国的大模型。所以我还是认为,其实同样重要的是需要专注的就是里面的工程问题,怎么能够去用工程来让我们不是进入一个盲目的丢算力,达到更高的结果。

张亚勤:

1、规模效应

规模效应本身首先是利用了大量的海量的数字化或者数据,加上这个算力的提高,加上现在这个架构,Diffusion,还有Transformer,很好的利用了这个算力和这个数据。所以我觉得这个schedule大家可能有的人说,我两年三年是不是就不成立了?我自己认为的话,这在将来的可能五年左右,至少还是我们产业大的这个方向。就是scaling law. 

2、token based

不管你是文本、语音、图像、视频或者在自动驾驶激光雷达的信号,在食物里面蛋白质细胞都最后可以抽象成一个token, 然后token之间的这些训练、学习、生成是特别一个核心,这个其实和我们大脑很像,是看到那个神经元都是一样的,不管是做什么事是不一样的。

3、通用性

这个也与token有关系,现在通用不仅仅可以用到文本,可以用到我们的多模态,也可以用到生物生成。

问题:

1、效率太低。

如果看一下我们人类大脑的话,目前的最大的模型是我们人的这个860亿个神经元,每个神经元有差不多几千个这个突出的连接可能比我们小100倍甚至1000倍。但是我们大脑都有三斤重二十瓦,这个决策效率很高。所以未来的话需要大幅度提高这个效率,这样的话才会有真正的商业模式。

2、真实物理世界理解与推理能力较差

针对现在的大模型,还是没有真正的理解物理世界的推理,各个方面还是比较差一些包括刚才开头讲过的幻觉这些我觉得很多的研究都在不断的做,这里面包括很重要的问题。就是我们的大模型做的再好,它在这个生成式和这个对世界真实的表述上一个有一个矛盾是怎么样能把我们生成式的这种概率大模型和我们现在已有的这个低性原理。

所以我认为下面五年会有一个全新的架构,使得会替代现在的transformer和现在这个diffusion架构。

3、边界问题

我们现在大模型他搞不清楚,他不知道我不知道什么。

主持人:不足刚才开复老师没讲,但是我想再追加问一下,因为有些人认为大模型这个就是一个实践,就是一个工程,是经验主义的做的一个东西,没有理论基础,所以说的不好听的叫不靠谱。

李开复:

我觉得科学和工程缺一不可。

如果只是在实验室里雕花,然后写一些不错的论文,就期待有一批工程的人,我把它扔过去,他们做成产品,这个肯定也是不行的。我们在01万物的经验,就是我们每一个做AI做模型的research,都要懂infrastructure,都要懂推理。都要知道成本的问题。所以当你在做科研的问题的时候,就要知道会怎么样实现在什么产品里面所需要的速度跟反应是有多快。然后做完了实验就可以确保这样你做出来的模型可以得到很好的工程。结果。没有没有我们做这个整个训练模型的过程中,绝对不只是写paper做出结果来,还要同时考虑到我们怎么样系统化的工程化的去做数据工程。因为是数据的训练,数据的筛选,这些是非常重要的。

探索AI2.0时代的B2C与B2B市场机遇

概要:在AI2.0时代,大模型技术正驱动产业升级,尤其在2C和2B市场上展现出巨大潜力。短期内,2C市场因其能够快速累积大量用户并尝试各种商业模式而显得更具机会性。从长远来看,2B市场的规模效应和技术深度使得其同样充满机遇。然而,2B市场面临的挑战包括企业对于新兴技术的接纳程度、成本控制以及如何在不牺牲技术质量的前提下提供竞争性报价。为应对这些挑战,相关企业和开发者需深入理解市场需求,精心选择合作伙伴,并通过提供高质量的技术和服务来建立竞争优势。此外,对于2C市场,虽然大模型技术可应用于各种应用场景,如视频制作和社交平台,但其高昂的推理成本成为推广的一大障碍。因此,寻找有效的成本优化策略和创新的营销模式变得尤为重要。

主持人:AI2.0时代我们叫大模型时代,产业化最大的场景在哪里?2B与2C赛道,哪个更有机会,为什么呢?想请两位发表你们的看法。

开复:国外两者都有机会,国内2C有机会。

刚开始你要能够赚钱,要能够解决问题。所以工具越往后难度越高,需要的用户量越高,而且商业模式往往是先堆积用户DAU, 再找商业模式。所以你的成本一定要压低,试错的这个难度所需要的投资就会更多。所以他按照这个顺序来也是自然的。

大模型跟其他的PC互联网时代不一样,就是推理成本还太贵。所以最近我们也推出了一个新的想法,叫做TC-PMF. 就是考虑PMF的时候,你还要把技术成本跟难度考虑进去。

还有它的成本会不会够低,这些要综合考虑。所以做这方面的2C应用,不是一个过去移动互联网的产品经理一个人就可以做主算的,它的难度会很高。你还会需要做infrastructure,做这个推理引擎的人,还会需要做大模型AI的专家一起打磨产品。

避免大厂降维打击。

验证TCPMF后,你要把握着一个一定的时间窗口,把你的品牌打出来,最终胜出的to c的应用,一定不只是技术做的好,技术做的好是需要的,还需要抓到一个时间窗口。然后在这个时间窗口打造一个可持续的优势。比如说是品牌优势,比如说是一个社交链,比如说是用户的数据,让他不能离开你这个平台。

2B的这个领域面临了几个巨大的挑战。

1、大公司,传统公司,他不敢采取看不懂这个技术,不敢采取这种特别巨大颠覆式的东西,大公司有点难拥抱。

2、对企业带来的最大价值是降本,而不是创造价值。降本说实在就是取代人类的工作。大公司会有很多高管或者中层的管理,他不愿意做这个事情。因为这个做了,他可能团队就要砍掉了。所以公司大公司有时候CEO有时候是很想做,但下面的人会有阻力。所以这些理由造成to b理论上应该马上可以来,确实没有那么快。

3、这个问题,在中国比较严重的问题,就是有些大公司他没有认识到,很多大公司没有认识到软件的价值,愿意为软件付费,而且有这么多大模型公司就来竞标,然后大家就越进越低,进到最后做一单赔一单都没有利润。我们在AI1.0时代就看到这个现象,现在很不幸,在AI2.0时代又重现了。我觉得有些大公司会觉得你们愿意进价,我,我就挑最低的,或者我把所谓的商务变得比技术更重要。评估的时候你技术不好,但是卖场的原因我可能还是会选你。

结论:所以在01万物,我们是坚决的要做to c,然后要坚决的不做赔钱的tob。

张亚勤:

在应用和服务层的话,先to c后to B。To c的话马上就已经有应用的产品了,这和当时的PC互联移动互联基本上是一致的。但如果再分层细一点的话,目前是真正赚钱的,是2B。卖铲子最赚钱,所以目前在硬件、在芯片,在基础设施层,赚钱最多。

关于具身智能

李开复:

讲到这个具身智能智能它就跟雅琴刚刚说的一样,是个物理世界,跟这个AI的结合,这肯定是很重要的。但是我也必须说,大模型是非常适合虚拟世界的。比如说在金融公司用后台客服等等的,很快就可以落地产生价值。因为它就是一个软件。

如果你的数据是软件出来的,结果是虚拟的,是数字,那你就直接对接屏幕。但你要一旦要接到物理世界,那就有各种的问题,有安全问题,有他的这个机器的问题,机械的问题、故障的问题。没看到engineering的问题,撞到人怎么办,等等的问题,就真的难度就大,非常多多多倍。所以从创业者的角度来说,虽然现在具身智能一时是比较热,有一些创业者就融入了。

但是大部分的创业者,如果是希望看到短期的落地产生价值,能赚钱,那肯定还是做虚拟世界的,要远远容易很多。所以虽然我觉得具身智能是重要的,而且它可以把这个多模态结合了。你一旦产生数据了,就可以有数据飞轮,可以有闭环,所以这是有很大的想象空间。但是短期要做好,真的还有这个难度是很大。无人驾驶做了多少年,现在做到什么程度?

具身智能肯定也要走这样的一些弯路,很漫长的道路。而且对于人形机器人,我也有一些特别的看法。就是说呃我觉得绝大多数的应用并不需要人形机器人。你炒菜机器人感觉长得像锅子,对吧?你的吸尘器长得像是一个地上罐子,跑到这个小小圆圆的东西,它并不长得像人,不会说我要做吸尘器机器人,就做一个像人一样的吸尘。

没有必要,那些很酷的boston dynamics的机器人,跳来跳去翻跟斗的。那些真的有很多应用吗?绝大多数的场景,几个轮子不是让你更能容易走。你真的需要两条腿吗?除了爬楼梯等等的,真的那么需要吗?而且它的难度带来的难度跟成本提高这么多,我觉得可能很多科学家和创业者都是从小热爱这种科技,希望能复制一个人,那也无可厚非。

探索通用人工智能与未来风险

讨论集中在通用人工智能的发展前景上,预估信息智能、物理智能和生物智能分别需要5年、约10年至20年的时间实现。强调了通用人工智能的潜在商业价值,并提出了对AGI(具有强大力量、普遍性和持续进化能力的人工智能)实现后的担忧,特别是关于失控的风险。此外,还探讨了如何平衡技术发展与风险管理,以及人类在未来发展中应发挥的角色。

/更多内容,可关注微信公众号:AI奋进者/2024-北京智源大会-通用人工智能的关键问题及思考-李开复、张亚勤


关于我:AI产品经理(目前在寻找新机会),主要关注AI Agent 应用方向。公众号:AI奋进者。如有好的想法欢迎一起沟通交流。

Agent系列框架文章,欢迎点赞、转发,更多内容,可关注微信公众号:AI奋进者。

2024-北京智源大会-通用人工智能的关键问题及思考-李开复、张亚勤

 Agent系列文章已经逐步更新:

     Agent知识库:功能、原理浅析icon-default.png?t=N7T8https://blog.csdn.net/letsgogo7/article/details/139030233

Agent系列之LATS(Language Agent Tree Search)框架解析icon-default.png?t=N7T8https://blog.csdn.net/letsgogo7/article/details/138418668

Agent 系列之 ReWOO框架解析icon-default.png?t=N7T8https://blog.csdn.net/letsgogo7/article/details/138259507

Agent系列之 Plan-and-Solve Prompting 论文解析icon-default.png?t=N7T8https://blog.csdn.net/letsgogo7/article/details/138259154

Agent系列之LangChain中ReAct的实现原理浅析icon-default.png?t=N7T8https://blog.csdn.net/letsgogo7/article/details/138197137

Agent系列之ReAct: Reasoning and Acting in LLM 论文解析icon-default.png?t=N7T8https://blog.csdn.net/letsgogo7/article/details/138259590Agent 系列之 LLM Compiler框架解析icon-default.png?t=N7T8https://blog.csdn.net/letsgogo7/article/details/138284351

Agent 系列之Reflection框架解析icon-default.png?t=N7T8https://blog.csdn.net/letsgogo7/article/details/138392568

  • 22
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值