(一)0. 十位院士对 AI 的深度把脉(转载)

10 位院士对 AI 的深度把脉

2019 年 12 月 20 日,由鹏城实验室、新一代人工智能产业技术创新战略联盟主办的为期两天的「新一代人工智能院士高峰论坛」在深圳开幕。这次会议延续去年强大的院士阵容,今年邀请了多达 10 位院士以及诸多人工智能领域学术和企业界的顶级专家,从各自的领域深度剖析了人工智能领域的发展现状和未来值得探索的方向。

1、蒲慕明院士:脑科学与类脑智能研究

作为大会的第一位报告嘉宾,中国科学院院士、美国科学院外籍院士蒲慕明带来了主题为《脑科学与类脑智能研究》的报告。
中国科学院院士、美国科学院外籍院士蒲慕明
蒲慕明院士谈到:「我认为下一代人工智能的一个很重要的发展方向就是,脑启发的新型人工智能。我们国家在未来 10 年将启动的重大项目叫做脑科学与类脑研究,整体框架为『一体两翼』,主体是脑认知功能的神经基础,做全脑神经连接图谱,两翼则是指研究内容分为脑重大疾病诊断和干预、脑机智能技术研发两个方向。」
他指出理解大脑需要从三个层面上的神经连接图谱分析:
第一个是宏观图谱。通过核磁成像的技术可以看到毫米级的神经束,每个神经束都有成千上万的细胞纤维,传导方向是双向,但只了解神经束的走向对于理解脑功能并没有太大贡献。
第二个是介观图谱,空间分辨率要达到微米级别。用特殊方法来标记不同的神经元种类,了解不同神经元的功能。介观神经连接图谱是目前神经科学的主要方向。
第三个是微观图谱,空间分辨率要达到纳米级别。在微观层面对神经元轴突和树突的分布以及突触产生规律的研究可以得到很多有用信息的。
进一步,他认为类脑智能研究中要考虑三个层次的认知:
第一个层次是对外界的认知,包括感知觉、多感觉整合和注意、分类等,是许多动物都拥有的认知能力,对此可以从动物模型中寻找一些信息和启发;
第二个层次是对自我和非我的认知,包括自我意识、共情心和理解他者能力,但可能只有灵长类动物才有,因此只能基于灵长类动物进行研究,而这是我国未来在基础神经科学研究中最有优势的领域;
第三个层次是对语言的认知,这是只有人类才具有的句法、文法以及无限开放式的语言结构,对于研究人类语言的神经机制和演化起源,构建非人灵长类转基因动物的模型必要。
对于这些脑网络特性,人工智能未来研究中有可以借鉴但目前还没有借鉴地方呢?蒲慕明院士认为有五个重要的点:
第一,神经元很简单,有不同性质和种类的神经元,例如抑制性神经元(信息反转)、兴奋性和抑制性神经元亚型(不同放电特性);
第二,神经网络有顺向、逆向侧向和的联接,现在主要是正向的,而加入反向的联接会带来好处,而侧向联接尤其重要,并且也是有序的。
第三,神经突触的可塑性。这个方面除了传递效率的增强和削弱(LTP 和 LTD)的功能可塑性,突触的新生和修剪的结构可塑性也非常有用。
第四,记忆的贮存、提取和消退也非常关键,网络中特定突触群的效率和结构修饰便是记忆的储存,记忆提出是指电活动的再现于储存记忆的突触群,而记忆消退则是指突触功能与结构修饰随时间消退。另外根据输出对学习相关的突触群修饰,可进行强化学习。
第五,赫伯神经元集群概念的应用,包括细胞群的建立、多模态信息的整合,不同信息的捆绑、同步的信息震荡、时间相位差以及输入信息的图谱结构等等都可以借鉴
最后,他更是对新型人工网络架构和机器学习算法提出了四点建议:
一是要摆脱深度学习网络(DNN)的诱惑; 二是要以高效、节能、半监督和无监督学习为目标,建立全新的人工智能模型和算法; 三是以脉冲神经网络(SNN)为基础,加入传递延迟,强调时序信息的重要性; 四是,从简单的(少数层)的网络为基础,每次加入一个自然神经网络的特性产生新的架构,然后用新的机器学习和算法来检测效果。
除此之外,他认为 AI 界应该提出一个新的机器人或智能标准,从语言和感知觉能力的整合、团队合作等更多维度去尝试建立「新图灵测试」。

2、高文院士:数字视网膜与云视觉系统演进

本次论坛的又一位院士——中国工程院院士、鹏城实验室主任高文接着蒲慕明院士对神经网络的相关介绍,重点分享了如何利用对神经网络的理解来改进包括城市大脑或智慧城市系统等现有云视觉系统方面存在的一些问题,他报告主题是《数字视网膜与云视觉系统演进》。
中国工程院院士、鹏城实验室主任高文
首先,他指出了云视觉系统目前存在的两大主要的挑战:
第一,虽然视频数据非常多,但是能够对其进行规范并能够从中挖掘出规律的大数据却并不多。第二,这些视频数据中绝大多数都是正常视频,而敏感视频比较少,因而产生的价值并不大。而深究到底,这两大问题其实是整个视觉感知系统架构造成的直接后果。对此,高文院士等人从高级生命体视觉系统的进化历史中寻找灵感,在设计新的第二代城市大脑或者说云视觉系统时,在中间的视觉神经通道做工作。他们将这一想法称之为数字视网膜。
他进一步介绍,数字视网膜的定义包括八个基本要素,按照特征或功能可分为以下三组:
第一组特征是全局统一的时空 ID,包括全网统一的时间以及精确的地理位置两个基本要素;第二组特征是多层次视网膜表示,包括视频编码、特征编码、联合优化三个基本要素;第三组是模型可更新、可调节、可定义,即将模型可更新、注意力可调节以及软件可定义三个基本元素组合到一起。
不同于传统的摄像头只有一个流,即一个视频压缩流或一个识别结果流,这种数字视网膜存在三个流,即视频编码流,特征编码流,模型编码流,三者各自有分工,有的是在前端可以实时控制调节,有的是通过云端反馈出来进行调节和控制的。
在过去两三年中,高文院士等人对此也开展了大量工作,重点实现了以下四个使能技术方面的重要进展:第一个使能技术是高效视频编码技术,其中他们提出的场景编码技术成为中国学者对世界所做出的的一大贡献,将编码效率提升到了一个新的水平;第二个使能技术是是特征编码技术,其中就包括他们与国际专家一同完成的两个国际标准 CDVS 和 CDVA,而 CDVA 更是为满足支持深度网络而建立的标准。第三个使能技术是视频和特征联合编码技术,这是由于视频编码和特征编码使用的优化模型不一样,视频编码使用的是 2D 优化模型,而特征编码联合使用的是 R-A 模型,两个模型的曲线方向完全是不一样的,对此他们提出了联合优化模型,将 R-A 和 2D 变成一个目标函数,通过求最优解就可实现联合优化。第四个使能技术是 CNN 模型编码技术,能够实现多模型重用、模型压缩(差分编码)和模型更新等优势。
最后,高文院士总结到,现在的云视觉系统不是太有效,对此我们可以通过类似于像数字视网膜的新的概念和技术来使其变得更加有效,包括降低码率、减少延迟、提高准确率、降低云计算成本以及让低价值的视频数据转化为大数据等。
随着数字视网膜已实现 1.0 版本,下一步该如何走向 2.0 版本呢?答案是:采用脉冲神经网络的思路来做数字视网膜 2.0。

3、汤晓鸥:人工智能,创新应用

两位重量级院士的精彩报告后,商汤科技创始人、中国香港中文大学教授汤晓鸥以一如既往幽默的演讲风格为大家带来了主题为《人工智能,创新应用》的报告。
商汤科技创始人、中国香港中文大学教授汤晓鸥
「我现在都不知道怎么做演讲了,大家往往只记得我讲的笑话,其实我也提到了一些深奥的人生哲理。」台下非常「应景」地发出一阵欢笑声。
呼应主题,汤晓鸥教授首先分享了他对于「创新应用」的理解:
创新,便是做别人没有做过的事情,带来的结果是花钱,所以从这个意义上来说,创新的主要目的就是把钱花出去,这似乎是大学的功能;应用,则是要把创新落地到产品中,然后把产品卖出去,核心是赚钱,这是公司应该做的事情。然而创新和应用这两个看似矛盾的点如何并存于公司呢?他指出,对于于世界上绝大多数公司尤其是创业公司而言,根本无法像谷歌等大公司通过已经成熟的业务应用来赚取大量的收入,从而为每年用于创新所投入巨额的研发费用买单。那该如何找到自己的生存模式 ?
商汤便通过与各行各业进行合作,以 AI+赋能来找到平衡创新和应用的方法论。他进一步以上班族「从早上八点到晚上十点」一天的日常需求,如驾车上班、楼宇办公、午餐、外出开会、游戏娱乐、就医问诊、休闲购物等生活场景,介绍了商汤与相关行业在自动驾驶、智慧园区、室内导航、智慧零售等各应用领域的合作与开发成果。
基于自身的实践经验,汤晓鸥教授也针对「创新 or 应用」这一两难的议题给出了自己的经验和思考:我们最初理解的创新一般都是出论文,做研究,在实验室里做别人没有做过的东西,然而这样的创新一旦放到市场上往往是不被接受的。
因此,他认为最终的创新其实不仅仅是技术的创新,还应该包括公司中工程的创新、产品的创新甚至是商务模式的创新、销售模式的创新、合作伙伴合作方式的创新以及整个公司管理模型的创新在内的综合性创新。
「这样我们才能够在残酷的市场环境中生存下来,才能在无比强大的竞争对手面前找到自己的一块生存空间。而前面,包括商汤科技在内的很多公司前面,还有很长的路要走。」

4、王海峰:自然语言处理前沿

百度首席技术官、深度学习技术及应用国家工程实验室主任王海峰博士带来主题为《自然语言处理前沿》的报告,分享了他研究近 30 年的心得与观点。
百度首席技术官、深度学习技术及应用国家工程实验室主任王海峰
「自然语言处理是人工智能非常重要,也是非常热门的方向。」王海峰博士表示,自然语言处理是用计算机来模拟、延伸及拓展人类语言能力的理论、技术及方法,在国家《新一代人工智能发展规划》中也被列为共性关键技术。
接着王海峰博士回顾了从基于人工规则到基于深度学习模型的自然语言处理的研究发展历史:基于人工规则的自然语言处理需要领域专家、领域知识,并把这些知识建模到计算机系统中去,开发和迁移成本都非常高;到了基于统计的自然语言处理时期,一定程度上可以实现自动训练、模型选择,当时也出现了很多特征工程师专门去建设各种特征;另一方面,大量的统计机器学习的模型在不同的应用中会取得不同效果,所以模型本身的选择具有一定的局限性。到了深度学习时代,自然语言处理变得更简单、更标准化和自动化,一套模型针对不同的数据就可以得到比较好的结果,所以说深度学习跟以前的机器学习模型相比,一个很重要的特点就是有一套可以适用于不同领域、不同应用的方法,这与人脑很像。
他进一步指出,算力、算法和数据是驱动自然语言处理技术突破的三大要素,而随着自然语言处理技术的飞速发展,该研究领域也呈现出很多新的变化,如从传统 NLP 进行层级式结构分析,演变到直接的端到端语义表示;从过去局限于理解句子,发展到现在多文本、跨模态的内容理解;机器翻译实现了质量飞跃、从科幻理想落地现实应用等。
随后,王海峰系统梳理了百度在预训练语言模型、机器阅读理解、多模态深度语义理解、机器翻译等自然语言处理技术发展,及开源开放、推动产业应用的丰硕成果。

五大院士把脉:人工智能的发展现状以及未来能够做哪些尝试

在上午场的Pannel环节,蒲慕明院士、高文院士,与美国工程院院士、南方科技大学学术副校长兼教务长张东晓,中国工程院院士、北京航空航天大学学术委员会主任赵沁平,中国工程院院士吴建平一同登台,就「人工智能的发展现状以及未来能够做哪些尝试」这一议题表达自己的观点。

吴建平院士:互联网与人工智能之间是相通的
吴建平院士:我虽然研究的是互联网,不是做人工智能的技术人员,但互联网作为人工智能发展依赖的技术之一,我也谈谈我的看法。
今年是互联网的 50 周年,是我们算机科学界是非常重大的纪念节日,而实际上在互联网的发展历程中,我们能够找到人工智能的明显痕迹。现在很多通信手段都要在互联网高层的协调下才能工作起来,如果没有互联网,通信系统便都是独立的,那不可能有开发人工智能的重大机会。因而,除了算力和摩尔定律,我认为互联网同样是人工智能发展的巨大因素之一。
与此同时,人工智能对于互联网也意义重大,比如从 3 年前到现在,互联网仍然使用的两个著名路由控制:OSPF 和 BGP。二者都在 80 年代末期成为国际标准,其中涵盖的机理大量采用了人工智能,其中以 OSPF 为典型,在任何图谱结构都能实现最优的路由控制,不管采用什么方式都能达到最优。
这其实就表明了,很多技术之间都是相通以及相互支援的:这一点值得我们深思。

赵沁平院士:为什么现在的人工智能都是弱人工智能?
赵沁平院士:我从 90 年代初期就开始做人工智能,当时人工智能还处于基于符号推理、知识处理的阶段,当然也有神经网络,但神经网络数据还比较少,还比较弱势。而现在,神经网络的取得了突破性的进展,并且得到了很深刻的应用。
脑科学是人工智能的研究方向之一,然而在人工智能中,人脑其实可以看做一个「黑箱」,而神经网络的研究将这个「黑箱」打开了一点,能够看到视觉神经,这是从脑科学角度比较初步地研究人工智能。
蒲慕明院士在演讲中提到绘制人脑的图谱非常复杂,我对此有两个建议:
一个建议是不直接绘制成人的脑图谱,而是绘制从胚胎开始一直到成人的脑图谱,因为这体现了人脑图谱的发展过程。与此同时,我们还要绘制到低级动物到高级动物的脑图谱,不仅是静态的,也要是动态的,当然这是需要全世界的脑科学家们共同长期努力的结果;
另一个建议是把人脑当成「黑箱」,不断地吸取脑科学研究的成果,并将这些成果及时地引入到人工智能算法等此类研究上。不止是脑科学,还要借鉴行为学研究、认知科学等学科,当然这是从更宏观的层面来看。
除此之外,我还有两个思考:
第一个思考是,为什么现在的人工智能都是弱人工智能?很多做人工智能的人的回答都是算法不够通用、算法不够强大。这当然是一个因素,包括人也是一样,人再能干也是有行业之分,更何况是计算机和算法。虽然不存在完全通用的算法,但是可能存在相对通用的,其中的关键在哪?在于知识的学习和积累。比如一个小孩子从一开始只会吃奶到后来会用筷子,他学习和打通的是什么?可能是信息通路和脑的组合,这是值得研究的方向。而在知识的积累方面,尤其是现在神经网络面临数据欠缺的问题,这也会成为重要的研究方向,包括如何组织知识,如何将领域知识变成语言知识以及如何通过神经网络和深度学习来将这些知识「为 AI 所用」,这都是值得研究的。
第二个思考是,人工智能能不能达到像人一样的智能水平,能够将知识逐渐通过自己的学习和演化组织成人脑那样的一辈子可用的知识?目前还有很多我们可以研究的方向,我希望领域内的研究者不要一哄而上研究热门方向,而是要选择相对冷的方向,我相信整个人工智能领域应该是波浪式的发展、螺旋式的发展,而这需要我们所有人从各个方面和各个领域来一起为这个目标努力。

张东晓院士:人工智能的未来是「AI+X」,还是「X+AI」?
张东晓院士:我虽然不是人工智能的专家,但我对机器学习还比较熟悉。
今天非常高兴看到 AI 在各行各业的应用,「AI+X」中的「X」的可以是交通、能源、交融、教育等各行各业,有的应用已经非常成熟了,有的应用现在还刚刚开始。
无论是将人工智能视作工具还是平台,我都觉得它应该不能包治百病,不能解决所有的问题,就像刚刚赵院士讲到的,当年计算机语言也是一个工具和平台。
人工智能将来的应用应该是「AI+X」,还是「X+AI」?我觉得这是值得我们考虑和深思的问题。比如我现在从事的能源行业,机器学习等人工智能技术还需要很强的行业背景和行业知识,而如果使用现有的机器学习算法来做学习和预测,效果可能就不是那么好了,甚至会出现很多非物理的答案。比如说浓度可以是负的,压力也是可以超过正常的范围。而一旦加上行业的知识,比如说物理原理+专家的知识+工程控制条件,算法得到的学习效果就非常好,比如说在可解释性、可拓展性,迁移学习等各个方面都会取得非常好的效果。
现在可能我们需要像商汤、百度这样的公司,但是我觉得更需要一些行业的、专业的公司,这样才能更好地推动推动 AI 在不同行业中的应用,才能改变整个应用的前景。

蒲慕明院士:绝大多数做脑科学/AI 的科学家都是游客
蒲慕明院士:我先回答一下赵院士的问题和提出的建议,假设人类大脑结构搞清楚了,不光是成年人的结构,还包括结构怎么形成,每个人有不同的网络、不同的能力、不同的创造力是怎么形成?这其实是无尽的科学问题,下个世纪可能都解决不了,但是是大家努力的方向。
赵院士又提到很关键的问题,就是智能,包括自主力、创造力和思维等怎么样在人工系统中实现?以及能不能实现?这是一个问题。而从传统的人工智能来看,图灵说「我不知道什么叫机器,什么就像人,我只要在平面上跟我对话,分不清楚是人还是机器,它就达到了人类语言的能力」。假设有机器人可以和我们聊天、可以同忧乐并且也能体现创造性的思维,我们就可以说:它从系统上反映了人的层面。至于它是不是有自我意识和更高级的创意在那里,这其实并不是科学的定义。
下面我主要就脑科学方面谈谈我的看法。
我国是在全世界的人工智能应用是领先的,数据和市场都大,但是我们更要看到人工智能十年、二十年之后的发展。走在人工智能前沿的大公司看到的并不是今年或明年要赚多少钱,而是十几二十年后是否还能领头。这就需要投入一批科研人员做前沿研究,而类脑人工智能便是启发于脑科学的其中的一个非常好的方向。这也是为什么现在像谷歌、微软等大公司都雇了一大批神经科学的人才去做这方面的研究,会是因为他们意识到这一方向的前景和重要性。然而就脑科学而言,全中国的科研人员仅为美国的二十分之一(同样水平的科研人员)、欧洲的三分之一或者四分之一。
并且现在存在的一个非常关键的问题是做脑科学和做人工智能的研究者来自两个不同的领域,彼此之间很少交流。就目前来看,我国这两个领域的科研人员彼此之间还很难进行「对话」,所以我希望鹏城实验室能够带头建立一个机制,让两个领域的人开展交叉学习,让人工智能领域的人学学脑科学,让脑科学领域的人学学人工智能。
无论是做脑科学还是做人工智能的科研人员,我认为可以分为三类人:
第一类是探险家,这类人非常少,并且其中绝大多数探险家都在欧美国家;第二类是导游,他们是领军式的科学家,以前做过探险家,找到过一方天地,可以带一批人去看看好风景,这其实是我们非常需要的,但是往往大多数导游也是国外的;第三类是游客,绝大多数科学家属于这一类,他们被导游带着玩山游水,找到一个好玩的地方可能去附近探索一下,但是也不敢走太远,怕掉队,就只能一直跟着导游走。现在有年轻的科学家跟我说,他们每年都需要发论文、评职称、申请奖项,哪敢冒探险家的风险?但我认为,做「 50% 的游客+ 50% 的探险家」是能够做到的。

高文院士:现在计算机走不了太远,未来有两条出路
高文院士:我讲两个观点。第一个观点,蒲院士在报告里讲提到希望建立「新图灵测试」机制,这其实是个非常好的建议,对于评价人工智能能不能真的做到位、能否和人类的能力相当很有意义。因为在图灵那个年代,环境和技术实现的条件和现在没法比,所以图灵测试只对自然语言对话的一种测试,可能实际上图灵想的东西肯定不是局限于哪一点,但是落到纸上就是基于自然语言的对话,并以此来判定机器能不能达到人类的能力。但是现在的场景下,图灵测试应该不仅限于自然语言的交互,还应该包括视觉交互等方面。现在我们也希望给组内的专家一些课题,希望他们重新设计一个新的图灵测试,把所有和视频、图像、自然语言融合在一起,然后再去测试。而图灵测试以外时,图灵当时还有一段非常巧妙的描述,让一个机器学习,怎么学习呢?——儿童学习级,分为 1 岁的机器、2 岁的机器,随着年龄的增长,机器的学习能力也往上增长。所以图灵的希望其实更是,机器能够像人一样成长。但是现在搞机器学习的研究者,基本上就是把这件事忘了,上来就是识别人脸之类的。从做人工智能回到本源,研究像人的成长过程这样的学习,可能对发现强人工智能会有帮助。
第二个观点,我非常同意蒲院士说的脑科学和人工智能的交叉研究。他在报告中也提到,他之前在《自然》上发了一篇论文,非常长,但是引用率很低。我当时就在想,可能他没怎么参加过人工智能的会议,如果经常参加的话引用率可能就上去了。所以两个领域的研究者联合起来,去做一些学习和研讨,这是非常好的思路。我之前也在一些场合说过,现在计算机往前走,肯定走不了太远,会面临各种各样的限制,要想变得更强大,只有两条出路:一条是采用类脑模型做的加速器,来处理人工智能当前无法解决的问题;另一条是结合量子学,是采用全新的计算方式——算力上去了,一些大的、难的问题就能解决。而这两条出路,都需要人工智能与其他学科的交叉研究。

这次AI科技评论将分享张正友、颜水成、孙剑、陈熙霖、李世鹏和夏勤几位业界人士对人工智能的深度见解,同时,也有五位院士:中国工程院院士、同济大学校长陈杰,中国工程院院士、广播电视技术专家丁文华,中国工程院院士、通信与信息系统专家王沙飞,中国科学院院士、激光与光电子技术专家王立军,德国汉堡大学信息学科学系教授、德国汉堡科学院院士张建伟
对未来中国人工智能发展的展望与建议。

5、张正友:机器人的智能演进

腾讯 AI Lab & Robotics X 主任,ACM、IEEE Fellow 张正友博士作为下午场的首位报告嘉宾,带来了主题为《机器人的智能演进》的报告。腾讯 AI Lab & Robotics X 主任,ACM、IEEE Fellow 张正友。
正式进入报告前,张正友回忆起去年同样是高文院士邀请他人工智能院士高峰论坛做报告,而今年高文院士再度邀请他时,还强调了一句话「一定要做最新的研究报告」。他笑着打趣:「我估计他是想来考考我,想看看我这一年多来到底有没有取得一些研究进展。」
「人工智能目前还是初春,还不是非常智能,存在很多问题。」话落下,他便以摄像机无法识别遮挡镜头的假图像为例指出目前人工智能还只是从大量标注数据学习,泛化能力较差。他认为,随着传感器技术发展与充分应用,人与智能化机器人共存的时代必然会来临,这也是他选择回国加入腾讯创建 Robotics X 机器人实验室的重要原因。
张正友博士接着介绍了机器人的 6 个组成部分,包括本体、感知、执行器、动力系统、交互系统、决策。机器人的未来趋势是自动化、智能化,要在不确定的环境中自主决策。针对机器人的自主决策,他提出了 SLAP 范式,即传感器和执行器要紧密结合,在学习和计划模块的帮助下提升能力、做出决策。
针对智能机器人技术未来的突破点,他再度提及去年分享过的「A2G 理论」,其中 ABC 是代表了机器人的基础能力,A 是指机器人能看、说、听以及理解,B 是机器人本体,C 是自动控制;而 DEF 是指更高一层的机器人能力,D 是进化学习,E 是情感理解,F 是灵活操控;最后一层——G 则是表示守护人类。这对更先进、更智慧的机器人提出了要求,而机器人的最终目标是要服务于人。
最后,张正友表达了对机器人发展的愿景,那就是人机共存、共创、共赢,为此,需要从「用机器人增强人的智力、关怀人的情感、发挥人类体能潜力、实现人机协作」四个方面来创建这种未来。

6、颜水成:Transform AI into Affordable Intelligence

同样是二次出席人工智能院士高峰论坛的报告嘉宾还有依图科技首席技术官,IEEE、IAPR Fellow 颜水成博士。他在主题为《Transform AI into Affordable Intelligence》演讲中,指出了让人工智能变为「Affordable Intelligence」所面临的挑战,并从芯片和模型的角度分享了一些工作进展。
依图科技首席技术官,IEEE、IAPR Fellow 颜水成
颜水成提到,一个 AI 创业公司以及大厂 AI 实验室的核心使命是实现 AI 的真正落地,这就需要解决两个方面的问题:
第一个是算法,一方面是要保证算法「可以用」,即精度足够高,能够真正解锁一个场景;另一方则是算法要「足够用」,因为现在很多场景仅凭单模态的算法已经无法提供用户满意的解决方案。第二是算力,一方面是要让用户「买得起」,比如用于支撑计算的 AI 芯片,它的并发性能要足够高;另一方面是要让用户「用得起」,即这种算力要保证功耗足够低,不然即便用户买回家也可能因为数据中心的电费过高而无法使用。
随着人工智能在越来越多的场景中得到使用,而随着技术上已经达到可以用的阶段,现在除了对算力和算法的要求越来越高,也更多地从「Affordable」的角度去考量。
颜水成博士进一步指出,研究表明,训练和测试人工智能模型所需要的算力,每三个半月就会翻一番,这个比摩尔定律已经快了很多。正如今年刚开完的 NeurIPS 会议上,大家比较关注的一件事情就是:当 AI 应用得越来越多,其带来的电力消费也越来越高,这会不会对环境产生影响呢?
所以要真正让 AI 在一个场景落地,最关键的两个引擎是:第一个引擎是高效能的 AI 模型,这是算法的维度。要想获得一个高效能的 AI 模型有两种做法,一种是基于不同 Motivation 的模式,另一种是基于 NAS(神经网络架构搜索)的模式。针对这一点,主要是希望能够解决研究和应用中的「Affordable」问题。第二个引擎是高效能的 AI 芯片,这是算力的维度。针对这一点,芯片厂商首先要遵循算法和芯片原则,确保芯片在足够大的使用场景中达到很高的效能;其次要预测领域中最前沿的算法发展趋势,确保接下来几年时间这款芯片能「发挥所长」;最后要让用户的建设成本足够低并用得起。
最后,他总结道,AI 在越来越多的场景得到应用,并且追求的精度和目标越来越高,这就对算法和算力提出了越来越高的要求。而这时,AI 的「Affordable」问题就会变得越来越重要。并且,如果要把 AI 转换成「Affordable Intelligence」的话,高性能的 AI 模型和高性能 AI 芯片则是推动这一转换的双引擎,只有这样才能让我们最终的用户能够「买得起」和「用得起」。

7. 孙剑:视觉计算的前沿进展

旷视首席科学家、何梁何利基金奖获得者孙剑博士以《视觉计算的前沿进展》为题,重点从卷积神经网络和计算机视觉技术本身介绍了计算机视觉的研究历程与进展。
旷视首席科学家、何梁何利基金奖获得者孙剑
卷积神经网络开始得比较早,上世纪 80 年代日本就有教授提出这样的概念,并得以发展。而后续针对卷积神经网络的研究工作,主要围绕四个问题开展:
第一个是神经网络的卷积问题。现在大家用的比较多的是 3×3 或 5×5 的卷积,而卷积此前经历了 AlexNet 网络、GoogleNet 网络、Facebook 提出的 faster R-CNN、旷视科技提出的 ShuffleNet V1/V2 等等,当前最新的研究进展则是动态卷积/条件卷积。
第二个是神经网络的深度问题。这是困恼神经网络多年的问题,当网络的深度不够大时,就很难实现网络的训练。神经网络最开始的深度是 8 层,过了两年后增加到了 20 层,再之后微软提出的深度残差网络将深度增加到了 152 层,其采用残差网络的思想能够得到好的训练结果。
第三个是神经网络的宽度问题。当深度学习复杂度超过一个点时,模型越大,训练和测试的错误率反而会同时下降,跟我们传统机器学习的认知不同,这其实跟网络的宽度有关。目前比较新的两个方向:一个是从 Kernel 的角度着手,另一个是尝试剪枝的方法,例如 MetaPruning。
第四个是神经网络的大小问题。一般来说,在训练过程中神经网络的大小是不变的,然而研究发现,当在训练中让神经网络的大小变化时,能够实现更好的网络性能。
针对计算机视觉技术本身,孙剑博士则重点选择了目标检测这一方向,分享了目前研究中所存在的一些问题和进展:第一,当图像中的物体隔得很近时,检测技术就无法精确检测到单个物体;第二,计算架构的设计问题,对此,旷视提出了轻量级的两阶段目标检测器——ThunderNet,设计了多尺度架构的融合,在 ARM 设备上的运行速度非常快。最后,孙剑还指出了计算机视觉应用中的几个最重要并且投入最多的关键问题:
第一,火灾等特殊场景的数据非常难收集,并且很难通过数据增强的方式获得;第二,对于新的研究方法如自监督方法的需求;第三,遮挡问题,虽然现在对此也有一些工作进展,但是深度学习还无法完全解决这个问题;第四,深度学习和计算机视觉技术还无法很好连续追踪同时处于动态的多个物体;第五,视觉控制问题,比如说现在还无法通过视觉反馈来连续控制机器人或机械臂;第六,现实应用中要实现低成本、易部署以及安全面临的挑战还很大;第七,现有方法还无法实现高精度的预测问题。

8. 陈熙霖:迈向可理解的计算机视觉

中科院计算所研究员,ACM、IEEE、IAPR Fellow 陈熙霖本次也作为报告嘉宾,带来了主题为《迈向可理解的计算机视觉》的报告。他在报告中也从他的视角分享了计算机视觉领域存在的一些问题以及针对这些问题自己所做的一些探索工作,并对于计算机视觉的未来发展给出了自己的想法。
中科院计算所研究员,ACM、IEEE、IAPR Fellow 陈熙霖
他指出,计算机视觉从提出概念到现在已有差不多半个世纪,主要历经了马尔计算视觉、主动和目的视觉、多视几何与分层三维重建、基于学习的视觉这四个阶段。该领域虽然取得的进展很明显,然而也带来了一些问题,就比如评测基准的出现。「之前大家在研究上彼此之间没有比较,即便发了论文,但是结果可能在原地踏步,于是后来有了评测基准,然而带来的一个坏处就是,现在的研究者尤其是学生就只顾着去「刷榜」了,这其实并不是在做真正的研究。所以这是一个很大的问题。」
他认为,在做计算机视觉研究上,不仅要知道 What 和 Where,还需要知道 How、Why、When 等等。除了研究方法上的问题,当前计算机视觉研究还面临着两大严峻问题,
一是研究处于一个「封闭的世界」,这既体现新数据无法得到及时更新,无法从其他领域借用知识,也无法真正理解物体之间的真正联系;二是无法很好地处理开放世界的问题,比如说无法区分现实世界的语言和语义上的区别等。
针对这些问题,陈熙霖在可解释性决策模式,概念空间、语义空间、可视空间之间的相似性,可迁移的对比学习以及利用上下文方面进行了一系列探索和工作。
最后他总结道,过去 50 多年时间里,计算机视觉在应用上实现了很多成功,那未来将如何呢?——未来计算机视觉研究会朝着可理解的方向发展,即技术背后的知识会扮演更加重要的作用。

9. 李世鹏:万物互联,集智过人

国际欧亚科学院院士、深圳市人工智能与机器人研究院副院长、IEEE Fellow 李世鹏在题为《万物互联,集智过人》的演讲中,重点回顾了 IoT(智能物联网)到 AIoT(人工智能物联网)再到 IIoT(智物联网)的发展历程。
国际欧亚科学院院士、深圳市人工智能与机器人研究院副院长、IEEE Fellow 李世鹏
李世鹏认为,抛开其他因素,现在的人工智能时代主要包括四个基本因素:AI、人、机器人和 IoT。其中,人是处于中心的因素,人跟智能的交互叫人机耦合或者是人机协作,人跟 IoT 结合在一起是物理的智能,人跟 AI 放在一起就是虚拟的场景。而整个 IoT 的发展历程可分为三个阶段:
第一个阶段是 IoT 最基本的阶段。所有能连上网、能传送数据的设备都叫 IoT 设备,主要是关注在设备之间的连接问题、数据的采集跟通讯的问题。人则主要通过指令命令或者遥控跟 IoT 设备进行交互。这个阶段的智能程度很低,基本上只能做 IFDtt 这种类型的条件控制。第二个阶段叫做 AIoT,这个名词并不是国际提出来的,是一个中国特色的概念。上一阶段的 IoT 基本没有智能,对数据的应用也很简单或者只停留在表面,而这个阶段则对 IoT 产生数据进行智能处理。一方面,用户对 IoT 设备的交互变得越来越智能;另一方面,对采集的数据不仅仅停留在原始数据的解释方面,而是把数据结合在一起,然后形成一些新的知识。在这个阶段,AIoT 总有一个集中的控制器来控制所有的 IoT 设备,因为它需要这样一个大脑来进行总体的控制。第三个阶段也就是 IIoT(智物联网)。在上个阶段,独立的智能物体本身有一定的智能,而且在很多时候可以独立运作。而这个阶段要探讨怎样把有智能和独立的智能体之间的智能联合起来以及联合在一起又能形成什么智能呢?人和机器之间的关系成为了比较平等的合作关系。
李世鹏认为,IIoT 带来的聚合智能的演变正在发生,这一趋势可能会打破人工智能行业的一些现有障碍,并最后可能为未来基于因果关系的 AI 框架铺平道路。

10. 夏勤:云大为美——高性能计算芯片的现在和未来

华为海思首席芯片规划师、海思图灵产品管理部部长夏勤以《云大为美——高性能计算芯片的现在和未来》为题,分享了关于高性能计算芯片的现在与未来的思考,并以华为的昇腾芯片和鲲鹏芯片为例,探讨了高性能芯片设计方面的问题。
华为海思首席芯片规划师、海思图灵产品管理部部长夏勤
夏勤表示,高性能计算芯片已成为芯片领域非常热门的方向,这个领域也产生了很多新的理论和新的技术,现在该领域的工程师无非在解一个三元方程,包括三个维度:性能、成本、易用性。如果从单一维度来看很容易解,但是如果要实现真正的量产,则必须同时解决好以下三个问题:
第一,核设计问题,可以往提升主频、多核以及微架构(指令集)三个方向探索。比如在多核方向上,华为目前已经推出了从 8 核到 16 核再到 64 核的芯片;在微架构上,华为的鲲鹏 920 芯片对指令集做了一些像乱序、指令预取这样的措施去提升性能,获得了比较好的结果。第二,片内设计问题,对此,华为在芯片上做的优化工作包括采用最新工艺减小芯片面积,提高良率,进而降低成本。第三,外围接口问题,在这个方面,华为在芯片的内存通道接口,包括接口速率、多 IP 互联、加速器上都做了非常多的创新。
除此之外,AI 芯片的设计在软件方面也面临着前所未有的挑战:首先,基于 AI 的计算要求更大的并行处理能力;其次,AI 芯片和 CPU 芯片非常大的差异点在于前者是真正意义上的异构计算;最后在 AI 软件栈的建设上也面临很大挑战,例如华为鲲鹏软件栈到昇腾软件栈的开发过程,复杂度和难度就非常高。
她进一步总结了未来芯片设计的趋势:
第一,未来单线程和单核性能会不断提升,同时针对指令集会有更多的定义出现,此外随着 ARM 的蓬勃发展,也会为未来的用户自定义提供了很大的空间,从而较大地改善芯片的整体性能;第二,在记忆存储上,虽然现在还没有出现比较好的技术,但在内存接口以及整个内存架构的重新定义还有很多探索空间;第三,新的标准和接口技术的突破,这个方面会有新的技术尝试,但是成果会出来得慢一些;第四,灵活的电源管理,未来随着异构计算的到来,低负载、低功耗的调优技术会变得非常重要。
「AI 未来有很多可以发展的方向,并且不是单维度的发展方向,虽然现在我们还不知道真正的 AI 时代何时会到来,但是我认为算力、协同、应用是整个 AI 技术未来能够走向全面商用的三个关键维度。」

五院士 共论 AI 未来

第二场院士圆桌会在当日下午举行,由中国工程院院士、同济大学校长陈杰主持。中国工程院院士、广播电视技术专家丁文华,中国工程院院士、通信与信息系统专家王沙飞,中国科学院院士、激光与光电子技术专家王立军,德国汉堡大学信息学科学系教授、德国汉堡科学院院士张建伟四位院士,结合当日主题演讲内容各抒对未来中国人工智能发展的展望与建议。
丁文华院士:此次大会内容丰富,体现出中国人工智能在各领域都有了非常大的进展。今年的演讲内容涉及算法、应用、资源,大家都在各自研究方向上实现了突破。我相信通过鹏城实验室这个平台,能够聚集全国乃至全球的人工智能领域的高端专家和人才共同交流和推进整个人工智能技术的发展。

王沙飞院士:我认为现在整个人工智能的发展还需要经过一个漫长的阶段,有这么几个方面的挑战和问题:
第一,现在人工智能的技术在落地应用场景时,在智能推理方面还存在很多问题,人工智能还很难像人一样对未知的场景或者目标进行智能推理。第二,可解释性问题。现在 AI 可以计算海量大数据并且能够实现一定的感知,但是得出的结果是否正确呢?或许未来我们可以通过加入人的经验来改善这个问题。
今天听各位专家的报告很受启发,我认为通过各位同仁的努力,可以让人工智能突破基础研究上的难点并获得更好的应用。

王立军院士:我主要研究激光芯片,近几年随着人工智能、信息感知的发展,也向通讯和信息感知(光电集成芯片)开展研究。我研究激光芯片几十年,有一些自己的体会。
国内芯片这些年发展比较缓慢,并且还处于受限于人的阶段,为什么会出现这样的局面?有以下几个原因:
第一,芯片在研制过程中需要的设备费非常巨大,一般单位承受不起;第二,在时间上,做芯片需要踏踏实实几年甚至是十几年的功夫才能搞定的;第三,我们最近几年都追求尽快出成果,当然本意是好的,但是有些东西要尊重事实,像这种大投入、见效慢的,一些政府机构可能不是很愿意投的;第四,做芯片的研究者尤其是年轻人也更愿意去投入一些见效快,马上能出成果、出文章的研究。
现在我们国家意识到这些问题,也采取了一些举措去攻克芯片问题。我相信几年后,我们国内在芯片这一块会有重大的突破。
另外针对信息感知,我个人认为下一步在光电、混合集成芯片方面是一个很重要的方向,它既把集成电路的技术和集成光学的技术进一步集成,还把感知的软件和光学的东西集成到一起,进一步提高了可靠性,会对 AR 产业有很大的推动。

张建伟院士:首先热烈祝贺鹏城实验室在一年多内取得这么大的成就,定义了未来几个重要的方向之后,组织各方各业的研究者从交叉的角度来解决国际民生的重大问题,已经成为了吸引产学研最高端人才聚集交流和头脑碰撞的很重要的平台
今天听了各位的报告后,我还想再强调几点:
第一,打基础。今天有专家谈到了多模态的技术,从脑科学多模态的处理、芯片多模态的处理、图像识别、图片理解等等,多模态信息处理成为人工智能一个核心技术,也非常值得我们进一步开发和研究。我 5 年前组织的跨模态学习项目就是中、德之间最大的研究项目,从脑科学、心理学、人工智能、机器人等多方面来组织研究人的多模态学习机制,然后做新的算法,最后用机器人来实现。
第二,人工智能下一步如何落地。我认为除了提供人工智能基础平台之外,下一步要真正融入需求和垂直领域,深度融合,把加工链做深做长,做成世界级的知识产权和世界级的市场,使人工智能的价值更快产生。
第三,公共平台交流、生态打造以及社会影响。现在地方政府也对开源和为企业提供平台越来越重视,我认为在深圳这块创业热土上一定能作出新的世界级的人工智能 Demo 样机。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: 吴文俊院士中国著名的人工智能专家,他在人工智能的机器学习领域做出了贡献。他是中国科学院院士,曾担任中国科学院自动化研究所所长。他的研究兴趣包括机器学习、计算机视觉、自然语言处理等领域。他在国内外学术期刊和会议上发表了许多论文,并获得了多项国家科技进步奖。 ### 回答2: 我国学者吴文俊院士人工智能的算法研究领域做出了重要贡献。 吴文俊院士是我国著名的计算机科学家,他在人工智能领域的研究和探索具有深远的影响。他在算法研究方面做了大量的工作,为人工智能的发展打下了坚实的基础。 首先,吴文俊院士提出了一系列重要的算法,使得计算机能够更好地处理复杂问题。例如,他在图像识别领域提出了一种新的算法,能够快速准确地识别图片中的物体,这为图像处理和人工智能技术的应用提供了重要的支持。 此外,吴文俊院士还在机器学习算法方面做出了突出贡献。他提出了一种基于统计学习理论的算法,能够通过大数据的分析和处理,从中提取出有用的信息和知识。这种算法在数据挖掘和预测分析等领域有广泛的应用,对推动人工智能的发展起到了重要的作用。 除了算法研究,吴文俊院士还积极探索人工智能在其他领域的应用。他在智能交通系统、医疗诊断以及语音识别等方面都做出了重要的技术创新和应用实践。这些研究成果不仅提高了各领域的效率和准确性,也为我国在人工智能领域的发展提供了有力的支撑。 总之,吴文俊院士人工智能的算法研究领域做出了杰出贡献。他的研究成果不仅推动了我国人工智能技术的快速发展,也为全球人工智能的进步做出了重要贡献。 ### 回答3: 我国学者吴文俊院士人工智能的科研与应用领域做出了巨大的贡献。吴院士是我国著名的计算机科学家,他致力于在人工智能领域开展研究,取得了重要的成果。 首先,吴院士在机器学习和模式识别领域做出了突出的贡献。他提出了一系列的机器学习算法和模式识别方法,为人工智能的发展奠定了基础。他的研究成果被广泛应用于图像识别、语音识别等领域,极大地促进了人工智能技术的发展。 其次,吴院士在自然语言处理和信息检索领域也作出了重要的贡献。他提出了一系列的自然语言处理算法和信息检索方法,使计算机能够更好地理解和处理人类语言。这些成果在搜索引擎、机器翻译等领域得到了广泛应用,提升了人机交互的效果。 此外,吴院士还对人工智能的伦理和社会影响进行了深入研究。他关注人工智能对人类社会的发展和变革所带来的影响,提出了相应的伦理原则和政策建议。他的研究为人工智能技术的应用提供了重要的指导,促使人工智能的发展更加符合社会的需求和价值观。 总而言之,吴文俊院士人工智能的各个领域都做出了杰出的贡献。他的研究成果不仅推动了我国人工智能技术的发展,也对全球的人工智能研究起到了重要的推动作用。吴文俊院士的成就将继续激励着更多的学者和科研人员为人工智能的进一步发展做出贡献。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小行星-

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值