隐私计算让人工智能更智能
当前,人工智能的火爆程度有目共睹。而人工智能从1956年概念确立至今,已走过了60余年时间。为什么过去几十年人工智能都没有火起来,直到近几年才开始真正爆发?
最重要的两个影响因素是:算法和数据。
人工智能,顾名思义,即由人工制造出来的系统所产生的智能,让机器可以像人一样思考学习和解决问题。
在第三次人工智能浪潮之前,传统人工智能因受计算力和数据量的限制,并没有表现出明显的“智能”特征,也未能满足实际应用需求。直到2006年,Hinton教授提出“深度学习”神经网络使得人工智能性能获得突破性进展,加上互联网及后续移动互联网、物联网发展带来的海量数据,让人工智能开始真正迈向“智能”和落地应用。
AlphaGo击败人类棋手,自动驾驶汽车上路试行,智能家居进入寻常家庭……
而当我们为人工智能的曙光到来欢呼时,也应意识到:人工智能的发展也再次遇到了老的问题和新的瓶颈。
数据的积累越来越多,数据的增长速度越来越快,却出现了越来越多的人工智能企业无数据可用,越来越多的优秀算法无数据可训练的奇怪现象。一方面因为:随着数据价值的凸显和数据泄露事件的频发,从个人到政府对数据主权和数据隐私保护意识日渐增强,企业不能再像之前一样肆无忌惮地采集和利用用户数据。
另一方面:各企业也日益将数据视为各自的核心资产,在数据主权和隐私不能被有效保护的前提下,无论是从维护自身利益角度还是从遵守法律法规角度,都不愿将自身数据进行共享利用。
人工智能的进步需要数据的支撑,数据主权和隐私保护问题如不能有效解决,人工智能无数据可用的现象会更加严重,人工智能也难以长足发展。
恰恰以MPC(安全多方计算)为代表的隐私计算,给我们解决这一问题带来了新的路径。MPC是1982年姚期智院士提出的一个概念,也是PlatON一直重点研发投入和工程化实践的方向。MPC的最大价值在于:可以在保护数据隐私的前提下,实现数据充分挖掘和共享利用。
在MPC整个计算协议执行过程中,各参与方对自身数据始终拥有控制权,只有计算逻辑公开。计算参与方只需参与计算协议,无需依赖第三方就能完成数据计算,并且各参与方拿到计算结果后也无法推断出原始数据。
以前文提到的“深度学习”神经网络为例:
“深度学习”神经网络算法需要来自各方的海量数据进行训练,包括结构化的文字与数据,非结构化的文件、图片、视频、音频等,这些数据里可能含有大量敏感隐私信息。在当前无隐私保护的前提下,很难从不同企业、个人采集到所需数据,同时直接利用这些敏感隐私数据也面临法律的风险。
而基于PlatON的MPC技术,人工智能公司可以在不归集各方数据、不泄露各方隐私的前提下,通过协同计算进行算法训练。在保障数据利用合规性的同时,让企业、个人更乐意共享数据,让人工智能更加智能!
同时,基于PlatON分布式隐私计算网络,可组建人工智能垂直商业联盟,让数据提供方、数据使用方、算法提供方、算力提供方都可以在不泄露各自核心数据、算法的情况下,通过评估和奖励机制联合进行模型迭代和算法优化,并获得更多收益。
人工智能浪潮又起,隐私计算方兴未艾,两者结合带来的惊喜,值得我们期待。
-------- END --------