在7月初召开的上海WAIC上,人们看到搭载高通第二代骁龙8芯片的安卓手机直接运行参数规模超过10亿的Stable Diffusion,且只需要15秒左右就可以出图。
更重要的是,这样的运行,是完全本地化的,只依赖手机本身的算力。
从GPT-3.5到GPT-4.0,曾经需要高昂算力,或者只能跑在云端的AI大模型,也开始在智能终端设备中落地。
不过,在兴奋之余,冷静的人总不免会问:我真的需要一个在部署在手机大模型么?还是说这只是手机厂商为挽救疲软的市场而制造的噱头?
打破APP的壁垒
在人们讨论“大模型手机”之前,一个不可忽略的事实是:当今的各类大模型AI,如chatGPT、新必应等,实际上早已推出了各自的手机版APP。
通过这一个个APP,在手机上运行大模型,早已不是什么难事,且与本地部署的方式相比,这些调用云端算力的APP,并不会对手机配置造成额外负担。
那既然如此,那人们为什么还要费尽心机地开发一个专用的“手机版”大模型呢?
对于这个问题,谷歌之前的做法似乎给出了一个可能的答案。
今年5月,在ChatGPT 3.5发布半年后,Google终于公布了全新一代大语言模型PaLM2,用以对抗ChatGPT。作为一种差异化竞争,PaLM2可以被部署在智能手机上。
本文来自:https://aieg.cn,欢迎与作者探讨您的观点和看法