短视频之路,有AI才有方向

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/R5A81qHe857X8/article/details/79840855
640?wx_fmt=gif&wxfrom=5&wx_lazy=1640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1

4月3日,在清华大学-快手未来媒体数据研究院的发布会上,快手宣布了其与清华的最新合作战略,并对其产品功能进行了介绍。


那么,这些功能主要有哪些?又将对用户产生什么样的使用体验?在这里我们从两个方面去分析:传输技术和用户理解。


640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1


一个都不能少:

机型和网络不能成为限制


当下短视频受众分布广泛,为了保证视频的正常上传,必须要解决用户机型不一和网络各异的限制。


基于此,快手自研了一个能够具备处理视频、音频、2D、3D动画能力的多媒体处理框架,根据机型动态地选择分辨率、码率和帧率,最大可能发挥用户具体设备的能力,以保证其拍出清晰流畅的视频。同时,快手研发的VCN深度学习引擎可以自适应手机的硬件架构,其使用CPU、GPU、NPU、DSP等多种运行模式,运行速度比已知的引擎提升了50%,达到了业界的顶尖水平。这就保证了用户在拍摄视频的时候能够实时地使用各种新奇的特效。


640?wx_fmt=jpeg


在应对不同的网络速度方面,快手能够智能地根据用户实时的网络情况动态调整网络内核的参数、数据分辨的大小和同时并发的网络链路等。因此,即便是在弱网条件下,也能够最大限度地提升用户视频上传下载的成功率。目前,快手已经实现了在网络丢包80%的情况下,用户依然可以成功地上传下载视频。


这样对优化用户的使用体验是显而易见的。在地铁、地下停车场等场景下,用户依然可以实现短视频消费,更便利地记录自己的生活,平台也可以实现对更广泛场景的覆盖。


AI助力:从对两方的理解开始


要实现用户跟视频、用户跟用户之间产生连接,就需要利用AI技术对视频和用户进行理解,然后通过先进的算法模型进行精准分发。通过深度学习,从人脸、图像、音乐和语言四个维度对视频进行分析和理解,可以对其做出基本的分类。


然而这些基础信息并不是视频的全部内容。通过跟清华的合作,快手在未来将能够实现在底层语义理解的基础上,结合知识图谱,实现对视频高层语义的理解和情感识别。通过一个庞大的数据标注系统,视频的分类将更加精准。


对视频的理解完毕之后,还需要做出对用户的理解。快手通过搜集用户的年龄、性别、地域以及历史行为如点击、点赞的视频等信息,可以实现对用户感兴趣的视频内容进行推理。最后,通过一系列的智能算法为用户打上标签,如体育爱好者或教育者,由此可进一步打造用户之间的网络关系结构。


值得一提的是,快手的推荐算法已经从传统逻辑的维度模型全部切换到全系统的深度学习模型。逻辑型推荐存在着分类简单、个性化程度弱的问题,深度学习则可以实现对用户和视频的更丰富分类,通过对用户点击内容的实时反馈,产出推荐的内容也将更加精准。


技术之外,价值观导向应为内核


技术向来都是一把双刃剑。快手针对用户的视频上传和心理趋向而做的技术性探索是值得肯定的。但在这个过程中,很容易产生一定的问题。


利用AI的数据分析和计算,快手可以迅速地为视频进行分类,同时为用户打上相应的兴趣标签。但仅仅分类是不够的,在分类之前还必须要加强对视频内容的分级处理,对不良视频内容则直接移除。这就需要利用AI的语音识别和图像识别技术。


640?wx_fmt=jpeg


当然,机器学习是一个不断否定和肯定的过程,可以预见在这其中将会出现错误。就如最初微博的九宫格图片,其智能屏蔽系统因只能识别图片局部而无法对其进行整体读取,从而造成了错误判断。但在数据积累足够多、学习程度足够深的情况下,利用AI实现对视频内容的分级应该只是个时间问题。


为用户提供优质且健康的服务体验,把技术、理解和价值观导向结合,用AI将其串联在一起,或许将是短视频平台生长的必由之路。

640?wx_fmt=jpeg

640?wx_fmt=gif

640?wx_fmt=jpeg


阅读更多
换一批

没有更多推荐了,返回首页