直播播控和分发基础架构

【流媒体网】消息:消费者需求与产业链升级,永远是敦促技术进步的两大源动力。在视频应用与消费领域,显示效果、播出质量和观看体验的不断提升、人机界面与互动模式的“虚拟-真实”化演进,是决定“下一代视频”技术与应用进步的两个基本维度。 在中智盟联合流媒体网于2016年7月22日召开的“下一代视频技术与应用研讨会”上,观止云(北京)信息技术有限公司副总经理雷健做了主题为《直播播控和分发基础架构》的演讲。以下为演讲全文:

观止云550X360.jpg

  我是来自北京观止云的雷健,原来我以为就是沙龙性质的聊聊,临时到了现场才知道需要分享,所以在其他老师演讲的时候,我简单临时做了一个PPT,可能PPT有些地方看着格式会糙一些。另外,就是我也是第一次分享这块的主题,内容方面,可能有些不够全面。不足之处,请大家多多理解。

  下面进入我们的分享,我今天从直播播控和分发两个方面来谈一下直播服务基础架构面临的一些变化,首先是源站播控侧,就是播控侧我们认为有什么变化。

  首先,我们先看一下目前几种直播的拓扑架构,首先是一个传统的电视直播的架构图,直播信号采集通过编码,汇聚到流媒体服务器,再经过CDN分发到多终端用户,直播流通过收录实现直播转点播,直播流通过直播播控来实现播控管理。

1.png

  接下来是虚拟直播的,现在很多IPTV和互联网视频站点都有应用,这个就特别像电视台的硬盘播,就是把现场直播的信号,加上点播视频,进行7x24小时排播出单,直播流按照预排的播出单进行播出。

  接下来是互动直播的架构图,刚才杨总提到了,观止云在互动直播领域做得比较擅长,国内的互动直播,像熊猫TV等也是我们的合作伙伴,这个互动直播架构和传统播出的区别在于互动直播主要是用户推流,是用户通过手机或者PC将视频流推到播出端。

  以上是直播目前的三种主要业务形态:电视直播+虚拟直播(轮播)+互动直播,目前直播主要的业务应用场景主要是这三种。接下来说说我们看到的直播领域的一些变化,以及由此带来的技术架构要考虑哪些因素,这是重点。

2.png

  目前直播领域发生了非常大的变化,前些年我们认为直播可能基本上到头了,这些年发现远远没有,无论是直播的业务形态、技术、内容,都发生了很大的变化,并且未来还会产生更大的变化。从目前火爆的秀场和各种泛娱乐的移动主播,包括VR/全景、以及4K等,我们认为直播目前处在风口上,业务上产生很大的变化,也会带动技术基础架构也发生很多变化。

  接下来我从六个方面谈一下我们认为的直播播控基础架构要考虑的因素,首先是全功能:,未来直播播出口要考虑电视直播、虚拟直播和互动直播,包括全景VR直播,我们要建一套播出端,这些必须要考虑到,不像以前只需要考虑单一应用场景,现在就要有一些前瞻性。另外,还要考虑高性能,未来直播播出机构有一个趋势做大量的互动式直播,而互动直播可能动辄都是成千上万个直播,这就需要考虑播控的高性能。之前我们和一些地方电视台交流过,地方电视台也考虑在做互动直播,但不会采用目前的秀场等互动直播的模式,因为电视台的媒体定位,不适合做目前互联网上火爆的秀场等互动直播,但是电视台可以利用自己公信力,结合各行各业在地方城市比较有特色的人来举办一些互动直播的节目,比如说做一些在线教育,这个也是比较大量的级别,当然达不到五千或者上万的级别,但是几百上千还是有的。比如说找本城市4S店最好的师傅来做一个互动直播。鉴于这些趋势,未来我们的播控可能需要考虑支持上千个直播频道。

  还有就是业务流程的变化,传统的电视直播就是先审后播,如果有上千个频道的海量直播频道,传统的先审后播的方式就不适合了,播控可能需要兼容互联网的先播后审方式。在业务流程上采用互联网互动直播方式自动接入,自动审核方式。我随时想直播,随时一点就直播播出去了,同时直播内容自动连着一些监播引擎,来实现自动接入,自动审核。

3.png

  另外接入和输出也会发生很大的变化,今天我在这里现场要做直播,现在我拿出一个手机,我得把流推上去,没有服务端知道我的IP地址是多少,所以需要支持推流,另外由于互联网的传输不稳定,所以需要在网络传输做优化。

  用户体验就不说了,这个什么时候都是这样的,越高清晰度越好。交互也是很重要的功能,比如视频连线,这些是直播播出架构需要考虑的。

  还有就是开放性,需要直播内容能很方便的从第三方导入,输出至第三方。另外,就是需要开放一些能力,比如虚拟直播、收录等等这些给主播,或者给第三方。还

  在当前4K、VR、互动直播几层因素之下,传统播出端的基础架构就面临着一个比较大的改变,这是我们的一点见解。

  接下来说说分发服务端的架构变化。首先我们看一下目前直播分发服务困扰大家一些因素,首先是高清和流畅,这个什么时候都是硬需求,其次是互动直播的秒开和低延时的需求,再就是刚才一些同行提到的视频直播带宽成本问题,再有就是如何能实现精细化运营的问题,比如说能实现使得根据业务种类、内容冷热、用户等级、区域位置、用户观看体验、费用预算等来进行灵活调度管控。最后就是服务问题,由于直播的实时性,所以有了问题需要更快速的定位故障,更快捷的相应。传统的分发服务都是数十分钟级的定位故障,而直播要求能做到秒级。因为直播出现问题可能时间很短,比如我现在在这演讲,卡了一分钟,等发现问题,我都讲完了。所以直播要求必须能秒级发现问题,定位问题,这样才能快速响应,也才能够真正保证直播分发服务质量。这么快的速度,当然很有难度,但是技术上确实是可以实现的,观止云目前最快就可以做到64ms,获取问题客户的端到端的日志。

  传统的电视直播形式未来会考虑VR、4K,需要更大的码率,互动直播需要秒开,需要低延时,业务运营上需要更细粒度的灵活调度,需要节约成本,这些业务的变化会使得分发服务的技术基础架构也产生相应的变化。需要直播分发服务架构能够支持这些不同的直播应用,能够在VR、4K直播支持更大的码率,能够在互动直播支持快递额打开速度和低的延时,能够获取单个用户的体验数据,依据大数据灵活调度,能够支持CDN+P2P,节约成本,能够支持端到端的可追溯日志,并且能够快速获取问题链路日志,快速调整,从而保障直播服务质量。

  最后,我想说的是,以上这些都是我的一家之言,但是4K、VR、火爆的互动直播等直播业务一定会带来播控和分发技术基础架构的相应变化,因为技术是服务于业务的,业务有变化,技术架构势必会跟着变。

  好,今天我就分享这些,谢谢大家!

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值