您好、欢迎来到现金彩票网!
当前位置:大赢家 > 服务比特率 >

新浪微博短视频服务的优化实践

发布时间:2019-07-08 17:13 来源:未知 编辑:admin

  本文将分享新浪微博短视频如何提升用户体验、降低成本的思路与实践,包括提升短视频发布速度,降低长视频转码时间,通过新的 Codec 减少带宽成本等。

  我所在的团队主要负责新浪微博短视频从客户端的转码上传到服务端的转码存储的整条服务链路。今天主要向大家分享我们团队在短视频方面有关视频编解码的实践与探索。

  这是一个简单的交互图,表示典型的生产者、消费者和服务方之间的关系,他们在平台中关心的重点也会有所不同。

  需要强调的是,我们今天主要讨论通过技术手段改进优化服务并为消费者带来更加完善的产品体验,关于用户内容的部分并不在此次讨论的范畴。

  先来看发布速度。首先向大家简单介绍一下用户通过微博客户端发送视频的流程。

  接下来视频经过转码后会被作为一个整体文件单独上传至 Web Server, Web Server 接收后会将视频上传到存储服务,同时在服务端触发转码操作。

  (1)在客户端,我们会将编码与上传合并到同一个流程里,集成了一个监控编码器的线程以监测编码器完成 Gop 数据编码的数量。

  一旦此数量累计到一定阀值后会触发客户端的上传操作,客户端将这部分数据进行单独分片并上传至 Web Server,在 Web Server 收到所有分片之后会进行 Merge 操作,最后上传至存储服务。

  (2)我们在转码端集成了一个调度模块,此模块会在发布阶段为视频做一次低复杂度的编码以缩短视频的发布延迟。

  当完成这次低复杂度转码后,调度器会进行一次更高复杂度的转码,此转码完成之后原播放链接会被替换,整个操作流程对用户而言是无感知的。

  (3)对长视频采取分片并进行转码。其大概过程是:首先一个输入的视频会被分离成音频轨和视频轨。

  其次依据其 GOP,视频轨会被切割成不同的分片,一个分片中可能包含多个 GOP。但一个 GOP 不会被分在不同的分片中,以避免最终视频合并时出现丢帧而导致视频观看卡顿的问题。

  此时调度器会开启一个监听线程去监听此视频所有分片的转码任务,一旦调度器监测到最后一个分片已经处理完成便触发一次 Merge 操作,就把视频流的所有分片合并成一个视频,最后再和音频轨合并为一个完整的输出视频。

  通过上述这些优化,我们可以提升视频平均发布速度至原来的 3 倍,提升长视频发布速度至原来的 10 倍以上,以上就是我们在视频发布阶段主要进行的一些优化。

  下面我想与大家分享一些关于观看体验的优化,分享之前先为大家介绍一下产品形态与观看场景:

  这是目前微博上主流的两个视频类产品,左边是一个信息流中的视频,其默认播放尺寸比较小而且基本上都以横屏呈现;右边是微博于 2017 年初上线的一个新服务“微博故事”,这是一个全屏播放并可添加 AR 特效的视频产品,以上是微博视频业务的两种产品形态。

  观看场景是指用户会在什么样的场景下观看微博视频。首先,在网络环境上可能是 Wi-Fi 或移动网络;在终端设备上可能是手机、Pad 或 PC;手机又可依据不同的操作系统、屏幕大小、硬件配置等等进行细分。

  如果我们只做一些发布阶段的工作,用户在不同场景下选择不同产品形态看到的都是同一份文件。这种方案可能在某些特定的场景下能够带来比较好的体验,但是我相信对于大多数场景这种方案的体验应该都不是最好的,甚至很糟糕。

  第一项优化是在服务端进行转码的细化,简单地说就是从原来的一个输出变为多个输出,这些输出之间主要的差别大概是以下三个维度:

  我们会在客户端构建一个定制化的下发策略,根据产品形态与用户的网络环境、设备类型、屏幕的尺寸等硬件配置来选择一个符合此场景需求的编码复杂度、分辨率、格式等输出参数。

  通常情况下,我们选择的输出都是此用户在此场景下能够以足够清晰度播放的较低码率视频。

  接下来要讲的是一种常见方法叫做 A/B Test,大概分为四个步骤:定义指标、选择对照组、变更设置、对比结果。

  详细说一下定义指标。第一个是首帧播放延迟,简单说就是从用户点击播放按纽到视频的第一帧画面播放出来所需要的时间,包括下载时间、解码时间、渲染时间等等;第二个是播放失败率。

  第三个是有效播放率,这里我们有两个和播放数相关的统计指标:总播放量就是只要此视频有一帧被成功播放就算一次,有效播放量是指此视频连续成功播放多长时间,例如三秒钟、五秒钟连续的播放。有效播放率就是这两者的比值。

  关于选择对照组我们大概有两种方式:第一种是随机选择,就是从所有的微博用户中随机抽取 20% 分成两个对照组。

  第二种是按特征选择,可以确定用户具体的某一个特征,例如是不是大 V 用户或粉丝数量处于何种量级,甚至可以按照用户登陆终端设备不同来进行选择。

  这里我们主要在两方面进行一些区分与调整:第一是编解码参数,以 X264 具体来说就是 X264 的那些编解码参数;第二是下发策略,有时候尽管两个用户可能处于同一个场景,但我们依然会下发一个不同的视频并最终看哪个视频的数据表现更好。

  这里其实还有一些其他的调整,例如是否启用客户端的软编、硬编、或软解、硬解等等。

  最后就是对比结果,这里主要有两点,第一是前文定义的核心指标变化情况是趋于优还是差,第二是客观的视频质量对比;我们也会借助一些开源的工具来客观对比视频本身的指标,例如 PSNR 或者 SSIM,这也是 A/B Test 的主要内容。

  需要说明的是,选择对照组、变更设置、对比结果是不断迭代的过程,通过不断的去调整各种设置最终达到优化指标的目的。

  上图是指在 Wi-Fi 环境下微博自动播放的一种策略。既然是自动播放就涉及到一个问题:播放之前需要先下载视频,那么需要下载多少比较合适呢?

  一开始我们采取的是一种叫做“固定长度下载”的方案。简而言之就是每个视频都提前下载一部分固定长度的数据例如 265K。

  第一是视频下载服务器占用带宽有很大的上升。因为自动播放的功能,当天的播放量已经上升到之前的两倍多,其中一部分播放量最终回到视频的下载原站;第二是有部分的视频依然会出现轻微的卡顿感。

  带宽占用飙升是因为自动下载导致用户下载得太多,卡顿感是因为自动下载下的内容还不足以支撑流畅的播放体验。

  关于第二点需要解释的是:我们知道对于一个视频文件,比如说 MP4,它的一些 Meta 信息或 Moov 信息是在头部的,并且此信息的长度与视频本身的长度相关,也就是说视频越长这部分的信息提取量越大,所以对于一些短视频自动下载 256K 可能太多,但对于长视频下载 256K 又太少。

  我们想到了一种固定时间下载的方案,简而言之就是对每个视频都先计算好一部分例如前三秒钟的数据大小,我们在服务端转码的同时会计算出此视频包含的 Meta 信息、Moov 信息、前三帧的 MBAT 等加起来有多大。

  在用户浏览信息流的同时和这些信息将与播放链接一起下发至客户端。需要进行解释的是这个三秒是基于我们反复调整测试最终得出的一个最佳值,可以在明显消除自动播放卡顿感的同时控制带宽的占用。

  之前微博对发布视频的压缩门槛有了一个质的提升,从 480P 提高到了 720P,并且对全部的微博用户都开放了此权限。我们未来还可能实现 1080P 的上传,可以看到随着分辨率的提升对比左右两个视频画面差距十分明显。

  第一是我们依据定制化的下发策略根据用户场景自动下发最符合此场景的视频;第二是我们使用 A/B Test 来帮助不断完善几项核心指标,从而优化观看体验;第三是我们实现了 Wi-Fi 下的自动播放;第四是提升上传视频的质量。

  作为服务提供方的我们比较关心的问题可以概括成一句话:怎么既稳定又省钱地提供高质量的短视频服务?

  这句话有两个关键点:稳定、省钱。为了保证稳定我们做得更多的其实是一些类似于多机房部署等架构方面的工作,在此不再赘述。

  思路一可以简单理解为一个用时间换空间的方案。我们知道随着编解码器的发展,在其编码的复杂度越来越高的同时带宽与码率是越来越低,同等码率下视频质量越来越高。

  以 H.265 为例,官方给出的比较有代表性的数据是 H.265,相对于 H.264 而言其编码复杂度大概提升至后者的 10 倍,而码率能够达到 H.264 的 50%。

  如此高的一个编码成本提升,如果是在客户端或是服务端进行都是不现实的。于是我们构想了一种新的思路:热门视频的极限转码。

  简单介绍一下,微博具有一个很明显的热点+长尾的业务特点,可能每天 TOP2000 或 TOP1000 部分的视频会占到当天视频播放量的 50% 以上,而绝大部分视频的播放量很低,只能占 10%~20%。

  根据此种业务特点,我们提出了这种只对一部分热门视频进行极限转码的方案,从而最大程度地节省计算成本,降低带宽消耗。

  第一是预判。在其发布阶段,我们根据发布方的影响力预判其是否为热门视频,在这里我们并没有什么非常复杂的机器学习算法,而是可以简单理解为根据用户的粉丝数作出判断。

  第二是跟踪。可能有些视频在发布阶段并没有被判定为一个热门视频,但是可能因为某位微博大 V 转发了他的视频或者因为这个视频本身很有意思从而带来播放量的爆发性增长。

  在这里我们会有一个程序去统计某个时间段 t 内全站播放量 Top x 的一部分视频;随后这部分中还未进行极限转码的视频,会被调度器投放至一个工作队列中进行极限转码。

  这里的一个小细节是我们的统计时间段 t 与统计视频数量 x 都可根据机群的工作负载进行动态调整。

  如果机群整体负载较高,我们会把这两个数值调低以避免热门视频的转码对正常发布视频的转码任务造成过多影响;如果机群整体负载较低,我们就可把这两个数适当调大以转码处理更多低码率视频从而降低带宽成本。

  第一是更换编解码器例如 H.265 或 AV1;第二是使用一些机器学习的技术进行场景识别,判断此视频的类型,从而优化编码过程。第三是使用云服务,业内的一些云服务提供商都能提供这种高复杂度转码能力的服务。

  通过采用对热门视频进行极限转码的方案,我们可以实现 20%~40% 的码率下降;而在目前所有微博视频播放量中通过这种高复杂度转码处理的视频的占比可达到一半以上,与此同时日带宽节省在一百 TB 以上。

  思路二是保持画质、保持编码复杂度的同时降低成本。上图是一个比较简单的视频转码流程,从视频输入到解封装,再到视频的解码与处理,经过视频的编码最后封装与合并到输出。此流程可以说本身已经没有什么优化的余地。

  但这里有一个前提就是其输出并不是只有一个而是多个。这些输出之间的差别可能就是分辨率或格式,其他的大部分的参数是一样的。

  所以我们可以复用解码的一个环节:可以看到上图的后半段,在视频流解码完成之后视频会被复制出多份,每份会进行单独的视频转码,紧接着复制出的每一个流会与音频流合并成一个单独的输出,最终通过此方式我们可以同时转出多个输出。

  我们都知道现在很多的互联网业务都会面临一个流量明显变化的过程,例如一天中某个时间段会出现流量的高峰或低谷。

  如果希望集群能够经受住流量高峰的考验就需要保持一个比较高的冗余度,可能需要保持 1.5 甚至 2 倍的冗余,才能在流量高峰时段保证互联网服务的稳定进行。

  首先,在整个短视频服务的环节中,整条链路由以下四个服务构成:上传服务、转码服务、存储服务、业务服务。

  这些服务所需要的配置、运行环境,甚至实现语言都是不一样的,而每个服务都有自己的流量高峰与低谷。

  这便导致了这样一个问题:如果按传统方式,需要每个服务始终保持一个比较高的冗余度,那么所有服务加起来整个集群的冗余度就会显得非常高,从而造成一些浪费。

  所以我们需要做的是抹除这些服务之间的差异。具体来说是通过最近几年在后端领域很火的 Docker 技术将包括配置代码在内的整个运行环境打包成一个镜像,可以简单理解为一个压缩包。

  我们所有的服务依赖的都是这种 Docker 服务,只要在机器上安装 Docker 软件就可以随时启用所需服务。通过这种方式可以将之前处于高冗余度下的四个集群转变为一个集群,此机群只要保持一定的冗余度就可完成服务的承载。

  上图是微博大致的每天流量变化趋势,最右边那部分是晚 8 点到次日凌晨 0 点的晚高峰,可以说几乎每天流量都是以这种趋势变化,晚高峰时段流量会比白天大部分时间段高出 20%~30% 的样子。

  面对这种情况我们会在高峰时段通过一些公有云服务扩充出的一些计算资源承担这部分高峰流量;当高峰期结束便撤下这些公有云服务以尽可能降低服务的整体成本。

  上图是之前鹿晗发微博公开恋情的半个小时内,微博一些核心服务的流量变化。可以看到从 12 点的值到最高峰,不到半个小时流量基本翻了 4 倍。

  这种量级的上涨是无法通过诸如降级或流量调配等人工干预手段有效应对,这便要求我们的服务器必须具备快速且大批量的弹性扩容能力。

  当天我们也是从阿里云上紧急扩容了超过一千台的服务器,最终将此热点事件造成的流量爆炸性增长化险为夷。

  首先是对热门视频进行极限转码,通过以最小的计算资源去获取最大带宽节省来降低成本。

  其次是我们多输出转码,整体上降低一些编码的成本,随着发布的视频的质量越来越高,多输出转码降低成本所带来的收益应该会继续提高。

http://ccsagresso.com/fuwubitelv/792.html
锟斤拷锟斤拷锟斤拷QQ微锟斤拷锟斤拷锟斤拷锟斤拷锟斤拷锟斤拷微锟斤拷
关于我们|联系我们|版权声明|网站地图|
Copyright © 2002-2019 现金彩票 版权所有