第一情报 ---信息产业

新兴的CPE Cache系统(二):相关理念

1、网络缓存技术综述
 
网络缓存服务器可以将网络数据流量模型转换为另一种不同的模型,目的在于减小上级链路的下行峰值比特率进而减小整个网络上级链路的峰值速率。网络缓存服务的相关模式如图1所示。本文的相关假设是,网络缓存服务并不会改变下行链路的数据流量模型——虽然实际上,如果出现链路拥塞,这种情况有可能会出现(比如,可通过查找缓存服务器中的相关内容,结合OTT视频码流自适应技术,来解决网络拥塞问题,并以更高的码流来分发OTT视频内容)。


 
3
图1  网络缓存服务的部署模式


 
某条网络链路的峰值数据速率与宽带速率测试方式以及测试时间间隔的定义有关。从而,就依赖于技术考量以及财务考量。例如,穿透链路的月度计费可以基于下行接入速率的95%(以此作为峰值速率)来进行,并每隔5分钟时间就进行一次测速(时间周期为一个月)。对于成本开销最大的诸如DOCSIS信道的“最后一公里”接入网络段,可以对链路效率进行季度监测,并将其纳入到季度报告之中。此时,同样地,也可以采取“95%”原则来消除异常数值。
 
对于网络缓存效果的评估准则为:是否减小了上级链路(网络缓存服务器与远程内容源服务器之间的网络链路)中的下行峰值数据传输速率?网络缓存服务器的工作原理是“以存储换带宽”。此处将网络缓存服务器的峰值传输速率设置为BC,并将网络缓存服务器的总体下行传输带宽(包括来自于缓存服务器或者远程内容源服务器)数值设置为BT。传统上,对于网络缓存的评估,是基于“缓存效率”或者“缓存命中率”而进行的:BCH=(BC÷BT)×100%。
 
然而,如果仅在网络数据流量的峰值时间段进行测试,上述计算方式就仅与峰值传输速率的改善有关。而在非峰值时间段,网络容量具有较大的裕量,从而,网络缓存服务器就可以通过从内容源服务器下载热门内容来提高缓存的有效性。
 
在此情况之下,BC的数值未发生变化,而BT的数值却增大,于是,“缓存命中率”BCH就会降低。但是,由于整个网络的成本开销是由对峰值网络容量的利用率来决定的,此种方式就并不会额外增加成本开销。
 
比如,Netflix的CDN(内容分发网络)解决方案OpenConnect之中,就是于网络数据流量非峰值时间段,把内容源服务器之中的热门内容注入到各级网络缓存节点之中。这就意味着,在网络数据流量峰值时间段,OpenConnect的缓存节点就可以迅速地在第一时间内响应来自于终端用户的每一条请求。这种策略可以提高链路效率以及整体数据流量,以减小峰值数据速率。
 
网络缓存服务的有效性取决于缓存节点中所存储的热门内容对于用户请求的响应能力。假设网络缓存服务节点具有无限大的内容存储能力,而且在技术上也可实现内容全填充,这样,缓存节点就可以通过上级链路下载并存储所有的静态内容。但是,在现实部署中,网络缓存节点既存在物理空间的限制,还存在成本开销的限制。因此,缓存节点就必须要采取一定的策略对其中所存储的内容进行动态管理(笔者注:比如,定期删除过时的内容,而重新填充最新热门内容),以不断地优化其“缓存命中率”。
 
因此,本文对“缓存效率”RS的定义就为:从缓存服务器流出的数据总量BC与缓存服务器中所存储的内容数据总量BS(通常是满载情况)二者的百分比值——RS=(BC÷BS)×100%。
 
此外,另一个与网络缓存相关的考量因素是QoE(Quality of Experience,体验质量)。终端用户所体验到的QoE往往是主观上的,而且通常会受到视频信源编码质量、视频分辨率以及自适应视频传输码率的影响——在底层宽带网络条件发生变化(比如网络拥塞)、终端播放设备的CPU处理能力发生变化等情况下,容易出现丢帧、缓冲等影响用户体验的异常情况,此时,系统就会自动地运行自适应传输算法,主动切换视频内容的清晰度。
 
本文不会深入地讨论QoE问题,而且假设由网络缓存服务节点所提供服务的体验质量等同于甚至优于由远程内容分发网络节点服务的体验质量。这是因为,相比于后者,前者在网络中的部署位置(意味着热门内容的“下沉”部署位置)要更靠近终端用户一些,从而就可以更好地规避网络拥塞问题,增强用户体验。
 
2、“CPE Cache”技术综述
 
传统上,网络缓存服务是基于用户统计数据以及相关内容的“冷”、“热”程度而提供的,这就意味着,其内容填充原则是:仅存储被大量用户消费的、最受人们欢迎的热门内容。此种方式非常有效。这是因为,大部分Internet内容的传播规律均遵循“幂律分布”原则,即:在一定的时间周期之内,所有Internet内容之中,仅有很小一部分同时被很多人接入。例如,即使某个OTT视频服务提供商一共拥有50000条视频内容,然而,相关的统计结果很可能是:该运营商所有用户在一天时间中所消费的所有视频内容的80%,均是来自于排名为前20%的热门内容。于是,如果该OTT视频服务提供商有能力提供最受欢迎的10000条视频内容,那么,网络缓存服务节点的上级链路,传输带宽需求就可以减小80%。
 
而与之形成鲜明对比的则是,CPE Cache(在用户驻地网络设备中地热门内容进行高速缓存)仅为少量用户提供服务——在很多情况之下,很可能是一个家庭用户。根据传统网络缓存服务的运营经验,可以在CPE Cache中缓存排名前20%的热门内容。
 
虽然“CPE Cache”解决方案可以获得与传统网络高速缓存服务相同的总体成本节省,但是却降低了存储效率——这是由于,部署CPE Cache技术的终端设备太多、太分散。从成本开销的角度而言,CPE Cache会很大。

例如,一个典型的传统网络高速缓存服务节点的总体存储容量可能是数个TB,而如果CPE Cache也采用如此大容量的硬盘,那么,硬件设备的成本、供电成本以及扇热成本就将会非常的高。因此,就需要拿出一种改进型的解决方案,在无需存储所有热门内容的大前提之下来提高CPE Cache的缓存效率。
 
为了同时提高用户驻地网络CPE Cache的链路效率以及缓存效率,本文提出了两种技术解决方案:predictive caching(基于提前预测的内容缓存。笔者注:可见,这是一种主动式缓存)以及participative caching(参与式内容缓存。笔者注:可见,这是一种被动式缓存)。
 
“参与式内容缓存”模式之下,用户主动发起请求,希望自己在一段时间之后再观看某段视频内容,然后,CPE Cache开始对相关内容进行高速缓存,并对缓存进度进行提示。可见,这与传统的PVR(个人电视视频录制)服务模式有着相同的理念。而且,这种模式可以使得CPE Cache获得非常高的链路效率以及缓存效率。然而,这种模式的缺点也是显而易见的:需要用户主动发起请求,并手动执行相关操作,并需要等待一定的时间才能观看相关的视频内容。
 
而在“主动式内容缓存”模式之下,系统自动地根据历史数据(比如用户的观看行为记录)提前将用户可能会感兴趣的内容高速缓存到CPE Cache模块。可见,这种模式的优点在于,无需用户主动参与,也无需用户在观看视频内容之前等待。但是,缺点在于事前预测结果的精准度可能不高,而且相关过程对于用户而言不是自主可控的,于是,其链路效率以及缓存效率就都不如“参与式内容缓存”模式的高。
 
综上,如果在CPE Cache处实现“参与式内容缓存”与“主动式内容缓存”的优势互补,采取两者的混合模式,就可以很好地取得链路效率及用户体验之间的平衡。例如:可把“主动式内容缓存”用于CPE提前存储用户很可能会观看的视频内容,而对于用户本人已经明确请求在一段时间后需要观看的视频内容,则采取“主动式内容缓存”模式。
 
这样一来,上述所讨论的CPE Cache混合式缓存解决方案,就涉及到如图2所述的“缓存效率”、“存储容量”以及“用户参与”这三者之间的关系。如果这三者的任何一方得到提升,高速缓存效率就会提高。反之,则会降低。


 
4
图2  提高CPE Cache高速缓存效率的方式


 
传统的网络缓存解决方案之中,视频内容流自于通信服务提供商的核心网络,而不再需要通过穿透链路或者对等链路从其他自治域网络或者Internet去“拉”视频,从而,就可以提高用户的主观体验质量。而进一步地,由于高速缓存内容的分发可以规避接入网络段的拥塞问题,CPE Cache解决方案就可以再次大幅地提高用户的主观体验质量。
 
 
参考文献:
 
[1] Scot Loach. CPE CACHING – USING NETWORK INEFFICIENCY TO DELIVER BETTER INTERNET STREAMING[C]. 2015 Spring Technical Forum Proceedings. NY:NCTA, 2015-05-05.
 
本文作者为上海情报服务平台兼职情报分析员
 


注册成为正式用户,登陆后,获得更多阅读功能与服务!
转载本文需经本平台书面授权,并注明出处:上海情报服务平台www.istis.sh.cn
了解更多信息,请联系我们

§ 请为这篇文章打分(5分为最好)