时间:2024-05-22
李莉莉 周建二 李 清 段经璞* 王志强*
(*南方科技大学未来网络研究院 深圳 518055)
(**鹏城实验室 深圳 518055)
(***清华大学深圳研究生院 深圳 518057)
随着移动设备的普及和蜂窝移动网络的进步,蜂窝移动网络已经成为网间接入的主流模式。第五代移动通信技术网络(5th generation mobile communication technology,5G)可提供从超可靠低延迟通信(ultra reliable low latency communications,URLLC)、巨链接(massive machine type communications,mMTC)到超高带宽(enhanced mobile broadband,eMBB)的网络服务[1]。伴随着网络技术的蓬勃发展与应用扩展,网络服务质量问题变得更为复杂,扩展到整个网络模型的各个方面,包括接入控制、流量管理与控制、队列监测与调度和拥塞控制等诸多方面,其中最为基础也最是关键的是拥塞控制。实际运行的5G 网络是一个开放、异构、多元、动态演化的复杂系统,在其中进行拥塞控制极具挑战性。
传输控制协议(transmission control protocol,TCP)可保证数据传输的可靠性。目前互联网上绝大多数数据传输基于TCP[2],TCP 已经成为事实上的拥塞控制协议,而蜂窝移动网络的特征严重影响TCP 性能。
(1)信道高度变化。无线链路易受天气、遮挡物等干扰因素影响,信道的可用带宽也随之产生高度变化。蜂窝技术比WLAN 等无线技术更为复杂,用户的流动、负载变化都会造成可用带宽变化,使得TCP 难以追踪信道。
(2)用户移动性。蜂窝网络重要特征就是用户的移动切换,这造成了不同程度的时延甚至网络链接中断。随着5G 采用小蜂窝结构,这种切换更加频繁。
(3)链路不对称性。基站与移动终端之间的无线链路本质上是不对称的。与基站相比,移动终端的处理能力、缓冲空间都是有限的,这就表现为上行、下行链路的不对称。另外同时包含有线与无线两种不同特征链路,给准确定位拥塞位置带来挑战。
(4)延迟不可预测性。蜂窝网络中延迟产生的来源更加复杂。如部署的ARQ(automatic repeat request)和纠错技术向上层隐藏了链路层的数据包丢失,却造成时延增加。用户移动与基站间的距离变化,导致不同延迟等。不可预测性延迟影响TCP 拥塞判定准确性。
(5)基站深度缓冲。基站处的每个用户都拥有独立的深度缓冲区是蜂窝网络的特点之一[3]。供应商这样部署旨在提升数据传输的可靠性,提高链路的利用率,然而这导致更严重的缓冲区膨胀问题。
对拥塞控制算法主要的评价指标有如下3 个方面。
(1)吞吐量。吞吐量是指在没有数据包丢失的情况下,设备端能接收并转发的最大数据的速率。吞吐量这个指标能够直观地反映出算法在单位时间内传输性能的好坏。
(2)时延。时延是指从数据包发出,直至收到回应的ACK 包为止的这一段时间,是拥塞控制里的重要评价指标。
(3)公平性。终端用户可以自由选择其拥塞控制算法,多种拥塞算法共存在网络中,需要保证这些算法间的公平性。同时还需要考虑不同时延、不同流长度等对公平性的考验。
由于蜂窝移动网络在组网技术、网络模型、网络部署和时延影响方面都和传统网络有较大区别,本章将分析5G 网络特征,从网络特征入手,探讨蜂窝移动网络对拥塞控制的影响。
数据传输会经过无线网络和固定网络,无线网络指从无线设备到基站,再到蜂窝移动数据面出口范围内的网络,固定网络指Internet 或者数据中心等。图1 显示了简化的5G 网络架构。
图1 5G 网络架构
蜂窝通信系统主要包含2 部分,即无线接入网(radio access network,RAN) 和核心网(core network)。无线接入网主要由基站组成,为用户提供无线接入功能。核心网则主要为用户提供互联网接入服务和相应的管理功能等。
在接入网中,gNB 是提供5G 用户平面和控制平面服务的基站。5G gNB 可进一步划分为集中单元(central unit,CU)和分布单元(distributed unit,DU),提供低成本部署。在核心网中,AMF 主要负责控制面注册和连接、移动性管理等;SMF 主要负责会话管理、UPF 选择和控制等;UPF 主要负责数据转发功能,执行来自SMF 的统筹调度。总体来看,5G 网络架构清晰地呈现出接入面、控制面、转发面分离的特点。
图1 还显示了简化的PDU 会话建立流程。终端发起PDU 会话建立的请求,AMF 根据终端配置信息向NRF 发起SMF 的发现和选择流程,由选定的SMF 进行会话的上下文的建立。SMF 向UDM 取用户响应的签约信息,然后向UPF 和RAN、UE 下发策略控制消息,由UPF 和RAN、UE 建立PDU 会话的连接进行数据传输。
与之前几代移动通信系统不同,5G 系统架构是服务化的。服务化的架构模型采用了网络功能模块化、可重用和自包含等原理,让5G 能够利用最新的虚拟化技术和软件技术。各种新技术对网络控制产生了不同的影响,将在1.3 节作进一步详述。
过去,新一代移动通信系统的网络部署完全是独立进行的。5G 时代不同,5G 将长期与4G 共存。因为考虑到现实因素,实际上4G 与5G 网络是混合部署的。
5G 网络部署备选方案可分为两大类:独立部署(standalone,SA) 和非独立部署(non-standalone,NSA)。3GPP 标准[4]中规定了8 类部署架构选项,而部署架构演进路径可归纳为两大类。一为5G 商用初期直接选择SA 架构,二是初期选择NSA,后期过渡到SA。考虑到成本等问题,绝大多数采用的是第二类分步走方案,如图2 所示。目前处于5G 商用的初期,即图2 第一步,采用NSA Option3x 模式,只引入5G NR,将控制面在LTE 侧实现。5G NR 将按照图2 逐步由热点覆盖演进到5G NR 连续覆盖,实现到SA 架构Option2 的过渡[5]。
图2 5G 网络部署架构演进路径示意
然而,采用NSA 架构使得流量情况更加复杂。如5G-5G 切换时延明显高于4G-4G 切换时延[6],这就是由于NSA 使得5G 间的切换步骤增加。同时4G 和5G 的混合部署让切换发生的次数大幅增加,进一步影响时延。NAS 部署具有诸多局限性,对拥塞控制提出了新的挑战。
5G 网络架构的重构是以一系列新技术的引入作为先决条件的,例如,基于SDN 实现控制与转发的分离,基于NFV 实现软硬件解耦。另外,还引入网络切片、边缘计算、D2D 通信等技术方向[7],以形成针对所有场景的解决方案。这些技术的引进使得网络有了新的特征,本节介绍这些技术的同时进一步分析对网络拥塞控制的影响。
(1)毫米波。5G 服务部分使用5G NR 毫米波(mmWave)。毫米波的引进极大地扩宽了可用带宽,但其使用面临着许多技术挑战。例如,由于其无线电的范围和方向有限,对周围障碍物高度敏感,使得性能会急速下降[8],增加网络的不稳定性,拥塞控制变得更加复杂。
(2)MIMO。这是利用无线信号的空间独立性提高系统频谱效率的一种天线技术。需要基站和UE 之间紧密交互进行控制,会交换各种信息,并且发生在毫秒级规模上,拥塞控制算法可以选择充分利用这些信道信息来进行设计。
(3)移动边缘计算。移动边缘计算为无线接入网提供IT 和云计算能力,使业务本地化、近距离部署成为可能。无线接入网由此具备了低时延、高带宽的传输能力,业务面下沉可有效降低网络负荷以及对网络回传带宽的需求。
(4)网络切片。网络切片可以让运营商在硬件基础设施中切分出多个虚拟的端到端网络,适配各种类型的服务并满足用户的不同需求。切片技术的应用使得网络控制更加简洁,可以在相对独立的环境中进行网络拥塞控制。
蜂窝网络比传统有线网络增加一跳无线网络,由于无线信道的剧烈变化,以及用户的移动性,对信道容量进行追踪十分困难。因此,研究人员的主要研究方向大体分为两类:一是探究信道变化的具体来源,根据产生条件细致地划分各类网络状况,针对拥塞进行控制;二是忽略对复杂无线网络状况以及各种交互的分析,利用观察到的蜂窝特征学习推断蜂窝容量。在关注蜂窝网络的特征同时,研究中普遍对蜂窝网络进行了建模,并对其做了诸多假设。一般的蜂窝模型如图3 所示。
图3 蜂窝网络模型
图3 显示了一般对蜂窝网络的假设。
(1) 基站为每个用户维护独立的队列,减少了交叉流量效应,使得用户时延一般认定为自致时延。而且基站对用户进行公平调度,用户可以专注于管理自己的瓶颈。
(2) 内容下发靠近蜂窝链路,瓶颈向蜂窝链路转移。对于时间敏感数据的处理和存储也离用户越来越近,以期降低数据传输的时延,使得无线端可能成为大多数的通信的瓶颈。
这些假设包括了绝大部分的网络状态,让蜂窝网络结构特征清晰,明显地降低网络的复杂性,大多数的算法都采用这些合理的假设。但是,实际中基站对用户带宽的分配会随着用户数目变化,表明独立的用户队列一定程度上会受其他用户影响。而且,少数时间瓶颈位于有线端时,仅仅针对假设设计拥塞控制算法显然是不够充分的。
拥塞控制算法从面向吞吐朝着面向吞吐和时延并重的方向发展,甚至向更加注重时延的方向演变。本节将对蜂窝网络的时延开展更深的介绍与分析。
如图4 所示,当前LTE 系统的总单程传输时间为t=TRadio+TBackhaul+TCore+TTransport,即包括了无线、回程、核心网、有线传输的时间。
图4 数据包传输E2E 延迟
5G 较之4G 各项服务都对时延提出了更严格的要求。比如eMBB 业务的用户面时延(用户终端到CU)不超过4 ms,控制面时延(用户终端到核心网)不超过10 ms;uRLLC 业务对时延要求更严苛,规定用户面时延不能超过0.5 ms。其中从终端到核心网,和4G 网络相比,5G 时延的组成如图5 所示。
图5 5G 时延的主要组成
5G 承载的网络结构基于4G 承载网架构,但有显著区别。由于出现了CU、DU 分离的部署场景,导致出现前传、中传和回传三级结构。另外核心网的部分应用功能,下发到靠近用户的基站一侧,达到了缩短时延的效果。文献[6]指出,相比于4G 网络,5G NR 仅将无线时延降低了不到1 ms,而扁平化核心网架构则将时延降低了20 ms。
然而,因为NSA 架构等因素5G NR 端到端时延仍然与4G LTE 相似,传统的拥塞控制信号RTT 等不足以反映网络的具体状况,对网络时延开展进一步的分析是必不可缺的。实际上应用的性能主要取决于用户数据面的时延,所以用户数据面时延是低时延通信的重点关注对象。下面分析时延的几个重要影响因素。
(1)自动重传机制。自动重传功能在链路层帧丢失时,对上层隐藏丢失,但实际上端到端的时延有所增加,而这并非拥塞所导致的。
(2)上下行调度。在LTE 网络下行链路以1 ms的传输时间间隔调度,而上行链路需要向基站发送周期性的调度请求,授予权限后进行调度。这使得RTT 拥塞信号变化不能准确反映拥塞,需要开展进一步校准工作。
(3)缓冲区大小。在RAN 内,5G 缓冲区大小比4G 大5 倍,但是有线网络内相差2.5 倍左右[6],由于缓冲区的不匹配,造成高丢包以及过度排队。4G 和5G 共享同一个网络路径造成对4G 流的损害。因此,大缓冲区对丢包和时延之间的权衡影响需要深入研究。
(4)极端移动性。极端移动性场景越来越普遍,如在高铁上切换成为中断TCP 流的主要原因[9],合适的拥塞控制算法可降低极端的移动性破坏的程度。
时延的变化与上述众多因素相关联,一般仅根据端到端时延难以定位拥塞发生时刻,如何利用可获取的时延信息辨别拥塞是5G 网络拥塞控制研究的难点。
传统拥塞算法是研究针对蜂窝移动网络拥塞算法的基础,下面将分析传统拥塞控制算法及其在蜂窝网络的局限性。
主流的拥塞控制算法可以分为基于隐式反馈、显式反馈、学习预测的拥塞控制算法,它们主要面向的是传统的有线网络环境,在蜂窝网络中的表现则存在一定的缺陷,算法汇总于表1。
表1 传统拥塞控制算法
隐式反馈传输协议是不需要中间节点的反馈信息,即可进行拥塞窗口调整的协议,其优势是没有额外开销,便于实现,但是存在传输效率较低等问题。隐式反馈算法又主要包括基于丢包、时延以及其他信号的拥塞控制算法。
TCP 基本的拥塞控制机制就是基于丢包的,在此基础上发展了许多版本,如TCP New Reno[10]、Sack[11]、Scalable[12]、CUBIC[13]等拥塞控制算法。其中的CUBIC 是现在广泛应用的算法之一,它通过一个立方函数来提高增长速率。基于丢包的算法在浅缓冲区的有线网络中表现良好,因为丢包很大概率是由拥塞造成的。但是在蜂窝网络中,无线端具有深度缓冲区,使得传统的基于丢包的拥塞控制算法应用于无线网络中时性能下降。
基于时延的拥塞控制算法也是拥塞控制算法改进研究的重点,包括BBR[14]、TCP Vegas[15]、FAST[16]、TIMELY[17]、Copa[18]等。其中由谷歌提出的BBR 应用十分广泛,它通过实时交替测量传输速率和最小RTT 实现带宽时延积BDP(bandwidth delay product)的观测,控制网络中数据包的总量。但无线链路的速率变化更加迅速,使得BBR 性能表现较差。在无线网络中直接利用RTT 的拥塞控制算法可能并不理想。
除了基于丢包和时延的方案,基于其他信号的拥塞控制方案还有许多,比如Illinois[19]、CTCP[20]、Africa[21]等。针对传统有线环境的算法,大多适应于稳定变化较小的环境,直接应用于蜂窝无线网络环境中难以展现良好的性能。
基于显式反馈的拥塞控制协议主要有XCP[22]、RCP[23]、VCP[24]、DCTCP[25]、D2TCP[26]以 及HPCC[27]。XCP 通过在数据分组上添加当前的拥塞窗口值和RTT 估计值,为路由器计算当前链路的可用带宽提供了重要的参考。VCP 利用IP 报头的冗余位作为载体,发送端通过这个载体向外传达当前的拥塞情况。基于显示反馈的协议需要路由器的额外支持,实际部署存在困难。
不同于上述协议,基于学习的拥塞控制不再依赖简单的网络反馈调整发送窗口值,而基于网络状态的测试值,利用机器学习算法建立动态发送窗口。典型的算法有Remy[28]、PCC[29]和PCC-Vivace[30]、Indigo[31],以及基于强化学习的算法如Aurora[32]、Orca[33]、QTCP[34]等。其中PCC 运行类似于梯度上升的在线学习算法,根据提出的性能指标进行速率的调整。PCC-Vivace 则是在PCC 的性能评价函数中加入了时延,缓解缓冲区膨胀的问题,并改进速率控制算法部分加快收敛。但是在无线场景中这类算法性能下降明显,因为无线场景的变化更加迅速难以预测,对于模型的选择要求更为严苛。
蜂窝网络与传统网络之间存在的差异,使得传统拥塞算法不能很好地适应蜂窝网络,性能有所下降。可基于蜂窝网络特性,从网络中获取更多信息辅助拥塞控制算法设计,提高TCP 性能。表2 根据辅助信息获取位置,总结了蜂窝移动网络中的拥塞控制算法。
表2 蜂窝无线网络拥塞控制算法
基站可以观测到丰富的链路信息和用户排队情况,能进行直观有效地拥塞控制。
2017 年Lee 等人[35]提出了基于蜂窝边缘服务器的BRC 算法。该算法是以基站(base station,BS)为中心的速率控制,其中BS 根据缓冲区的占用程度与无线信道的质量配置的阈值,通知边缘服务器拥塞情况,控制缓冲区只有较小的队列,避免了缓冲区膨胀问题。基站虽然需要将每个用户的队列状态传送到边缘服务器而产生开销,但是根据无线信息对速率进行了精确的控制,同时缓解了严重的过度延迟问题,并依靠基站公平地共享带宽。
2017 年Leong 等人[36]提出了PropRate 算法,这是一种基于速率的TCP 算法,实际部署在基站和代理中。其关键思想是发送速率在网络容量附近波动,实现网络容量的探测。它假设了一个稳态模型的缓冲区,将缓冲区调节视为黑盒,通过引入负反馈循环来收敛到所需的缓冲时延。但这并不是最优解,仍存在改进的空间。PropRate 工作于单向时延,只处理上行链路拥塞的情况。
2020 年Goyal 等人[37]提出了ABC 算法,它部署在基站(路由器)上,对每个数据包标记“加速”或“制动”来控制窗口的增减,这样路由器可准确反馈目前链路的变化情况。标签是通过基站侧的信息来计算的,采用了基站当前数据包到达和离开速率等信息进行判断,利用ECN 机制对数据包进行标记。文中不仅介绍了简单利用ECN 机制进行增量部署的方案,同时提出了无ECN 情形下的部署方案,具有很强的可实施性。
2021 年Sacco 等人[38]提出了OWL 算法。OWL在端到端和网内信号中学习,是一个基于强化学习的传输协议。强化学习主要由状态集、行动集、效用函数3 个部分组成。其中端到端的统计特征和网络层面的统计特征构成了OWL 的状态空间,值得关注的是OWL 选用了部分网络知识(PNK)这一网络特征指标进行学习。行动集合和效用函数则是通过经验评估,学习收敛得到的高效用集合和函数。通过实际和测试评估,在绝大多数场景中OWL 的表现都优于现有的协议,有更快的传输速率和更低的时延。
无线物理层的信令协议中含有丰富的蜂窝信道信息,如何对其进行合理的提取利用成为了新的拥塞控制研究方向。
2015 年Lu 等人[39]提出了CQIC 算法,CQIC 完全不对信道建模,而采用物理层的控制信息,如信道质量指标(CQI)、不连续传输比(DTX)来预测瞬时蜂窝容量。这意味着摒弃了TCP 拥塞机制中AIMD式的拥塞探测过程,直接从信令中获取瓶颈带宽信息。这使得CQIC 消除了对建立模型准确性的不确定性,同时避免丢包式反应造成的缓冲区膨胀现象,而且可以密切跟踪迅速变化的蜂窝信道带宽。CQIC 能拥有如此大的优势,需要同时对发送方和接收方进行改造,存在部署难度大的问题。其公平性则是依靠蜂窝基站底层的调度算法实现的,应对特殊情况则需要额外部署其他机制。
2016 年Liu 等人[40]提出了ABRWA 算法。本文揭示了缓冲区膨胀的根本原因是发送窗口和大缓冲区下的动态可用带宽不匹配。该算法为了解决缓冲区膨胀问题,在接收端检索无线链路容量,并使用它来动态地计算接收窗口,控制拥塞窗口的大小。结果表明,该算法在保持吞吐的同时降低了队列大小,提高了时延性能。
同年Zhang 等人[41]对ABRWA 算法做出改进,提出了DRW 算法。在毫米波链路中缓冲区膨胀问题更加严峻,主动队列管理和动态接收窗口都可以有效缓解这一问题。文中分析出ABRWA 算法利用的无线链路容量实际上是高于可用带宽的,DRW 改用下行链路控制信息(DCI)更好地估计可用带宽,并利用最小RTT 信息计算窗口值。通过实验表明,DRW 具有更高的吞吐和低时延性能。
2017 年Azzino 等人[42]提出了X-TCP 算法,针对5G 毫米波网络的上行链路流量,利用下行链路控制信息(DCI)对可用带宽进行估计。该算法在接收到每个ACK 后,蜂窝移动发送方(UE)会根据无线链路估计的带宽、RTT 和信号质量更新拥塞窗口。X-TCP 认为RTT 的增加超过一定的阈值就表示拥塞,同时还将信号质量差视为拥塞指标。通过模拟评估X-TCP 展现了良好的性能,可以达到与CUBIC相似吞吐量的同时实现更低的时延。
2018 年Na 等人[43]提出了DL-TCP 算法。5G毫米波网络中,由于波束错位和阻塞问题TCP 非常脆弱。发送方(UE)选择学习节点的移动信息和信号强度,通过预测网络断开和重新连接的时间来调整TCP 拥塞窗口。信号断开会导致重传超时,TCP代理就会利用预测的链路故障类型来进行决策。DL-TCP 增加了网络的稳定性,实现了更高的吞吐。
2020 年Xie 等人[44]提出了PBE 拥塞控制算法。PBE 包括修改的BBR 的端到端拥塞控制算法模块,然后将拥塞控制用于移动设备的无线物理层容量测量模块。PBE 考虑到瓶颈带宽位置的切换,根据瓶颈链接的位置,移动用户显式发送链路容量或基于来自接收端的ACK 估计链路容量,然后PBE发送方根据估计的瓶颈链路容量控制其发送速率。对于无线容量的突然上升和下降PBE-CC 可以快速准确地做出反应。但PBE 算法需要对移动终端进行重大更改,来实现对物理层信息的解码获取准确的信道容量信息,部署难度较大。
蜂窝网络和有线网络有明显的不同,研究人员在接收端利用反应蜂窝网络的特征,如数据包的到达模式等来设计拥塞控制算法。
2012 年Jiang 等人[45]为了解决缓冲区膨胀的问题提出了DRWA 算法。传统基于丢包的拥塞控制算法在缓冲区膨胀的情况下失效,导致拥塞窗口过度增长。接收方通过设置接收窗口可以控制拥塞窗口的上限,简单有效地缓解了这一问题。但静态的接收窗口,具有一定的局限性,该文利用RTT 信息,提出了动态接收窗口调整算法,进一步提高了蜂窝网络的TCP 性能。DRWA 只需要在客户端进行修改,与现有的TCP 协议兼容,方便部署。
2013 年Winstein 等人[46]提出了Sprout 算法。Sprout 为了处理蜂窝链路变化的不确定性,以接收端观测到的数据包到达时间来确定网络状况。它利用网络特征构建模型,证实预测对于控制时延是有效的,并且提供比RTT 更细粒度的端到端拥塞控制算法。但后续众多研究都指出了Sprout 算法模型的有限性,其在其他不同的场景下性能下降。
2013 年Leong 等人[47]提出新的拥塞控制算法TCP-RRE。蜂窝网络上行缓冲区饱和的情况并不少见,这直接造成下行TCP 流的ACK 数据包严重延迟。RRE 和以往的解决办法不同,选择直接消除ACK 时钟,使用TCP 时间戳来估计接收方的接收速率,然后使用它来确定发送速率。它不需要修改现有的移动设备,因此容易部署。
2018 年Park 等人[48]提出了ExLL 算法。ExLL选择分析下行链路中LTE 子帧粒度的数据包接收模式来估计蜂窝信道的带宽,同时通过在上行链路中加入SR(scheduling request)周期性来估计最小RTT,来获取准确的最大吞吐量和最小RTT,使得拥塞控制算法围绕BDP 进行低时延的控制。这种设计可以在不影响服务器的情况下部署到蜂窝移动用户上,此外也可以在发送端实现,提供了广泛部署的机会。
2015 年Zaki 等人[49]提出了Verus 算法,它是一个基于时延的拥塞控制算法。Verus 利用返回的ACK 信息来观测时延变化,根据这些信息学习一个对应关系表,包含端到端时延与窗口值之间的关系。Verus 时刻保持在探索阶段,然后通过学习来应对变化的信道条件,改变发送窗口。采用一系列的增减操作代替了TCP 传统的加法增加(AI)操作,来应对快速变化的蜂窝信道条件,并保留了乘性减少步骤来响应拥塞。
2018 年Zhong 等人[50]提出的CDBE 算法主要包括2 个模块,分别是接收端的带宽估计模块和发送方的状态转换模块。该算法在接收端采用双窗口速率估计,即在等于一个RTT 的较长窗口上组合多个短时窗口进行隐式速率估计。然后接收方将估计速率和单程延时发送给发送方。发送方使用接收的速率来计算拥塞窗口,依据返回的单向延迟在启动、增长、排空、正常4 种状态中切换。CDBE 可以良好地应对瓶颈带宽转移的情况。
2018 年Abbasloo 等人[51]提出了C2TCP。它受RED 和CoDel 等网内主动队列管理设计启发,在不修改任何网络设备的情况下适应不同应用的QoS要求。C2TCP 的工作原理是在基于丢包的TCP 上增加一个附加功能,对丢包是否为拥塞进行判别。该算法主要包括未经修改的基于丢包的TCP 和窗口细化模块。两部分同时运行在拥有原有TCP 的优势的同时,它也受原TCP 算法的限制,不能有更高的吞吐。
视频会议、虚拟增强现实等越来越多的应用对于时延更敏感,对低时延提出更加严格的要求。端到端的时延通常是实时通信应用整体响应时间的主要组成部分,因此拥塞控制也愈加注重时延。同时越来越多的服务器放置在蜂窝网络边缘,约有70%的互联网流量是从附近的缓存直接到达客户端。降低RTT 水平,可以更快地对链路状况做出反应,TCP控制也将受益于这种更短的控制环,适当情形下对TCP 链接进行拆分可获得更低的RTT。
在原有的拥塞控制思路下,算法都在维护公平性的前提下寻找一个延迟和吞吐更佳的权衡点,有学者提出是否可以打破TCP 对公平性的需求的设想[52]。如果忽略公平性的限制,拥塞控制算法的性能又有新的提升空间。尤其蜂窝移动网络资源分配方式使得每个用户之间相互独立,本身就保障一定的公平性。现有的部分算法已经忽略对公平性的追求,并取得良好的性能。在理论与实践角度,我们可以寻找新的替代方案。
蜂窝网络场景下端到端方案有个难题就是准确跟踪链路的可用容量。仅通过端到端的方式估计可用容量并不准确,可利用其他层的信息来辅助测量可用带宽。如部署在基站的方案可以用路由器来辅助,部署在移动设备网络层的方案可以结合物理层信息。跨层信息极大地丰富了获取链路可用带宽的渠道,但也对设备硬件、软件、能耗等方面都提出了新的要求,如何选用适宜的方法采集利用信息来提升TCP 性能是未来研究的一个方向。
5G 网络逐渐开始了商业部署,5G 网络环境与4G 网络存在许多差异。5G 毫米波链路容量峰值至少比LTE 高一个数量级[53],导致链路探测时间大幅加长,对快速提升拥塞窗口至链路容量水平提出更高的要求。实际部署的5G 网络中更频繁的链路质量变化,对控制拥塞提出更严苛的考验。众多算法都没能很好地在把握精度的基础上降低算法的复杂度,需要针对5G 网络大规模部署后的问题,优化拥塞控制算法。
随着5G 的部署,蜂窝移动网络的拥塞控制产生新的挑战。本文从5G 网络的架构、特征入手,重点分析了其影响因素,为拥塞控制算法设计提供了清晰的研究思路。然后归纳总结了现有传统有线网络拥塞控制算法在蜂窝网络中的局限性。进一步依据网络结构特征,介绍了分析专门为蜂窝移动网络设计的拥塞控制算法的优缺点。最后总结了蜂窝移动网络拥塞控制在未来5G 网络中可能的研究方向。
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!