车联网中面向时效信息的动态内容推送策略*

2023-01-29 03:03孙养龙唐余亮张建鑫
移动通信 2022年11期
关键词:发射功率命中率时隙

孙养龙,唐余亮,张建鑫

(1.集美大学航海学院,福建 厦门 361021;2.厦门大学信息学院,福建 厦门 361005)

0 引言

车联网中大数据量的推送和交付对现有蜂窝网系统构成了极大挑战,尤其加剧了无线频谱资源的短缺[1-2]。为减小网络负载和降低网络扩容成本,无线缓存技术被用来在非高峰时段将流行度高的数据预先推送到车辆或靠近车辆的边缘设备[3]。由于车辆优先从本地提取数据,减轻了高峰时段蜂窝网络的负载[4-5]。

然而,无线缓存技术需适应车联网数据的多样化时空特征[5-6]。娱乐视频和广告等时空非敏感数据可根据网络闲忙状况随机推送,而根据实时交通信息生成的高精地图数据仅能在几分钟甚至是数秒内维持有效,须在车辆行驶到特定区域或主动请求时方可交付[7-8]。在应对后一种信息时效相关的业务时,不可避免地要对缓存内容进行频繁更新,增大了网络传输压力[9]。因此,在无线资源受限的网络环境中,提高向边缘节点的内容推送效率是提升缓存性能的关键[3,5,10]。

非正交多址接入(Non-Orthgonal Multiple Access,NOMA)技术作为一种高频谱效率的新兴手段,提高了无线网络的业务承载能力,有助于实现面向多缓存服务节点的低时延内容推送[5,11]。从用户调度的角度来看,存在功率域NOMA 和基于认知无线电(Cognitive Radio,CR)的NOMA(CR-NOMA)两类资源分配方案。前者聚焦用户公平性,以最大化吞吐量为目的,后者综合了CR 和NOMA 两种提高频谱效率的技术,专注于保障信号的传输质量[12]。

NOMA 技术有利于在有限时间内传输更多的缓存数据,如基于CR-NOMA 技术,在确保高流行度文件获得所需数据速率的前提下,可机会式地传输流行度较低的文件。此外,NOMA 技术还支持交付过程和推送过程同时进行,从而使系统获得更多的缓存更新机会[10]。在基站发射功率和最低传输速率受限的情况下,需考虑如何选择缓存文件和调度缓存节点以获得最佳的缓存命中率。

在车联网中部署无线缓存并制定基于NOMA 的内容推送策略面临诸多挑战。首先,部署大量基于路侧单元的缓存节点会带来高成本[3,13]。第二,内容流行度不足以评估动态网络中内容的缓存需求,如针对时效信息,其实际被请求的次数不仅取决于内容流行度,还取决于在其有效时长内发起请求的用户数[8]。第三,缓存文件的选择和缓存节点的调度是耦合的。在发射功率受限时试图把文件推送到信道较差的缓存节点,意味着较高的功率消耗和更少的文件传输;而欲同步传输尽量多的文件时,则应避免选择信道较差的缓存节点。最后,需要实时优化算法来适应网络和业务的高动态性。以强化学习为代表的“预测”类算法展现出其在解决缓存放置问题的优势,但实际网络和业务的高动态性和复杂性限制了强化学习的效率和准确度[9,14-15]。

本文提出一种协作传输架构,即公共车辆,如公交车或出租车等作为服务车来接收基站推送的数据,而后将数据交付给发起数据请求的客户车[16-18]。选择车辆作为缓存节点不仅可以省去固定设施的部署成本,且有机会利用车-车之间更优的信道条件来获得高传输速率[13,16,19]。同时考虑仅在服务车上安装可解调NOMA 信号的接收机,大量的客户车则不必升级现有的通讯设备,有利于降低设备开销,提高了方案可行性。为反映文件在动态业务和网络环境中的缓存价值,首先基于文件在服务车的剩余可存储时长定义文件的更新需求度,即越接近失效的文件其更新需求度越高。进一步地,由内容流行度、车辆分布和文件更新需求度联合定义缓存效能函数。由此提出求解最大化系统效能问题来获得内容推送策略中最佳的服务车和文件组合。

为降低问题求解复杂度,将问题解耦为车辆组合和文件组合2 个子问题,并提出“先车辆后文件”的分层交替优化求解策略。针对第1 层的车辆组合问题,利用NOMA中信号连续干扰消除(Successive Interference Cancellation,SIC)的技术特征,确定了“当远端车辆被选择时,近端车辆必然被选择”的原则,降低了车辆组合规模。针对第2 层的文件组合优化,提出基于CR-NOMA 的动态规划方法求解一个“逆”0-1 背包问题。这里的“逆”是指相对于传统背包问题以背包容量为约束,这里考虑背包余量,从而更符合本文应用场景,即未被分配的功率被当作已分配功率信号的干扰。

本文基于缓存需求和网络资源研究缓存节点和缓存文件协同调度的内容推送策略,提出一种和业务特征相适应的动态规划方法实现快速决策。通过仿真分析了所提效能模型对系统性能的影响,并验证了所提算法在获得高缓存命中率和降低用户时延的有效性。

1 相关工作

通过无线缓存和NOMA 技术结合来提高无线网络中的内容交付效率,缓解无线资源的不足是正在被重点关注的热点,尤其是在车联网中[20]。得益于车辆移动的可预测性和移动路径的固定,缓存策略在车联网中的应用较为成熟,并取得了很好的效果[9,21]。如宏观上,将数据从核心网预缓存到车辆行驶方向前方的基站,使得车辆更快地获得服务并降低核心网回传压力。而更高效的则是将数据缓存到离车辆更近的路侧单元甚至是车辆本身。NOMA 技术促进了缓存内容的及时更新。如针对一些无法提前预缓存的内容,像突发的球类比赛结果、交通事故等,Ding 等人提出借助NOMA 技术来实现尽量多的缓存数据推送,并分析了缓存节点和用户节点分布特征对系统性能的影响[5,22]。在以最小化用户请求时延为目标,Zhang 等人研究了无人机NOMA 网络中的缓存放置、用户请求调度和资源分配问题[23],其研究表明通过合理的选择文件进行缓存有助于获得更佳的系统性能。与上述研究不同,这里聚焦于车联网中具有高度时空特征数据的缓存更新问题,文件的缓存决策受到流行度、车辆分布和失效时间等多种因素的影响。

资源分配和用户调度是NOMA 技术应用中的关键内容,如通过功率分配和用户配对以获得最佳的平均吞吐量(中断概率和吞吐量的综合度量)。研究表明,当给定功率分配策略时,用户配对呈现出不同的偏好,如在CR-NOMA 的功率分配方案下,信道条件相近的用户倾向于配对传输;在固定功率的分配方案中,信道差异较大的用户倾向于相互配对[12]。为满足用户不同的服务质量要求,Yang 等人推导了与用户瞬时信道增益相关的功率分配因子显示表达式,可保障用户在NOMA 机制下获得数据速率不低于OMA 机制的优势[24]。针对用户的分布和需求呈现出的高动态时空特征,以强化学习为代表的人工智能技术通过模拟网络环境的变化,来快速给出针对不同网络状态的资源分配和调度策略[25-26]。与上述方案不同,本文利用NOMA 对信号进行连续干扰消除的技术特征,采取分步法和动态规划来求解车辆和文件的组合问题,保障文件传输的可靠性并维持高的系统性能。

2 系统模型

2.1 协作缓存网络

在一段由蜂窝网覆盖的道路中部署基于车辆协作的NOMA 辅助无线缓存架构,如图1 所示。车辆分为服务车和客户车两类。服务车数量较少但装配有较强存储和通信设备,如公交车和智能驾驶汽车,接收和存储一定数量的来自基站的文件。其余车辆视为客户车,数目较多,不定期向基站发起内容请求。数据中心通过收集来自各类交通传感器的数据维持最新的路况信息,并通过光纤接入到基站。

图1 基于车辆协作的内容推送与交付系统示意图

基站和车辆之间通过控制信道共享状态和决策信息。车辆将位置、速度、方向、缓存状态(缓存车辆是否存储有某一文件)、请求状态(客户车是否发起新的请求以及当前请求是否被满足)等信息汇总至基站。基站则根据当前网络状态来制定面向服务车的内容推送策略和为客户车匹配服务车。基站和服务车均能响应来自客户车的内容请求,但仅在服务车无法满足客户车传输需求的情况下,如缓存未命中,或服务车和客户车之间的无线链路不满足传输要求时,客户车才会由基站交付数据。特别地,在通信资源允许的情况下,客户车之间可以直接协作,但这超过了本文的研究范畴。

单个基站覆盖范围内的道路被划分为M 个路段M={1,2,…,M},并假设路段长度不超过服务车的无线覆盖半径。为降低资源竞争,每个路段内至多允许有一辆活跃的服务车来接收基站推送的数据或向客户车交付数据。针对一路段内存在多辆服务车的情况,则按照某一规则进行筛选,如选择在当前路段内驻留时间最长的车辆。本文不对具体选车规则进行研究。在内容推送决策时,不选择将数据缓存到某一路段内服务车的情况等价于该路段内不存在可用的服务车。因此,假设任意路段m ∈M 内均存在一辆服务车m。为精简符号,在不引起歧义的情况下,用M 表示服务车集合。路段m 内的客户车集合表示为Θm,对应客户车的数目为∥Θm∥。特别地,基于车辆的移动模型和当前车辆的状态,基站能够预测一段时间内某一路段中客户车的平均数目。具体如表1 所示:

表1 关键符号说明

基站根据网络状态制定策略,并将叠加后的NOMA信号发射出去。服务车通过SIC 技术来解调接收到的信号。本研究只考虑单个服务信道的场景,因此不涉及频率资源的分配。同时,从服务车到客户车的数据传输有多种机制可供选择,如异构的单播加多播方式以及NOMA 方式[5]。本文聚焦于基站到服务车的内容推送过程,不探索服务车到客户车的车-车传输方式。但必须明确的是,不同的车-车传输方式对最终的缓存性能有影响,并反过来影响内容推送决策。为便于信道评估和车辆调度,设基站的位置为坐标原点x0,服务车m 的坐标为xm。

2.2 文件缓存和更新模型

2.3 推送-交付传输模型

本文缓存架构中,客户车获到所需数据至多需经过两个阶段,其一为内容推送,即数据由基站到服务车,其二为内容交付,即数据由服务车到客户车。以时隙划分上述两个阶段,即在交付时隙中插入推送时隙,如图2 所示。特别地,在推送时隙内,客户车可以解调基站发送的NOMA 信号来获得具有最大功率的文件数据;服务车亦可以在交付时隙内机会式地解调基站信号实现缓存内容的更新。为简化模型,这里忽略推送时隙内客户车通过服务车获取数据的情况[10]。

图2 将推送时隙插入交付时隙的传输模型

客户车获取数据的具体流程如图3 所示。基站在接收到客户车的内容请求后先为该车辆查询其通信范围内是否存在能够为其提供服务的车辆。如果服务车的缓存命中了该客户车的请求内容,且能够提供满足相应文件的传输速率要求,则客户车可通过该服务车获取到所需数据。否则,客户车转向基站索取数据。如果基站因无线资源短缺无法为客户车提供服务时,客户车进入等待状态并准备下一轮文件请求。客户车原则上可以通过其通信范围内的任意服务车获取数据,但基站在调度时依然会优先把某一路段的客户车匹配到对应的服务车,仅当某一服务车尚有多余的无线资源时才会为路段外车辆提供服务。

图3 业务请求流程

3 问题建模

无线缓存的目的是使用户请求的业务能够尽量在本地被满足,从而减轻基站的负担并降低用户获取服务的时延。因此将提高缓存命中率作为本文优化目标。如图3 中虚线框图所示,服务车及时缓存到客户车所需的数据是获得高缓存命中率和提高卸载率的前提。显然在无线资源受限的情况下,为获得最佳的缓存命中率,需要在内容推送时隙对所需传输的文件以及接收文件的服务车进行决策。下面通过给定一个服务车和文件组合{M',F'},M'⊆M,F'⊆F,来对缓存决策问题进行说明,并提出最大化系统缓存效能问题。

3.1 文件更新需求度

本节基于文件的缓存状态来定义其更新需求度。如针对缓存在服务车m 的文件f,对应的更新需求度表示为:

τ>0 表示更新需求阈值。当cm,f>τ 时,Γ(cm,f)=0,表示不更新具有较长有效时长的文件。cm,f≤τ 时,Γ(cm,f)随cm,f减小而增大,表示越接近失效的文件其更新需求越高,反之亦然。参数ω 起到缩放cm,f的作用,当ω<1 时,Γ(cm,f) 随cm,f变化的幅度减小,反之亦然。类似地,通过参数ξ 可进一步调节文件的更新需求度变化,如ξ=1时,Γ(cm,f)=1,表示所有文件的更新需求度相同。进一步地,根据公式(2)可以确定某一服务车辆m ∈M 所需要更新的文件集合:

显然改变τ 的大小可以实现对待更新文件的筛选,如当τ 降低时Fm中的文件数亦减少,反之亦然。

3.2 文件缓存效能

本节综合车辆分布Θm,局部内容流行度φm,f和文件更新需求度Γ(cm,f) 定义缓存效能函数μf来表示文件f 的缓存价值:

从公式(4)可知:1)路段内客户车的数目越多,文件缓存效能越大。这是因为在内容流行度确定的情况下,客户车数目的增加意味着文件在短时间内被请求的次数变大,而当客户车较少时,则可能会出现在文件失效前却未被请求的情况。2)更新需求度越高对应的缓存效能越大。高的文件需求度表明缓存对应的文件能够避免该文件因失效被删除,从而有利于维持高缓存命中率。

3.3 文件数据速率

基站通过NOMA 方式对多个文件的信号进行叠加,而后传输至服务车。用向量α={α1,α2,…α∥F'∥}表示基站对文件集合F'的一个功率分配结果,∥F'∥表示F'文件数。文件f 信号的发射功率Pf=αfP,0 ≤αf≤1,∑f∈F'αf≤1,P 为基站总发射功率,则服务车m 接收文件f信号时获得的数据速率表示为

ρ=P/σ2表示基站的信干比(Signal-to-Noise Ratio,SNR),σ2为噪声功率。“αi<αf”表示在下行NOMA 场景中,优先解调具有更高功率的信号。

3.4 系统缓存效能

系统缓存效能通过累加各文件的缓存效能获得,如下所示:

在给定NOMA 功率分配策略的基础上,推送策略{M',F'}成为影响系统缓存效能的U 关键。因此通过最大化系统缓效能来获得最佳推送策略的问题表示为:

F*和M*分别表示系统缓存效能最大时的最佳文件集合和服务车集合。条件(7b)和(7c)表示基站所推送的文件应是当前服务车集合所需要更新的文件。

可以证明当系统缓存效能最大时对应的缓存命中率亦最大:假设辆车在每个时隙发起某一请求的概率均相等且为q,则针对文件f,其被请求的次数期望表示为∑m∊MqΘmφm,f。系统内所有文件的合并被请求次数期望为:

其中Û表示当前系统的总效能。服务车缓存文件被请求次数的期望包含两部分,分别为原有已存储文件的期望:

和更新文件带来的期望:

其中U0和U'分别为相应的文件缓存效能。当给定“先更新cm,f=0 的文件再更新cm,f>0 的文件”这一规则时(选择较大的ξ 和ω 参数),U'和U 同时获得最大值。又因Û和U0均与缓存决策无关,可得当前时刻的缓存命中率:

也获得对应的最大值,即证。

4 车辆-文件联合优化策略

本节给出一个车辆-文件分层交替优化策略,即先确定一个服务车组合,而后对相应的文件组合进行筛选。采用基于文件效能的CR-NOMA 机制实施功率分配,并通过动态规划求解一个“逆”0-1 背包问题来获得当前次优的文件组合。

4.1 基于文件效能的CR-NOMA机制

CR-NOMA 采取“量力而行”的文件传输方式,即功率分配优先满足“主文件”的传输需求,“次文件”的传输与否不影响用户对主文件的解调。在以高缓存命中率为目标的推送策略中,效能大的文件被作为主文件,反之,效能小的作为次文件,由此便确定了文件的传输优先级和解调顺序。显然,在解调主文件信号时,次文件信号作为干扰信号。服务车m ∈M'解调文件i ∈F'对应的信号i时可获得的传输速率为:

文件i 可在服务车m 上被解调的条件为rm,i≥Ri。当然并非所有m ∈M'的车辆均需要解调信号i,如缓存中含有文件集合{j|μj≤μi,i,j ∈ F'}的服务车无解调信号i的必要,反之亦然。

从式(12)可知,服务车接收文件的数据速率除受功率分配结果影响外,还受到服务车与基站间信道增益的影响。为确保M'中车辆均能够成功解调所接收的信号,基站需为信号i 分配足够大的功率,以满足M'中信道最差车辆能够获得具有不低于Ri的数据速率。因基站发射功率受限,满足更多的车辆能够同时接收数据会导致更少的文件传输数量,这将在第4.3 小节详细说明。下面首先通过算法1 描述车辆集合和文件集合确定的CR-NOMA 功率分配机制。

算法1 以迭代方式计算功率分配因子。选定一个待传输文件集合F's,F's⊆F',并假设F's对应的车辆集合依然为M'。算法1 第3-8 行为一次功率分配因子计算过程。首先确定F's中效能最大文件k。则功率分配因子αk要满足M'中车辆的接收数据速率均满足解调要求。为此,采取“迁就原则”来确定计算功率分配因子时所参考的信道。以文件k 为例,将需要更新文件k 的服务车集合M'c所对应的最小增益信道gc称为“缓存信道”,将需要消除文件k 信号的服务车集合M'd所对应的最小增益信道gd称为“解调信道”,M'd⊆ M',M'c⊆ M'd。当gd<gc时,则解调信道要取代服务信道作为参考信道。设gn为依据“迁就选择”确定的信道增益,对应服务车n,则可求得文件k 的功率分配因子:

其中∊k=2RK-1。

其中ρ=Akρ,∊l=2Rl-1。继续迭代上述过程,由此便可计算出传输不同文件所需的功率,直至基站发射功率不足以支持更多文件的传输或所有文件信号均被成功叠加,如算法1 第2 行所示。

需要明确的是,因基站发射功率限制,不能确保所有文件的信号均能被叠加,同时为保障传输性能,传输文件数亦存在上限。当被舍弃的文件集合所对应的车辆集合中含有离基站最远的车辆时,按照“迁就原则”所确定的信道便会比实际需求的更小,从而产生功率的“浪费”和过早终止算法迭代过程。如提前剔除上述引起功率“浪费”的车辆,则新车辆集合所对应的文件集合及文件效能会发送变化,从而产生不同的功率分配结果。

4.2 基于CR-NOMA的动态规划问题

将文件组合问题转换为一个基于“CR-NOMA”的0-1背包问题来求解,其中“物品”的价值对应文件的缓存效能,“物品”的放置顺序则由文件的效能确定。不同的是这里“物品的重量”,即文件所需的发射功率随车辆-文件组合的不同而存在差异。为此,通过设定不同的功率粒度值P0来动态调节子背包的容量,其中P=J·P0,J 为子背包数目。特别地,将子背包标记为当前系统剩余的发射功率,而不是已经消耗的功率,这里称之为“逆”背包模型。例如,设基站总功率为5P,功率间隔设为P,则子背包可以被标记为{4P,3P,2P,P,0},其中标记为0 的子背包是指当前系统无功率剩余。

“逆”0-1 背包问题来优化文件组合的过程进行说明。给定5 个文件,其效能明确为{u1,u2,u3,u4,u5}={11,8,7,6,5},各文件所需的最低传输速率分别为{R1,R2,R3,R4,R5}。可得文件效能值满足关系:

用B(i,j)表示剩余功率为jP 时,通过前i 个文件获得的最大系统缓存效能,如表2 所示。当将文件i 填充进B(i,j)时,根据背包j 可以反推出信号i 所需的功率Pi。当前剩余功率jP 和Pi相加得到未传输文件i 时所需的剩余功率,则0-1背包问题的转移方程为:

其中j+「Pi/P对应剩余功率。通过(16)便可以进行迭代更新,直至收敛。下面对B(3,1)的更新过程进行说明,此时要求基站要余下大小为P 的功率。把解调文件3 时的噪声σ2加上的剩余功率P 当作干扰,则P3应满足:

表2 基于“逆”背包的文件选择示例

其中,∊2=2R2-1,g*是指按照“迁就原则”确定的信道。假设1+P3/P=3,则B(2,1+「Pi/P)=B(2,3)=μ2。又因为μ2+μ3>μ1=B(2,4),则:

即“背包”中此时应放置的文件为{2,3}。如表2 所示,按照迭代规则及文件的效能值,在满足功率要求的情况下,一个可能的文件最佳组合为{1,4,5},对应系统最大效能值为22。

背包问题的算法复杂度为O(J·F),J 表示子“背包”的数量。在基站发射功率给定的情况下,J 值越大,表示功率拆分粒度越小,有利于获得更优的文件组合。同时较大的J值会增加算法的复杂度。虽然难以给出拆分粒度与文件之间的特定关系,但本文在仿真中评估了参数J 对系统缓存效能的影响。

4.3 车辆-文件分层交替优化策略

算法整体架构如图4 所示,包含内外两层优化过程。外层先确定服务车组合M',M'⊆M,内层针对M'对应的文件集合F'进行优化。

图4 车辆-文件分层交替优化算法架构

算法的迭代条件是新产生的车辆-文件组合所对应的系统缓存效能大于最大的已获得缓存效能,当条件不满足时则终止优化过程。

外层优化中服务车最大组合数为2M,为降低算法整体复杂度,利用NOMA 信号解调特点制定车辆组合准则。当叠加信号能够被远端车辆解调时,近端车辆必满足成功解调该信号的条件。因此当某一车辆被选中时,所有比此车辆距离基站更近的车辆均应被选中。如设m 为集合M'中最远端的服务车,则M'={n|gn≥gm,n ∈M}。由此,服务车组合数从2M降为M。服务车集合确定后的文件组合求解如算法2 第5-14 行表示。为进一步提高算法效率,按服务车组合中车辆数从大到小进行迭代。假设服务车组合对应的文件均被传输,此时的文件效能称为“待缓存效能”U',当前最优推送策略对应的效能则称为“已缓存效能”U*。如算法2 第7-8 行所示,当且仅在U'>U*时才触发文件选择GetCacheStrategy(),即算法2 所示的内层优化过程,否则结束算法并输出已获得的推送策略。算法2 第9 行表示仅当能够获得更高的系统缓存效能时方更新推送策略及最大系统缓存效能值。鉴于待缓存效能随车辆数减少而降低,因此所设定的迭代顺序是合理的。

因文件和车辆之间的耦合性,通过求解上述背包问题获得的文件集合F's会反过来影响服务车集合,因此内层同样采用交替优化的方式。下面通过算法3 并结合图4 说明内层优化过程。针对输入的车辆-文件组合{M',F'},首先计算其待缓存效能U',当且仅当U'大于当前最大的已缓存效能U″s时执行优化过程,否则跳出循环。算法3第6-10 行表示一轮优化过程。第一步通过求解背包问题优化文件组合,即将F'优化为F's。第二步通过新产生的文件组合更新车辆组合,即将M'更新为M's,这是由于车辆和文件的耦合关系使得当文件组合改变时,原本的车辆组合亦发生改变。然后通过{M's,F's}计算当前的已缓存效能U's,并根据是否能够获得更高的系统缓存效能来更新缓存策略。第三步为更新文件组合,即将M's作为新的输入车辆组合M',并更新对应的输入文件组合F'。至此完成一轮内层优化过程。

每次外层优化迭代过程中服务车集合中的车辆数均会降低,故算法总的复杂度为O(M2·j·F)。

5 仿真结果与分析

本节对所提车辆-文件协同优化策略(简称为动态规划-NOMA)进行评估,包含系统缓存效能、缓存命中率和业务时延性能等指标。

5.1 仿真设置

表3 仿真参数设置

5.2 发射功率对系统缓存效能的影响

本节首先给出基站发射功率对不同推送策略性能的影响,以反映NOMA 技术及本文所提算法在提高系统缓存效能方面的优势。然后在不同流行度参数下评估基站发射功率对系统缓存效能的影响,特别地,将基于文件效能的传输方案(效能方案)与基于流行度的传输方案(流行度方案)进行对比,具体仿真两者效能比(记为效能-流行度效能比)随基站发射功率的变化,以反映所提文件效能模型所带来的缓存效能增益。

图5 显示了不同推送策略的系统缓存效能随基站发射功率的变化趋势,各路段的内容流行度参数μ=1。可以观察到,发射功率的增加有利于获得更高的系统缓存效能。所不同的是OMA 方案相比于NOMA 方案具有更低的效能且更容易达到饱和状态,这是因为NOMA 充分利用了功率增加所带来的性能增益,即能够实现在单个推送时隙推送更多的文件。结果还表明动态规划-NOMA 算法始终优于贪婪法-NOMA,且在发射功率达到35 dBm 以上时能够获得最优的性能。

图5 基站发射功率对系统缓存效能的影响

图6 显示了文件流行度对系统缓存效能的影响,其中μ 取值0.1、0.9 和1.5 分别对应分散、一般集中、高度集中的文件请求情况。可以观察到,效能-流行度效能比随发射功率的增大先升高(P<30 dBm)后降低(P >30 dBm)。这是因为,当发射功率足够大时,系统能够容纳更多的文件传输,效能方案的优化空间变小。如当流行度方案能够完成4 个文件传输时,效能方案最多能获得一个文件的增益。较分散的文件请求(小μ)总能够获得比集中请求(大μ)更大的效能比。原因是在文件请求较分散时,车辆的分布成为影响效能值大小关系的重要因素,仅基于文件流行度的调度策略无法反映文件潜在的被请求概率,相反,本文所提方案中定义的效能函数综合考虑了文件流行度和车辆分布带来的影响;与此对应,在文件请求较集中时,文件本身的流行度成为影响文件效能的主要因素,两种方案对文件传输优先级的评估与对比方案趋于一致,表现为μ=1.5 时比值更小。

图6 文件流行度对系统缓存效能的影响

5.3 背包粒度对系统缓存效能的影响

本节针对动态规划-NOMA 策略,分析不同发射功率情况下背包粒度的影响。通过对比不同发射功率下的收敛速度来评估所需的子背包数。其中收敛性判断中的参数δ 设为0.2,即对于数列{xn},对任意正整数N,∀m,n≤N,均存在|xn-xm|≤δ。将满足所有文件传输时所对应的基站发射功率最小值设为功率阈值(仿真中设为30 dBm),则可将仿真分为两种场景,其一为低于功率阈值场景,此时系统功率不足以支持所有文件的传输;其二为高于功率阈值场景,此时系统功率能够满足所有文件的发送。

图7(a)显示了基站发射功率低于阈值情况下背包粒度对系统缓存效能的影响。可见,当基站发射功率较小时,精细的背包粒度有利于容纳更多的文件传输,从而获得更高的系统缓存效能。同时,发射功率越大时收敛所需的背包数量越大,如发射功率为20 dBm、25 dBm、29 dBm 对应的子背包数分别为87、135、170。这是因为在背包粒度一致的情况下,总发射功率越大,越需要设置更大的子背包数量。

图7 背包粒度对系统缓存效能的影响

图7(b)显示了基站发射功率高于阈值情况下背包粒度对系统缓存效能的影响。可以观察到与发射功率低于阈值的案例中不同的收敛速度,即功率越大收敛越快,如功率为35 dBm、37 dBm、40 dBm 对应的子背包数分别为45、27、19。这是因为功率越大越容易达到所有文件都被传输的系统缓存效能上限,对背包粒度要求越小。需要指出的是,如果预估到基站发射功率能够支持所有文件的传输,则可以直接通过CR-NOMA 获得各文件发射所需的功率值,而不需要通过动态规划的方式求解。

5.4 缓存命中率评估

本节评估文件更新需求阈值、推送时隙插入间隔和交通环境对缓存命中率的影响,其中交通环境包含车辆速度和交通流密度。为反映时隙分配对系统性能的影响,将推送时隙内系统的缓存命中率定义为0,因此这里采取“平均缓存命中率”来表示系统总体的请求命中情况。

(1)更新需求阈值的影响

图8 反映基站发射功率为23 dBm、25 dBm、35 dBm三种情况下的更新需求阈值影响。同时,给出两种不同的更新需求度因子设置:1)ξ=5,ω=1,对应已缓存文件更新权限低;2)ξ=1.01,ω=0.1,对应已缓存文件更新权限高。

图8 更新需求阈值对缓存命中率的影响

可以观察到,当ξ 趋于1 且ω 趋于0 时,服务车缓存中尚未失效的文件权限被提升,在当前时隙被更新的机会增加,从而出现因优先传输未失效文件而拒绝已失效文件的情况。如功率为23 dBm 和25 dBm 时,随着更新需求阈值的增加,对应的缓存命中率下降,显示由于过度关注个别效能高的文件而服务车缓存中的文件数减少。当ξ 增加,且ω 趋于1 时,未缓存文件的权限降低,系统会优先更新已失效的文件,而后再更新未失效的文件。此时可以确定性地获得系统性能提升,这是因为系统富余的功率得到充分利用,并最大程度维持了缓存文件的有效性。由于优先保障已失效文件的传输,缓存命中率随更新需求阈值的增加趋于不变。另外,通过对比两种更新需求度参数下的缓存命中率可以发现,当基站发射功率较低(23 dBm 和25 dBm)时,随着更新需求阈值的增加,已缓存文件更新权限高的参数配置有机会获得更高的缓存命中率,如在更新需求阈值为3时。而当基站发射功率较大(35 dBm)时,两种参数设置下的缓存命中率曲线重合,这是因为在此时基站功率能够满足所有文件的更新需求。

(2)推送时隙插入间隔的影响

图9 显示了推送时隙插入间隔的影响。在发射功率为25 dBm 的情况下,当插入间隔较小时,由于推送时隙客户车无法接收服务,虽然缓存文件被频繁更新,但客户车接收数据的时隙减少,因此缓存命中率低。随着插入间隔的增加,客户车获得更多的交付时隙,系统会获得一个最佳的缓存命中率,如插入间隔为4 个时隙时缓存命中率为70%。随着时隙间隔的进一步增加,虽然交付时隙也随之增加,但由于推送时隙的减少,导致服务车的缓存得不到及时更新,从而降低了系统的缓存命中率,如插入间隔为8 个时隙时缓存命中率降为45%。当发射功率等于20 dBm时,此时NOMA 能够成功传输的文件有限,在推送时能够被选择的文件数少于需要更新的文件数,因此需要适配一个较小的插入时隙间隔,如在插入间隔为3 个时隙时达到最佳缓存命中率,这是由于此时服务车缓存中失效的文件数少。当发射功率等于35 dBm 时,NOMA 容量提升,能够应对随着时隙间隔增大导致单个推送时隙内需要更新的文件种类多的情况,因此需要适配一个较大的插入时隙间隔以提高交付时隙所占比例。

图9 推送时隙插入间隔对缓存命中率的影响

(3)交通环境的影响

为评估所提推送策略对动态网络环境的适应效果,对车辆速度和交通流密度的影响进行仿真。其中交通流密度反映道路中车辆的密度,其与车辆密度之间的转化关系见文献[27]。

图10 显示了车辆速度的影响。可以观察到,随着车辆速度的增加,命中率均呈现下降趋势,这是因为车速的增加使车辆更容易在短时间驶入下一个路段,导致基于当前路段内容流行度确定的缓存策略不再最优。动态规划-NOMA 的性能更为稳定是因为其考虑的是路段在一段时间内车辆分布。对比策略性能下降较为明显是因为仅根据当前时刻的车辆分布来选择文件和车辆组合,缺乏对动态性考虑。如穷举法-NOMA 策略在车速较低时具有最高的缓存命中率,但随着车辆速度的增加,其对应的缓存命中率则低于所提策略。

图10 车辆速度对缓存命中率的影响

图11 显示了交通流密度对缓存命中率的影响。可以观察到,随着交通流密度的增加,系统的命中率先增加而后趋于平缓。命中率增加是因为交通流密度的增大使得车辆对文件的请求更能反映文件的流行度。趋于平稳则是因为当交通流密度增大到一定程度(如等于3 000 vph)时,车辆在道路的分布趋于均匀,即各路段内的车辆数差距较小,根据效能公式(4)可知,此时文件的效能评估则主要由其流行度决定。交通流密度的进一步增加则会使得道路产生轻微的拥堵,从而使得车辆在路段内的分布无法准确反映交通状态。

图11 交通流密度对缓存命中率的影响

5.5 时延性能评估

图12 显示了缓存机制在降低用户服务时延方面的性能。仿真中设置基站单个交付时隙内可服务的客户车数为3,服务车单个交付时隙内可服务的客户车数为2[20]。可以观察到,缓存机制能够明显降低客户车获取服务的时延,如动态规划-NOMA 相比于非缓存方案能够获得高达60%的时延性能增益。同时,所提策略能够获得与穷举法-NOMA相当的时延性能,且比同类案表现出更好的交通流密度适应能力,如当交通流密度达到3 000 vph 时,贪婪法-NOMA策略的时延会明显大于所提方案,当交通流密度为5 000 vph 时,所提方案的时延比贪婪法-NOMA 降低了16.8%。结合图11 可知,虽然交通流密度的增加能够带来更高的缓存命中率,但客户车数量的增加导致交付阶段的网络资源短缺,从而造成时延增大。

图12 不同推送策略下的系统时延性能对比

6 结束语

本文研究了车联网无线缓存场景中的内容推送机制,为提高资源受限条件下的缓存更新效率,设计了基于车辆协作的缓存架构,并采取基于NOMA 的服务车-缓存文件协同调度策略。主要创新点和结论如下:

针对动态的网络环境和业务需求,定义了综合内容流行度、文件时效性和车辆分布的效能函数来反映文件的缓存价值。特别地,定义了文件更新需求度来动态调整待更新文件的集合,提高了网络资源利用率。

考虑到文件所需传输速率和接收文件的车辆位置均会影响NOMA 功率分配,为最大化系统缓存效能,给出文件组合和服务车组合协同优化的内容推送方案。设计了基于动态规划的分层交替优化算法来降低问题求解复杂度。

研究表明,基站发射功率、推送时隙的插入间隔、文件更新需求阈值等参数对系统性能具有明显影响。相比于传统缓存场景,车辆的速度和密度则是影响上述缓存机制性能的特殊因素。车辆速度的影响可以通过一定的车辆移动预测来消减,而车辆密度的增加则在带来高缓存命中率的同时削弱了所提策略的时延性能。

猜你喜欢
发射功率命中率时隙
夜夜“奋战”会提高“命中率”吗
2015男篮亚锦赛四强队三分球进攻特点的比较研究
复用段单节点失效造成业务时隙错连处理
放大转发中继器降低发射功率的选择策略研究
浅谈AC在WLAN系统中的应用
投篮的力量休斯敦火箭
基于功率分配最优中继选择的研究
一种高速通信系统动态时隙分配设计
时隙宽度约束下网络零售配送时隙定价研究
试析心理因素对投篮命中率的影响