联系人:柯安星
所在地:北京北京市
该项目为北京市自然科学基金-海淀原始创新联合基金资助项目(资助编号:L172032)。当前 VR 应用面临的主要挑战是现有无线解决方案无法满足 VR 业务大带宽和低时延的基
本需求,导致用户体验较差。该项目结合 C-RAN 集中控制处理与 MEC 业务边缘化部署的优势以及 VR 业务自身特点,提出了一种结合 C-RAN 与 MEC 的新型 VR 业务传输架构,并在此架构下就VR 业务缓存、无线传输和多播等方面出现的新场景和新问题展开研究,从不同角度探索提升用户体验且更为高效的 VR 视频传输方案。
该项目的主要研究内容包括 C-RAN MEC 架构下用以提升 VR 业务用户体验的两级缓存策略设计和多播传输方案设计,以及面向VR 业务大带宽需求的毫米波混合波束成型系统设计。研究中利用了动态规划、非线性混合整数规划以及机器学习等方法设计各种缓存和传输策略, 并通过理论分析和仿真验证评价算法性能。主要研究成果如下:
1.C-RAN MEC 架构下基于视角合成的 360°VR 视频两级缓存策略。
2. 基于用户移动性和视频流行度的 C-RAN 主动缓存策略。
3. 基于用户视角预测的 MPEG-I VR 视频无线多播传输方案。
4. 旁路辅助的多分辨率 360°VR 视频多播传输方案。
5. 基于部分连接子阵结构的毫米波混合波束成型系统设计。
6. 基于 MEC 服务器、NS3 仿真软件和 VR 头盔搭建 360°VR 视频无线多播传输仿真系统,实现了基于用户视角预测的 MPEG-I VR 视频无线多播传输方案,验证了该算法在提升 VR 用户体验方面的有效性。