TN919.81
国家自然科学基金(60902096,60832003,61071120,61171163);浙江省自然科学基金(Y1101240)资助项目
针对深度视频压缩中存在的大量视觉冗余,提出了一种基于中心凹恰可觉察失真(FJND)模型的深度视频编码方法。首先通过左右通道的彩色和深度视频绘制虚拟视点图像,并利用FJND模型得到虚拟视点图像的FJND,然后根据深度视频中几何偏移和深度值失真之间的关系确定深度视频左通道的可允许失真,将深度视频左通道分区域采用自适应量化参数进行编码,并对右通道的深度视频根据与左通道量化参数的关系进行编码。实验结果表明,本文方法在相同码率下,虚拟视点图像质量平均提高0.48dB;在相同虚拟视点图像的绘制质量下,深度视频编码码率平均减少26%。
朱亚培,蒋刚毅,王晓东,郁梅,邵枫,彭宗举.基于中心凹恰可觉察失真模型的多视点深度视频编码方法[J].光电子激光,2012,(12):2382~2390