JVET-AC0315:用于色度帧内预测的跨分量Merge模式

这篇具有很好参考价值的文章主要介绍了JVET-AC0315:用于色度帧内预测的跨分量Merge模式。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

ECM采用了许多跨分量的预测(Cross-componentprediction,CCP)模式,包括跨分量包括跨分量线性模型(CCLM)、卷积跨分量模型(CCCM)和梯度线性模型(GLM),以利用分量间的相关性。该提案提出了一种跨分量的Merge模式(cross-componentmerge,CCMerge)作为一种新的CCP模式。CCMerge编码的跨分分量模型参数可以从用当前块的的相邻块继承。

若当前编码块是CCMerge模式时,则其跨分量线性模型参数可以从其空域相邻和空域非相邻的编码块中继承。创建一个候选列表,其中包括以CCLM、MMLM、CCCM、GLM、色度融合和CCMerge模式编码的空域相邻和空域非相邻编码块的CCP模型。

构建过程如下所示:

  1. 空域相邻候选

空间相邻候选的位置如下图所示。按照以下顺序依次检查:B1->A1->B0->A0->B2。

JVET-AC0315:用于色度帧内预测的跨分量Merge模式
  1. 空域非相邻候选

在检查所有空间相邻邻居之后,考虑空域非相邻的候选。在当前的ECM中,在帧间Merge模式下,使用两组空间上不相邻的相邻候选。在所提出的方法中,使用来自第一组的空域非相邻候选的位置和检查顺序。

JVET-AC0315:用于色度帧内预测的跨分量Merge模式
  1. 具有默认缩放参数的CCLM候选

如果列表未满,则在包括空间相邻和非相邻候选之后,考虑具有默认缩放参数的CCLM候选。默认缩放参数是{0,1/8,-1/8,2/8,-2/8,3/8},并且偏移参数是根据所选择的默认缩放参数通过相邻重建亮度像素平均值(Yavg)和相邻色度重建像素平均值(Cavg)计算的。

JVET-AC0315:用于色度帧内预测的跨分量Merge模式

继承模型参数的规则

  • 继承CCLM候选时,仅继承缩放参数。通过使用继承的缩放参数、Yavg和Cavg推导偏移参数。

  • 当继承MMLM候选时,将继承缩放参数和分类阈值。每个分类的偏移参数是根据继承的分类阈值以及每个类中Yavg和Cavg计算得到的。如果分类中没有相邻的重建样本可用,则直接从候选中继承偏移参数。

  • 当继承CCCM候选时,继承所有卷积参数、偏移(即offsetLuma、offsetCb和offsetCr)和分类阈值。

  • 当继承GLM候选时,如果GLM候选是3参数GLM模式,则继承所有梯度模式索引和模型参数;否则,如果GLM候选是2参数GLM模式,则通过使用继承的缩放参数、Yavg和Cavg计算偏移参数。

  • 当继承色度融合模式时,所推导的MMLM参数被继承并用作Merge候选。

对于CCMerge块,如果其Merge候选模式是CCLM、MMLM、CCCM或GLM,则Merge候选模式被存储为当前色度块的传播模式(propagation mode);否则,如果其Merge候选模式是色度融合,则将传播模式(propagation mode)设置为MMLM。当继承 CCMerge候选时,如何继承或推导CCP参数取决于CCMerge候选项的传播模式,如以上五段所述。

编码方式

使用额外的flag,在cclm_mode_flag语法元素之后编码CCMerge_flag,指示是否使用CCMerge。如果使用CCMerge,则需要另外传输候选索引,候选索引被Cb/Cr颜色分量共享。

目前,默认情况下,允许的Merge候选数目上限设置为6。如果允许的候选的最大数量修改为1,则不需要通知候选索引。候选索引的每个bin都使用单独的上下文进行上下文编码。

JVET-AC0315:用于色度帧内预测的跨分量Merge模式

实验结果

在ECM7.0上,最大候选数目设置为6时,性能如下:

JVET-AC0315:用于色度帧内预测的跨分量Merge模式

色度性能不错,但是编码端复杂度较高,应该是将候选列表中的模式都进行了RDO Check导致的。文章来源地址https://www.toymoban.com/news/detail-426875.html

到了这里,关于JVET-AC0315:用于色度帧内预测的跨分量Merge模式的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • AI绘画中UNet用于预测噪声

    在AI绘画领域中,UNet是一种常见的神经网络架构,广泛用于图像相关的任务,尤其是在图像分割领域中表现突出。UNet最初是为了解决医学图像分割问题而设计的,但其应用已经扩展到了多种图像处理任务。 对称结构:UNet的结构呈现为“U”形,分为收缩路径(下采样)和扩展

    2024年02月03日
    浏览(19)
  • STGCN时空图卷积网络:用于交通预测的深度学习框架

    时空图卷积网络:用于交通预测的深度学习框架 及时准确的交通预测对城市交通控制和引导至关重要。由于交通流的高度非线性和复杂性,传统的方法不能满足中长期预测任务的要求,往往忽略了空间和时间的相关性。本文提出了一种新的深度学习框架——时空图卷积网络(

    2023年04月15日
    浏览(24)
  • FusionAD:用于自动驾驶预测和规划任务的多模态融合

    自动驾驶(AD)任务通常分为感知、预测和规划。在传统范式中,AD中的每个学习模块分别使用自己的主干,独立地学习任务。 以前,基于端到端学习的方法通常基于透视视图相机和激光雷达信息直接输出控制命令或轨迹. 论文提出了基于BEV多模态的多任务端到端学习框架,专

    2024年02月11日
    浏览(33)
  • T-GCN:用于交通流预测的时序图卷积网络

     1.文章信息 本次介绍的文章是2020年发表在IEEE 智能交通系统汇刊上的《T-GCN: A Temporal Graph Convolutional Network for Traffic Prediction》。 2.摘要 为了同时捕获空间和时间依赖性,本文提出了一种新的基于神经网络的交通流预测方法——时间图卷积网络(T-GCN)模型,该模型将图卷积网络

    2024年02月16日
    浏览(28)
  • 使用Keras构建分类问题的MLP神经网络——用于糖尿病预测

            大家好,我是带我去滑雪!          Keras 是一个用于构建和训练深度学习模型的高级 API,它基于 Python编写,并能够运行于 TensorFlow, CNTK, 或者 Theano 等深度学习框架之上。Keras简化了深度神经网络的构建流程,让用户能够更加简单、快速地搭建一个完整的深度学习模

    2024年02月05日
    浏览(32)
  • 计算机颜色学---CIE 色度图以及饱和度处理

    了解颜色相关理论与成像知识,对于深入了解视觉相关算法与ISP算法而言十分重要,了解颜色理论,离不开CIE色度图; CIE 1931 Yxy色度图。外形形似马蹄,所以也叫“马蹄图”; 在色度图中,x,y为横纵坐标,其中,横坐标的定义是: x = X X + Y + Z x=frac{X}{X+Y+Z} x = X + Y + Z X ​

    2024年02月09日
    浏览(30)
  • AI 与控制:神经网络模型用于模型预测控制(Model Predictive Control)

    最优控制理论处理的问题通常是找到一个满足容许控制的 u*,把它作用于系统(被控对象)ẋ(t)=f(x(t),u(t),t) 从而可以得到系统的状态轨迹 x(t),使得目标函数最优。对于轨迹跟踪问题,那目标函数就是使得这个轨迹在一定的时间范围[t0tf]内与我们期望的轨迹(目标)x*(t) 越近

    2024年02月04日
    浏览(36)
  • 51-16 FusionAD 用于自动驾驶预测与规划任务的多模态融合论文精读

    今天要分享的是基于BEV的多模态、多任务、端到端自动驾驶模型FusionAD,其专注于自动驾驶预测和规划任务。这项工作首次发表于2023年8月2日,性能超越了2023 CVPR最佳论文UniAD模型。论文题目是FusionAD: Multi-modality Fusion for Prediction and Planning Tasks of Autonomous Driving,主要作者来自

    2024年01月24日
    浏览(35)
  • GC-LSTM:用于动态网络链路预测的图卷积嵌入原理+代码(上)原理部分

      动态网络链路预测因其在生物学、社会学、经济学和工业领域的广泛应用而成为网络科学研究的热点,然而,由于网络结构随着时间的变化而变化,使得添加/删除链接的长期预测尤其困难。 与传统基于CNN的卷积处理操作不同,交通网络更适合被建模为图数据。卷积神经网

    2023年04月09日
    浏览(22)
  • TPH-YOLOv5: 基于Transformer预测头的改进YOLOv5用于无人机捕获场景目标检测

            代码链接:GitHub - cv516Buaa/tph-yolov5         如果进入不了github,就在这里下载,没有权重(免费的): https://download.csdn.net/download/weixin_44911037/86823848         这是一篇针对无人机小目标算法比赛后写的论文,无人机捕获场景下的目标检测是近年来的热门课

    2023年04月10日
    浏览(31)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包