Modo de síntesis de visión para la codificación de vídeo tridimensional.

Un procedimiento de decodificación de datos de vídeo en 3D codificados predictivamente,

el procedimiento que comprende:

determinar si una unidad de vídeo actual se codifica usando un primer modo, en el que la unidad de vídeo actual es un macrobloque, MB, o una partición de MB de un componente de vista de textura actual de una vista actual de una unidad de acceso actual;

cuando la unidad de vídeo actual se codifica usando el primer modo:

determinar una imagen de vista de referencia para la predicción de síntesis de visión,

en el que la imagen de vista de referencia es la imagen en la unidad de acceso actual en una vista indicada en una cabecera de fragmento como una vista para la síntesis de visión;

establecer un índice de referencia para la unidad de vídeo actual de tal manera que el índice de referencia indique la imagen de vista de referencia; y

derivar un vector de movimiento para la unidad de vídeo actual, en el que el vector de movimiento para la unidad de vídeo actual se refiere a la imagen de vista de referencia y en el que derivar el vector de movimiento comprende:

determinar un valor de profundidad representativo de un bloque de una imagen de profundidad, correspondiendo el bloque de la imagen de profundidad a una unidad de vídeo actual de la imagen de textura correspondiente, en el que el valor de profundidad representativo se determina basándose en un valor máximo, promedio o mediano de píxeles de profundidad predeterminados en el bloque de la imagen de profundidad, en el que los píxeles de profundidad predeterminados son los píxeles de profundidad de esquina en el bloque de la imagen de profundidad;

usar el valor de profundidad representativo para determinar un vector de disparidad; y

establecer el vector de movimiento para la unidad de vídeo actual igual al vector de disparidad; o

cuando la unidad de vídeo actual se codifique usando un segundo modo, decodificar, desde el flujo de bits, información de movimiento para la unidad de vídeo actual;

generar un bloque predictivo para la unidad de vídeo actual basándose en un bloque de referencia indicado por la información de movimiento de la unidad de vídeo actual, incluyendo la información de movimiento de la unidad de vídeo actual el vector de movimiento para la unidad de vídeo actual y el índice de referencia para la unidad de vídeo actual; y

añadir el bloque predictivo a un bloque residual para construir un bloque de muestra de la unidad de vídeo actual.

Tipo: Patente Internacional (Tratado de Cooperación de Patentes). Resumen de patente/invención. Número de Solicitud: PCT/US2013/034992.

Solicitante: QUALCOMM INCORPORATED.

Nacionalidad solicitante: Estados Unidos de América.

Dirección: 5775 MOREHOUSE DRIVE SAN DIEGO, CA 92121 ESTADOS UNIDOS DE AMERICA.

Inventor/es: ZHANG, LI, KARCZEWICZ, MARTA, CHEN,YING, LI,XIANG, YU,YANG, VAN DER AUWERA,GEERT.

Fecha de Publicación: .

Clasificación Internacional de Patentes:

  • H04N19/109 ELECTRICIDAD.H04 TECNICA DE LAS COMUNICACIONES ELECTRICAS.H04N TRANSMISION DE IMAGENES, p. ej. TELEVISION. › H04N 19/00 Métodos o disposiciones para la codificación, decodificación, compresión o descompresión de señales de vídeo digital. › codificación predictiva entre una pluralidad de modos temporales.
  • H04N19/176 H04N 19/00 […] › siendo la región de un bloque, p. ej. un macrobloque.
  • H04N19/597 H04N 19/00 […] › especialmente adaptado para la codificación de secuencias de videos multivista.
  • H04N19/70 H04N 19/00 […] › caracterizado por los aspectos relacionados con la sintaxis de codificación de vídeo, p. ej en relación con los estándares de compresión.

PDF original: ES-2693707_T3.pdf

 

Patentes similares o relacionadas:

Aparato de codificación de imágenes, procedimiento de codificación de imágenes, aparato de descodificación de imágenes, procedimiento de descodificación de imágenes y medio de almacenamiento, del 29 de Julio de 2020, de CANON KABUSHIKI KAISHA: Aparato de codificación para codificar una imagen en unidades de bloques bidimensionales, que comprende: un medio de división de bloques , configurado para dividir una […]

Procedimiento, aparato y programa para codificar datos de imágenes en un flujo de bits, del 15 de Julio de 2020, de CANON KABUSHIKI KAISHA: Procedimiento para codificar datos de imagen en un flujo de bits, comprendiendo el procedimiento: codificar, en el flujo de bits, un indicador […]

Filtrado multimétrico, del 8 de Julio de 2020, de QUALCOMM INCORPORATED: Un procedimiento de codificación de datos de vídeo en un esquema de filtro en bucle adaptativo basado en árbol cuaternario, QALF, con múltiples filtros, comprendiendo […]

Aparato de derivación de información de movimiento, del 24 de Junio de 2020, de INNOTIVE LTD: Un aparato de decodificación de datos de vídeo en un modo de fusión, en el que, en el modo de fusión, información de movimiento de uno de entre […]

Método y aparato para decodificar modo de intra-predicción, del 24 de Junio de 2020, de INNOTIVE LTD: Un método de decodificación de un modo de intra-predicción, que comprende: reconstruir un indicador de grupo de modos de intra-predicción y un índice de modo de predicción, […]

Codificación luma-croma con tres predictores espaciales distintos, del 17 de Junio de 2020, de DOLBY INTERNATIONAL AB: Un codificador de video para codificar datos de señal de video para un bloque de imagen, comprendiendo el codificador de video un codificador para codificar […]

Aparato de decodificación de imágenes, del 3 de Junio de 2020, de INNOTIVE LTD: Un aparato de decodificación de imágenes, que comprende: una unidad de análisis para decodificar información de intra-predicción de un flujo de bits recibido; una unidad […]

Aparato de decodificación de imágenes, del 3 de Junio de 2020, de INNOTIVE LTD: Aparato de decodificación de imágenes, que comprende: una unidad de análisis para decodificar información de intra-predicción de un flujo […]

Utilizamos cookies para mejorar nuestros servicios y mostrarle publicidad relevante. Si continua navegando, consideramos que acepta su uso. Puede obtener más información aquí. .