Aparato para codificar información de textura entrelazada de macrobloques.

Un procedimiento para codificar información de textura entrelazada por cada macrobloque de textura utilizando una predicción de bloque de campo entre un VOP actual y un VOP de referencia,

donde el macrobloque de textura del VOP actual tiene M x N píxeles de textura definida y de textura no definida, siendo M y N enteros positivos, respectivamente, comprendiendo el procedimiento:

Proporcionar un bloque de campo superior o un bloque de campo inferior del macrobloque de textura del VOP actual;

Determinar un vector de movimiento y un bloque de campo superior o inferior estimado para cada bloque de campo superior o inferior actual por cada campo, donde el vector de movimiento denota un desplazamiento entre cada bloque de campo superior o inferior actual y el bloque de campo superior o inferior estimado del VOP de referencia;

Obtener un bloque de campo de error suprimiendo el bloque de campo superior o inferior estimado de cada bloque de campo superior o inferior actual por cada píxel correspondiente;

Aplicar la transformada discreta del coseno al bloque de campo de error por cada bloque DCT;

Cuantificar los coeficientes DCT; y Llevar a cabo una codificación estadística en los coeficientes DCT cuantificados y el vector de movimiento para cada bloque de campo superior o inferior, en el que el VOP de referencia se obtiene rellenando la información de textura reconstruida anterior en función de información de forma, en el que cuando la información de textura reconstruida anterior es un macrobloque frontera de un VOP entrelazado, (i) los píxeles de textura no definida de una fila del macrobloque del VOP entrelazado se rellenan en función de uno o más de los píxeles de textura definida de dicha fila, (ii) los píxeles de textura no definida de una fila que solo contiene píxeles de textura no definida se rellenan en función de uno o más de los píxeles de textura definida de una o más filas que contienen al menos un píxel de textura definida en el mismo bloque de campo, y (iii) el bloque de campo que solo contiene píxeles de textura no definida se rellena con un valor constante.

Tipo: Patente Europea. Resumen de patente/invención. Número de Solicitud: E08004285.

Solicitante: DAEWOO ELECTRONICS CORPORATION.

Nacionalidad solicitante: República de Corea.

Dirección: 686, AHYEON-DONG MAPO-GU SEOUL REPUBLICA DE COREA.

Inventor/es: LEE, SANG HOON.

Fecha de Publicación: .

Clasificación Internacional de Patentes:

  • H04N7/24 ELECTRICIDAD.H04 TECNICA DE LAS COMUNICACIONES ELECTRICAS.H04N TRANSMISION DE IMAGENES, p. ej. TELEVISION. › H04N 7/00 Sistemas de televisión (detalles H04N 3/00, H04N 5/00; métodos y arreglos, para la codificación, decodificación, compresión o descompresión de señales de vídeo digital H04N 19/00; distribución selectiva de contenido H04N 21/00). › Sistemas para la transmisión de señales de televisión que utilizan la modulación por impulsos codificados (H04N 21/00  tiene prioridad).
  • H04N7/26
  • H04N7/30
  • H04N7/32
  • H04N7/34
  • H04N7/50

PDF original: ES-2380501_T3.pdf

 

Aparato para codificar información de textura entrelazada de macrobloques.

Fragmento de la descripción:

Aparato para codificar información de textura entrelazada de macrobloques

Campo técnico de la invención

La presente invención se refiere a un aparato para codificar información de textura entrelazada de macrobloques.

Técnica anterior

En los sistemas televisados de manera digital tales como videotelefonía, teleconferencia y sistemas de televisión de alta definición, se necesita una gran cantidad de datos digitales para definir cada señal de cuadro de vídeo ya que una señal de línea de vídeo en la señal de cuadro de vídeo comprende una secuencia de datos digitales denominada como valores de píxel. Sin embargo, puesto que el ancho de banda de frecuencia disponible de un canal de transmisión convencional es limitado, para transmitir la gran cantidad de datos digitales a través del mismo es necesario comprimir o reducir el volumen de datos mediante la utilización de varias técnicas de compresión de datos, especialmente en el caso de codificadores de señales de vídeo de baja velocidad binaria tales como sistemas de videotelefonía y de teleconferencia.

Una de estas técnicas para codificar señales de vídeo para un sistema de codificación de baja velocidad binaria es la denominada técnica de codificación de análisis-síntesis orientada a objetos, en la que una imagen de vídeo de entrada se divide en objetos, y tres conjuntos de parámetros que definen los datos de movimiento, de contorno y de píxeles de cada objeto se procesan a través de diferentes canales de codificación.

Un ejemplo del esquema de codificación orientado a objetos es la denominada fase 4 de MPEG (grupo de expertos en imágenes en movimiento, Moving Picture Express Group) (MPEG-4) , que está diseñada para proporcionar una norma de codificación audiovisual para permitir una interactividad basada en contenido, una eficacia de codificación mejorada y/o una accesibilidad universal en aplicaciones tales como una comunicación de baja velocidad binaria, sistemas multimedia interactivos (por ejemplo, juegos, TV interactiva, etc.) y vigilancia de zona (véase, por ejemplo, el modelo de verificación de vídeo MPEG-4 versión 7.0, Organización Internacional de Normalización, ISO/IEC JTC1/SC29/WG11 MPEG97/N1642, abril de 1997) .

Según MPEG-4, una imagen de vídeo de entrada se divide en una pluralidad de planos de objetos de vídeo (VOP) , que corresponden a entidades de un flujo de bits a las que un usuario puede acceder y manipular. Un VOP puede denominarse como un objeto y puede representarse mediante un rectángulo delimitador cuya anchura y altura puede ser el múltiplo más pequeño de 16 píxeles (un tamaño de macrobloque) que rodea a cada objeto de manera que el codificador puede procesar la imagen de vídeo de entrada por cada VOP, es decir, por cada objeto.

Cada VOP en MPEG-4 se describe mediante tres conjuntos de parámetros que definen la información de forma, la información de movimiento y la información de textura, es decir, información de color de los mismos, donde la información de forma representada mediante, por ejemplo, una máscara binaria corresponde al contorno de cada dicho VOP, es decir, el borde de un objeto; la información de movimiento representa la correlación espacial entre un cuadro actual y un cuadro anterior correspondiente; y la información de textura consiste en datos de luminancia y de crominancia.

Por otro lado, puesto que la información de textura para dos imágenes de vídeo de entrada recibidas secuencialmente tiene naturalmente redundancia de tiempo, es deseable eliminar la redundancia de tiempo en la misma utilizando una estimación de movimiento y una técnica de compensación con el fin de codificar de manera eficaz la información de textura en MPEG-4.

Una técnica de relleno progresivo de imágenes, es decir, una técnica de relleno repetitivo convencional, se aplica por cada cuadro en el VOP antes de la estimación y compensación de movimiento. En principio, la técnica de relleno repetitivo llena el área transparente fuera del objeto del VOP repitiendo píxeles frontera del objeto, donde los píxeles frontera están ubicados en el contorno del objeto. Es preferible llevar a cabo la técnica de relleno repetitivo con respecto a la información de forma reconstruida, que se genera descodificando la información de forma codificada en el orden inverso a lo largo del esquema de codificación. Cada píxel frontera se repite hacia el exterior del objeto. Si los píxeles transparentes del área transparente fuera del objeto pueden llenarse mediante la repetición de más de un píxel frontera, es preferible tomar el promedio de los valores repetidos como un valor de relleno. Este proceso de relleno progresivo se divide generalmente en tres etapas, a saber, un relleno repetitivo horizontal, un relleno repetitivo vertical y un relleno exterior (véase el modelo de verificación de vídeo MPEG-4 versión 7.0) .

Aunque la técnica de relleno progresivo se utiliza para llevar a cabo la estimación y compensación de movimiento en función de cada cuadro generado cada 1/30 segundos tal y como se ha descrito anteriormente, se necesita una técnica de relleno entrelazado para llevar a cabo la estimación y compensación de movimiento por cada campo, donde dos campos, a saber, un campo superior y un campo inferior, se combinan para reconstruirse como un cuadro, es decir, una imagen de textura entrelazada. La técnica de codificación entrelazada para llevar a cabo la estimación y compensación de movimiento por cada campo puede utilizarse de manera adecuada para codificar de manera precisa la información de textura entrelazada para los movimientos rápidos, tales como en un deporte, en una carrera de caballos y en una carrera de coches, o con una correlación de campo poco frecuente, es decir, con una correlación temporal poco frecuente entre el campo superior y el campo inferior.

Sin embargo, si el relleno para cada bloque de campo se realiza de manera independiente sin considerar su correlación de campo basada en la información de textura entrelazada tal y como se describe en la técnica de relleno progresivo, puede haber algún píxel que no se modifique en función de solamente los píxeles de objeto del objeto, sino que se modificará mediante relleno cuando se tenga en cuenta su correlación de campo, necesitándose dos campos consecutivos, es decir, el campo superior y el campo inferior, incluidos en la información de textura entrelazada.

El documento "Modelo de verificación de vídeo MPEG-4, versión 7.0, capítulo 3: Definición de codificador", grupo ad hoc sobre edición VM de MPEG-Video, Organización Internacional de Normalización, páginas 1, 17 a 122, 1 de abril de 1997, desvela una técnica de relleno repetitivo para VOP antes de la estimación/compensación de movimiento (sección 3.3.2) , una técnica de relleno de extrapolación de paso bajo antes de realizar una DCT (sección 3.4.1) y una DCT adaptativa de cuadro/campo para vídeo entrelazado (sección 3.4.1) .

Resumen de la invención

Por lo tanto, un objeto de la invención es proporcionar un aparato para codificar información de textura entrelazada por cada macrobloque de textura.

Según la invención se proporciona un aparato según la reivindicación 1; realizaciones preferidas de la misma se definen en las reivindicaciones dependientes.

Breve descripción de los dibujos

Los objetos y características anteriores, así como otros adicionales, de la presente invención resultarán evidentes a partir de la siguiente descripción de realizaciones preferidas proporcionadas junto con los dibujos adjuntos, en los que:

La Fig. 1 muestra un diagrama de bloques esquemático de un aparato convencional para codificar información de textura entrelazada de un objeto en una señal de vídeo;

La Fig. 2 presenta un diagrama de flujo para ilustrar el funcionamiento del circuito de procesamiento de cuadro anterior mostrado en la Fig. 1 según la presente invención;

Las Fig. 3A y 3B describen un macrobloque frontera a modo de ejemplo y un bloque de campo frontera superior y otro inferior para el macrobloque frontera, respectivamente;

Las Fig. 3C a 3E representan un procedimiento de relleno de los bloques de campo frontera superior e inferior de manera secuencial según la presente invención; y La Fig. 4 ilustra una pluralidad de bloques adyacentes no definidos para un VOP a modo de ejemplo y las direcciones de relleno para cada bloque adyacente no definido.

Modo de llevar a cabo la invención

Haciendo... [Seguir leyendo]

 


Reivindicaciones:

1. Un procedimiento para codificar información de textura entrelazada por cada macrobloque de textura utilizando una predicción de bloque de campo entre un VOP actual y un VOP de referencia, donde el macrobloque de textura del VOP actual tiene M x N píxeles de textura definida y de textura no definida, siendo M y N enteros positivos, respectivamente, comprendiendo el procedimiento:

Proporcionar un bloque de campo superior o un bloque de campo inferior del macrobloque de textura del VOP actual;

Determinar un vector de movimiento y un bloque de campo superior o inferior estimado para cada bloque de campo superior o inferior actual por cada campo, donde el vector de movimiento denota un desplazamiento entre cada bloque de campo superior o inferior actual y el bloque de campo superior o inferior estimado del VOP de referencia;

Obtener un bloque de campo de error suprimiendo el bloque de campo superior o inferior estimado de cada bloque de campo superior o inferior actual por cada píxel correspondiente;

Aplicar la transformada discreta del coseno al bloque de campo de error por cada bloque DCT;

Cuantificar los coeficientes DCT; y Llevar a cabo una codificación estadística en los coeficientes DCT cuantificados y el vector de movimiento para cada bloque de campo superior o inferior, en el que el VOP de referencia se obtiene rellenando la información de textura reconstruida anterior en función de información de forma, en el que cuando la información de textura reconstruida anterior es un macrobloque frontera de un VOP entrelazado, (i) los píxeles de textura no definida de una fila del macrobloque del VOP entrelazado se rellenan en función de uno o más de los píxeles de textura definida de dicha fila, (ii) los píxeles de textura no definida de una fila que solo contiene píxeles de textura no definida se rellenan en función de uno o más de los píxeles de textura definida de una o más filas que contienen al menos un píxel de textura definida en el mismo bloque de campo, y (iii) el bloque de campo que solo contiene píxeles de textura no definida se rellena con un valor constante.

2. El procedimiento según la reivindicación 1, en el que el valor constante e.

2. 1, donde L es el número de bits asignados a cada píxel.

3. El procedimiento según la reivindicación 1, en el que el valor constante es 128.

4. El procedimiento según la reivindicación 1, que comprende además:

llevar a cabo una cuantificación inversa y una transformada inversa en los coeficientes DCT cuantificados para obtener un bloque de campo de error reconstruido; combinar el bloque de campo de error reconstruido y el bloque de campo superior o inferior estimado por cada píxel.

5. El procedimiento según la reivindicación 1, en el que el relleno incluye:

rellenar un bloque de campo superior o inferior reconstruido en función de información de forma para el VOP actual, para almacenar de ese modo los bloques de campo superior o inferior rellenados como información de textura entrelazada de referencia, en el que la etapa de rellenar un bloque de campo superior o inferior reconstruido incluye además las subetapas de:

rellenar los píxeles de textura no definida del bloque de campo superior o inferior frontera reconstruido en función de uno o más de los píxeles de textura definida en el mismo bloque de campo, si el bloque de campo superior o inferior frontera solo contiene píxeles de textura no definida, rellenar los píxeles de textura no definida con el valor medi.

2. 1 de todos los valores posibles para cualquier píxel de textura, donde L es el número de bits asignados a cada píxel;

expandir un macrobloque adyacente no definido en función del macrobloque frontera rellenado, donde el macrobloque adyacente no definido es adyacente al macrobloque frontera rellenado y solo contiene píxeles de textura no definida.

6. El procedimiento según la reivindicación 5, en el que la subetapa de rellenar el píxel de textura no definida del bloque de campo superior o inferior frontera reconstruido incluye las etapas de:

rellenar por filas al menos un píxel de textura no definida por cada fila para generar una fila rellenada, y rellenar, si hay una o más filas transparentes, la fila transparente en función de al menos la fila rellanada más próxima, donde la fila transparente contiene solamente las texturas no definidas.

7. El procedimiento según la reivindicación 5, en el que la subetapa de expandir un macrobloque adyacente no definido en función del macrobloque frontera rellenado incluye las etapas de:

seleccionar, si dicho bloque adyacente no definido está rodeado por una pluralidad de macrobloques frontera rellenados, uno de los macrobloques frontera extrapolados izquierdo, superior, derecho e inferior de dicho macrobloque adyacente no definido en esta prioridad, y duplicar hacia la derecha, hacia abajo, hacia la izquierda o hacia arriba un borde vertical o un borde horizontal del macrobloque frontera rellenado seleccionado.

8. El procedimiento según la reivindicación 5, en el que el valor medi.

2. 1 de todos los valores posibles para cualquier píxel de textura es 128.


 

Patentes similares o relacionadas:

Sistema y método para codificación y decodificación aritmética, del 29 de Abril de 2020, de NTT DOCOMO, INC.: Método de decodificación aritmética para convertir una secuencia de información compuesta por una secuencia de bits en una secuencia de eventos binarios compuesta […]

Imagen de 'Filtro de desbloqueo condicionado por el brillo de los píxeles'Filtro de desbloqueo condicionado por el brillo de los píxeles, del 25 de Marzo de 2020, de DOLBY INTERNATIONAL AB: Método para desbloquear datos de píxeles procesados con compresión de vídeo digital basado en bloque, incluyendo los pasos: - recibir […]

Método para codificar y descodificar imágenes B en modo directo, del 19 de Febrero de 2020, de Godo Kaisha IP Bridge 1: Un método para generar y descodificar una secuencia de bits de una imagen B objetivo, en donde generar la secuencia de bits de la imagen B objetivo incluye las siguientes […]

Interpolación mejorada de cuadros de compresión de vídeo, del 4 de Diciembre de 2019, de DOLBY LABORATORIES LICENSING CORPORATION: Un método para compresión de imágenes de video usando predicción en modo directo, que incluye: proporcionar una secuencia de cuadros predichos […]

Interpolación mejorada de cuadros de compresión de vídeo, del 4 de Diciembre de 2019, de DOLBY LABORATORIES LICENSING CORPORATION: Un método de compresión de imágenes de video que comprende: proporcionar una secuencia de cuadros referenciables (I, P) y predichos bidireccionales […]

Capa de sectores en códec de vídeo, del 27 de Noviembre de 2019, de Microsoft Technology Licensing, LLC: Un procedimiento de decodificación de vídeo e imágenes, que comprende: decodificar una imagen de un flujo de bits codificado que tiene una jerarquía […]

Transformación solapada condicional, del 20 de Noviembre de 2019, de Microsoft Technology Licensing, LLC: Un método para codificar un flujo de bits de vídeo utilizando una transformación solapada condicional, en donde el método comprende: la señalización de un modo de filtro […]

Técnica para una simulación del grano de película exacta de bits, del 4 de Septiembre de 2019, de InterDigital VC Holdings, Inc: Un procedimiento para simular un grano de película en un bloque de imagen que comprende: calcular el promedio de los valores de luminancia de píxeles dentro del bloque de […]

Utilizamos cookies para mejorar nuestros servicios y mostrarle publicidad relevante. Si continua navegando, consideramos que acepta su uso. Puede obtener más información aquí. .