Decodificador de imágenes.

Procedimiento para decodificar imágenes, que comprende las siguientes etapas:



almacenar una imagen decodificada de una trama anteriormente decodificada como imagen de referencia (210);

extraer información de vector de movimiento (202) a partir de la información de entrada que debe ser decodificada,

y

realizar una compensación de movimiento utilizando dicha información de vector de movimiento y dicha imagen dereferencia para sintetizar una imagen de predicción (212),

en el que la interpolación de valores de píxel para obtener dicha imagen de predicción se lleva a cabo utilizando unprocedimiento de redondeo especificado por una información de procedimiento de redondeo, que especifica si seutiliza redondeo positivo o redondeo negativo,

Tipo: Patente Europea. Resumen de patente/invención. Número de Solicitud: E02007746.

Solicitante: HITACHI, LTD..

Nacionalidad solicitante: Japón.

Dirección: 6 KANDA SURUGADAI 4-CHOME CHIYODA-KU, TOKYO 100-8010 JAPON.

Inventor/es: NAKAYA, YUICHIRO.

Fecha de Publicación: .

Clasificación Internacional de Patentes:

  • H04N7/26
  • H04N7/36
  • H04N7/46
  • H04N7/50

PDF original: ES-2405318_T3.pdf

 


Fragmento de la descripción:

Decodificación de imágenes.

Antecedentes de la invención Campo de la invención La presente invención se refiere a un procedimiento de codificación y decodificación de secuencias de imágenes que lleva a cabo la predicción de intertrama utilizando valores cuantificados para la intensidad de luminancia o crominancia.

Descripción de la técnica relacionada En la codificación de secuencias de imágenes de alta eficacia, la técnica de predicción de intertrama (compensación de movimiento) , mediante la similitud de las tramas adyacentes a lo largo del tiempo, resulta de gran eficacia para la compresión de datos. El procedimiento de compensación de movimiento utilizado con más frecuencia actualmente es el de la correspondencia de bloques con una precisión de medio píxel, que se utiliza en los estándares internacionales H.263, MPEG1 y MPEG2. En este procedimiento, la imagen que se va a codificar se segmenta en bloques y los componentes horizontal y vertical de los vectores de movimiento de estos bloques se estiman como integrales múltiples de la mitad de la distancia entre píxeles adyacentes. Este procedimiento se describe mediante la siguiente ecuación:

[Ecuación 1]

en la que P (x, y) y R (x, y) denotan los valores de muestra (intensidad de luminancia o crominancia) de los píxeles situados en las coordenadas (x, y) de la imagen prevista P de la trama actual y la imagen de referencia (imagen decodificada de una trama que se ha codificado antes que la trama actual) R, respectivamente. X e y son enteros y se presupone que todos los píxeles están situados en puntos donde los valores de coordenadas son enteros. Además, se presupone que los valores de muestra de los píxeles se cuantifican como enteros no negativos. N, Bi y (ui, vi) denotan el número de bloques de la imagen, el grupo de píxeles incluidos en el i-ésimo bloque de la imagen y los vectores de movimiento del i-ésimo bloque, respectivamente.

Cuando los valores de ui y vi no son enteros, es necesario hallar el valor de intensidad en el punto concreto en el que no existen píxeles en la imagen de referencia. Actualmente, la interpolación bilineal mediante los cuatro píxeles adyacentes es el procedimiento utilizado con más frecuencia para este proceso. Este procedimiento de interpolación se describe mediante la siguiente ecuación:

[Ecuación 2]

en la que d es un entero positivo y p y q son inferiores a d pero no inferiores a 0. «//» denota una división entera que redondea el resultado de la división normal (división con números reales) al entero más cercano.

En la Fig. 1, se muestra un ejemplo de la estructura de un codificador de vídeo H.263. Como algoritmo de codificación, el H.263 adopta un procedimiento de codificación híbrido (procedimiento de codificación adaptativo de intertrama/intratrama) que es una combinación de la correspondencia de bloques y la DCT (transformada discreta de coseno) . Un restador 102 calcula la diferencia entre la imagen de entrada (imagen base de trama actual) 101 y la imagen de salida 113 (descrita más adelante) del selector de codificación de intertrama/intratrama 119 y, a continuación, proporciona una imagen de error 103. Esta imagen de error se cuantifica en un cuantificador 105 tras haber sido convertida en coeficientes DCT en un convertidor DCT 104, generándose coeficientes DCT cuantificados 106. Estos coeficientes DCT cuantificados se transmiten a través del canal de comunicación y, al mismo tiempo, se utilizan para sintetizar la imagen prevista de intertrama en el codificador. El procedimiento para sintetizar la imagen prevista se explicará a continuación. Los coeficientes DCT cuantificados 106 mencionados forman la imagen de error reconstruida 110 (igual que la imagen de error reconstruida de la sección de recepción) tras pasar por un decuantificador 108 y un convertidor DCT inverso 109. Esta imagen de error reconstruida y la imagen de salida 113 del selector de codificación de intertrama/intratrama 119 se suman en el sumador 111 y se obtiene la imagen decodificada 112 de la trama actual (la misma imagen que la imagen decodificada de la trama actual reconstruida en la sección del receptor) . Esta imagen se almacena en una memoria de trama 114 y se retarda un tiempo igual al intervalo de la trama. En consecuencia, en el momento actual, la memoria de trama 114 genera la imagen decodificada 115 de la trama anterior. Esta imagen decodificada de la trama anterior y la imagen original 101 de la trama actual se introducen en la sección de correspondencia de bloques 116, donde se lleva a cabo la correspondencia de bloques entre estas imágenes. En el procedimiento de correspondencia de bloques, la imagen original de la trama actual se segmenta en diversos bloques, y la imagen prevista 117 de la trama actual se sintetiza extrayendo la sección que más se parece a estos bloques de la imagen decodificada de la trama anterior. En este procedimiento, es necesario estimar el movimiento entre la trama anterior y la trama actual para cada bloque. El vector de movimiento de cada bloque estimado en el procedimiento de estimación del movimiento se transmite a la sección del receptor como datos de vector de movimiento 120. En la sección del receptor, se sintetiza la misma imagen de predicción que en la sección del transmisor mediante la información del vector de movimiento y la imagen de decodificación de la trama anterior. La imagen de predicción 117 se introduce junto con una señal «0» 118 en el selector de codificación de intertrama/intratrama 119. Este conmutador 119 selecciona codificación de intertrama o codificación de intratrama seleccionando una de las dos entradas. Se efectúa codificación de intertrama cuando se selecciona la imagen de predicción 117 (es el caso mostrado en la Fig. 2) . En cambio, se efectúa codificación de intratrama cuando se selecciona la señal «0», puesto que la propia imagen de entrada se convierte en coeficientes DCT que se proporcionan al canal de comunicación. Para la correcta reconstrucción de la imagen codificada en la sección del receptor, es necesario indicar al receptor si se ha efectuado codificación de intratrama o codificación de intertrama en la sección del transmisor. En consecuencia, se proporciona un indicador de identificación 121 al circuito de comunicación. Por último, se obtiene un tren de bits con codificación H.263 multiplexando los coeficientes DCT cuantificados, los vectores de movimiento y la información del indicador de identificación de intertrama/intratrama en un multiplexor 122.

En la Fig. 2, se muestra la estructura de un decodificador 200 para recibir el tren de bits codificado desde el codificador de la Fig. 1. El tren de bits con codificación H.263 217 recibido se demultiplexa en coeficientes DCT cuantificados 201, datos de vector de movimiento 202 y un indicador de identificación de intertrama/intratrama 203 en el demultiplexor 216. Los coeficientes DCT cuantificados 201 se convierten en una imagen de error decodificada 206 tras ser procesados mediante un cuantificador inverso 204 y un convertidor DCT inverso 205. Esta imagen de error decodificada se suma a la imagen de salida 215 del selector de codificación de intertrama/intratrama 214 en el sumador 207 y la suma de estas imágenes se proporciona como imagen decodificada 208. La salida del selector de codificación de intertrama/intratrama se conmuta según el indicador de identificación de intertrama/intratrama 203. La imagen de predicción 212 utilizada en la codificación de intertrama se sintetiza en el sintetizador de imágenes de predicción 211. En este sintetizador, la posición de los bloques en la imagen decodificada 210 de la trama anterior almacenada en la memoria de trama 209 se desplaza según los datos del vector de movimiento 202. Por otra parte, en la codificación de intratrama, el selector de codificación de intertrama/intratrama proporciona la señal «0» 213 tal cual.

El documento US 5379351 A divulga un sistema y un procedimiento de decodificación con las características de las partes precaracterizadoras de las reivindicaciones independientes.

Sumario de la invención La imagen con codificación H.263 consiste en un plano de luminancia (plano Y) que contiene información de luminancia, y dos planos de crominancia (plano U y plano V) que contienen información de crominancia. Como es característico, en el momento en que la imagen tiene 2m píxeles en la dirección horizontal y 2n píxeles en la dirección vertical (siendo m y n enteros positivos) , el plano Y tiene 2m píxeles en la dirección horizontal y 2n píxeles en la dirección vertical y los planos U y V tienen m píxeles en la dirección horizontal y n píxeles en la dirección vertical. La baja resolución del plano de crominancia se debe al hecho de que el sistema... [Seguir leyendo]

 


Reivindicaciones:

1. Procedimiento para decodificar imágenes, que comprende las siguientes etapas:

almacenar una imagen decodificada de una trama anteriormente decodificada como imagen de referencia (210) ;

extraer información de vector de movimiento (202) a partir de la información de entrada que debe ser decodificada, y

realizar una compensación de movimiento utilizando dicha información de vector de movimiento y dicha imagen de referencia para sintetizar una imagen de predicción (212) ,

en el que la interpolación de valores de píxel para obtener dicha imagen de predicción se lleva a cabo utilizando un procedimiento de redondeo especificado por una información de procedimiento de redondeo, que especifica si se 15 utiliza redondeo positivo o redondeo negativo,

caracterizado porque el procedimiento incluye asimismo una etapa para extraer dicha información de procedimiento de redondeo de dicha información de entrada de la imagen que debe ser decodificada,

en el que la información de procedimiento de redondeo para especificar el procedimiento de redondeo, que debe ser utilizado en cada etapa de interpolación de valores de píxel consiste en un bit,

en el que dicha interpolación de valores de píxel mediante dicho redondeo positivo se calcula según las ecuaciones:

Ib = [ (La+Lb+1) /2], Ic = [ (La+Lc+1) /2], y Id = [ (La+Lb+Lc+Ld+2) /4], y

dicha interpolación de valores de píxel utilizando dicho redondeo negativo se calcula según las ecuaciones:

Ib = [ (La+Lb) /2], Ic = [ (La+Lc) /2], y Id =

 

Patentes similares o relacionadas:

Sistema y método para codificación y decodificación aritmética, del 29 de Abril de 2020, de NTT DOCOMO, INC.: Método de decodificación aritmética para convertir una secuencia de información compuesta por una secuencia de bits en una secuencia de eventos binarios compuesta […]

Imagen de 'Filtro de desbloqueo condicionado por el brillo de los píxeles'Filtro de desbloqueo condicionado por el brillo de los píxeles, del 25 de Marzo de 2020, de DOLBY INTERNATIONAL AB: Método para desbloquear datos de píxeles procesados con compresión de vídeo digital basado en bloque, incluyendo los pasos: - recibir […]

Método para codificar y descodificar imágenes B en modo directo, del 19 de Febrero de 2020, de Godo Kaisha IP Bridge 1: Un método para generar y descodificar una secuencia de bits de una imagen B objetivo, en donde generar la secuencia de bits de la imagen B objetivo incluye las siguientes […]

Interpolación mejorada de cuadros de compresión de vídeo, del 4 de Diciembre de 2019, de DOLBY LABORATORIES LICENSING CORPORATION: Un método para compresión de imágenes de video usando predicción en modo directo, que incluye: proporcionar una secuencia de cuadros predichos […]

Interpolación mejorada de cuadros de compresión de vídeo, del 4 de Diciembre de 2019, de DOLBY LABORATORIES LICENSING CORPORATION: Un método de compresión de imágenes de video que comprende: proporcionar una secuencia de cuadros referenciables (I, P) y predichos bidireccionales […]

Capa de sectores en códec de vídeo, del 27 de Noviembre de 2019, de Microsoft Technology Licensing, LLC: Un procedimiento de decodificación de vídeo e imágenes, que comprende: decodificar una imagen de un flujo de bits codificado que tiene una jerarquía […]

Transformación solapada condicional, del 20 de Noviembre de 2019, de Microsoft Technology Licensing, LLC: Un método para codificar un flujo de bits de vídeo utilizando una transformación solapada condicional, en donde el método comprende: la señalización de un modo de filtro […]

Técnica para una simulación del grano de película exacta de bits, del 4 de Septiembre de 2019, de InterDigital VC Holdings, Inc: Un procedimiento para simular un grano de película en un bloque de imagen que comprende: calcular el promedio de los valores de luminancia de píxeles dentro del bloque de […]

Utilizamos cookies para mejorar nuestros servicios y mostrarle publicidad relevante. Si continua navegando, consideramos que acepta su uso. Puede obtener más información aquí. .