PROCEDIMIENTO Y APARATO DE DECODIFICACIÓN DE VIDEO.

Un procedimiento de decodificación de vídeo para decodificar datos codificados (300) obtenidos sometiendo un vídeo que tiene una luminancia (Y) y dos diferencias de color (Cb,

Cr) a codificación de predicción, comprendiendo el procedimiento de decodificación de vídeo: una etapa de recepción de datos codificados obtenidos por codificación de una pluralidad de combinaciones indexadas, para un segmento, comprendiendo cada combinación un factor de ponderación (D1; E1; F1) para cada una de la luminancia y las dos diferencias de color y un desplazamiento (D2; E2; F2) para cada una de la luminancia y las dos diferencias de color para una única imagen de referencia, y un único número de imagen de referencia asignado a dicha única imagen de referencia y codificación de un coeficiente de transformación ortogonal cuantificado de una señal de error de predicción relativa a una luminancia y dos diferencias de color, información de un vector de movimiento (414) e información de índice (415) que indica una combinación de la pluralidad de combinaciones indexadas para un bloque que se va a decodificar; una etapa de obtención, para el bloque que se va a decodificar, de una combinación que comprende el factor de ponderación (D1; E1; F1) para cada una de la luminancia y las dos diferencias de color y el desplazamiento (D2; E2; F2) para cada una de la luminancia y las dos diferencias de color y el número de imagen de referencia a partir de la información de índice y la pluralidad de combinaciones indexadas; una etapa de generación de una señal de error de predicción para el bloque que se va a decodificar, sometiendo el coeficiente de transformación ortogonal cuantificado a cuantificación inversa y transformación ortogonal inversa; una etapa de generación de una imagen de predicción (412) para el bloque que se va a decodificar, multiplicando dicha imagen de referencia por el factor de ponderación y añadiendo el desplazamiento, basándose en el vector de movimiento para el bloque que se va a decodificar; y una etapa de generación de una señal de imagen decodificada (310) para el bloque que se va a decodificar, calculando una suma de la señal de error de predicción y la imagen de predicción

Tipo: Patente Europea. Resumen de patente/invención. Número de Solicitud: E07006032.

Solicitante: KABUSHIKI KAISHA TOSHIBA.

Nacionalidad solicitante: Japón.

Dirección: 1-1 SHIBAURA 1-CHOME, MINATO-KU TOKYO 105-8001 JAPON.

Inventor/es: KIKUCHI,YOSHIHIRO, KOTO,SHINICHIRO, CHUJOH,TAKESHI.

Fecha de Publicación: .

Fecha Solicitud PCT: 18 de Abril de 2003.

Clasificación PCT:

  • H04N7/26
  • H04N7/32
  • H04N7/36
  • H04N7/50

Países PCT: Austria, Bélgica, Suiza, Alemania, España, Francia, Reino Unido, Italia, Liechtensein, Países Bajos, Suecia, Finlandia.

PDF original: ES-2375448_T3.pdf

 


Fragmento de la descripción:

La presente invención se refiere a un procedimiento y un aparato de codificación/decodificación de vídeo que codifican/decodifican un vídeo de fundido y un vídeo de disolución, en particular, con alta eficacia. Técnica anterior La codificación intertrama de predicción de compensación de movimiento se usa como uno de los modos de codificación en un esquema estándar de codificación de vídeo como, por ejemplo, ITU-TH.261, H.263, ISO/IEC MPEG-2 o MPEG-4. Como modelo predictivo en codificación intertrama de predicción de compensación de movimiento, se usa un modelo que muestra la máxima eficacia de predicción cuando no se producen cambios de brillo en la dirección del tiempo. En el caso de un vídeo de fundido que cambia en el brillo de las imágenes, no existe ningún procedimiento conocido hasta ahora que realice una predicción apropiada frente a un cambio en el brillo de las imágenes cuando, por ejemplo, una imagen normal aparece con un fundido de entrada a partir de una imagen en negro. Con el fin de mantener también la calidad de las imágenes en un vídeo de fundido se requiere, por tanto, un gran número de bits. Con el fin de resolver este problema, por ejemplo, en la patente japonesa nº 3.166.716, Codificador de vídeo de contramedida de fundido y procedimiento de codificación, se detecta una parte de un vídeo de fundido para cambiar la asignación del número de bits. Más específicamente, en el caso de un vídeo de fundido de cierre, se asigna un gran número de bits a la parte de inicio del fundido de cierre que cambia en luminancia. En general, la última parte del fundido de cierre se convierte en una imagen monocroma, y por ello puede codificarse con facilidad. Por este motivo, el número de bits asignados a esta parte se reduce. Esto hace posible mejorar la calidad global de la imagen sin aumentar excesivamente el número total de bits. En la patente japonesa nº 2.938.412, Procedimiento de compensación de cambio de luminancia de vídeo, aparato de codificación de vídeo, aparato de decodificación de vídeo, medio de grabación en el que se graba el programa de codificación o decodificación de vídeo y medio de grabación en el que se graban los datos codificados de vídeo, se propone un esquema de codificación que consiste en copiar apropiadamente un vídeo de fundido compensando una imagen de referencia de acuerdo con dos parámetros, que son la cantidad de cambio de la luminancia y la cantidad de cambio del contraste. En Thomas Wiegand y Berand Girod, Multi-frame motion-compensated prediction for video transmission, Kluwer Academic Publishers 2001, se propone un esquema de codificación basado en una pluralidad de memorias intermedias de tramas. En este esquema, se ha intentado mejorar la eficacia de predicción generando selectivamente una imagen de predicción a partir de una pluralidad de tramas de referencia guardadas en las memorias intermedias de tramas. Según las técnicas convencionales, con el fin de codificar un vídeo de fundido o vídeo de disolución a la vez que se mantiene una alta calidad de imagen, se requiere un gran número de bits. Por tanto, no puede esperarse una mejora en la eficacia de la codificación. Yoshihiro Kikuchi, y col., Multi-frame interpolative prediction with modified syntax, Joint Vídeo Team (JVT) de ISO/IEC MPEG & ITU-T VCEG (ISO/IEC JTC1/SC29/WG11 e ITU-T SG16 Q6), 3 rd Meeting Fairfax, Virginia, EE.UU. 6-10 de marzo de 2002. (XP002461012) describen la predicción de interpolación multitrama que tiene una sintaxis modificada basada en codificación de imagen B. Divulgación de la invención Un objeto de la presente invención es proporcionar un procedimiento y un aparato de codificación/decodificación de vídeo que puedan codificar un vídeo que cambia en luminancia con el tiempo, por ejemplo, un vídeo de fundido o vídeo de disolución, en particular, con alta eficacia. Según un primer aspecto de la presente invención, se proporciona un procedimiento de decodificación de vídeo según la reivindicación 1. Según un segundo aspecto de la presente invención, se proporciona un aparato de decodificación de vídeo según la reivindicación 2. 2   Como se describe anteriormente, según la presente invención, se prepara una pluralidad de diferentes esquemas predictivos usando combinaciones de números de imágenes de referencia y parámetros predictivos o combinaciones de una pluralidad de parámetros predictivos que corresponden a números de imágenes de referencia designados. Esto hace posible generar una señal de imagen de predicción apropiada, sobre la base de un esquema predictivo con mayor eficacia de predicción, con respecto a una señal de vídeo tal que no puede generarse una señal de imagen de predicción apropiada mediante un esquema predictivo general para codificación de vídeo, por ejemplo, un vídeo de fundido o vídeo de disolución. Además, la señal de vídeo es una señal que incluye una señal de imagen obtenida para cada trama de una señal progresiva, una señal de imagen obtenida para cada trama obtenida mediante fusión de dos campos de una señal entrelazada, y una señal de imagen obtenida para cada campo de una señal entrelazada. Cuando la señal de vídeo es una señal de imagen sobre una base de trama, la señal de número de imagen de referencia indica una señal de imagen de referencia sobre una base de trama. Cuando la señal de vídeo es una señal de imagen sobre una base de campo, la señal de número de imagen de referencia indica una señal de imagen de referencia sobre una base de campo. Esto hace posible generar una señal de imagen de predicción apropiada, sobre la base de un esquema predictivo con mayor eficacia de predicción, con respecto a una señal de vídeo que incluye una estructura de trama y una estructura de campo tal que no puede generarse una señal de imagen de predicción apropiada mediante un esquema predictivo general para codificación de vídeo, por ejemplo, un vídeo de fundido o vídeo de disolución. Además, la información de un número de imagen de referencia o parámetro predictivo en sí no es enviada desde el lado de la codificación al lado de la decodificación, sino que se envía información de índice que indica una combinación de un número de imagen de referencia y un parámetro predictivo, o se envía por separado un número de imagen de referencia. En este caso, la eficacia de la codificación puede mejorarse enviando información de índice que indica una combinación de parámetros predictivos Breve descripción de los dibujos La fig. 1 es un diagrama de bloques que muestra la configuración de un aparato de codificación de vídeo según el primer ejemplo útil para comprender la presente invención; la fig. 2 es un diagrama de bloques que muestra la configuración detallada de un generador de imágenes de predicción/memoria de tramas de la fig. 1; la fig. 3 es una vista que muestra un ejemplo de una tabla de combinaciones de números de tramas de referencia y parámetros predictivos, que se usa en el primer ejemplo útil para comprender la presente invención; la fig. 4 es un diagrama de flujo que muestra un ejemplo de una secuencia para seleccionar un esquema predictivo (una combinación de un número de trama de referencia y un parámetro predictivo) para cada macrobloque y para determinar un modo de codificación en el primer ejemplo útil para comprender la presente invención; la fig. 5 es un diagrama de bloques que muestra la configuración de un aparato de decodificación de vídeo según el primer ejemplo útil para comprender la presente invención; la fig. 6 es un diagrama de bloques que muestra la configuración detallada del generador de imágenes de predicción/memoria de tramas de la fig. 5; la fig. 7 es una vista que muestra un ejemplo de una tabla de combinaciones de parámetros predictivos en un caso en el que el número de tramas de referencia es uno y se envía un número de trama de referencia como información de modo, según el segundo ejemplo útil para comprender la presente invención; la fig. 8 es una vista que muestra un ejemplo de una tabla de combinaciones de parámetros predictivos en un caso en el que el número de tramas de referencia es dos y se envía un número de trama de referencia como información de modo según el segundo ejemplo útil para comprender la presente invención; la fig. 9 es una vista que muestra un ejemplo de una tabla de combinaciones de números de imágenes de referencia y parámetros predictivos en un caso en el que el número de trama de referencia es uno según la primera forma de realización de la presente invención; la fig. 10 es una vista que muestra un ejemplo de una tabla sólo para señales de luminancia según la primera forma 3   de realización; la fig. 11 es una vista que muestra un ejemplo de una sintaxis para cada bloque cuando se va a codificar información de índice;... [Seguir leyendo]

 


Reivindicaciones:

1.Un procedimiento de decodificación de vídeo para decodificar datos codificados (300) obtenidos sometiendo un vídeo que tiene una luminancia (Y) y dos diferencias de color (Cb, Cr) a codificación de predicción, comprendiendo el procedimiento de decodificación de vídeo: una etapa de recepción de datos codificados obtenidos por codificación de una pluralidad de combinaciones indexadas, para un segmento, comprendiendo cada combinación un factor de ponderación (D1; E1; F1) para cada una de la luminancia y las dos diferencias de color y un desplazamiento (D2; E2; F2) para cada una de la luminancia y las dos diferencias de color para una única imagen de referencia, y un único número de imagen de referencia asignado a dicha única imagen de referencia y codificación de un coeficiente de transformación ortogonal cuantificado de una señal de error de predicción relativa a una luminancia y dos diferencias de color, información de un vector de movimiento (414) e información de índice (415) que indica una combinación de la pluralidad de combinaciones indexadas para un bloque que se va a decodificar; una etapa de obtención, para el bloque que se va a decodificar, de una combinación que comprende el factor de ponderación (D1; E1; F1) para cada una de la luminancia y las dos diferencias de color y el desplazamiento (D2; E2; F2) para cada una de la luminancia y las dos diferencias de color y el número de imagen de referencia a partir de la información de índice y la pluralidad de combinaciones indexadas; una etapa de generación de una señal de error de predicción para el bloque que se va a decodificar, sometiendo el coeficiente de transformación ortogonal cuantificado a cuantificación inversa y transformación ortogonal inversa; una etapa de generación de una imagen de predicción (412) para el bloque que se va a decodificar, multiplicando dicha imagen de referencia por el factor de ponderación y añadiendo el desplazamiento, basándose en el vector de movimiento para el bloque que se va a decodificar; y una etapa de generación de una señal de imagen decodificada (310) para el bloque que se va a decodificar, calculando una suma de la señal de error de predicción y la imagen de predicción. 2. Un aparato de decodificación de vídeo para decodificar datos codificados (300) obtenidos sometiendo un vídeo que tiene una luminancia (Y) y dos diferencias de color (Cb, Cr) a codificación de predicción, comprendiendo el aparato de decodificación de vídeo: medios (301, 302, 303) para recibir datos codificados obtenidos por codificación de una pluralidad de combinaciones indexadas, para un segmento, comprendiendo cada codificación un factor de ponderación (D1; E1; F1) para cada una de la luminancia y las dos diferencias de color y un desplazamiento (D2; E2; F2) para cada una de la luminancia y las dos diferencias de color para una única imagen de referencia y un único número de imagen de referencia asignado a dicha única imagen de referencia y codificación de un coeficiente de transformación ortogonal cuantificado de una señal de error de predicción relativa a una luminancia y dos diferencias de color, información de un vector de movimiento e información de índice que indica una combinación de la pluralidad de combinaciones indexadas para el bloque que se va a decodificar; medios (403) para obtener, para el bloque que se va a decodificar, una combinación que comprende el factor de ponderación (D1; E1; F1) para cada una de la luminancia y las dos diferencias de color y el desplazamiento (D2; E2; F2) para cada una de la luminancia y las dos diferencias de color y el número de imagen de referencia a partir de la información de índice y la pluralidad de combinaciones indexadas; medios (304, 305) para generar la señal de error de predicción para el bloque que se va a decodificar, sometiendo el coeficiente de transformación ortogonal cuantificado a cuantificación inversa y transformación ortogonal inversa; medios (308) para generar una imagen de predicción (412) para el bloque que se va a decodificar multiplicando dicha imagen de referencia por el factor de ponderación y añadiendo el desplazamiento basándose en el vector de movimiento para el bloque que se va a decodificar; y medios (306) para generar una señal de imagen decodificada (310) para el bloque que se va a decodificar, calculando una suma de la señal de error de predicción y la imagen de predicción. 13   14     16   17   18   19     21   22   23

 

Patentes similares o relacionadas:

Ponderación adaptativa de imágenes de referencia en codificación de vídeo, del 27 de Marzo de 2019, de InterDigital VC Holdings, Inc: Un aparato de codificación para producir datos de vídeo para una imagen que tiene una pluralidad de bloques de imagen, incluyendo los datos de […]

Cálculo del vector de movimiento en modo directo evitando divisiones por cero, del 27 de Marzo de 2019, de Godo Kaisha IP Bridge 1: Un procedimiento de decodificación de modo directo temporal para la decodificación de un bloque actual de una imagen actual tanto por decodificación de imagen […]

Procedimiento y dispositivo de codificación de longitud variable, del 20 de Febrero de 2019, de Panasonic Intellectual Property Corporation of America: Un procedimiento de codificación de longitud variable que codifica datos de unidad incluidos en una imagen compuesta por una pluralidad de subdatos a la vez que […]

Procesamiento de imágenes, del 9 de Enero de 2019, de TELEFONAKTIEBOLAGET LM ERICSSON (PUBL): Un decodificador de bloqueo que comprende: un genrador de color configurado para generar, basándose en un código de color […]

Método de extracción de la distorsión de codificación, del 15 de Noviembre de 2017, de Godo Kaisha IP Bridge 1: Un sistema de codificación y decodificación de imagen que incluye un aparato de codificación de imagen que codifica una imagen en base a macrobloque […]

Codificación de vídeo, del 9 de Agosto de 2017, de KONINKLIJKE PHILIPS N.V: Un decodificador para decodificar un flujo de bits codificado de entrada con parámetros de control de mejoramiento incorporados, codificados con un codificador […]

Método de descodificación de imágenes y dispositivo de descodificación de imágenes, del 10 de Mayo de 2017, de TAGIVAN II LLC: Método de descodificación de imágenes para descodificar información de última posición que indica una posición de un último coeficiente distinto de cero en […]

Extensión de vídeo tridimensional de cabecera de fragmento para predicción de cabecera de fragmento, del 3 de Mayo de 2017, de QUALCOMM INCORPORATED: Un procedimiento de codificación de datos de vídeo, comprendiendo el procedimiento: codificar uno o más bloques de datos de vídeo representativos […]

Otras patentes de KABUSHIKI KAISHA TOSHIBA