PROCEDIMIENTO Y APARATO DE DECODIFICACIÓN DE VIDEO.

Un procedimiento de decodificación de video para decodificar datos codificados (300) obtenidos al someter un video que tiene una luminancia (Y) y dos diferencias de color (Cb,

Cr) a codificación de predicción, comprendiendo el procedimiento de decodificación de video: una etapa de recepción de los datos codificados obtenidos mediante la codificación de una pluralidad de combinaciones indexadas, para uno o más bloques que se van a decodificar, comprendiendo cada combinación un factor de ponderación (D1; E1; F1) para cada luminancia y las dos diferencias de color y un desplazamiento (D2; E2; F2) para cada luminancia y las dos diferencias de color para una única imagen de referencia y un único número de imagen de referencia asignado a dicha única imagen de referencia y codificar un coeficiente de transformación ortogonal cuantizado de una señal de predicción de error referido a la luminancia y dos diferencias de color, información de un vector de movimiento (414) e información de índice (415) indicando una combinación de la pluralidad de combinaciones indexadas para un bloque que se va a decodificar; una etapa de derivación para el bloque que se va a decodificar, una combinación que comprende el factor de ponderación (D1; E1; F1) para cada luminancia y las dos diferencias de color, el desplazamiento (D2; E2; F2) para cada luminancia y las dos diferencias de color y el número de la imagen de referencia a partir de la información de índice y la pluralidad de combinaciones indexadas; una etapa de generación de la señal de predicción de error para el bloque que se va a decodificar, sometiendo el coeficiente de transformación ortogonal cuantizado a cuantización inversa y transformación ortogonal inversa; una etapa de generación de una imagen de predicción (412) para el bloque que se va a decodificar, multiplicando dicha imagen de referencia por el factor de ponderación y sumando el desplazamiento, basándose en el vector de movimiento del bloque que se va a decodificar; y una etapa de generación de la señal de una imagen decodificada (310) para el bloque que se va a decodificar, calculando la suma de la señal de predicción de error más la imagen de predicción

Tipo: Patente Europea. Resumen de patente/invención. Número de Solicitud: E07006019.

Solicitante: KABUSHIKI KAISHA TOSHIBA.

Nacionalidad solicitante: Japón.

Dirección: 1-1 SHIBAURA 1-CHOME, MINATO-KU TOKYO 105-8001 JAPON.

Inventor/es: KIKUCHI,YOSHIHIRO, KOTO,SHINICHIRO, CHUJOH,TAKESHI.

Fecha de Publicación: .

Fecha Solicitud PCT: 18 de Abril de 2003.

Clasificación PCT:

  • H04N7/26
  • H04N7/32
  • H04N7/36
  • H04N7/50

Países PCT: Austria, Bélgica, Suiza, Alemania, España, Francia, Reino Unido, Italia, Liechtensein, Países Bajos, Suecia, Finlandia.

PDF original: ES-2375447_T3.pdf

 


Fragmento de la descripción:

La presente invención se refiere a un procedimiento y un aparato de codificación/decodificación de vídeo que codifican/decodifican un vídeo de fundido y un vídeo de disolución, en particular, con alta eficacia. Técnica anterior La codificación intertrama de predicción de compensación de movimiento se usa como uno de los modos de codificación en un esquema estándar de codificación de vídeo como, por ejemplo, ITU-TH.261, H.263, ISO/IEC MPEG-2 o MPEG-4. Como modelo predictivo en codificación intertrama de predicción de compensación de movimiento, se usa un modelo que muestra la máxima eficacia de predicción cuando no se producen cambios de brillo en la dirección del tiempo. En el caso de un vídeo de fundido que cambia en el brillo de las imágenes, no existe ningún procedimiento conocido hasta ahora que realice una predicción apropiada frente a un cambio en el brillo de las imágenes cuando, por ejemplo, una imagen normal aparece con un fundido de entrada a partir de una imagen en negro. Con el fin de mantener también la calidad de las imágenes en un vídeo de fundido se requiere, por tanto, un gran número de bits. Con el fin de resolver este problema, por ejemplo, en la patente japonesa nº 3.166.716, Codificador de vídeo de contramedida de fundido y procedimiento de codificación, se detecta una parte de un vídeo de fundido para cambiar la asignación del número de bits. Más específicamente, en el caso de un vídeo de fundido de cierre, se asigna un gran número de bits a la parte de inicio del fundido de cierre que cambia en luminancia. En general, la última parte del fundido de cierre se convierte en una imagen monocroma, y por ello puede codificarse con facilidad. Por este motivo, el número de bits asignados a esta parte se reduce. Esto hace posible mejorar la calidad global de la imagen sin aumentar excesivamente el número total de bits. En la patente japonesa nº 2.938.412, Procedimiento de compensación de cambio de luminancia de vídeo, aparato de codificación de vídeo, aparato de decodificación de vídeo, medio de grabación en el que se graba el programa de codificación o decodificación de vídeo y medio de grabación en el que se graban los datos codificados de vídeo, se propone un esquema de codificación que consiste en copiar apropiadamente un vídeo de fundido compensando una imagen de referencia de acuerdo con dos parámetros, que son la cantidad de cambio de la luminancia y la cantidad de cambio del contraste. En Thomas Wiegand y Berand Girod, Multi-frame motion-compensated prediction for video transmission, Kluwer Academic Publishers 2001, se propone un esquema de codificación basado en una pluralidad de memorias intermedias de tramas. En este esquema, se ha intentado mejorar la eficacia de predicción generando selectivamente una imagen de predicción a partir de una pluralidad de tramas de referencia guardadas en las memorias intermedias de tramas. Según las técnicas convencionales, con el fin de codificar un vídeo de fundido o vídeo de disolución a la vez que se mantiene una alta calidad de imagen, se requiere un gran número de bits. Por tanto, no puede esperarse una mejora en la eficacia de la codificación. Yoshihiro Kikuchi, y col., Multi-frame interpolative prediction with modified syntax, Joint Vídeo Team (JVT) de ISO/IEC MPEG & ITU-T VCEG (ISO/IEC JTC1/SC29/WG11 e ITU-T SG16 Q6), 3 rd Meeting Fairfax, Virginia, EE.UU. 6-10 de marzo de 2002. (XP002461012) describen la predicción de interpolación multitrama que tiene una sintaxis modificada basada en codificación de imagen B. Divulgación de la invención Un objeto de la presente invención es proporcionar un procedimiento y un aparato de codificación/decodificación de vídeo que puedan codificar un vídeo que cambia en luminancia con el tiempo, por ejemplo, un vídeo de fundido o vídeo de disolución, en particular, con alta eficacia. Según un primer aspecto de la presente invención, se proporciona un procedimiento de decodificación de vídeo según la reivindicación 1. Según un segundo aspecto de la presente invención, se proporciona un aparato de decodificación de vídeo según la reivindicación 2. Como se describe anteriormente, según la presente invención, se prepara una pluralidad de diferentes esquemas 2   predictivos usando combinaciones de números de imágenes de referencia y parámetros predictivos o combinaciones de una pluralidad de parámetros predictivos que corresponden a números de imágenes de referencia designados. Esto hace posible generar una señal de imagen de predicción apropiada, sobre la base de un esquema predictivo con mayor eficacia de predicción, con respecto a una señal de vídeo tal que no puede generarse una señal de imagen de predicción apropiada mediante un esquema predictivo general para codificación de vídeo, por ejemplo, un vídeo de fundido o vídeo de disolución. Además, la señal de vídeo es una señal que incluye una señal de imagen obtenida para cada trama de una señal progresiva, una señal de imagen obtenida para cada trama obtenida mediante fusión de dos campos de una señal entrelazada, y una señal de imagen obtenida para cada campo de una señal entrelazada. Cuando la señal de vídeo es una señal de imagen sobre una base de trama, la señal de número de imagen de referencia indica una señal de imagen de referencia sobre una base de trama. Cuando la señal de vídeo es una señal de imagen sobre una base de campo, la señal de número de imagen de referencia indica una señal de imagen de referencia sobre una base de campo. Esto hace posible generar una señal de imagen de predicción apropiada, sobre la base de un esquema predictivo con mayor eficacia de predicción, con respecto a una señal de vídeo que incluye una estructura de trama y una estructura de campo tal que no puede generarse una señal de imagen de predicción apropiada mediante un esquema predictivo general para codificación de vídeo, por ejemplo, un vídeo de fundido o vídeo de disolución. Además, la información de un número de imagen de referencia o parámetro predictivo en sí no es enviada desde el lado de la codificación al lado de la decodificación, sino que se envía información de índice que indica una combinación de un número de imagen de referencia y un parámetro predictivo, o se envía por separado un número de imagen de referencia. En este caso, la eficacia de la codificación puede mejorarse enviando información de índice que indica una combinación de parámetros predictivos Breve descripción de los dibujos La fig. 1 es un diagrama de bloques que muestra la configuración de un aparato de codificación de vídeo según el primer ejemplo útil para comprender la presente invención; la fig. 2 es un diagrama de bloques que muestra la configuración detallada de un generador de imágenes de predicción/memoria de tramas de la fig. 1; la fig. 3 es una vista que muestra un ejemplo de una tabla de combinaciones de números de tramas de referencia y parámetros predictivos, que se usa en el primer ejemplo útil para comprender la presente invención; la fig. 4 es un diagrama de flujo que muestra un ejemplo de una secuencia para seleccionar un esquema predictivo (una combinación de un número de trama de referencia y un parámetro predictivo) para cada macrobloque y para determinar un modo de codificación en el primer ejemplo útil para comprender la presente invención; la fig. 5 es un diagrama de bloques que muestra la configuración de un aparato de decodificación de vídeo según el primer ejemplo útil para comprender la presente invención; la fig. 6 es un diagrama de bloques que muestra la configuración detallada del generador de imágenes de predicción/memoria de tramas de la fig. 5; la fig. 7 es una vista que muestra un ejemplo de una tabla de combinaciones de parámetros predictivos en un caso en el que el número de tramas de referencia es uno y se envía un número de trama de referencia como información de modo, según el segundo ejemplo útil para comprender la presente invención; la fig. 8 es una vista que muestra un ejemplo de una tabla de combinaciones de parámetros predictivos en un caso en el que el número de tramas de referencia es dos y se envía un número de trama de referencia como información de modo según el segundo ejemplo útil para comprender la presente invención; la fig. 9 es una vista que muestra un ejemplo de una tabla de combinaciones de números de imágenes de referencia y parámetros predictivos en un caso en el que el número de trama de referencia es uno según la primera forma de realización de la presente invención; la fig. 10 es una vista que muestra un ejemplo de una tabla sólo para señales de luminancia según la primera forma de realización; la fig. 11 es una vista que muestra un ejemplo de una sintaxis para cada bloque cuando se va a codificar información de índice; 3... [Seguir leyendo]

 


Reivindicaciones:

1. Un procedimiento de decodificación de video para decodificar datos codificados (300) obtenidos al someter un video que tiene una luminancia (Y) y dos diferencias de color (Cb, Cr) a codificación de predicción, comprendiendo el procedimiento de decodificación de video: una etapa de recepción de los datos codificados obtenidos mediante la codificación de una pluralidad de combinaciones indexadas, para uno o más bloques que se van a decodificar, comprendiendo cada combinación un factor de ponderación (D1; E1; F1) para cada luminancia y las dos diferencias de color y un desplazamiento (D2; E2; F2) para cada luminancia y las dos diferencias de color para una única imagen de referencia y un único número de imagen de referencia asignado a dicha única imagen de referencia y codificar un coeficiente de transformación ortogonal cuantizado de una señal de predicción de error referido a la luminancia y dos diferencias de color, información de un vector de movimiento (414) e información de índice (415) indicando una combinación de la pluralidad de combinaciones indexadas para un bloque que se va a decodificar; una etapa de derivación para el bloque que se va a decodificar, una combinación que comprende el factor de ponderación (D1; E1; F1) para cada luminancia y las dos diferencias de color, el desplazamiento (D2; E2; F2) para cada luminancia y las dos diferencias de color y el número de la imagen de referencia a partir de la información de índice y la pluralidad de combinaciones indexadas; una etapa de generación de la señal de predicción de error para el bloque que se va a decodificar, sometiendo el coeficiente de transformación ortogonal cuantizado a cuantización inversa y transformación ortogonal inversa; una etapa de generación de una imagen de predicción (412) para el bloque que se va a decodificar, multiplicando dicha imagen de referencia por el factor de ponderación y sumando el desplazamiento, basándose en el vector de movimiento del bloque que se va a decodificar; y una etapa de generación de la señal de una imagen decodificada (310) para el bloque que se va a decodificar, calculando la suma de la señal de predicción de error más la imagen de predicción. 2. Un aparato de decodificación de video para decodificar datos codificados (300) obtenidos al someter un video que tiene una luminancia (Y) y dos diferencias de color (Cb, Cr) a codificación de predicción, comprendiendo el aparato de decodificación de video: medios (301, 302, 303) para recibir los datos codificados obtenidos mediante la codificación de una pluralidad de combinaciones indexadas, para uno o más bloques que se van a decodificar, comprendiendo cada combinación un factor de ponderación (D1; E1; F1) para cada luminancia y las dos diferencias de color y un desplazamiento (D2; E2; F2) para cada luminancia y las dos diferencias de color para una única imagen de referencia y un único número de imagen de referencia asignado a dicha única imagen de referencia y codificar un coeficiente de transformación ortogonal cuantizado de una señal de predicción de error referido a la luminancia y dos diferencias de color, información de un vector de movimiento e información de índice indicando una combinación de la pluralidad de combinaciones indexadas para un bloque que se va a decodificar; medios (403) para derivar, para el bloque que se va a decodificar, una combinación que comprende el factor de ponderación (D1; E1; F1) para cada luminancia y las dos diferencias de color, desplazamiento (D2; E2; F2) para cada luminancia y las dos diferencias de color y el número de la imagen de referencia a partir de la información de índice y la pluralidad de combinaciones indexadas; medios (304, 305) para generar la señal de predicción de error para el bloque que se va a decodificar, sometiendo el coeficiente de transformación ortogonal cuantizado a cuantización inversa y transformación ortogonal inversa; medios (308) para generar una imagen de predicción (412) para el bloque que se va a decodificar, multiplicando dicha imagen de referencia por el factor de ponderación y sumando el desplazamiento, basándose en el vector de movimiento del bloque que se va a decodificar; y medios (306) para generar la señal de una imagen decodificada (310) para el bloque que se va a decodificar, calculando la suma de la señal de predicción de error más la imagen de predicción. 12   13   14     16   17   18   19     21   22

 

Patentes similares o relacionadas:

Sistema y método para codificación y decodificación aritmética, del 29 de Abril de 2020, de NTT DOCOMO, INC.: Método de decodificación aritmética para convertir una secuencia de información compuesta por una secuencia de bits en una secuencia de eventos binarios compuesta […]

Imagen de 'Filtro de desbloqueo condicionado por el brillo de los píxeles'Filtro de desbloqueo condicionado por el brillo de los píxeles, del 25 de Marzo de 2020, de DOLBY INTERNATIONAL AB: Método para desbloquear datos de píxeles procesados con compresión de vídeo digital basado en bloque, incluyendo los pasos: - recibir […]

Método para codificar y descodificar imágenes B en modo directo, del 19 de Febrero de 2020, de Godo Kaisha IP Bridge 1: Un método para generar y descodificar una secuencia de bits de una imagen B objetivo, en donde generar la secuencia de bits de la imagen B objetivo incluye las siguientes […]

Interpolación mejorada de cuadros de compresión de vídeo, del 4 de Diciembre de 2019, de DOLBY LABORATORIES LICENSING CORPORATION: Un método de compresión de imágenes de video que comprende: proporcionar una secuencia de cuadros referenciables (I, P) y predichos bidireccionales […]

Interpolación mejorada de cuadros de compresión de vídeo, del 4 de Diciembre de 2019, de DOLBY LABORATORIES LICENSING CORPORATION: Un método para compresión de imágenes de video usando predicción en modo directo, que incluye: proporcionar una secuencia de cuadros predichos […]

Capa de sectores en códec de vídeo, del 27 de Noviembre de 2019, de Microsoft Technology Licensing, LLC: Un procedimiento de decodificación de vídeo e imágenes, que comprende: decodificar una imagen de un flujo de bits codificado que tiene una jerarquía […]

Transformación solapada condicional, del 20 de Noviembre de 2019, de Microsoft Technology Licensing, LLC: Un método para codificar un flujo de bits de vídeo utilizando una transformación solapada condicional, en donde el método comprende: la señalización de un modo de filtro […]

Técnica para una simulación del grano de película exacta de bits, del 4 de Septiembre de 2019, de InterDigital VC Holdings, Inc: Un procedimiento para simular un grano de película en un bloque de imagen que comprende: calcular el promedio de los valores de luminancia de píxeles dentro del bloque de […]

Utilizamos cookies para mejorar nuestros servicios y mostrarle publicidad relevante. Si continua navegando, consideramos que acepta su uso. Puede obtener más información aquí. .