Post on 09-Feb-2016
Universidad de Sevilla - Escuela Superior de Ingenieros
Proyecto Fin de CarreraIngeniero de Telecomunicación
Unidad Móvil Virtual para ENGsobre HSUPA
Autor: Antonio Foncubierta RodríguezDirector: José Ramón Cerquides Bueno
Septiembre 2009
Índice general
Índice general 1
1 Introducción 3
2 Producción de TV en Exteriores 52.1. Electronic Field Production . . . . . . . . . . . . . . . . . . . . . . . . 62.2. Electronic News Gathering . . . . . . . . . . . . . . . . . . . . . . . . . 72.3. Necesidades generales de un sistema de captación en tiempo real
en exteriores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3 Compresión de Video Digital 113.1. Características de Video Digital . . . . . . . . . . . . . . . . . . . . . . 113.2. Técnicas de Compresión . . . . . . . . . . . . . . . . . . . . . . . . . . 163.3. Estándares de Compresión . . . . . . . . . . . . . . . . . . . . . . . . . 21
4 Transmisión de datos sobre redes móviles 304.1. Redes Telefónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304.2. Redes No Telefónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364.3. Tabla Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5 Vídeo sobre IP 395.1. Modelo de un sistema de transmisión de vídeo sobre IP . . . . . . . 395.2. Vídeo sobre redes inalámbricas . . . . . . . . . . . . . . . . . . . . . . 415.3. Estandarización de IPTV e IPTV Móvil . . . . . . . . . . . . . . . . . . 52
6 Solución propuesta 536.1. Estructura detallada del sistema . . . . . . . . . . . . . . . . . . . . . . 536.2. Pruebas realizadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
1
Índice general 2
7 Resultados Obtenidos 587.1. Análisis del tráfico de paquetes . . . . . . . . . . . . . . . . . . . . . . 587.2. Introducción a las métricas de calidad para vídeo . . . . . . . . . . . 617.3. Análisis de calidad proporcionada por el sistema de unidad móvil
virtual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
8 Conclusiones 69
Bibliografía 73
CAPÍTULO
1Introducción
Mucho ha cambiado el panorama de la producción de televisión desde que
en España se realizara la primera demostración de televisión en los años cuaren-
ta. Si entonces la demostración consistía en una cámara conectada a un monitor
por un cable de treinta metros, ahora hay complejos sistemas de difusión de tele-
visión que cubren la totalidad del planeta; a la vez que los procesos de captura y
retransmisión de imágenes en tiempo real han mejorado asombrosamente.
No obstante, desde que se dispone de conexiones vía satélite ha habido poca
mejora en este aspecto, restringiéndose las mejoras a mejorar la calidad de la se-
ñal, utilizar distintos sistemas de codificación y compresión de señales digitales,
pero hay un hecho que apenas ha variado: cuando se necesitan retransmisiones
en directo desde el lugar donde se produce un hecho noticioso o que resulta in-
teresante retransmitir por televisión, el uso de un enlace por satélite es práctica-
mente forzoso salvo en casos en los que las condiciones permitan un radioenlace
de microondas más sencillo. Es por eso que la simple exploración de otras posibi-
lidades justificaría una investigación como la que se aborda en este proyecto fin
de carrera.
En este caso, la exploración de posibilidades va un paso más allá, y utiliza las
últimas tecnologías disponibles en redes de telefonía móvil para conseguir un sis-
tema de retransmisión de vídeo en tiempo real que disminuye los costes derivados
de un enlace por satélite. El sistema desarrollado se basa en el establecimiento de
una conversación punto a punto entre dos equipos conectados a una red de datos
basada en IP, en nuestro caso Internet. El objetivo de dicha conversación punto a
punto es transportar en tiempo real el contenido de un flujo de video cualquiera
3
CAPÍTULO 1. INTRODUCCIÓN 4
con definición estándar, apto para su posterior o inmediata inclusión en emisio-
nes de televisión. De este modo, el sistema es apto para realizar directos o contri-
buciones.
A lo largo de este proyecto, iremos ocupándonos de los distintos temas relacio-
nados con esta propuesta de sistema para la transmisión de vídeo. En el capítulo
2 se resumirán las necesidades de un sistema de producción de televisión en exte-
riores, explicando las soluciones actuales y los usos más frecuentes, mientras que
en el capítulo 3 nos ocuparemos de la compresión de vídeo digital. En el capítu-
lo 4 abordaremos los distintos sistemas de transmisión de datos en movilidad. El
capítulo analiza el estado del arte en el campo de transmisión de vídeo sobre IP a
través de redes de datos, relacionando así los dos capítulos anteriores. En el capí-
tulo 6 se entrará en detalles acerca de la estructura del sistema de pruebas imple-
mentado. En el capítulo 7 se verán las pruebas realizadas, desde las más simples
a las más complejas y los resultados obtenidos en las mismas desde el punto de
vista de la red y de la calidad percibida, dejando para el capítulo 8 las conclusiones
y las líneas futuras de investigación.
CAPÍTULO
2Producción de TV en
Exteriores
Un servicio tan extendido como la televisión, con vocación de servicio público,
y en contacto permanente con las últimas noticias, habrá de recurrir con frecuen-
cia a la retransmisión desde exteriores o a la contribución de imágenes obtenidas
fuera del plató. Si bien algunas cadenas de televisión cuentan con equipos nece-
sarios para realizar cierto número de conexiones al día, la mayor parte de este tipo
de trabajo es subcontratado a empresas que comercializan productos de transmi-
sión audiovisual e incluso realización de eventos. El motivo es que resulta muy
costoso mantener toda la infraestructura necesaria para realizar estas coberturas,
por lo que al contratar a una empresa especializada, estos costes disminuyen pa-
ra la televisión que contrata, a la vez que permite reutilizar el equipo para otros
clientes al comercializador del producto.
En la producción de televisión en exteriores se distinguen distintas soluciones
en función de las necesidades concretas del evento o noticia que hay que cubrir,
o del uso de las imágenes obtenidas (directo o contribución). Las dos soluciones
posibles reciben el nombre de Electronic News Gathering y Electronic Field Pro-
duction, aunque son más conocidas por sus siglas ENG y EFP. En las secciones
2.1 y 2.2 se describen sus principales características y necesidades, para posterior-
mente extraer conclusiones sobre los requisitos de ambas técnicas en la sección
2.3.
5
CAPÍTULO 2. PRODUCCIÓN DE TV EN EXTERIORES 6
Figura 2.1: Aspecto exterior de una unidad móvil para grandes eventos
2.1. Electronic Field Production
Electronic Field Production hace referencia a la producción de eventos en exte-
riores por parte de los medios audiovisuales. Esta técnica recurre al uso de grandes
unidades móviles, que sustituyen la mayoría de las funciones de un auténtico es-
tudio de televisión. El motivo es que existen determinados tipos de eventos, como
por ejemplo, retransmisiones deportivas, en los que no es posible trabajar con una
única fuente de vídeo en directo; esto implica que las decisiones sobre qué señal
de vídeo va a ser vista por los espectadores deben tomarse en la propia localiza-
ción, para transmitir una única señal de vídeo vía satélite, ya editada. Para ello son
necesarios multitud de recursos técnicos y humanos, lo que reserva su uso para
ocasiones en las que el uso de una unidad móvil completa es estrictamente nece-
sario. Las figuras 2.1 y 2.2 muestran una de estas unidades móviles.
Estas unidades pueden acoger a un elevado número de personas que se encar-
garán de las labores de realización a partir de las diversas fuentes de vídeo que se
reciben.En una de estas unidades caben alrededor de 15 personas (ver figura 2.2)
sin contar los operadores de cámara. No obstante, para completar su funcionali-
dad, es necesario retransmitir la señal editada al centro de producción de televi-
sión que se encargará de incorporar el contenido audiovisual a la programación.
Esto conlleva la contratación de un servicio de contribución vía satélite capaz de
CAPÍTULO 2. PRODUCCIÓN DE TV EN EXTERIORES 7
Figura 2.2: Esquema de organización interior de una Unidad Móvil
soportar un elevado flujo de bits. Si la unidad móvil no soporta la transmisión di-
recta vía satélite, esta función ha de ser contratada a una empresa especializada,
añadiendo así un nuevo vehículo equipado con una antena parabólica orientada
al satélite correspondiente.
2.2. Electronic News Gathering
Electronic News Gathering hace referencia a la recogida de noticias en exterio-
res, aunque el uso de los equipos ENG no se limita a la producción de informa-
tivos, sino también a otro tipo de programas de entretenimiento y actualidad. En
este caso, el objetivo es proporcionar información audiovisual obtenida fuera del
estudio de televisión: ya sea para su inclusión inmediata en la programación, caso
en el que hablaremos de la “realización de un directo”, o para su inclusión pos-
terior una vez editada la pieza, en cuyo caso hablaremos de “realización de una
contribución”. En ambos casos el equipo necesario es similar: un vehículo que
transporta a un operador de cámara, un periodista y quizás un técnico de soni-
do. Uno de estos vehículos, o unidad móvil ligera puede verse en la figura 2.3. En
este caso se trata de una unidad móvil con conectividad vía satélite. Este tipo de
unidades reciben el nombre de DSNG: Digital Satellite News Gathering.
El uso de las DSNG para contribución es muy sencillo: el reportero, junto con
el operador de cámara, obtienen las imágenes, que en algunos casos pueden ser
directamente editadas por el reportero si el equipo de la DSNG lo permite y pos-
teriormente las hacen llegar al centro de producción de televisión, donde serán
incluidas en la programación de acuerdo a las necesidades concretas de emisión.
La forma de hacer llegar la información puede ser vía satélite, a través de FTP o
CAPÍTULO 2. PRODUCCIÓN DE TV EN EXTERIORES 8
Figura 2.3: DSNG: Unidad Móvil Ligera para ENG con conectividad vía satélite
Figura 2.4: Uso de una DSNG para contribución en directo
transportando físicamente la grabación en algún soporte como pueden ser cintas
o DVDs.
El uso para la realización de directos, requiere la utilización de la antena para-
bólica del vehíchulo para transmitir en tiempo real la señal de vídeo. En este caso
surgen limitaciones a la labor del reportero: existe una conexión cableada o por
radioenlace entre el reportero y la DSNG por lo que su accesibilidad se ve redu-
CAPÍTULO 2. PRODUCCIÓN DE TV EN EXTERIORES 9
TR-2 ESTACION TERRENA TRANSPORTABLE (DSNG)
VEHICULO
TRANSMISION
VIDEO
FORMATOS
Antena ADVENT New Swift 1,2 m.1 Amplificador XICOM 400 W2 Codec/Mod. Vislink DVE4000 4:2:0/4:2:22 UP Converter WORK SCU-Ku2 Receptores IRD TT1260Transmision 2 ó4 Audios x víaEncriptación BISSBanda Ku y Banda Ku expandida
Mercedes VITO 115 156 CVAire acondicionadoGenerador ONAM 5,5 KW
ENTRADAS DE VIDEO4 IN SDI2 OUT SDI
Mesa de mezclas: 12 Canales - 4 Salidas4 IN analógicas2 OUT (bodega)
Intercom de 4 Hilos /2 CanalesHibrido telefónico GSM
MONITORADO VIDEORack de 3 monitores LCD de 5,6"Rack de 2 monitores Sony 9" SDIMonitor PGM externo para periodistaAUDIO1 Monitor AEQ de 6 Vías
Laptop Betacam SXLaptop DVC Pro
SERVICIOS Transmisión 1 ó 2 VíasUP LINKSegmento espacialMedios de directosEquipo ENG / EdiciónProducción - Coordinación
TRIAKONTA Producción de NoticiasGregorio de los Ríos, 3 - 45600 Talavera de la Reina TOLEDO - Tel.: 925 814 988 - www.triakonta.com
INFORMACION Y RESERVAS
TRIAKONTA PRODUCCIÓN DE NOTICIASTel./Fax: 925 814 988Móviles: 609 811 265 - 609 617 140Email: produccion@triakonta.com
AUDIO
Figura 2.5: Características de un equipo DSNG
cida; además, la colocación del vehículo también es una limitación en si misma,
ya que existen zonas a las que le será difícil acceder y otras donde no se pueda
realizar una transmisión al satélite adecuado.
2.3. Necesidades generales de un sistema de captación en
tiempo real en exteriores
Una vez hemos visto las principales diferencias entre las unidades móviles pa-
ra ENG y EFP pasamos a comentar sus similitudes, que nos darán una idea de
cuáles son las limitaciones que el uso de ENG y EFP imponen a la captación au-
diovisual en exteriores.
En primer lugar tanto ENG como EFP necesitan disponer de un vehículo de
importantes dimensiones para desplazarse a la localización desde la que se pre-
tende retransmitir. En el caso de las DSNG, este vehículo puede reducirse al tama-
ño de una pequeña furgoneta que incluya todo el equipamiento necesario, aun-
que en el caso de producción en exteriores con unidades móviles completas, el
tamaño y número de vehículos necesarios aumenta de manera considerable. Este
hecho supone una importable limitación de movilidad, ya que las unidades mó-
CAPÍTULO 2. PRODUCCIÓN DE TV EN EXTERIORES 10
viles (completas o ligeras) tienen accesibilidad limitada, en el mejor de los casos,
a aquellos lugares donde sea posible desplazar una fugroneta. En segundo lugar,
la necesidad de conectividad vía satélite o un radioenlace de microondas si hay
visibilidad directa, limita aún más la accesibilidad de los periodistas, además de
añadir un nuevo problema en el caso de usar satélite: el coste de la transmisión es
muy elevado.
En definitiva, tanto los problemas de accesibilidad y movilidad como los re-
lativos al elevado coste de una transmisión por satélite redundan en el mayor re-
quisito de este tipo de sistemas de captación: planificación y previsión. Las limi-
taciones de movilidad conducen a tener previstos los desplazamientos con an-
terioridad para poder realizar la contribución, el tiempo de establecimiento del
enlace junto con las restricciones impuestas por los sistemas de satélite, así como
el elevado coste de una transmisión desaconseja su uso de forma indiscriminada,
produciendo que cualquier transmisión en directo esté prevista y planificada con
antelación suficiente.
En el caso de contribuciones en directo, el uso de unidades móviles ligeras
es la mejor opción disponible, pero dista mucho de proporcionar al medio la in-
mediatez necesaria para ciertos eventos imprevistos. Sería interesante, por tanto,
investigar la posibilidad de encontrar un sistema de contribución en tiempo real
que solvente las limitaciones de los sistemas actuales en la medida de lo posible.
El objetivo de este proyecto es utilizar técnicas de codificación de vídeo junto con
las últimas tecnologías de comunicación móvil para hacer posible la captación en
directo de forma inmediata, evitando desplazar grandes equipos.
CAPÍTULO
3Compresión de Video Digital
De todas las posibles fuentes de información, la que más cantidad de datos
aporta es el vídeo. Una fuente de vídeo de televisión convencional proporciona 25
imágenes por segundo, cada una de 576 líneas, según el sistema PAL utilizado en
Europa. Supongamos que el color de cada píxel1 es codificado con 24 bits, y que
la relación de aspecto es de 4:3. En este caso, tenemos una tasa bruta de bits de:
25 i mág enesseg undo ×576 l íneas
i mag en × 43 576 píxel es
l ínea ×24 bi t spíxel = 265420800 bi t s
seg undo ≈ 265Mbps,
lo cual hace inviable su almacenamiento o transmisión sin una compresión pre-
via. La compresión de vídeo puede interpretarse como la compresión de una se-
cuencia de imágenes. No obstante, las forma en que las personas percibimos las
imágenes en movimiento juega también un papel importante a la hora disminuir
la cantidad de bits requeridos por una señal de vídeo. Es por ello que para abor-
dar la compresión de vídeo debemos comenzar haciendo una breve introducción
a la representación de vídeo digital y a su percepción por parte del sistema visual
humano.
3.1. Características de Video Digital
Una señal de vídeo analógica puede modelarse como una sucesión de imáge-
nes con un ritmo adecuado para que sean percibidas como una imagen en movi-
miento, ya sea en niveles de gris o en color. Una señal digital incorpora, además,
1El concepto píxel no está definido en la televisión analógica, aunque sí en el estándar de te-levisión digital terrestre. En este caso, y sin pérdida de generalidad, usaremos el tamaño de imagenpropuesto por el estándar DVB-T
11
CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 12
una serie de conceptos propios de la cuantización de la información, como son la
resolución y el número de colores distintos que se pueden representar.
Tasa de Cuadro
Como ya hemos comentado previamente, la sensación producida por una se-
cuencia de imágenes a un ritmo adecuado es de movimiento contínuo. La tasa
mínima a la que han de sucederse las imágenes para que el ojo perciba continui-
dad ronda las 25 imágenes por segundo. En el caso del cine, se proyectan 24 fo-
togramas distintos por segundo; mientras que para la televisión se transmiten 25
imágenes distintas por segundo en el caso del sistema PAL y 30 en sistema NTSC.
A esta tasa se la conoce como tasa de cuadro, frames per second o simplemente
fps.
Tasa de Refresco. Entrelazado
En la definición de la tasa de cuadro hemos hablado de la cantidad de imáge-
nes distintas necesarias para la percepción de movimiento contínuo. El problema
surge cuando al representar imágenes a razón de 25 por segundo, se produce una
sensación desagradable de parpadeo conocida como Flicker, puesto que el sis-
tema visual humano intenta descomponer la señal de vídeo en cada una de las
imágenes estáticas que la forman. Para evitar esta sensación, se recurre a aumen-
tar la tasa de refresco de la imagen estática. El “truco” utilizado en el cine para
resolver el parpadeo es mostrar varias veces cada imagen, mostrando entre 48 y
96 fotogramas, de los que sólo 24 son distintos. Para la televisión, los primeros dis-
positivos no disponían de memoria suficiente para mostrar dos veces la misma
imagen, por lo que se recurrió a otro “truco”: se dividió cada imagen en una serie
de líneas, y se transmitieron de forma consecutiva todas las impares (campo im-
par) y posteriormente las pares (campo par), refrescando la pantalla 50 veces por
segundo, aunque cada línea sólo se refrescaba a 25 Hz (ver Figura 3.1). Aunque los
equipos actuales de televisión son capaces de almacenar una imagen completa
sin mayor problema, el concepto de entrelazado se mantiene hasta hoy y ha sido
incorporado a las nuevas tecnologías de televisión, como la televisión digital de
alta definición (HDTV).
CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 13
Figura 3.1: División de un cuadro en dos campos, [2]
Muestreo Espacial: Resolución
En el apartado anterior hemos visto que las imágenes estáticas mostradas por
televisión consisten en una serie de líneas. Sin embargo, no hemos dicho nada del
número de líneas necesarias ni de cuántos puntos han de tener estas líneas. En
el vídeo digital, las imágenes contienen un número finito de puntos, de manera
que si el espectador se sitúa a la distancia adecuada, no sea capaz de distinguir los
puntos y vea una imagen contínua.
Otro aspecto importante es la relación de aspecto de la imagen. Se han proba-
do multitud de formatos de pantalla de cine, televisión y monitores de ordenador,
aunque hay dos relaciones de aspecto que son más frecuentes que las demás: 4/3
y 16/9. En cualquier caso, y para definir el número de líneas o píxeles que ha de
tener un vídeo, lo que debemos considerar es que en cualquier formato de pan-
CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 14
talla, siempre es menor el alto que el ancho. Esto se debe a que la visión humana
también tiene esta característica, ya que tenemos un campo visual predominan-
temente horizontal. Por esto, el número de puntos necesarios en una imagen para
que a una distancia determinada el ojo no pueda distinguir los píxeles, vendrá de-
terminado por la resolución vertical, que es la más pequeña de las dos.
El cálculo del número de líneas necesarias es sencillo si conocemos la distan-
cia entre el espectador y la pantalla. En cualquier caso y sin entrar en mucha pro-
fundidad, el objetivo es que la separación angular entre dos píxeles (o líneas) con-
secutivas sea menor que el poder de resolución del ojo humano. Los formatos más
usados en la actualidad tienen resoluciones de:
720 por 486 píxeles (Sistema NTSC de definición estándar)
720 por 576 píxeles (Sistema PAL de definición estándar)
1280 por 720 píxeles (Alta Definición si el escaneo es progresivo)
1920 por 1080 píxeles (Alta Definición, con escaneo entrelazado o progresi-
vo)
Representación del Color
La evolución de la imagen en movimiento ha seguido el mismo camino que la
imagen estática: de la imagen en blanco y negro se pasó al color y de ahí a la era
digital. Sin embargo, aunque el destino haya sido el mismo (imagen o vídeo digital
en color) el trayecto seguido por el vídeo ha estado muy ligado a la evolución de
los sistemas de televisión, y los ajustes de compatibilidad con sistemas anteriores.
Para la representación de vídeo en color, es posible recurrir a las componen-
tes roja, verde y azul (RGB) de las imágenes, ya que la excitación de la retina con
distintas intensidades de luces roja, verde y azul proporciona al cerebro la sensa-
ción cromática de otro color (ver Figura 3.2). Sin embargo, varios motivos llevaron
a utilizar un sistema más complejo que la simple transmisión de tres imágenes
completas en rojo, verde y azul:
1. Los primeros intentos de transmisión de vídeo mediante señales electro-
magnéticas se basaban en la transmisión de imágenes en niveles de gris,
proporcionando la componente de luminancia (Y) de la imagen que se pre-
tendía mostrar. Esta componente se relaciona con las componentes RGB se-
gún la ecuación 3.1. La introducción de color debía garantizar la compatibi-
CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 15
Figura 3.2: Distintos niveles de detalle de una imagen en una pantalla LCD. Lacombinación de subpíxeles RGB produce percepción de colores distintos
lidad con los equipos antiguos, por lo que se optó por transmitir las imáge-
nes diferencias entre la luminancia y dos de las componentes de RGB, como
se puede ver en 3.2. De esta manera, se puede recuperar la información RGB
desde YCbCr.
Y = 0,2126R +0,7152G +0,0722B (3.1)
C b ∝ (B −Y );Cr ∝ (R −Y ) (3.2)
2. El sistema visual humano es mucho más sensible a la variación de luminan-
cia que a la variación cromática, por tener muchos más receptores del pri-
mer tipo que del segundo. Debido a esto, es posible una primera compresión
del vídeo transmitiendo menos información cromática que de luminancia.
CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 16
3.2. Técnicas de Compresión
La compresión de una señal implica eliminar en la medida de lo posible toda
la redundancia que ésta contiene, para evitar la transmisión o almacenamiento
de información que ya está presente de otra forma. Así, la tasa de bits de la señal
es reducida sin que haya pérdidas. Otra aproximación consiste en averiguar cuál
es la información que nos resulta útil de la señal, e intentar reducir la cantidad
de información no útil de la señal. En el caso de señales de vídeo, esto nos lleva
a intentar comprender cuáles son las características de las señales y a cómo las
percibimos. A continuación veremos algunas técnicas útiles para la compresión
de señales en general, y señales de vídeo en particular.
Percepción del Color. Submuestreo de Croma
Este es el primer tipo de compresión que hemos visto, ya que como hemos
explicado en la sección 3.1, la visión humana es mucho más sensible a los deta-
lles relativos a la luminancia que relativos a la crominancia. Esto ha dado lugar
a técnicas que tienen en cuenta este hecho no sólo a la hora de comprimir sino
a la hora de capturar vídeo. Distintos sistemas se han definido para la edición y
captura de vídeo, que hacen uso de distinto número de muestras de crominancia
respecto al número de muestras de luminancia. En el ámbito profesional, se cap-
tura y edita vídeo con los sistemas 4:4:4, 4:2:2, lo que significa que en el primer
caso, se tienen 4 muestras de cada una de las componentes de color por cada 4 de
luminancia; mientras que en el segundo caso sólo se usan 2 muestras de cada una
de las dos componentes de color por cada 4 muestras de luminancia. En la figura
3.3 se puede ver un ejemplo de la disposición de estas muestras.
Figura 3.3: Distintas Relaciones de Submuestreo de Croma
CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 17
Redundancia Espacial. Codificación basada en Transformación
La teoría de la información nos dice que un código óptimo es aquel que asigna
las palabras más pequeñas a los símbolos que son más probables y viceversa. La
figura 3.4 muestra una imagen y su histograma, donde se muestra que existe un
elevado número de píxeles con valores distintos, lo cual hace que la aplicación de
un código de Huffman resulte en una tasa de compresión pobre. Sin embargo, una
de las características de las imágenes y el vídeo en general es que existe una alta
probabilidad de que un píxel tenga un valor igual o similar al de su vecino. Para
aprovechar esta caracerística, podemos dividir la imagen en bloques, y asignarle a
cada uno de ellos el valor medio de dicho bloque en la imagen original (ver figura
3.5). A partir de esta imagen, calculamos la imagen diferencia, esto es el resutado
de restar las dos imágenes. Después de la correspondiente normalización, la ima-
gen y su histograma quedan como vemos en la Figura 3.6, donde podemos obser-
var que el histograma es mucho más compacto: existen unos pocos valores que se
repiten con mucha frecuencia y el resto de valores son poco o nada probables.
Figura 3.4: Imagen Original junto a su histograma
Figura 3.5: Imagen promediada por bloques
CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 18
Figura 3.6: Imagen Diferencia junto a su histograma
En este ejemplo hemos visto como una sencilla transformación de promedia-
do junto con la elección de un código óptimo nos sirve para disminuir la redun-
dancia presente en la imagen. A la hora de transmitir vídeo, la reducción de la
redundancia en cada una de las imágenes que forman la secuencia tendrá eviden-
temente resultados positivos en la tasa de bits de vídeo. Sin embargo, existen otras
transformaciones más efectivas a la hora de reducir la redundancia, éste es el caso
de la Transformada Coseno Discreta o DCT, una transformación que guarda rela-
ción con la transformada de Fourier, aunque usa cosenos como funciones base de
la tranformada. En la figura 3.7 podemos ver un conjunto de funciones base de
la transformada DCT bidimensional. En la figura 3.8 se puede ver el resultado de
aplicar la DCT la imagen de la figura 3.4 en bloques de tamaño fijo. En la figura 3.9
se muestra el histograma, que podemos observar que es mucho más compacto.
Figura 3.7: Conjunto de funciones base de la DCT bidimensional 8x8 [2]
CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 19
Figura 3.8: Resultado de aplicar la transformación DCT en bloques a la imagenoriginal.
Figura 3.9: Histograma de la imagen transformada
CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 20
Redundancia Temporal. Estimación del Movimiento
Hasta ahora hemos hablado de tipos de redundancia, o de posibilidades de
compresión que son comunes a todas las imágenes, fijas o en movimiento. A con-
tinuación hablaremos de un tipo específico de las señales de vídeo. De forma
análoga a la redundancia espacial presente en las imágenes, donde es muy pro-
bable que un píxel tenga un valor igual o cercano al de su vecino, en el vídeo se
produce redundancia temporal: la probabilidad de que un mismo píxel tenga el
mismo valor en dos cuadros consecutivos es muy alta. En la figura 3.10 podemos
observar dos fotogramas consecutivos de una secuencia de vídeo, mientras que
en la 3.2 se aprecian las ligeras diferencias entre ambos.
Figura 3.10: Entre dos fotogramas consecutivos en una secuencia de vídeo existemucha redundancia temporal
Figura 3.11: Imagen de diferencias entre los dos fotogramas de la figura 3.10
En el ejemplo de las figuras 3.10 y se comprueba la cantidad de redundancia
existente en un flujo de vídeo, pero aún se puede lograr una compresión mayor
CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 21
si en lugar de codificar las diferencias, se hace estimación de movimiento. Esta
idea pretende utilizar el hecho de que las diferencias entre fotogramas se deben
en general a que un objeto en la imagen se ha desplazado de un punto a otro. Si
en lugar de codificar las diferencias entre las dos imagenes se codifica la nueva
posición del objeto mediante un vector de desplazamiento, se ahorra todavía más
en términos de tasa de bits. Un ejemplo de estimación de movimiento podemos
verlo en la figura 3.12.
Figura 3.12: Uso de vectores de compensación de movimiento para codificar unasecuencia de vídeo
3.3. Estándares de Compresión
Ahora que conocemos algunas de las características de la imagen en movi-
miento y técnicas para aprovecharlas en términos de compresión, veremos breve-
mente algunos estándares de compresión y sus aportaciones, finalizando con el
estándar H.264/AVC.
MPEG-1
MPEG-1 es un estándar de compresión de audio y vídeo desarollado por el
Motion Pictures Expert Group con la intención de reproducir vídeo y audio en so-
portes digitales, por lo que el estándar MPEG-1 fue usado como base para los CDs
de vídeo (VCDs). La tasa soportada por los lectores de CDs es de aproximadamen-
te 1.5 Mbps, por lo que éste será el objetivo de compresión del estándar MPEG-1
para soporte CD.
MPEG-1 toma como base el estándar de compresión de imágenes JPEG, cuyas
ratios de compresión varían desde calidad browsing (100:1) a calidad indistingui-
CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 22
resolución horizontal máxima 768 muestrasresolución vertical máxima 576 líneastasa de imágenes máxima 30 cuadros/segundo
Tabla 3.1: Algunos de los parámetros restringidos de MPEG-1
Resolución FPS352x240p 29.97352x240p 23.976352x288p 25320x240p 29.97384x288p 25
Tabla 3.2: Resoluciones comunes en MPEG-1
ble del original (3:1). El uso de JPEG para imágenes en movimiento dió lugar a
un estándar conocido como motion JPEG o MJPEG. Sin embargo éste estándar no
aprovechaba la redundancia entre fotogramas para mejorar la compresión.
El desarrollo de MPEG-1 se hizo tratando de minimizar el coste de los deco-
dificadores, por lo que la contrapartida es que el tiempo de compresión de una
secuencia de vídeo en MPEG-1 es 100 veces mayor al tiempo de decodificación. Es
por esto que a la hora de edición o captura en tiempo real se hace una codificación
en MPEG-1 básica a una tasa de 4Mbps para fotogramas de 288 líneas, utilizando
sólo compresión intra-frame2. A tasas de 3-4 Mbps, MPEG-1 puede conseguir ca-
lidad broadcast, es decir, calidad necesaria para su posterior difusión. Sin embar-
go, secuencias con un alto índice de actividad espacio-temporal (como deportes)
suelen requerir tasas más altas, de entre 5 y 6 Mbps.
MPEG-1 utiliza un conjunto de parámetros restringidos, CPB (Constrained Pa-
rameters Bitsream), cuya intención es normalizar los tamaños de memoria, búfe-
res y anchos de banda necesarios para manejar el flujo de bits del estándar MPEG-
1. En las tablas 3.3 y 3.3 podemos ver algunas de estas limitaciones.
Otro aspecto importante de MPEG-1, y que fue uno de los que dio lugar al
desarrollo de MPEG-2 es que no soporta vídeo entrelazado, o mejor dicho, no lo
hace de una manera eficiente. Por ejemplo, pueden combinarse los dos campos
de un cuadro para su codificación y ser separados posteriormente a la hora de
2el término intra-frame hace referencia a que sólo se utiliza compresion JPEG en cada una delas imágenes, es decir sólo se consigue compresión por la redundancia presente dentro (de ahí elprefijo intra) del fotograma o cuadro
CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 23
decodificar el flujo de datos; sin embargo, esto da lugar a artefactos en la compen-
sación del movimiento. Otra opción consiste en separar los campos y codificarlos
de forma separada, lo que ofrece mejor calidad de imagen, pero reduce la relación
de compresión al desaprovechar la redundancia presente entre los dos campos.
Tipos de Cuadro. GOP
Existen cuatro tipos de cuadro codificados por MPEG-1. En función de la es-
tructura que siguen estos tipos de cuadro, se puede alcanzar una mejor respuesta
a movimientos bruscos en la imagen, o una mejor tasa de compresión. Esta es-
tructura recibe el nombre de Group of Pictures (GOP). A continuación se detallan
las características de cada uno de los tipos de cuadro de MPEG-1:
Figura 3.13: GOP. Orden de transmisión, reproducción y predicción
I: cuadros Intra Los cuadros intra, o tipo I, son codificados como una imagen in-
dependiente utilizando exclusivamente las técnicas de compresión intra-
frame referentes a reducir la redundancia espacial. Básicamente consisten
en imágenes JPEG. Permiten acceso rápido a distintos puntos de la secuen-
cia. Ocurren con una frecuencia de aproximadamente 2 cuadros por segun-
do, y también en cambios de escena. La tasa que aportan estos cuadros es
de aproximadamente 1 bit por píxel.
P: cuadros de Predicción Los cuadros tipo P son codificados en relación al cua-
dro P o I previo más cercano, resultando en un esquema de procesado hacia
delante como el que se observa en la figura 3.13. Proporcionan más compre-
sión que los I, dado que utilizan estimación de movimiento. Son utilizados
CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 24
como referencia para otros cuadros P o B. La tasa de compresión que apor-
tan los cuadros tipo P es de aproximadamente 0.1 bit por píxel.
B: cuadros de predicción Bidireccional Los cuadros B son codificados utilizando
los fotogramas anteriores y futuros más cercanos, ya sean P o I, resultando
en un esquema de procesado bidireccional, como se puede ver en la figura
3.13. Los fotogramas tipo B son los que más compresión aportan, alrededor
de 0.015 bits por píxel.
D: cuadros DC Los cuadros DC son codificados como imágenes independientes,
utilizando sólo la componente de contínua de la DCT. El uso de estos cua-
dros es muy limitado, y suele estar restringido a cuando el usuario utiliza la
función de avance rápido del reproductor.
MPEG-2
El estándar MPEG-2 surge para suplir algunas de las carencias de MPEG-1:
dar soporte al vídeo entrelazado, añadir un sistema de compresión de audio pa-
ra más de dos canales, abrir un abanico más amplio de parámetros para su uso
en diferentes ámbitos, resoluciones, y tasas de cuadro, proporcionando toda es-
ta versatilidad mediante Perfiles y Niveles. Su uso está muy extendido, tanto para
compresión de vídeo como de audio, siendo el famoso formato MP3 un caso par-
ticular de MPEG-2 para audio.
Versatilidad de MPEG-2
Como hemos comentado previamente, MPEG-2 proporciona una gran versa-
tilidad a la hora de la codificación de vídeo, a través de la definición de perfiles y
niveles. Esto lo convierte en un estándar adecuado para la transmisión de vídeo en
definición estándar para la televisión digital terrestre (DVB), transmisión de vídeo
en alta definición o almacenamiento de vídeo en soportes ópticos (DVD).
En la tabla 3.3 se muestran los perfiles definidos para MPEG-2, mientras que
en la tabla 3.3 se muestran algunas de las características de los distintos niveles
aplicables a cada uno de los perfiles.
Transport Stream y Program Stream
El estándar MPEG-2 abarca aspectos más amplios que MPEG-1 e introduce
cambios no sólo relativos a la codificación del vídeo sino al empaquetado y mul-
CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 25
Simple Main SNR Spatial HighTipo de cuadro I,P I,P,B I,P,B I,P,B I,P,BSubmuestreo Croma 4:2:0 4:2:0 4:2:0 4:2:0 4:2:0, 4:2:2Relación de aspecto (pí-xel)
1:1, 4:3,16:9
1:1, 4:3,16:9
1:1, 4:3,16:9
1:1, 4:3,16:9
1:1, 4:3,16:9
Escalabilidad(SNR/Espacial)
SNR Ambas Ambas
Tabla 3.3: Perfiles de MPEG-2
Low Main High-1440 HighPíxeles 352 720 1440 1920Líneas 288 576 1152 1152FPS 30 30 60 60Bitrate (Mbps) 4 15 60 80
Tabla 3.4: Restricciones a los parámetros de MPEG-2 según niveles
tiplexión de varios flujos de audio y vídeo. Una muestra de estos cambios son la
definición de dos sistemas de empaquetado: Transport Stream y Program Stream.
Estas dos formas de empaquetado son independientes de las características de co-
dificación, hasta tal punto que dentro de un Transport Stream pueden viajar datos
codificados con otros sistemas distintos de MPEG-2 para vídeo. Las figuras 3.14
3.15 muestran los esquemas de multiplexión y demultiplexión de estos contene-
dores.
Figura 3.14: Esquema de Empaquetado de Datos MPEG-2, según la normaISO/IEC 13818 [5]
CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 26
Figura 3.15: Esquema de demultiplexión de Datos MPEG-2, según la normaISO/IEC 13818 [5]
La definición de Transport Stream y Program Stream está muy relacionada con
la aplicación, ya que el Program Stream está diseñado para almacenamiento o
transmisión a través de canales con probabilidad de error muy baja, por ejem-
plo, es el flujo de datos usado para soportes ópticos como los DVD; mientras que
el Transport Stream tiene características que lo hacen más adecuado para trans-
misión por medios ruidosos o con una mayor probabilidad de error, por ejemplo,
para la transmisión de televisión digital (DVB). Ésta característica, junto con la po-
sibilidad de transportar cargas con distintos códecs hacen del Transport Stream de
MPEG-2 un buen candidato para encapsular paquetes para la aplicación de este
proyecto. Éste aspecto será discutido posteriormente en el capítulo 6.
H.264
A medida que el coste computacional se reduce, el soporte para vídeo codifi-
cado sobre distintas redes se ha diversificado, incrementando la necesidad de la
industria de mayor eficiencia y robustez para la codificación de vídeo en entornos
de red. Este es el objetivo del equipo conjunto para vídeo (JVT3) formado en 2001
por los grupos de expertos de la ITU-T (VCEG4) y de ISO/IEC (MPEG), dando lu-
gar al estándar MPEG-4/Advanced Video Coding que equivale a la recomendación
H.264 de la ITU. Este estándar/recomendación fue desarrollado para proporcio-
nar una mayor compresión de imágenes en movimiento para varias aplicaciones
como videoconferencias, almacenamiento digital, difusión de televisión o strea-
3Joint Video Team4Video Coding Experts Group
CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 27
ming a través de Internet.
H.264 introduce numerosas características a sistemas previos de codificación
de vídeo, entre las que destacan:
Codificación Entrópica . En los estándares MPEG-1 y MPEG-2, la codificación se
hace en base a tablas fijas de códigos de longitud variable (VLC). Estos es-
tándares definen una serie de palabras código basadas en la distribución de
probabilidad de vídeos genéricos en lugar del código de Huffman exacto pa-
ra el vídeo en cuestión. Sin embargo H.264 utiliza distintos VLCs en función
del contexto, implementados mediante los algoritmos CAVLC5 y CABAC6.
Slices. H.264 divide los cuadros en diferentes slices, de manera que puede ma-
nejar un fotograma de manera distinta en cada una de estas secciones. Así,
un mismo fotograma puede contener predicción bidireccional, predicción
hacia delante, hacia detrás, etc. Este concepto ya se había introducido con
MPEG-2, aunque H.264 amplía su funcionalidad.
Predicción con pesos. Mientras que los estándares previos utilizaban siempre los
mismos pesos para las predicciones bidireccionales, H.264 incorpora la po-
sibilidad de asignar mayor peso a una de las imágenes de referencia.
Listas de imágenes de referencia. H.264 crea dos listas de imágenes de referencia
para las predicciones, una a largo plazo y otra a corto plazo, de manera que
se optimiza la compresión basada en predicción.
Al igual que MPEG-2, el estándar MPEG-4/AVC proporciona multitud de he-
rramientas, opciones y parámetros, en una sintaxis compleja y difícil de imple-
mentar. Por ello, un número de subconjuntos de la sintaxis completa son estipu-
lados como Perfiles y Niveles. En la figura 3.16 se pueden observar algunas de las
restricciones de H.264 en términos de perfiles.
Calidad Ofrecida por H.264
El estándar H.264 proporciona una calidad de imagen muy superior a la de
MPEG-2 para un mismo bitrate, o dicho de otra forma, para una misma calidad, en
5Context-based Adaptive Variable Length Coding: Codificación de Longitud Variable Adaptadaal Contexto
6Context-based Adaptive Binary Arithmetic Coding: Codificación Aritmética Binaria Adaptadaal Contexto
CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 28
Figura 3.16: División en perfiles del estándar H.264 [7]
términos de PSNR7, H.264 necesita un bitrate mucho menor al de MPEG-2[7] [8].
En la figura 3.17 se puede observar cómo la calidad ofrecida por H.264 es mayor
para una misma tasa binaria, o cómo para una misma PSNR, el ahorro de ancho
de banda puede llegar al 50 % en el caso de H.264.
Aunque los experimentos demuestran que la ratio de compresión proporcio-
nada por H.264 mejora con creces la de otros estándares previos, la eficiencia de la
compresión puede ser aún mayor si se utilizan los perfiles y niveles más amplios
del estándar. El motivo por el que estos perfiles no se usen se debe en parte a los
costes de implementación relativos a patentes y licencias, además de la compleji-
dad que conllevan.
7Peak Signal to Noise Ratio: Relación Señal a Ruido entre la imagen original y error cometidoen la imagen codificada, calculado cuadro a cuadro. Si bien la PSNR es una medida objetiva de lacalidad de una señal de vídeo, no siempre coincide con la calidad percibida por el usuario, comoveremos en la sección 7.2.
CAPÍTULO 3. COMPRESIÓN DE VIDEO DIGITAL 29
Figura 3.17: Calidad de la codificación en H.264 y MPEG-2 en términos de PSNRde la componente de Luminancia. PSNR frente a tasa de bits (izquierda) y ahorrorelativo de ancho de banda frente a la PSNR (derecha). [8]
CAPÍTULO
4Transmisión de datos sobre
redes móviles
A continuación pasamos a comentar de forma breve una panorámica de la
comunicaciones móviles con servicio de transmisión en modo paquete o data-
grama. En este sentido, distinguiremos dos tipos de redes: aquellas cuya principal
función es la conexión para transmisión de paquetes y aquellas donde esta fun-
ción complementa a otras características, como voz, videotelefonía o mensajería.
Esta distinción se refleja en las secciones 4.1, donde abordaremos las redes que
combinan servicios de paquetes con servicios de telefonía, y 4.2, donde veremos
las redes de uso exclusivo en modo paquete.
4.1. Redes Telefónicas
GPRS
La tecnología GPRS es una mejora paralela construida sobre el estándar GSM.
Esto significa que se mantiene la estructura de la interfaz radio invariable, pero el
contenido se construye de manera diferente para dar soporte al tráfico de paque-
tes, implementándose canales específicos en la estructura de trama de GSM.
Por defecto, el tráfico GPRS se considera de prioridad secundaria en la interfaz
radio de GSM. Cuando es necesario acelerar el tráfico GPRS, el operador puede
optar por asignar de manera fija una cierta cantidad de canales físicos al tráfico
de paquetes. Cada uno de estos canales de tráfico de paquetes (PDCHs) se mapea
sobre una ranura de tiempo.
Diferentes autores han estudiado la calidad de servicio proporcionada por GPRS,
30
CAPÍTULO 4. TRANSMISIÓN DE DATOS SOBRE REDES MÓVILES 31
Tabla 4.1: QoS en GPRS. Throughput de pico[9]
Clase Throughput de pico (bps)1 80002 160003 320004 640005 1280006 2560007 5120008 10240009 2048000
y su comportamiento mediante diferentes simulaciones [9][10]. En este sentido,
la revisión de 1999 del estándar GPRS introduce parámetros de calidad de servi-
cio de granularidad mucho más fina, permitiendo una utilización más eficiente de
la red por parte del operador. La Calidad de Servicio (QoS) se establece en térmi-
nos de fiabilidad del servicio, tasa pico, tasa media o incluso de tasa garantizada.
Aunque la tasa de pico tiene valores considerablemene altos, esta tasa no está ni
mucho menos garantizada, ya que mide la velocidad máxima a la que la red pue-
de transmitir la información de paquetes, en distintos puntos de referencia de la
arquitectura. Es por ello que tiene mucho más sentido evaluar el comportamiento
de GPRS en términos de throughput medio. En las tablas 4.1 y 4.2 se muestran las
tasas de pico y el throughput medio alcanzado por las distintas clases de servicio
de GPRS.
Para valorar las aplicaciones soportadas por GPRS hay que tener en cuenta el
momento en el que se definió el estándar (1997 en su primera versión). El prin-
cipal interés de los usuarios respecto a GPRS es el uso del correo electrónico, la
navegación por la web e incluso otros servicios multimedia, como la transmisión
de vídeo, aunque eso sí, a tasas binarias bajas (codificación mediante la recomen-
dación H.263 de la ITU), ya que en el mejor de los casos, GPRS permite al usuario
un tráfico continuado de paquetes de hasta 110 Kbps.
CAPÍTULO 4. TRANSMISIÓN DE DATOS SOBRE REDES MÓVILES 32
Tabla 4.2: QoS en GPRS. Throughput medio[9]
Clase Throughput medio (bps)1 0.222 0.443 1.114 2.25 4.46 11.17 228 449 111
10 22011 44012 111013 220014 440015 1110016 2200017 4400018 11100031 best effort
UMTS
Introducción a la telefonía de Tercera Generación
Las limitaciones de los estándares de primera y segunda generación produ-
jeron que un consorcio (3GPP1) formado por multitud de entidades, fabricantes
y operadores se encargara de realizar la especificación de la telefonía de tercera
generación, conocida como 3G. El objetivo de esta nueva generación de telefonía
móvil era plantear un sistema universal de telefonía móvil, que no estuviera limi-
tado a países o regiones. Por otra parte, el nuevo sistema de telefonía debía ser
capaz de mejorar la eficiencia del uso del espacio radioeléctrico y a la vez soportar
mejores y novedosos servicios. Estas dos características son las que dan nombre
al estándar UMTS: Sistema Universal de Telecomunicaciones Móviles, donde que-
dan claras las intenciones de universalidad y de proporcionar comunicaciones de
todo tipo, no sólo telefónicas.
1Third Generation Partnership Project
CAPÍTULO 4. TRANSMISIÓN DE DATOS SOBRE REDES MÓVILES 33
La tecnología 3G introduce el uso de WCDMA2: un nuevo método de acceso
radio diferente de el acceso por división en tiempo (TDMA3) utilizado en GSM,
que en determinadas condiciones es más eficiente que TDMA y más apropiado
en el caso de transmisión de paquetes.
Figura 4.1: Técnica básica del espectro ensanchado por secuencia directa(DSSS)[13]
La tecnología WCDMA emplea la técnica de Espectro Ensanchado por Secuen-
cia Directa (DSSS), cuyo principio básico se ilustra en la figura 4.1. La señal de da-
tos de WCDMA se aleatoriza con un código de pseudorruido (PN) específico para
cada usuario en la parte de la unidad transmisora con el fin de ensanchar la señal
por toda la banda. En la unidad receptora, la señal recibida se extrae utilizando la
misma secuencia de código, ver figuras 4.2 y 4.3.
En WCDMA se llama bit al bit del flujo original de datos de usuario, mientras
que el bit de código utilizado para el ensanchamiento se denomina chip. La ve-
locidad binaria del código utilizado para el ensanchamiento de la señal original
es de 3.84 Mchip/s. En qué medida se ensanche la señal depende del factor de
ensanchamiento asociado. El factor de ensanchamiento es un multiplicador que
describe el número de chips utilizados en el trayecto WCDMA por cada símbolo
(un símbolo no tiene por qué corresponder con un bit de usuario). En la tabla 4.3
se pueden observar las relaciones entre las tasa de símbolos, las tasas binarias y
los factores de ensanchamiento utilizados en el canal ascendente y descendente
de WCDMA.
2Wideband Code Division Multiple Access: Acceso múltiple por división en código de banda an-cha
3Time Division Multiple Access:Acceso Múltiple por División en el Tiempo
CAPÍTULO 4. TRANSMISIÓN DE DATOS SOBRE REDES MÓVILES 34
Figura 4.2: Funcionamiento del ensanchado en WCDMA [14]
Figura 4.3: Funcionamiento de la división en código como método de acceso múl-tiple [14]
UMTS Release 99
La primera versión del estándar desarrollado por el 3GPP se conoce como Re-
lease 99. Con esta versión, las velocidades de transmisión soportadas son de 64
Kbps en modo circuito y de 384 Kbps para transmisión de paquetes en bajada y
128 Kbps en subida4, triplicando así las velocidades ofrecidas por GPRS.
4En adelante las velocidades de subida y bajada se expresarán de la forma Bajada/Subida. Ej:384/128 Kbps
CAPÍTULO 4. TRANSMISIÓN DE DATOS SOBRE REDES MÓVILES 35
Factor deEnsanchado
Dirección Ascendente Dirección DescendenteKsímbolo/s Kbit/s Ksímbolo/s Kbit/s
4 960 960 960 19208 480 480 480 960
16 240 240 240 48032 120 120 120 24064 60 60 60 120
128 30 30 30 60256 15 15 15 30512 - - 7.5 15
Tabla 4.3: Relación entre el factor de ensanchado, tasa de símbolos y tasa binariaen WCDMA
Evolución de UMTS: HSPA y LTE
EL estándar UMTS descrito por el 3GPP, lejos de permanecer constante, ha su-
frido numerosas evoluciones, proporcionando al usuario nuevas funcionalidades.
Además, la aplicación de las mejoras mediante evolución permite a los operadores
la introducción paulatina de las tecnologías, ya que los terminales de una versión
posterior son siempre compatibles con redes de versiones anteriores y viceversa.
Las releases 05 y 06 introdujeron importantes mejoras en la capacidad de las
redes 3G para la transmisión de paquetes. No en vano, son conocidas por sus so-
brenombres (HSDPA/HSUPA5: Acceso de paquetes de alta velocidad descenden-
te/ascendente), donde quedan patentes las nuevas capacidades. Con las mejoras
introducidas por las releases 05 y 06, las velocidades soportadas para la transmi-
sión de paquetes crecen hasta los 14/5.76 Mbps. Estas velocidades son teóricas6, y
actualmente no son soportadas por los operadores en territorio nacional, siendo
las velocidades ofrecidas comercialmente de 7.2/2 Mbps. Las siguientes revisiones
del estándar, añaden modulaciones, MIMO y otras técnicas, mejorando conside-
rablemente las velocidades teóricas, llegando a 42/11.5 Mbps.
El 3GPP también se encarga de describir las características a largo plazo del
sistema 3G, en lo que se ha dado en llamar pre 4G o LTE: Long Term Evolution, es
decir la evolución a largo plazo del 3G. Con la llegada del pre4G, se espera poder
ofrecer throughputs de en torno a 100-300 Mbps.
5High Speed (Downlink/Uplink) Packet Access6Al hablar de velocidad teórica se hace referencia a que son velocidades alcanzadas por un úni-
co usuario en la celda. No obstante, el sistema de planificación característico de HSPA permite unuso eficiente de la capacidad disponible, realizando planificaciones a corto plazo cada 2 o 10 ms.
CAPÍTULO 4. TRANSMISIÓN DE DATOS SOBRE REDES MÓVILES 36
802.11b 802.11a 802.11gFrecuencia (GHz) 2.4 5 2.4Tasa Binaria (Mbps) 1, 2, 5, 11 6, 12, 24, 54 54Intervalo (µs) 20 9 20, 9Alcance (interiores/exteriores) (m) 50/100 10/50 50/100
Tabla 4.4: Parámetros básicos de la tecnología 802.11 en sus distintas versiones
4.2. Redes No Telefónicas
A continuación veremos brevemente algunas de las características de dos tec-
nologías inalámbricas de transmisión de paquetes: Wi-Fi y WiMAX.
Wi-Fi
La norma IEEE 802.11 es la familia de especificaciones de la tecnología co-
mercial llamada WLAN7 o Wi-Fi. Hablamos de familia puesto que existe todo un
conjunto de posibilidades con distintas características, que se resumen en la tabla
4.2. Aunque el uso de esta tecnología se limita casi en exclusiva a entornos do-
mésticos y de oficinas, hemos decidido incluirla debido a su gran aceptación y a la
multitud de dispositivos que soportan alguna de las variantes de la norma: desde
cámaras fotográficas o impresoras, a teléfonos móviles y ordenadores personales.
WiMAX
WiMAX es el Acrónimo de Worldwide Interoperability Microwave Access y hace
referencia al estándar IEEE 802.16, en sus dos versiones: 802.16d8, publicada en
2004 y que da soporte al acceso fijo y la versión 802.16e, publicada en 2006 y que
introduce soporte de movilidad. Las principales características de WiMAX son las
siguientes:
Sistema Celular. WiMAX propone un sistema celular con múltiples modulacio-
nes, lo que le permite utilizar adaptación de enlace para ajustarse a las con-
diciones de radiopropagación del medio, como ilustra la figura 4.4.
7Wireless Local Area Network8También conocida como 802.16-2004
CAPÍTULO 4. TRANSMISIÓN DE DATOS SOBRE REDES MÓVILES 37
Frecuencias. Se utilizan frecuencias licenciadas en el rango entre 2.5 y 11 GHz.
El uso de frecuencias licenciadas minimiza las interferencias por parte de
usuarios ajenos, mejorando así una de las deficiencias de las redes Wi-Fi.
Tasas binarias. Según las condiciones del canal radio, se pueden conseguir tasas
de hasta 100 Mbps, aunque aproximaciones más realistas sitúan las veloci-
dades de transmisión en torno a los 10 Mbps.
Alcance. El alcance proporcionado para cada una de las celdas de WiMAX es de
alrededor de 20 Km en exteriores, y de alrededor de 10 en interiores.
Figura 4.4: Adaptación de enlace en una celda WiMAX[15]
4.3. Tabla Resumen
A modo de resumen, en la tabla 4.3 se detallan los límites teóricos de las dis-
tintas tecnologías comentadas a lo largo de este capítulo.
CAPÍTULO 4. TRANSMISIÓN DE DATOS SOBRE REDES MÓVILES 38
GPRS HSPA WiFi WiMAXEspectro Radioeléctrico Licenciado Licenciado Uso Libre LicenciadoTasa de Bits (aprox.) 100 Kbps 5 Mbps 50 Mbps 10 MbpsAlcance <25 Km <5 Km <100 m <20 Km
Tabla 4.5: Tabla Comparativa de tecnologías
Como puede observarse, las tecnologías que mayores tasa binarias soportan
son WiMAX, WiFi y HSPA. Dado que WiFi utiliza la banda ciudadana en torno a
los 2.4 GHz, para un uso intensivo y/o comercial de transmisión de vídeo, se ha-
ce necesario utilizar alguna de las técnicas que utilizan espectro licenciado. Los
claros candidatos son WiMAX y HSPA, que son los dos sistemas que más se es-
tán explorando actualmente. En el próximo capítulo se comenta el estado del arte
de la transmisión de vídeo sobre IP, haciendo especial hincapié en las tecnologías
inalámbricas, especialmente WiMAX y telefonía móvil 3G.
CAPÍTULO
5Vídeo sobre IP
La transmisión de vídeo en tiempo real1 sobre redes IP ha experimentado un
importante avance en los últimos tiempos. De una parte, sistemas vídeo bajo de-
manda, proporcionan a los usuarios la posibilidad de disfrutar en el momento que
deseen del contenido que elijan. Por otra parte, existen sistemas de difusión (mul-
ticast) en los que un grupo de usuarios reciben contenidos de manera cableada o
inalámbrica.
A continuación comentamos diferentes trabajos desarrollados en este cam-
po, lo que nos permitirá conocer el estado del arte de la transmisión de vídeo en
tiempo real mediante redes IP inalámbricas. Comenzaremos explicando la torre
de protocolos que puede soportar este tipo de comunicaciones en la sección 5.1.
A continuación veremos diferentes casos particulares para tecnologías móviles.
Finalizaremos comentando el estado actual de las distintas iniciativas para la es-
tandarización de sistemas de televisión sobre IP.
5.1. Modelo de un sistema de transmisión de vídeo sobre
IP
En la figura 5.1 se muestra el diagrama funcional de un sistema de transmisión
de vídeo sobre redes IP. Se trata de una estructura cliente/servidor que conecta
1Al decir transmisión en tiempo real nos referimos a que el flujo de vídeo se está enviando parasu reproducción inmediata, cualquiera que sea el contenido del mismo (programación en directoo en diferido). Esta técnica, que no requiere la transmisión completa de la información para sureproducción, se conoce habitualmente como streaming.
39
CAPÍTULO 5. VÍDEO SOBRE IP 40
extremo a extremo la parte proveedora de vídeo con el(los) consumidor(es). En la
figura 5.2 se muestran las torres de protocolos que soportan una comunicación de
vídeo en streaming para esta arquitectura.
Figura 5.1: Arquitectura de un sistema de transmisión de vídeo sobre IP
Figura 5.2: Protocolos para soportar una transmisión de vídeo sobre IP
Contenido Audiovisual. El contenido audiovisual transportado puede ser de qual-
quier tipo, teniendo especial interés el estándar de compresión utilizado y
que este sea compatible con el sistema de empaquetado. Ejemplos de siste-
mas de codificación los hemos visto en capítulos anteriores.
Empaquetado. Una vez se tiene un flujo de vídeo codificado, éste ha de ser empa-
quetado y multiplexado junto al correspondiente canal o canales de audio,
CAPÍTULO 5. VÍDEO SOBRE IP 41
para su transporte a través de redes IP. Un sistema muy extendido para la
transmisión de contenidos audiovisuales en modo paquete son los streams
de MPEG-2.
RTP, UDP, TCP. Aunque el transporte del vídeo puede realizarse con otros proto-
colos, el binomio RTP2-UDP es la combinación ideal para la transmisión de
contenidos sensibles a retardos, y donde es preferible la pérdida de un pa-
quete a su retransmisión. En el caso de que el contenido sea sensible a pér-
didas y no a retardos, se puede optar por transportar el contenido directa-
mente sobre TCP, teniendo en cuenta que los tiempos de retransmisión son
considerablemente largos y que para proporcionar al espectador un flujo
continuado será necesaria una memoria intermedia que pueda almacenar
el contenido de al menos el mismo tiempo necesario para la retransmisión
de un datagrama TCP.
IP. IP es el protocolo que proporciona la comunicación extremo a extremo, inde-
pendientemente del número de concentradores y encaminadores que tenga
que atravesar la comunicación.
MAC, PHY. Las capas inferiores dependen de la infraestructura física concreta del
sistema, por lo que por ahora no entraremos en más detalles.
5.2. Vídeo sobre redes inalámbricas
Avances en compresión de vídeo
El soporte inicial para vídeo sobre redes de telefonía móvil ha descansado so-
bre los estándares H.263 y MPEG-4/Visual, aunque las tasas de compresión de
H.264 lo han colocado como el estándar preferido en la actualidad para sopor-
tar transmisiones de vídeo en condiciones de fuertes restricciones de tasa binaria.
Diferentes autores han valorado las posibilidades de utilizar compresión H.264
para su uso sobre diferentes tipos de redes inalámbricas, en particular, redes 3G
[19, 20, 21, 22] y WiMAX [23]. Además, el uso de la versión escalable de H.264
(H.264/SVC3) está siendo tenido muy en cuenta desde los propios organismos de
estandarización, como el 3GPP, ya que los servicios multimedia basados en 3G co-
2Protocolo para tiempo real (Real Time Protocol)3Scalable Video Coding
CAPÍTULO 5. VÍDEO SOBRE IP 42
mo MBMS4, podrían beneficiarse de las ventajas de escalabilidad que proporciona
esta nueva mejora del estándar, como subrayan Schierl [24] y Ruobin [25].
Un caso claro de las mejoras que supone el uso de la versión esclable lo expone
el trabajo de Atici et al.[26]. La difusión de vídeo en sistemas celulares introduce el
problema de optimizar el número de usuarios y la tasa media de paquetes deco-
dificados correctamente. Cuando se usa un sistema basado en WCDMA, como es
el caso de UMTS, un mayor número de usuarios activos en una celda incrementa
los niveles de ruido en la misma, por lo que las condiciones del medio varían con
cada nuevo usuario. Para ello Atici et al.[26] proponen el uso de la extensión de
Codificación Escalable de Vídeo del estándar H.264. Con esta técnica, se pueden
lograr calidades por niveles, de manera que los terminales con peores condiciones
de recepción reciban sólo el nivel básico de calidad mientras que los que, por el
contrario, disfruten de unas mejores condiciones de acceso al medio podrán reci-
bir niveles superiores que mejorarán la calidad recibida mediante el nivel básico.
En la figura 5.3 se puede ver un esquema de los niveles a los que pueden acceder
los distintos usuarios de una misma celda.
Esta filosofía de multicast en distintas capas ha sido utilizada sobre diversas
redes, y por supuesto, también sobre WiMAX. En el caso de WiMAX, Chiang et
al. [23] describen un sistema de prioridades para los usuarios, de manera que la
calidad percibida en momentos de congestión en la red disminuye para aquellos
usuarios con prioridades más bajas, que recibirán exclusivamente la capa más ba-
ja de la codificación escalable del flujo H.264. Esta misma técnica es descrita por
Schierl en [27], respecto a un sistema de transmisión de vídeo digital DVB-H5, para
poder ofrecer las siguientes características:
Dar servicio a terminales con diferentes capacidades, disminuyendo el an-
cho de banda necesario, ya que los terminales con pantallas pequeñas u
otras limitaciones podrían decodificar sólo una capa del flujo de vídeo, mien-
tras que los dispositivos más avanzados decodificarían además el resto de
capas.
Acceso condicional a determinadas calidades, mediante encriptación de las
capas más altas.
Degradación elegante de la señal, si se utilizan formas de protección de erro-
res distintas para cada capa. De esta manera, si la recepción de una capa
4Multimedia Broadcast/ Multicast Service5Digital Video Brodcasting - Handheld: Difusión de Vídeo Digital para dispositivos Móviles
CAPÍTULO 5. VÍDEO SOBRE IP 43
Figura 5.3: Zonas de cobertura para los distintos sub-flujos de vídeo
falla el dispositivo muestra la calidad resultante del resto de capas.
Introducción de mejoras de forma retrocompatible, simplemente mediante
la introducción de nuevas capas. Los terminales antiguos pueden seguir de-
codificando las capas antiguas, mientras que los nuevos obtendrían mejor
calidad incorporando las capas superiores.
En la figura 5.4 se representan de manera visual las posibilidades de utilizar SVC
para la transmisión de vídeo sobre IP.
Comportamiento frente a errores
Otro aspecto importante a tener en cuenta en cuanto a la transmisión de ví-
deo sobre redes inalámbricas es la calidad que se observa ante problemas en la
transmisión. En este sentido, el uso de sistemas de ocultación de errores (error
CAPÍTULO 5. VÍDEO SOBRE IP 44
Figura 5.4: Esquema de utilización de H.264/SVC para un transmisor inalámbricode DVB-H
concealment) se hace indispensable. Existen diferentes propuestas para mejorar
el comportamiento de la transmisión de vídeo a través de canales ruidosos, des-
tacando especialmente las técnicas FEC6 [28, 29, 30, 31, 32], ya que en sistemas
sensibles a retardo, las retransmisiones de información son muy desaconsejables,
por lo que se procura proporcionar algún tipo de redundancia en la transmisión
de manera que el cliente pueda corregir y/u ocultar los errores producidos en el
flujo de vídeo. Entre estas técnicas existen algunas [29, 30, 31, 32] donde se em-
plea el concepto de asignar distintas prioridades e importancias a paquetes para
los que se proporciona una redundancia adicional, de cara a conseguir una pro-
tección desigual contra errores (Unequal Error Protection).
Ha et al. [33] emplean un modelado del canal y de la distorsión para crear un
sistema de corrección de errores FEC adaptativo que procura, en la medida de lo
posible, ocultar el error (EC: Error Concealment) y evitar su propagación (EP: Error
Propagation). Ha et al. [33] proponen un sistema de asignación automática de pa-
quetes de corrección de errores en función de la distorsión prevista por el modelo,
de la siguiente manera proporcional a Dl la distorsión media prevista para el blo-
que de paquetes (BOP) l-ésimo. Es decir, cuanto más grave puede ser la distorsión,
se añade una mayor cantidad de bits de corrección.
A lo largo del trabajo se describe en detalle el método empleado y los resulta-
6FEC: Forward Error Correction
CAPÍTULO 5. VÍDEO SOBRE IP 45
dos obtenidos en términos de PSNR frente a otras técnicas de protección contra
errores: Equal-FEC y GRIP (GOP Resynchornization packet level Integration Pro-
tection) desarrollada por Yang [32] y frente a los datos sin protección. En la figura
5.5 podemos observar como el comportamiento de los métodos de Yang [32] y Ha
[33] es muy similar y superior a los demás métodos en el caso de existencia de
pérdida de paquetes, siendo Ha [33] la mejor opción de las contempladas. Es in-
teresante notar que para casos en los que no existe pérdida de paquetes, el mejor
esquema posible es la no existencia de corrección de errores, ya que en ese caso
todo el régimen binario disponible se dedica a comprimir el flujo de vídeo con
menor grado de pérdida.
Otra importante ventaja que aporta el método de Ha [33] frente al de Yang [32]
es una drástica disminución del coste computacional, lo que lo hace más apropia-
do pra transmisiones en tiempo real, como puede observarse en la figura 5.6.
CAPÍTULO 5. VÍDEO SOBRE IP 46
Figura 5.5: PSNR Media para dos vídeos distintos enviados con diferentes métodosde corrección de errores[33]
CAPÍTULO 5. VÍDEO SOBRE IP 47
Figura 5.6: Comparación del coste computacional de los métodos de Yang [32] yHa [33]
CAPÍTULO 5. VÍDEO SOBRE IP 48
Otro trabajo que puede resultar de amplio interés en la decodificación de ví-
deo es el realizado por Sabeva et al. [34], donde proponen un esquema de deco-
dificador combinado de canal y fuente (Joint Source Channel Decoder) específico
para el caso de utilizar compresión H.264. El método propuesto consiste en me-
jorar el coportamiento de H.264 durante la decodificación de paquetes de vídeo
con errores, mediante decodificación secuencial, en este caso usando el algorit-
mo MA [35]. En la figura 5.7 se muestra la mejora que proporciona este método en
términos de PSNR, para distintos valores del parámetro M del algoritmo MA. Un
ejemplo visual del resultado de esta decodificación robusta propuesta por Sabeva
et al. [34] podemos verlo en la figura 5.8.
Figura 5.7: Mejora en términos de PSNR del esquema de Decodificación de Sabeva[34]
CAPÍTULO 5. VÍDEO SOBRE IP 49
Figura 5.8: Un mismo fotograma con decodificación estándar y la propuesta porSabeva [34]
Un caso especial de degradación de la señal en sistemas celulares es el del
traspaso entre celdas. Este proceso, conocido como hand-off o hand-over, se des-
encadena de manera automática cuando el nivel de señal recibido por el terminal
móvil en una celda disminuye hasta llegar a niveles parecidos a los de la celda
contigua. En este sentido, el de proporcionar métodos de ocultación y corrección
de errores, se desarrolla el trabajo realizado por Kim et al. [36], donde se propone
un esquema que aporta robustez ante los errores a un sistema de transmisión de
vídeo sobre redes inalámbricas, en este caso WiMAX. El esquema propuesto con-
siste en incluir un fotograma (key frame) en la memoria a largo plazo del decodifi-
cador en cuanto se empiece a notar un descenso en el nivel de señal que indique
que se va a realizar un traspaso. Los fotogramas siguientes se codificarán con dos
referencias para la compensación de movimiento (LDMC7). Por último, cuando se
acaba el traspaso, se refresca el canal8 con otro fotograma tipo I. En general, este
procedimiento implica una modificación adaptativa del GOP, de manera que se
detenga la propagación del error. En la figura 5.9 puede observarse la estructura
del GOP original y la versión modificada para la ocultación de errores en traspaso.
El uso del sistema propuesto por Kim et al. [36] supone una mejora importante
del comportamiento frente a errores en transmisión de vídeo en redes inalámbri-
cas celulares, como puede verse en las imágenes de la figura 5.10, donde se mues-
tran tres fotogramas de un mismo vídeo con distintas técnicas de ocultación de
errores y la mejora que supone el esquema LDMC/CAR. La figura 5.11 muestra la
evolución de los niveles de señal que provocan el traspaso, junto con la evolución
7Long-term Double Motion Compensation8CAR:Channel Adaptive Refresh
CAPÍTULO 5. VÍDEO SOBRE IP 50
Figura 5.9: (a) GOP original en traspaso, (b) GOP modificado mediante el algorit-mo LDMC/CAR
de la tasa binaria de codificación y la PSNR obtenida en el cliente respecto al vídeo
original.
CAPÍTULO 5. VÍDEO SOBRE IP 51
Figura 5.10: Tres fotogramas durante el traspaso. (a-c) fotogramas originales, (d-f)fotogramas sin técnicas de ocultación de errores, (g-i) fotogramas con ocultaciónde errores por compensación de movimiento doble, (j-l) fotogramas con oculta-ción de errores por algoritmo LDMC/CAR
Figura 5.11: Evolución de los niveles de señal, tasa binaria y PSNR durante el tras-paso
CAPÍTULO 5. VÍDEO SOBRE IP 52
5.3. Estandarización de IPTV e IPTV Móvil
Para promocionar y coordinar el desarrollo de estándares IPTV globales, la
ITU-T forma en 2006 un grupo de enfoque llamado FG-IPTV. Más adelante, en
2008, el grupo IPTV-GSI tomó el relevo para realizar la estandarización. En este
ámbito, la ITU-T define la arquitectura IPTV y posteriormente la clasifica en redes
de nueva generación (NGN) y redes no-NGN. Entre las redes de nueva generación,
se puede incluir el Subsistema Multimedia basado en IP (IMS), como una aproxi-
mación a la IPTV móvil.
Existen diversas maneras de proporcionar IPTV Móvil [17]. La primera, parte
de agregar funcionalidades IP a las redes de difusión móvil ya existentes, en este
caso hablamos de TV Móvil + IP. En este área se desarrollan los trabajos del grupo
DVB-CBMS9, que elabora especificaciones de protocolos para la difusión bidirec-
cional basada en IP sobre DVB-H, el estándar que proporciona difusión de vídeo
digital a dispositivos móviles. Aunque TV Móvil + IP está clasificada como IPTV
Móvil, el uso de redes de difusión podría producir pérdida de la individualidad
que proporciona IP, como la comunicación interactiva punto a punto o los servi-
cios personalizados.
El caso contrario es el de añadir movilidad a los servicios existentes de IPTV. En
este caso, toman partido las empresas del sector de las telecomunicaciones, que
añaden la posibilidad de recepción de IPTV en los terminales móviles que usan sus
redes, así como los terminales fijos. El esfuerzo para elaborar las especificaciones
de IPTV Móvil, es relativamente reciente y está siendo llevado a cabo por parte de
la ITU-T, incluyendo IPTV móvil dentro de los objetivos del gripo IPTV-GSI.
Un tercer grupo de trabajo lo constituye OMA-BCAST10, un grupo que preten-
de ser un foro en el que diversas compañías acuerden los estándares que van a
utilizar para diversos servicios. La filosofía de OMA-BCAST es lograr proporcionar
servicios con independencia de la red, de manera que permite la interoperabili-
dad entre distintos dipositivos, operadoras y países. Sus objetivos respecto a IPTV
Móvil son definir un marco de trabajo para la difusión móvil, proporcionando ser-
vicios de difusión basados en IP.
9Digital Video Broadcasting’s Convergence of Broadcast and Mobile Services10Open Mobile Alliance’s Broadcasting Working Group
CAPÍTULO
6Solución propuesta
Como hemos visto, la mayor parte del esfuerzo realizado hasta la fecha pa-
ra modelar, simular y proponer sistemas de transmisión de vídeo sobre telefonía
móvil ponen el acento en la recepción del contenido en terminales móviles, que
tienen distintas limitaciones, como la visualización del vídeo recibido, que se rea-
liza en una pantalla de alrededor de 3 o 4 pulgadas, lo que implica que el servidor
fijo debe adaptar hacia abajo la calidad del vídeo para hacerlo apropiado para el
cliente móvil. Sin embargo, la solución que se plantea en este proyecto se basa en
intercambiar el modelo cliente/servidor,de manera que el servidor se hace móvil
y aprovecha al máximo los rescursos de que dispone (capacidad de procesado, ta-
sa binaria, etc.) para que el cliente fijo pueda obtener un contenido con la mayor
calidad posible.
6.1. Estructura detallada del sistema
Comenzamos comentando la estructura del sistema propuesto para propor-
cionar transmisión de vídeo en tiempo real desde una unidad móvil virtual hasta
un centro de producción de televisión, de manera que la señal de vídeo pueda ser
añadida al sistema de ingesta de un canal de televisión, para que el contenido sea
utilizado como directo o contribución en la programación.
El sistema propuesto consta de dos equipos claramente diferenciados, el pri-
mero es el que realiza las tareas de compresión, empaquetado y transmisión; mien-
tras que el segundo se encargará de recibir la señal de vídeo. Un esquema general
de la estructura puede observarse en la figura 6.1.
53
CAPÍTULO 6. SOLUCIÓN PROPUESTA 54
Figura 6.1: Estructura del sistema de Unidad Móvil Virtual
Equipo Portátil
El equipo principal del sistema es el servidor de vídeo portátil, cuyo objeti-
vo es sustituir las unidades móviles ENG/DSNG. A continuación describimos los
elementos que forman parte de este equipo:
Videocámara. Para el proyecto se cuenta con una videocámara profesional con
conexión FireWire a un PC portátil.
Módem USB. El servidor obtiene conectividad a una red IP (en nuestro caso, In-
ternet) mediante el uso de un módem USB proporcionado por Vodafone.
Se trata del modelo HUAWEI E-272, que puede verse en la figura 6.2. Este
módem es capaz de conectarse a diversas redes: GPRS, 3G Básico (UMTS
Release 99) y HSUPA (UMTS Release 06). En el proyecto hemos utilizado és-
ta última posibilidad, obteniendo velocidades de transmisión de 3 Mbps en
bajada y hasta 1.44 Mbps en subida.
PC Portátil. La base de la unidad móvil virtual es un PC portátil que se encarga
de recibir la señal de vídeo captada por la videocámara en banda base, co-
dificarla a la tasa de bits adecuada y transmistirla a través de la conexión
HSUPA establecida por el módem.
Equipo Fijo
Para la realización del proyecto, se ha instalado un PC en las instalaciones de
Radio y Televisión de Andalucía (RTVA), que se encarga de las tareas de recepción
CAPÍTULO 6. SOLUCIÓN PROPUESTA 55
Figura 6.2: Módem USB HSUPA
de vídeo, almacenamiento para su posterior análisis y monitorización del tráfico
recibido. La configuración del equipo consiste en un sistema operativo Linux, al
que se le ha configurado un servidor Secure Shell (SSH), y un analizador de pa-
quetes.
6.2. Pruebas realizadas
A continuación describimos las pruebas que se han realizado a lo largo del
proyecto. Comenzaremos detallando el flujo de trabajo seguido para realizar di-
chas pruebas, el establecimiento de la conexión HSUPA a la elección de los pará-
metros de codificación. Posteriormente comentaremos brevemente los dos tipos
de secuencias de vídeo utilizadas, atendiendo a su origen: archivos de vídeo o ví-
deo en directo captado por la videocámara.
Partimos de que la instalación del equipo fijo en RTVA mantiene el equipo
conectado a Internet, y con un servidor SSH a la escucha, esperando conexiones
entrantes por parte del equipo móvil.
En el extremo móvil de la comunicación, el PC portátil establece una conexión
CAPÍTULO 6. SOLUCIÓN PROPUESTA 56
a Internet a través del módem HSUPA. Posteriormente, se accede al cliente fijo
mediante SSH, desde donde lanzamos una conexión inversa de escritorio remoto,
mediante el protocolo VNC. Una vez aceptada la conexión entrante en el extre-
mo móvil, el acceso al equipo fijo permite iniciar la aplicación Wireshark, que se
encarga de monitorizar los paquetes que se reciben en el cliente.
Teniendo los dos equipos conectados a Internet, y el equipo fijo preparado
para monitorizar el tráfico, se comienza el envío de vídeo. Para ello, se recurre
a un software de transcodificación y streaming, que codifica el flujo de vídeo en
cuestión1.
El estándar de codificación elegido es H.264, elección que se hace en base a
las posibilidades que ofrece el estándar y que han sido comentadas a lo largo de
este documento. Al tratarse de una conexión con una fuerte restricción de tasa
binaria, se necesita un sistema de compresión capaz de proporcionar una calidad
aceptable con tasas de alrededor de 1 Mbps, lo que hace de H.264 el candidato
ideóneo para esta tarea. Como sistema de encapsulado para las señales de audio y
vídeo, utilizamos un transport stream de MPEG-2, que es capaz de transportar un
flujo H.264.
Entre los aspectos de transporte y red, destaca el uso del binomio RTP/UDP,
que como se ha comentado en la sección 5.1, es la mejor elección para realizar
transmisiones de contenido sensible a retardos.
Una vez comenzada la transmisión, el tráfico puede monitorizarse en tiempo
real mediante el acceso a escritorio remoto de VNC, aunque es preferible esperar
a que finalice el envío, puesto que el mantenimiento de la sesión VNC consume
recursos de red. De cualquier manera, una vez terminada la transmisión, el soft-
ware Wireshark permite por un lado comprobar la cantidad de paquetes perdidos
en la transmisión, y los tiempos de llegada entre ellos, así como recuperar el flujo
de vídeo a partir de los paquetes que han sido recibidos correctamente.
En cuanto al contenido de las transmisiones, distinguimos dos origenes dis-
tintos: archivos de vídeo y señal capturada mediante una videocámara. Es eviden-
te que para el objetivo real del proyecto, es decir, sustituir las unidades móviles
DSNG, la única opción posible es la de transmitir el vídeo capturado por la video-
cámara. Sin embargo, a la hora de realizar pruebas y evaluar las posibilidades del
sistema, es interesante utilizar archivos de vídeo por los siguientes motivos:
Facilidad de uso, ya que al eliminar dispositivos del sistema prototipo, se
1El flujo de vídeo puede ser o bien un archivo de vídeo o la señal entrante por FireWire si seutiliza la videocámara
CAPÍTULO 6. SOLUCIÓN PROPUESTA 57
reduce la complejidad del mismo y las posibilidades de fallo.
Contenidos de distintos tipos, puesto que se pueden utilizar diferentes ví-
deos con distintas resoluciones, distintas complejidades de movimiento, etc.
De esta manera, se puede probar el resultado del codificador en distintas
circunstancias.
Análisis de calidad de manera objetiva, al poder comparar la señal recibida
frente a la enviada, que también está almacenada en un archivo de vídeo.
A lo largo del siguiente capítulo mostraremos los resultados obtenidos con es-
te flujo de trabajo, en términos de pérdida de paquetes, y de calidad de vídeo al
comparar con la secuencia original, para lo que, como ya hemos comentado nos
basaremos en archivos de vídeo.
CAPÍTULO
7Resultados Obtenidos
A lo largo de este capítulo presentamos los resultados obtenidos a partir de las
pruebas realizadas, consistentes en el envío de distintos vídeos mediante el flujo
de trabajo descrito en el capítulo anterior. En dichas pruebas se han utilizado dos
tasas de codificación distintas para el flujo de vídeo: 768 y 1024 Kbps, mientras
que el flujo de audio consiste en un sólo canal codificado en MPEG1 a razón de
96 Kbps. Con estas tasas se alcanzan prácticamente los límites permitidos por la
tecnología usada.
7.1. Análisis del tráfico de paquetes
A continuación comentaremos brevemente los resultados obtenidos en térmi-
nos de tráfico de paquetes: cantidad de paquetes perdidos, retardos, etc. para uno
o varios enlaces simultáneos en la misma celda.
Paquetes perdidos en un enlace único
En la Figura 7.1 puede apreciarse como en más de la mitad de las experiencias
no se perdió ningún paquete, siendo éste el caso más probable (la moda de la
distribución). Obviando este caso, el siguiente en probabilidad corresponderia a
una pérdida de alrededor de 1 de cada 4500 paquetes transmitidos. Si tenemos
en cuenta que un flujo de alrededor de 5 minutos contiene entre 20.000 y 40.000
paquetes, la pérdida más probable sería de entre 4 y 9 paquetes (como ya hemos
dicho, obviando que en más de la mitad de los casos no se pierde ningún paquete).
58
CAPÍTULO 7. RESULTADOS OBTENIDOS 59
De cualquier forma, en el caso general, el valor esperado de paquetes perdidos es
de un 0,0089 % o lo que es lo mismo, uno de cada 11.250 paquetes enviados.
Figura 7.1: Paquetes perdidos para un enlace único - Datos Empíricos
Retardos en un enlace único
Los resultados experimentales muestran un retardo de entre 1 y 2 segundos
entre la señal de vídeo original y la señal recibida. Esto es así en las pruebas en
directo con dos PCs en los que se visualiza el vídeo, notándose un retardo mayor
al comenzar la transmisión. Por otro lado, la máxima desviación de retardo para
la llegada de paquetes es de alrededor de 200 ms, por lo que para una aplicación
que pretenda mostrar la señal de forma contínua se hace indispensable tener buf-
fers de tamaño superior a dicha cantidad. El valor medio del Jitter, o variación del
retardo entre paquetes, es de aproximadamente 10 ms.
CAPÍTULO 7. RESULTADOS OBTENIDOS 60
Figura 7.2: Retardo entre dos paquetes consecutivos
Paquetes perdidos en un enlace múltiple
En las pruebas realizadas, se incluyó un experimento en el que se dispusieron
varios enlaces funcionando simultáneamente. En este caso, se produce una mayor
demanda de ancho de banda al nodo B, y previsiblemente esta demanda no pueda
ser atendida. Los resultados demuestran que las pérdidas de paquetes aumentan,
sobre todo cuando se incrementa el número de módems HSUPA por encima de
2. En la Figura 7.3 puede apreciarse la frecuencia de ocurrencia de pérdida de pa-
quetes. En el histograma se observa que la probabilidad de pérdida de paquete es
mucho mayor, en este caso el valor esperado para la pérdida de paquetes supone
un 0,5 %, un incremento de más de 50 veces respecto al caso anterior.
CAPÍTULO 7. RESULTADOS OBTENIDOS 61
Figura 7.3: Paquetes perdidos para un enlace múltiple - Datos Empíricos
Retardos en un enlace múltiple
Además del incremento sustancial de la probabilidad de pérdida de paquetes,
un problema añadido de la transmisión simultánea desde varias fuentes situa-
das en la misma celda de la red de telefonía móvil es el peor comportamiento en
cuanto a retardos. Debido al comportamiento del scheduler en la estación base,
el ancho de banda disponible se va compartiendo entre los terminales. El resulta-
do es que los retardos entre paquetes consecutivos (aunque no contiguos en se-
cuencia, ya que pueden haber existido pérdidas) de un mismo flujo RTP aumenta
ostensiblemente, y de estar en torno a 200ms pasa a alcanzar niveles de hasta 20
segundos. En la Figura 7.2 puede observarse que él histograma contiene un modo
muy marcado en torno a 200 ms, que concentra cerca del 50 % de las ocurrencias,
mientras que el 50 % restante se distribuye en retardos más amplios, debido a las
transmisiones con mayor cantidad de pérdidas producidas por la incapacidad del
nodo B para atender todas las peticiones en el enlace ascendente.
7.2. Introducción a las métricas de calidad para vídeo
A lo largo del estudio se han realizado transmisiones de diferentes vídeos y se
ha evaluado de diversas formas la calidad de los mismos de forma comparativa,
es decir, para cada fotograma, se comparan la imagen de la secuencia original con
CAPÍTULO 7. RESULTADOS OBTENIDOS 62
la de la secuencia recibida. Las medidas que se han utilizado han sido la Relación
Señal a Ruido de Pico (PSNR) como medida no perceptual; y dos medidas que
procuran predecir la percepción de la calidad basándose en diferentes técnicas:
SSIM y VQM.
PSNR
Esta medida es muy usada en la práctica para muchas otras aplicaciones en
ingenieria, sin embargo, al ser una técnica no perceptual sino totalmente objetiva
los resultados que produce no se ajustan completamente a los que cabría espe-
rar de un estudio tipo MOS1. En sentido amplio, coincide con el Error Cuadratico
Medio (MSE) pero, la propiedad logarítmica (ver Ecuación 7.1) de la PSNR la ha-
ce más conveniente. La métrica puede aplicarse a cada uno de las componentes
de una imagen en color, pero dado que el sistema visual humano es mucho más
sensible las variaciones de luminosidad que a las de color, se optó por aplicarla
exclusivamente a la componente de luminancia (Y) del espacio de color YUV.
d(X ,Y ) = 10log102552nm
n,m∑i=1, j=1
(Xi , j −Yi , j )2(7.1)
SSIM
La métrica SSIM[37] consiste en procurar independizar factores como la lumi-
nosidad y el contraste del resto de la imagen para comparar de forma estructural
los objetos que aparecen en la misma (Figura 7.4). El desarrollo de éste método
surge por la necesidad de tener alguna medida más allá del Error Cuadratico Me-
dio o la PSNR, ya que el comportamiento de estas últimas métricas no proporcio-
nan suficiente información sobre los cambios que hay en la imagen, como puede
observarse en la Figura 7.5.
VQM
La métrica VQM descrita por Xiao [38] se basa en el uso de la Transformada
Discreta Coseno para aprovechar las propiedades espacio-temporales del sistema
de percepción humano. A su vez, Xiao se basa en la propuesta de Watson[39], aña-
diendo algunas mejoras como:
1Mean Opinion Score: esta técnica consiste en promediar la opinión de distintos expertos enanálisis de calidad de vídeo.
CAPÍTULO 7. RESULTADOS OBTENIDOS 63
Figura 7.4: Diagrama de un sistema de medida basado en la similitud estructural.
Figura 7.5: Imagen original y cinco copias con el mismo Error Cuadrático Medio(MSE=210).
Aplicar dos matrices SCSF (Función de Sensibilidad a Contraste Espacial):
una para imágenes fijas y otra para imágenes dinámicas, basadas a su vez
en las matrices de cuantización MPEG. La diferencia entre ambas es una
operación potencia proporcional a la tasa de fotogramas.
Se estima el valor de la métrica a partir del máximo valor de distorsión en
cada fotograma, ponderado con la media de distorsión. Según el autor, esto
CAPÍTULO 7. RESULTADOS OBTENIDOS 64
refleja el hecho de que una distorsión grande localizada enmascara la per-
cepción de pequeñas distorsiones en el resto del fotograma (Figura 7.6).
Figura 7.6: Imágenes con distinto VQM y media cero.
7.3. Análisis de calidad proporcionada por el sistema de
unidad móvil virtual
Los resultados obtenidos se basan en la aplicación de las técnicas menciona-
das a tres vídeos diferentes, en varias ocasiones, y con distintas tasas de codifica-
ción. Estas medidas muestran una dependencia de la calidad mucho más fuerte
con las caracteristicas del video que con la tasa de codificación. Habida cuenta de
que la tecnología permite un margen relativamente pequeño de mejora de la tasa
de codificación (nos movemos entre 768 y 1024 Kbps) esta puede ser la causa de
que la dependencia sea mucho mayor con las características del vídeo.
CAPÍTULO 7. RESULTADOS OBTENIDOS 65
Vídeo Sencillo
Se analizan a continuación las pruebas realizadas con material sencillo, con
pocos cambios de plano y con movimientos lentos y suaves. Las características
del material permiten al codificador una eficiencia muy alta a la hora de codificar
en tiempo real. En las figuras 7.7,7.8,7.9 se muestra un análisis gráfico de los datos
obtenidos. Como puede observarse, la mayor parte de los fotogramas tienen un
parecido bastante alto con el original, ya que la media de la PSNR se sitúa en los
44 dB. Este parecido se aprecia de una forma mucho más notable en la medida de
la Similitud estructural, cuyo valor medio es de 0,96 tantos por uno.
Figura 7.7: Vídeo Sencillo - Datos Empíricos de PSNR.
CAPÍTULO 7. RESULTADOS OBTENIDOS 66
Figura 7.8: Vídeo Sencillo - Datos Empíricos de SSIM.
Figura 7.9: Vídeo Sencillo - Datos Empíricos de VQM.
Vídeo Complejo
Mientras que con un vídeo sencillo apenas se encuentran problemas, y las pér-
didas de paquetes si son leves permiten que las técnicas de ocultación de errores
previstas por H.264 minimicen la visibilidad de los errores, al tratar con un vídeo
CAPÍTULO 7. RESULTADOS OBTENIDOS 67
más complejo, en el que las velocidades de los objetos son superiores, se com-
prueba un empeoramiento de la calidad (Figuras 7.10,7.11 y 7.12). En este caso,
analizamos los resultados para dos calidades distintas de video, codificándolo en
un caso a 768 Kbps y en otro a 1024 Kbps. Como puede observarse la mejoría es
pequeña al incrementar la tasa de codificación y las diferencias con respecto a un
vídeo sencillo consisten en un ensanchamiento de la función densidad de proba-
bilidad.
Figura 7.10: Vídeo Complejo - Datos Empíricos de PSNR.
CAPÍTULO 7. RESULTADOS OBTENIDOS 68
Figura 7.11: Vídeo Complejo - Datos Empíricos de SSIM.
Figura 7.12: Vídeo Complejo - Datos Empíricos de VQM.
CAPÍTULO
8Conclusiones
A lo largo del presente proyecto hemos avanzado desde las necesidades que
tienen los profesionales del sector audiovisual hasta una solución de transmisión
de vídeo sobre IP en tiempo real, basada en tecnologías inalámbricas. Para propo-
ner esta solución, hemos analizado las posibilidades que ofrecen las tecnologías
de compresión de vídeo y de transmisión inalámbrica. Además, hemos hecho un
breve resumen del estado del arte de la transmisión de vídeo sobre IP, y especial-
mente, de la transmisión sobre redes inalámbricas.
Los resultados muestran que la Unidad Móvil Virtual para ENG sobre HSUPA
propuesta en este proyecto, es una opción viable para la realización de conexiones
en directo en programas informativos, y para la transmisión de vídeo ya editado
para su uso como contribución en tiempo no real.
Se comprueba experimentalmente que la calidad empeora considerablemen-
te con la inclusión de nuevos usuarios si estos demandan ancho de banda al no-
do B en la misma medida. Sin embargo, con las próximas revisiones del estándar
UMTS, y a medida que las operadoras migren sus redes hacia nuevos estándares,
estos problemas irán haciéndose cada vez menos importantes, ya que, entre otras
cuestiones, las nuevas implementaciones de los estándares avanzan incorporan-
do parámetros de Calidad de Servicio con los que priorizar las comunicaciones de
uno u otro usuario.
Visto el potencial de la Unidad Móvil Virtual para el sector audiovisual, podría
plantearse la utilización de diversas tecnologías inalámbricas, especialmente Wi-
MAX y la utilización de distintas capas de calidad mediante H.264/Scalable Video
Coding. No obstante, si bien es posible introducir mejoras en la compresión de
69
CAPÍTULO 8. CONCLUSIONES 70
vídeo, dar el salto a otra tecnología inalámbrica supone un problema en lugares
donde no existan operadores de dicha tecnología. En nuestro caso, las pruebas
realizadas con WiMAX en España se reducen a un número pequeño de zonas de
cobertura, ofreciéndose principalmente servicios básicos de conexión a Internet
como alternativa a las líneas ADSL.
Finalmente, y como línea futura de trabajo, sería interesante comprobar el
comportamiento de la transmisión durante los traspasos entre celdas, mostrando
qué efectos tiene la movilidad en los resultados, y qué medidas se pueden adoptar
para paliarlos.
Agradecimientos
La elaboración de este proyecto fin de carrera se ha convertido en algo muy
diferente de lo que había imaginado desde que comencé los estudios de Ingenie-
ro de Telecomunicación. Como para muchos de mis compañeros de promoción,
mi intención era aprobar la carrera cuanto antes, obtener mi título y empezar a
trabajar en alguna empresa que me permitera vivir de manera holgada. Y ahora
estoy escribiendo la memoria de un proyecto fin de carrera en el que he trabaja-
do a lo largo de más de un año, que me ha permitido descubrir que hay opciones
laborales que pueden resultar más atractivas que las que a priori me llamaban.
Aunque inicialmente veía el proyecto fin de carrera como el final de una etapa
de aprendizaje y el principio de otra en la que poner en práctica los conocimien-
tos; ahora veo este proyecto como el punto inicial de una fase más ambiciosa de
conocimiento e investigación, para el que los estudios reglados no eran más que
los preparativos necesarios antes de emprender un nuevo y apasionante viaje.
Este cambio de visión acerca de lo que supone el título de Ingeniero de Teleco-
municación no habría sido posible sin los amigos, compañeros y profesores que
he encontrado en el Departamento de Teoría de la Señal y Comunicaciones.
Mientras me esforzaba para completar estos estudios, muchas son las perso-
nas que se han cruzado en mi camino que me han dejado un grato recuerdo en
algunos casos, y en otros una más que grata relación de amistad.
Otras personas, mi familia, me han acompañado durante todo este trayecto y
han estado siempre ahí para apoyarme cuando un examen no salía del todo bien
y para celebrar los que salían mejor de lo esperado.
Y también durante el tiempo que me ha llevado finalizar estos estudios he co-
71
CAPÍTULO 8. CONCLUSIONES 72
nocido a una persona que no sólo se ha cruzado en mi camino sino que me acom-
paña en el que tengo por delante, y que espero recorramos juntos durante mucho
tiempo.
No quisiera tampoco olvidar el apoyo institucional que he tenido a la hora de
realizar este proyecto, financiado por la Consejería de Innovación, Ciencia y Em-
presa de la Junta de Andalucía, en el Marco del Proyecto Minerva.
A todos ellos les dedico este trabajo de manera muy especial, y les agradezco
su cariño, amistad y ayuda.
Bibliografía
[1] Keith Jack. Video demystified: a handbook for the digital engineer. Elsevier,
2007.
[2] Khalid Sayood. Introduction to data compression. Elsevier, 2006.
[3] Barry G. Haskell. Digital video: an introduction to MPEG-2. Chapman & Hall
: International Thomson Pub, 1997.
[4] ISO/IEC 11172:1993. Coding of moving pictures and associated audio for di-
gital storage media at up to 1.5 Mbit/s. ISO, Ginebra, Suiza.
[5] ISO/IEC 13818:2000. Generic coding of moving pictures and associated audio
information. ISO, Ginebra, Suiza.
[6] ISO/IEC 3818:1996. Generic coding of moving pictures and associated audio
information. ISO, Ginebra, Suiza.
[7] S. . Kwon, A. Tamhankar, and K. R. Rao. Overview of h.264/mpeg-4 part 10.
Journal of Visual Communication and Image Representation, 17(2):186–216,
2006.
[8] T. Wiegand, H. Schwarz, A. Joch, F. Kossentini, and G. J. Sullivan. Rate-
constrained coder control and comparison of video coding standards. IEEE
Transactions on Circuits and Systems for Video Technology, 13(7):688–703,
2003.
73
BIBLIOGRAFÍA 74
[9] P. Stuckmann. Quality of service management in gprs-based radio access net-
works. Telecommunication Systems, 19(3-4):515–546, 2002.
[10] Papaoulakis N. Nikitopoulos D. Gkroustiotis E. Kechagias C. Karambalis C.
Karetsos G. Kyriazakos, S. Performance evaluation of gsm and gprs systems
based on measurement campaigns and statistical analysis. Conference Record
/ IEEE Global Telecommunications Conference, 2:1522–1526, 2002.
[11] A. Samjani. General packet radio service (gprs). IEEE Potentials, 21(2):12–15,
2002.
[12] G. Brasche and B. Walke. Concepts, services, and protocols of the new gsm
phase 2+ general packet radio service. IEEE Communications Magazine,
35(8):94–104, 1997.
[13] Heikki Kaaranen, Ari Ahtiainen, Lauri Laitinen, Siamäk Naghian, and Valtteri
Niemi. Redes UMTS. Arquitectura, movilidad y Servicios. Ra-Ma, 2006.
[14] Harri Holma and Antti Toskala, editors. WCDMA for UMTS, HSPA evolution
and LTE. John Wiley & Sons, 2007.
[15] Loutfi Nuaymi. WiMAX. Technology for Broadband Wireless Access. John Wi-
ley & Sons, 2007.
[16] Clint Smith and John Meyer. 3G Wireless with WiMAX and Wi-Fi. McGraw-
Hill Professional Engineering, 2004.
[17] S. Park and S. . Jeong. Mobile iptv: Approaches, challenges, standards, and
qos support. IEEE Internet Computing, 13(3):23–31, 2009.
[18] A. Q. Mohammed, R. Ahmad, S. K. Mohd, and T. Ahmad. Real time video
streaming over heterogeneous networks. volume 2, pages 1117–1122, 2009.
[19] Ye X.-Z. Zhang S.-Y. Zhang Y. Liu, L. H.264/avc error resilience tools suita-
ble for 3g mobile video services. Journal of Zhejiang University: Science, 6
A(SUPPL.):41–46, 2005.
[20] Zhang S.-Ye X. Zhang-Y. Liu, L. Error resilience schemes of h.264/avc for 3g
conversational video services. volume 2005, pages 657–661, 2005.
[21] Bing-J. Zhu-Wei-L. Ping Y. Zi-Jiang H. Xue-Wu, Z. End-to-end delivery strate-
gies for h.264 video streaming over 3g wireless networks. Number 525, page
333, 2006.
BIBLIOGRAFÍA 75
[22] Nasiopoulos P.-Leung V.C.M.-Fallah-Y.P. Connie, A.T. Video packetization te-
chniques for enhancing h.264 video transmission over 3g networks. pages
800–804, 2008.
[23] Lo-H.-F.-Lee-W.-T. Chiang, J.-C. Scalable video coding of h.264/avc video
streaming with qos-based active dropping in 802.16e networks. pages 1450–
1455, 2008.
[24] Stockhammer T.-Wiegand-T. Schierl, T. Mobile video transmission using sca-
lable video coding. IEEE Transactions on Circuits and Systems for Video Tech-
nology, 17(9):1204–1217, 2007.
[25] Weihua Z.-Jiang-H. Ruobin, Z. Scalable multiple description coding and dis-
tributed video streaming in 3g mobile communications. Wireless Communi-
cations and Mobile Computing, 5(1):95–111, 2005.
[26] Oguz Sunay-M. Atici, Ç. High data-rate video broadcasting over 3g wireless
systems. IEEE Transactions on Broadcasting, 53(1):212–223, 2007.
[27] Hellge C.-Mirta-S.-Grüneberg-K.-Wiegand T. Schierl, T. Using h.264/avc-
based scalable video coding (svc) for real time streaming in wireless ip net-
works. pages 3455–3458, 2007.
[28] Verscheure O. Frossard, P. Amisp: A complete content-based mpeg-2 error-
resilient scheme. IEEE Transactions on Circuits and Systems for Video Tech-
nology, 11(9):989–998, 2001. cited By (since 1996) 29.
[29] Stuhlmüller K.-Link-M.-Girod-B. Horn, U. Robust internet video transmis-
sion based on scalable coding and unequal error protection. Signal Proces-
sing: Image Communication, 15(1):77–94, 1999. cited By (since 1996) 125.
[30] Riskin E.A.-Ladner-R.E. Mohr, A.E. Unequal loss protection: graceful degra-
dation of image quality over packet erasure channels through forward error
correction. IEEE Journal on Selected Areas in Communications, 18(6):819–
828, 2000. cited By (since 1996) 198.
[31] Mersereau R.M.-Altunbasak-Y. Kim, J. Error-resilient image and video trans-
mission over the internet using unequal error protection. IEEE Transactions
on Image Processing, 12(2):121–131, 2003. cited By (since 1996) 65.
BIBLIOGRAFÍA 76
[32] Zhu C.-Li-Z.G.-Lin-X.-LingÑ. Yang, X. An unequal packet loss resilience sche-
me for video over the internet. IEEE Transactions on Multimedia, 7(4):753–
764, 2005. cited By (since 1996) 15.
[33] Yim C.-Kim-Y.Y. Ha, H. Packet loss resilience using unequal forward error co-
rrection assignment for video transmission over communication networks.
Computer Communications, 30(18):3676–3689, 2007.
[34] Jamaa S.B.-Kieffer-M.-Duhamel-P. Sabeva, G. Robust decoding of h.264 en-
coded video transmitted over wireless channels. pages 9–13, 2007.
[35] Mohan S. Anderson, J.B. Source and channel coding: an algorithmic ap-
proach. Kluwer Academic Publishers, Norwell MA.
[36] Choi-B.-D.-Park-C.-S. Park S.-H. Ko S.-J. Kim, H.-S. Channel adaptive error
resilience scheme for video transmission over mobile wimax. IEICE Transac-
tions on Communications, E91-B(10):3052–3059, 2008.
[37] Z. Wang, A. C. Bovik, H. R. Sheikh, and E. P. Simoncelli. Image quality as-
sessment: From error visibility to structural similarity. IEEE Transactions on
Image Processing, 13(4):600–612, 2004. Cited By (since 1996): 333.
[38] Feng Xiao. Dct-based video quality evaluation.
[39] A.B. Watson. Toward a perceptual video quality metric. In Human Vision,
Visual Processing and Digital Display, volume 3, pages 139–147, 1998.