SUBSECRETARÍA DE EDUCACIÓN SUPERIOR DIRECCIÓN GENERAL DE EDUCACIÓN SUPERIOR TECNOLÓGICA
INSTITUTO
INSTITUTO TECNOLÓGICO DE CD.GUZMAN
GUZM ÁN TECNOLÓGICO DE CD GU
TESIS TEMA:
SUPERVISIÓN Y MONITORIZACIÓN REMOTA VISUAL / AUDITIVA A TRAVÉS DE RED IP
PARA OBTENER EL GRADO DE: MAESTRO EN SISTEMAS SISTEMAS COMPUTACIONALES MPUTACIONALES
PRESENTA: AL ALEJANDRO CÁRDENAS NÚÑEZ
DIRECTOR DE TESIS: FRANCISCO MANUEL GONZÁLEZ SOLARES
Cd.
Guzmán Jalisco, México a Diciembre de 2011
2
2
RESUMEN
SUPERVISIÓN Y MONITORIZACIÓN REMOTA VISUAL / AUDITIVA A TRAVÉS T RAVÉS DE RED IP. El objetivo de esta tesis está orientado a la generación de un sistema de Software que sea capaz de capturar y transmitir video de una o varias cámaras a través de la LAN (Local Area Network o red de área local por sus siglas en inglés) e Internet para monitorear diferentes espacios (casa, oficina, escuela, guardería, etc.) con el objetivo de que además de vigilar de forma remota, sea capaz de grabar de forma manual o bien de forma automática cuando ocurra un evento relacionado con la detección de movimiento y/o ruido. En la actualidad las personas tienen la necesidad de observar en tiempo tiempo real lo que ocurre en otros lugares para tomar decisiones al respecto. En la tesis se estudian los diferentes codificadores y decodificadores de audio y video, así como los protocolos para transmitir audio y video por red IP. Se consideró que este producto y/o servicio, debe ser de bajo costo y asequible a cualquier persona que desee monitorear un lugar en particular. Actualmente existen pocas empresas que ofrecen sistemas de monitoreo a través de Internet, siendo muy alto el costo de servicios de video streaming en tiempo real, por lo que resulta ser inaccesible para el consumidor común, El avance en la capacidad y velocidad de transmisión de video y audio en el sector de las telecomunicaciones está provocando que aparezcan en el mercado nuevas y más eficaces soluciones de vídeo v ídeo vigilancia. El sistema se compone elementalmente de dos partes: Software y Hardware, el objetivo de la tesis radica en la parte del software que se encargará básicamente de procesar y comprimir la información para ser transmitida por LAN y por Internet usando VPN (Virtual Private Network o red privada virtual por sus siglas en inglés), ya que el resto de los componentes de hardware, serán adquiridos dentro de los que se ofrecen en el mercado, solo se controlará y adaptará su manipulación a través del software que se desarrolle el cual 1.0. será llamado posteriormente posteriormente como Ojovigi lante 1.0.
3
ÍNDICE GENERAL.
ANTECEDENTES ...............................................................................................................8 DEFINICIÓN DEL PROBLEMA. ......................................................................................... 9 JUSTIFICACIÓN. .............................................................................................................. 11 OBJETIVO. ........................................................................................................................ 12 HIPÓTESIS........................................................................................................................ 12 Limitaciones y delimitaciones............................................................................................ 12 MARCO DE REFERENCIA. .............................................................................................. 13 MÉTODO. .......................................................................................................................... 15 DESARROLLO. ................................................................................................................. 17 CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO .................... 41 1.1.- FORMATOS DE IMAGEN. ........................................................................................... 41 1.1.1.- Introducción. ...........................................................................................41 1.1.2.- Tipos de Imágenes. ................................................................................ 41 1.1.3.- Formato JPEG. ....................................................................................... 43 1.1.4.- Formato BMP.......................................................................................... 44 1.1.5.- Formato GIF. .......................................................................................... 44 1.1.6.- Formato TIFF. ......................................................................................... 44 1.1.7.- Formato PNG.......................................................................................... 45 1.2.- Formatos de audio. ................................................................................................... 46 1.2.1.- Introducción . ...........................................................................................46 1.2.2.- Formato MP3. ......................................................................................... 49 1.2.3.- Formato RA. ........................................................................................... 50 1.2.4.- Formato WAV. ........................................................................................50 1.2.5.- Formato GSM 6.10. ................................................................................ 51 1.2.6.- Windows Media Audio (WMA). .............................................................. 52 1.3.- FORMATOS DE VIDEO. ......................................................................................... 53 1.3.1.- Introducción. ...........................................................................................53 1.3.2.- Formato AVI............................................................................................ 55 1.3.3.- Formato Mpeg. .......................................................................................57 1.3.4.- Formato Microsoft Video 1. .................................................................... 60 1.3.5.- Formato Cinepak by radius. ................................................................... 60
4
1.3.6.- Formato Intel Indeo 5.05. ....................................................................... 61 1.3.7.- Formato Microsoft RLE. ......................................................................... 61 1.3.8.- Formato Windows Media Video (WMV). ................................................61 1.3.9.- Formato H.261. ....................................................................................... 62 1.3.10.- Formato H.263...................................................................................... 63 1.3.11.- Formato H.264...................................................................................... 63 1.3.12.- Conclusiones. ....................................................................................... 64 CAPITULO 2. ESTÁNDARES DE VIDEOCONFERENCIA. .....................................................67 2.1.- INTRODUCCIÓN. ..................................................................................................... 67 2.2.- ESTÁNDAR H.320. VIDEOCONFERENCIA SOBRE RDSI. ................................... 67 2.3.- ESTÁNDAR H.321. VIDEOCONFERENCIA SOBRE ATM . .................................... 69 2.4.- ESTÁNDAR H.322 . ................................................................................................... 70 2.5.- ESTÁNDAR H.323.VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP . ........................................................................................................................................... 70 2.6.- ESTÁNDAR H.324. VIDEOCONFERENCIA SOBRE POTS . .................................. 72 2.7.- ESTÁNDAR H.310. VIDEOCONFERENCIA SOBRE ATM –MPEG-2. ................... 73 2.8.- CONCLUSIONES. .................................................................................................... 73 CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP. ......... 75 3.1.- INTRODUCCIÓN. .....................................................................................................75 3.2.- DESCRIPCIÓN OFICIAL DEL H. 323. ..................................................................... 76 3.3.- ESTRUCTURA DEL H. 323. ..................................................................................... 77 3.4.- IMPORTANCIA DEL H. 323. ................................................................................... 78 3.5.- IMPLEMENTACIÓN DE LOS PRODUCTOS H.323. ...............................................79 3.6.- ARQUITECTURA H.323. ..........................................................................................80 3.6.1.- Terminales. ............................................................................................. 81 3.6.2.- Gateways. ...............................................................................................82 3.6.3.- Gatekeepers. .......................................................................................... 83 3.6.4.- Unidad Control Multipunto (MCU). .........................................................86 CAPITULO 4. STREAMING. ..................................................................................................... 90 4.1.- INTRODUCCIÓN. ..................................................................................................... 90 4.2.- STREAMING BAJO DEMANDA. .............................................................................. 91 4.3.- STREAMING EN VIVO. ............................................................................................ 91 4.4.- FORMATOS DEL STREAMING MEDIA. ................................................................. 92 5
4.5.- STREAMING MEDIA UNICAST . ..............................................................................93 4.6.- STREAMING MEDIA MULTICAST ........................................................................... 94 4.7.- DISTRIBUCIÓN DE CONTENIDO. .......................................................................... 96 4.8.- FUNCIONAMIENTO DEL STREAMING. ................................................................. 99 4.9.- VENTAJAS DE STREAMING. .................................................................................. 99 4.10.- TECNOLOGÍAS STREAMING. ............................................................................ 100 4.10.1.- Componentes de las tecnologías Streaming. .................................... 101 4.10.2.- Servidores de Streaming. ................................................................... 101 4.11.- CONCLUSIÓN. ..................................................................................................... 108 CAPITULO 5. RTSP Y RTP. ................................................................................................... 110 5.1.- INTRODUCCIÓN. ................................................................................................... 110 5.2. - RTSP (REAL TIME STREAMING PROTOCOL). .................................................. 110 5.3.- CARACTERÍSTICA DEL RSTP. ............................................................................. 110 5.4.- PROPIEDADES DEL PROTOCOLO RTSP . .......................................................... 112 5.5.- VENTAJAS DE RTSP. ............................................................................................ 113 5.6.- DESVENTAJAS DE RTSP. .................................................................................... 114 5.7.- RTSP VS. HTTP. .................................................................................................... 114 5.8.- RTP (REAL TIME PROTOCOL). ............................................................................ 115 5.9.- RTCP (REAL TIME CONTROL PROTOCOL). ...................................................... 115 5.10.- TRANSMISIÓN EN TIEMPO REAL. .................................................................... 116 CAPITULO 6. TRADUCCIÓN DE DIRECCIÓN DE RED. ...................................................... 120 6.1.- INTRODUCCIÓN. .................................................................................................. 120 6.2.- TRADUCCIÓN DE DIRECCIONES (NAT). ............................................................120 6.3.- MANIPULACIÓN DE CABECERAS. ...................................................................... 126 6.4.- NAT CON MÚLTIPLES DIRECCIONES. .............................................................. 128 6.5.- CONCLUSIÓN. ...................................................................................................... 128 CAPITULO 7. TCP Y UDP. ..................................................................................................... 130 7.1.- INTRODUCCIÓN. ................................................................................................... 130 7.2.- ARQUITECTURA TCP/IP. ...................................................................................... 130 7.3.- PROTOCOLOS TCP/IP. ......................................................................................... 132 7.4.- CARACTERÍSTICAS DE TCP/IP. ......................................................................... 132 7.5.- EN QUE SE UTILIZA TCP/IP. ................................................................................ 134 7.6.- PROTOCOLO UDP. ................................................................................................ 134 6
7.6.1.- Encabezado de UDP. ........................................................................... 140 7.6.2.- Formato del mensaje UDP. .................................................................. 141 7.7.- CONCLUSIÓN. ....................................................................................................... 142 CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN). ........................................................ 145 8.1 INTRODUCCIÓN. ..................................................................................................... 145 8.2. PROTOCOLO PPTP. ............................................................................................... 152 8.3. PROTOCOLO L2TP. ................................................................................................ 154 8.4. PROTOCOLO IPSEC............................................................................................... 155 8.5. PROTOCOLO MPLS................................................................................................ 160 8.6. CONCLUSIÓN.......................................................................................................... 160 PRUEBAS Y RESULTADOS .................................................................................................. 161 BIBLIOGRAFÍA. ....................................................................................................................... 164 GLOSARIO. ............................................................................................................................. 166
7
ANTECEDENTES
La videovigilancia es cada vez más necesaria debido al gran número de robos y maltrato a niños y ancianos por lo que los sistemas de videovigilancia han evolucionada enormemente en los últimos años. El avance en la capacidad y velocidad de transmisión de video y audio en el sector de las telecomunicaciones está provocando que aparezcan en el mercado nuevas y más eficaces soluciones de vídeo vigilancia. La utilización de sistemas de vigilancia han crecido exponencialmente en la última década, la preocupación por la seguridad (especialmente como consecuencia de los delitos de robo y abuso de confianza cometidos frecuentemente) hace que se necesiten sistemas de videovigilancia mas eficaces e inteligentes. Actualmente los sistemas de videovigilancia no pueden ni deben basarse sólo en la observación directa de lo que las cámaras están capturando, Sino de un software que en base a eventos como detección de movimiento realice tareas automáticamente como grabar video. A finales de los años noventa, muchos centros de investigación en todo el mundo desarrollaron algunos algoritmos informáticos sobre el procesamiento de vídeo inteligente y diseñaron sistemas específicos para aplicaciones de seguridad. Otro hecho que contribuyó al avance de la videovigilancia de forma notable fue que en 1997, la Agencia de Investigación de Proyectos Avanzados de Defensa (DARPA) iniciara un proyecto de tres años para desarrollar un sistema de Monitorización y Vigilancia de vídeo (VSAM). El objetivo del proyecto VSAM fue el desarrollo de tecnología automática de análisis de vídeo para su uso en aplicaciones urbanas y militares. Recientemente, en uno de sus informes el analista Simon Harris del IMS Research, argumenta que el uso de los sistemas de vídeo inteligente es sumamente urgente. Dice:
8
“Los operadores de CCTV están siendo sobrecargados con un contenido de vídeo que no pueden vigilar de forma eficiente. Los experimentos han demostrado que después de 22 minutos, los operadores que visualizan simultáneamente varios monitores de vídeo pueden pasar por alto acciones peligrosas que suceden en las escenas vigiladas. Necesitamos vídeo inteligente para mejorar la efectividad de los sistemas de vigilancia y aliviar la carga de los operadores”.
Borrmart, (Ed.). Seguritecnia, Revista independiente de seguridad.
DEFINICIÓN DEL PROBLEMA.
Una de las aplicaciones más usada en estos días es la vigilancia de la vivienda, con una cámara IP. Es decir una cámara cuyo video y audio podemos acceder desde cualquier lugar en el que tengamos acceso a Internet Actualmente existen en el mercado, pocas empresas que ofrecen sistemas de monitoreo a través de Internet, siendo muy alto el costo de servicios de video streaming en tiempo real, por lo que resulta ser inaccesible para el consumidor común, por lo cual. Lo que se pretende con el presente proyecto está directamente relacionado con el desarrollo de un sistema de monitoreo visual y auditivo en tiempo real por LAN y por Internet usando VPN (Virtual Private Network, red privada virtual por sus siglas en inglés) también se hará bajo demanda, es decir, solicitar video previamente grabado para descargarlo y visualizarlo localmente. Resultando un producto que sea funcional y de bajo costo, para que de esta manera pueda ser adquirido por aquellas personas que requieran de este tipo de servicios. Una de las razones principales en que está fundamentado el origen de este problema, reside básicamente en el hecho de que en la actualidad existe un auge cada vez mayor de personas que laboran o permanecen fuera de su hogar durante largas jornadas que van desde el alba hasta después del anochecer ya sea debido a la ubicación de su lugar de trabajo o bien a que viajan continuamente como parte de su misma tarea. Actualmente las personas trabajan en lugares muy distantes de donde viven lo que impide a mucha gente estar cerca de sus familiares y/o propiedades, por horas, días, semanas y hasta meses. Esta ausencia por periodos prolongados de un lugar específico, representa sin 9
duda alguna, una maravillosa oportunidad para identificar aquellos que se dedican a cometer ilícitos en contra de terceros, ya que contando con la identificación de casas habitación o negocios en donde no hay moradores y/o vigilancia de forma frecuente, disponen del tiempo necesario para efectuar sus tropelías. Uno de los ejemplos más representativos de este tipo de sucesos es el robo a casas habitación y negocios, el cual se efectúa con mayor índice de frecuencia durante los fines de semana y/o periodos vacacionales. Eso es tan solo un ejemplo de lo que podría ser evitado con el uso de un proyecto como el que aquí se pretende realizar; aunque también, es necesario mencionar el hecho de que existen otros muchos lugares en donde podría ser aplicado, ya que como es de todos conocido a través de los medios informativos, se encuentran los actos relacionados con el robo de infantes que se dan en hospitales, los cuales son sustraídos de manera ilícita por personas ajenas a la institución; de igual forma se han dado a conocer los hechos relacionados al maltrato a que son sometidos algunos infantes dentro de las instalaciones de casas habitación e instituciones de cuidado infantil, en donde, según se ha reportado a través de los medios de comunicación, la forma en que dichos menores son abusados por parte del personal a quienes los padres les confían a sus hijos. Por consecuencia, se tiene como objetivo el realizar la construcción de un sistema, que pueda ser utilizado por parte del usuario que en potencia es vulnerable a sufrir los efectos de hechos como los arriba mencionados. Solo que debe de tomarse en consideración que este producto y/o servicio, debe ser de bajo costo y asequible a cualquier persona que se pueda considerar así misma dentro de ese grupo mencionado, para que desde cualquier sitio en que se encuentre y desde su computadora personal, pueda realizar una revisión ocular (a través de una cámara) del lugar que le es de interés y así poder constatar que sus propiedades o infantes se encuentran de acuerdo a lo deseado. El sistema se compone elementalmente de dos partes: Software y Hardware, el objetivo de la tesis radica en la parte del software que se encargará básicamente de procesar el video y transmitirlo por red IP.
10
Los componentes de hardware, serán adquiridos dentro de los que se ofrecen en el mercado, según las necesidades particulares.
JUSTIFICACIÓN.
En la actualidad las personas tienen la necesidad de saber que esta ocurriendo en tiempo real en otro lugar que es de su interés personal o de su propiedad, entre los cuales se pueden mencionar los siguientes ejemplos:
•
En la oficina: Para verificar que los empleados cumplan realmente con sus funciones o
bien para controlar el tiempo que invierte el personal en desarrollar la actividad para la que fue contratado y el número de visitas que recibe durante el transcurso de la jornada laboral y todas las actividades relevantes al cuidado de los bienes materiales. •
Educación : Seguridad y monitorización remota de áreas de recreo de colegios, pasillos,
aulas y salas, así como seguridad de los edificios. Para evitar actos de vandalismo o incluso evitar la venta de drogas a estudiantes. •
Transporte : Monitorización remota de estaciones de tren y vías, autopistas, aeropuertos,
etc. Para evitar actos de terrorismo e identificar a los delincuentes. •
Admi ni strac ió n : En aplicaciones de vigilancia de seguridad, a menudo integradas con
sistemas de control de accesos nuevos o existentes. Para garantizar el acceso a personas autorizadas. •
En casa: para detectar posibles intrusos a la hora que ellos (los propietarios) se
encuentran ausentes, para verificar el estado y trato que tiene el infante que se deja al cuidado de otra persona. •
En la guardería: para ver el trato y cuidados que reciben los niños, así como el
comportamiento que tienen los mismos. •
Industria: Monitorización de procesos de fabricación, almacenes, para supervisar las
actividades de los obreros, verificar controles de nivel, etc. •
En los bancos: para detectar posibles actos delictivos en que puedan incurrir sus
propios empleados. •
En el hospital: para evitar el robo de niños por parte de personal no autorizado.
11
•
En cualquier lugar que se desee verificar el orden, como son el caso de los accesos a
las empresas, almacenes, etc. Por lo anterior, es que con el presente proyecto, se pretende desarrollar un sistema, el cual será capaz de permitir verificar las situaciones antes descritas.
OBJETIVO.
Diseñar un sistema de videovigilancia para procesar y transmitir video en tiempo real por LAN que sea eficiente y de bajo costo, de esta manera las personas pueden estar más tranquilas al cuidar sus bienes y el bienestar de su familia.
HIPÓTESIS.
Con el uso del software denominado “Ojovigilante 1.0” se podrán vigilar en tiempo real los lugares donde sea instalado, para cuidar bienes inmuebles, el abuso y maltrato de infantes y personas de la tercera edad. . LIMITACIONES Y DELIMITACIONES.
LIMITACIONES.
El sistema de videovigilancia sólo funciona en ambiente windows (windows 98, windows milenium, windows 2000, windows XP). DELIMITACIONES.
El sistema no puede evitar robos sólo graba la evidencia y desalienta a cometer ilícitos mediante el uso de alarmas sonoras. El sistema no tiene reconocimiento de rostros humanos.
12
MARCO DE REFERENCIA.
Para el desarrollo e implementación del presente proyecto, se contemplan todos los elementos que formarán parte del mismo, ya que del uso y acoplamiento que se realice con ellos se podrá obtener un resultado con mayor o menor grado de confiabilidad. Además, se debe de tomar en consideración que dentro del mundo computacional las aplicaciones que pueden ser realizadas o llevadas a la práctica, dependen en demasía en: las necesidades de los usuarios en potencia, los adelantos tecnológicos que se realicen en el área de electrónica de estado sólido y de comunicaciones. En la sección correspondiente a la forma en que se habrá de entablar la comunicación vía remota, se incluirá una investigación detallada sobre el protocolo TCP (Transfer Control Protocol por sus siglas en ingles o Protocolo de Control de Transferencia) /IP (Internet Protocol por sus siglas en ingles o Protocolo de Internet) y el UDP (User Datagram Protocol por sus siglas en ingles o Protocolo de Datagramas de Usuario). Sus características tales como: o
Funcionamiento en el modelo OSI.
o
Diferencias en el encabezado de datos.
o
Ventajas y desventajas de ambos protocolos. Además los protocolos HTTP (Hipertext Transfer Protocol por sus siglas en inglés o
Protocolo de transferencia de Hipertexto), RTP (Real Time Protocol por sus siglas en inglés o Protocolo de Tiempo Real), y RTSP (Real Time Streaming Protocol por sus siglas en inglés o Protocolo de flujos en Tiempo Real). De igual forma, se requiere de una investigación relacionada con los formatos de imágenes, Audio y video.
13
Servicio de video vig ilancia en el mercado.
Una investigación hecha sobre las empresas que ofrecen servicio de videovigilancia nos indica lo siguiente: Telmex (Video Vigilancia Administrada) Servicio de video monitoreo basado en tecnología
IP. Esta empresa ofrece servicio de video vigilancia con un cobro mensual por cámara. La cual ofrece los siguientes beneficios. •
Reduce al máximo la inversión en equipamiento.
•
Mejora la eficiencia operativa.
•
Monitorear y supervisar de manera confiable, la operación de su empresa.
•
Seguridad en su operación y en el resguardo de su información.
•
Simplifica cualquier investigación o análisis de las imágenes en vivo o grabadas.
•
Permite atender proactivamente incidentes, en lugar de reaccionar ante ellos.
•
Integra y utiliza equipos ya existentes, protegiendo las inversiones ya realizadas y bajando costos.
•
La renta del servicio le permitirá una actualización permanente tanto en software y hardware, bajo las políticas de contrato.
•
Servicio de visualización remota 1, 2, 4 y 7 CPS (cuadros por segundo) con 120 horas de grabación centralizada por cámara.
•
Diseño y configuración de la solución de acuerdo a necesidades del cliente.
Se requiere el servicio RPV Multiservicios Uninet de Telmex (Servicio de Transporte), el cual se diseña y se cobra por separado . Es un servicio exclusivo para clientes Infinitum que te permite monitorear tu casa a través de Internet mediante el uso de cámaras IP compatibles.
ServiGuard.
Al igual que Telmex se debe pagar una renta mensual por cámara instalada.
14
Avant el.
También con este servicio se debe pagar una renta mensual por cámara instalada. Video Guardián.
Es una empresa mexicana que ofrece servicio de video vigilancia incluye el software y el hardware.
MÉTODO. Para llevar a cabo el diseño del sistema de videovigilancia se investigarán las diferentes técnicas y tecnolog ías existentes como son:
•
Protocolos de transmisión de audio y video. Características.
o
Ventajas.
o
Desventajas.
o •
Algoritmos de codificación y decodificación. Características.
o
Ventajas.
o
Desventajas.
o •
Hardware disponible en el mercado.
•
Sistemas de videovigilancia existentes en el mercado
•
Para desarrollar el software del proyecto, se utilizará el lenguaje de programación Visual Basic 6.0, así como HTML y JavaScrip para la interfaz en Internet. Para crear un sistema de videovigilancia se investigarán los estándares de señales
digitales de audio y video (formatos de imagen, audio y video), estándares de videoconferencia, videoconferencia sobre IP, métodos de streaming, protocolos RTSP y RTP, traducción de dirección de red (NAT), protocolo TCP y UDP, redes privadas virtuales (VPN). Para determinar las posibilidades de desarrollar un sistema de videovigilancia IP. 15
Se hará una investigación de sistemas de videovigilancia existentes en el mercado para conocer sus características (servicios, precio, etc.) Para de esta manera determinar si es conveniente desarrollar un sistema de videovigilancia mejor y a bajo costo.
16
DESARROLLO DEL PROYECTO. El proyecto se desarrollo en lenguaje Visual basic 6.0. Utilizando una red de área local (LAN ) con tres computadoras: - Pentium II a 300 mhz con windows 98 - Pentium 4 a 1.3 ghz con windows 2000 - Laptop pentium 4 a 2.4 ghz con windows xp sp2 - Un switch Linksys. - Conexión a Internet a 2 mbs. - y tres cámaras web. La interfaz para internet se desarrollo utilizando HTML, ASP y JavaScript utilizando IIS (Internet Information Server) como servidor web. Interfaz para ver el sistema vía internet.
Para poder utilizar el navegador web y acceder al sistema de videovigilancia es necesario que se activen las opciones de activex en el navegador.
17
INTERFACES DEL SISTEMA DE VIDEOVIGILANCIA.
•
Pantalla principal.
Esta es la interfaz principal en donde se muestran cuatro pantallas, las dos pantallas superiores pueden transmitir video local y remoto y las dos pantallas inferiores son sólo para video remoto. - La pantalla superior-izquierda es para conectar la cámara local principal y es la única que puede transmitir video por la red. Conectar a dirección IP. Aquí se introduce la dirección IP del servidor de video al cual
desea conectarse para poder acceder a la cámara. Contraseña. Algunos servidores de video tienen contraseña para enviar video teclee aquí la
contraseña de lo contrario se negará el servicio de transmisión. Botó n (Conectar). Una vez que haya tecleado la dirección IP y la contraseña oprima este
botón, la petición se enviará al servidor y si es correcto empezará a recibir video.
18
Cámaras locales y remotas. En este cuadro se encuentran todas las cámaras disponibles
para recibir video, elija la cámara que desea con la contraseña y haga clic en el botón conectar.
•
Cámara prin cipal.
Interfaz que muestra lo que esta transmitiendo la cámara principal Caja de texto para elegir tamaño de imagen. En esta caja se encuentran todos los
tamaños de imagen soportados por la cámara conectada. Alarma vid eo. Seleccione este cuadro haciendo click dentro del el, si desea que la pantalla
active la alarma de detección de movimiento. Alarma audi o. Seleccione este cuadro haciendo click dentro del el, si desea que la pantalla
active la alarma de detección de audio. Mover cámara. Muestra una interfaz para mover la cámara al ángulo deseado. Grabar Video. Muestra una interfaz para grabar video.
19
Zoom. Muestra una interfaz para hacer zoom a la imagen. Propiedades. Muestra una interfaz para aplicarle varias propiedades a la imagen como
(brillo, contraste, matiz, etc.). Desconectar. Desconecta la cámara principal (si existen clientes recibiendo video les manda
un mensaje de desconexión).
•
Grabar audio y video.
Con esta interfaz podemos grabar video en formato WMV o AVI hasta que se oprima el botón “Parar captura” o durante el tiempo indicado en minutos y segundos. Cuando se graba en formato WMV puede elegir el perfil de grabación, es decir las características predefinidas con las que se grabará como son: tamaño de la imagen, cuadros por segundo, codificador de audio y video. La grabación en formato AVI será con el codec de audio y video que tengamos configurado en el sistema de videofigilancia.
20
La grabación por alarma siempre será en formato WMV con el perfil y el tiempo seleccionado. Para la grabación remota el cliente manda una solicitud para iniciar la grabación de video, el servidor empieza a grabar el video, cuando el cliente manda la solicitud de terminar grabación de video el servidor envía vía TCP una copia del archivo grabado.
•
Captur ar imágenes en fo rmato JPG.
Con esta interfaz se puede grabar una imagen en cualquier momento para copiarla al portapapeles o grabarla en un archivo, se hace doble click sobre la pantalla y aparecerá la interfaz, para refrescar la imagen basta con dar click sobre ella. En la detección de audio o movimiento se manda una imagen vía FTP para verla posteriormente si está activa la opción de envio, también se puede mandar un aviso junto con la imagen por SMTP sobre el evento ocurrido.
21
•
Configurar propiedades del video.
Con esta interfaz podemos configurar las propiedades de video e imagen de nuestra cámara como son: brillo, contraste, matiz, saturación, nitidez, gama, habilitar color, equilibrio de color, luz de fondo, ganancia, etc. •
Agreg ar cámar as remo tas .
22
Esta interfaz nos permite agregar, eliminar o modificar nuevas cámaras, el sistema una vez que se inicia busca cámaras conectadas en un rango de IPs, después busca las cámaras que tenemos dadas de alta en el sistema.
•
Visor de fo tografías.
Esta interfaz nos permite ver las imágenes grabadas manualmente o por alarmas.
•
Contr ol d e cámara PTZ (Pan, Tilt, Zoom).
Esta interfaz nos permite manipular la cámara para ver el ángulo deseado, horizontal, vertical y acercamiento. 23
Pan la cámara permanece en una misma posición, pero gira sobre su mismo eje, barriendo
todo el campo visual. Tilt es un movimiento vertical de la cámara en la que la cámara apunta hacia arriba o hacia
abajo desde una ubicación fija.
•
Chat de voz y escritur a.
Esta Interfaz sirve para realizar una comunicación escrita y oral con otros clientes conectados, también puede enviar archivos por TCP. Seleccione el usuario para chatear. En este cuadro aparecen todos los usuarios
conectados, también aparece el usuario “Todos” si elige este usuario le enviará el mensaje a todos los clientes conectados.
24
Computador a remota IP. IP. Aquí veremos los mensajes que nos son enviados. Computadora local. En este cuadro escribimos los mensajes que enviaremos al usuario
que indiquemos. Botón (Enviar archivo). Muestra una interfaz para poder enviar un archivo a otra
computadora. CHAT DE VOZ. Conectar con IP. Si conoce la IP y esta no aparece en la lista de cámaras escriba aquí la IP
y presione el botón “Marcar/Colgar”. Lista de cámaras. Nos muestra todas las cámaras con las que podemos comunicarnos elija
una y presione el botón “Marcar/Colgar”. Cuando se presiona el botón “Marcar” el sistema lanza una petición de comunicación, si es aceptada el botón cambia la leyenda a “Colgar”, para hablar mantenga presionado el botón con la imagen de celular.
•
Transferir archivo.
25
Esta interfaz nos permite enviar un archivo a otra computadora por TCP. Elegimos la IP o la computadora remota y presionamos el botón conectar, buscamos el archivo que queremos enviar, y presionamos el botón “Enviar archivo”. El sistema la usa automáticamente si esta habilitada la opción “Transferir archivo grabado por alarma a otra computadora” esto es con fines de respaldo y de seguridad ya que podrían destruir la evidencia en el equipo local.
•
Correo electrónico (SMTP).
Con esta interfaz podemos mandar un correo electrónico manualmente, el sistema también la utiliza para enviar un archivo de video al detectar audio y/o movimiento al destinatario que le indiquemos. El sistema envía automáticamente un archivo de video si esta habilitada la opción “Enviar correo electrónico si detecta movimiento” esto con fines de respaldo y seguridad. El servidor SMTP debe ser un servidor válido de correo, generalmente nuestro proveedor de internet nos otorga este servicio, aunque actualmente existen estos servicios gratuitos como los que otorga Hotmail, Yahoo, Gmail entre otros.
26
•
Transferencia remota de archivos (FTP).
Con esta interfaz podemos enviar un archivo manualmente, para alojarlo en un servidor remoto vía FTP. El sistema envía automáticamente un archivo de video al detectar audio y/o movimiento si esta habilitada la opción “Subir video local a Internet”. Datos de conexión. Nos pide el servidor FTP donde alojaremos nuestro archivo de video,
el usuario y contraseña de autenticación. Tipo de conexión. Modo activo. Se llama modo activo porque la transmisión de datos es iniciada como proceso
distinto desde el servidor, hacia el puerto que le hemos indicado. Modo pasivo. En modo pasivo es siempre el programa cliente el que inicia la conexión con el
servidor. Tipo de transferencia. Binaria. Este tipo es usado cuando se trata de ficheros comprimidos, ejecutables para PC,
imágenes, archivos de audio, archivos de video. 27
ASCII. Adecuado para transferir ficheros que sólo contengan caracteres imprimibles (ficheros
ASCII, no ficheros resultantes de un procesador de texto), por ejemplo páginas HTML.
•
Reprod ucto r de video.
Interfaz para reproducir el video grabado o recibido de otras cámaras.
•
Eliminar videos almacenados.
Con esta interfaz puede eliminar los videos históricos que ya no desee conservar y tener más espacio en disco duro. 28
•
Configu rar cámara remota.
Esta interfaz es muy especial y nos pide clave de acceso para poder utilizarla, con ella podemos configurar muchas de las propiedades de las cámaras remotas como: cambiar de cámara para transmitir video, Codificador de audio y video, apagar y encender cámara, apagar el sistema de videovigilancia, sensibilidad de detección de audio y movimiento, programar hora de detección automática, activar alarmas de audio y movimiento, etc.
29
•
Configu rar servidor web IIS.
Si deseamos transmitir por Internet es necesario crear y configurar el servidor web IIS (Internet Information Server), debemos tener instalado el servidor web, entramos a esta interfaz y presionamos el botón “Crear directorio virtual” si existe un servidor web, se crea el servicio con éxito de lo contrario nos indica que no existe un servidor web instalado..
•
Eliminar registros de sucesos.
Cuando ya no queramos el histórico de registros de sucesos entramos a esta interfaz y presionamos el botón “Eliminar registros”.
30
•
Opciones d el panel 1. Clientes conectados. Muestra los clientes que están
recibiendo video. Clientes Web. Muestra los clientes conectados vía
Internet. Sensibilidad de movimiento. Ajuste la sensibilidad del
0 al 100 entra más alto el valor más movimiento se necesita para que se active la alarma. Sensibilid ad de audio. Igual que la sensibilidad de
video, 0 al 100. Grabar video lo cal por alarma. Si está habilitada
graba un archivo de video en formato WMV con una duración indicada en segundos. Grabar audio en vid eo. Si está habilitada graba audio
y video de lo contrario sólo graba video. Subir vid eo a Internet. Si está habilitada sube el video
grabado por alarma a un sitio FTP. Enviar correo electrónico si detecta movimiento. Si
está habilitada manda un correo electrónico, indicando la cámara y el suceso ocurrido. Grabación con tinúa cámara 1. Si está habilitada graba
el video de forma continua en archivos de una hora cada uno. Grabar video remoto p or alarma. Si está habilitada le
indica al servidor de video del cual estamos conectados que si se activo una alarma nos mande una copia del video grabado. Seguir movimiento de personas. Esta opción es muy especial si está habilitada le indica a
todos los servidores que si detectan movimiento le transmitan video en tiempo real, de esta manera cuando una persona va pasando por las cámaras de video estas empiezan a mandar video al solicitante.
31
•
Opciones d el panel 2. Entrada de video. Muestra todas las entradas de video
que tiene la tarjeta. Codific ador de video. Muestra todos los codificadores de
video instalados en el sistema operativo. Dispositivos de audio. Muestra todos los dispositivos de
audio conectados en la computadora. Entrada de audio. Muestra todos los dispositivos
conectados para enviar audio. Codificador de audio. Muestra todos los codificadores de
audio instalados en el sistema operativo. Tipo de audio. Podemos elegir si queremos audio mono o
stereo de 8 o 16 bits, la frecuencia es de 8000, 11025, 22050 y 44100 Hz. Acti var alarmas d e aud io y mo vi miento. Si está
habilitada, se activan las alarmas a la hora indicada, si las alarmas no estaban activadas y se desactivan a la hora indicada si las alarmas están configuradas como desactivadas. Cuadros por segundo. Puede elegir los cuadros por segundo a los cuales transmitirá video
en un rango de 5 a 30 cps. Entre mayor sea el valor más ancho de banda consumirá.
32
•
Opciones d el panel 3. Elija una opción. En este cuadro se encuentran todas las
interfaces manejadas por el sistema, elija una dando click. Acti va sis tema al ini ci ar win do ws . Si está habilitada el
sistema de videovigilancia empezará a funcionar al encender la computadora. Mostrar fecha en video. Si desea que la fecha se grabe en
la transmisión de video habilite está opción. Duración d e la alarma de audio . Indique aquí la duración
de la alarma de audio en segundos. Arch ivo d e audi o. Elija el archivo que se reproducirá al
activarse la alarma de audio. Datos de la cámara. Escriba los datos de su cámara de
video, la dirección IP es tomada de la computadora, el nombre y ubicación de la cámara. Posici ón de la imagen. Si la cámara permite esta función
puede elegir la posición de la imagen.
33
Estructura funcional del sistema.
Cámara 2
Cámara 1 Servidor y Cliente 2
Servidor y Cliente 1
Cliente 3
Cliente 4
Para conectarse al sistema de videovigilancia hay dos formas: -Tener instalado el sistema de videovigilancia en la computadora. - Mediante un navegador de Internet (Internet Explorer). En la primera forma se tiene acceso al 100% de la funcionalidad del sistema, si no se tiene instalado el sistema y se entra mediante un navegador web solo podrá usar las opciones básicas del sistema.
34
Análi si s y pru ebas de co di ficad or es de video.
El sistema utiliza los codificadores y decodificadores de video y audio que tiene instalado el sistema operativo, también podemos instalar manualmente otros codificadores que queramos para que sean utilizados por el sistema de videovigilancia. Los codificadores de video más comunes de windows son: o
Microsoft MPEG-4 video codec V1
o
Microsoft MPEG-4 video codec V2
o
Microsoft MPEG-4 video codec V3
o
Microsoft Windows Media Video 9
o
Microsoft Video 1
o
Indeo video 5.1.0
o
Indeo video 5.10 compression filter
o
Intel indeo video R.3.2
o
Intel indeo video 4.5
o
Intel I.263 Video Driver 2.55.016
o
Codec intel IYUV
o
Cinepak codec by radius
o
Microsoft RLE
o
DVVideo encoder
o
VP60 Simple Profile
o
VP61 Advanced Profile
o
VP62 Heightned Sharpness Profile
o
X264-H264/AVC encoder
A continuación veremos las principales características y los resultados de los codificadores de video en una grabación de 15 segundos, 5 cuadros por segundo, 352 x 288 pixeles y velocidad de transmisión 128 kbs.
35
Resultados de las pruebas a los codecs de video más popu lares. Codec de video
Tamaño Promedio En 5 muestras
Calidad
Conclusión
Microsoft MPEG-4 video codec V1
495 Kb
Excelente
Microsoft MPEG-4 video codec V2
475 Kb
Excelente
Microsoft MPEG-4 video codec V3
470 Kb
Excelente
Microsoft Windows Media Video 9
148 Kb
Excelente
Microsoft Video 1
2682 Kb
Regular
Ideal para transmitir stream por Internet. Ideal para transmitir stream por Internet. Ideal para transmitir stream por Internet. Ideal para transmitir por internet por el tamaño. No se recomienda para transmitir por internet.
Indeo video 5.1.0
460 Kb
Bueno
Aceptable para transmitir por internet.
Indeo video 5.10 compression filter
440 Kb
Bueno
Aceptable para transmitir por Internet.
Intel indeo video R.3.2
500 Kb
Bueno
Aceptable para transmitir por Internet.
Intel indeo video 4.5
510 Kb
Bueno
Aceptable para transmitir por Internet.
Intel I.263 Video Driver 2.55.016
178 Kb
Bueno
Aceptable para transmitir por Internet.
Codec intel IYUV
11960 Kb
Bueno
Cinepak codec by radius
1450 Kb
Bueno
Microsoft RLE
6468 Kb
Mala
Mala calidad y un tamaño demasiado alto.
DVVideo encoder
9122 Kb
Regular
No es ideal para Internet, por el tamaño, y porque aplica zoom.
VP60 Simple Profile
170 Kb
Excelente
VP61 Advanced Profile
165 Kb
Excelente
VP62 Heightned Sharpness Profile
165 Kb
Excelente
x264-H264/AVC encoder
172 Kb
Excelente
Por el tamaño no se recomienda para transmitir por Internet. Cumple para transmitir por Internet.
Ideal para transmitir por Internet, se necesita instalar manualmente el codec. Ideal para transmitir por Internet, se necesita instalar manualmente el codec. Ideal para transmitir por Internet, se necesita instalar manualmente el codec. Ideal para transmitir por Internet.
36
Los codecs Cinepak y los de la familia Indeo son muy comunes en las versiones de windows y tienen una calidad aceptable para transmitir stream por internet. Los codificadores Microsoft MPEG-4 video codec versión V1, V2 y V3 también tienen una alta calidad de compresión y se encuentran presentes en las versiones de windows con la aplicación windows media player. Los codificadores VP60 Simple Profile, VP61 Advanced Profile y VP62 Heightned Sharpness Profile generan un video de tamaño reducido con una calidad aceptable, el inconveniente es que hay que instalarlos manualmente, ya que no vienen en las versiones del sistema operativo windows.
37
Análi si s y pru ebas de co di ficad or es de aud io .
Los codificadores de audio más comunes de windows son: IAC2
o o
IMA ADPCM
PCM
o
ACELP.net
o o
Windows Media Audio V1
o
Windows Media Audio V2
o
Microsoft G.723.1
o
Ley A CCITT
o
Ley u de CCITT
o
AC-3 ACM Codec
o
MPEG Layer 3
o
Vorbis encoder
A continuación veremos las principales características y los resultados de los codificadores de audio en una grabación de 15 segundos.
Codec de audio
Tamaño Promedio En 5 muestras
Calidad
Velocidad de transmisión
IAC2
415 Kb
Buena
32 Kbps
IMA ADPCM
626 Kb
Buena
128 Kbps
PCM
325 Kb
Buena
32 Kbps
ACELP.net
295 Kb
Buena
8 Kbps
Windows Media Audio V1
265 Kb
Buena
8 Kbps
Windows Media Audio V2
270 Kb
Buena
13 Kbps
Messenger audio codec
255 Kb
Buena
6 Kbps
38
Microsoft G.723.1
405 Kb
Buena
64 Kbps
Ley A CCITT
410 Kb
Buena
64 Kbps
Ley u CCITT
275 Kb
Buena
16 Kbps
MPEG Layer 3
515 Kb
Excelente
128 Kbps
Vorbis encoder
510 Kb
Excelente
128 Kbps
Todos los codificadores de audio tuvieron un buen desempeño tomando en cuenta la velocidad de transmisión. Los codificadores que transmiten a 128 Kbps fueron: o
IMA ADPCM tamaño promedio 626 Kb.
o
MPEG Layer 3 tamaño promedio 515 Kb.
o
Vorbis encoder tamaño promedio 510 Kb.
Si se tiene ancho de banda suficiente se recomienda MPEG Layer 3 y Vorbis encoder. Si no tiene suficiente ancho de banda se recomienda un codificador con una velocidad menor de transmisión de 16 Kbps como: o
Windows Media Audio V1 tamaño promedio 265 Kb, 8 Kbps.
o
Windows Media Audio V2 tamaño promedio 270 Kb, 13 Kps.
39
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO.
40
CAPITULO 1. EST NDARES DE SE ALES DIGITALES DE AUDIO Y VIDEO.
CAPITULO 1. ESTÁNDARES DE SEÑALES DIGITALES DE AUDIO Y VIDEO 1.1.- FORMATOS DE IMAGEN. 1.1.1.- Intr oducción. Existe una amplia gama de formatos de video como son: bmp, gif, jpg, etc. Pero no todos estos formatos son adecuados para una web, debido a que pueden ocupar mucha memoria o a que no son compatibles con algunos navegadores. Eso hace difícil el escoger el formato adecuado a las necesidades del usuario. A partir del trabajo con herramientas gráficas, el desarrollo de formatos se ha enfocado a la capacidad y calidad de la compresión de los archivos, ya que el archivo de imagen debe ser comprimido, porque el espacio que ocupará y su tiempo de transferencia serán menores, la combinación ideal residen en buena calidad de la imagen y tamaño reducido de archivo, y, los formatos más cercanos a esos estándares, son: GIF y JPEG, lo que es debido a las opciones de compresión que utilicen.
1.1.2.- Tipos de Imágenes. Para manipular los datos de un archivo de imagen, existen dos modos o formatos que permiten visualizarlas, éstos son: mapas de bits y vectoriales. Mapas de Bits.
Las imágenes de mapa de bits ( bitmaps ) están formadas por una rejilla de celdas. A cada una se le denomina píxel y se le asigna un valor de color y luminancia propios. Al ver un conjunto de celdas, se crea la ilusión de una imagen de tono continuo. El píxel es una unidad de información y puede ser muy pequeño (0.1 mm.) o muy grande (1 cm.). Cuando se crea una imagen de mapa de bits se genera una rejilla específica de píxeles y al modificar su tamaño, se transforma simultáneamente la distribución y coloración
41
CAPITULO 1. ESTÁNDARES DE SEÑAL ES DIGITALES DE AUDIO Y VIDEO.
de los píxeles, y los objetos de la imagen, se deforman por la pérdida o ganancia de píxeles que los definen. Por lo cual, las imágenes de mapa de bits se crean con un tamaño determinado y pierden calidad si se modifican sus dimensiones. Imágenes Vectoriales.
Los elementos constituyentes del vector, en una imagen vectorial, son las curvas de Bézier (desarrolladas por Pierre Bézier por encargo de la empresa Renault); cada una se define por los puntos: inicial y final de la curva (nodos o puntos de anclaje) y dos de control (manecillas o manejadores), estos últimos sirven para definir la forma de la curva y no aparecerán en la imagen final, y, para modificar la curva sólo se tiene que mover alguno de los nodos.
Estas curvas muy estilizadas y versátiles, son fáciles de manejar, ya que adoptan curvaturas muy suaves (casi líneas rectas) o muy fuertes (curvas complejas) que pueden adaptarse a infinitud de formas (por ejemplo iconos y logotipos) siendo útiles en el diseño y manipulación de fuentes de texto. En la imagen vectorial, cada objeto esta definido por sus propias fórmulas matemáticas y se puede manipular independientemente y cada objeto esta dividido en elementos independientes, por lo que no hay que modificar todo el objeto sino sólo una parte, controlando con gran precisión la forma, orientación y ordenación de los elementos de la imagen. La imagen vectorial también acepta la inserción de bitmaps, ya sea para rellenos de formas, o bien, como elementos separados. Sin embargo, se tiene la posibilidad de exportar los gráficos vectoriales a formatos estándar de mapa de bits.
42
CAPITULO 1. EST NDARES DE SE ALES DIGITALES DE AUDIO Y VIDEO.
Los gráficos vectoriales son muy eficaces en el manejo de texto, ya que admiten fuentes TrueType que son reconocidas como objetos vectoriales. A cada letra se le pueden asignar contornos editables y descomponer el texto en objetos. De esta manera, ya no hará falta tener instalada la fuente para seguir editando los contornos, porque ya no serán tratadas como fuentes.
1.1.3.- Formato JPEG. El formato Joint Photographic Experts Group (JPEG por sus siglas en inglés o Conjunto de Grupos de Expertos en Fotografía) se utiliza normalmente para mostrar imágenes de tono continuo en documentos de lenguaje marcado como hipertexto (HTML) en World Wide Web (WWW) y otros servicios electrónicos. El formato admite los modos de color
CMYK, RGB y escala de grises. A diferencia del formato GIF, conserva toda la información del color de la imagen RGB, aunque comprime el tamaño del archivo mediante la eliminación selectiva de datos. Al abrir una imagen con formato JPEG, se descomprime automáticamente; un nivel elevado de compresión produce una baja calidad de imagen, un nivel bajo, una calidad mejor. En la mayoría de los casos, al comprimir una imagen utilizando la opción de calidad máxima, se obtiene un resultado muy parecido al original. JPEG es un estándar ISO ( Internacional Standard Organization por sus siglas en inglés o Organización Internacional de Estándares) aprobado en 1992 para la compresión de imágenes fijas con y sin pérdida de información. El estándar se desarrolló para facilitar la transmisión y almacenamiento de archivos de imágenes estáticas. Una imagen de alta resolución y de alta calidad fácilmente puede necesitar 75 Mbytes o más de espacio en disco.
43
CAPITULO 1. EST NDARES DE SE ALES DIGITALES DE AUDIO Y VIDEO.
1.1.4.- Formato BMP. El formato BMP ( BitMaP por sus siglas en inglés o Mapa de Bits) es el formato de las imágenes de Windows. Su uso fue muy extendido, pero los archivos son muy grandes dado la escasa compresión que alcanzan. Admite los modos de color RGB, color indexado, escala de grises y mapa de bits. Puede escoger entre los formatos de Microsoft® Windows o de OS/2® y especificar una profundidad de bit para la imagen. En imágenes de 4 y 8 bits con formato Windows, también se puede especificar la compresión RLE.
1.1.5.- Formato GIF. Graphics Interchange Format (GIF por sus siglas en inglés o formato de intercambio de gráficos) es el más utilizado para mostrar gráficos de color indexado e imágenes en documentos de lenguaje marcado como hipertexto en la World Wide Web y otros servicios electrónicos. Es un formato con compresión LZW (desarrollado en 1997 por A. Lempel, J. Zif y Terry Welch) diseñado para minimizar el tamaño de los archivos y la duración de las transferencias electrónicas.
1.1.6.- Formato TIFF. El formato TIFF ( Tagged Image File Format por sus siglas en inglés o formato de archivo de imagen encadenado) fue desarrollado por Aldus Corporation en 1986, para guardar imágenes desde el escáner y programas para creación de imágenes y retoque fotográfico, su uso se basa en imágenes de mapa de bits. Es probablemente el formato de mapa de bits más versátil, seguro y con mayor soporte, ya que es capaz de describir los datos de una imagen desde 2 colores hasta color completo en varios espacios de tonos.
44
CAPITULO 1. EST NDARES DE SE ALES DIGITALES DE AUDIO Y VIDEO.
Se utiliza para intercambiar archivos entre aplicaciones y plataformas de computadoras y sistemas operativos. Es un formato flexible de imágenes de mapa de bits admitido por prácticamente todas las aplicaciones de pintura, edición de imágenes y diseño de páginas. Además, casi todos los escáneres de escritorio generan imágenes TIFF. El formato admite archivos CMYK, RGB y de escala de grises y archivos Lab, de color indexado y de mapas de bits, también admite compresión LZW.
1.1.7.- Formato PNG. PNG (Portable Network Graphics ) es un formato gráfico basado en un algoritmo de compresión sin pérdida para bitmaps no sujeto a patentes. Este formato fue desarrollado en buena parte para solventar las deficiencias del formato GIF y permite almacenar imágenes con una mayor profundidad de color y otros importantes datos. El PNG es un formato gráfico cada vez más usado en lugar de GIF. Se muestra correctamente en los navegadores, su uso está libre de derechos y permite una alta compresión así como una reproducción progresiva de imágenes con hasta 16,7 millones de colores.
45
CAPITULO 1. EST NDARES DE SE ALES DIGITALES DE AUDIO Y VIDEO.
1.2.- FORMATOS DE AUDIO. 1.2.1.- Intro ducc ión . Existen básicamente dos formatos que son tomados en consideración para ser manipulados e incorporados como parte del mundo análogo y digital, los cuales son el monoaural (o de un solo canal) y el estereofónico (o de dos canales), lo cual implica que al usar el formato monoarual no existe la separación de sonido, ya que independientemente de si son tonos agudos o graves se conjuntan en una sola vía o canal, mientras en el formato estereofónico, se separan los tonos agudos (por un canal) de los graves (por el otro canal). Éstos requieren por lo menos del doble de espacio que los primeros para su manipulación. Los archivos de audio estéreo sin comprimir y con calidad de CD requieren unos 150 kilobytes (KB) de espacio en disco duro por cada segundo de sonido. El tamaño de un archivo de sonido depende de la frecuencia de muestreo (frecuencia), del número de bits por muestra (calidad o riqueza del sonido) y de si el sonido es monoaural o estereofónico. Por ejemplo, una muestra de música mono de 16 bits a 22 kilohertz (kHz) requiere una velocidad de datos de 2.65 megabytes (MB) por minuto para reproducirlo tal como se grabó originalmente. Comprimir un archivo de sonido mediante un codec de audio es la mejor forma de almacenar archivos de audio en el disco duro del equipo o reproducir archivos de audio a través de una red con un ancho de banda limitado. Hay codecs de audio para distintos usos, algunos están optimizados para voz, mientras que otros son adecuados para sonidos y muestras de música con una velocidad de bits de baja a alta. Los codecs de audio orientados a voz (como DSP Group TrueSpeech o Microsoft Groupe Spécial Mobile -GSM 6.10 - por sus siglas en francés Grupo Especial Móvil
de Microsoft) permiten una compresión eficaz de los datos de voz. Los codecs de audio orientados a música (tales como Fraunhofer Institut Integrierte Schaltungen IIS (FhG) MPEG Layer-3 o Voxware MetaSound) permiten que el sonido con calidad cercana al CD se comprima a una cuarta parte de su tamaño original.
46
CAPITULO 1. EST NDARES DE SE ALES DIGITALES DE AUDIO Y VIDEO.
Existe una gran variedad de técnicas de codificación de audio, muchas no normalizadas y se emplean en diversos ámbitos. Aquí sólo se revisan brevemente algunas de las técnicas empleadas con más frecuencia, junto con las técnicas de transmisión de imágenes, que forman parte de estándares internacionales. Las técnicas de codificación de audio pueden dividirse en dos grandes grupos: las orientadas a sistemas de telefonía (transmiten señales vocales) o a la reproducción o transmisión de señales más genéricas que abarquen un espectro más amplio. En el primer caso, se acepta cierta limitación en las prestaciones del codificador para obtener una calidad que permita oír con comodidad la voz humana. En el segundo, se trata de optimizar los codificadores, de manera que cualquier distorsión o ruido añadido quede por debajo del umbral de percepción del oído humano. Al igual que en las técnicas de codificación de vídeo, una de las funcionalidades que históricamente se han buscado con más interés ha sido la compresión de las señales, con objeto de reducir la cantidad de información que es necesaria almacenar o enviar. Sin embargo, los factores de compresión que se consiguen son más limitados, debido posiblemente a que, en este caso, no existe tanta redundancia en la información. Los sistemas de codificación de audio con calidad musical parten generalmente de señales digitales obtenidas mediante el muestreo a 44.1 kHz, con resolución de 16 bits por muestra de las señales originales, con lo que se consigue un margen de frecuencias de 20Hz a 20 kHz y un margen dinámico de 90 dB, que se adapta bien a la capacidad de percepción del oído humano. Este formato, sin otra codificación adicional, es el empleado en los CDs y requiere un flujo de datos de 705 kbit/s por canal. Es posible reducir este flujo disminuyendo sólo la resolución de las muestras, con lo que se aumenta el ruido, o la frecuencia de muestreo, con lo que se reduce el margen de frecuencias. Los sistemas de codificación de audio utilizan técnicas para reducir la redundancia de la señal y emplean técnicas psicoacústicas para eliminar los sonidos que el oído humano no puede percibir. En la actualidad se consigue un buen nivel de calidad con alrededor de 1 bit
47
CAPITULO 1. EST NDARES DE SE ALES DIGITALES DE AUDIO Y VIDEO.
por muestra para señales vocales y 2 bits por muestra para señales musicales. Probablemente estos valores se reduzcan a la mitad en un futuro no muy lejano. Los có decs de audio se caracterizan por los s igui entes parámetros: Número de canales : un flujo de datos codificado puede contener una o más señales
de audio simultáneamente. De manera que puede tratarse de audiciones "mono" (un canal), "estéreo" (dos canales, lo más habitual) o multicanal. Los códec de audio multicanal se suelen utilizar en sistemas de entretenimiento "cine en casa" ofreciendo seis (5.1) u ocho (7.1) canales. Frecuencia de muestreo : de acuerdo con el teorema de Nyquist determina la
calidad percibida a través de la máxima frecuencia que es capaz de codificar, que es precisamente la mitad de la frecuencia de muestreo. Por tanto, cuanto mayor sea la frecuencia de muestreo, mayor será la fidelidad del sonido obtenido respecto a la señal de audio original. Por ejemplo, para codificar sonido con calidad CD nunca se usan frecuencias de muestreo superiores a 44,1 kHz, ya que el oído humano no es capaz de escuchar frecuencias superiores a 22 kHz. Número de bits por muestra . Determina la precisión con la que se reproduce la
señal original y el rango dinámico de la misma. Se suelen utilizar 8 (para un rango dinámico de hasta 45 dB), 16 (para un rango dinámico de hasta 90 dB como el formato CD) o 24 bits por muestra (para 109 a 120 dB de rango dinámico). El más común es 16 bits. Pérdida. Algunos códecs pueden eliminar frecuencias de la señal original que,
teóricamente, son inaudibles para el ser humano. De esta manera se puede reducir la frecuencia de muestreo. En este caso se dice que es un códec con pérdida o lossy codec (en inglés). En caso contrario se dice que es un códec sin pérdida o lossless codec (en inglés). El parámetro tasa de bits o bit-rate es el número de bits de información que se procesan por unidad de tiempo, teniendo en cuenta la frecuencia de muestreo resultante, la profundidad de la muestra en bits y el número de canales. A causa de la posibilidad de utilizar compresión (con o sin pérdidas), la tasa de bits no puede deducirse directamente de los parámetros anteriores.
48
CAPITULO 1. EST NDARES DE SE ALES DIGITALES DE AUDIO Y VIDEO.
1.2.2.- Formato MP3. Fue creado por el Moving Picture Expert Group, (diseñadores y programadores de normas de compresión de audio y video) trabajando bajo la dirección de ISO ( International Standards Organization por sus siglas en inglés u Organización Internacional de Estándares)
Se identifican con la extensión MP3, esta norma fue lanzada el año 1995 a Internet, actualmente se trabaja en el sucesor que será el MP4 con una compresión de 40 a 1. La calidad de sonido del MP3 y su pequeño tamaño lo ha hecho muy popular en Internet, su algoritmo se basa en la forma de escuchar que tiene el oído humano, pues las frecuencias que quedan fuera de la audición no son registradas en el archivo (las mayores de 20khz y las menores de 20hz). Esto se traduce en archivos mucho más pequeños, sin una perdida de la calidad del sonido. Al usar el formato a MP3 se puede reducir la pista de un CD a un factor de 12 a 1, (1 minuto de calidad CD en formato MP3 equivale a 1MB aprox.) pero lo mas importante es que no pierde calidad de sonido. Factores de incluso 24 a 1 son aceptables. El uso mas corriente que se la da a estos formatos es el de almacenamiento de música por lo que primero se debe grabar el CD en el disco duro del computador para luego pasarlo al formato MP3, para esto se debe tener un Ripeers que cumple la función de pasar desde formato CDA (CD) a Wav, (existen algunos CD que no aceptan ripeado), luego se debe tener un encoder estos programas pasan de formato Wav a MP3. Se debe tener en cuenta la calidad que se desea, a mayor tamaño de archivo mayor calidad. Esto se específica eligiendo los Kbps (512, 256, 128, 64, 32, 20, 16), los Khz (48000, 44100, 32000, 24000, 22050, 16000, 11025, 8000) y si es estéreo o mono y como es la calidad del Wav que se está trabajando. La desventaja de estos archivos es que se necesita una máquina potente pues usan a fondo el procesador, pues al igual que los formatos Zip deben descomprimirse para poder escucharse.
49
CAPITULO 1. EST NDARES DE SE ALES DIGITALES DE AUDIO Y VIDEO.
1.2.3.- Formato RA. (Real Audio por sus siglas en inglés o Audio Real): Es el formato más usado en Internet por su capacidad de reproducción en tiempo real, esto significa que mientras el archivo es bajado se escucha el sonido y cuando se termina de bajar el ya fue reproducido. Este formato fue desarrollado por RealNetworks. Esta empresa a puesto a disposición de los usuarios software para recibir y enviar en tiempo real (Tanto video como Sonido), La empresa es reconocida como una de las mas importantes en el mundo informático pues a puesto a su formato RA a la altura del Wav o del MIDI en popularidad. El problema mas grave que tiene es que puede cortarse la reproducción del audio cuando hay interrupción en la señal de datos, esto ocurre cuando el usuario usa un modem muy lento o hay mucho tráfico en la red. Real Audio desarrolla una mejora en su formato (RealSystemG2), que incrementa la frecuencia de audio en un 80% logrando en modem de 28,8 Kbps una mejora en la calidad del audio. El problema surge en el almacenaje pues producirá archivos demasiado grandes sobretodo para el envió por correo electrónico. Este producto puede tocar archivos antiguos de RA, Wav. Puede ser usado por Mac y PC. Programa Real Player para escuchar o ver videos desde Internet, sin la necesidad de almacenar en el disco duro. Es el más usado por su rapidez, el sonido tiene mejor calidad en las versiones nuevas.
1.2.4.- Formato WAV. (Waveform Audio File por sus siglas en inglés o Archivo de Audio en forma de onda). Uno de los formatos de fichero más utilizados para almacenar sonidos es el formato WAV. Se trata de almacenar las muestras una tras otra (a continuación de la cabecera del fichero,
50
CAPITULO 1. EST NDARES DE SE ALES DIGITALES DE AUDIO Y VIDEO.
que entre otras cosas indica la frecuencia de muestreo), sin ningún tipo de compresión de datos, con cuantificación uniforme. La sencillez de este formato lo hace ideal para el tratamiento digital del sonido. El formato WAV, es un formato de archivo originario de Microsoft Windows 3.1, tiene normalmente la extensión Wav. Es el formato para almacenar sonidos mas utilizado por los usuarios de Windows, lo flexible de este formato lo hace muy usado para el tratamiento del sonido pues puede ser compreso y grabado en distintas calidades y tamaños los Khz. van desde 11025, 22050, 44100). Aunque los archivos Wav pueden tener un excelente sonido comparable a la del CD (16 bits y 44,1 Khz. estéreo) el tamaño necesario para esa calidad es demasiado grande (especialmente para los usuarios de Internet) una canción convertida a Wav puede ocupar fácilmente entre 20 y 30 Mb. La opción mas pequeña es grabar a 4 bits y los Khz lo mas bajo posible, el problema es la baja calidad del sonido, los ruidos, la estática, incluso cortes en el sonido, por esta razón casi siempre se usa para muestras de sonido. La ventaja mas grande es la de su compatibilidad para convertirse en varios formatos por medio del software adecuado, un ejemplo de ello es pasar de Wav a Mp3.
1.2.5.- Formato GSM 6.10. El códec (Microsoft Groupe Spécial Mobile GSM por sus siglas en francés o Grupo Especial Móbil) está diseñado para la compresión eficaz de voz y resulta adecuado para el sonido orientado a voz con velocidades de bits de media a alta. GSM proporciona compresión 2:1 en tiempo real (siempre que el hardware sea lo suficientemente rápido para admitirlo), lo que convierte a este códec en una buena opción para grabar voz con la grabadora de sonidos. Si utiliza GSM para comprimir música puede obtener una calidad de sonido deficiente. GSM es conforme a la recomendación 6.10 del European Telecommunications Standards Institute (Instituto de estándares de telecomunicación europeo). El Sistema Global para las Comunicaciones Móviles (GSM) es un sistema estándar para comunicación utilizando teléfonos móviles que incorporan tecnología digital. Por ser 51
CAPITULO 1. EST NDARES DE SE ALES DIGITALES DE AUDIO Y VIDEO.
digital cualquier cliente de GSM puede conectarse a través de su teléfono con su ordenador y puede hacer, enviar y recibir mensajes por e-mail, faxes, navegar por Internet, acceso seguro a la red informática de una compañía (LAN/Intranet), asi como utilizar otras funciones digitales de transmisión de datos, incluyendo el Servicio de Mensajes Cortos (SMS).
1.2.6.- Windows Media Audi o (WMA). Windows Media Audio o WMA es un formato de compresión de audio con pérdida, aunque recientemente se ha desarrollado de compresión sin pérdida, es propiedad de Microsoft. A diferencia del MP3, este formato posee una infraestructura para proteger el Copyright y así hacer más difícil el " tráfico ilegal" de música. WMA es un codec de audio con pérdida basado en el estudio de la psicoacústica. Las señales de audio que se considera que resultaría imperceptible para el oído humano son codificadas con la resolución reducida durante el proceso de compresión. WMA puede codificar las señales de audio en la muestra de hasta 48.000 veces por segundo (48 kHz) con un máximo de dos canales (estéreo).
52
CAPITULO 1. EST NDARES DE SE ALES DIGITALES DE AUDIO Y VIDEO.
1.3.- FORMATOS DE VIDEO. 1.3.1.- Intr oducción. En el caso del video digitalizado se hace especial hincapié en el tema de la compresión, ya que en el área de la informática siempre es un problema el tamaño que ocupan los archivos. El programa controlador que comprime y descomprime un archivo de video se denomina CODEC, término compuesto derivado de la expresión inglesa compressor/decompressor, y es un algoritmo utilizado por la tarjeta de vídeo para capturar y almacenar el video en el disco duro del computador. Todos los codecs usan técnicas de compresión eliminando datos para salvar espacio en disco, sacrificando, en mayor o menor grado, la imagen original. La consecuente disminución de la calidad de la imagen es aceptable, pues los algoritmos de codificación están diseñados para descartar la información redundante o que no es perceptible por el ojo humano. La compresión se realiza analizando similitudes entre imágenes sucesivas, usando información de las imágenes ya enviadas. Cuando se usa esta técnica, sólo es necesario enviar la diferencia entre las imágenes, es decir las zonas de la imagen que han variado entre dos fotogramas consecutivos, lo que elimina la necesidad de transmitir la imagen completa. Este tipo de compresión es conocido como "compresión temporal". El otro método de compresión de video elimina los datos que no cambian entre píxeles adyacentes y es conocido como "compresión espacial". Los CODECs utilizan distintos sistemas para comprimir el video pero, se pueden distinguir básicamente dos tipos:
•
CODECs sin pérdida, es decir, los que conservan los datos originales y aseguran que las imágenes sean las mismas después de la compresión y posterior descompresión. Estos CODECs usan normalmente el sistema RLE (Run Length Encoding por sus siglas en inglés). Éste consiste en descartar regiones o bloques de similares colores entre imagen
53
CAPITULO 1. EST NDARES DE SE ALES DIGITALES DE AUDIO Y VIDEO.
e imagen. Esta técnica funciona bien con imágenes generadas por ordenador, donde existen áreas de color uniforme. Sin embargo, las técnicas de compresión sin pérdida no son, en general, muy efectivas con el video digital, ya que éste tiene pocas áreas de color continuo y está formado por numerosas variaciones de color. El ratio típico de estos CODECs es de 1:2.
•
CODECs con pérdidas, intentan eliminar información de las imágenes de forma que sea lo más inapreciable posible por el espectador. Estos sistemas eliminan información que no puede ser recuperada. La cantidad de información perdida depende del grado de compresión y es proporcional a la disminución de calidad, es decir Máxima calidad máximo tamaño de archivo = mínima compresión Mínima calidad = mínimo tamaño de archivo máxima compresión Dentro de los algoritmos de compresión con pérdida se puede distinguir, a su vez, dos tipos básicos: o
Algo ritmos de co mpres ió n esp acial. Estos sistemas comprimen cada imagen
independiente del video, es decir, cada cuadro del mismo sin tener en cuenta el resto. o
Algo ritmos de co mpres ió n tempo ral . Son parecidos al sistema RLE antes
mencionado, ya que se basa en la variación entre un cuadro y el siguiente. Pero con la gran diferencia de qué esta variación (comparación entre un frame y el siguiente) no se almacena en su totalidad, sino que se le aplica una compresión con pérdida. Este tipo de algoritmo utiliza los llamados Keyframes, que son cuadros del video que se almacenan con poca o ninguna compresión para que sirvan de referencia para generar los siguientes, que son llamados Deltaframes. Por tanto, al usar algún codec para editar un video con un programa de edición de VFW (Video For Windows por sus siglas en inglés o Video Para Windows) se encontrará con el fenómeno de la recompresión. Ésta genera pérdida aditiva de datos en casi todos los sistemas de compresión con pérdida, esto quiere decir que, cada vez que se vuelve a comprimir un video se pierde más y más calidad, aunque en la recompresión se ajuste la
54
CAPITULO 1. EST NDARES DE SE ALES DIGITALES DE AUDIO Y VIDEO.
calidad al máximo. Afortunadamente, esto ha sido previsto, y existen CODECs especialmente diseñados para disminuir al máximo esta pérdida aditiva. Por último, hay que mencionar la llamada simetría del CODEC, y es tal cuando las velocidades de codificación y descodificación son iguales. De la misma manera, es altamente asimétrico cuando las velocidades son diferentes. La transmisión de video es la parte medular de un sistema de videovigilancia por lo que es necesario tener en cuenta el tipo de video CODEC a elegir, tomando en cuenta sus ventajas y desventajas. En los siguientes capítulos se verán los video CODECs mas utilizados.
1.3.2.- For mato AVI. ( Audio Video Interleave por sus siglas en inglés o Audio Video Intercalado) Son un caso especial de archivos RIFF ( Resource Interchange File Format por sus siglas en inglés o Formato de Archivos para el Intercambio de Recursos) un formato de propósito general para el intercambio de datos multimedia que fue definido por Microsoft e IBM tiempo atrás. De hecho RIFF es un clon del formato IFF inventado por Electronic Arts in 1984 para Deluxe Paint en plataforma AMIGA. IFF se erigió enseguida como un estándar de intercambio en esta plataforma y fue mantenido por Commodore hasta su desaparición. Al decidir Electronics Arts cambiar a la plataforma PC, trajo consigo el formato IFF. En los primeros momentos de la popularización del DV doméstico existió mucha confusión sobre los tipos de AVI que empleaba la captura de vídeo digital (DV). Se ha hablado largo y tendido de AVI1 y AVI2 y en parte el error surgía de lo comentado más arriba de mezclar la denominación del formato AVI con VfW y los codecs empleados para almacenar en dicho formato. En algunos casos se hablaba de AVI 1 refiriéndose en orden cronológico al primer formato aparecido y AVI 2 al segundo. De ello se deducía erróneamente que el formato 55
CAPITULO 1. EST NDARES DE SE ALES DIGITALES DE AUDIO Y VIDEO.
empleado para DV era AVI tipo 2 cuando en realidad dentro del segundo formato cronológicamente hablando, hay a su vez una división denominadas por la propia Microsoft como AVI DV Tipo-1 y AVI DV tipo-2, siendo las diferencias el tipo de codecs empleados para su manejo y la forma en que se guardan los flujos de datos internamente. Así pues, ciñéndose a la realidad, sólo existen dos tipos generales de AVI, Los basados en Video para Windows (los primeros en aparecer) y los basados en DirectShow (originalmente ActiveMovie). Y como se ha mencionado, un AVI no es más que un formato de archivo que puede guardar datos en su interior codificados de diversas formas y con la ayuda de diversos codecs que aplican diversos factores de compresión, también existe la posibilidad de almacenar los ficheros en un formato AVI "raw" o crudo, es decir, sin compresión y muchos fabricantes aportan su granito de arena con codecs particulares, Los formatos de AVI basados en Video para Windows son los que ahora forman el núcleo de los denominados AVI DV Tipo-2 mientras que los basados en DirectShow (y por extensión en DirectX) son los denominados AVI DV tipo-1. Hasta este punto, convendría decir que en realidad, cualquier tipo de imagen grabada en cinta y mucho más pesada al ordenador, se puede considerar como digital, dado que no existe una imagen real, analógica, visible a simple vista como en las películas de cine o en los carretes de fotos. Sin embargo, se considera convencionalmente imagen analógica toda la anterior a los actuales sistemas de grabación de datos digitales. Es decir, las grabaciones efectuadas en VHS, 8mm., Hi8, SVHS... en el aspecto doméstico y U-matic o BetaCam, en la vertiente profesional por poner algún ejemplo. Aunque un AVI puede tener n número de flujos, lo más común es un flujo de vídeo (vids) y otro de audio (auds).
AVI Header
Datos de Vídeo AVI (vids) Datos de Audio AVI (auds)
56
CAPITULO 1. EST NDARES DE SE ALES DIGITALES DE AUDIO Y VIDEO.
Las cabeceras (o headers) del formato del flujo definen todo el formato (incluida la compresión usada) de cada flujo. El formato estándar de un AVI basado en VfW contempla la existencia de un flujo de video, uno de audio o ambos. Así un AVI en VfW puede almacenar sólo audio, sólo vídeo o ambos pero en flujos separados para cada tipo.
1.3.3.- Formato Mpeg. MPEG es el "Grupo de Expertos de Imágenes en Movimiento", por sus siglas en ingles. MPEG es un grupo de personas que se encuentran dentro de la Organización Internacional de Estándares (ISO, por sus siglas en inglés) para generar estándares para video digital (secuencias de imágenes en tiempo) y compresión de audio. En particular, ellos definen una trama de bits comprimida, la cual implícitamente define un descomprimidor. Como cada empresa tiene sus propios algoritmos de compresión, es ahí donde recae la importancia de contar con un estándar internacional. MPEG se reúne cuatro veces al año durante una semana completa. En medio de las reuniones un gran trabajo es hecho por los miembros, así que no todo ocurre en las reuniones. MPEG clasifica los estándares multimedia en:
•
MPEG-1 "Codificación de Imágenes de Movimiento y Audio Asociado para Medios de
Almacenamiento Digital a 1,5 Mbits/s".
•
MPEG-2 "Codificación Genérica de Imágenes de Movimiento e Información de Audio
Asociada". •
MPEG-3 Originalmente planeada para aplicaciones de HDTV (Televisión de Alta
Definición), pero finalmente fue incluida en MPEG-2. •
MPEG-4 "Codificación de Objetos de Audio-Visual".
Tanto MPEG-1 como MPEG-2 son estándares aprobados por ISO (también está en fase de estudio MPEG-4). Las principales ventajas de este sistema son:
57
CAPITULO 1. EST NDARES DE SE ALES DIGITALES DE AUDIO Y VIDEO.
- Orientado a la compresión de vídeo (incluyendo el audio), no como M-JPEG. - La compresión se basa en predicciones matemáticas complejas que dependen de la variación de las imágenes en el tiempo. - La codificación admite frecuencias de 4 a 100 Mbps. MPEG-1 fue diseñado para la transmisión de vídeo con frecuencias de 1.5 Mbps, la velocidad nominal de CD-ROMs de velocidad simple y de líneas T1. MPEG-2, en cambio se diseñó para soportar aplicaciones de televisión con varios formatos, incluyendo la televisión de alta definición (HDTV). Aunque MPEG-2 es una norma reciente, ha sido aceptada rápidamente por las industrias de la televisión por cable y vía satélite. Las frecuencias de compresión conseguidos con MPEG hacen de esta norma el estándar ideal para la transmisión de vídeo digital. En cambio, para la edición sigue siendo más adecuado M-JPEG. La solución más adecuada es utilizar M-JPEG en la edición y MPEG en la transmisión. En esta sección se comienza introduciendo conceptos básicos de video analógico, adentrándose en el proceso de muestreo y el problema de la señal digital, para continuar tratando la compresión MPEG-1 y MPEG-2. El grupo MPEG sigue trabajando en la elaboración de la recomendación MPEG-2 (o H.262, o IS-13818) para la compresión de vídeo y ha terminado sus partes principales en 1995. Esta recomendación utiliza algoritmos para la compresión de la información basados en la DCT (Discrete Cosine Transform por sus siglas en inglés) y en la compresión del movimiento, similares a los de MPEG-1. MPEG-2 pretende mejorar la calidad de las imágenes comprimidas respecto a MPEG-1, mediante una velocidad de distribución superior de 6-15 Mbit/s (depende del tipo de secuencia y del codificador utilizado). Está concebido para la distribución de vídeo e introduce los conceptos de escalabilidad espacial y temporal, y de jerarquía de datos dentro del stream. Permite una mayor variedad de formatos de entrada, codifica los dos campos de las imágenes entrelazadas, presta mayor atención a las componentes de color que en MPEG-1 e incorpora otras mejoras de algoritmia y sintaxis. Incluye la posibilidad de codificar TV de alta definición 58
CAPITULO 1. EST NDARES DE SE ALES DIGITALES DE AUDIO Y VIDEO.
y señales con calidad de estudio. Admite la opción de escalabilidad en resolución, según la capacidad del codificador o de la red de transmisión. Durante mucho tiempo en el campo de la digitalización de videos se tuvo solamente dos opciones al escoger: CINEPAK o INDEO, pero con la aparición de MPG I en el mercado se marcó la pauta para la visualización de videos desde discos compactos CD. MPG I es un codec diseñado para posibilitar el almacenamiento de videos de hasta 30 cuadros por segundo y tamaño de ventana de 320x240. A un costo de digitalización muy económico. MPG I es un formato que trabaja eliminando la redundancia de pixeles entre cuadros de una película, muy similar al compresor de imágenes JPEG usado para la transferencia de fotos por Internet. La compresión con la que MPG I trabaja consta de 10 pasos; 6 de los cuales son exclusivamente dedicados a comprimir y reducir datos redundantes. Es un formato de compresión que permite ver el video en una ventana pequeña (320 por 240 píxeles). Ocupa bastante espacio en el disco duro, pero tiene la ventaja de que puede ser reproducido incluso en PC anticuados. Es una buena opción para distribuir videos en CDROM, ya que se tiene la certeza de que un PC poco potente no se va a ‘colgar’ al reproducirlos. La principal diferencia entre MPEG I y MPEG II, es la forma en que comprime el video. MPEG-II hace un mejor trabajo que su antecesor MPG I en lo referente a la compresión y principalmente no degrada notoriamente la imagen a tal punto de ser el estándar para los videos del tipo DVD. MPG I fue siempre señalado con la imposibilidad de presentar películas en ventanas mayores a 320x240, MPG II presenta ventanas hasta 704x480 a 30 cuadros por segundo; es decir el doble de tamaño que su antecesor. Es un formato de compresión muy popular, utilizado principalmente en los DVD. Ofrece buena calidad en video de pantalla completa, sonido estéreo y ocupa una cantidad razonable de espacio en el disco duro. Muchas cámaras digitales económicas o de no muy reciente fabricación utilizan este formato. Es una buena opción para capturar y almacenar video.
59
CAPITULO 1. EST NDARES DE SE ALES DIGITALES DE AUDIO Y VIDEO.
Por otro lado, se tiene que MPEG-3 Fue una propuesta de estándar para la TV de alta resolución, pero se ha demostrado que MPEG-2 con mayor ancho de banda cumple con este cometido. De igual forma, se considera que MPEG-4 es una evolución de MPEG-2. Es más avanzado y ofrece numerosas opciones de configuración y muy alta calidad, sin embargo, su edición exige hardware potente.
1.3.4.- Formato Microsoft Video 1. Es un compresor con pérdida que utiliza algoritmo de compresión espacial. Soporta profundidades de color de 8 bits (256 colores) y 16 bits (64.000 colores). Video 1 es un algoritmo bastante simple. El algoritmo funciona en bloques de 4x4 píxeles, lo que implica que la fuente de datos para ser comprimido debe ser divisible por 4, tanto en su anchura y altura. Codec de video de movimiento completo y calidad moderada en imágenes de 320 x 240 píxel o menores a una velocidad de 15 marcos por segundo o menor.
1.3.5.- Formato Cinepak by radius. Es muy usado para la compresión de video de 24 bits (color real), creado para visualizar posteriormente el video en CD-ROM o para descargarlo de Internet. Este codec trabaja con ratios altos de compresión y permite diversos tamaños de ventana al momento de visualizarlo; está siempre presente en toda versión de Microsoft Windows. (Compatible con Quicktime de Apple) Compresor temporal de alta calidad. Está diseñado para producir mínimas pérdidas en la recompresión. Es altamente asimétrico, siendo muy rápido decodificando (reproducción) y lento codificando. Trabaja con 16 millones de colores.
60
CAPITULO 1. EST NDARES DE SE ALES DIGITALES DE AUDIO Y VIDEO.
1.3.6.- Formato Intel Ind eo 5.05. Muy usado para distribuir video por Internet en computadoras provistas con procesadores MMX. Este codec emplea un sistema progresivo de descarga que se adapta al ancho de banda y flujos de señal.
1.3.7.- Formato Micro soft RLE. Usado para comprimir cuadros que contengan áreas de color plano, como los dibujos animados. Este codec usa un codificador espectral de 8 bits que degrada la imagen al comprimirla hasta el 2% del original.
1.3.8.- Formato Windows Media Video (WMV). Tal como RV, ha tenido un desarrollo vertiginoso. Se puede configurar para cualquier tipo de uso, desde pequeños videos que se envían junto a mensajes de correo electrónico, hasta transmisiones de televisión en vivo a través de Internet. Incluso sirve para grabar una película completa en CD-ROM. Para codificarlo se puede utilizar una herramienta gratuita, muy eficiente: el Codificador de Windows Media 9.0. El vídeo WMV se empaqueta normalmente en algún contenedor multimedia, como pueden ser AVI o ASF. Los ficheros resultantes reciben la extensión .avi si el contenedor es de este tipo, .wmv si es un fichero de sólo video ( .wma sería el equivalente para sonido) o .asf si se trata de un contenedor ASF, con contenido de audio y vídeo.
61
CAPITULO 1. EST NDARES DE SE ALES DIGITALES DE AUDIO Y VIDEO.
1.3.9.- Formato H.261. Es un formato de compresión de vídeo para ser usado en canales que vayan de 64 Kbits a 2 Mbits. También llamado px64 donde p es un rango comprendido entre 1 y 30 (los múltiplos que puede tener un canal B. Este algoritmo utiliza la codificación tanto intratrama como intertrama. La primera utiliza DCT ( Discrete Cosine Transform por sus siglas en inglés o Transformada de Coseno Discreto), similar a la utilizada por JPEG. La segunda por su parte utiliza un esquema de codificación basado en las diferencias entre bloques. H.261 define a su vez dos tamaños de ventana CIF (Common Intermediate Format por sus siglas en inglés o Formato Intermedio Común) con una resolución de 352 x 288 y QCIF (Quarter CIF) con una resolución de 176 x 144. El estándar H.261 fue desarrollado (antes que MPEG) para satisfacer la compresión de video para transmisiones de bajo ancho de banda y su aplicación más extendida es la de videoconferencia Conocido también como px64, es considerado como un compresor del tipo lossy (con pérdida) que soporta velocidades de transmisión con múltiplos de 64 Kbps, de ahí su gran difusión en videoconferencia sobre RDSI (Red Digital de Servicios Integrados). Consta básicamente de cinco etapas: •
Etapa de compensación del movimiento,
•
Etapa de transformación (DCT),
•
Etapa de cuantificación "lossy" (con pérdidas) y
•
Dos etapas de codificación del tipo sin pérdidas (codificación run-length y codificación de Huffman). H.261 es la recomendación de ITU (Unión Internacional de Telecomunicaciones,
antes CCITT) para la compresión de video en sistemas de videoconferencia, siguiendo el estándar internacional H.320. Esta norma permite la utilización de anchos de banda múltiplos de 56 Kbps o 64 Kbps. H.261 tan sólo acepta dos tamaños de pantalla (CIF y QCIF) y métodos de codificación adecuados para la videoconferencia.
62
CAPITULO 1. EST NDARES DE SE ALES DIGITALES DE AUDIO Y VIDEO.
Está basado en la estructura básica de 64 Kbps de RDSI. Esta da nombre al título de la recomendación H.261 "Video Codec para servicios audiovisuales a PX64 Kbps", donde P es igual a 1, 2,..., etc. Aunque tomará varios años para que RDSI esté disponible globalmente, los video codecs que cumplen con el estándar H.261 pueden ya operar sobre las redes de comunicaciones actualmente.
1.3.10.- Formato H.263. Este estándar ofrece mejoras respecto a H.261 desde dos aspectos: - Soporta más formatos de imagen, como son: 16CIF, 4CIF, CIF, QCIF y Sub-QCIF (para transmisiones en Internet de baja velocidad como módems de 28.8 Kbps). - Mejora la técnica de redundancia temporal, ya que tiene en cuenta no sólo los fotogramas pasados sino también los siguientes esperados, y además ofrece mayor calidad al ampliar la zona en la que busca el macrobloque en la imagen siguiente a 32 puntos en lugar de los 16 que usa H.261. De forma que para una determinada velocidad de transferencia, H.263 ofrece mayor calidad de imagen que H.261 con resoluciones que van desde Sub-QCIF a 4xFCIF.
1.3.11.- Formato H.264. H.264 o MPEG-4 es una norma que define un códec de vídeo de alta compresión, desarrollada conjuntamente por el ITU-T Video Coding Experts Group. La intención del proyecto H.264/AVC fue la de crear un estándar capaz de proporcionar una buena calidad de imagen con tasas binarias notablemente inferiores a los estándares previos (MPEG-2, H.263 o MPEG-4 parte 2), además de no incrementar la complejidad de su diseño.
63
CAPITULO 1. EST NDARES DE SE ALES DIGITALES DE AUDIO Y VIDEO.
El uso inicial del MPEG-4 AVC estuvo enfocado hacia el vídeo de baja calidad para videoconferencia y aplicaciones por Internet, basado en 8 bits/muestra. El H.264 es uno de los mejores códecs para emisión/recepción de vídeo. Se utiliza actualmente para videoconferencia por su alta calidad y velocidad.
1.3.12.- Conclusiones. Elegir un formato de imagen, audio y video no es tarea f ácil depende de los reccursos computacionales y del ancho de banda. En las pruebas realizadas se obtuvieron los siguientes resultados: Formato de imagen:
El formato JPG tiene una calidad y tamaño ideal para transmitir se puede ver con cualquier navegador y es un formato universalmente aceptado. Formato de audio :
Los formatos de audio más eficientes probados en el sistema “Ojovigilante 1.0” fueron: GSM 6.10 MPEG Layer 3 Ogg Vorbis Windows Media Audio V1 y V2 Formato de video:
El formato de video elegido en un sistema de videovigilancia es lo más importante ya que utiliza la mayoría del ancho de banda en la transmisión. en el sistema de video vigilancia Ojovigilante 1.0 se probaron varios formatos con los siguientes resultados:
64
CAPITULO 1. EST NDARES DE SE ALES DIGITALES DE AUDIO Y VIDEO.
El formato Microsoft MPEG-4 video c odec V1, V2 y V3 obtuvo los mejores resultados es ideal para streamig. Otros formatos que tuvieron buenos resultados fueron: Cinepack by radius e Indeo video 5.10
El formato Microsoft RLE tiene una calidad pobre, pero util en poco ancho de banda.
65
CAPITULO 2. ESTÁNDARES DE VIDEOCONFERENCIA.
66
CAPITULO 2. EST NDARES DE VIDEOCONFERENCIA.
CAPITULO 2. ESTÁNDARES DE VIDEOCONFERENCIA. 2.1.- Introducción. En los últimos años se ha asistido a una evolución muy importante de las técnicas de codificación de contenidos audiovisuales que ha sentado las bases para el desarrollo de una nueva generación de servicios multimedia interactivos, el principal cambio producido por estas técnicas ha sido la gran reducción en las capacidades requeridas para el almacenamiento o transmisión de la información, gracias al empleo de técnicas de compresión. Esto modificó de forma muy importante las previsiones de ancho de banda que se manejaban para las nuevas redes de comunicaciones haciendo mucho más asequible la introducción de contenidos multimedia. Videoconferencia: Es una modalidad de la teleconferencia que permite la
comunicación interactiva entre personas ubicadas en diferentes regiones geográficas utilizando equipos especiales compatibles que transmiten el vídeo, el audio y los datos de computadoras a través de un canal de comunicaciones entre ellos, lo que hace posible compartir información, intercambiar puntos de vistas, mostrar y ver todo tipo de documentos, dibujos, gráficos, imágenes de computadoras, etc.
2.2.- Estándar H.320. Videoco nferencia sobre RDSI. El estándar H.320, que define la implementación de videoconferencia sobre RDSI (Red Digital de Servicios Integrados) ha estado vigente durante una década y hoy día es muy común implementarla sobre RDSI, esto es debido a que RDSI permite la transmisión de videoconferencia en diversos niveles de calidad. RDSI es capaz de proveer una elevada calidad de transmisión de videoconferencia, primeramente por su carácter síncrono, que permite el transporte de vídeo con una baja tasa de retardo. Las características de transporte de RDSI permiten proveer a la videoconferencia de la sensibilidad que ésta demanda, además es capaz de implementarla en una gran variedad
67
CAPITULO 2. EST NDARES DE VIDEOCONFERENCIA.
de velocidades de transmisión: desde 64 kilobits por segundo (kbps) hasta 2 Megabits por segundo (Mbps). Hasta 128 kbps la videoconferencia es considerada de baja calidad, no siendo apropiada para aplicaciones de negocios. Sin embargo, a velocidades iguales o superiores a 384 kbps, RDSI provee una muy buena calidad de transmisión, ideal para aplicaciones de negocios. La velocidad de transmisión de la videoconferencia está directamente relacionada con las aplicaciones que se le dan a esta: •
64 kbps: Generalmente para aplicaciones recreacionales, donde la baja resolución y los desfases entre el audio y el video son aceptables.
•
128 kbps: Utilizada en conferencias dentro de empresas y organizaciones (cortas distancias).
•
384 kbps: Calidad para aplicaciones de negocios. El audio y el video están sincronizados y los movimientos son uniformes.
•
512 kbps: Alta calidad para aplicaciones de negocios. Alta resolución y movimientos muy uniformes; el desfase entre audio y vídeo es prácticamente indetectable.
•
768 kbps ó más: Excelente calidad de transmisión de videoconferencia. Ideal para aprendizaje a distancia, aplicaciones médicas, entre otros. RDSI permite obtener una buena calidad en la transmisión de videoconferencia a
velocidades iguales o superiores a 384 kbps; sin embargo, es muy costoso y presenta ciertas complejidades. Por ejemplo, es necesario implementar tres interfaces de 128 kbps y llevarlas a cada uno de los dispositivos de videoconferencia. Estas líneas deben entonces conectarse formando un solo canal a través de un multiplexor (MUX). Además es necesario disponer de tarjetas V.35 y RS-366 para cada estación de trabajo. El algoritmo de compresión H.261 define dos resoluciones de vídeo: el CIF (Formato Intermedio Común), de 352x288 y el QCIF (un cuarto del Formato Intermedio Común) de 176x144. El H.320 también posee tres codecs (codificadores - decodificadores) de audio: el G.711, que usa un ancho de banda de 64 Kbps para proporcionar audio de 3 KHz de calidad
telefónica; el G.722, un algoritmo de mejor calidad que produce audio de 7.5 KHz pero consume un ancho de banda de hasta 64 Kbps; y el G.728 que, a pesar de proporcionar audio de calidad casi telefónico, sólo requiere de 16 Kbps. 68
CAPITULO 2. EST NDARES DE VIDEOCONFERENCIA.
2.3.- Estándar H.321. Videoconferencia sobre ATM .
Para implementar las características del estándar H.320 en cuanto a calidad de transmisión, con un costo y una complejidad menores, el estándar H.320 ha sido adaptado y ha surgido el estándar H.321. El estándar H.321 describe los métodos para implementar videoconferencia sobre ATM (Modo de Transferencia Asíncrono) con ventajas sobre el modelo RDSI, y totalmente compatible con el estándar H.320. El estándar H.321 basado en ATM implementa la videoconferencia en el mismo estilo que RDSI, con los mismos incrementos en velocidad de transmisión (128 kbps, 384 kbps, 768 kbps, etc.). La diferencia fundamental es que la videoconferencia sobre ATM es más fácil y más barata de implementar. ATM logra esto debido a aspectos como los siguientes: •
Las tarjetas V.35 y RS-366 son sustituidas por una tarjeta ATM a 25 Mbps. La tarjeta ATM en costo, es unas cuantas veces mucho menor que los componentes V.35.
•
Se utiliza una pasarela RDSI-ATM como punto de acceso centralizado para la red WAN RDSI. Esta metodología permite el acceso fuera de la red y sirve también de centro de multiplexaje, sustituyendo los multiplexores para cada estación utilizados en la implementación RDSI. Esto proporciona un ahorro importante.
•
Se utilizan switches ATM en lugar de RDSI, disminuyendo costos en la implementación.
•
La topología ATM no necesita de múltiple cableado como ocurre con la implementación RDSI, que requiere de tres cables UTP individuales. La implementación de ATM no sólo proporciona beneficios en cuanto a la
disminución de costos para implementar la transmisión de videoconferencia, sino que provee las bases de una arquitectura de red que puede utilizarse para el transporte de voz y datos en adición a la videoconferencia. Esta capacidad está haciendo de ATM la elección tecnológica en un amplio espectro de aplicaciones. Adaptan al H.320 a las topologías de la siguiente generación, como ATM y SDM de banda ancha. El H.321 proporciona la máxima capacidad hacia atrás, y conserva la capacidad del H.320 y algunos de sus componentes, incluido el H.261. El H.310 añade el 69
CAPITULO 2. EST NDARES DE VIDEOCONFERENCIA.
algoritmo de compresión de video MPEG-2 de ISO, que proporciona calidad de video clase HDTV (televisión de alta definición).
2.4.- Estándar H.322. Es una versión mejorada del H.320, optimizada para redes que garantizan Calidad de Servicio (QoS) para tráfico isocrónico, como el video en tiempo real. Fue el primer estándar usado con la norma IEEE 802.9 para redes LAN Ethernet.
2.5.- Estándar H.323. Videoconf erencia sobre r edes uti lizando TCP/IP. Extiende al H.320 a Ethernet, Token Ring y otras redes de paquetes switcheados que no garantizan QoS (Quality of Service o Calidad de servicio por sus siglas en inglés). Soporta operaciones punto a punto y multipunto. Además del Codec de video H.261 y el Codec de audio G.711 del H.320, las implantaciones del H.323 también pueden incluir componentes del H.320 y el H.324, como H.263, G.722, G.723 y G.728. Los temas de QoS se han manejado por un componente de portero centralizado que permite que los administradores de LAN administren el tráfico de video en la espina dorsal. Otra parte integral de la especificación define una compuerta LAN/H.320, que permite que cualquier nodo H.323 interopere con productos. Hace poco tiempo se han concluido los trabajos relacionados con un nuevo estándar, el H.323. Este nuevo estándar fue diseñado para establecer videoconferencia sobre redes basadas en arquitecturas como Ethernet, Token Ring, FDDI, etc., utilizando los protocolos TCP/IP. H.323 no tiene las características que poseen los estándares H.320 y H.321, que fueron diseñados para aprovechar las ventajas de RDSI y ATM, para proporcionar una videoconferencia de alta calidad. El estándar H.323 es independiente del transporte, permitiendo la implementación de cualquier arquitectura de transporte, como por ejemplo ATM.
70
CAPITULO 2. EST NDARES DE VIDEOCONFERENCIA.
Los estándares para transmisión de videoconferencia sobre redes IP/Ethernet comienzan a ser una realidad. La diferencia básica con los anteriores es que esta videoconferencia, basada en este tipo de redes, no posee en su arquitectura una capa dedicada a la calidad del servicio, en la cual basar el transporte del vídeo. Como resultado de esta implementación se obtiene una videoconferencia con desfases entre voz y audio y con baja calidad. Esta videoconferencia no puede ser considerada para aplicaciones de negocios serias. El transporte de vídeo sobre redes Ethernet también tiene el desafortunado efecto de permitir la interacción entre el tráfico de datos y vídeo. Esto hace que el ancho de banda disponible para el tráfico de datos se vea disminuido por el tráfico de vídeo. En este sentido, este tipo de videoconferencia podría utilizarse, por ejemplo, para establecer discusiones entre los individuos participantes en un proyecto; sin embargo, para establecer videoconferencia con alta calidad y con características multipunto es necesario utilizar ATM o ISDN. Debido a la carencia de calidad de servicio en estas arquitecturas Ethernet, los diseñadores de los sistemas de transporte han propuesto un nuevo protocolo, RSVP. (Resource ReSerVation Protocol o Protocolo de Reserva de Recursos por sus siglas en inglés), actúa sobre la red para canalizar su comportamiento y hacerlo compatible con las necesidades del transporte en tiempo real. RSVP se integra en una evolución hacia una nueva arquitectura, que pretende asegurar las comunicaciones multipunto en tiempo real conservando la filosofía del mejor esfuerzo (best effort) y la arquitectura IP. Esta evolución prevé los siguientes puntos: •
Establecer y mantener un camino único para un flujo de datos gracias a los protocolos de encaminamiento multipunto. Este mantenimiento del camino es indispensable para el funcionamiento de RSVP.
•
Establecer un módulo de control que gestione los recursos de la red.
•
Instaurar un sistema de ordenación de paquetes en la cola de espera para satisfacer la calidad de servicio solicitada.
71
CAPITULO 2. EST NDARES DE VIDEOCONFERENCIA.
En general, RSVP es un protocolo de control que permitirá obtener el nivel de calidad de servicio optimizado para un flujo de datos.
2.6.- Estándar H.324. Videoconferencia sobre POTS . El estándar H.324 para transmisión de videoconferencia define una metodología para su transporte a través de la red telefónica ó lo que se conoce como POTS (Plain Old Telephone Systems). Específicamente el estándar H.324 describe terminales para comunicaciones multimedia trabajando a bajas velocidades, utilizando módems V.34. Estos terminales pueden transmitir voz, datos y vídeo en cualquier combinación en tiempo real. Puede incorporar codificación H.261, pero la mayor parte de las implantaciones usarán el H.263, una versión escalable del H.261 que añade un formato sub-QCIF (SQCIF) de 128x96. Debido al diseño eficiente del H.263, puede producir velocidades de cuadro muy parecidas a la de los sistemas RDSI, actuales, pero mediante módems baratos asistidos. El estándar H.324 está diseñado para optimizar la calidad de la transmisión de videoconferencia sobre los enlaces de baja velocidad asociados con los POTS, típicamente estas velocidades están en el rango de 28.8 kbps a 56 kbps. Estas bajas velocidades de transmisión sumadas a la naturaleza impredecible del medio de transmisión, restringe este tipo de videoconferencia a unos pocos cuadros por segundo. Sin embrago, se espera que el estándar H.324 tenga cierta aceptación entre el mercado de consumidores. Primero, porque este tipo de videoconferencia está orientada a aplicaciones recreacionales donde no se requiere de una elevada calidad y en segundo lugar debido a la facilidad de implementación donde sólo se requiere de un PC equipado con un módem y utilizar la red telefónica convencional (POTS).
72
CAPITULO 2. EST NDARES DE VIDEOCONFERENCIA.
2.7.- Estándar H.310. Videoconferencia sobre ATM –MPEG-2. Mientras los estándares H.320 y H.321 pueden proporcionar una elevada calidad de videoconferencia, especialmente cuando se utilizan elevadas velocidades de transmisión (768 kbps ó mas), el estándar H.310 define una metodología para implementar videoconferencia basada en MPEG-2 (estándar del ISO) sobre ATM a velocidades que van entre 8 y 16 Mbps. La videoconferencia basada en el estándar H.310 provee una elevadísima calidad en la transmisión de audio y vídeo, estando este tipo de videoconferencia orientada a aplicaciones como la transmisión de procedimientos quirúrgicos en vivo, donde el grupo de médicos asesores están ubicados a grandes distancias.
Estas elevadas velocidades de transmisión ofrecidas por este estándar permiten el establecimiento de una videoconferencia con elevada interactividad entre los participantes. Aplicaciones como el establecimiento de procesos educativos, donde existen expertos situados a distancia y donde el nivel de calidad de la videoconferencia debe ser máximo requieren del uso de este estándar. La siguiente figura muestra una comparación entre los estándares estudiados, en cuanto a la calidad de servicio que cada uno permite.
2.8.- Conc lusi o nes. El sistema de vigilancia “Ojovigilante 1.0” realiza videoconferencia utilizando el estándar H.323 Videoconferencia sobre redes utilizando TCP/IP . Para aprovechar la infraestructura ya existente para Internet.
73
CAPITULO 3. H.323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
74
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
3.1.- Introducción. El H.323 es un nuevo estándar muy importante para comunicación de audio, video y datos. Este describe especialmente cómo las comunicaciones multimedia ocurren entre terminales, equipos de redes y servicios en redes de Área Local (LAN), las cuales no proveen una calidad de servicio garantizada. La recomendación H. 323 ha tenido una amplia aceptación. Las actividades de desarrollo en torno al H. 323 son muy altas debido al soporte unificado de una coalición global entre fabricantes de computadores personales, fabricantes de sistemas de comunicación y diseñadores de sistemas operativos. Si bien para el H.323 es muy importante el consenso y el apoyo que se le pueda dar, su potencia no se manifestará hasta que éste esté implantado en el usuario final del producto y los servicios asociados. Empresas con planes para incluir el estándar H.323 – amigable en sus productos y servicios necesitan desarrollar su propio software basado en la recomendación Study Group 15 o bajo una licencia del H.323 Protocol Snack. De acuerdo con el documento ITU editado en fecha 28-05-96, "La Recomendación H. 323 describe terminales, equipos y servicios para comunicación multimedia en una Red de Área Local (LAN), la cual no provee una calidad de servicio garantizada. Los terminales H. 323 y equipos pueden transportar voz, video, y datos en tiempo real o alguna combinación de ellos incluyendo videoteléfono". El estándar H.323 proporciona una base para las comunicaciones de audio, video y datos a través de una red IP como Internet. Los productos que cumplen con el estándar H.323 pueden ínteroperar con los productos de otros, permitiendo de esta manera que los usuarios puedan comunicarse sin preocuparse con problemas de compatibilidad. H.323 es un estándar bajo el amparo de la ITU, es un conjunto de estándares para la comunicación multimedia sobre redes que no proporcionan calidad de servicio (QoS). Estas redes son las que predominan hoy en todos los lugares, como redes de paquetes 75
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
conmutadas TCP/IP e IP sobre Ethernet, Fast Ethernet y Token Ring. Por esto, los estándares H.323 son bloques importantes de construcción para un amplio rango de aplicaciones basadas en redes de paquetes para la comunicación multimedia y el trabajo colaborativo. El estándar tiene amplitud e incluye desde dispositivos específicos hasta tecnologías embebidas en ordenadores personales, además de servir para comunicación punto-punto o conferencias multi-punto. H.323 habla también sobre control de llamadas, gestión multimedia y gestión de ancho de banda, además de los interfaces entre redes de paquetes y otras redes (RTC p.e.) H.323 forma parte de una gran serie de estándares que permiten la videoconferencia a través de redes. Conocidos como H.32X, esta serie incluye H.320 y H.324, que permiten las comunicaciones RDSI y RTC respectivamente.
3.2.- Descr ipción oficial d el H. 323. La red LAN sobre la cual los terminales H.323 se comunican puede ser un solo segmento o un anillo, o puede ser múltiples segmentos con topologías complejas. Se hace notar que la operación de los terminales H.323 sobre segmentos múltiples de una red LAN (incluyendo Internet) puede resultar con un pobre performance. Los posibles recursos mediante los cuales la calidad del servicio puede ser garantizada en estos tipos de redes LAN y redes Internet, están más allá del alcance de esta recomendación. Los terminales H.323 pueden ser integrados en los computadores personales o implementados en equipos individuales tales como videoteléfonos. El software para voz es obligatorio mientras que los datos y video son opcionales. Si estos últimos son incluidos se requiere que el terminal H.323 tenga la capacidad o habilidad de usar un módulo común de operaciones de tal manera que todos los terminales que soporten este tipo de opciones (datos o video) puedan trabajar en redes múltiples. El terminal H.323 permite más de un canal para cada una de las modalidades de uso.
76
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
3.3.- Estr uctura del H. 323. El H.323 es considerado algunas veces como una especificación parteaguas, dando a entender que hace referencia a otras recomendaciones. La serie H.323 incluye otras recomendaciones tales como el H.225.0 Packet and Synchronization, el H.245 Control, los H.261 y H.263 Video Codecs, los G.711, G.722, G.723 G.728 y G.729 Audio Codecs y la serie T.120 de protocolos de comunicaciones multimedias. Todas estas especificaciones juntas definen un número de nuevos componentes de redes (H.323 Terminal, H.323 MCU, H.323 Gatekeeper y H.323 Gateway), los cuales, interoperan en el extremo final del usuario con otros estándares amigables y redes, mediante el H.323 Gateway tal como está representado en la figura.
Figura 3.3 1 Interoperatividad
de los terminales H. 3.2.3.
77
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
3.4.- Importancia del H. 323. Esto puede apreciarse en base a los siguientes aspectos: a) Cooperación Entre la Industria de las Telecomunicaciones y la Industria de la Computación:
En el pasado los diseñadores y fabricantes de productos de computación estaban poco influenciados por la industria de las telecomunicaciones. La especificación del diseño de las telecomunicaciones ha evolucionado gradualmente en el transcurso de aproximadamente 100 años y en los últimos tiempos han tenido el soporte y dirección de las regulaciones gubernamentales. Los clientes de los productos en telecomunicación requieren de un 99,9% de confiabilidad e interoperatividad de los equipos en el extremo final del usuario. En contraste, la industria de la computación tiene la característica de sacar al mercado nuevos productos bajo condiciones de prueba, en los cuales los clientes toleran un bajo nivel de confiabilidad e interoperatividad. Solamente en algunos casos los clientes exigen un estándar cuando ello es indispensable. Antes de la adopción, por parte de la industria, del estándar H.323 para comunicación multimedia en redes ISDN, los fabricantes de sistemas de computación y periféricos habían tomado muy poco en consideración las especificaciones establecidas por el instituto de los estándares de las telecomunicaciones internacionales. b) Innovacion es se realizan más rápidamente:
Durante el desarrollo de las especificaciones H.324 y H.323 para comunicación de multimedia, la colaboración entre la industria de la telecomunicación y la industria de la computación creció enormemente. El resultado de todo esto es que estas especificaciones han progresado más rápidamente que las precedentes y por otra parte las experiencias e innovaciones de ambas industrias convergen cada vez más hacia un objetivo común que es el usuario final.
78
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
c) Potencial del Mercado:
Se basa en el hecho de que el H.323 promete que los productos y servicios en una red de calidad de servicio no garantizada tenderán a tener una mayor demanda. El protocolo Internet para redes de calidad de servicio no garantizada ofrece ubicuidad en comparación con los protocolos de las redes más primitivas. Ubicuidad y uso fácil han creado un fenómeno de mercado masivo con una velocidad de crecimiento sin precedentes. El tamaño del mercado potencial y los avances de innovación en este ambiente incrementan adicionalmente la importancia del H.323.
3.5.- Implementación de los pro ductos H.323. La respuesta más corta es que se debe incluir el H.23 stack y cualquier otro componente que el usuario pueda requerir en el software de aplicación de tal manera que permita generar todas las opciones apropiadas de la aplicación. Un ejemplo de un terminal H.323 se muestra en la siguiente figura. "El diagrama muestra las interfaces del equipo del usuario, video codec, audio codec, equipo telemático, H.225 Layer, sistemas de control de funciones y la interfaz a la red LAN. Todos los terminales H.323 deben tener una Unidad de Control del sistema, H.225.0 Layer, Interfaces de Redes y una Unidad de Audio Codec. La Unidad Video Codec y la Aplicación de datos del usuario son opcionales. Específicamente la recomendación H.323 requiere que todos los puntos extremos soporten la sintaxis, semánticas y procedimientos de las entidades de protocolo siguientes: •
Master/Slave determination
•
Capability Exchange
•
Logical Channel Signaling
•
Bidireccional Logical Channel Signaling
•
Mode Request
•
Round Trip Delay Determination.
•
Maintenance loop Signaling. 79
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
Figura 3.5 1 Estándar
H.323.
Además del software de aplicación, los diseñadores deben tener en cuenta que la interface de red es generalmente considerada fuera del alcance de la recomendación H.323, sin embargo ésta a menudo es incluida con el producto H.323 amigable.
3.6.- Arquitectura H.323. La Recomendación H.323 cubre los requerimientos técnicos para los servicios de comunicaciones entre Redes Basadas en Paquetes (PBN , packet based network) que pueden no proporcionar calidad de servicio (QoS). Estas redes de paquetes pueden incluir Redes de Área Local (LAN’s), Redes de Área Extensa (WAN’s), Intra-Networks y InterNetworks (incluyendo Internet). También incluye conexiones telefónicas o punto a punto sobre RTC o ISDN que usan debajo un transporte basado en paquetes como PPP. Esas redes pueden consistir de un segmento de red sencillo, o pueden tener topologías complejas
80
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
que pueden incorporar muchos segmentos de red interconectados por otros enlaces de comunicación. La recomendación describe los componentes de un sistema H.323, estos son: Terminales, Gateways, Gatekeepers, Controladores Multipunto (MC), Procesadores Multipunto (MP) y Unidades de Control Multipunto (MCU)
3.6.1.- Terminales. Los terminales son puntos finales de la comunicación. Proporcionan comunicación en tiempo real bidireccional. Los componentes de un terminal se pueden ver a continuación: Para permitir que cualesquiera terminales ínter operen se define que todos tienen que tener un mínimo denominador que es, soportar voz y con un codec G.711. De esta manera el soporte para video y datos es opcional para un terminal H.323. Todos los terminales deben soportar H.245, el cual es usado para negociar el uso del canal y las capacidades. Otros tres componentes requeridos son: Q.931 para señalización de
llamada
y
configuración
de
llamada,
un
componente
llamado
RAS
(Registrantion/Admisión/Status), este es un protocolo usado para comunicar con el Gatekeeper; y soporte para RTP / RTCP (Real Time Protocol / Real Time Control Protocol por sus siglas en inglés) para secuenciar paquetes de audio y video. Otros componentes opcionales de los terminales H.323 son: los codec de video, los protocolos T.120 para datos y las capacidades MCU.
81
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
3.6.2.- Gateways. El Gateway (o Pasarela) es un elemento opcional de una conferencia H.323. Es necesario solo si se necesita comunicar con un terminal que está en otra red (por ejemplo RTC) Los Gateways proporcionan muchos servicios, el más común es la traducción entre formatos de transmisión (por ejemplo H.225.0 a H.221) y entre procedimientos de comunicación (por ejemplo H.245 a H.242). Además el Gateway también traduce entre los codecs de video y audio usados en ambas redes y procesa la configuración de la llamada y limpieza de ambos lados de la comunicación. El Gateway es un tipo particular de terminal y es una entidad llamable (tiene una dirección). En general, el propósito del Gateway es reflejar las características del terminal en la red basada en paquetes en el terminal en la Red de Circuitos Conmutados (SCN) y al contrario. Las principales aplicaciones de los Gateways son:
Establece enlaces con terminales telefónicos analógicos conectados a la RTB (Red Telefónica Básica)
Establecer enlaces con terminales remotos que cumple H.320 sobre redes RDSI basadas en circuitos conmutados (SCN)
Establecer enlaces con terminales remotos que cumple H.324 sobre red telefónica básica (RTB)
Los Gateways no se necesitan si las conexiones son entre redes basadas en paquetes. Muchas funciones del Gateway son dejadas al diseñador. Por ejemplo, el número de terminales H.323 que pueden comunicar a través del Gateway no es asunto de estandarización. De la misma manera el número e conexiones con la SCN, el número de conferencias individuales soportadas, las funciones de conversión de audio/video/datos, y la inclusión de funciones multipuntos son dejadas al diseñador. Debido a la incorporación de los Gateways a la especificación H.323, la ITU posicionó H.323 como el pegamento que junta todos los terminales para conferencias funcionando juntos.
82
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
3.6.3.- Gatekeepers.
Son un elemento opcional en la comunicación entre terminales H.323. No obstante, son el elemento más importante de una red H.323. Actúan como punto central de todas las llamadas dentro de una zona y proporcionan servicios a los terminales registrados y control de las llamadas. De alguna forma, el gatekeeper H.323 actúa como un conmutador virtual. Los Gatekeepers proporcionan dos importantes funciones de control de llamada:
Traducción de direcciones desde alias de la red H.323 a direcciones IP o IPX, tal y como está especificado en RAS.
Gestión de ancho de banda, también especificado en RAS. Por ejemplo, si un administrador de red ha especificado un umbral para el número de conferencias simultáneas, el Gatekeeper puede rechazar hacer más conexiones cuando se ha alcanzado dicho umbral. El efecto es limitar el ancho de banda total de las conferencias a alguna fracción del total existente para permitir que la capacidad remanente se use para e-mail, transferencias de archivos y otros protocolos.
A la colección de todos los Terminales, Gateways y MCU’s gestionados por un gatekeeper se le conoce como Zona H.323. Una característica opcional, pero valiosa de los gatekeepers es la habilidad para enrutar llamadas. Si se enruta la llamada por un gatekeeper, esta puede ser controlada más efectivamente. Los proveedores de servicio necesitan esta característica para facturar por las llamadas realizadas a través de su red. Este servicio también puede ser usado para reenrutar una llamada a otro terminal en caso de estar no disponible el llamado. Además con esta característica un gatekeeper puede tomar decisiones que involucren el balanceo entre varios gateways. Por ejemplo, si una llamada es enrutada por un gatekeeper, ese gatekeeper puede re-enrutar la llamada a uno de varios gateways basándose en alguna lógica de enrutamiento propietaria.
83
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
Mientras que un Gatekeeper está lógicamente separado de los extremos de una conferencia H.323, los fabricantes pueden elegir incorporar la funcionalidad del Gatekeeper dentro de la implementación física de Gateways y MCU’s. A pesar de que el Gatekeeper no es un elemento obligatorio, si existe, los terminales deben usarlo. RAS define para estos la traducción de direcciones, control de admisión, control de ancho de banda y gestión de zonas. Los Gatekeepers juegan también un rol en las conexiones multipunto. Para soportar conferencias multipunto, los usuarios podrían emplear un Gatekeeper para recibir los canales de control H.245 desde dos terminales en una conferencia punto-punto. Cuando la conferencia cambia a multipunto, el Gatekeeper puede redireccionar el Canal de Control H.245 a un controlador multipunto, el MC. El Gatekeeper no necesita procesar la señalización H.245, solo necesita pasarla entre los terminales o entre los terminales y el MC. Las redes que posean un Gateway pueden también tener un Gatekeeper para traducir llamadas entrantes E.164 (número de teléfonos convencionales) a direcciones de transporte. Debido a que una Zona está definida por su Gatekeeper, las entidad H.323 que contengan un Gatekeeper interno necesitan de un mecanismo para desactivar su funcionamiento cuando hay varias entidades H.323 que contiene un Gatekeeper dentro de la red, las entidades pueden ser configuradas para estar en la misma Zona. Existen dos formas para que un terminal se registre en un gatekeeper, sabiendo su IP y enviando entonces un mensaje de registro unicast a esta dirección o bien enviando un mensaje multicast de descubrimiento del gatekeeper (GRQ) que pregunta ¿quién es mi gatekeeper? Funciones obli gatorias Gatekeeper.
•
Traducción de Direcciones : Traducción de alias a direcciones de transporte, usando
para ello una tabla que es modificada con mensajes de Registration. Se permiten otros métodos de modificar la tabla. 84
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
•
Control de Admisión: El Gatekeeper debería autorizar el acceso a la red usando
mensajes H.225.0 ARQ/ACF/ARJ. Esto puede basarse en autorización de llamada, ancho de banda, o algún otro criterio que es dejado al fabricante. También puede ser una función nula que admita todas las peticiones. •
Control de Ancho de Banda: El Gatekeeper debería soportar mensajes
BRQ/BRJ/BCF. Esto puede usarse para gestión del ancho de banda. También se puede aceptar todas las peticiones de ancho de banda. •
Gestión de Zona: El Gatekeeper debería suministrar la funciones anteriores a: todos
los terminales, MCU’s y Gateways que se encuentren registrados en su Zona de control. Funciones o pcio nales del Gatekeeper:
•
Señalización de control de llamada: El Gatekeeper puede elegir completar la
señalización de llamada con los extremos y procesar la señalización de llamada el mismo. Alternativamente, puede elegir que los extremos conecten directamente sus señalizaciones de llamada. De esta manera el Gatekeeper puede evitar gestionar las señales de control H.225.0. •
Au to rizaci ón de llamad a: El Gatekeeper puede rechazar una llamada desde un
terminal basándose en la especificación Q.931. (H.225.0) Las razones para rechazar la llamada pueden ser, pero no están limitadas a, acceso restringido desde o hacia un terminal particular o Gateway, y acceso restringido durante un periodo de tiempo. El criterio para determinar si se pasa la autorización o falla, está fuera del alcance de H.323. •
Gestión de llamada: El Gatekeeper puede mantener una lista de las llamadas en
curso, esta información puede ser usada para indicar si un terminal está ocupado o para dar información a la función de gestión de ancho de banda. •
Otros como: Estructura de datos de información para la gestión, reserva de ancho
de banda y servicios de directorio.
85
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
3.6.4.- Unidad Control Multipu nto (MCU). La MCU soporta conferencias entre tres o más extremos. En terminología H.323, el MCU se compone de: Controlador Multipunto (MC) que es obligatorio, y cero o más Procesadores Multipunto (MP). El MC gestiona las negociaciones H.245 entre todos los terminales para determinar las capacidades comunes para el procesado de audio y video. El MC también controla los recursos de la conferencia para determinar cuales de los flujos, si hay alguno, serán multicast. Las capacidades son enviadas por el MC a todos los extremos en la conferencia indicando los modos en los que pueden transmitir. El conjunto de capacidades puede variar como resultado de la incorporación o salida de terminales de la conferencia. El MC no trata directamente con ningún flujo de datos, audio o video. Esto se lo deja el MP, este mezcla, conmuta y procesa audio, video y/o bits de datos. Las capacidades del MC y MP pueden estar implementadas en un componente dedicado o ser parte de otros componentes H.323, en concreto puede ser parte de un Gatekeeper, un Gateway, un terminal o una MCU. El MP recibe flujos de audio, video o datos desde los extremos, estos pueden estar involucrados en una conferencia centralizada, descentralizada o híbrida. El MP procesa esos flujos y los devuelve a los extremos. La comunicación entre el MC y el MP no es asunto de estandarización. Conferencias Multipunto.
Existen una variedad de métodos de gestionar las conferencias multipunto. La Recomendación hace uso de los conceptos de conferencia centralizada y descentralizada. Las conferencias centralizadas requieren de una MCU. Todos los terminales envían audio, video, datos y flujos de control a la MCU en un comportamiento punto-punto. La MC gestiona de forma centralizada la conferencia usando las funciones de control H.245 que también definen las capacidades de cada terminal. El MP mezcla el audio, distribuye los datos y
86
CAPITULO 3. H. 323. VIDEOCONFERENCIA SOBRE REDES UTILIZANDO TCP/IP.
mezcla/conmuta el video y envía los resultados en flujos de vuelta a cada terminal participante. En conferencias multipunto descentralizadas se puede hacer uso de tecnología multicast. Los terminales H.323 participantes envían audio y video a otros terminales participantes sin enviar los datos a una MCU. Sin embargo el control de los datos multipunto sigue siendo procesado de forma centralizada por la MCU, y la información del canal de control H.245 sigue siendo transmitida de modo unicast a un MC. Son los terminales que reciben múltiples flujos de audio y video los responsables de procesarlos. Los terminales usan los canales de control H.245 para indicar a un MC cuantos flujos simultáneos de video y audio son capaces de decodificar. El número de capacidades simultáneas de un terminal no limita el número de flujos de audio y video que son enviados por multicast en una conferencia. Las conferencias multipunto híbridas usan una combinación de características de las centralizadas y descentralizadas. Las señalizaciones y cualquier flujo de audio o video son procesados a través de mensajes punto a punto enviados a la MCU. Las restantes señales (audio o video) son enviadas a los participantes a través de multicast. Una ventaja de las conferencias centralizadas es que todos los terminales soportan comunicaciones punto a punto. La MCU puede sacar varios flujos unicast a los participantes y no se requiere ninguna capacidad de la red especial. También es posible que la MCU reciba varios flujos unicast, mezcle el audio, y conmute el video, y saque un flujo multicast, conservando de esta manera el ancho de banda de la red. H.323 también soporta conferencias multipunto mixtas en las cuales algunos terminales están en una conferencia centralizada, mientras otros están en una descentralizada, y una MCU proporciona el puente entre los dos tipos. Al terminal le es transparente la naturaleza mixta de la conferencia, solo tiene en cuenta el modo en que envía o recibe. Multicast hace más eficiente el uso del ancho de banda de la red, pero supone una más alta carga computacional en los terminales que tienen que mezclar y conmutar entre los 87
CAPITULO 3. H. 323 323.. VIDEOCONFERENCI VIDEOCONFERENCIA A SOBRE SOB RE REDES UTILIZANDO TCP/IP.
flujos de audio y video que reciben. Además, el soporte multicast es necesario en elementos de la red como routers y switches. Un MC puede estar localizado en un Gatekeeper, un Gateway, un terminal o una MCU.
88
CAPITULO 4. STREAMING.
89
CAPITULO 4. STREAMING.
CAPITULO 4. STREAMING STREAMING. 4.1.- Introducción. El streaming media es una tecnología desarrollada para poder emitir audio y video por Internet de manera instantánea. Antes del streaming media era necesario dedicar varios minutos a la descarga de un archivo que contenía el video para poder verlo. Por otro lado el streaming permite transmisiones de audio y video en vivo por la Red. La tecnología de streaming se utiliza para aligerar la descarga y ejecución de audio y vídeo en la web, ya que permite escuchar y visualizar los archivos mientras se están descargando. La diferencia con los servicios de descarga es clara, ya que en este se produce primero el envío de datos y sólo después se accede a los contenidos, por el contrario, el streaming permite ver o escuchar el contenido durante la descarga; es decir, el transporte y el tratamiento de datos producen en forma simultánea. Existen dos formas de streaming: Stream en Directo y Stream Bajo Demanda.
•
Directo: El "stream" "stream " se codifica en el acto, es retransmitido instantáneamente hacia hacia Internet y se visualiza en tiempo real.
•
Bajo Demanda: Demanda: El "stream" una una vez grabado, grabado, se aloja en un servidor multimedia y puede ser visualizado bajo demanda en cualquier instante.
El elemento más importante a la hora de hacer una transmisión Streaming es el Codec, ya que elimina los elementos constantes de las imágenes reduciendo la cantidad de información a transportar por las redes. El Codec codifica y decodifica de manera continua los pequeños paquetes de datos en los que es dividida la información a enviar, para poder lograr una reproducción sin interrupciones.
90
CAPITULO 4. STREAMING.
4.2.- Streaming bajo demanda. El streaming "bajo demanda" u on-demand , por su nombre en inglés, consiste en archivos de video que descansan en un servidor esperando ser solicitados por el internauta. Un ejemplo de esto es un site con archivos de noticias, o un site de videos musicales.
4.3.- Streaming en vi vo. El streaming en vivo o webcast, consiste en transmitir audio o video por la red en el instante que se está emitiendo. En este formato se tiene lo que es la transmisión de la señal de una estación de radio o un canal de televisión. Actualmente el streaming ha orientado sus aplicaciones en la Red a los sites de noticias, música y entretenimiento. En cuanto a las aplicaciones corporativas el streaming se utiliza con gran impulso para el entrenamiento a personal ya que el trabajador puede ver en video una y otra vez sus charlas de capacitación. Cada día son más los sites que están incorporando video y audio en su contenido. Convirtiendo en realidad a la web en una verdadera experiencia multimedia. Una pequeña empresa puede colocar un video corporativo, una escuela de danza puede transmitir sus presentaciones, una agencia de modelos puede presentar sus desfiles y no hay límites para su aplicación. •
Redes de banda ancha. El desarrollo del streaming y las redes de banda ancha van
de la mano. Mientras mayor velocidad tenga la conexión a Internet se puede transmitir video de mejor calidad. En el mediano plazo se espera que ver un video por Internet sea tan igual como disfrutar de la televisión. •
Dispositivos móviles. Otra tendencia del streaming es su uso en dispositivos
móviles como teléfonos celulares. En este caso el streaming está en una etapa incipiente explorando las necesidades de los usuarios.
91
CAPITULO 4. STREAMING.
•
Equipos. El auge del video digital y la explosión de la edición de video en las
computadoras personales permiten que se pueda producir streaming relativamente a bajo costo. Con una cámara de video digital MiniDV, una tarjeta FireWire y un programa de edición como el Adobe Premiere se puede incursionar en este mundo. Dependiendo la calidad del producto final de nuestro profesionalismo y conocimiento de las herramientas.
•
Flujo de contenido. Una vez que se ha producido el streaming debe ser colocado en
un Hosting especial con las capacidades para administrar la concurrencia simultánea, el flujo de ancho de banda y codificación en vivo, teniendo la inteligencia para atender a un pequeño grupo o a miles de usuarios simultáneamente.
•
Interactividad. Finalmente, es necesario integrar el streaming en websites que
incentiven al usuario a interactuar con el contenido. De este modo se rompe la tradicional pasividad inherente a los medios tradicionales como la prensa, la TV y la radio.
4.4.- Formatos del Streaming Media. Hoy en día se dispone de tres plataformas para crear streaming: Windows Media, Quicktime y Real. Son arquitecturas que compiten entre si por brindar una solución que abarque desde los aspectos de creación hasta la visualización del audio o video streaming. El criterio para su elección depende mucho de la orientación del proyecto, de los que verán el contenido o de cómo éste se despachará. En algunos casos los proyectos de streaming producen los tres formatos de un mismo contenido. Streaming media.
Existen 2 tipos de servicios de streaming media: El que por ahora prevalece es el llamado UNICAST, que distribuye archivos multimedia (audio / video) desde un servidor a cada computadora individualmente.
92
CAPITULO 4. STREAMING.
Para difundir archivos multimedia de manera similar a como un canal de televisión o estación de radio emiten su señal se utiliza MULTICAST.
4.5.- Streaming media Unicast . La mayoría de los archivos de audio y video que se ven en el computador, cual sea el reproductor que se utilice (Real, Windows Media), proviene de un servicio UNICAST. Este servicio consiste en un servidor que envía paquetes de datos a cada computador que solicita un stream. Unicast es una buena opción para recibir transmisiones en vivo, pero tiene sus desventajas. El servidor debe enviar el flujo de datos individualmente a todo aquel que quiere recibir la transmisión. Si se tiene un puñado de personas recibiendo el stream está bien; pero si se trata de difundir el stream a miles de usuarios se debe de considerar 2 inconvenientes con el proceso unicast. Demasiadas peticio nes . Con unicast el servidor tiene que procesar cada solicitud de stream
y despacharla. Cada stream toma una pequeña porción de poder de procesamiento del servidor. Si se obtienen muchas solicitudes el servidor no podrá sostener la sobrecarga y muchas personas no podrán recibir la transmisión. Demasiados paquetes . El segundo problema con unicast, y un gran número de solicitantes
simultáneos de stream, es que una serie separada de paquetes de datos debe ser enviada a cada persona. Incluso si el servidor pudiera hacer esta tarea, el número de paquetes de datos en tránsito haría "flooding", es decir, inundaría el sistema entero haciendo que la transmisión se torne muy lenta, o hasta se detenga. Considere que a mayor cantidad de transmisión (por ejemplo, un evento en vivo que dure una hora) los paquetes pueden desbordar la red de manera similar a cuando los automóviles se congestionan en una autopista a la hora pico. En Internet, a estos congestionamientos se les llama "Traffic Jams".
93
CAPITULO 4. STREAMING.
4.6.- Streaming media MULTICAST. Multicast hace su trabajo de transmisión de manera similar a como funcionan los canales de televisión o las estaciones de radio: El programa (archivo de audio / video) se emite desde la estación hacia los transmisores (servidores conectados a la red) quienes se encargan de distribuir la señal (el stream) a los televidentes. Cuando el espectro de televidentes (usuarios, visitantes) se extiende, se agregan repetidores (servidores). Sintonía fin a. Todos los paquetes se mueven a través de una red a gran velocidad. Estos
son dirigidos por routers hasta que encuentran la dirección para la que han sido proyectados. Un computador / servidor "mira" en el canal y graba cualquier paquete direccionado a él. Este convierte los paquetes a información útil y marca los paquetes así estos no serán examinados por ningún router más. Con multicast su computador es configurado para que aparte de "escuchar" por paquetes direccionados a él también esté atento a paquetes que estén direccionados a una dirección específica de multicast, llamada estación. Multicast reserva una serie de direcciones para transmisión que no pueden ser asignadas a ninguna computadora. Si su computadora está configurada para multicast ésta permanecerá pendiente de paquetes de datos sobre una particular "estación". Cuando ésta reciba un paquete de esa estación lo convertirá en información útil y aprobará su reproducción en el player de streaming media. Al mismo tiempo, todas las otras computadoras que se encuentren recibiendo la transmisión estarán obteniendo los mismos paquetes desde la misma estación. Multicast es muy eficiente. Una simple serie de paquetes de datos puede ser usada para transmitirá a la Internet entera. Recibiendo multicast. Desde el punto de vista del usuario, recibir multicast o unicast
es casi lo mismo. Se hace click en el enlace debido, el reproductor de streaming media es conectado al servidor, se abre el archivo de audio / video y comienza el show. La única
94
CAPITULO 4. STREAMING.
diferencia es que el servidor podrá colgarse o no, se obtendrá la transmisión deseada, y la Internet entera estará menos abarrotada de paquetes de datos en tanto más servicios multicast sean usados. Debido a que multicast es transmisión por envío de una serie de paquetes de datos, no hay una manera sencilla de que el reproductor solicite un paquete de datos para que sea enviado de nuevo. Esto quiere decir que algunos paquetes son perdidos, incluso antes de que se pueda notar debido en parte a la manera en que el reproductor codifica los archivos. Multicast puede ser una solución a largo plazo para los "traffic jams" de la Internet, pero aún falta camino por recorrer. Multicast todavía no ha reemplazado a Unicast en la Internet porque algunas partes de la Internet no han sido conectadas a routers que entiendan el proceso multicast. La mayoría de los nuevos routers pueden manejar multicasts eficientemente, pero los sistemas de educación y de gobierno obsoletos que enlazan piezas de la Internet están usando tecnología desactualizada. Del lado del usuario, la mayoría de las tarjetas de red en los equipos más recientes también entienden el funcionamiento de multicast. Aún así llevará un par de años cerrar la brecha. Sin embargo existe un área donde multicast se está haciendo popular: las intranets. Debido a que el equipamiento tecnológico de las compañías está modernizado (en términos generales) es posible interconectar muchos equipos donde es hoy posible trabajar con multicast, por ejemplo, con fines de capacitación. Multicast también puede ser utilizado exitosamente en una gran ciudad. Desde hace un tiempo no se necesita mantener archivos de audio y video en su PC; se tiene la posibilidad de hacer stream de lo que quiera en cualquier momento del día o la noche. No importa cómo se elija recibir los "mediafiles" desde la Internet, la tecnología está disponible y es accesible para todo el mundo.
95
CAPITULO 4. STREAMING.
4.7.- Distr ibu ció n de Contenido. Si el objetivo es distribuir contenidos multimedia a una o varias personas, se debe conocer varias tecnologías que facilitaran la tarea de hacer llegar la información de forma eficaz a los destinatarios que se desee. Entre estas tecnologías cabe destacar:
Streaming de Multimedia: La estrategia se basa en la entrega de información
utilizando streaming, lo cual consiste en reproducir bits a medida en que se reciben desde el servidor, de esta forma no hay tiempo de descarga. Para poder realizar streaming es necesario que el bit rate sea menor que el ancho de banda de la red. Bit rate es la velocidad a la que se envían los datos (datos/seg). Por ejemplo en vídeo de alta resolución se utiliza 128 Mbis/seg: 1 segundo a 28 Kbits/seg es 1 hora y 14 minutos. •
Métodos de Entrega: se puede diferenciar entre 5 métodos de entrega diferentes,
dependiendo
de
diferentes
características
(unidifusión/multidifusión,
cliente
activo/pasivo, etc.): o
On-Demand (A petición - cliente activo): El contenido media es posible que se
entregue mediante streaming, bien por la demanda de un usuario o bien por la solicitud de un servidor Windows Media. Con Windows Media Encoder se puede realizar el streaming tanto si el contenido procede de un servidor como si es contenido es en vivo. Es un método de distribución Unidifusión. o
Unicast (Bajo demanda o broadcast): Por medio de una conexión cliente/servidor, el
cliente recibe bajo demanda un stream de contenido previamente almacenado o un contenido en directo, de forma que ningún otro cliente tiene acceso a dicho stream. o
Broadcast (Cliente pasivo): Un stream broadcast puede ser multicast o unicast. En
una conexión broadcast, el cliente es pasivo y no controla cuando el stream empieza o termina. Por el contrario, en una conexión bajo demanda, el cliente es activo y controla cuando el stream empieza o para. A causa de la interacción del cliente, es un método de distribución unidifusión. 96
CAPITULO 4. STREAMING.
o
Broadcast Unicast: Es una conexión punto a punto que un cliente Windows Media
Player inicia a un servidor Windows Media. Es similar a una llamada de teléfono, donde se establece una conexión continua entre cada cliente y el servidor. o
Multicast (Multidifusión de un stream en tiempo real - solo broadcast): Consiste en la
distribución de un stream a muchos clientes que escuchan monitorizando una dirección IP multicast. Codecs: Como Codec se entiende la forma de codificación de la información que se
•
desea transmitir, Existen tres subapartados: o
Codecs para contenido ASF (Advanced Streaming Format). ha sido desarrollado por un consorcio de empresas (Microsoft, Vivo, Real NetwWorks, etc.) para media servers, servidores HTTP y reproducción local. ASF es un formato de transporte independiente diseñado para audio, video, imágenes, texto y comandos de script. Con ASF se consigue que un único stream de entrada pueda ser codificado en múltiples streams de salida en un mismo archivo Windows Media (multi-bit-rate MBR). Cada stream escalado difiere en la velocidad en que puede ser entregado, y sólo
puede reproducirse uno a la vez, de forma que son el reproductor y el servidor los que negocian la velocidad más adecuada. Los Codecs para contenido ASF son: MS Audio, MPEG 4, Screen Capture (640X480), MPEG 1 and 2,TrueMotion RT, (Duck), ClearVideo 1.3 (Real Video),H.263 (Vivo), H.261 (Intel), VideoFlash, (WebTV), VFOWave, Real Video Standard, RLE, RT24 MetaVoice (Voxware), MetaSound (Voxware), MetaVoice (Voxware), MPEG Layer 3 (FhG), G.723 (Vivo + Lucent), Siren (Vivo), L&H, RealAudio (14.4/28.8), DolbyNet, ACELP (Sipro), etc.. Audio: Microsoft Audio es un Codec de audio desarrollado por Microsoft que ofrece
o
gran calidad utilizando pocos recursos. Así por ejemplo un Streaming de una señal FM-setéreo se retransmite a 20 Kbps. Otra característica es que ofrece un amplio rango, desde 6 Kbps a 160 Kps en mono y estéreo. También cabe destacar su alto
97
CAPITULO 4. STREAMING.
rendimiento de compresión, así cabe decir que es posible reducir a la mitad el tamaño de un fichero MP3 obteniendo la misma calidad. Web s erver vs. Media Server streaming :
Con un servidor web el cliente de streaming empieza a reproducir el contenido mientras se descarga, tras unos segundos de buffering (proceso de almacenar la primera parte de un archivo multimedia antes de reproducir). El cliente recibe los datos tan rápidamente como el servidor Web, red y cliente puedan, sin tener en cuenta el parámetro bit-rate del stream comprimido. A través de un servidor Multimedia especializado (Media server) los datos son inteligentemente enviados al cliente, de forma que el servidor distribuye el contenido a la velocidad de datos asociados con los streams de audio y vídeo. El servidor y el cliente están en contacto durante el proceso de distribución, y el servidor de streaming puede responder a cualquier información del cliente. o
Las ventajas más importantes de un Media Server son:
Throughput de red más eficiente
Mejor calidad de audio y video al usuario
Características avanzadas (Controles de reproducción)
Escalabilidad rentable a un mayor número de usuarios (Especialización, Soporte de Multicast)
Protección de los derechos de contenido
Múltiples opciones de distribución (UDP, TCP, HTTP+TCP, multicast,...)
98
CAPITULO 4. STREAMING.
4.8.- Funcio namiento del Streaming. El cliente se conecta con el servidor y éste le empieza a mandar el archivo. El cliente comienza a recibir el archivo y construye un buffer donde empieza a guardar la información. Cuando se ha llenado el buffer con una pequeña parte del archivo, el cliente lo empieza a mostrar y a la vez continúa con la descarga. El sistema está sincronizado para que el archivo se pueda ver mientras que se descarga, de modo que cuando éste acaba de descargarse también ha acabado de visualizarse. Si en algún momento la conexión sufre descensos de velocidad se utiliza la información que hay en el buffer, de modo que se puede aguantar un poco ese descenso. Si la comunicación se corta demasiado tiempo, el buffer se vacía y la ejecución el archivo se cortaría también hasta que se restaurase la señal.
4.9.- Ventajas de Streaming. •
La reproducción puede empezar inmediatamente, sin necesidad de esperar una larga descarga.
•
No se necesita espacio de almacenamiento en el cliente, salvo un buffer relativamente pequeño.
•
El transmisor (servidor) puede adaptar la tasa de envío a las condiciones de la red y la capacidad del cliente.
•
Interactividad, pues los datos de los archivos trasferidos en tiempo real pueden registrar variaciones debido a una respuesta por parte del cliente.
•
Los datos a transmitir pueden ser creados en el momento de ser transmitidos, de manera que el cliente obtiene una transmisión "en vivo" de acontecimientos ocurridos en otro lugar pero simultáneos al momento de la transmisión.
99
CAPITULO 4. STREAMING.
4.10.- Tecnologías Streaming. La técnica de Streaming aparece en contraposición a la tradicional técnica de conmutación de paquetes bajo el protocolo HTTP. Ésta última queda obsoleta en éste nuevo tipo de transmisión debido a dos causas principales:
•
Los archivos con contenidos multimedia suponen un importante flujo de datos en el medio.
•
Éstos archivos son "fragmentados" en pequeños lotes cuyo tamaño viene definido por el tipo de red por la cual van a ser difundidos. Para que los archivos puedan ser reproducidos en el destino han de ser recibidos completamente, es decir, han de recopilarse todos los fragmentos de datos y recomponer el fichero. A mediados de los '90, surgieron las primeras tecnologías de Streaming para redes IP
(Protocolos de Internet), introduciendo el nuevo protocolo RTSP o Real Time Streaming Protocol, que tiene en cuenta los problemas con los que contaba HTTP. Este protocolo será
analizado posteriormente. Entre estas tecnologías destaca con rapidez la desarrollada por Real Networks. Ésta permite transmitir audio y vídeo desde los servidores hacia los clientes usando simples módem y con una pequeñísima diferencia temporal entre la solicitud del archivo y su reproducción. Otra tecnología a destacar es la desarrollada por Apple, Quicktime, optima en sistemas Mac OS. Trabaja con los dos protocolos principales de reproducción multimedia, HTTP para transmisiones convencionales a través de servidores Apache y RTSP para transmisiones Streaming . Este software de servidor ha de unirse al Sistema Operativo Mac Os X Server, para conseguir la máxima optimización de la transmisión con productos Apple en Sistemas Mac Os. Su última versión, que incluye el servidor Quick Time Server 2, aporta soporte para sistemas Linux.
100
CAPITULO 4. STREAMING.
4.10.1.- Componentes de las tecnologías Streaming . •
Un servidor Web, que soporta el software necesario para poder servir información multimedia en tiempo real, el cual es llamado Stream . Este software permite al servidor ofrecer conexiones multitudinarias. Ante una solicitud de información, el servidor divide y comprime la información en pequeños paquetes para ser transmitida por la Red.
•
Un reproductor de contenidos multimedia, un software que procesa un flujo medial que entra en la máquina destino a través del sitio web. El reproductor contiene el decodificador que permitirá al usuario visualizar los contenidos Streaming de manera eficiente. Se caracteriza porque no es necesaria la recepción completa de los datos para que éste pueda comenzar la reproducción
•
Plug-ins para el navegador. Si lo que se desea es reproducir documentos multimedia sin necesidad de instalarse nuevos programas, se tiene la posibilidad de activar los plug-ins del navegador.
4.10.2.- Servidores de Streaming. En principio no es necesario contar con un servidor especial para colocar archivos de audio o vídeo con descarga streaming en nuestras webs. Cualquier servidor normal puede mandar la información y es el cliente el que se encarga de procesarla para poder mostrarla a medida que la va recibiendo. Sin embargo, existen servidores especiales preparados para transmitir streaming. Aunque en muchas ocasiones no es necesario utilizarlos, pueden ofrecer importantes prestaciones como mandar un archivo de mayor o menor calidad dependiendo de la velocidad de nuestra línea.
101
CAPITULO 4. STREAMING.
En determinados casos, como la puesta en marcha de una radio o la transmisión de un evento en directo, si será imprescindible contar con un servidor de streaming al que se mandará la señal y con ella, la enviará a todos los clientes a medida que la va recibiendo. Se entiende por streaming la capacidad de distribución de contenido multimedia, con la característica de poder visualizar estos contenidos mientras esa información está siendo trasmitida por la red. Este sistema tiene la ventaja frente al sistema existente anteriormente, (era necesario bajar completamente el vídeo para comenzar su visualización) pero necesita que tanto el servidor de vídeo como las redes de datos sean capaces de mantener un flujo constante de esa información. Básicamente cualquier sistema de streaming estará formado por: Compresión, transmisión y buffering. Las configuraciones de este tipo de servicios, pueden variar desde un número pequeño de usuarios y contenidos, hasta un gran número de ellos y mucho volumen de información. Evidentemente, el planteamiento será distinto según la solución a tratar. Aquí la red de comunicaciones también es importante, tanto en su ancho de banda como en la posibilidad de manejar tráfico multicast. A la hora de dimensionar una solución de streaming, es necesario tener en cuenta varios factores: número de usuarios simultáneos, número de horas de almacenamiento y cómo se va a utilizar el servicio. Cuando el almacenamiento crece, es necesario plantearse el incorporar a la solución un sistema, tanto de catalogación, como de recuperación de esa información. Así como un sistema que permita manejar todo ese volumen de datos. Además, es importante tener en cuenta otros factores como: formatos de vídeo soportados por el servidor de streaming (Real, MPEG-1, MPEG-2, MPEG-4, QT,…), protocolos utilizados para el transporte (RTP, RTSP, soluciones propietarias), soporte de multicast (real o simulado). En relación a los servidores de streaming se pueden dividir en dos tipos: Intranet video servers e Internet video servers.
Los primeros, suelen utilizar formatos de vídeo de más calidad y más ancho de banda. Aquí se habla de MPEG-1 (1 a 3 Mbits) con una calidad similar al VHS, MPEG-2 (3 a 102
CAPITULO 4. STREAMING.
10 Mbits) con calidad DVD. Además se necesitan las tarjetas capturadoras (encoders) que generen esta salida. Aquí el precio variará dependiendo del formato que se elija. La elección de un formato u otro dependerá de varios factores: uso que se la dará a esos contenidos, disponibilidad de ancho de banda en la red, calidad y tipo del material (master), lugar de visualización de contenidos,… Como ejemplo de ancho de banda/calidad se dice que una ventana pequeña con calidad VHS se puede estar hablando de (80 Kbits para una solución propietaria y hasta 0.5 Mbits para MPEG-1). Una pantalla grande con calidad S-VHS se necesita de 1 a 2 Mbits para MPEG-1. Para una mayor calidad como Betacam-SP. Evidentemente con este volumen de información se tiene que plantear la elección de un sistema de almacenamiento acorde a las necesidades. El segundo tipo de servidores se utilizarán para dar servicio a Internet. Aquí los anchos de banda (a Día de hoy) son considerablemente menores a 1. Se hable de velocidad que va desde los 28-56 Kbits.a 128 o 384 kbits. Con formatos como Realvideo o ASF (Advanced Stream Format). Evidentemente, las necesidades de almacenamiento cambian radicalmente con el primer tipo de servidores, y los precios de la solución final (incluyendo estaciones de codificación) también. En cuanto a la forma de trabajar y planificar el trabajo, es independiente del tipo de servidor que se tenga (Internet o Intranet). Por último, como elementos a resaltar en una solución de streaming existen :
•
Servidor de streaming : estará formado por el software de streaming y sistema de
catalogación en caso de ser necesario. •
Estación de captura (codificación): permite realizar la captura de la señales de audio y
vídeo para trabajar de cualquiera de las formas vistas anteriormente.
•
Sistema de almacenamiento : se dimensiona según las necesidades.
103
CAPITULO 4. STREAMING.
•
Herramientas de producción : En algunos casos puede ser interesante disponer de
software adicional que permita generar contenidos más elaborados. Servidor RealServer :
Solución ofrecida por RealNetworks para la distribución de contenidos vía streaming tanto en directo como en diferido. El software es multiplataforma y puede ser instalado tanto en Windows como en sistemas Unix (Linux y Solaris, HP-UX, IRIX,). Se puede instalar una versión de demo que permite la conexión de hasta 25 usuarios simultáneos. Esta solución viene limitada en algunas de sus funcionalidades ( mutlicast y splitting). Como herramientas para producir están: RealProducer (codificación en formato RealVideo tanto en directo como en diferido), RealPresenter (para realizar presentaciones de audio, vídeo con PowerPoint y WWW), RealSlideShow (presentaciones con gráficos y audio).
Como características de este conjunto de software se puede resaltar: o
Facilidad de instalación y configuración.
o
Multiplataforma en Servidor, codificación y visualizadores.
o
Administración y configuración vía WWW.
o
Se apoya en estándares (SMIL, RTP/RTCP, RTSP, etc).
o
Soporte multicast (real y simulado).
o
Soporta protocolos de sesión como SAP/SDP para su comunicación con las herramientas típicas de videoconferencia multicast (sdr).
o
Herramientas de control y estadísticas de uso (JAVA).
o
Control de acceso (por dirección IP).Soporta formatos como: AVI, MOV, QT, MP3, RealVideo8, MPEG-1, MPEG-21
Servidor Windo ws Media.
Es la tecnología perteneciente a Microsoft engloba una serie de herramientas para la generación de elementos audiovisuales y su difusión por intranets o Internet.
104
CAPITULO 4. STREAMING.
Soporta video bajo demanda (VoD), emisión en vivo y programada. La emisión puede ser entregada de múltiples formas al receptor:
•
Multicast: si la red lo soporta y es un contenido en vivo o diferido.
•
UDP: si no soporta multicast.
•
TCP: si los puertos UDP están filtrados
•
HTTP: Si las conexiones TCP están filtradas puede ser entregado por HTTP, a través de proxies.
Windows Media es una solución propietaria que aporta sus propios protocolos. La conexión entre cliente y servidor se negocia usando el protocolo MMS (Multi Media Server) o también se puede hacer streaming sobre HTTP. MMS funciona encima de TCP, usa el puerto 1755 y con él se negocian las características de velocidad de la conexión así como el modo de entrega que en particular puede ser sobre HTTP. Los servidores que sirven contenidos de Windows Media usan urls del tipo MMS://, o bien MMSU:// (para forzar UDP) o bien MMST:// (para forzar TCP). La negociación de la forma de entrega es la siguiente: primero se intenta Multicast (sí el servidor está configurado para hacerlo), después UDP, TCP y HTTP. Los contenidos de Windows Media pueden ser difundidos desde un servidor web por HTTP. Comparado con un servidor Web, el Windows Media Service aporta varias ventajas:
•
Uso más eficiente del ancho de banda. El Windows Media Service puede hacer uso como ya se indicó de varios transportes que hacen más eficiente la entrega.
•
Mejor calidad para el usuario
•
Envió de flujos multistream. Para que según el ancho de banda del cliente se envié con distintas calidades.
•
Protección de contenidos con copyright
•
Escalabilidad. Soporta más clientes.
•
Control del ancho de banda en uso.
105
CAPITULO 4. STREAMING.
Por lo que se conoce, MMS es equivalente a RTP, RTCP y RTSP. Los formatos de archivo propios de Windows Media son asf, wmv y wma. En realidad los archivos wmv y wma (video y audio respectivamente) pueden ser renombrados a asf ya que su estructura es idéntica. En ciertos sitios puede demandarse un archivo de tipo asf y tener uno codificado que sea wmv por ejemplo, en cuyo caso solo se tiene que renombrar a asf. Una de las ventajas de esta solución de streaming frente a otros productos es la calidad de sus CODEC. Actualmente se soportan los siguientes CODEC para video: MPEG4 v3 (no cumple el estándar), MPEG4 ISO, Windows Media V7, Windows Media V8. Otro punto fuerte a favor de esta solución es el precio, Microsoft lo distribuye desde su Web de forma gratuita. Codificación.
Para la generación de archivos en formatos asf, wmv y wma se pueden utilizar dos soluciones: •
Batch Encode Utility: para generar archivos asf, wmv y wma a partir de archivos en otros formatos (por ejemplo avi, mp3, wav, mpg, etc.
•
Windows Media Encoder: Se puede usar para lo mismo que el anterior pero además permite tomar como fuente una captura audio y/o video que es codificada en tiempo real. En este se pueden especificar varias fuentes (por ejemplo un video de entrada, un anuncio, un gráfico, etc.) e ir pasando de unas a otras. Se pueden generar eventos que son generados en el reproductor del cliente. El contenido que está siendo generado puede almacenarse en un archivo,
difundirse a Media Players por HTTP o bien difundirse a un Windows Media Services también por HTTP y que sea este el que lo distribuya a los clientes. No se aconseja más de 30 clientes conectados directamente al Windows Media Encoder. El inconveniente principal de conectar de esta forma a los clientes es que sólo se pueden entregar los contenidos por HTTP.
106
CAPITULO 4. STREAMING.
Difusión.
Para la difusión del contenido multimedia como ya se dijo además de un servidor web se pueden utilizar los Windows Media Services. Estos son administrados desde una interface web simple. Una vez instalado el servicio, que puede funcionar tanto en NT como en Windows 2000 (en este viene en el CD-ROM de instalación), habrá que instalar los puntos de publicación de unidifusión a petición. Esto es equivalente a dar la raíz en un servidor WEB. Una vez hecho esto cualquier archivo asf colocado en dicho directorio será servido bajo demanda usando la sintaxis mms://nombreservidor/archivo.asf. También se puede dar un alias al punto de montaje y entonces sería mms://nombreservidor/alias/archivo.asf. Esta url la entienden Explorer o Media Player, en el caso del Explorer lanza el Media Player para que la use. Con lo explicado en el párrafo anterior se tendría video bajo demanda. Otras posibilidades son: emisora difundiendo contenidos en vivo (desde un Encoder) o contenidos grabados, ambas distribuidas por unicast o multicast. Todas ellas se encuentran extensamente documentadas en la ayuda. Puesto que una url de tipo mms:// solo es entendida por Internet Explorer, se usa un formato de archivo denominado asx que además sirve para definir el comportamiento del Media Player. Este archivo se baja por HTTP y está asociado al Media Player. Dentro de este archivo se encuentra la url mms:// o http:// del contenido a visualizar, también se pueden poner banners, y metainformación sobre el contenido en emisión, además de listas de reproducción y más características interesantes. El video puede ser visualizado embebido dentro de una página web en cuyo caso la apariencia del video puede ser cambiada, por ejemplo con botones o sin ellos, etc.
107
CAPITULO 4. STREAMING.
4.11.- Concl usión. Para poder transmitir video por red IP es necesario codificar el video con un codificador que soporte el streaming por ejemplo: (Windows Media Video, MPEG, Cinepak by radius, Indeo video 5.10). Si deseamos transmitir video de calidad por Internet a una gran audiencia es necesario contar con IP p úblico, ademas de un ancho de banda mayor a 512 kps.
108
CAPITULO 5. PROTOCOLOS RTSP y RTP
109
CAPITULO 5. PROTOCOLOS RTSP Y RTP
CAPITULO 5. RTSP Y RTP.
5.1.- Introducción. RealNetworks, Netscape Communications y la Columbia University han desarrollado Real-Time Streaming Protocol (RTSP). Es un protocolo, es decir la serie de procedimientos genéricos para la comunicación entre dos máquinas, que optimiza el flujo de datos. A diferencia del HTTP, que no define precisamente el género de archivos que vienen trasladados, el RTSP controla los datos con funcionalidades conceptualmente similares a las de un aparato de vídeo: Play, fast-forward, pause, stop y record.
5.2. - RTSP (Real Time Streamin g Protocol). Real Time Streaming Protocol es un protocolo a nivel de aplicación de presentación multimedia cliente/servidor, que permite controlar el flujo de audio y video sobre la red IP. No existe la noción de una conexión RTSP. El servidor mantiene etiquetada cada sesión por medio de un identificador, durante esta el cliente puede abrir y cerrar varias conexiones confiables con el servidor.
5.3.- Característica d el RSTP. •
RTSP introduce nuevos métodos y tiene un diferente identificador de protocolo.
•
Un servidor de RTSP necesita mantener el estado por defecto en casi todos los casos.
•
Tanto el servidor RTSP como el cliente pueden realizar peticiones.
•
RTSP se define para utilizar ISO 10646 (Utf-8).
110
CAPITULO 5. PROTOCOLOS RTSP Y RTP
El protocolo soporta las sigu ientes operaciones:
•
Recuperación d e datos del servidor. El Cliente pide la descripción de una presentación
vía HTTP o cualquier otro método y le pide al servidor que establezca la sesión para enviar los datos solicitados
•
Invitación al servidor de medios a una conferencia. El servidor de medios puede ser
invitado a una conferencia para reproducir o para grabar una presentación. •
Añadir dat os multimedia a u na pr esentac ió n exi st ente: El servidor y el cliente puede
notificarse uno a otro la disponibilidad de datos adicionales. En RTSP cada presentación y cada stream multimedia es identificado por un URL RTSP. La presentación completa y las propiedades de los medios se definen en un fichero de descripción de presentación, entre la información se incluye el tipo de codificación, el idioma, las URLs RTPS, las direcciones de destino, los puertos y otros parámetros. Los modos de operación que utiliza el servidor para enviar el audio y/o video a la dirección de destino son:
•
Unicast: la información (audio y video) es trasmitido a la fuente de la petición RTSP, con
el número de puerto escogido por el usuario. Alternativamente, las información es transmitida por es el mismo flujo confiable de RTSP.
•
Multicast, dirección escogida por el usuario: el servidor de los medios escoge la
dirección y el puerto del multicast. Este es un caso típico de la transmisión en vivo o por demanda.
•
Multicast, dirección escogida por el cliente: si el servidor está participando en un
multicast conferencia, la dirección multicast, el puerto y la clave de encriptación es dada en la descripción de la conferencia
111
CAPITULO 5. PROTOCOLOS RTSP Y RTP
5.4.- Propiedades del Pro tocolo RTSP.
•
Extensible: Nuevos métodos y parámetros pueden ser fácilmente agregados al
protocolo.
•
Fácil d e Analizar lexicográfic amente: Su estructura lexicográfica es similar a HTTP y a
MIME.
•
Seguro: RTSP reutiliza mecanismos de seguridad de la web en el nivel de transporte o
dentro del protocolo en si. Todos los mecanismos de autentificación de HTTP tales como autentificación básica o de resumen son directamente aplicables.
•
Independiente del protocolo de transporte utilizado: RTSP puede utilizar cualquier
protocolo no fiable de datagramas (UDP), protocolo fiable de datagrama (RCP) o un protocolo confiable como TCP.
•
Permite multi-server: cada flujo de datos puede residir en diferentes servidores. El
cliente automáticamente establece varias sesiones de control concurrentes, con diferentes servidores de medios. La sincronización de los medios se lleva a cabo en el nivel de transporte. •
Control de dispositivos de grabación: el protocolo puede controlar tanto la grabación
como la retroceder de dispositivos. •
Convenientes para aplicaci ones profesio nales.
•
Presentación de una descripción neutral: el protocolo no impone una descripción
particular de la presentación o un formato particular de metafile. Sin embargo, esta debe contener al menos un RTSP URI.
112
CAPITULO 5. PROTOCOLOS RTSP Y RTP
•
Proxy y un firewall amigable: El protocolo debe ser de fácil manejo para la aplicación y
el firewall. Un firewall debe comprender el método SETUP para crear un canal para el flujo de UDP. •
HTTP-amigable: RSTP reusa conceptos de HTTP y reutiliza la infraestructura del mismo
protocolo. Entre esta estructura, se encuentra PIC (Platform for Internet Content Selection).
•
Negociación de transporte: El cliente puede negociar el método de transporte antes de
necesitar enviar un flujo continuo de datos. •
Control apropiado del Servidor: Si un cliente inicia la solicitud de flujo de datos, este
debe ser capaz de detener el mismo. Por otra parte, el servidor no debe transmitir el flujo de datos de manera tal que impida al usuario detenerlo.
•
Capacidad de negociación: si las características básicas son deshabilitadas, deben
existir mecanismos claros para determinar cuales métodos van a ser implementados.
5.5.- Ventajas de RTSP. •
Única manera de transmitir en vivo.
•
Compresión del vídeo digital, descartando cuadros y detalles redundantes.
•
Transmisión de los datos en paquetes que son leídos por el cliente mientras llegan.
•
Utilización de buffers o memorias de reserva para aminorar los retardos y demoras inherentes a la red.
•
No requiere almacenamiento en el cliente.
•
No hay desperdicio de ancho de banda.
•
Difusiones en multicast.
•
Pueden comprimirse pistas individuales en un film a partir de un servidor, no importa donde se encuentre geográficamente.
Escalable.
•
113
CAPITULO 5. PROTOCOLOS RTSP Y RTP
5.6.- Desventajas de RTSP. •
Un video se detiene si la tasa de datos excede la velocidad de conexión.
•
Puede ser detenido por firewalls o el NAT.
•
Requiere un servidor Streaming o un broadcaster.
•
No puede usar interactividad.
5.7.- RTSP vs. HTTP. RTSP pretende proporcionar, para presentaciones multimedia, los mismos servicios que HTTP proporciona para textos y gráficos, de hecho se ha diseñado intencionalmente con una sintaxis similar, de tal modo que la mayor parte de los mecanismos de extensión de HTTP se puedan añadir a RTSP. RTSP difiere de HTTP en muchos aspectos. Entre estos pueden destacarse:
•
HTTP es un protocolo sin estados y RTSP ha de mantener los estados de la sesión para enlazar las peticiones con los streams relacionados.
•
HTTP es asimétrico, cuando el cliente realiza una petición el servidor responde; mientras que en RTSP ambos (Cliente y servidor) pueden realizar peticiones.
•
HTTP y RTSP poseen diferentes identificadores de protocolo.
•
HTTP no permite transmisión en vivo.
•
Cuando se utiliza HTTP no es posible observar el contenido de los archivos mientras estos son descargados, por tanto es necesario que los mismos residan en disco. En consecuencia, el tamaño del video vendrá limitado por el espacio en disco y la memoria RAM del cliente.
114
CAPITULO 5. PROTOCOLOS RTSP Y RTP
5.8.- RTP (Real Time Protocol). Con el avance arrollador del internet, cada día se ha hecho más necesaria la transmisión de voz, video e información en tiempo real. TCP no fue diseñado para este fin por lo que no cumple con las expectativas y necesidades de las nuevas aplicaciones. Así surge RTP, un protocolo que viene a llenar el vacío para la transmisión en tiempo real. RTP proporciona el transporte peer to peer para aplicaciones con necesidad de transmisión en tiempo real en redes unicast o multicast, como por ejemplo videoconferencias, difusión de audio/vídeo, simulaciones. El protocolo RTP se creó específicamente para la transmisión de audio y vídeo, gracias a que incluye en su cabecera informaciones que sincronizan imagen y sonido, al tiempo que es capaz de determinar si se han perdido paquetes y si éstos han llegado en el orden correcto. Por otra parte, las cabeceras del RTP también especifican el tipo de emisión que se realiza, por lo que permiten diferentes tipos de compresión de datos. Cuando se realiza una conexión a través de RTP, se definen dos direcciones diferentes que son controladas desde dos puertos distintos, de forma que audio y vídeo viajan por separado controlados por el RTCP. Además, el RSVP, tiene como objetivo añadir información feedback desde el cliente hacia el servidor para garantizar una calidad de servicio. En contra, se tiene que el RTP no asegura ni la entrega continua de información, ni la de todos los paquetes y ni siquiera puede evitar la entrega desordenada de los mismos, aunque sí los controla.
5.9.- RTCP (Real Time Control Protocol). RTCP es un protocolo que permite mantener información de control sobre una sesión de RTP, la idea es reservar y garantizar la calidad de servicio. Para mantener el control de la sesión, cuenta con varios tipos de paquetes:
115
CAPITULO 5. PROTOCOLOS RTSP Y RTP
•
Sender Report: paquetes emitidos, datos para sincronización de varios streams.
•
Receiver Report: paquetes perdidos, último recibido, timestamp para RTT.
•
Source Description: Canonical Name (CNAME), email, etc.
•
Bye.
•
Específicos de la aplicación.
Cuando se establece una conexión se establece un puerto para RTP y el siguiente puerto se le asigna a RTCP. El tráfico de RTCP no debe exceder el 5% del ancho de banda de la sesión.
5.10.- Transmisión en Tiempo Real. “Se denomina transmisión en tiempo real a la comunicación en la que el receptor puede manipular los datos al mismo tiempo que el emisor los está enviando”. Para la transmisión de información en tiempo real se requiere un sistema de comunicaciones que proporcione a las aplicaciones los servicios y el control necesario para la gestión de la calidad de servicio (QoS). En particular, la comunicación de audio o video requiere la provisión de cierto nivel de calidad, garantizándolo durante el tiempo de la transmisión. Tráfico Multi media.
Se suele denominar tráfico multimedia aquel compuesto por vídeo y audio. Los requerimientos para la transmisión de audio y vídeo, se describen en los siguientes puntos: Anch o d e banda.
El tráfico multimedia maneja grandes volúmenes de información. Por ejemplo, un CDROM, que son 72 minutos de sonido estéreo, requiere 648 Mbytes y una película de 90 minutos ocuparía 120 Gbytes, ambos sin comprimir. Por ello, la información multimedia se
116
CAPITULO 5. PROTOCOLOS RTSP Y RTP
trata casi exclusivamente de forma comprimida. El ancho de banda dependerá por tanto del tipo de compresión y de la calidad con que se quiera transmitir. Los tres estándares más difundidos para compresión de vídeo: ISO Moving Pictures Expert
Group
(MPEG),
Intel’s
Digital
Video
Interactive
(DVI)
e
International
Telecommunications Union (ITU) H.261; requieren un ancho de banda de 1.2 a 40 Mbps
para MPEG y MPEG-2, 1.2 a 1.8 Mbps para DVI, y de 0.064 a 2 Mbps para H.261. En el caso de audio, con calidad telefónica el ancho de banda varía de 4 a 32 kbps (dependiendo de la codificación ADPCM o CELP) y con calidad CD y usando compresión MP3 varía de 32 a 256 kbps. Retraso de transmis ión.
Estos requerimientos son más estrictos que los de ancho de banda. La experiencia con los sistemas de conferencia multimedia y los estándares ITU sugieren un retraso máximo de 150 ms en las aplicaciones de vídeo interactivas. En general, se pueden identificar los siguientes componentes de retraso: •
retraso en la compresión y descomposición de paquetes.
•
retraso de transmisión en la red.
•
almacenamiento en el destino y retraso de sincronización. El vídeo debe tener de 25 a 30 imágenes por segundo. Esto deja un tiempo máximo
de compresión-descompresión de 33 a 40 ms (30-1 a 25-1) para evitar el solapamiento en la compresión de las imágenes. Restando a 150 ms tanto el tiempo de la compresión como el de descompresión deja un retraso máximo de 70 a 84 ms para la transmisión en la red. Asumiendo que una ruta de tres saltos LAN-WAN-LAN es una topología frecuente, y teniendo en cuenta que los elementos de enlace ( gateways , routers, etc.) también contribuyen al retraso, quedando un retraso máximo aceptable de 10 a 15 ms por salto. Aunque estos cálculos son aproximativos y dependerían de muchos otros factores, nos Sirve como una aproximación a los problemas de la transmisión.
117
CAPITULO 5. PROTOCOLOS RTSP Y RTP
Fiabilidad.
Los protocolos de transmisión tienen sistemas de control de errores y de reenvío de paquetes que aseguran que la fiabilidad entre emisor y receptor sea transparente a los niveles superiores. Para la transmisión en tiempo real esta gestión de errores puede ser negativa, debido al retraso que produciría la retransmisión de un paquete de nuevo. Para evitar este problema se plantea que el tratamiento y gestión de los errores sea a niveles superiores. En una red en tiempo real, la pérdida de paquetes puede ocurrir debido a la saturación de memoria en los nodos o al superar el retraso máximo exigido. Las prestaciones de una transmisión multimedia pueden ser medidas en dos dimensiones: latencia y fidelidad. La latencia puede ser vital para aplicaciones interactivas como conferencias mientras que para la transmisión de una película no lo es. La fidelidad de la transmisión es variable. Hay aplicaciones que no toleran ninguna variación en la fidelidad de la imagen como podría ser la transmisión de imágenes médicas y otras en que esta variación sólo produce una cierta distorsión tolerable como la transmisión de películas o música. Sincron ización de canales y multicast.
Cuando audio, vídeo y otros datos vienen por distintos canales, se necesitan mecanismos para la sincronización de los distintos flujos en el destino. Esto se puede conseguir usando una combinación de asignación de tiempos y almacenamiento antes de su visualización. Esto en general no afecta a la red y es un problema del destino. Multicast es la habilidad de la red para enviar eficientemente información a múltiples
destinos. Esto es una característica común al tráfico multimedia en el que una película puede ser vista por varios espectadores a la vez. Esto permite el ahorro de recursos en la red al utilizar un único canal siempre que sea posible compartirlo por todos los receptores.
118
CAPITULO 6. TRADUCCIÓN DE DIRECCIÓN DE RED (NAT)
119
CAPITULO 6. TRADUCCI N DE DIRECCI N DE RED (NAT)
CAPITULO 6. TRADUCCIÓN DE DIRECCIÓN DE RED . 6.1.- Introducción. El uso de redes de computadoras en las empresas ha crecido y continúa creciendo drásticamente, en la mayoría de estos casos estas redes son de uso exclusivo interno, requiriendo que una mínima cantidad de terminales tengan acceso a redes externas. Además, el rápido agotamiento de las direcciones IP públicas hace que adquirirlas sea costoso, razón por la cuál las redes privadas utilizan un direccionamiento basado en direcciones IP reservadas que son inválidas para su uso fuera de la red interna. Para que estas empresas puedan tener un acceso a redes externas o a Internet se requiere de una traducción de direcciones que permita que con una sola conexión a la red de redes y unas cuantas direcciones IP válidas, de esta manera se puede tener un buen control sobre la seguridad de la red y sobre el tipo de información intercambiada con redes externas. La topología de red fuera de un dominio local puede cambiar de muchas maneras. Los clientes pueden cambiar proveedores, los backbones (conexiones de Internet con gran ancho de banda) de las compañías pueden ser reorganizados o los proveedores pueden unirse o separarse. Siempre que la topología externa cambie, la asignación de dirección para nodos en el dominio local puede también cambiar para reflejar los cambios externos. Este tipo de cambios deben ser implementados en el router de acceso a Internet y de esta manera, pueden ser ocultados a los usuarios de la red interna de la organización.
6.2.- Traducción de direcciones (NAT). La “Traducción de Direcciones de Red”, Network Address Translation (NAT), es un método mediante el que las direcciones IP son mapeadas desde un dominio de direcciones a otro, proporcionando encaminamiento transparente a las máquinas finales. Existen muchas variantes de traducción de direcciones que se prestan a distintas aplicaciones. Sin embargo todas las variantes de dispositivos NAT debería compartir las siguientes características:
120
CAPITULO 6. TRADUCCIÓN DE DIRECCIÓN DE RED (NAT)
•
Asignación transparente de direcciones.
•
Encaminamiento transparente mediante la traducción de direcciones (aquí el encaminamiento se refiere al reenvío de paquetes, no al intercambio de información de encaminamiento).
•
Traducción de la carga útil de los paquetes de error ICMP ( Internet Control Message Protocol o Protocolo de Mensajes de Control de Internet por sus siglas en inglés).
Ap licac ió n.
La traducción de la dirección de red, se aplica en redes que fueron implementadas con direcciones IP privadas y necesitan tener un acceso a Internet, se debe solicitar a un proveedor un rango de direcciones válidas para poder asociar dichas direcciones válidas con los hosts que tengan direcciones inválidas y necesiten salida a Internet. Esta situación ocurre frecuentemente en las empresas que tienen redes internas grandes, también puede darse el caso que el proveedor sólo asigne una dirección válida a la empresa, en esta situación se configura a NAT para que diferentes hosts dentro de la empresa puedan acceder a Internet mediante esta única IP válida asignada por el proveedor, en este caso la configuración del router con NAT asocia además de la dirección IP, un puerto para direccionar correctamente los paquetes a los diferentes hosts . Estos problemas también pueden presentarse en redes caseras más pequeñas y son una solución factible para habilitar una conexión a Internet sin tener que hacer una reconfiguración de la red interna, además que el proceso de traducción de direcciones IP es transparente al usuario final que no se da cuenta de lo que pasa. Operación bási ca.
Para que una red privada tenga acceso a Internet, el acceso debe ser por medio de un dispositivo ubicado en la frontera de las dos redes que tenga configurado NAT para la traducción de direcciones, en estos casos lo más conveniente es poner a un router para que los paquetes sean enviados hacia él.
121
CAPITULO CAPI TULO 6. TRAD TRADUCCI UCCI N DE DE DIREC DIRECCI CI N DE DE RED RED (NAT) (NAT)
Existen dos tipos de asignación de direcciones: As ig nació nac ión n estáti est áti ca de di recci rec ci on es , en el caso de asignación estática de
•
direcciones, existe un mapeo uno a uno de direcciones para las máquinas entre una dirección privada de red y una dirección externa de red durante el tiempo en funcionamiento del NAT. La asignación estática de direcciones asegura que NAT no tiene que administrar la gestión de direcciones con los flujos de sesión. Cuando el host 192.168.0.2 envía un paquete al servidor 207.28.194.84 tiene en la cabecera de sus paquetes los datos mostrados en “A”, al pasar estos paquetes por el router NAT, los datos son modificados y llegan al servidor con los los datos mostrados en “B”. Las relaciones de direcciones de la tabla del router son puestas estáticamente
As ig nació nac ión n di námic nám ic a de d e d ir eccio ecc io nes , en este caso, las direcciones externas son
•
asignadas a las máquinas de la red privada, o viceversa, de manera dinámica, basándose en los requisitos de uso y el flujo de sesión que el NAT determine heurísticamente. Cuando la última de las sesiones que use una dirección asociada termine, NAT liberará la asociación para que la dirección global pueda ser reciclada para su posterior uso. La naturaleza exacta de la asignación de direcciones es específica de cada implementación de NAT.
En este caso sucede lo mismo que en el anterior con las cabeceras de los paquetes que salen de “A”, en este caso la tabla muestra una lista con las direcciones válidas disponibles para ser usadas, estas direcciones son asignadas dinámicamente a los hosts.
122
CAPIT CAP ITULO ULO 6. TR TRADU ADUCCI CCI N DE DE DI DIRE RECC CCII N DE DE RED RED NAT
NAT tradicional.
La operación de Traducción de Dirección a analizar se denomina “ NAT Tradicional ”, existen otras variantes de NAT. En un NAT tradicional, las sesiones son unidireccionales, salientes de la red privada. Las sesiones en la dirección opuesta pueden ser permitidas en una base excepcional usando mapeos de dirección estáticos para hosts preseleccionados. Existen dos variantes del NAT Tradicional: NAT Básico y NAPT (Network Address Port Translation). NAT Básico.
La operación de NAT Básico es como se describe a continuación: una zona con un conjunto de direcciones de red privadas puede ser habilitada para comunicarse con una red externa mapeando dinámicamente el conjunto de direcciones privadas a un conjunto de direcciones de red válidas globalmente, cada dirección tiene garantizada una dirección global para ser mapeada a ella. De lo contrario, los nodos habilitados para tener acceso simultáneo a la red externa son limitados por el número de direcciones en el conjunto global. Direcciones locales individuales pueden ser estáticamente mapeadas a direcciones globales específicas para asegurarse acceso garantizado hacia fuera o para permitir acceso al host local desde hosts externos mediante una dirección pública fija. Sesiones múltiples simultáneas pueden ser iniciadas desde un nodo local, usando el mismo mapeo de dirección. Las direcciones dentro de la zona son locales para este dominio y no son válidas fuera de él. De este modo, las direcciones dentro de la zona pueden ser reusadas por alguna otra. Por ejemplo, una sola dirección de clase A puede ser usada por muchas zonas. En cada punto de salida entre una zona y el backbone, NAT está instalado. Si hay más de un punto de salida es de gran importancia que cada NAT tenga la misma tabla de traducción. En el ejemplo de la siguiente gráfica la red tiene las direcciones de clases A 10.0.0.0, en 1 una máquina ubicada en una red externa con dirección 130.57.52.13 envía un paquete a la dirección 130.57.199.13, en 2 el paquete llega al router NAT el cuál traduce la dirección de destino 130.57.199.13 por la dirección 10.0.0.1 que es la dirección verdadera del host 123
CAPITULO CAPI TULO 6. TRAD TRADUCCI UCCI N DE DE DIREC DIRECCI CI N DE DE RED RED (NAT) (NAT)
destino, esto se ve en 3, en 4 la máquina envía una respuesta con dirección fuente 10.0.0.1, al pasar por el router NAT la dirección de fuente de la respuesta es modificada por la dirección 130.57.199.13 que es una dirección global única. Se puede ver la tabla de traducción que tiene el router, en la cuál se observa la asociación de direcciones locales con las direcciones que usarán en Internet. A cada host de la red se le asigna una dirección global única. Todo este proceso no requiere cambios en el host o en el router, las traducciones de dirección son transparentes para los hosts finales. Traducción de Dirección de Red Red y Puerto – NAPT.
Digamos, una organización tiene una red IP privada y una conexión WAN a un proveedor de servicio. El router de zona de la red privada es asignado a una dirección válida globalmente en la conexión WAN y los demás nodos en la organización usan direcciones IP que tienen sólo significado local. En este caso, a los nodos en la red privada se les puede permitir acceder simultáneamente a la red externa, usando la única dirección IP registrada con la ayuda de NAPT. NAPT permitiría mapeos de tuplas del tipo (direcciones IP local, número de puerto TU local) a tipos del tipo (dirección IP registrada, número de puerto TU asignado). Este modelo es adecuado para muchos grupos de redes pequeñas para acceder a redes externas usando una sola dirección IP asignada del proveedor de servicio. Este modelo debe ser extendido para permitir acceso entrante mapeando estáticamente un nodo local por cada puerto de servicio TU de la dirección IP registrada. En el ejemplo de la siguiente gráfica la red interna maneja el rango de direcciones 192.168.0.0 de clase C, la interface del router que se comunica con Internet tiene asignada la dirección 206.245.160.1. Cuando el host con dirección 192.168.0.2 envía un paquete HTTP (puerto destino 80) al servidor 207.28.194.84, en la cabecera de los paquetes se envía la información mostrada 124
CAPITULO 6. TRADUCCI N DE DIRECCI N DE RED NAT
en “A” donde se indica la dirección fuente como Src y la dirección destino como Dst estos paquetes son enviados al router NAT ubicado al centro del gráfico. El router tiene configurado NAPT y lo que sucede es que se traduce la tupla de dirección de origen 192.168.0.2 y puerto origen 1108 en los encabezados IP y TCP por la tupla 206.245.160.1 que es una dirección globalmente única y al puerto 61001 antes de reenviar al paquete, es decir los paquetes salen del router con los datos mostrados en “B”. Los paquetes de regreso que sean enviados por el servidor web, pasan por una traducción de dirección y puerto similar por la dirección IP de destino y puerto TCP de destino. Se observa que esto no requiere de cambios en los hosts o en los routers. La traducción es completamente transparente para los usuarios. En el gráfico se muestra la tabla de asignación de los hosts con las direcciones de los hosts de la red interna con sus respectivos puertos y la asociación de puertos con los que será enviada la información afuera.
Ejemplo de funcionamiento de NAPT, se usa una sola dirección IP válida y se conectan diferentes hosts de la red interna hacia Internet por diferentes puertos. Fases d e Traducción.
•
Ligando la dirección , con NAT Básico, una dirección privada es ligada a una dirección
externa, cuando la primera sesión saliente es iniciada desde el host privado. Después de esto, todas las otras sesiones salientes originadas desde la misma dirección privada usarán la misma dirección unida por la traducción de paquete. En el caso de NAPT, donde muchas direcciones privadas son mapeadas a un sola dirección globalmente única, la unión sería desde la tupla de (dirección privada, puerto TU privado) a la tupla de (dirección asignada, puerto TU asignado). Como con NAT Básico, esta unión es determinada cuando la primera sesión saliente es iniciada por la tupla de (dirección privada, puerto TU privado) en el host privado. 125
CAPITULO 6. TRADUCCI N DE DIRECCI N DE RED (NAT)
•
Búsqueda y traducción de dirección , Después de que una unión de dirección o unión
de tupla (dirección, puerto TU) en el caso de NAPT es establecida, se puede mantener un estado para cada una de las conexiones usando la unión. Los paquetes pertenecientes a la misma sesión estarán sujetos a la búsqueda de sesión para propósitos de traducción. La naturaleza exacta de la traducción es discutida en la sección siguiente.
•
Desligando la dirección , Cuando la última sesión basada en una unión de dirección o
de tupla (dirección, puerto TU) es terminada, su unión puede ser terminada.
6.3.- Manipulación de cabeceras. En el modelo NAT Básico, el encabezado IP de todos los paquetes debe ser modificado. Esta modificación incluye la dirección IP (dirección IP origen para paquetes salientes y dirección IP destino para paquetes entrantes) y la suma de control IP. Para las sesiones TCP y UDP, las modificaciones deben incluir actualización de la suma de control en los encabezados TCP/UDP. Esto es porque la suma de control de TCP/UDP también cubre un pseudoencabezado que contiene las direcciones IP origen y destino. Como una excepción, los encabezados UDP con suma de control 0 no deben ser modificados. Como para los paquetes de petición ICMP, no son requeridos cambios adicionales en el encabezado ICMP como la suma de control en el encabezado ICMP que no incluye las direcciones IP. En el modelo NAPT, las modificaciones al encabezado IP son similares a las del modelo NAT Básico. Para las sesiones TCP/UDP, las modificaciones deben ser extendidas para incluir la traducción del puerto TU (puerto TU origen para paquetes salientes y puerto TU destino para paquetes entrantes) en el encabezado TCP/UDP. El encabezado ICMP en los paquetes de petición ICMP deben también ser modificados para reemplazar el ID de petición y la suma de control del encabezado ICMP. La suma de control del encabezado ICMP debe ser corregida para contar la traducción del ID de petición.
126
CAPITULO 6. TRADUCCI N DE DIRECCI N DE RED (NAT)
Estas son algunas de las modifi caciones efectuadas:
•
Aj us te de la s um a de con trol , las modificaciones de NAT son por paquete y puede ser
un cómputo muy intensivo, ello involucra una o más modificaciones a la suma de control, inclusive para traducciones de un sólo campo.
•
Modificaciones al paquete de error ICMP , los cambios al mensaje de error ICMP
incluirán cambios a los encabezados IP e ICMP en la capa saliente como bien cambios a los encabezados de los paquetes embebidos en la carga útil del mensaje ICMP-error. El método para NAT debe ser transparente para el host-final, la dirección IP del encabezado IP embebido en la carga útil del mensaje ICMP-error debe ser modificado, el campo de suma de control del encabezado IP embebido debe ser modificado, y finalmente, la suma de control del encabezado ICMP debe también ser modificada para reflejar los cambios a la carga útil.
•
Manipulando la opción IP , un datagrama IP con una de las opciones IP de Registrar
Ruta, Encaminamiento de Origen Fijo o Encaminamiento de Origen No Estricto involucraría registro o uso de direcciones IP de routers intermedios. Un router NAT intermedio puede elegir no soportar estas opciones o dejar las direcciones sin traducir mientras que si procesa las opciones. El resultado de dejar las direcciones sin traducir sería que direcciones privadas a lo largo del encaminamiento origen son expuestas de extremo a extremo. Esto no debe poner en peligro la ruta atravesada por el paquete, de hecho, como cada router se supone que mira sólo al próximo salto. En general, NAT no debería trabajar con ninguna aplicación que envíe direcciones IP o puertos como datos. Por ejemplo, cuando dos programas usan FTP mantienen una conexión TCP entre ellos. Como parte del protocolo, un programa obtiene un número de puerto en la máquina local, y envía los datos por la conexión TCP al otro programa. Si la conexión entre los programas pasa por medio de un router configurado con NAPT, el puerto podría ser cambiado y reemplazado por el puerto que NAPT le asigne. Así,
127
CAPITULO 6. TRADUCC IÓN DE DIRECCIÓN DE RED (NAT)
si NAT falla al cambiar el número de puerto, el protocolo podría fallar. Las implementaciones de NAT fueron creadas para reconocer puertos conocidos como el de FTP y hacer los cambios necesarios en el flujo de datos. Pero existen aplicaciones que no pueden ser usadas con NAT.
6.4.- NAT con múlt iples direccio nes. La configuración NAT con múltiples direcciones se refiere al NAPT mediante el cuál, un grupo de hosts en una red privada pueden tener salida a redes externas con una sola dirección global mediante la asociación de direcciones IP y puertos TU. Se pueden tener varias direcciones globales asignadas a la red y por cada dirección pueden salir grupos de hosts a redes externas. En la configuración NAT Básico, cuando los nodos de la red privada agotan las direcciones globales disponibles para el mapeo, el acceso a la red externa para algunos de los nodos locales es abruptamente cortado cuando la última dirección IP válida de la lista fue asignada. Esto es un inconveniente y puede ser evitado permitiendo que el router NAT Básico pueda conmutar a una configuración NAPT para la última dirección global de la lista de direcciones. Haciendo esto asegurará que los hosts de la red privada tengan continuidad en el acceso a los nodos externos y servicios para la mayoría de las aplicaciones.
6.5.- Conclusi ó n. El problema de la asignación de direcciones IP válidas esta cerca, ya que pronto se agotarán, pero con el creaciónón de NAT se resolvió el problema por algunos años. Si el sistema de videovigilancia está detrás de un router este debe ser capaz de hacer NAT para entregar el video al cliente correcto.
128
CAPITULO 7. TCP y UDP
129
CAPITULO 7. TCP y UDP
CAPITULO 7. TCP Y UDP. 7.1.- Introducción. El Protocolo de Internet (IP) y el Protocolo de Transmisión (TCP), fueron desarrollados inicialmente en 1973 por el informático estadounidense Vinton Cerf como parte de un proyecto dirigido por el ingeniero norteamericano Robert Kahn y patrocinado por la Agencia de Programas Avanzados de Investigación (ARPA) del Departamento Estadounidense de Defensa. Internet comenzó siendo una red informática de ARPA (llamada ARPAnet) que conectaba redes de ordenadores de varias universidades y laboratorios en investigación en Estados Unidos. World Wibe Web se desarrolló en 1989 por el informático británico Timothy Berners-Lee para el Consejo Europeo de Investigación Nuclear (CERN, siglas en francés).
7.2.- Arquitectura TCP/IP. TCP/IP es el protocolo común utilizado por todos los ordenadores conectados a Internet, de manera que éstos puedan comunicarse entre sí. Hay que tener en cuenta que en Internet se encuentran conectados ordenadores de clases muy diferentes y con hardware y software incompatibles en muchos casos, además de todos los medios y formas posibles de
conexión. Aquí se encuentra una de las grandes ventajas del TCP/IP, pues este protocolo se encargará de que la comunicación entre todos sea posible. TCP/IP es compatible con cualquier sistema operativo y con cualquier tipo de hardware . TCP/IP no es un único protocolo, sino que es en realidad lo que se conoce con este nombre es un conjunto de protocolos que cubren los distintos niveles del modelo OSI. Los
dos protocolos más importantes son el TCP ( Transmission Control Protocol por sus siglas en inglés o Protocolo de Control de Transmisión ) y el IP (Internet Protocol por sus siglas en inglés o Protocolo Interner ), que son los que dan nombre al conjunto. La arquitectura del
TCP/IP consta de cinco niveles o capas en las que se agrupan los protocolos, y que se relacionan con los niveles OSI de la siguiente manera:
130
CAPITULO 7. TCP y UDP
•
Aplicaci ón : Se corresponde con los niveles OSI de aplicación, presentación y sesión.
Aquí se incluyen protocolos destinados a proporcionar servicios, tales como correo electrónico (SMTP), transferencia de ficheros (FTP), conexión remota (TELNET) y otros más recientes como el protocolo HTTP ( Hypertext Transfer Protocol por sus siglas en inglés o Protocolo de Transferencia de HiperTexto ).
•
Transporte: Coincide con el nivel de transporte del modelo OSI. Los protocolos de este
nivel, tales como TCP y UDP, se encargan de manejar los datos y proporcionar la fiabilidad necesaria en el transporte de los mismos. •
Internet: Es el nivel de red del modelo OSI. Incluye al protocolo IP, que se encarga de
enviar los paquetes de información a sus destinos correspondientes. Es utilizado con esta finalidad por los protocolos del nivel de transporte. •
Físico: Análogo al nivel físico del OSI.
•
Red: Es la interfaz de la red real. TCP/IP no especifica ningún protocolo concreto, así es
que corre por las interfaces conocidas, como por ejemplo: 802.2, CSMA/CD, X.25.
El TCP/IP necesita funcionar sobre algún tipo de red o de medio físico que proporcione sus propios protocolos para el nivel de enlace de Internet. Por este motivo hay que tener en cuenta que los protocolos utilizados en este nivel pueden ser muy diversos y no forman parte del conjunto TCP/IP. Sin embargo, esto no debe ser problemático puesto que una de las funciones y ventajas principales del TCP/IP es proporcionar una abstracción del medio de forma que sea posible el intercambio de información entre medios diferentes y tecnologías que inicialmente son incompatibles. Para transmitir información a través de TCP/IP, ésta debe ser dividida en unidades de menor tamaño. Esto proporciona grandes ventajas en el manejo de los datos que se transfieren y, por otro lado, esto es algo común en cualquier protocolo de comunicaciones.
131
CAPITULO 7. TCP y UDP
En TCP/IP cada una de estas unidades de información recibe el nombre de "datagrama " (datagram ), y son conjuntos de datos que se envían como mensajes independientes.
7.3.- Proto colos TCP/IP.
•
FTP (File Transfer Protocol). Se utiliza para transferencia de archivos.
•
SMTP (Simple Mail Transfer Protoco l). Es una aplicación para el correo electrónico.
•
TELNET: Permite la conexión a una aplicación remota desde un proceso o terminal.
•
RPC (Remote Procedure Call). Permite llamadas a procedimientos situados
remotamente. Se utilizan las llamadas a RPC como si fuesen procedimientos locales.
•
SNMP (Simple Network Management Protocol). Se trata de una aplicación para el
control de la red.
•
NFS (Network File System). Permite la utilización de archivos distribuidos por los
programas de la red. •
X-Windows. Es un protocolo para el manejo de ventanas e interfaces de usuario.
7.4.- Características de TCP/IP. Ya que dentro de un sistema TCP/IP los datos transmitidos se dividen en pequeños paquetes, éstos resaltan una serie de características.
•
La tarea de IP es llevar los datos a granel (los paquetes) de un sitio a otro. Las computadoras que encuentran las vías para llevar los datos de una red a otra
132
CAPITULO 7. TCP y UDP
(denominadas enrutadores) utilizan IP para trasladar los datos. En resumen IP mueve los paquetes de datos a granel, mientras TCP se encarga del flujo y asegura que los datos estén correctos.
•
Las líneas de comunicación se pueden compartir entre varios usuarios. Cualquier tipo de paquete puede transmitirse al mismo tiempo, y se ordenará y combinará cuando llegue a su destino. Compare esto con la manera en que se transmite una conversación telefónica. Una vez que establece una conexión, se reservan algunos circuitos, que no puede emplear en otra llamada, aun si deja esperando a su interlocutor por veinte minutos.
•
Los datos no no tienen que que enviarse directamente entre dos computadoras. Cada paquete pasa de computadora en computadora hasta llegar a su destino. Éste, claro está, es el secreto de cómo se pueden enviar datos y mensajes entre dos computadoras aunque no estén conectadas directamente entre sí. Lo que realmente sorprende es que sólo se necesitan algunos segundos para enviar un archivo de buen tamaño de una máquina a otra, aunque estén separadas por miles de kilómetros y pese a que los datos tienen que pasar por múltiples computadoras. Una de las razones de la rapidez es que, cuando algo anda mal, sólo es necesario volver a transmitir un paquete, no todo el mensaje.
•
Los paquetes no necesitan seguir la misma trayectoria. La red puede llevar cada paquete de un lugar a otro y usar la conexión más idónea que esté disponible en ese instante. No todos los paquetes de los mensajes tienen que viajar, necesariamente, por la misma ruta, ni necesariamente tienen que llegar todos al mismo tiempo.
•
La flexibilidad flexibilidad del sistema lo hace hace muy confiable. confiable. Si un enlace enlace se pierde, el sistema usa otro. Cuando usted envía un mensaje, el TCP divide los datos en paquetes, ordena éstos en secuencia, agrega cierta información para control de errores y después los lanza hacia fuera, y los distribuye. En el otro extremo, el TCP recibe los paquetes, verifica si hay errores y los vuelve a combinar para convertirlos en los datos originales. De haber error en algún punto, el programa TCP destino envía un mensaje solicitando que se vuelvan a enviar determinados paquetes.
133
CAPITULO 7. TCP y UDP
7.5.7.5.- En qu e se ut iliza ili za TCP/I TCP/IP. P. Muchas grandes redes han sido implementadas con estos protocolos, incluyendo DARPA Internet "Defense Advanced Research Projects Agency Internet", en español, Red de la Agencia de Investigación de Proyectos Avanzados de Defensa. De igual forma, una gran variedad de universidades, agencias gubernamentales y empresas de computadoras, están conectadas mediante los protocolos TCP/IP. Cualquier máquina de la red puede comunicarse con otra distinta y esta conectividad permite enlazar redes físicamente independientes en una red virtual llamada Internet. Las máquinas en Internet son denominadas "hosts" o nodos. TCP/IP proporciona la base para muchos servicios útiles, incluyendo correo electrónico, transferencia de ficheros y login remoto. El correo electrónico está diseñado para transmitir ficheros de texto pequeños. Las utilidades de transferencia sirven para transferir ficheros muy grandes que contengan programas o datos. También pueden proporcionar chequeos de seguridad controlando las transferencias. El login remoto permite a los usuarios de un ordenador acceder a una máquina remota y llevar a cabo una sesión interactiva.
7.6.- Protocolo UDP. El módulo UDP (User Datagram Protocol por sus siglas en inglés o Protocolo de Datagramas de Usuario ) [RFC768] es un fino recubrimiento a la capa IP que cumple las
funciones equivalentes al nivel OSI de Transporte de datagramas. Proporciona un servicio sin conexión y, por ello, de baja fiabilidad. No se garantiza la entrega de los datagramas, ni su llegada en orden o no duplicación. Los servicios que requieran un sistema de transporte fiable deben emplear el
134
CAPITULO 7. TCP y UDP
TCP (Transport Control Protocol ) o algún esquema similar, como la familia de protocolos TPx de OSI. UDP (User Datagram Protocol) es un protocolo que se basa en el intercambio de datagramas. UDP permite el envío de datagramas a través de la red sin que se haya establecido previamente una conexión, ya que el propio datagrama incorpora suficiente información de direccionamiento en su cabecera. El inconveniente de esta forma de actuación es que no hay confirmación de recepción ni de haber recibido los datagramas en el orden adecuado, debiendo ser la aplicación la que se encargue de controlarlo. Al igual que los protocolos TCP, utiliza puertos y sockets y, también permite la multiplexación. El protocolo de datagramas de usuario (UDP) puede ser la alternativa al TCP en algunos casos en los que no sea necesario el gran nivel de complejidad proporcionado por el TCP. Puesto que UDP no admite numeración de los datagramas, éste protocolo se utiliza principalmente cuando el orden en que se reciben los mismos no es un factor fundamental, o también cuando se quiere enviar información de poco tamaño que cabe en un único datagrama. Cuando se utiliza UDP la garantía de que un paquete llegue a su destino es mucho menor que con TCP debido a que no se utilizan las señales de confirmación. Por todas estas características la cabecera del UDP es bastante menor en tamaño que la de TCP. Esta simplificación resulta en una mayor eficiencia en determinadas ocasiones. Un ejemplo típico de una situación en la que se utiliza el UDP es cuando se pretende conectar con un ordenador de la red, utilizando para ello el nombre del sistema. Este nombre tendrá que ser convertido a la dirección IP que le corresponde y, por tanto, tendrá que ser enviado a algún servidor que posea la base de datos necesaria para efectuar la conversión. En este caso es mucho m ucho más conveniente el uso de UDP.
135
CAPITULO 7. TCP y UDP
A pesar de todo existen servicios perfectamente válidos en un entorno de funcionamiento poco fiable y, por otra parte, en una red local por ejemplo la sobrecarga asociada a un protocolo más seguro puede resultar inaceptable. La calidad de servicio intrínseca es ya lo bastante elevada. Las características de este módulo so n:
•
Transmisión y recepción de datagramas aislados, sin el concepto de conexión o
Servicio no fiable: posibles pérdidas, duplicaciones y llegada desordenada de datagramas
o
Posibilidad de esperar la recepción de datagramas dirigidos a ciertos canales específicos, denominados "puertos"
En cuanto a los servicios que utilizan este módulo, destacan:
•
Servidores de Dominios de Nombres (DNS) [RFC1034] [RFC1035] .
Estos sistemas proporcionan una funcionalidad básica en el mundo Internet. Su principal tarea consiste en efectuar la traducción entre una dirección simbólica y su dirección IP correspondiente. También son utilizados masivamente para el encaminamiento del correo electrónico.
•
Protocolos ECHO y DISCARD [RFC862] [RFC863].
El fin primordial de estos protocolos es el chequeo y diagnóstico de sistemas. •
Llamadas a procedimientos remotos (RPC) [RFC1057] [RFC1831] .
Se trata de un protocolo diseñado para la implementación de arquitecturas clienteservidor y la programación de sistemas distribuidos. Constituye la base de multitud de otros protocolos, como el NFS. •
Sistema de ficheros en red (NFS) [RFC1094] [RFC1813] .
Gracias a este protocolo se implementa una arquitectura de ficheros estándar, accesible a través de una red telemática. Tiene un uso masivo en las redes locales, a través de los "servidores de ficheros".
136
CAPITULO 7. TCP y UDP
•
Distribución de las tablas de enrutado.
Para que la red en su conjunto ofrezca una imagen homogénea y coherente es necesario que las diferentes pasarelas dispongan de información actualizada sobre su topología. Esto se consigue mediante el intercambio de información de encaminamiento entre los diferentes sistemas, vía los servicios UDP y TCP. Interfaz.
La interfaz de este módulo está constituida por procesos y por subrutinas ejecutadas en el contexto del llamante. Su utilización es muy simple. PROC_UDP_BC Este proceso es el encargado de inicializar este módulo. Debe ser invocado con un mensaje "MSG_INIT" o "MSG_QUIT". La inicialización de este módulo debe ser posterior a la del módulo IP. PROC_UDP_SUP Este proceso se hace cargo de la transmisión de datagramas. Espera mensajes "MSG_MBUF". campo1 contiene una cadena de dos o más MBUFs, el primero de ellos conteniendo una cabecera UDP interfaz y el resto los datos en sí. La cabecera UDP interfaz se define como: typedef struct { uint16 puerto_fuente; uint16 puerto_destino; uint16 dont_fragment; uint16 dummy; } udp_header; Los campos "puerto_fuente" y "puerto_destino" identifican el puerto UDP al cual va dirigido el datagrama dentro de la máquina destino, y el puerto al cual tendrá que dirigir su posible respuesta. Si "dont_fragment" vale cero se admite la fragmentación del datagrama,
137
CAPITULO 7. TCP y UDP
mientras que si vale uno será destruido si excede el MTU de alguna de las redes intermedias. El valor de "dummy" es arbitrario. Campo1. Contiene la dirección IP fuente (una de las nuestras), mientras que en campo3 se
envía la dirección IP del destino. Ambos valores deben estar en formato HOST. PROC_UDP_INF Este es el proceso que procesa los datagramas UDP recibidos por la capa IP, y gestiona los mensajes de control provenientes de ICMP. MSG_MBUF
o
Este es el tipo de mensaje más normal que este proceso espera recibir. Contiene un datagrama UDP según el formato definido por la capa IP. Este proceso también envía mensajes "MSG_MBUF" hacia arriba. En ese caso campo1 contiene una cabecera UDP interfaz y el datagrama en sí (en dos MBUFs, respectivamente). campo2. Contiene la dirección origen y campo3 la dirección destino del datagrama. Los
campos "dont_fragment" y "dummy" de la cabecera UDP interfaz contendrán valores indefinidos. MSG_ICMP_SOURCE_QUENCH
o
El proceso recibe este mensaje de la capa ICMP. El formato es el definido en el capítulo dedicado a ICMP. No se informa a la aplicación superior. MSG_ICMP_DEST_UNREACHABLE
o
Si el proceso recibe este mensaje proveniente de la capa ICMP, envía hacia arriba, al proceso
que
gestiona
el
puerto
fuente
original,
otro
mensaje
"MSG_ICMP_DEST_UNREACHABLE" con campo1 obedeciendo al formato UDP interfaz, mientras que campo2 proporciona información adicional (ver el capítulo ICMP) y campo3 contiene la dirección IP de la máquina a la que no se puede llegar (formato HOST). 138
CAPITULO 7. TCP y UDP
En cuanto a rutinas, se tiene: estado udp_alta_puerto (uint16 puerto, proc_id proc_retorno); Esta rutina da de alta un puerto UDP para escucha. Cualquier datagrama que llegue al puerto "puerto" será enviado al proceso cuyo identificador sea "proc_retorno". Esta rutina retorno "OK" si todo fue bien, "ERR_EN_USO" si el puerto especificado ya ha sido declarado con anterioridad y "ERR_OVERFLOW" si hay demasiados puertos declarados. uint16 udp_alta_puerto_arbitrario (proc_id proc_retorno); Esta rutina es idéntica a la anterior pero asigna un puerto cualquiera que esté libre. Por compatibilidad con posibles servicios superiores, el puerto asignado será siempre mayor o igual que 1024. Retorna el valor del puerto asignado, o cero si hay demasiados puertos declarados. void udp_baja_puerto (uint16 puerto); Esta rutina da de baja un puerto previamente declarado. Cualquier datagrama UDP que se reciba hacia ese puerto será rechazado con un error ICMP. estado udp_flujo (uint32 ip, uint16 tamanho); Esta rutina proporciona un mecanismo de control de flujo UDP. Cuando algún proceso desea enviar un datagrama utilizando este protocolo debe pedir permiso antes mediante el empleo de esta llamada. "ip" contiene una de nuestras direcciones origen y "tamanho" es el número de bytes que se desea transmitir. Retorna "OK" si se tiene el flujo
abierto, "FLUJO_LLENO" si se prohíbe la transmisión y "ERR_INVALID" si la dirección especificada no es nuestra. Si el control de flujo está cerrado se puede reintentar otra vez tras un tiempo prudencial (una décima de segundo, por ejemplo). Aún cuando el control de flujo esté cerrado, la capa UDP se hará cargo de cualquier datagrama que se envíe. Esto es así para simplificar ciertos protocolos, pero no debería abusarse de esta característica si no se está completamente seguro de sus implicaciones. 139
CAPITULO 7. TCP y UDP
Implementación.
Este módulo sigue escrupulosamente todas las guías definidas en [RFC768], implantándolo completamente. Aunque el protocolo original tiene la posibilidad de no emplear suma de control en los datagramas, se ha decidido implementarla debido a que ello no supone una pérdida de eficiencia detectable. Todos los datagramas salientes, por tanto, incluyen una suma de control. No obstante, por compatibilidad, se admiten datagramas UDP entrantes tanto con suma de control como sin ella. En
la
implementación
actual
los
mensajes
de
control
de
flujo,
"MSG_ICMP_SOURCE_QUENCH", son ignorados. La razón de ello es que no resulta sencillo definir un mecanismo de control de flujo y congestión en un sistema de datagramas. Por otra parte el protocolo UDP no suele suponer una carga apreciable y los esquemas de temporización y reintentos de las capas superiores suelen ser suficientes para reducir este problema. Cualquier datagrama UDP que se reciba hacia un puerto no declarado será destruido y se generará un mensaje "MSG_ICMP_DEST_UNREACHABLE" con el código "ICMP_NO_PUERTO" para informar a la máquina fuente de que el puerto especificado no existe. Si lo que llega es un datagrama con una suma de control errónea (si tiene suma de control), se elimina sin ninguna acción adicional. No se puede arriesgar a generar un mensaje ICMP porque el datagrama estaba corrupto y no se puede contar con que la información de encaminamiento recibida sea correcta.
7.6.1.- Encabezado de UDP. El encabezado de UDP proporciona: •
Puerto de origen: número de puerto de 16 bits
•
Puerto de destino: número de puerto de 16 bits
140
CAPITULO 7. TCP y UDP
•
Longitud (del encabezado de UDP + los datos): octetos de 16 bits en el datagrama de UDP
•
Checksum de UDP (16 campos de 16 bits); si es 0, no hay ningún checksum, sino hay un checksum sobre el pseudo-encabezado + área de datos de UDP El pseudo encabezado incluye las direcciones IP de origen y destino (garantizando
así que el mensaje ha llegado a la máquina y puerto correcto). Note la violación estricta de capa (UDP es un protocolo de capa 4); usa información de la capa A pesar de su sencillez y de haber sido opacado por TCP, poderosas y muy utilizadas aplicaciones se basan en UDP. Entre ellas están: •
NFS (Network File System ): permite utilizar discos de estaciones remotas como si fueran propios.
•
DNS (Domain Name Server ): servicio de nombres
•
SNMP (Simple Network ManagementProtocol )
¿Cómo saber a cuál puerto enviar? Existen números de puerto UDP Reservados y Disponibles. Asignación universal (asignaciones del puerto "bien conocido") vs. Atado Dinámico Internet usa una mezcla de estos dos con 255 puertos reservados: Demultiplexado basado en los puertos de protocolo (o simplemente "puertos") por UDP:
7.6.2.- Formato d el mens aje UDP. La mejor forma de explicar este protocolo es examinar el mensaje y los campos que lo componen. El formato es muy simple e incluye los siguientes campos:
141
CAPITULO 7. TCP y UDP
Puerto de fuente: Este valor identifica el puerto del proceso de aplicación remitente. Este
campo es opcional. Si no se utiliza. Se pone a 0. Puerto de destino: Este valor identifica el proceso de recepción en el computador de
destino. Longitud: Este valor indica la longitud del datagrama de usuario. Incluyendo la cabecera y
los datos. La longitud mínima es de 8 octetos. Checksum: Este valor contiene el valor del complemento a 1 en 16 bits del complemento a 1
de la suma de la seudocabecera de IP, la cabecera de UDP y los datos. Se realiza también el checksum de los campos de relleno (si es necesario que el mensaje contenga un número de octetos que sea un múltiplo de dos). Poco más se puede decir de UDP. Representa el nivel de servicio mínimo que utilizan muchos sistemas de aplicación basados en transacciones. Es, sin embargo, muy útil en los casos en los que no son necesarios los servicios de TCP.
7.7.- Conclusi ón. Con esta investigación se puede llegar a la conclusión de que el protocolo de datagramas de usuario (UDP) proporciona un servicio sin conexión y por ello, baja su fiabilidad. El inconveniente de usar datagramas sin establecer una conexión previamente es que no existe una confirmación de recepción ni de haber recibido los datagramas en el orden adecuado, debiendo ser la aplicación la que se encargue de controlarlo. Al igual que los protocolos TCP, utilizan puertos sockets y, también permiten la multiplexación.
142
CAPITULO 7. TCP y UDP
El sistema de videovigilancia utiliza los dos protocolos:
TCP al ser un protocolo orientado a conexión se utiliza para el envio de datos para controlar las peticiones de servicio y para enviar comandos sobre sucesos en la videovigilancia. UDP al ser un protocolo no orientado a conexión se utiliza para enviar el audio y video codificado ya que no es importante reenviar datagramas perdidos.
143
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
144
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN). 8.1 Introducción. Una VLAN se encuentra conformada por un conjunto de dispositivos de red, los cuales funcionan de igual manera como lo hacen los de una LAN, pero con la diferencia de que las estaciones que constituyen la VLAN no necesariamente deberán estar ubicadas en el mismo segmento físico. Sin embargo, las VLAN siguen compartiendo las características de los grupos de trabajos físicos, en el sentido de que todos los usuarios comparten sus dominios de broadcast, la diferencia principal con la agrupación física, es que los usuarios de las VLAN pueden estar distribuidos a través de una red LAN, incluso situándose en distintos concentradores de la misma. Así los usuarios pueden, a través de la red, mantener su propia pertenencia al grupo de trabajo lógico. Por otro lado, al distribuir a los usuarios de un mismo grupo lógico, a través de diferentes segmentos, se logra, como consecuencia directa, el incremento del ancho de banda en dicho grupo de usuarios. Además al poder distribuir a los usuarios en diferentes segmentos de red, se puede situar puentes y ruteadores entre ellos, separando segmentos con diferentes topologías y protocolos. Se puede autorizar o negar que el tráfico de una VLAN entre y salga desde y hacia otras redes, pero se puede llegar aún más lejos. Las redes virtuales permiten que la ubicación geográfica no se limite a diferentes concentradores o plantas de un mismo edificio, sino a diferentes oficinas intercomunicadas por medio de redes WAN (Redes de Área Amplia), a lo largo de países y continentes sin ninguna limitación mas que la que impone el propio administrador de dichas redes.
145
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
Las redes privadas virtuales crean un túnel o conducto de un sitio a otro para transferir datos a esto se le conoce como encapsulación además los paquetes van encriptados de forma que los datos son ilegibles para los extraños. El servidor busca mediante un ruteador la dirección IP del cliente VPN y en la red de transito se envian los datos sin problemas. VLAN (Redes Virtuales de Área Loc al).
•
Una buena alternativa para transportar datos
•
Bajo el mismo equipo físico , diferentes agrupamientos lógicos
Hace algún tiempo existía el modelo de red basado en ruteadores, en el que se poseían segmentos independientes y delimitados por cada usuario. Estos ruteadores aparte de ser multiprotocolo podían detener las tormentas de broadcast, pero la desventaja era su sistema compartido. Posteriormente surgió un nuevo modelo en donde se involucraba la parte de switch. Aquí ya no existía contención ni colisión, pero ahora el problema consistía en la expansión del dominio de broadcast por la red. Como respuesta a estos problemas se creo una red con agrupamientos lógicos independientes del nivel físico, con lo cual si un usuario se encontraba en el piso uno y debía moverse al piso dos ya no tenia que reconfigurar la maquina ni darle una nueva dirección IP(Internet Protocol; Protocolo de Internet) del piso dos, sino que ahora era una acción automática. Las VLAN (Virtual Local Area Networks; Redes virtuales de área local) forman grupos lógicos para definir los dominios de broadcast. De esta forma existe el dominio de los rojos, donde el broadcast que genera el rojo solo le afectara a este color y el broadcast que genera el amarillo solamente afectara a esta parte de la red.
146
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
Aunque físicamente estén conectadas las maquinas al mismo equipo, lógicamente pertenecerán a una VLAN distinta dependiendo de sus aplicaciones con lo que se logra un esquema mas enfocado al negocio. Anteriormente existía la red plana, donde el broadcast se repetía en los puertos y esto provocaba una situación critica. Ahora con las VLAN existe una segmentación lógica o virtual. Clases de VLAN.
Existen dos clases de VLAN: implícitas y explícitas.
•
Las implícitas no necesitan cambios en el frame, pues de la misma forma que reciben información la procesan, ejemplo de ello son las VLAN basadas en puertos. En esta clase de VLAN el usuario no modifica ni manipula el frame, ya que solo posee una marca y por lo tanto el sistema se vuelve propietario.
•
Las VLAN explícitas si requieren modificaciones, adiciones y cambios (MAC) al frame, por lo que sacaron los estándares 802.1p y 802.1q, en donde se colocan ciertas etiquetas o banderas en el frame para manipularlo. Esta clase surge ante la necesidad de interoperar en un ambiente con diferentes
marcas, pero basadas en estándares. Por ejemplo: si requieren transportar información de la VLAN uno con equipo Alcatel a la VLAN dos que funcionan con equipo Cabletron, se debe utilizar un protocolo estándar para lograrlo. Un problema actual de las VLAN implícitas es que aun son propietarias y las explícitas son abiertas. Ambas clases de VLAN deberán utilizar los métodos de Networking, Inter-Domain e Inter-VLAN para realizar sus funciones de forma más simple. Otro de los problemas de las VLAN es la Calidad de Servicios (QoS; Quality of service), ya que con ATM (Asinchronous Transfer Mode; Modo de transferencia asincrona) sé tenia garantizada la calidad de forma intrínseca, pero ahora se busca que las redes de
147
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
frames puedan dar QoS, para que dentro de las VLAN el usuario pueda indicar la prioridad de sus paquetes y de esta forma eficientar el ancho de banda. Las VLAN deben ser rápidas, basadas en switchs para que sean interoperables totalmente – porque los routers no dan la velocidad requerida- , su información deberá viajar a través del backbone y deberán ser movibles, es decir, que el usuario no tenga que reconfigurar la maquina cada vez que se cambie de lugar.
Las generaciones de las VLAN.
1. Basadas en puertos y direcciones MAC 2. Internet Working; se apoya en protocolo y dirección capa tres. 3. De aplicación y servicios: aquí se encuentran los grupos multicast y las VLAN definidas por el usuario. 4. Servicios avanzados: ya se cumple con los tres criterios antes de realizar alguna asignación a la VLAN; se puede efectuar por medio de DHCP (Dynamic Host Configuration Protocol; Protocolo de configuración dinámica) o por AVLAN (Authenticate Virtual Local Area Networks; Redes virtuales autenticadas de área local).
VLAN por Puerto.
Este tipo es el más sencillo ya que un grupo de puertos forma una VLAN -un puerto solo puede pertenecer a una VLAN, el problema se presenta cuando se quieren hacer MAC ya que la tarea es compleja. VLAN por MAC.
Se basa en MAC Address, por lo que se realiza un mapeo para que el usuario pertenezca a una determinada VLAN. Obviamente dependerá de la política de creación. Este tipo de VLAN ofrece mayores ventajas, pero es complejo porque hay que meterse con
148
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
las direcciones MAC y si no se cuenta con un software que las administre, será muy laborioso configurar cada una de ellas. VLAN por Protocolo.
Lo que pertenezca a IP sé enrutará a la VLAN de IP e IPX se dirigirá a la VLAN de IPX , es decir, se tendrá una VLAN por protocolo. Las ventajas que se obtienen con este tipo de VLAN radican en que dependiendo del protocolo que use cada usuario, este se conectara automáticamente a la VLAN correspondiente. VLAN por subred es de IP o IPX.
Aparte de la división que ejecuta la VLAN por protocolo, existe otra subdivisión dentro de este para que el usuario – aunque este conectado a la VLAN del protocolo IP – sea asignado en otra VLAN -subred- que pertenecerá al grupo 10 o 20 dentro del protocolo. VLAN por direccio nes IP multic ast.
Generalmente son las direcciones de clase D las que ayudan a formular la VLAN. El mapeo o la asignación a la VLAN se basa o referencia en la dirección multicast. VLAN definid as por el usuario.
En esta política de VLAN se puede generar un patrón de bits, para cuando llegue el frame. Si los primeros cuatro bits son 1010 se irán a la VLAN de ingeniería, sin importar las características del usuario – protocolo, dirección MAC y puerto -. Si el usuario manifiesta otro patrón de bits, entonces se trasladara a la VLAN que le corresponda; aquí el usuario define las VLAN. VLAN Binding.
Se conjugan tres parámetros o criterios para la asignación de VLAN: si el usuario es del puerto x, entonces se le asignara una VLAN correspondiente. 149
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
También puede ser puerto, protocolo y dirección MAC, pero lo importante es cubrir los tres requisitos previamente establecidos, ya que cuando se cumplen estas tres condiciones se coloca al usuario en la VLAN asignada, pero si alguno de ellos no coincide, entonces se rechaza la entrada o se manda a otra VLAN. VLAN po r DHCP.
Aquí ya no es necesario proporcionar una dirección IP, sino que cuando el usuario enciende la computadora automáticamente el DHCP pregunta al servidor para que tome la dirección IP y con base en esta acción asignar al usuario a la VLAN correspondiente. Esta política de VLAN es de las últimas generaciones. Fuente: Revista RED La comunidad de expertos en redes Junio 2001 Edición 129 Requerimientos b ásicos de una VPN.
Por lo general cuando se desea implantar una VPN hay que asegurarse que esta proporcione: •
Identificación de usuario.
•
Administración de direcciones.
•
Codificación de datos.
•
Administración de claves.
•
Soporte a protocolos múltiples.
•
Identificación de usuario.
•
La VPN debe ser capaz de verificar la identidad de los usuarios y restringir el acceso a la VPN a aquellos usuarios que no estén autorizados. Así mismo, debe proporcionar registros estadísticos que muestren quien acceso, que información y cuando.
150
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
Admi ni strac ió n d e di recci on es.
La VPN debe establecer una dirección del cliente en la red privada y debe cerciorarse que las direcciones privadas se conserven así. Codificación de datos.
Los datos que se van a transmitir a través de la red pública deben ser previamente encriptados para que no puedan ser leídos por clientes no autorizados de la red. Administración de claves .
La VPN debe generar y renovar las claves de codificación para el cliente y el servidor. Soporte a protocolos múltiples.
La VPN debe ser capaz de manejar los protocolos comunes que se utilizan en la red pública. Estos incluyen el protocolo de Internet (IP), el intercambio de paquete de Internet (IPX) entre otros. Herramientas de u na VPN. -VPN
Gateway.
- Software. - Firewall. - Router. - VPN Gateway. - Dispositivos con un software y hardware especial para proveer de capacidad a la VPN. - Software.
- Esta sobre una plataforma PC o Workstation, el software desempeña todas las funciones de la VPN. Ventajas d e una VPN. - Dentro
de las ventajas más significativas podremos mencionar la integridad,
confidencialidad y seguridad de los datos.
151
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
- Reducción de costos. - Sencilla de usar. - Sencilla instalación del cliente en cualquier PC Windows. - Control de Acceso basado en políticas de la organización - Herramientas de diagnostico remoto. - Los algoritmos de compresión optimizan el tráfico del cliente. Evita el alto costo de las actualizaciones y mantenimiento a las PC´s remotas.
8.2. Protocolo PPTP. PPTP (Point-to-Point Tunneling Protocol o Protocolo de túnel punto a punto) fue desarrollado por ingenieros de Ascend Communications, U.S. Robotics, 3Com Corporation, Microsoft, y ECI Telematics para proveer entre usuarios de acceso remoto y servidores de red una red privada virtual. Como protocolo de túnel, PPTP encapsula datagramas de cualquier protocolo de red en datagramas IP, que luego son tratados como cualquier otro paquete IP. La gran ventaja de este tipo de encapsulamiento es que cualquier protocolo puede ser ruteado a través de una red IP, como Internet. PTP fue diseñado para permitir a los usuarios conectarse a un servidor RAS desde cualquier punto en Internet para tener la misma autenticación, encriptación y los mismos accesos de LAN como si discaran directamente al servidor. En vez de discar a un modem conectado al servidor RAS, los usuarios se conectan a su proveedor y luego "llaman" al servidor RAS a través de Internet utilizando PPTP. Existen dos escenarios comunes para este tipo de VPN:
•
El usuario remoto se conecta a un ISP que provee el servicio de PPTP hacia el servidor RAS.
152
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
•
El usuario remoto se conecta a un ISP que no provee el servicio de PPTP hacia el servidor RAS y, por lo tanto, debe iniciar la conexión PPTP desde su propia máquina cliente.
Para el primero de los escenarios, el usuario remoto estable una conexión PPP con el ISP, que luego establece la conexión PPTP con el servidor RAS. Para el segundo escenario, el usuario remoto se conecta al ISP mediante PPP y luego "llama" al servidor RAS mediante PPTP. Luego de establecida la conexión PPTP, para cualquiera de los dos casos, el usuario remoto tendrá acceso a la red corporativa como si estuviera conectado directamente a la misma. La técnica de encapsulamiento de PPTP se basa en el protocolo Generic Routing Encapsulation (GRE), que puede ser usado para realizar túneles para protocolos a través de Internet. La versión PPTP, denominada GREv2, añade extensiones para temas específicos como Call Id y velocidad de conexión. El paquete PPTP está compuesto por un header de envío, un header IP, un header GREv2 y el paquete de carga. El header de envío es el protocolo enmarcador para cualquiera de los medios a través de los cuales el paquete viaja, ya sea Ethernet, frame relay, PPP. El header IP contiene información relativa al paquete IP, como ser, direcciones de origen y destino, longitud del datagrama enviado, etc. El header GREv2 contiene información sobre el tipo de paquete encapsulado y datos específicos de PPTP concernientes a la conexión entre el cliente y servidor. Por último, el paquete de carga es el paquete encapsulado, que, en el caso de PPP, el datagrama es el original de la sesión PPP que viaja del cliente al servidor y que puede ser un paquete IP, IPX, NetBEUI, entre otros. Para la autenticación, PPTP tiene tres opciones de uso: CHAP, MS-CHAP y aceptar cualquier tipo, inclusive texto plano. Si se utiliza CHAP, Standard en el que se intercambia un "secreto" y se comprueba ambos extremos de la conexión coincidan en el mismo, se utiliza la contraseña de Windows NT, en el caso de usar este sistema operativo, como secreto. MSCHAP es un Standard propietario de Microsoft y resulta ser una ampliación de CHAP. Para la tercer opción, el servidor RAS aceptará CHAP, MS-CHAP o PAP (Password Autenthication Protocol), que no encripta las contraseñas. 153
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
Para la encriptación, PPTP utiliza el sistema RC4 de RSA, con una clave de sesión de 40 bits.
8.3. Protocolo L2TP. Layer-2 Tunneling Protocol (L2TP) facilita el entunelamiento de paquetes PPP a través de una red de manera tal que sea lo más transparente posible a los usuarios de ambos extremos del túnel y para las aplicaciones que éstos corran. El escenario típico L2TP, cuyo objetivo es la creación de entunelar marcos PPP entre el sistema remoto o cliente LAC y un LNS ubicado en una LAN local. Un L2TP Access Concentrator (LAC) es un nodo que actúa como un extremo de un túnel L2TP y es el par de un LNS. Un LAC se sitúa entre un LNS y un sistema remoto y manda paquetes entre ambos. Los paquetes entre el LAC y el LNS son enviados a través del túnel L2TP y los paquetes entre el LAC y el sistema remoto es local o es una conexión PPP. Un L2TP Network Server (LNS) actúa como el otro extremo de la conexión L2TP y es el otro par del LAC. El LNS es la terminación lógica de una sesión PPP que está siendo puesta en un túnel desde el sistema remoto por el LAC. Un cliente LAC, una máquina que corre nativamente L2TP, puede participar también en el túnel, sin usar un LAC separado. En este caso, estará conectado directamente a Internet. El direccionamiento, la autenticación, la autorización y el servicio de cuentas son proveídos por el Home LAN’s Management Domain. L2TP utiliza dos tipos de mensajes: de control y de datos. Los mensajes de control son usados para el establecimiento, el mantenimiento y el borrado de los túneles y las llamadas. Utilizan un canal de control confiable dentro de L2TP para garantizar el envío. Los mensajes de datos encapsulan los marcos PPP y son enviados a través del túnel.
154
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
Los marcos PPP son enviados a través de un canal de datos no confiable, encapsulado primero por un encabezado L2TP y luego por un transporte de paquetes como UDP, Frame Relay o ATM. Los mensajes de control son enviados a través de un canal de control L2TP confiable que transmite los paquetes sobre el mismo transporte de paquete. Se requiere que haya números de secuencia en los paquetes de control, que son usados para proveer el envío confiable en el canal de control. Los mensajes de datos pueden usar los números de secuencia para reordenar paquetes y detectar paquetes perdidos. Al correr sobre UDP/IP, L2TP utiliza el puerto 1701. El paquete entero de L2TP, incluyendo la parte de datos y el encabezado, viaja en un datagrama UDP. El que inicia un túnel L2TP toma un puerto UDP de origen que esté disponible, pudiendo ser o no el 1701 y envía a la dirección de destino sobre el puerto 1701. Este extremo toma un puerto libre, que puede ser o no el 1701, y envía la respuesta a la dirección de origen, sobre el mismo puerto iniciador. Luego de establecida la conexión, los puertos quedan estáticos por el resto de la vida del túnel. En la autenticación de L2TP, tanto el LAC como el LNS comparten un secreto único. Cada extremo usa este mismo secreto al actuar tanto como autenticado como autenticador. Sobre la seguridad del paquete L2TP, se requiere que el protocolo de transporte de L2TP tenga la posibilidad de brindar servicios de encriptación, autenticación e integridad para el paquete L2TP en su totalidad. Como tal, L2TP sólo se preocupa por la confidencialidad, autenticidad e integridad de los paquetes L2TP entre los puntos extremos del túnel, no entre los extremos físicos de la conexión.
8.4. Protocolo IPSec. IPSec trata de remediar algunas fallas de IP, tales como protección de los datos transferidos y garantía de que el emisor del paquete sea el que dice el paquete IP. Si bien estos servicios son distintos, IPSec da soporte a ambos de una manera uniforme.
155
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
IPSec provee confidencialidad, integridad, autenticidad y protección a repeticiones mediante dos protocolos, que son Authentication Protocol (AH) y Encapsulated Security Payload (ESP). Por confidencialidad se entiende que los datos transferidos sean sólo entendidos por los participantes de la sesión. Por integridad se entiende que los datos no sean modificados en el trayecto de la comunicación. Por autenticidad se entiende por la validación de remitente de los datos. Por protección a repeticiones se entiende que una sesión no pueda ser grabada y repetida salvo que se tenga autorización para hacerlo. AH provee autenticación, integridad y protección a repeticiones pero no así confidencialidad. La diferencia más importante con ESP es que AH protege partes del header IP, como las direcciones de origen y destino. ESP provee autenticación, integridad, protección a repeticiones y confidencialidad de los datos, protegiendo el paquete entero que sigue al header. AH sigue al header IP y contiene diseminaciones criptográficas tanto en los datos como en la información de identificación. Las diseminaciones pueden también cubrir las partes invariantes del header IP. El header de ESP permite rescribir la carga en una forma encriptada. Como no considera los campos del header IP, no garantiza nada sobre el mismo, sólo la carga. Una división de la funcionalidad de IPSec es aplicada dependiendo de dónde se realiza la encapsulación de los datos, si es la fuente original o un gateway:
•
El modo de transporte es utilizado por el host que genera los paquetes. En este modo, los headers de seguridad son antepuestos a los de la capa de transporte, antes de que el header IP sea incorporado al paquete. En otras palabras, AH cubre el header TCP y 156
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
algunos campos IP, mientras que ESP cubre la encriptación del header TCP y los datos, pero no incluye ningún campo del header IP.
•
El modo de túnel es usado cuando el header IP entre extremos está ya incluido en el paquete, y uno de los extremos de la conexión segura es un gateway. En este modo, tanto AH como ESP cubren el paquete entero, incluyendo el header IP entre los extremos, agregando al paquete un header IP que cubre solamente el salto al otro extremo de la conexión segura, que, por supuesto, puede estar a varios saltos del gateway. Los enlaces seguros de IPSec son definidos en función de Security Associations (SA).
Cada SA está definido para un flujo unidireccional de datos y generalmente de un punto único a otro, cubriendo tráfico distinguible por un selector único. Todo el tráfico que fluye a través de un SA es tratado de la misma manera. Partes del tráfico puede estar sujeto a varios SA, cada uno de los cuales aplica cierta transformación. Grupos de SA son denominados SA Bundles. Paquetes entrantes pueden ser asignados a un SA específico por los tres campos definitorios: la dirección IP de destino, el índice del parámetro de seguridad y el protocolo de seguridad. El SPI puede ser considerado una cookie que es repartido por el receptor del SA cuando los parámetros de la conexión son negociados. El protocolo de seguridad debe ser AH o ESP. Como la dirección IP de destino es parte de la tripleta antes mencionada, se garantiza que este valor sea único. Un ejemplo de paquete AH en modo túnel es: IPhdr
AH
Iphdr2
TCPhdr Data
Un ejemplo de paquete AH en modo transporte es: IPhdr
AH
TCPhdr Data
Como ESP no puede autentificar el header IP más exterior, es muy útil combinar un header AH y ESP para obtener lo siguiente: IPhdr
AH
ESP
TCPhdr Data
157
CAPITULO 8. REDES PRIVADAS VIRTUALES (VPN).
Este tipo de paquete se denomina Transport Adjacency. La versión de entunelamiento sería: IPhdr
AH
ESP
Iphdr2
TCPhdr Data
Sin embargo, no es mencionado en las RFC que definen estos protocolos. Como en Transport Adjacency, esto autenticaría el paquete completo salvo algunos pocos campos del header IP y también encriptaría la carga. Cuando un header AH y ESP son directamente aplicados como en esta manera, el orden de los header debe ser el indicado. Es posible, en el modo de túnel, hacer una encapsulación arbitrariamente recursiva para que el orden no sea el especificado. IPSec hace posible la creación de “túneles” seguros entre dos gateways –típicamente un router, cortafuegos o, incluso, software sobre un PC conectado a la red privada del usuario a través de redes públicas. Los túneles IPSec son establecidos dinámicamente y libera d o s cuando no están en uso. Para establecer un túnel, los dos gateways IPSec han de autenticarse entre sí y definir cuáles serán los algoritmos de seguridad y las claves que utilizarán. Así, IPsec proporciona comunicaciones seguras y la separación lógica entre los flujos del tráfico de la red privada virtual (VPN) frente al resto de las transmisiones que cursan la red IP compartida. IPSec es el nuevo marco de seguridad IP, definido con el advenimiento del IPv6. Aunque IPv6 está muy poco difundido en este momento, la tecnología marco IPSec se está utilizando ya, lo que asegura, entre otras cosas, la interoperatividad entre sistemas de diversos fabricantes y sistemas operativos, como Linux, windows Macintosh, firewalls y routers comerciales. IPSec integra confidencialidad, integridad y autentificación en un mismo marco interoperante por lo que esta será la opción escogida para la implementación de las VPN. Además, como trabaja a nivel IP, es transparente a la aplicación, ya que esta no necesita modificación alguna, y ni siquiera se entera de la existencia de criptografía intermedia, a diferencia de protocolos de nivel de transporte, como son los túneles sobre TCP (SSL, SSH). Ipsec es una tecnología que protege los paquetes IP de la capa de red, así se forma una capa segura de un nodo de la red a otro. IPsec utiliza dos protocolos para la protección de los paquetes IP: “Cabecera de Autenticación” ( AH: Authentication Header) y “Cargo de 158
CAPITULO 8. REDES PRIVADAS VIRTUALES VPN .
Seguridad Encapsulado” (ESP: Encapsulated Security Payload). AH provee autenticación, integridad y protección a la réplica, mientras que ESP provee además confidencialidad (mediante cifrado). Una Asociación de Seguridad ( SA : Security Association) es un enlace seguro de IPsec definido por un único flujo unidireccional de datos desde un único punto hasta otro. Consiste en el acuerdo de las dos partes comunicantes en el método utilizado para la comunicación segura. Todo el flujo de tráfico sobre un SA se trata del mismo modo. El tráfico puede ser entre dos hosts, entre un host y una pasarela de seguridad (Security Gateway) o entre dos pasarelas de seguridad. Si el enlace es entre dos hosts, la SA es de modo transporte. En este modo de funcionamiento de SA, las cabeceras de seguridad se añaden entre la cabecera de la capa de red IP y la cabecera de transporte (TCP o UDP), garantizando la seguridad al paquete IP sin cabecera. AH en modo transporte: IP Header
AH Header
TCP Header
Carga
ESP en modo transporte: IP Header
ESP Header
TCP Header
ESP Trailer
ESP Authen
Si alguno de los extremos del enlace es una pasarela de seguridad, se utiliza el modo túnel de SA. En este caso, las cabeceras de seguridad engloban también a la
cabecera IP original del paquete IP, teniendo que añadir una nueva cabecera IP que cubre solamente el salto al otro extremo de la conexión segura. AH en modo túnel: New IP Header
AH Header
IP Header
Carga
ESP en modo túnel: New IP Header
ESP Header
IP Header Carga
ESP cifrado
ESP Authen
159
CAPITULO 8. REDES PRIVADAS VIRTUALES VPN .
Cada paquete IP se asigna a una SA mediante tres campos: Dirección IP del Destino, Índice del Parámetro de Seguridad (SPI: Security Parameter Index) y Protocolo de Seguridad (AH o ESP). Sin embargo, el protocolo no estipula cómo se han de autentificar los pares ni cómo se intercambian las claves de sesión. Estas tareas son gestionadas por el protocolo de intercambio de claves de Internet IKE (Internet Key Exchange). IKE permite que dos puntos extremos puedan establecer conexiones seguras, utilizando la infraestructura de llaves precompartidas o llaves públicas (PKI), certificados digitales administrados por una autoridad certificadora---un servicio externo o interno que registra las llaves públicas. IKE permite también que una red privada virtual (VPN) pueda ampliarse a cientos de puntos extremos, mediante el uso del equivalente a una tarjeta de identificación digital que identifica cada punto extremo.
8.5. Protocolo MPLS. MPLS (Multi protocol label switching ) consiste en un método de enrutamiento IP estándar abierto que permite a los proveedores de servicios priorizar distintos tipos de tráfico de aplicaciones y ofrecer por tanto garantías de calidad de servicio (QoS, Quality of Service ). En efecto, permite etiquetar paquetes de datos procedentes de distintas aplicaciones de conformidad con su urgencia y enrutarlos a continuación sobre sus LSPs ( Label Switched Paths) predestinados de la red IP privada de una empresa de telecomunicaciones. En la
práctica, lo anterior significa que los datos sensibles a retardos, como la telefonía IP o el tráfico de misión crítica procedente de aplicaciones CRM, ERP y SCM, puede llegar a su destino con prioridad sobre aplicaciones menos críticas.
8.6. Conc lusión. Se puede transmitir video por VPN con el sistema “Ojovigilante 1.0” el ancho de banda debe ser alto para que la calidad del video sea aceptable.
160
PRUEBAS Y RESULTADOS
En este capítulo se detallan las pruebas realizadas para demostrar el funcionamiento del sistema, obteniendo resultados cuantitativos y cualitativos para valorar la eficiencia del sistema. Instalación del si stema de videovigilanc ia IP en diferentes sistemas operativos . Microsoft windows 98.
En este sistema operativo es necesario instalar manualmente el componente MDAC (Microsoft Data Access Components) 2.5 o superior y DirectX 9 o superior para que funcione correctamente el sistema de videovigilancia. Microsoft windows XP.
Funciona correctamente, , usa los codecs de audio y video instalados en el propio sistema operativo. Microsof t wind ows 2000.
Funciona correctamente, usa los codecs de audio y video instalados en el propio sistema operativo. Microsoft win dows millenium edition
Funciona correctamente, usa los codecs de audio y video instalados en el propio sistema operativo. Microsof t windo ws server 2003
Funciona correctamente, usa los codecs de audio y video instalados en el propio sistema operativo. Microsoft windows vista.
Para este sistema operativo se requiere una traducción de algunos componentes OCX para su correcto funcionamiento.
161
Cámaras in staladas loc almente.
Se intento instalar varias cámaras en puerto USB 1.1 y 2.0 en la misma computadora siendo el siguiente resultado: Sólo se pueden ver dos cámaras locales al mismo tiempo ya que con tres cámaras el sistema operativo manda un mensaje de escaso ancho de banda. Es posible que en un futuro cercano con el desarrollo del USB 3.0 se puedan conectar localmente varias cámaras ya que se presume que la velocidad de transmisión será mucho mayor que la versión 2.0. Cámaras i nstaladas remotamente.
Se pueden ver hasta cuatro cámaras remotas simultáneamente ya que estas transmiten y reciben la señal por la interfaz RJ45 la cual tiene más ancho de banda que el puerto USB. Para ver otras cámaras, se elige la cámara deseada, sustituyendo una de las cámaras activas. Prueba del sistema en WAN.
El sistema “Ojovigilante 1.0” se probó en varias ocasiones en una red WAN, para ello se utilizó una IP pública del centro de computo de la presidencia de Cd. Guzmán y otra en las instalaciones del Instituto tecnológico de Cd. Guzmán. En el primer intento la transmisión fue de poca calidad ya que había mucho retraso, atribuido al gran tráfico de red que tienen ambas IPs, fue necesario bajar los frames por segundo de 30 hasta 5 y la transmisión se realizó con éxito. En un segundo intento se eligió un día y momento en que no hay tanto tráfico de red en las IPs públicas utilizadas y la transmisión se realizó sin problemas a 30 frames por segundo que es el máximo.
162
Instalaciones del sistema para pruebas pil oto.
Una de las pruebas más importantes es la instalación del sistema para ver su eficiencia y sus defectos de detenerlos.
•
El sistema fue instalado en las oficinas del CoBaEJ, Guadalajara, Jalisco.
El sistema se instaló en CoBaEJ (Colegio de Bachilleres del Estado de Jalisco) y ahí más que errores aparecieron sugerencias por parte de los usuarios para que el sistema tuviera algunas características, las cuales fueron implementadas posteriormente, fue una retroalimentación favorable al desarrollo del sistema.
•
El sistema también fue instalado en el laboratorio de cómputo del Instituto Tecnológico de Cd. Guzmán.
Aquí también hubo sugerencias para agregarle algunas características al sistema, lo cual fue muy favorable para mejorar las prestaciones del sistema.
CONCLUSION.
Actualmente los proveedores de internet ofrecen un ancho de banda enorme a un precio asequible, con lo que es posible usar un sistema de videovigilancia IP en tiempo real. Resultando un producto práctico y útil para la videovigilancia.
163
BIBLIOGRAFÍA.
Gonzalo Pajares, Imágenes digitales, Procesamiento práctico con Java Alfa omega Ra-Ma. Jesús Bernal Bermúdez, Reconocimiento de voz y fonética acústica, Alfa omega Ra-Mi A.D Ajenjo, Tratamiento digital de imágenes, Anaya Madrid 1993. E.R. Davies, machine vision: Theory, Algorithms, Practicalities, Academy Press, London, 1997. L.J. Glaciate, Machine vision and digital image processing Fundamentals, Prentice-Hall, Englewood cliffs, NJ, 1990. R.C. Gonzáles and R.E Woods, Digital image processing, Addison-Wesley, Reading, MA, 1993 Z. Hussain, Digital Image Processing, Ellis Horwood, Chichester, 1991. A. Low, Computer Vision and Image Processing, McGraw-Hill, New York, 1991. S. Marchand-Maillet and Y.M. Sharaiha, Binary Digital Image Processing: A discrete approach, Academic Press, London, 1999. Watt, 3D Computer Graphics, Addison-Wesley, Reading: MA, 1994. Weeks, Fundamentals of Electronic Image Processing, IEEE Press, New York, 1996. M.R. Leek, V. Summers, “Reduced frequency selectivity and the preservation of spectral contrast in noise”, Journal of the Acoustic Society of America, 1996. 164
Scott, Charly, Wolfe, Paul, Erwin, Mike: "Virtual Private Networks", 2° edición, O’Reilly & Associates, Enero 1999. Gutiérrez González, Ma. Nieves, Sancho Buzón, Ana Rosa, Casas Cuadrado, Amadeo: Estudio sobre las VPN (Redes Privadas Virtuales),
165
GLOSARIO. ANCHO DE B ANDA. Bandwidth en inglés. Cantidad de bits que pueden viajar por un medio
físico (cable coaxial, par trenzado, fibra óptica, etc.) de forma que mientras mayor sea el ancho de banda más rápido se obtendrá la información. Se mide en millones de bits por segundo (Mbps). Una buena analogía es una autopista. Mientras más carriles tenga la calle, mayor cantidad de tráfico podrá transitar a mayores velocidades. El ancho de banda es un concepto muy parecido. Es la cantidad de información que puede transmitirse en una conexión durante una unidad de tiempo elegida. ATM (MODO DE TRANSFERENCIA ASÍNCRONO) . Tecnología de transmisión de datos que
ofrece el potencial de revolucionar el modo en que se construyan las redes de computadores. AUDIOCONFERENCIA: Conferencia realizada mediante señales de audio. BACKBONE . Conjunto de equipos de cómputo y de redes que forman la parte original y
medular del INTERNET. BITRATE. Término bastante utilizado al hablar de calidades de video y audio. Define cuánto
(o el promedio) de espacio físico (en bits) toma un segundo de audio o video. Por ejemplo, 3 minutos de audio MP3 a 128kBit/sg CBR, toma 2,81 MegaBytes de espacio físico (1,024 x 128 / 1,024 / 1,024 x 180 / 8). En donde: 128kbit = 128 x 1024 bits 1 byte = 8 bits 1 kilobyte = 1,024 bytes 1 megabyte = 1,024 kilobytes 3 minutos = 180 segundos. Algunos ejemplos: BPS. Bits por Segundo. Velocidad a la que se transmiten los bits en un medio de
comunicación. BROADBAND. Se refiere generalmente a conexiones a Internet con mucho más ancho de
banda que con un modem de "dial-up" convencional. No hay una especificación sobre la velocidades, pero por lo general Cable Modem, DSL o ADSL. BROADCAST. Es un modo de transmisión de información donde un nodo emisor envía
información a una multitud de nodos receptores de manera simultánea, sin necesidad de reproducir la misma transmisión nodo por nodo. 166
CIF. Formato Intermedio Común utilizado por el codec H.261 para resolución de video de 352x288 pixeles DIRECCIÓN IP . El concepto de números o direcciones IP se puede entender mejor si se
establece una analogía entre computadores y teléfonos. Del mismo modo como un teléfono tiene asignado un único número en la telefónica, cada computador tiene un único número IP, asignado a escala mundial DOMINIO. Es un conjunto de datos que permite identificar cada equipo de cómputo
conectado a la red de Internet en forma única. En forma análoga a la de la Dirección Internet, el dominio de cada equipo consta de cuatro partes escritas en minúsculas y separadas por puntos, a saber: E-MAIL. Es un sistema de intercambio de mensajes entre usuarios o grupos de personas.
Cada persona dispone de una dirección de correo que le identifica de forma unívoca como perteneciente a un determinado sistema dentro de la red. ETHERNET. Sistema de red creado originalmente por Xerox, pero desarrollado
conjuntamente como estándar en 1980 por Digital Equipment Corporation, Intel y Xerox. El estándar 802.3 de la IEEE define una red similar, pero algo distinta, que utiliza un formato de trama alternativo (La trama es la estructura y la codificación de una cadena de bits transmitidos a través de un enlace). Ethernet tiene un rendimiento de 10 Mbits/seg. y utiliza un método de acceso por detección de portadora en el que las estaciones comparten un cable de red, pero solo una estación puede utilizar el cable en un instante determinado. El método de acceso CSMA/CD (acceso múltiple por detección de portadora/detección de colisiones) se utiliza para arbitrar el acceso al cable. FTP (TRANSFERENCIA DE ARCHIVOS). Intercambio de software y archivos entre usuarios
de la red. FIREWALLS. Es un dispositivo o grupo de dispositivos colocados entre una red segura (su
red interna) y una red no segura (Internet). Las diversas tareas del muro de fuego incluyen autentificación de usuarios, limitar el tráfico entrante y saliente, registrar la información de tráfico, producir reportes de tráfico y prevenir el acceso no deseado a sus servicios.
167
GATEWAY. Conexión compartida entre una red de área local (LAN) y un sistema grande,
como un computador mainframe o una red de paquetes conmutados, cuyos protocolos de comunicación son diferentes. Por lo general además de ser más lento que un puente o un enrutador, un gateway es una combinación de equipo y programas con su propio procesador y memoria que se utilizan para ejecutar conversaciones de protocolo. H.264. También conocido como MPEG-4 AVC (Advanced Video Coding), es un estándar de
compresión de video que ofrece significativa mayor compresión que sus predecesores. Se espera que de hasta el doble de compresión que MPEG-4 ASP (Advanced Simple Profile). H.264 puede proporcionar video con calidad DVD a menos de 1 Mbps. H.320. Estándar del CCITT para la videoconferencia, que es el más utilizado en los equipos
comerciales basados en PC y RDSI Son especificaciones que definen cómo se comunican los sistemas de videoconferencia a través de medios de circuitos switcheados, como las líneas RDSI, T-1 fraccional o Switched-56. El algoritmo de compresión H.261 define dos resoluciones de video: el CIF (Formato Intermedio Común), de 352x288 y el QCIF (un cuarto del Formato Intermedio Común) de 176x144. El H.320 también posee tres codecs (codificadores - decodificadores) de audio: el G.711, que usa un ancho de banda de 64 Kbps para proporcionar audio de 3 KHz de calidad telefónica; el G.722, un algoritmo de mejor calidad que produce audio de 7.5 KHz pero consume un ancho de banda de hasta 64 Kbps; y el G.728 que, a pesar de proporcionar audio de calidad casi telefónico, sólo requiere de 16 Kbps. H.310 y H.321. Adaptan al H.320 a las topologías de la siguiente generación, como ATM y
SDM de banda ancha. El H.321 proporciona la máxima capacidad hacia atrás, y conserva la capacidad del H.320 y algunos de sus componentes, incluido el H.261. El H.310 añade el algoritmo de compresión de video MPEG-2 de ISO, que proporciona calidad de video clase HDTV (televisión de alta definición). H.322. Es una versión mejorada del H.320, optimizada para redes que garantizan Calidad de
Servicio (QoS) para tráfico isocrónico, como el video en tiempo real. H.323. extiende al H.320 a Ethernet, Token-Ring y otras redes de paquetes switcheados que
no garantizan QoS. Soporta operaciones punto a punto y multipunto. Además del codec de 168
video H.261 y el codec de audio G.711 del H.320, las implantaciones del H.323 también pueden incluir componentes del H.320 y el H.324, como H.263, G.722, G.723 y G.728. Los temas de QoS se han manejado por un componente de portero centralizado que permite que los administradores de LAN administren el tráfico de video en la espina dorsal. Otra parte integral de la especificación define una compuerta LAN/H.320, que permite que cualquier nodo H.323 interopere con productos H.320. H.324. lleva a la videoconferencia de tipo H.320 a las líneas telefónicas análogas de la RTC.
Puede incorporar codificación H.261, pero la mayor parte de las implantaciones usarán el H.263, una versión escalable del H.261 que añade un formato sub-QCIF (SQCIF) de 128x96. Debido al diseño eficiente del H.263, puede producir velocidades de cuadro muy parecidas a la de los sistemas RDSI H.320 actuales, pero mediante módems baratos asistidos por hardware HIPERENLACES (HYPERLINKS). Una forma de relacionar una palabra o frase que ve el
usuario con una dirección oculta a la que se conectará el programa cuando realicemos un "clic" en él. HIPERMEDIA. Documentos al estilo hipertexto que no se limitan a texto, sino que pueden
contener gráficos, vídeo o sonido. HIPERTEXTO. Es un texto que contiene referencias al mismo u otros textos, liberando de la
restricción de una lectura lineal. HOST ( ANFITRIÓN) Máquina en Internet o en una red en general, usualmente accesible
desde las demás. El número de hosts servía para medir el crecimiento de Internet, pero hoy la mayoría de usuarios lo hacen por conexiones eventuales (ad hoc) por teléfono por lo que no se contabilizan como hosts. HOSTNAME. Nombre dado a una máquina en una red. HTML (HYPERTEXT MARKUP LANGUAGE ). Implementación concreta del SGML, que
define un formato hipermedia utilizado en el WWW que permite incluir hiperenlaces a otros
169
documentos en la Red. Es un tipo de SGML. Existen las versiones HTML 1.0, HTML 2.0, HTML+ y HTML 3.0, aparte de las extensiones propias de algunos navegadores. HTTP. En inglés Hypertext Transfer Protocol. Protocolo de Transferencia de Hipertexto.
HTTP es un protocolo con la ligereza y velocidad necesaria para distribuir y manejar sistemas de información hipermedia. HTTP ha sido usado por los servidores World Wide Web desde su inicio en 1993. INTERNET. Es una red interconectada de redes de computadores, de carácter internacional
e intercontinental, que une a más de un millón de servidores de todo el mundo y que se comunica a través de los medios más diversos, desde el cable coaxial, microondas, fibra óptica y los satélites, hasta las líneas telefónicas. IIS. Microsoft Internet Information Services. Servicios de Información de Internet de
Microsoft. IIS es un conjunto de servicios basados en Internet, para maquinas con Windows. Originalmente se proporcionaba como opcional en Windows NT, pero posteriormente fue integrado a Windows 2000 y Windows Server 2003. Incluye servidores para FTP, SMTP, NNTP y HTTP/HTTPS. IMS Research. fundada en 1989 y ahora es uno de los principales proveedores a la industria
global de electrónica. INTRANET. Aquellas redes que aprovechan el uso de la red Internet para fines privados. La
gran diferencia entre Internet e Intranet es simplemente la forma de utilizar la red de redes. Internet es para todo público, mientras que Intranet es sólo para los usuarios autorizados. En el caso de redes privadas que utilizan la tecnología Internet para el intercambio de información pero que no están conectadas a la red Internet, también se dice que forman un Intranet particular. Sin embargo, el auténtico Intranet hace siempre uso de la red pública conocida como Internet. Si utilizamos los mismos elementos de Internet, los instalamos dentro de nuestra red local exclusivamente para acceso al personal de nuestra empresa, sin necesidad de tener una conexión al exterior, tenemos en este momento una Intranet. IRC (INTERNET RELAY CHAT). Cuando un usuario se conecta a un servidor de IRC puede
elegir entre numerosos "canales" con distintos temas de conversación. Una vez que se
170
selecciona el canal, se puede dialogar en tiempo real, en público o en privado, con todos los participantes de dicho canal. IP (INTERNET PROTOCOL ). Es responsable de mover los paquetes de datos ensamblados,
ya sea por el TCP o el UDP a través de las redes. Usa un conjunto de direcciones únicas para cada dispositivo en la red, a fin de determinar el enrutamiento y los destinos. LAN. Local Area Network. Red de área local. Red de computadoras personales ubicadas
dentro de un área geográfica limitada que se compone de servidores, estaciones de trabajo, sistemas operativos de redes y un enlace encargado de distribuir las comunicaciones. Por ejemplo, computadoras conectadas en una oficina, en un edificio o en varios. Se pueden optimizarse los protocolos de señal de la red hasta alcanzar velocidades de transmisión de 100 Mbps LOGIN. Corresponde al nombre de la empresa o persona que adquiere los servicios de
conexión a Internet. MULTICAST. [Multidifusión]. Técnica de transmisión de datos a través de Internet en la que
se envían paquetes desde un punto a varios simultáneamente. NAT. (Network Address Translation - Traducción de Dirección de Red) es un estándar
creado por la Internet Engineering Task Force (IETF) el cual utiliza una o más direcciones IP para conectar varios computadores a otra red (normalmente a Internet), los cuales tiene una dirección IP completamente distinta Por lo tanto, se puede utilizar para dar salida a redes públicas a computadores que se encuentran con direccionamiento privado o para proteger máquinas públicas. A diferencia del HTTP, que no define precisamente el género de archivos que vienen trasladados, el RTSP controla los datos con funcionalidades conceptualmente similares a las de un aparato de vídeo: Play, fast-forward, pause, stop y record. NETMEETING. Cliente de comunicaciones telefónicas en tiempo real para Internet que es
compatible con los estándares internacionales para conferencias y permite compartir aplicaciones entre múltiples usuarios y establecer conferencias de datos. NetMeeting
171
combina la potencia del PC con el alcance global de Internet, para convertir una llamada telefónica normal en una experiencia de comunicación y colaboración multimedia más rica y eficaz. PASSWORD. Es la clave de acceso privada para ingresar a Internet, proporcionada por el
proveedor del servicio, pero que puede ser modificada por el usuario. Su finalidad es limitar el acceso a otras personas al servicio en línea. PROTOCOLO. Conjunto de normas establecidas para que los ordenadores puedan
comunicarse entre sí. Es un acuerdo para los procedimientos de comunicación entre redes que hace referencia a la forma en que se envían los paquetes de datos, y a la forma en que se transmiten las señales POTS (PLAIN OLD TELEPHONE SYSTEMS). Metodología para transporte de la
videoconferencia a través de la red telefónica. QCIF. Resolución de video que utiliza una cuarta parte del Formato Intermedio Común con
tamaño de 176x144. Es utilizado por el codec H.261. QOS (QUALITY OF SERVICE). Calidad del servicio para tráfico asincrónico, como el video
en tiempo real, utilizado por el estándar H.322. RDSI (RED DIGITAL DE SERVICIOS INTEGRADOS). Es un cableado especial que soporta
transmisiones de datos a alta velocidad y que se rige por una estructura de manejo similar a las de las líneas telefónicas habituales. Se tiene entonces que toda la señal desde el lugar de instalación hasta la central telefónica RDSI es digital. RED. Al conjunto de equipos conectados a un servidor se le conoce como una red. RTCP. Real-time Transport Control Protocol (RTCP) [Protocolo de control de tiempo real]
proporciona un stream de control que está asociado con un stream de datos para una aplicación multimedia. RTP. Real Time Protocol. [Protocolo de Tiempo Real]. Protocolo utilizado para la transmisión de información en tiempo real como por ejemplo audio y video en una video-conferencia.
172
RTSP. Real-Time Streaming Protocol (RTSP) [Protocolo de Streaming en tiempo real] Es un
protocolo, es decir la serie de procedimientos genéricos para la comunicación entre dos máquinas, que optimiza el flujo de datos. RSVP (RESOURCE RESERVATION PROTOCOL). Protocolo emergente estándar IETF,
cuya mision es construir un camino tipo "conmutación de circuitos" sobre una red de
conmutación de paquetes. SERVIDOR. Computador o sistema que comparte sus recursos con otras máquinas,
denominadas clientes, que se los solicitan. SERVIDOR WEB. Servidor que corre el protocolo HTTP y que permite que los clientes que
se conectan puedan traerse y acceder a las páginas HTML que contiene. STREAMING. El streaming consiste en la distribución de audio o video por Internet. La
palabra streaming se refiere a que se trata de una corriente continua (sin interrupción). El usuario puede escuchar o ver en el momento que quiera. No es necesario estar suscrito para escuchar o ver. Este tipo de tecnología permite que se almacenen en un búfer lo que se va escuchando o viendo. El streaming hace posible escuchar música o ver videos sin necesidad de ser descargados previamente. STREAMING MEDIA. Archivos de audio o video que se reproducen mientras se están
descargando de Internet, sin tener que esperar a que termine la descarga para escucharlo y verlo. Requiere de un programa media reproductor. TCP/IP. Transfer Control Protocol/Internet Protocol. [Protocolo de control de transmisiones /
Protocolo Internet]. Es el protocolo estándar de comunicaciones en red y transporte del modelo OSI, utilizado para conectar sistemas informáticos a través de Internet T.120: es una especificación de conferencia de documentos que permite a los usuarios
compartir documentos durante cualquier videoconferencia H.32x. Las sesiones T.120 de sólo datos cuando no se requiere de comunicación por video, y el estándar también permiten reuniones multipunto que incluyen participantes con diferentes medios de transmisión.
173
TEOREMA DE NYQUIST. Es un teorema fundamental de la teoría de la información, de
especial interés en las telecomunicaciones. El teorema trata con el muestreo, que no debe ser confundido o asociado con la cuantificación, proceso que sigue al de muestreo en la digitalización de una señal y que, al contrario del muestreo, no es reversible (se produce una pérdida de información en el proceso de cuantificación, incluso en el caso ideal teórico, que se traduce en una distorsión conocida como error o ruido de cuantificación y que establece un límite teórico superior a la relación señal-ruido). Dicho de otro modo, desde el punto de vista del teorema, las muestras discretas de una señal son valores exactos que aún no han sufrido redondeo o truncamiento alguno sobre una precisión determinada, esto es, aún no han sido cuantificadas . El teorema demuestra que la reconstrucción exacta de una señal periódica continua en banda base a partir de sus muestras es matemáticamente posible si la señal está limitada en banda y la tasa de muestreo es superior al doble de su ancho de banda. UDP. User Datagram Protocol. Protocolo de servicios de Internet. Se utiliza cuando es
necesario transmitir voz o vídeo, y resulta más importante transmitir con velocidades que garanticen la correcta recepción. UNICAST. Comunicación entre un emisor y un solo receptor en una red. Por ejemplo: Un
correo electrónico enviado de una persona a otra. URL (UNIFORM RESOURCE LOCATOR) . Es un procedimiento para identificar de un modo
unívoco un fichero en Internet. Básicamente consta de la indicación del tipo de servicio, el nombre del ordenador en que reside, y la ruta completa de acceso, incluyendo directorios, subdirectorios, en su caso, y nombre del fichero. Los siguientes ejemplos muestran los URLs respectivos de un documento texto, un servidor gopher, un documento hipertexto servido desde un web y un servicio telnet. VIDEO CONFERENCIA. Sistema que permite la transmisión en tiempo real de video, sonido
y texto a través de una red; ya sea en una red de área local (LAN) o global (WAN). El hardware necesario se compone de a) tarjeta de sonido y vídeo, vídeo cámara, micrófono y
174