B1G2T07 - NUEVAS TECNOLOGÍAS DE INTERFAZ. INTERFAZ.
1.
RECONOCIMIENTO ÓPTICO......................................... ÓPTICO........................................................ ............................... ............................... ............................... ................................. ................................ ............... 2 1.1. 1.2.
INTRODUCCION....................................................... INTRODUCCION....................................... ................................ ............................... ............................... ................................ ................................ ................................ .................. .. 2 TIPOLOGIA..................................... TIPOLOGIA..................... ................................ ................................ ................................ ................................ ................................ ............................... ............................... ............................. ............. 2
1.2.1. 1.2.2. 1.2.3. 1.2.4. 1.3.
FASES DE RECONOCIMIENTO ÓPTICO .............................. .............................................. ............................... ............................... ................................ ............................... ................... .... 4
1.3.1. 1.3.2. 1.3.3. 1.4.
2.
LECTOR DE MARCAS ÓPTICAS ÓPTICAS (OMR)......................... (OMR)........................................ ............................... ............................... .............................. ................................ ...................... ..... 2 SISTEMAS DE ESCANER BASADOS BASADOS EN RECONOCIMIENTO RECONOCIMIENTO DE CARACTERES CARACTERES ÓPTICOS (OCR) ............ 3 SISTEMAS DE ESCANER BASADOS EN RECONOCIMIENTO INTELIGENTE INTELIGENTE DE CARACTERES (ICR) ..... 4 TECNOLOGÍA TECNOLOGÍA DE IMAGEN .............................. .............................................. ................................ ............................... ............................... ................................ ................................ .................... 4 CAPTURA Y ENTRADA DE INFORMACIÓN.......................... INFORMACIÓN.......................................... ............................... .............................. .............................. ............................. .............. 4 PROCESO DE INFORMACIÓN............... INFORMACIÓN ............................... ............................... ............................... ................................ ............................... ............................... ............................. ............. 5 SALIDA DE INFORMACIÓN................ INFORMACIÓN................................ ............................... ............................... ................................ ............................... ................................. ................................. ............... 6
CONCLUSIONES.................................... CONCLUSIONES.................... ................................ ............................... ............................... ............................... ............................... ................................. ................................. ..................... ..... 6
RECONOCIMIENTO DE VOZ ............................... ............................................... ................................ ................................ ................................ .............................. .............................. .......................... .......... 6 2.1. 2.2.
INTRODUCCION....................................................... INTRODUCCION....................................... ................................ ............................... ............................... ................................ ................................ ................................ .................. .. 6 PRODUCCION Y PERCEPCIÓN DEL SONIDO ............................... ............................................... ................................ ................................ ................................ ........................ ........ 7
2.2.1. 2.2.2. 2.3. 2.4. 2.5.
ANALISIS DE LA SEÑAL DE LA VOZ .............................. .............................................. ................................ ................................ ................................ ................................ ....................... ....... 8 CODIFICACION DE LA VOZ ................................ ................................................ ................................ ............................... ............................... ................................ ................................ ..................... ..... 9 RECONOCIMIENTO AUTOMÁTICO DEL HABLA......................... HABLA......................................... ................................ ................................ ................................ ..................... ..... 10
2.5.1. 2.5.2. 2.5.3. 2.5.4. 2.5.5. 2.6.
CARACTERÍSCAS CARACTERÍSCAS DEL SONIDO............................. SONIDO............................................ ............................... ............................... ............................... ................................ ............................. ............. 7 FISIOLOGÍA DEL SISTEMA AUDITIVO.................................... AUDITIVO.................................................... ............................... .............................. ............................... .......................... .......... 7
PRINCIPIOS PRINCIPIOS BÁSICOS.............. BÁSICOS ............................. ............................... ............................... ............................... ................................ ............................... ................................ ........................... .......... 10 ARQUITECTURA ARQUITECTURA DE UN SISTEMA SISTEMA RAH.............................. RAH............................................. .............................. ............................... ............................... ............................. .............. 10 DIFICULTADES DIFICULTADES .............................. ............................................. ............................... ............................... ............................... ............................... ................................. ................................... ..................... 12 CLASIFICACION CLASIFICACION DE SISTEMAS DE RAH ............................... .............................................. .............................. ............................... ............................... .......................... ........... 13 APLICACIONES.................. APLICACIONES.................................. ............................... ............................... ................................ ............................... ............................... ................................. ................................. ................ 13
SÍNTESIS DEL HABLA: CONVERSIÓN TEXTO-VOZ .............................. ............................................... ................................. ................................ .......................... .......... 16
2.6.1. 2.6.2. 2.6.3. 2.6.4. 2.6.5. 2.6.6.
PRINCIPIOS PRINCIPIOS BÁSICOS.............. BÁSICOS ............................. ............................... ............................... ............................... ................................ ............................... ................................ ........................... .......... 17 DICCIONARIO DICCIONARIO DE UNIDADES UNIDADES ACUSTICAS ACUSTICAS .................. .................................. ............................... .............................. .............................. ............................... ................... ... 18 EL MÓDULO DE ANÁLISIS LINGÜÍSTICO ........................................... .......................................................... ............................... ................................ .......................... .......... 19 MODULO DE SINTESIS.................................... SINTESIS.................................................... ............................... ............................... ................................ ................................. ................................. ................ 21 GENERADOR GENERADOR DE PROSODIA PROSODIA .............................. .............................................. ............................... ............................... ............................... ................................ .............................. ............. 21 LOS PATRONES PATRONES MELODICOS MELODICOS .............................. .............................................. ................................ ............................... ............................... ................................. ............................ ........... 23
3.
CONCLUSIÓN.............. CONCLUSIÓN .............................. ................................ ................................ ................................ ................................ ................................ ................................ ................................ ................................ ................... ... 23
4.
BIBLIOGRAFÍA............... BIBLIOGRAFÍA ............................... ................................ ................................ ............................... ............................... ................................ ................................ ................................ ................................ ................ 24
5.
ESQUEMA – RESUMEN................ RESUMEN ............................... ............................... ................................ ............................... ............................... ............................... ................................ ................................. .................... 25
1. RECONOCIMIENTO ÓPTICO 1.1.
INTRODUCCION
La tecnología del reconocimiento óptico de caracteres (OCR, Optical Character Recognition) y la exploración de imágenes consiste en: □ □
□
Tomar información a partir de un dispositivo de entrada Convertir dicha información en señales electrónicas que puedan ser almacenadas y procesadas en un ordenador Obtener una salida en un momento determinado.
La información a ser tratada puede ser un documento escrito a mano, mecanografiado o impreso en soporte papel, o cualquier imagen, como por ejemplo una fotografía, un logotipo, una tipografía o arte lineal. Las fuentes de entrada son, entre otras, un escáner óptico para el reconocimiento óptico de caracteres (OCR), vídeo digitalizado o información residente en un fichero. Una vez convertida la información en una señal electrónica digital, es almacenada temporalmente en un soporte digital, generalmente un disco óptico, en el cual la lectura/escritura no está basada en las variaciones que el campo magnético produce en la corriente de unas bobinas, sino que se trata de un láser que recorre su superficie. El tratamiento de la información almacenada se realiza mediante la utilización del ordenador para el retoque y control de la imagen almacenada. Por último, la salida puede consistir en visualizar la imagen en pantalla, grabarla en un fichero u obtener una copia en papel mediante una impresora. La digitalización del texto tiene como finalidad poder interpretar y tratar electrónicamente ese texto a través de programas OCR o ICR (Intelligent Character Recognition). El OCR es citado con frecuencia como la alternativa más rápida, económica y segura para la entrada automática del contenido de los documentos impresos en papel a soportes electrónicos. Un escáner óptico combina equipo y programas especializados. Los equipos capturan una imagen y los programas convierten esa imagen en información que puede ser leída por el ordenador. Existen cuatro tipos de tecnologías de escaneado óptico:
1.2.
□
Lector de marcas ópticas ópticas (OMR - OPTICAL OPTICAL MARK MARK RECOGNITION RECOGNITION por sus siglas en inglés)
□
Reconocimiento de caracteres ópticos (OCR, OPTICAL CHARACTER CHARACTER RECOGNITION) RECOGNITION)
□
Reconocimiento inteligente de caracteres (ICR, INTELLIGENT CHARACTER CHARACTER RECOGNITION) RECOGNITION)
□
Tecnología de imagen
TIPOLOGIA
1.2.1. LECTOR DE MARCAS MARCA S ÓPTICAS (OMR) Un OMR comprende típicamente ciertas clases particulares de marcas que pueden ser leídas por un escáner en un conjunto determinado de posiciones de una página. Los programas de cómputo utilizados por el escáner OMR están programados para reconocer el significado de las distintas marcas y convertir las imágenes escaneadas en información legible por el ordenador de acuerdo a su ubicación.
La tecnología OMR ha sido ampliamente utilizada desde la década de los 70's para distintos propósitos, incluyendo pruebas escolares y universitarias, censos, encuestas y sorteos, así como para votar. También se utiliza en lectores de código de barras, que se utilizan comúnmente en comercios, bibliotecas y escuelas. Algunos ejemplos prácticos serían, por ejemplo el caso australiano en el que se utiliza la tecnología OMR para escanear las listas electorales marcadas en los sitios de votación indicando los nombres de los electores que han sufragado. Esto permite a las autoridades electorales australianas automatizar la aplicación de la ley para el voto obligatorio, así como identificar cualquier caso de votación múltiple. Las autoridades electorales también están haciendo uso del código de barras en su correspondencia. Toda vez que los códigos de barras pueden identificar tanto el nombre como la dirección del elector, pueden utilizarse cuando la correspondencia se devuelve. Esto es particularmente útil para automatizar la grabación de los nombres de los electores que han votado por correo. Los códigos de barras también pueden ser utilizados cuando la correspondencia se devuelve porque el destinatario "no es conocido en este domicilio" a fin de capturar esa información para efectos de actualización de los listados electorales. Los sistemas de código de barras OMR también se utilizan ampliamente en los servicios postales clásicos. Muchas autoridades postales colocan códigos de barras en la correspondencia para automatizar el proceso de entrega. Algunos países tienen sistemas postales que permiten que los usuarios impriman códigos de barra con sus direcciones en la correspondencia, para que las autoridades puedan procesarla sin tener que imprimir esos códigos en sus instalaciones. Estas prácticas suelen ser incentivadas mediante descuentos al usuario. La tecnología OMR es muy útil y eficiente para recabar información simple y predeterminada. Sin embargo no lo es para recabar información compleja o variable, como la que implica una gran cantidad de texto. Los sistemas OCR e ICR son más apropiados para estos propósitos. 1.2.2. SISTEMAS DE ESCANER BASADOS EN RECONOCIMIENTO DE CARACTERES ÓPTICOS (OCR) Los sistemas OCR son utilizados normalmente para convertir un texto impreso en información entendible por un ordenador. Estos sistemas toman imágenes escaneadas y utilizan programas especializados para reconocer las formas de los caracteres impresos o escritos a mano, como números o letras, y los almacenan como información en el ordenador. Los OCR han tenido una amplia utilización en ámbitos académicos y como aplicación curiosa se podría comentar el caso Australiano: a principios de la década de los 80, la Comisión Electoral de Australia produjo un gran número de manuales de procedimientos. Algunos años después, cuando era necesario revisarlos, los programas mejorados no podían utilizar los archivos originales que los contenían. En lugar de recapitular los manuales originales, se utilizaron programas OCR para convertir los manuales impresos en archivos apropiados para las nuevas ediciones de los programas. Otro uso importante del OCR es la captura de información impresa en formatos. En lugar de capturarla manualmente, el OCR puede ser utilizado para convertir automáticamente la información de esos formatos en información legible para el ordenador. El OCR opera sobre la idea de que los programas de escaneo reconozcan formas particulares como letras y números. Dada la variedad de tipos de letras, los sistemas OCR tienen que reconocer un número o letra particular con distintas formas. En el caso de los tipos impresos y teniendo en cuenta su regularidad, el proceso es relativamente directo. Sin embargo, reconocer letra manuscrita puede ser un problema mucho mayor. Los sistemas OCR iniciales tenían un índice relativamente alto de error cuando convertían el texto impreso en información legible para el ordenador, particularmente en el caso del texto manuscrito, con lo que se requería un alto nivel de supervisión humana para revisar y corregir la información que había sido convertida. A medida que los equipos y programas de escaneo óptico mejoran a finales de la década de 1990, disminuyeron los índices de error. Sin embargo, la siguiente generación de sistemas de escaneo, los sistemas ICR, han ido más lejos mejorando sus niveles de precisión.
1.2.3. SISTEMAS DE ESCANER BASADOS EN RECONOCIMIENTO INTELIGENTE DE CARACTERES (ICR) Los sistemas ICR llevan a los OCR un paso adelante utilizando programas para aplicar pruebas de inteligencia lógica a los caracteres escaneados y convertirlos de manera más fiable en información legible para el ordenador. Los sistemas de ICR aplican reglas de ortografía, gramática y contexto para escanear los textos a fin de efectuar evaluaciones "inteligentes" sobre la interpretación correcta de la información. Esto permite una conversión mucho más precisa de los textos escaneados de la que realizan los sistemas OCR más simples, especialmente con el texto manuscrito. Los programas ICR requieren ordenadores rápidos y poderosos para funcionar de manera eficiente: Los sistemas ICR de alta fiabilidad sólo estuvieron disponibles a mitad de la década de los 90 con el desarrollo de productos informáticos económicos y potentes. 1.2.4. TECNOLOGÍA DE IMAGEN Además de capturar imágenes para convertirlas en información, los escáneres también pueden capturar imágenes para almacenarlas en el ordenador. Fotografías, dibujos e imágenes de texto pueden ser almacenadas y reutilizadas en formatos entendibles por el ordenador. Los formatos de papel pueden ser convertidos en imágenes y almacenados en formato electrónico. Luego se pueden bajar copias de las imágenes en una red de ordenadores sin necesidad de acceder a las copias originales en papel. La Comisión Electoral de Australia está actualmente involucrada en convertir en imágenes los millones de formatos de registros de electores y colocarlos en una red accesible desde cualquiera de sus oficinas en el país. Este sistema será utilizado para verificar las firmas o cualquier otro dato accediendo a los formatos de imagen. Los logotipos corporativos pueden ser almacenados electrónicamente como imágenes e impresos en diversas publicaciones. Una organización que alguna vez utilizó promocionales preimpresos y costosos que contenían su logotipo, hoy puede imprimirlos desde su ordenador utilizando una impresora a color y digitalizando la imagen. 1.3.
FASES DE RECONOCIMIENTO ÓPTICO
1.3.1. CAPTURA Y ENTRADA DE INFORMACIÓN La entrada de documentos al sistema de reconocimiento óptico de caracteres consiste en la captura, comprensión, monitorización, indexación y almacenamiento de la información. Normalmente, el soporte de estos documentos es el papel, por lo que pueden ser capturados utilizando un escáner óptico, aunque la entrada se puede realizar también a través de facsímil o correo electrónico. La base de un escáner la conforma un sistema óptico que explora la página examinando la luminosidad de cada zona o punto de la información en ella contenida. La exploración se realiza mediante células fotoeléctricas o fotodiodos y el resultado es una información digitalizada que se puede transmitir directamente al ordenador, capaz de procesarla mediante sistemas gráficos y software especial. La información recogida por la célula fotoeléctrica del escáner es de tipo analógica. La información analógica referida al nivel de gris de un punto de la imagen se convierte en información digital: un dígito binario. Este dígito representa para el ordenador el nivel de gris de un punto concreto. Por ejemplo, se puede asignar el valor 0 para el blanco, el 255 al negro, y los distintos valores intermedios para los diferentes niveles de gris. La página se divide en una retícula de puntos a los que, explorados de forma independiente, se les asigna un valor. El tamaño de cada punto determina la resolución del escáner y se mide en puntos por pulgada. Un escáner es capaz de tener una resolución de entre 200 y 600 puntos por pulgada y en algunos casos más, lo que supone unos 700 puntos distintos por milímetro cuadrado. Si se utilizan técnicas de extrapolación, se puede duplicar la resolución óptica real.
En el caso de los escáneres de color, el sistema de detección consiste en separar los componentes de color en sus valores básicos: rojo, amarillo y azul. Combinando las diferentes tonalidades de cada color se obtiene una gama de todos los colores posibles. El problema de estos escáneres es la gran cantidad de espacio de almacenamiento que requieren. Por ejemplo, explorando a 300 puntos por pulgada, un documento de 10 x 13 cm. contiene 1,8 millones de píxels, a cada uno de los cuales le hacen falta 3 bytes de información (1 byte por cada color básico: rojo, azul, verde); el almacenamiento requerido en este caso sería de 5 MB. El software del ordenador tiene que emplear técnicas de compresión para reducir esta gran cantidad de información, mediante la utilización de algoritmos que permiten eliminar una gran parte de información redundante que no es necesaria. Cuando sea preciso recuperar esta información, hay que descomprimirla antes de visualizada en una pantalla o imprimirla por una impresora. Una vez capturada la información, es guardada temporalmente, normalmente en un dispositivo magnético, para que pueda ser monitorizada por un operador que la visualiza en una estación de trabajo y compruebe la calidad de la misma; si es aceptada, se indexa y se transfiere al dispositivo de almacenamiento permanente. La información indexada se refiere al contenido de la imagen, usando números o palabras clave, así como el formato de la información, por ejemplo, tamaño original y resolución. Los índices se almacenan en una Base de Datos que, generalmente, está en un soporte magnético para aumentar la velocidad de acceso, mientras que la imagen como tal se almacena en una Base de Datos de imágenes que generalmente es un medio óptico individual (disco óptico) en armarios de discos ópticos (JUKEBOX), que pueden ser regrabables o no regrabables. 1.3.2. PROCESO DE INFORMACIÓN El hardware OCR convierte el modelo de señal analógica de cada pixel y lo digitaliza en una matriz de datos binarios. Esta tabla de datos, almacenada en memoria RAM, es testeada mediante una tabla patrón de caracteres, almacenados generalmente en una memoria PROM (Programmable Read-Only Memory). El escáner OCR compara los datos de ambas tablas y convierte los caracteres emparejados a formato ASCII. Existen dos métodos básicos de reconocimiento de caracteres en OCR: comparación matricial, que es el más común, y extracción de características, también llamado reconocimiento de patrones, más complejo y sofisticado que el anterior. La comparación matricial se utiliza para reconocer caracteres mono-espaciados, comparando los datos escaneados contra una plantilla de caracteres estándar. Los caracteres explorados pueden entrar en un bucle de búsqueda varias veces hasta que el emparejamiento se realiza con éxito. Algunos sistemas, para facilitar la búsqueda utilizan filtros digitales que aclaran previamente la información a almacenar, para optimizar el casamiento. Cuando falla la búsqueda, el operador es alertado y se le pide su intervención para que introduzca el carácter correcto o, si este no existe, se envía un mensaje con la incidencia detectada. El reconocimiento de patrones va más allá de la comparación matricial, escaneando la forma de los caracteres y comparándolos con tablas de formas, examinando la organización de los bits y componiendo la letra o carácter. Esta técnica de exploración permite al escáner explorar una barra vertical seguida de un círculo y, basándose en esta información de formas, permitir que un algoritmo de reconocimiento de patrones, determine que el carácter escrito es la letra 'b', por ejemplo. Este método ofrece mucha más flexibilidad que el de comparación matricial porque las tablas de formas pueden ser adaptadas para permitir la lectura de cualquier variedad de estilos de letra o tipos de caracteres. Los algoritmos utilizados para reconocer todos estos tipos de caracteres requieren un considerable consumo de recursos y una resolución especial por parte del escáner. Consecuentemente este método, basado en lo que podríamos llamar de análisis topográfico de caracteres, aunque es de mayor precisión que el otro, necesita mas tiempo para realizar la búsqueda. Algunos ejemplos de algoritmos son: □
Método de las máscaras y distancias
□
Análisis morfológico
□
Separación de umbrales
□
Redes neuronales
Para recuperar la información, como en todo proceso interactivo, un operador situado en una estación de trabajo selecciona la información que desea obtener de la Base de Datos de imágenes, a partir de la palabra clave correspondiente que apunta al documento en la Base de Datos que quiere ser recuperado, documento que una vez descomprimido es visualizado en pantalla. Las necesidades en cuanto a proceso convencional son modestas, pero las operaciones de compresión y descompresión de la información almacenada son importantes. Los sistemas que archivan información y raramente acceden a ella dan prioridad a la velocidad de compresión; por el contrario, los que archivan la información una vez y la editan a menudo suelen tener un mecanismo de descompresión optimizado. Normalmente, el software de tratamiento de la información utiliza aceleradores para las operaciones de compresión y descompresión. 1.3.3. SALIDA DE INFORMACIÓN La salida de una función de tratamiento de información puede consistir en visualizar la imagen en pantalla, grabar la información en un fichero o generar una copia en papel mediante una impresora. Los documentos también pueden enviarse directamente, a través de correo electrónico interno, o transferirse a otro dispositivo de salida. 1.4. CONCLUSIONES En la actualidad el papel no ha logrado ser reemplazado por la documentación electrónica. No parece tampoco que el objetivo deba ser tanto la eliminación a toda costa del papel físico existente en una organización como el establecimiento de una tecnología de "punto único de acceso" que suministre un entorno coherente y unificado de trabajo al usuario y que permita ayudar a la gestión de la información. La respuesta que las organizaciones demandan requiere que estos elementos se combinen en adecuada proporción, para ser capaces de proponer soluciones con proyección de futuro que se integren en la estrategia empresarial. Las capacidades de los OCR/OMR han aumentado de manera que muchos tipos de documentos que necesitaban ser procesados manualmente pueden hoy ser manejados automáticamente. La combinación de tecnologías de reconocimiento permite que datos escritos a mano o formularios de marcas puedan ser tratados velozmente.
2. RECONOCIMIENTO DE VOZ 2.1.
INTRODUCCION
La importancia que siempre ha tenido la voz en el proceso de comunicación humana se ve, en nuestros días, incrementada por el rápido avance tecnológico. La enorme cantidad de posibilidades que la tecnología digital, basada en el desarrollo de microprocesadores cada vez más potentes ofrece, hace que las aplicaciones del procesado digital de la señal se multipliquen. Entre estas aplicaciones, las que afectan a la señal de voz han permitido disponer de un conjunto de servicios hasta hace algunos años impensables. Redes de integración de voz y datos, diálogo hombre-máquina, síntesis a partir de texto, reconocimiento automático de habla, reconocimiento de locutores son ejemplos de los logros alcanzados por el procesado digital de la señal de voz. Es, por tanto, ésta una de las áreas de trabajo, comprendida dentro de la Ingeniería de Telecomunicación pero con gran conexión a diversas disciplinas, que concentra un importante número de recursos humanos y materiales.
Asistimos en nuestros días a una progresiva proliferación de aplicaciones basadas en el proceso automático del lenguaje hablado. Así, son cada vez más comunes: las interfaces hombre-máquina controladas por voz, los sistemas de respuesta vocal interactiva, y la automatización de sistemas telefónicos. El elevado número de aplicaciones posibles para los próximos años queda condicionado, además de por los propios "factores humanos" que intervienen en el proceso de aceptación de una nueva tecnología, por los propios de la tecnología subyacente. 2.2.
PRODUCCION Y PERCEPCIÓN DEL SONIDO
El sonido es, prácticamente, sinónimo de vibración. Las ondas sonoras se crean mediante la vibración de cuerpos y se propagan mediante vibraciones de las partículas del medio. Las leyes de la física son la base para describir la generación y propagación del sonido. Los sistemas de reconocimiento de voz se enfocan en las palabras y los sonidos que distinguen una palabra de la otra en un idioma. Estas son los fonemas. Por ejemplo, "tapa", "capa", "mapa", "napa", son palabras diferentes puesto que su sonido inicial se reconocen como fonemas diferentes en Español. Existen varias maneras para analizar y describir el habla. Los enfoques más comúnmente usados son: □
Arti culació n: Análisis de cómo el humano produce los sonidos del habla.
□
Acústica: Análisis de la señal de voz como una secuencia de sonidos.
□
Percepción Auditi va: Análisis de cómo el humano procesa el habla.
Los tres enfoques proveen ideas y herramientas para obtener mejores y más eficientes resultados en el reconocimiento. 2.2.1. CARACTERÍSCAS DEL SONIDO □
Velocidad: La Velocidad del sonido depende de la masa y la elasticidad del medio de Propagación.
□
Longitud de onda: Consiste en la distancia que separa a dos moléculas que vibren en fase.
□
□
□
Presión Acústica: variación alternante de la presión, en un punto dado, con respecto a la presión atmosférica. Nivel de Presión sonora (SPL – Sound Pressure Level): Es una medida que relaciona el valor RMS (Root Mean Square – Raíz Cuadrática Media) de la presión acústica con el mínimo audible promedio. Intensidad Sonora: Es el valor medio de la energía que cruza una unidad de área perpendicular a la dirección de propagación.
□
Nivel de Intensidad Sonora (IL): Es una medida relativa a una referencia.
□
Nivel de Potencia Acústica (PWL): Consiste en una medida relativa a un valor de referencia de potencia.
2.2.2. FISIOLOGÍA DEL SISTEMA AUDITIVO La fisiología auditiva examina la estructura y funcionamiento del oído, con el fin de lograr una mejor comprensión de los fenómenos y modelos psicoacústicos. Se estudia la anatomía y la fisiología del aparato auditivo, haciendo énfasis en aquellas partes y estructuras del mismo más importantes para el desarrollo de modelos perceptuales. La generación de sensaciones auditivas en el ser humano es un proceso extraordinariamente complejo, el cual se desarrolla en tres etapas básicas: □
Captación y procesamiento mecánico de las ondas sonoras.
□
□
Conversión de la señal acústica (mecánica) en impulsos nerviosos, y transmisión de dichos impulsos hasta los centros sensoriales del cerebro. Procesamiento neural de la información codificada en forma de impulsos nerviosos.
La captación, procesamiento y transducción de los estímulos sonoros se llevan a cabo en el oído propiamente dicho, mientras que la etapa de procesamiento neural, en la cual se producen las diversas sensaciones auditivas, se encuentra ubicada en el cerebro. Así pues, se pueden distinguir dos regiones o partes del sistema auditivo: la región periférica, en la cual los estímulos sonoros conservan su carácter original de ondas mecánicas hasta el momento de su conversión en señales electroquímicas, y la región central, en la cual se transforman dichas señales en sensaciones. En la región central también intervienen procesos cognitivos, mediante los cuales se asigna un contexto y un significado a los sonidos; es decir, permiten reconocer una palabra o determinar que un sonido dado corresponde a un violín o a un piano. Los sonidos, formados por oscilaciones de las moléculas del aire, son conducidos a través del conducto auditivo hasta el tímpano. Los cambios de presión en la pared externa de la membrana timpánica, asociados a la señal sonora, hacen que dicha membrana vibre siguiendo las oscilaciones de dicha señal. Las vibraciones del tímpano se transmiten a lo largo de la cadena de huesecillos, la cual opera como un sistema de palancas, de forma tal que la base del estribo vibra en la ventana oval. Este huesecillo se encuentra en contacto con uno de los fluidos contenidos en el oído interno; por lo tanto, el tímpano y la cadena de huesecillos actúan como un mecanismo para transformar las vibraciones del aire en vibraciones del fluido.
Fig. 4. Propagación del sonido a través del oído medio e interno. El oído interno representa el final de la cadena de procesamiento mecánico del sonido, y en él se llevan a cabo tres funciones primordiales: filtraje de la señal sonora, transducción y generación probabilística de impulsos nerviosos. 2.3.
ANALISIS DE LA SEÑAL DE LA VOZ
El análisis localizado del habla se puede hacer en el dominio del tiempo o en el de la frecuencia. □
En el tiempo. El análisis es sencillo, rápido y tiene interpretación física directa. En el caso de señales de voz, el análisis en el dominio del tiempo da poca información acerca de la señal. Calculamos los siguientes parámetros:
Energía local
Tasa de cruces por cero
Función de autocorrelación.
□
El análisis frecuencial es el más utilizado en la actualidad. Se calculan los parámetros a partir del espectro de frecuencia de la señal. Los parámetros espectrales calculados habitualmente son los:
2.4.
LPC (coeficientes de predicción lineal). Los cepstrales, que son los más utilizados en reconocimiento de habla. Pueden ser Mel (o MFC) o LPC-Cepstrum. La energía en bandas: se divide el espectro de frecuencia en una serie de bandas y se calcula la energía contenida en cada una de ellas mediante un banco de filtros aplicado sobre el espectro (es el primer paso para obtener los parámetros cepstrales). Se utilizan con buenos resultados en sistemas basados en redes neuronales.
CODIFICACION DE LA VOZ
El proceso de codificación de voz permite transmitir y almacenar la señal de voz en forma digital eficientemente y sin pérdida de calidad. Desde el punto de vista de la transmisión de la señal de voz, la codificación de voz permite optimizar la utilización del canal de comunicación, transmitiendo el máximo de información, p.e. transmitir varias comunicaciones por un solo canal, con la mínima pérdida de calidad optimizando la relación entre velocidad de transmisión (bits/segundo) e inteligibilidad del mensaje. Desde el punto de vista de almacenar señal de voz en formato digital, la codificación de voz minimiza el número de bits necesarios para el almacenamiento con un nivel de calidad adecuado. Como valor añadido, la codificación digital de voz permite incorporar algoritmos de cifrado para establecer comunicaciones privadas seguras o realizar grabaciones indescifrables para terceras personas. El objetivo fundamental de la codificación de voz es la conversión de la señal de voz a una secuencia binaria o representación digital. Dado el carácter analógico (señal continua en tiempo y amplitud) de la señal de voz, la codificación de voz conlleva un proceso básico de muestreo y cuantificación para conseguir una representación digital (conversión analógico/digital - A/D-). Mediante el muestreo discretizamos la señal en tiempo y mediante la cuantificación discretizamos la señal en amplitud. Para que en este proceso de digitalización no exista pérdida de información, debemos muestrear la señal a una velocidad (fm – frecuencia de muestreo) que como mínimo sea el doble de la frecuencia más alta presente en la señal que estamos discretizando. En el proceso de discretización en amplitud debemos utilizar un número de bits por muestra (N) que resulte adecuado para la calidad deseada. Así, por ejemplo, una señal de voz con calidad telefónica tiene una frecuencia máxima de 4 kHz lo que supone una frecuencia de muestreo mínima de 8 kHz y se suele utilizar una representación con 8 bits por muestra (256 niveles de cuantificación) con una distribución logarítmica de los niveles de cuantificación a lo largo del margen dinámico de la señal, lo que supone una velocidad de transmisión o necesidades de almacenamiento, en caso de grabación, de 64 kb/s. En contra posición, si hablamos de una señal de audio de calidad HIFI, la frecuencia máxima a representar es de 20 kHz lo que supone una frecuencia mínima de muestreo de 40 kHz (p.e. el Compact Disc utiliza 44.1 kHz) y un número de bits por muestra de 16 lo que significa una velocidad de transmisión como mínimo del orden de 640 kb/s (que se duplicaría en caso de señal estéreo). El proceso de codificación, propiamente dicho, toma como señal de entrada la obtenida de la conversión A/D a una velocidad de fmxN bits/segundo y utilizando ciertas propiedades de la señal de voz obtiene una nueva codificación con una velocidad de R bits/segundo inferior a la inicial. Los codificadores de voz trabajan explotando las propiedades tanto temporales como frecuenciales de la señal de voz y del sistema auditivo humano puesto que en último término va a ser éste sistema auditivo quien va a juzgar la calidad de la señal. Así, la correlación de la señal es utilizada para reducir el margen dinámico de la señal y de este modo poderla cuantificar con un número menor de bits, como por ejemplo en la codificador ADPCM (Adaptive differential pulse code modulation) que permite reducir a 32 kb/s la velocidad de transmisión sin degradar la calidad de la señal. Una parte importante de los esquemas de codificación de voz hacen uso extensivo del modelo digital de producción del habla, en el cual se linealiza el proceso de producción y se supone que la señal de voz es generada mediante la excitación de forma adecuada de un filtro que modela la envolvente del espectro de una señal de voz en segmentos cortos de entre 20 y 30 ms. Este modelo es la base de algunos sistemas de síntesis de señal de voz y del codificador conocido como vocoder LPC. Conjugando este modelo con el conocido efecto
de enmascaramiento producido en el sistema auditivo humano por una señal de alta energía sobre otra de más baja, se puede modificar el espectro del ruido producido en la cuantificación y hacerlo perceptualmente inaudible con el consiguiente incremento en las prestaciones de los codificadores con velocidades de transmisión bajas. El modelo digital de producción de la señal de voz ha dado lugar, según el tipo de excitación utilizado, a los codificadores CELP (Code Excited Linear Prediction), MPLPC (Multipulse Linear Predictive Coder) y RELP (Residual Excited Linear Prediction). Desde el punto de vista de señales de audio HIFI (ancho de banda de 20 kHz), los requisitos de calidad para la señal codificada son mayores que para la codificación de voz a 4 kHz. Por ello, los esquemas de codificación son mucho más complejos y obedecen todos ellos a sistemas basados en el análisis frecuencial de la señal de audio, puesto que en este caso no es válido el modelo de producción del habla al ser una señal mucho más compleja. Para reducir la velocidad de transmisión se utilizan la propiedad de enmascaramiento de sonidos del sistema auditivo humano. La señal de audio analizada en 32 bandas frecuenciales, se cuantifica con una asignación de bits que depende del grado de enmascaramiento de cada banda. Bajo esta idea básica se consiguen reducciones de 1.41 Mb/s necesarios para calidad Compact Disc estéreo a 128 kb/s sin pérdida significativa en la calidad. Un ejemplo ampliamente utilizado es el esquema de codificación tipo MPEG y su variante Layer 3 o MP3. 2.5.
RECONOCIMIENTO AUTOMÁTICO DEL HABLA
El proceso de reconocimiento automático del habla (RAH) dota a las máquinas de la capacidad de recibir mensajes orales. Tomando con entrada la señal acústica recogida por un micrófono, el proceso de reconocimiento automático del habla tiene como objetivo final descodificar el mensaje contenido en la onda acústica para realizar las acciones pertinentes. Para lograr este fin, un sistema de RAH necesitaría conjugar una gran cantidad de conocimientos acerca del sistema auditivo humano, sobre la estructura del lenguaje, la representación del significado de los mensajes y sobre todo el autoaprendizaje de la experiencia diaria. Actualmente estamos lejos de lograr un sistema completo que pueda comprender cualquier mensaje oral en cualquier contexto tal y como lo podría hacer un ser humano. Sin embargo, la tecnología actual si que permite realizar sistemas de RAH que pueden trabajar, con un error aceptable, en entornos semánticos restringidos. 2.5.1. PRINCIPIOS BÁSICOS Básicamente, el reconocimiento del habla es un proceso de clasificación de patrones, cuyo objetivo es clasificar la señal de entrada (onda acústica) en una secuencia de patrones previamente aprendidos y almacenados en unos diccionarios de modelos acústicos y de lenguaje. Este proceso de clasificación supone, en primer lugar que la señal de voz puede ser analizada en segmentos de corta duración y representar cada uno de los segmentos mediante su contenido frecuencial, de forma análoga al funcionamiento del oído, en segundo lugar que mediante un proceso de clasificación podemos asignar a cada segmento o conjuntos consecutivos de segmentos una unidad con significado lingüístico y finalmente , en tercer lugar, que mediante un procesador lingüístico podemos dar significado a las secuencias de unidades. Este último paso del sistema supone incorporar al sistema de RAH conocimiento acerca de la estructura sintáctica, semántica y pragmática del lenguaje. Sin embargo, los sistemas actuales de RAH solo incorporan estas fuentes de conocimiento sobre tareas muy restringidas y controladas, estando la mayoría de ellos en experimentación en condiciones de laboratorio. 2.5.2. ARQUITECTURA DE UN SISTEMA RAH Matemáticamente, el problema del reconocimiento automático del habla se puede formular desde un punto de vista estadístico. Para ello supongamos que O representa una secuencia de T medidas de la señal de voz (datos acústicos) y W es una secuencia de N palabras que pertenecen a un vocabulario conocido. La probabilidad condicional P(W|O) es la probabilidad de que la secuencia de palabras W se haya pronunciado dada la observación de los datos acústicos O. El sistema de reconocimiento debe decidir en favor de la secuencia de palabras W que maximice la probabilidad P(W|O) W=argmax P(W|O) W
Utilizando la fórmula de Bayes podemos reescribir la probabilidad condicionada:
donde: P(W)
es la probabilidad de la secuencia de palabras W
P(O|W) es la probabilidad de observar la secuencia de datos acústicos O cuando se pronuncia la secuencia de palabras W P(O) es la probabilidad de la secuencia de datos acústicos O Sin embargo, como la probabilidad de la secuencia de datos acústicos P(O) es la misma independientemente de la secuencia de palabras pronunciada, en el proceso de maximización, esta probabilidad puede ser eliminada (la secuencia de palabras que da el máximo no varía). De esta forma obtenemos la fórmula fundamental del reconocimiento automático del habla W=argmax P(W|O)P(W) W Es decir, la secuencia de palabras reconocida es aquella que maximiza el producto de dos probabilidades, una P(O|W) que relaciona los datos acústicos con la secuencia de palabras y que denominaremos modelo acústico y P(W) que únicamente depende de la secuencia de palabras y que denominaremos modelo de lenguaje. En la figura 5 se muestran los bloques básicos de un sistema de reconocimiento automático del habla basado en la anterior fórmula. En la figura se distinguen dos procesos diferenciados: Entrenamiento Reconocimiento
Fase en la que el sistema aprende, a partir de muestras de voz y texto, los modelos acústicos P(O|W) y los modelos de lenguaje P(W). Fase propiamente dicha de reconocimiento automático del habla en la que la señal acústica es transcrita en una secuencia de palabras de acuerdo con la fórmula fundamental del RAH.
Figura 5. Bloques básicos de un sistema de reconocimiento automático del habla 2.5.3. DIFICULTADES Existen muchos factores que influyen en la dificultad del proceso de RAH y por tanto en su rendimiento, pero entre todos ellos destaca la variabilidad. La variabilidad de la señal de voz depende tanto de factores intrínsecos al fenómeno de producción de voz como a factores externos al mismo. Dentro de los factores intrínsecos destacan los siguientes: □
□
Variabilidad de los sonidos, debido fundamentalmente a los distintos acentos o formas de hablar de cada persona. Variabilidad en la producción de los sonidos, debido fundamentalmente a las distintas velocidades de producción, coarticulación, inclusión de ruidos (apertura y cierre de labios, respiración, sonidos de duda, p.e., eh, uuh), condiciones acústicas (hablar en ambientes ruidosos), contexto de la conversación, estado anímico, etc.
Entre los factores externos destacan: □
□
Variabilidad en la cadena de conversión y transmisión de la señal eléctrica, debido a las diferencias entre las características de los micrófonos, líneas telefónicas, etc. Variabilidad en el ruido captado con la señal de voz, debido a la existencia en las proximidades del micrófono de otras fuentes sonoras (TV, radio, carretera, impresoras, otras conversaciones, etc.)
A estos factores de variabilidad acústica habrá que añadir otros factores de variabilidad lingüística relacionados con las distintas formas dialécticas de hablar un idioma, la utilización de palabras no contempladas en el vocabulario de la aplicación, la construcción de frases no permitidas por la gramática del lenguaje, la utilización de
abreviaturas, los escenarios semánticos de las palabras, etc. Todo ello hace que el reconocimiento automático del habla por parte de una máquina no sea un problema tan trivial como a primera vista pueda parecer. 2.5.4. CLASIFICACION DE SISTEMAS DE RAH En base a como un sistema de RAH resuelve los problemas de variabilidad, podemos realizar una primera clasificación de los mismos. R. Moore propuso para la descripción y clasificación de un sistema de RAH la utilización de los siguientes descriptores: Dimensiones de un sistema de reconocimiento automático del habla
1. Usuarios/locutores
2. Estilo de habla
3. Vocabulario
4. Estructura de diálogo
5. Condiciones de trabajo
Define las características de un sistema RAH frente a la variabilidad de los sonidos pronunciados por diversas personas. Se define una graduación en términos de dificultad entre: a. dependiente del locutor / adaptado al locutor / multilocutor / independiente del locutor b. usuarios cooperativos / usuarios no cooperativos c. nivel de experteza requerida al usuario Define las características de un sistema RAH frente a los diversos estilos de habla, clasificados de forma gradual entre: a. palabras aisladas ............. habla continua b. habla leída ...................... habla espontanea c. nivel de rechazo de habla extraña Define las características de un sistema RAH frente al vocabulario que puede reconocer, clasificados de forma gradual entre: a. discriminable ..................................... confundible b. entrenable por el usuario .................... independiente c. pequeño (< 100 palabras) ................... grande (>1000 palabras) d. dependiente de la aplicación .............. independiente Define las características de un sistema RAH frente a la capacidad de procesamiento de lenguaje, clasificados de forma gradual entre: a. perplejidad (baja /alta) b. comandos simples .................. lenguaje natural Define las características de un sistema RAH frente a la variabilidad en las condiciones de entorno, clasificados de forma gradual entre: condiciones de laboratorio ............. condiciones de campo
Este conjunto de descriptores permite realizar una comparación entre las prestaciones de distintos sistemas de RAH dejando patente como resuelve cada sistema los diversos problemas inherentes al reconocimiento de voz. Las fuentes de variabilidad deben de tenerse muy en cuenta a la hora de plantear una aplicación de un sistema de RAH puesto que la robustez del sistema a las mismas fijará el rendimiento del mismo. En condiciones de laboratorio, muchos factores de variabilidad están controlados y no afectan a las prestaciones del sistema y por tanto las tasas de error son reducidas. Sin embargo, cuando estos mismos sistemas son llevados a una aplicación en condiciones reales, los resultados pueden ser desalentadores, sobre todo cuando las pruebas de laboratorio estaban muy controladas. Por ejemplo, en aplicaciones de reconocimiento de dígitos conectados se puede pasar de tener un 0,3 % de error por dígito en condiciones de laboratorio a más de un 2 % de error por dígito en una aplicación en condiciones reales. 2.5.5. APLICACIONES A la hora de desarrollar aplicaciones con sistemas de RAH hay que tener en mente que con la tecnología actual los sistemas no están exentos de errores, por lo que las primeras aplicaciones en las cuales este tipo de interface comienza a tener éxito son aquellas que se caracterizan por ser simples, en cuanto es sencillo el uso del mismo, supone una evolución de la tecnología ya existente en el sentido de que únicamente realizamos un cambio de interface y sobre todo, la aplicación debe ser tolerante a errores. A estas consideraciones sobre la aplicación en
sí, hay que añadir una serie de requerimientos tecnológicos del sistema de RAH. Para trabajar en aplicaciones reales, el sistema de RAH tiene que tener la capacidad de reconocer palabras o comandos de la aplicación en un contexto de habla fluida, mantener un nivel de prestaciones adecuado frente a cambios de usuario, canal de comunicación, ruidos, etc., permitir el rechazo de palabras que no formen el vocabulario de reconocimiento y trabajar en tiempo real entre otros requerimientos. Como muy bien reseñan D. B. Roe y F.G. Wilpon, a la hora de considerar una aplicación utilizando un sistema de RAH se deben realizar 3 preguntas: □ □
□
¿Cuál es el grado de exactitud del sistema que espera el usuario? ¿Es adecuado el grado de exactitud del sistema de RAH a utilizar con relación a las expectativas del usuario? ¿Es realmente beneficioso, coste y satisfacción del usuario, el uso de un sistema de RAH comparado con otras tecnologías alternativas?
El campo de aplicaciones de los sistemas de RAH es muy amplio, pero básicamente, con la tecnología actual existen tres áreas en las cuales el volumen de utilización de sistemas de RAH está creciendo de forma exponencial. Estas áreas son: □
servicios de telecomunicación,
□
sistemas de control y
□
sistemas de entrada de datos y acceso a bases de datos.
Existen varias razones por las cuales estás áreas comienzan a utilizar de forma extensiva sistemas de RAH. Normalmente se utilizan para tareas bien definidas y con un vocabulario y sintaxis bastante restringida lo que permite que: □
la unidad elemental de reconocimiento suele ser la palabra
□
solamente un grupo reducido de palabras tienen que ser reconocidas en un instante de tiempo
□
normalmente es aceptable el estilo de habla mediante palabras aisladas
□
el compilador de gramáticas de la aplicación se puede definir de forma sencilla a partir de grupos de subvocabularios.
Bajo estos supuestos, actualmente pueden encontrarse multitud de sistemas de reconocimiento integrados que trabajan con tasas de reconocimiento superiores al 98 % con palabras aisladas. Sin embargo, en gran número de servicios o productos que potencialmente pueden utilizar tecnologías del habla, el sistema de RAH no es más que el interfaz de entrada a un sistema de diálogo en donde entran en juego otras tecnologías del habla como la síntesis de voz, tal y como se muestra en el diagrama de bloques de un sistema de diálogo en la figura 5. El propósito final de un sistema de este tipo es el control de un sistema mediante órdenes orales provenientes, p.e., de un micrófono, o de línea telefónica o de un sistema de transmisión sin hilos. Las ordenes son procesadas por un sistema experto que interacciona con el sistema bajo control para que realice las acciones pertinentes y genera una contestación al usuario mediante un sistema de conversión texto-voz. Las aplicaciones más representativas de los sistemas de RAH que actualmente se pueden encontrar en fase de experimentación o de explotación comercial son: □
Sistemas de control oral para ayuda a disminuidos físicos
□
Sistemas de entrada de datos y comandos para ordenadores, navegadores Web por voz
□
Sistemas de acceso a bases de datos
□
Sistemas de venta por catálogo
□
Aplicaciones aerospaciales
□
Servicios interactivos de telefonía sin operadora
□
Control oral de teléfonos
□
Validación de ventas con tarjeta de crédito
□
La máquina de escribir oral, Dictado
Domótica
□ □
Autoaprendizaje de idiomas
Una de las aplicaciones más inmediatas de los sistemas de RAH como interfaz entre hombre y máquina es la ayuda a discapacitados físicos. Mediante comandos orales se pueden controlar muchas de las funciones y actividades cotidianas. Ejemplos en fase de experimentación son la silla de ruedas controlada oralmente, camas hospitalarias, control oral de teléfonos (p.e. listín telefónico controlado oralmente) y la activación oral de aparatos y sistemas domésticos. En el caso del teléfono controlado oralmente, el usuario puede almacenar y acceder a una lista de números telefónicos utilizando comandos orales. En este tipo de aplicaciones, el sistema de reconocimiento de voz es dependiente del locutor y trabaja normalmente bajo la configuración de reconocimiento de palabras aisladas con capacidad de localización de los comandos en entornos de habla extraña. El sistema tiene la capacidad de ser entrenado por el usuario para de esta forma hacer el acceso a los números telefónicos mediante el nombre de la persona que queremos llamar. La activación oral de aparatos y sistemas domésticos, incluida dentro del campo de la domótica, tiene como objetivo el controlar a estos mediante comandos orales a través de un sistema de diálogo. Son susceptibles de control oral, aparatos como el televisor (encender/apagar, cambiar de canal, volumen), el equipo de HIFI, abrir y cerrar puertas, abrir y cerrar persianas, control de una cámara de seguridad, activar el teléfono, la calefacción, el horno y encimera, encender y apagar luces, etc. En 1984, la empresa británica Voice Input Systems construyó, demostró y comenzó a comercializar el sistema VADAS para ayudar a dicapacitados físicos a controlar oralmente dispositivos domésticos. Una capacidad interesante de estos sistemas de control oral de dispositivos domésticos es la posibilidad de controlarlos de forma remota a través de la línea telefónica. Los sistemas de reconocimiento utilizados en este tipo de aplicaciones suelen ser de palabras aisladas con la capacidad de rechazar habla o sonidos extraños y dependientes del locutor, de modo que se entrena el sistema con la voz del usuario. Otra área de aplicación de los sistemas de RAH es la aviación tanto civil como militar. En aplicaciones militares se ha experimentado en la introducción de interfaces orales para interactuar con los sistemas básicos de un avión de guerra. Los sistemas de reconocimiento suelen ser de palabras aisladas y tienen que ser capaces de dar unas prestaciones muy buenas trabajando con relaciones señal a ruido muy pequeñas. En experimentos realizados sobre un Mirage 3R, se han logrado tasas de reconocimiento sobre 95 % con un vocabulario de 30 palabras. En la aviación civil se pueden encontrar aplicaciones en proceso de experimentación para el control aéreo utilizando sistemas de reconocimiento de habla continua. Una de las áreas con más aplicaciones potenciales son las telecomunicaciones y servicios añadidos. En ciertos servicios añadidos a la red telefónica, el uso de interfaces orales permite una reducción efectiva del coste del servicio. Ejemplos de estas aplicaciones son la automatización de los servicios de operadora y la validación de compras con tarjetas de crédito. En el primer caso, existen aplicaciones en uso en los EE.UU. por parte de las compañías telefónicas AT&T y Northen Telecom para automatizar el servicio de facturación de llamadas asistidas por operadora. En estos casos, el reconocimiento del mensaje se realiza mediante un sistema de localización de palabras. En el caso de validación de compras con tarjeta de crédito, este servicio es utilizado por comercios que no disponen de modems para validar la venta. Con un sistema de reconocimiento de dígitos conectados puede reconocerse los números de la tarjeta de crédito, la identificación del vendedor y el valor de la venta. Como el número de la tarjeta de crédito y la identificación del vendedor están formados por una secuencia de dígitos con ciertas restricciones, no causan problemas a la hora de reconocerlos. La incorporación de interfaces orales ha permitido también incrementar el número de servicios proporcionados por una red de telecomunicaciones. Ejemplos de estas aplicaciones son los servicios de información y transacciones bancarias, servicios de telefonía interactiva (p.e. el sistema VIP -Voice Interactive Phone- de AT&T que permite acceder a ciertos servicios pronunciando el nombre asignado al mismo en lugar de pulsar un código con el teclado multifrecuencia) y servicios de acceso a información (p.e. sistemas de audiotex).En relación a la telefonía móvil en vehículos, los
sistemas de reconocimiento de voz comienzan a ser introducidos para permitir controlar el teléfono (funciones de marcado, respuesta, etc.) mediante comandos orales. Un sueño que comienza a ser realidad es la máquina de escribir oral, es decir, un sistema de conversión de voz a texto con un vocabulario muy grande (> 5000 palabras) que puede transcribir habla natural sin restricciones a texto. Este tipo de reconocedores del habla se están desarrollado en la actualidad y ya se pueden encontrar en explotación comercial algunos de ellos. Ejemplos de los mismos son los sistemas comercializados por Dragon Systems e IBM, que permite reconocer un vocabulario de hasta 60000 palabras trabajando sobre un PC, utilizando un sistema de adaptación al usuario de modo que no es necesario un entrenamiento del mismo. El sistema aprende de forma interactiva el estilo de habla del usuario y reconoce palabras aisladas con separaciones entre palabras de un cuarto de segundo. Con este sistema se puede llegar a crear un texto a una velocidad de hasta 120 palabras por minuto. Actualmente se pueden adquirir en el mercado productos como teléfonos, juguetes, radiocassete de coche, teléfonos móviles para coche, grabadores de vídeo, agendas personales que incorporan un sistema sencillo de reconocimiento de voz para controlar las funciones más elementales de dichos productos. Con el auge de Internet, han aparecido ya navegadores que incorporan tecnologías del habla. En concreto existen navegadores que permiten realizar la navegación por voz, solo hace falta pronunciar los enlaces y permiten igualmente una interacción con el usuario utilizando un conversor texto-voz. Un ejemplo es el navegador WebConversa. 2.6.
SÍNTESIS DEL HABLA: CONVERSIÓN TEXTO-VOZ
El proceso de conversión texto-voz dota a las máquinas de la capacidad de producir mensajes orales no grabados previamente como es el caso de los sistemas de respuesta oral. Tomando como entrada un texto, los sistemas de conversión texto-voz realizan el proceso de lectura de forma clara e inteligible y con una voz lo más natural y humana posible. La síntesis de voz conforma el interfaz oral de comunicación entre una máquina y el usuario de la misma.
Figura 6. Diagrama de bloques simplificado de un conversor texto-voz
2.6.1. PRINCIPIOS BÁSICOS Para comprender los principios básicos sobre los que se asientan los sistemas de síntesis de voz hay que estudiar el proceso de generación de un mensaje oral desde el punto de vista acústico y lingüístico. Es necesario entender el comportamiento físico del aparato fonador del ser humano y como son procesados por el sistema auditivo humano para desarrollar un modelo matemático del mismo. A la vez hay que saber como extraer del texto, en base a su estructura lingüística, la información necesaria para controlar el modelo matemático y de este modo convertir el texto en voz. En el cuadro adjunto se presenta una clasificación de la señal de voz, en función de sus rasgos segmentales (sonidos elementales) y los rasgos prosódicos (características de enlace entre los aspectos lingüísticos y acústicos de la generación de voz). Características de la voz: □ □
Rasgos Segmentales: Características propias de cada sonido elemental que permiten diferenciar los sonidos y reconocer las palabras.
□
Los sonidos se clasifican según su carácter sordo/sonoro y la posición de los órganos articulatorios. La articulación de un sonido influye en la articulación de los adyacentes lo que llamaremos coarticulación
Rasgos prosódicos:
Características más globales que afectan a segmentos mayores que el fonema.
Rasgos principales:
Entonación (tono fundamental)
Duración
Intensidad (Energía)
Aportan información de ritmo, acentuación, tipo de frase, emotividad,…
Evolución más lenta que los rasgos segmentales.
Especialmente significativos en los núcleos vocálicos.
Su correcta realización proporciona la naturalidad al habla sintetizada
En el aspecto lingüístico, el primer problema que se encuentra un sistema de conversión texto-voz es que debe inferir el contenido real de la representación escrita del mensaje. Para ello se debería realizar un procesado lingüístico del texto a partir de un análisis fonético-morfológico para derivar la pronunciación, un análisis sintáctico para dar la estructura gramatical del texto y poder inferir rasgos prosódicos, un análisis semántico para dar una representación del significado del mensaje y un análisis pragmático para dar una relación entre frases e ideas de la conversación global. Claramente, este procesado lingüístico es muy ambicioso y los sistemas actuales simplemente realizan un análisis fonético-morfológico y sintáctico para de este modo determinar los rasgos segmentales y prosódicos de los sonidos que componen el mensaje oral. Un aspecto importante en la inteligibilidad y naturalidad de la señal sintetizada son las reglas prosódicas, que aunque en cierta medida pueden ser inferidas de la estructura sintáctica de la frase, la mejor forma de generar una entonación adecuada a una frase es que la máquina entienda lo que está diciendo.
Figura 7. Diagrama de bloques detallado 2.6.2. DICCIONARIO DE UNIDADES ACUSTICAS La forma más sencilla de generar voz consiste simplemente en grabar la voz de una persona pronunciando las frases deseadas. Este sistema sólo es viable cuando el número de frases que es necesario sintetizar es pequeño. Por ejemplo, un número concreto de mensajes que se emiten en una estación de tren. En casos como éste, la calidad del sistema depende de la calidad de la grabación de las frases. Sin embargo, en el caso de un sistema conversor texto-voz, se necesita un sistema que permita sintetizar cualquier texto que se introduzca por teclado. La solución consiste en dividir la voz en segmentos, los cuales van a constituir una base de sonidos con la que trabajará el módulo de síntesis. Un método utilizado en la práctica es el método de Síntesis Directa o Concatenativo, que consiste precisamente en concatenar uno tras otro todos los sonidos que constituyen el texto. Estos sonidos han sido previamente almacenados y constituyen la base de sonidos. El primer problema que se plantea para crear una buena base de sonidos, consiste en decidir el tipo de unidades acústicas o segmentos fónicos adecuados para formar parte de dicha base. Existe un compromiso entre la calidad de voz conseguida y el tamaño de la base de datos que se necesita para almacenar los segmentos. Cuanto más pequeñas sean las unidades en que se descompone la voz, menor es la base de sonidos utilizada, pero la calidad de la voz también decrece.
Una solución a este problema es el empleo de difonemas, los cuales están compuestos por la porción final de un fonema y la inicial del fonema que le sigue. Como el corte está hecho en el centro del fonema, las transiciones entre ellos permanecen intactas. Para el caso del castellano, el número de difonemas necesario para constituir una base es de, al menos, 550. Para aumentar la calidad de la síntesis, se puede utilizar un número limitado de trifonemas para representar a sonidos en los que los tres fonemas se coarticulan a elevada velocidad (pla, ple, pli, plo, plu, tra, tre,...) Una forma de obtener la base de difonemas y trifonemas consiste en la grabación de logotomas. Los logotamos son palabras carentes de significado, compuestas por tres sílabas, que permiten que el segmento a tratar esté aislado sin coarticular con los sonidos anterior y posterior. De las tres sílabas que componen el logotoma nos interesa la sílaba central, que es donde se encuentra el segmento a extraer. Su estructura general es la siguiente:
PRIMERA SÍLABA
SONIDO EXPLOSIVO
SONIDO QUE BUSCAMOS
SONIDO EXPLOSIVO
ÚLTIMA SÍLABA
Por ejemplo: Opoat´e: o-p-oa-t-´e se extrae el difonema oa Ombrité: o-m-bri-t-´e se extrae el trifonema bri Existen algunas excepciones, por ejemplo logotomas en los que no hay sonido explosivo final: Etip´o: e-t-ip-´o Debido a las numerosas excepciones, es necesario realizar un estudio del logotoma apropiado para cada difonema-trifonema. 2.6.3. EL MÓDULO DE ANÁLISIS LINGÜÍSTICO El módulo de análisis lingüístico del texto lleva a cabo dos funciones fundamentales: □
□
Transforma la representación ortográfica del mismo en una representación fonética, es decir, determina la sucesión de difonemas y trifonemas que lo componen. Extrae del texto la información prosódica del mismo. Esta información se llevará al generador de prosodia, el cual generará la plantilla de prosodia adecuada que permita al sintetizador generar voz con una buena entonación.
Lógicamente, este análisis lingüístico del texto es diferente para cada idioma, teniendo que adaptarse a las características propias de cada uno. Hay que tener en cuenta que tanto la base de fonemas como las características prosódicas son distintas para cada idioma. El texto que se desea sintetizar ha de ser analizado conforme a sus propiedades sintácticas, semánticas y contextuales para producir los parámetros adecuados. En la siguiente figura se muestra el diagrama de bloques del módulo de análisis lingüístico de un posible conversor texto-voz.
Figura 8. Diagrama de bloques del módulo de análisis lingüístico. El bloque de preprocesado del texto realiza las funciones de tratamiento de abreviaturas, números, horas, fechas, signos de puntuación, etc. Para silabificar el texto, éste se va tomando palabra a palabra (el texto pasado por el módulo de preprocesado) y se aplican una serie de reglas lingüísticas basadas en las posiciones relativas de las vocales y consonantes. El objetivo del módulo de acentuación es obtener una representación del texto que incluya la información de las sílabas acentuadas en cada palabra. En el bloque de transcripción fonética se pasa de la representación ortográfica del texto a una cadena de fonemas. Para ello, se analiza letra a letra en cada palabra (distinguiendo la sílaba en la que aparece). Se entiende como "letra", una secuencia de caracteres que se definieron como vocales o consonantes en un apartado anterior. Por lo tanto, pueden aparecer "letras" compuestas por varios caracteres. En el bloque de análisis de la frase se extrae el tipo de frase para utilizar el patrón entonativo adecuado. En el generador de prosodia se han implementado cuatro patrones melódicos diferentes, para cuatro tipos de frases distintas. Por lo tanto, necesitamos saber a qué tipo de frase pertenece cada difonema/trifonema para poder aplicar el patrón melódico correspondiente. La clasificación de cada frase del texto se realiza en función del signo de puntuación o terminación de dicha frase. Este bloque realiza también la clasificación del difonema/trifonema para la aplicación posterior de un modelo de duración vocálica.
2.6.4. MODULO DE SINTESIS El bloque de síntesis de voz no se subdivide en módulos. Su tarea es generar la voz sintética a partir de la información de alófonos (sonidos) y prosodia, así como la correspondiente al inventario de unidades. Este módulo es totalmente independiente del idioma. Maneja el conjunto de alófonos común a todos los idiomas, y la particularidad de cada uno queda recogida en su inventario de unidades, una tabla que, como todas las tablas propias de un idioma, se puede cargar, así como descargar y sustituir por otra, de manera dinámica. Los parámetros acústicos (dependientes del modelo de síntesis empleado) de cada alófono quedan recogidos en el inventario. Sin embargo, la caracterización sonoro/sordo del alófono y su tratamiento por el modelo de síntesis (en el caso del modelo LPC) se hace por código. Así, mientras que en español sólo se tienen alófonos sonoros o sordos, al incluir el catalán aparecen sonidos fricativos sonoros, que precisan una caracterización mixta en el modelo de síntesis LPC. Por otra parte, las peculiaridades del conjunto de alófonos de cada idioma es un factor que hemos de tener en cuenta, aunque haya quedado recogido en una tabla ajena al código. Al aumentar el número de alófonos, y sobre todo el número de vocales (se consideran 5 vocales en español y euskera, 7 en gallego, 8 en catalán y 14 en portugués), aumenta de manera importante el tamaño de dicha tabla. Puesto que el sistema tiene que funcionar con unos recursos limitados de memoria, esta característica puede repercutir en una merma de la calidad acústica de los inventarios con mayor número de alófonos, al ser necesario restringir las combinaciones recogidas, o bien aplicar una codificación más fuerte para reducir el tamaño final del inventario. El procedimiento que se usa de forma más común para generar la voz sintética en los sistemas de conversión texto-voz consiste en la concatenación controlada de unidades acústicas, previamente extraídas de grabaciones realizadas por una persona. Estas unidades deben ser modificadas en su duración y entonación para que se ajusten a la prosodia sintética generada por el conversor texto-voz cuando tiene que pronunciar una frase. Este tipo de técnica de síntesis produce actualmente una voz con una inteligibilidad y naturalidad superior a otras, pero tiene que contar con procedimientos para solucionar los problemas derivados de la concatenación de unidades acústicas que han sido grabadas en diferentes ficheros de voz y en diferentes instantes de tiempo, y que tienen características acústicas distintas. La concatenación de unidades acústicas nos ayuda a solucionar un problema muy difícil de modelar, como es el caso de preservar la forma en que las personas realizan cada uno de los sonidos y las transiciones entre ellos; pero también nos introduce un problema importante: ¿cómo concatenar fragmentos de señales de voz que son bastante distintos a ambos lados de un punto de concatenación? Fundamentalmente, al concatenar se producen dos tipos de discontinuidades: □
□
Diferencias en el espectro de amplitud (caída espectral, frecuencia y ancho de banda de los formantes o frecuencias fundamentales). Este tipo de diferencias se percibe claramente como un cambio brusco en el timbre del sonido. Errores de sincronización de los sonidos sonoros . Cuando hay diferencias en las componentes lineales
del espectro de fase, se produce un desalineamiento entre uno o más periodos de la señal, que rompe la periodicidad propia de los sonidos sonoros. Este tipo de errores se percibe como sonidos "poco limpios", con "golpes" y con alteraciones en la entonación (rápidas y bruscas subidas o bajadas de la frecuencia fundamental). Este tipo de discontinuidad se puede denominar "incoherencia entre tramas". En los sonidos sordos (que no tienen una forma de onda periódica), la "incoherencia entre tramas" no es importante perceptualmente.
2.6.5. GENERADOR DE PROSODIA La naturalidad al hablar se consigue con una buena entonación, la cual puede ser incluso necesaria en algunos casos para la inteligibilidad del mensaje. Por ejemplo, la frase "Juan dijo Pedro es un mentiroso", se puede pronunciar de forma diferente, de manera que se podría interpretar de cualquiera de los siguientes modos: "Juan dijo: Pedro es un mentiroso", o "Juan, dijo Pedro, es un mentiroso". En este caso, la entonación contribuye a que cambie el significado del mensaje.
La entonación se considera uno de los principales responsables de la calidad de un conversor texto-voz. Es ante todo, un fenómeno lingüístico relacionado con la sensación perceptiva que produce la variación a lo largo de todo un enunciado de tres parámetros físicos: □
frecuencia fundamental (en adelante la denominaremos F0)
duración
□
amplitud
□
proporcionando esta variación, al receptor, información de distintos tipos. Estas variaciones se dan en unidades mayores que la palabra, normalmente sintagmas o frases, que son las unidades lingüísticas contenidas en los grupos fónicos. Un estudio de la entonación implica, por tanto, estudiar las variaciones de los parámetros entonativos a lo largo de todo el grupo. La entonación es un fenómeno que relaciona tres niveles diferentes: 1. Plano físico (o acústico): en este sentido, es el resultado de la variación temporal de una serie de parámetros físicos. Se considera que los tres parámetros antes mencionados, son los responsables de la entonación. Éstos, también intervienen en otros fenómenos, como el ritmo o el acento, lo que hará que en ocasiones sea difícil atribuir la variación de un parámetro determinado a un fenómeno u otro. 2. Plano perceptivo: el oído humano actúa como un filtro que, en cierta medida, transforma la señal sonora que le llega, desechando algunas de las variaciones de esos parámetros físicos tratados en el apartado anterior. 3. Plano semántico-funcional: el oyente extrae de las variaciones de los parámetros antes mencionados, diversas informaciones de tipo lingüístico, o incluso extralingüístico. Además, transmite los siguientes tipos de información: □
Información de tipo lingüístico, referente al mensaje, que es generalmente información sintáctica. En primer lugar, permite delimitar las diferentes frases que componen el mensaje. También aporta información sobre el tipo de oración de que se trata. Igualmente, permite distinguir entre enunciados no finales, situados al principio o en medio de una oración, y los resultados al final de las mismas.
□
Información socioli ngüística, acerca de la procedencia geográfica y social del hablante.
□
Información expresiva, acerca del estado de ánimo del hablante.
Según un estudio de Jassem y Demenko existen catorce factores diferentes que pueden determinar las variaciones de los parámetros que influyen en la entonación. Estos factores son los siguientes: □
Condiciones dependientes de la actitud del hablante, situaciones y del discurso.
□
Situación del acento temático.
□
Realización del acento léxico o gramatical.
□
Longitud de la curva, condicionada segmental o léxicamente.
□
Variación alotónica libre.
□
Efectos de estados emocionales.
□
Rasgos fisiológicos personales del hablante.
□
Rasgos patológicos de la voz.
□
Cambios momentáneos en el tono medio (confidencias, frases parentéticas...).
□
Tempo personal de elocución.
□
Cambios momentáneos del tempo.
□
Efectos de los rasgos segmentales.
□
Irregularidades no patológicas en la fonación.
Estilo.
□
De todos estos factores, sólo algunos transmiten información relevante para el receptor. 2.6.6. LOS PATRONES MELODICOS Vamos a considerar melodía y entonación como dos fenómenos diferentes, aunque relacionados entre sí. Definimos melodía como el fenómeno que se relaciona con la curva de frecuencia fundamental o curva melódica de un grupo fónico (considerando grupo fónico como el enunciado comprendido entre dos pausas del discurso). Ya se ha comentado que la información que transmite la entonación se reparte a lo largo de unidades superiores a la palabra, normalmente sintagmas o frases, que son las unidades lingüísticas contenidas en los grupos fónicos. Se asocia a cada tipo de información una forma típica de curva o patrón melódico. Los patrones melódicos representan esquemáticamente la forma de las curvas de F0, y podrían identificarse con las representaciones estilizadas obtenidas tras la eliminación de las variaciones irrelevantes. La curva melódica se convierte, por lo tanto, en una unidad básica para el estudio de la entonación. Se pueden distinguir dos grandes clases de curvas melódicas, en función del grupo fónico al que pertenezcan. Los grupos fónicos son terminales o no terminales según la posición en que aparezcan dentro de la oración: □
□
Los grupos terminales son los que aparecen al final de una oración. Contienen básicamente información sobre el tipo de oración, lo que se denomina modalidad oracional. Los grupos no terminales son los que aparecen, en oraciones con más de un grupo fónico, en posición no final dentro de las mismas. La información que contienen se refiere al tipo de frase subordinada.
Para el castellano, Alcina y Blecua en su gramática, distinguen tres partes dentro de una curva melódica: □ □
□
La rama inicial de la curva, "formada por las sílabas átonas que llegan hasta el primer acento fuerte". El cuerpo, que "está formado por el conjunto de sílabas que comprenden la sílaba fuerte inicial hasta la sílaba inmediatamente anterior al último acento fuerte". La rama final, "que está integrada por la última sílaba fuerte y las siguientes débiles, en el caso de que las haya".
En cuanto a la cuestión de los elementos que contienen más información dentro de una curva melódica, hay varias teorías; la mayoría de ellas coinciden en señalar que la información lingüística aparece en la rama final. Para las informaciones de tipo sociolingüístico y expresivo no hay acuerdo en las diferentes teorías.
3. CONCLUSIÓN La interfaz vocal es y seguirá siendo la interfaz más natural de comunicación para las personas. La tecnología de voz ha alcanzado un nivel que permite su explotación en servicios reales, con lo que se consigue un nivel de aceptación de estos servicios mucho mayor que con cualquier otro tipo de interfaz. Hemos visto, sin embargo, que todavía quedan muchos aspectos en los que la tecnología debe seguir mejorando. Por este motivo, se está haciendo un importante esfuerzo de investigación para seguir alcanzando metas. Este esfuerzo se refleja, año tras año, en mejoras incrementales que se plasman tanto en los productos como en la calidad y complejidad de los servicios que se realizan con los mismos. Valga como ejemplo el caso del reconocedor de habla natural, que hace unos años era patrimonio de las películas de ciencia-ficción y que ya, en este momento, se está utilizando en aplicaciones moderadamente complejas y que están empezando a formar parte de nuestra vi da cotidiana
4. BIBLIOGRAFÍA □
Luis Hernández et al., Estado del Arte en Tecnologías del Habla
□
Miguel A. Rodríguez et al., Estado del Arte en Tecnologías de Voz
□
F. Castejón et al., Un Conversor Texto-Voz para Español
5. ESQUEMA – RESUMEN RECONOCIMIENTO OPTICO Tipos: □
OCR (Optical Character Recognition): reconocimiento de caracteres
□
OMR (Optical Mark Recognition): Lectores de marcas de productos
□
IMR (Intelligent Character Recognition): OCR con herramientas asociadas.
Fases del reconocimiento óptico: □ □
□
Captura y entrada de información: digitalización de imágenes o texto mediante el uso de un escáner. Proceso de información. Dos métodos básicos de reconocimiento de caracteres en OCR: comparación matricial, y reconocimiento de patrones Salida de información: visualizar la imagen en pantalla, grabar la información en un fichero o generar una copia en papel mediante una impresora
Aplicaciones: □
Edición de texto (Omnipage)
□
Lectura de códigos de barras
□
Sistemas de traducción simultánea
□
Ayuda a discapacitados
□
Formateo electrónico de documentos
RECONOCIMIENTO DE VOZ Percepción del sonido □ □
□
□
Señal no estacionaria, onda longitudinal (registrados con espectrogramas). Características del sonido: Velocidad, Longitud de onda, Presión Acústica, Nivel de Presión sonora (SPL), Intensidad Sonora, Nivel de Intensidad Sonora (IL), Nivel de Potencia Acústica (PWL). Etapas en la generación de sensaciones auditivas en el ser humano: Captación y procesamiento mecánico de las ondas sonoras, Conversión de la señal acústica (mecánica) en impulsos nerviosos, y Procesamiento neural de la información codificada en forma de impulsos nerviosos. El análisis del habla se puede hacer en el dominio del tiempo o en el de la frecuencia:
En el tiempo. El análisis es sencillo, rápido y tiene interpretación física directa), poca información acerca de la señal. Calculamos los siguientes parámetros: Energía local, Tasa de cruces por cero, Función de autocorrelación. El análisis frecuencial es el más utilizado en la actualidad. Se calculan los parámetros a partir del espectro de frecuencia de la señal. Los parámetros espectrales calculados habitualmente son los: LPC (coeficientes de predicción lineal), Los cepstrales (Mel o LPC-Cepstrum), La energía en bandas (se utilizan con sistemas basados en redes neuronales).
Codificación □
Representar la voz en formato digital con: la mayor calidad posible y con el menor número de bits posible.
□
Sistemas de codificación: VOCODER (guardan parámetros de la voz), ADPCM (codificadores en forma de onda), CELP/MPLPC/RELP (sistemas mixtos), MPEG (modelo psicoacústico).
Reconocimiento del habla □
□ □
la secuencia de palabras reconocida es aquella que maximiza el producto de dos probabilidades, una P(O|W) que relaciona los datos acústicos con la secuencia de palabras y que denominaremos modelo acústico y P(W) que únicamente depende de la secuencia de palabras y que denominaremos modelo de lenguaje. Dos procesos: entrenamiento y reconocimiento. Dificultades: Variabilidad de los sonidos, Variabilidad en la producción de los sonidos, Variabilidad en la cadena de conversión y transmisión de la señal eléctrica, Variabilidad en el ruido captado con la señal de voz.
Aplicaciones:
□
Sistemas de control oral para ayuda a disminuidos físicos
Sistemas de entrada de datos y comandos para ordenadores, navegadores Web por voz
Sistemas de acceso a bases de datos
Sistemas de venta por catálogo
Aplicaciones aerospaciales
Servicios interactivos de telefonía sin operadora
Control oral de teléfonos
Validación de ventas con tarjeta de crédito
La máquina de escribir oral, Dictado
Domótica
Autoaprendizaje de idiomas
Síntesis d e voz: Conversión texto-voz □ □
Esquema de conversión texto-voz: Análisis lingüístico, Procesado prosódico, síntesis de voz. Tipos de sintetizadores de voz: de formantes (simulan el tracto vocal), mediante modelos articulatorios, (matan el mecanismo de producción) por concatenación de unidades (fonemas, difonemas,…)