jueves, 29 de julio de 2010

Mejor volvamos a las ciencias....

Desvelando la matriz

Una nueva forma de analizar rejillas de números conocidas como matrices, podría mejorar las aplicaciones de procesado de señales y los esquemas de compresión de datos.

Entre las herramientas más comunes en la ingeniería eléctrica y las ciencias de la computación están unas rejillas rectangulares de números conocidas como matrices.

Los números de una matriz representan datos: Las filas, por ejemplo, podrían representar temperatura, presión del aire y humedad, y las columnas podrían representar distintas posiciones donde se toman las tres medidas.

Pero las matrices también representan ecuaciones matemáticas. Si las expresiones t + 2p + 3h y 4t + 5p + 6h describen dos operaciones matemáticas distintas que implican a las medidas de temperatura, presión y humedad, pueden representarse como una matriz con dos filas, [1 2 3] y [4 5 6].

Multiplicar entre sí las dos matrices significa realizar ambas operaciones matemáticas en cada columna de datos de la matriz y pasar los resultados a una nueva matriz.

En muchas aplicaciones de ingeniería sensibles al tiempo, multiplicar matrices puede dar rápidas pero buenas aproximaciones de cálculos mucho más complejos.

En un artículo publicado en el ejemplar del 13 de julio de la revista Proceedings of the National Academy of Science, el profesor de matemáticas del MIT Gilbert Strang describe una nueva forma de dividir cierto tipo de matrices en otras más simples.

El resultado podría tener implicaciones para el software que procesa datos de audio o video, para la compresión de software que empaqueta archivos digitales de forma que ocupen menos espacio, o incluso para sistemas que controla dispositivos mecánicos.

El análisis de Strang se aplica a las conocidas como matriz en bandas.

La mayor parte de los números en una matriz en bandas son ceros; las únicas excepciones están en las bandas diagonales, en o cerca de la diagonal central de la matriz. Puede que suene como una propiedad esotérica, pero a menudo tiene implicaciones prácticas.

Algunas aplicaciones que procesan señales de audio o video, por ejemplo, usan matrices en bandas en las que cada banda representa una porción temporal de la señal.

Analizando las propiedades de la señal, la aplicación podría, por ejemplo, definir los fotogramas de un video, o buscar información redundante que pueda eliminarse para ahorrar memoria o ancho de banda.

Trabajando hacia atrás

Dado que la mayor parte de las entradas en una matriz en bandas – tal vez el 99 por ciento, dice Strang – son ceros, multiplicar una matriz por otra es un procedimiento muy eficiente: Puedes ignorar todas las entradas que son cero. Después de que se haya procesado una señal, no obstante, tiene que convertirse de nuevo a su forma original.

Esto requiere multiplicarla por el “inverso” de la matriz procesada:

Si multiplicar la matriz A por B da C, al multiplicar C por el inverso de B nos da A.

Pero el hecho de que una matriz tenga bandas no implica que su inverso las tenga.

De hecho, dice Strang, el inverso de una matriz en bandas casi siempre está “completa”, lo que significa que casi todas sus entradas son distintas de cero.

En una aplicación de procesado de la señal, todas las ventajas en velocidad ofrecidas por las matrices en bandas se perderían si restaurar la señal requiriese multiplicar por una matriz completa.

Por lo que los ingenieros están interesados en las matrices en bandas con inversos con bandas, pero qué matrices son esas, no es algo obvio.

En su artículo de PNAS, Strang describe una nueva técnica para romper una matriz en bandas en matrices más simples – matrices con menos bandas.

Es fácil decir si estas matrices más simples tienen inversos con bandas, y si los tienen, su combinación también las tendrá.

La técnica de Strang permite de este modo a los ingenieros determinar si alguna nueva técnica de procesado de la señal será, de hecho, práctica.

¿Más rápido que Fourier?

Una de las técnicas más comunes en el procesado de señales digitales es la Transformada de Fourier Discreta (DFT), la cual divide una señal en sus frecuencias componentes y puede representarse como una matriz.

Aunque la matriz para la transformada de Fourier es completa, dice Strang, “lo genial de la transformada de Fourier es que parece que es posible, incluso aunque sea completa, multiplicarla e invertirla rápidamente. Esa parte es lo que hace de Fourier algo maravilloso”.

No obstante, para algunas aplicaciones de procesado de señales, las matrices en bandas podrían mostrarse más eficientes que la transformada de Fourier.

Si sólo son interesantes partes de la señal, las bandas proporcionan una forma de centrarse en ellas e ignorar el resto.

“La transformada de Fourier mira toda la señal a la vez”, dice Strang. “Y eso no siempre es bueno, debido a que a menudo el 99 por ciento de la señal es aburrida”.

Richard Brualdi, Profesor Emérito UWF Beckwith Bascom de Matemáticas en la Universidad de Wisconsin-Madison, señala que una conjetura matemática que presenta Strang en su artículo ya ha sido demostrada por otros tres grupos de investigadores. “Es un teorema muy interesante”, dice Brualdi.

“Ya ha generado un par de artículos, y probablemente generará algunos más”. Brualdi apunta que en grandes conjuntos de datos, tales como los generados por el secuenciado del genoma, las imágenes médicas o la monitorización del clima, a menudo se generan matrices con estructuras regulares.

Una de esas estructuras es en bandas, pero hay otras, y Brualdi espera que otros matemáticos apliquen técnicas como la de Strang a otro tipo de matrices estructuradas.

“Si funcionarán o no estas cosas, es algo que no sé”, dice Brualdi. “Pero Gil ya ha dicho que está observando una estructura distinta en un próximo artículo”.

by.Kanija

No hay comentarios: