INTRODUCCIÓN
En este post se analiza la teoría de sistemas hamiltonianos y se ilustran algunas relaciones de la misma con fenómenos caóticos.
La línea de exposición sigue aproximadamente la de el último capítulo del libro Differential Dynamical Systems.
Sin embargo hay algunas diferencias significativas en algunos puntos para acercar la exposición a lo que es común en libros de mecánica clásica para físicos.
Con todo se siguen mencionando algunos resultados básicos no comentados habitualmente en libros para físicos.
También hay algunas diferencias en algunos puntos del tratamiento matemático.
Se incluyen apéndices en técnicas matemáticas bien conocidas en los cursos de licenciatura de exactas pero que no suelen verse en otras licenciaturas.
También se añaden algunas referencias a material proveniente del tratamiento formal de la mecánica clásica tal como puede vrse en, por ejemplo, el libro de VI. Arnold “Métods matemáticos de la mecánica clásica”.
DINÁMICA LAGRANGIANA
La mecánica de Newton estaba dada por, principalmente, su segunda ley F=m.a dónde a es la derviada segunda de la posicion en el tiempo y F es una fuerza que normalmente va a depender de la posición y a veces de la velocidad.
Es por tanto una ecuación diferencial.
El problema con esa ecuación es que sólo tiene esa forma en un sistema de coordenadas cartesiano.
Si el problema físico a tratar tiene, por ejemplo, simetría esférica, algo muy común, hay que cambiar la forma de la ecuación.
Esto se hace introduciendo fuerzas ficitcias como la fuerza centrífuga y simlares.
Bien, esto es un problema prácico.
Estaría bien tener unas ecuaciones equivalentes a las de Newton y que no cambiaran si usamos otros sistemas coordinados.
Y ahí surgieron las figuras de Euler y Lagrange y su cálculo de variaciones. Presento una exposición standard de las cuestiones.
La idea es que tenemos una función, o mejor dicho, funcional,
ahora explico que es eso, llamada lagrangiana.
1. L(q, dq/dt, t)
Las q denotan las coordenadas que indican la posicion de la partícula.
las dq/dt son las velocidades.
Bien, digo que es un funcional y no una función. ¿Por qué?,
La explicacion es bien sencilla.
q y dq/dt son a su vez funciones dependientes del tiempo, es decir q(t) denota la posición en la coordenada generalizada q de la partícula en el tiempo t .
La palabra genralizada quiere decir que no suponemos a priori que estemos
en un sistema cartesiano y nos vale cualuqier tipo de coordenada
(radio, ángulo, o lo que sea).
Por tanto L depende de unas funciones q
(y además del tiempo), es una función de funciones (una función cuyos argumentos son otras funciones).
Eso es un funcional.
Ahora bien, hasta ahora no tenemos ecuaciones,.
ES decir, no tenemos nada que nos permita calcular las trayectorias q(t)
que realmente sigue la partícula.
¿Cómo hacemos eso?
Ahí debemos aplicar el principio de mínima acción. A partir de la lagrangiana tenemos una operacion que nos da una magnitud física conocida como “acción”.
2. S= ∫t1 t2 L(q, dq/dt, t) dt
El principio de mínima accion dice que una partícula clásica va a seguir de entre todas las posibles trayectorias q(t) entre los tiempos t1 y t2 justo aquella para la que esa integral sea un extemal (generalmente un mínimo aunque en teoria podria ser un máximo).
¿Y cómo encontramos esa trayectoria maximal?.
Consideramos cuanto varía la integral cuando variamos una trayectoria q(t)
-> q(t) + δq(t) y nos interesan las variaciones que cumplen
que δq(t1)=δq(t2)=0, es decir, que sólo variamos la trayectoria
en los puntos intermedios y no en los extremos pués es en los puntos itermedios donde queremos saber la trayectoria
(esto es un tecnicismo pués siepre podemos situar los extremos
donde queramos.
Bien, pués hay que comparar lo que vale L en q(t) y en q(t) +δq(t).
Se hace un desarrollo de potencias (tipo taylor en cierto modo)
Y se obtiene la variación de la accion δS de la accion, que debe ser 0.
No daré los detalles de la derivación, sólo expongo el resultado final,
que son las famosas ecuaciones de Euler-Lagrange:
3. d/dt(∂L/∂dq/dt) – ∂L/∂q=0
Pese a que haya derivadas parciales en la forma de la ecuación en realidad
lo que tenemos es una ecuacion diferencial.
Voy a comentar algunos aspectos, no comúnmente señalados en textos de física, sobre la existencia de las soluciones y su carácter.
La clave es que si bien las soluciones de las ecuaciones de Euler-Lagrange son puntos estacionarios (máximos o mínimos) de la acción existen otros puntos estacionarios que no satisfacen esas ecuaciones.
Se darán unas condiciones (terorema de Tonelli) para que las ecuaciones
de E.L nos den un mínimo. Antes empezamos con un ejemplo, debido
a Weierstrass, ilustrativo de lo que puede fallar.
Considérese el problema de encontrar una curva
de modo que minimice el funcional
Si fuera C2 satisfaría las ecuaciones de E-L
y se tendría la solución x(t)= t -1.
que no es C2 en t=0, violando la suposición.
Puede verificarse que hay una secuencia de funciones
cuya acción tiende a 0:
Puede verificarse que xn satisfacen ls condiciones de frontera.
Además:
Cuando la parte derecha tiende a 0 y, entonces, A[xn] ->0.
La secuencia xn(t) tiende a la curva discontinua .
Por tanto hemos encontrado el mínimo de A, pero no en una función suave.
El requerimiento clave para asegurarse la existencia de un mínimo
se expresará en términos del hessiano cuya definición es:
(aquí las v representan las velocidades generalizadas)
Esto nos permite establecer el requerimiento crucial, la condición
de Legendere:
El hessiano es una matriz definida positiva uniformemente,
es decir, existe un c>0 tal que para todo (x,v,t)
y todos los vectores se tiene
Con esto ya tenemos los conceptos necesarios (los conceptos sobre topología, variedades, flujos, etc, pueden consultarse en los apéndices correspondientes) para enunciar el teorema de Tonelli.
Teorema de Tonelli. Supongase que L(x,v,t) es C2 endónde M
es una variedad compacta n-dimensional y satisface las siguientes condiciones:
(i) La condición de Legendre
(ii) depende periódicamente en el tiempo L(x,v,t + T)= L(x,v,t)
(iii) crece superlinealmente con la velocidad, es decir:
(iv) tiene un flujo completo
Entonces para cualquiera puntos hay una curva C2 , que satisface las ecuaciones de Euler-Lagrange y es un mínimo de la acción.
¿Que forma tiene la lagrangiana?
Otro punto excelente de la formulación lagrangiana es que permite obtener a veces su forma a partir de consideraciones de simetría.
El principio de galileo nos dice que las leyes de la física deben ser las mismas para observadores inerciales, es decir, aquellos que se desplazan unos respecto a otros a una velocidad constante.
Bien, si imponemos esto en la lagrangiana esto implica que debe depender
del cuadrado de la velocidad.
En un sistema cartesiano la coordenada generalizada q es simplmente
la coordenada normal x (ó y, ó z, da igual) y dq/dt es la velocidad
que denotamos por v.
Así pués
L=a.v2
¿y cuanto debe ser esa a?
Bien, si queremos tomar contacto con las leyes normales de newton debemos tener que als ecuaciones de Euler Lagranage se reducen a las de newton par auna partícula libre.
Por tanto a debe valer (puede comprobarse sencillamente tomando
las derivadas oportuns) a=1/2m
Es decir, una partícula libre tiene
4. L=1/2mv2
Bien, ya podemos describir una partícula libre pasamos a considerar c
omo describir una partícula en interacción.
En mecánica elemental de la manera que se enseña actualmente se introducen los conceptos de energía cinética y energia potencial.
Si se han fijado bien se habrán dado cuenta de que la forma de la lagrangiana de una partícula libre es justo la energía cinética de una partícula.
Consideraciones sencillas nos llevan a que en general, para un sistema aislado sin rozamiento la lagrangiana va a ser de la forma:
5. L= T -U
T es la energiá cinética y U la potencial.
Por ejmplo para un muelle U(q)=1/2kq2 y para el campo gravitatorio
U=-GM/r
Con esto ya tenemos un estupendo “algoritmo”.
Elegimos las coordenadas que por simetría mejor describan el sistema.
Expesamos en esa coordenadas la energía cinética y la potencial y restando ambas tenemos nuestra lagrangiana.
Una vez tenemos la Lagrangiana usamos las ecuaciones de Euler-Lagrange
y ya tenemos las ecuacioens diferenciales que describen el sistema.
Ya “sólo” queda resolver esas ecuaciones (para las condiciones iniciales fijadas) y tenemos resuelto nuestro problema mecánico.
Bien, esta es la lagrangiana para partículas puntuales.
En física (incluso física clásica) no todo son partículas puntuales que se mueven por el espacio.
Por ejemplo tenemos campos que varian con el tiempo.
El más típico (y casi el único en física clásica) es el campo electromagnético. Este campo electromagnético viene descrito por unas ecuaciones en derivadas parciales, las ecuaciones de Maxwell.
Especificar el estado del campo significa establecer el valor de 6 funciones
(3 para coordenadas del campo eléctrico y 3 para cada coordenada
el magnético) en todo el espacio.
Pese a eso puede generalizarse el concepto de lagrangiana y tener una lagrangina para campos.
Para campos tanto clásicos como cuánticos.
Y a partir de ella obtener ecuaciones de Euler Lagrange.
Esto es interesante en mecánica clásica para varios propósitos.
Por ejemplo permite obtener una lagrangiana, y posteriormente una hamiltonianna, para ecuaciones especialmente relevantes, como por ejemplo la ecuación e koterveg- de Vries, y usar las técnicas de sistemas hamiltonianos para obtener información sobre ella.
Un último comentario.
En el formalismo lagrangiano las variables son las coordenadas
y las velocidades.
El conjunto de los valores posibles de esas variables tiene una estructura geométrica (de variedad diferenciable) y se conoce como espacio
de configuraciones.
DINÁMICA HAMILTONIANA
El formalismo de Lagrange es muy útil en mecánica clásica por la facilidad
que aporta para formular las ecuaciones de los sitemas físicos.
También es muy útil en teoria cuántica de campos (teoría de cuàntica relativista para entendernos) pués proporciona un formalismo covariante,
es decir, que se transforme de una manera “sencilla” bajo cambios
de coordenadas, de los campos relativistas.
Sin embargo tanto en cuántica (especialmente cuántica no relativista)
como en mecánica clásica, es especialmente útil el formalismo hamiltoniano.
Tenemos las ecuaciones de Newton que pueden formularse como una sencilla ecuación diferencial F=ma, en el formalismo lagrangiano,
en el hamiltoniano que vamos a ver ahora, luego esta el de Hamilton Jacobi.
Todos estos pueden hacerse con herramientas matemáticas más o menos básicas (haciendo un poco la vista gorda con cosas como el cálculo de variaciones y la transformada de Legendre que aparecerá un poco más tarde). Estos formalismos son todos del siglo XIX.
Sin embargo en el siglo XX surgió la matemática moderna, la topologia,
la geometría diferencial de variedades y muchas otras cosas.
Usando gemoetría en variedades, se puede reformular la mecánica clásica
en forma más sofisticada.
Por ejemplo el conjunto de valores permitidos para las variables generalizadas de un sistema clásico forman una variedad, conocida
cómo espacio de configuraciones.
Sí se pasa al formalismo hamiltoniano se puede hablar de un
“espacio de fases”.
Bueno, vamos ya con el formalismo de Hamilton.
El truco es el siguiente.
Tenemos que una cantidad muy importante en mecánica es el momento
de una partícula.
En física básica se pone simplemente
1.
Una de las cosas para las que es útil el lagrangiano es para supervisar
las simetrías del sistema.
Se puede ver que si el sistema es invariante bajo traslaciones
hay una cantidad invariante, que tiene la forma:
2.
Sí se evalúa eso para el lagrangiano de una partícula libre
3.
que recordemos era la energía cinética de una partícula
se ve que coincide con la expresión 1.
Ciertamente el lagrangiano de una partícula libre es invariante
bajo traslaciones (es decir, si cambiamos la coordenada q
a otra cualquiera q’=q+ a).
Así pués se opta por que se defina siempre el momento de una partícula mediante esa expresión incluso sí el lagrangiano
(y por tanto el sistema físico que describe) no es invariante bajo traslaciones
Una vez tenemos definido el momento ya podemos ir al hamiltoniano.
Nuestro objetivo es expresar el sistema físico en términos de las variables posición y momento p y q, en vez de en término de las variables posición
y velocidad: q y dq/dt (que he denotado en las ecuaciones anteriores
con una q, con un punto encima).
El espacio de valores posibles para esas variables será una estructura geométrica (variedad) que se conoce cómo espacio de fases.
Tenemos que pasar de las variables (q,dq/dt,t) a las (q,p,t) dónde dq/dt y p se relacionan mediante 2.
Un problema de ese tipo, donde una variable se relaciona con otra mediante su derivada y queremos hacer un cambio de variables entre ambas se resuelve mediante lo que se conoce cómo transformada de Legendre.
No explicaré los detalles de la misma, un tanto aburridos,
y pondré el resultado final:
4.
Para que H dependa sólo de q y p debemos expresar el lagrangiano
en términos de (q,p,t).
Es decir, debemos invertir la relación 2 para obtener la p en función
de la dq/dt.
Esta inversión es algo que a veces se puede hacer y a veces no.
En la mayoría de sistemas clásicos si se puede.
Sin embargo no siempre ocurre.
Por ejemplo en la lagrangiana de una partícula relativista no puede hacerse.
Estos sistemas se llaman singulares y son muy interesantes.
Por ejemplo en teoría cuántica de campos aparecen.
El caso más sencillo es el campo electromagnético.
Pero vamos a ocuparnos de los sistemas donde sí se puede hacer esta inversión, que son muchos y muy útiles.
Una vez hemos hecho esta inversión ya tenemos el hamiltoniano que estábamos buscando.
Recordemos que el Lagrangiano tenía una interpretación muy sencilla para sistemas típicos.
Era :
5.
Es decir, la resta de la energía cinética menos la potencial.
¿Existe alguna interpretación similar para el Hamiltoniano? Pues sí.
El Hamiltoniano es la energía total:
6.
Llegados a este punto uno puede preguntarse si realmente hacia falta tanto formalismo si después de todo ya sabemos calcular la energía
total de una partícula.
Basta calcularla y expresarla en términos del momento en vez de en términos de la velocidad.
La cuestión es que la prescripción de que la energía es T + V
es cierta para sistemas sencillos.
En general, en un sistema lagrangiano, la energía es un concepto que
surge por el hecho de que el sistema sea invariante bajo transformaciones temporales.
Se puede demostrar que eso implica que en la dinámica lagrangiana
hay una cantidad conservada cuya expresión es:
Puede observarse la similitud entre esta expresión y la expresión (4)
para el hamiltoniano.
Claramente el hamiltoniano es la energía expresada en términos
de los momentos.
Aunque no es relevante para lo que vamos a discutir aquí es interesante hacer notar que el momento lineal esta relacionado con la invarianza
del hamiltoniano bajo traslaciones y el momento angular con la invarianza bajo rotaciones.
En general cuando la acción es invariante bajo un grupo de transformaciones va a existir una cantidad conservada que vendrá dada por el teorema
de Noether.
Con propósito ilustrativo, daremos un ejemplo explicito:
el hamiltoniano para un sistema sencillo, el del oscilador armónico.
7.
En dinámica newtoniana y lagrangiana tenemos ecuaciones del movimiento.
Necesitamos algún modo de obtnerlas en nuestro formalismo hamiltoniano.
Esto se hace mediante las ecuaciones de Hamilton:
8.
Al igual que pasa con el caso de Lagrange aunque aparezcan términos con derivadas parciales del hamiltniano las ecuaciones de movimiento para las partículas son ecuaciones diferenciales ordinarias.
Pongo el ejemplo de cómo resultarían para el oscilador armonico:
9.
Esto es un sistema de dos ecuaciones diferenciales ordinarias de primer orden equivalente a una ecuación diferencial de segundo orden, cómo se esperaría.
Una aclaración válida para este formalismo y el del lagrangiano.
He puesto, normalmente, las expresiones para el caso de una sola variable generalizada q.
Por supuesto puede generalizarse de manera obvia para el caso en que en el sistema haya varias partículas , en general N partículas, con coordenadas
qi donde i=1,2..,N.
SIMETRÍAS E INVARIANTES: TEOREMA DE NOETHER
Se ha comentado la relación entre invarianzas de la acción y la existencia de cantidades conservadas. Veamos esto de manera formal.
Primero aclaremos que se entiende como una simetría.
Para ello introduciremos algunos conceptos.
Empezamos por definir un flujo.
Supongamos que tenemos un sistema dinámico cuyo espacio de fases
es una variedad M.
Un flujo (completo) es es un mapa diferenciable uniparamétrico que cumple:
(a)
(b)
dónde
La propiedad b nos indica que un flujo debe tener la propiedad de grupo.
Un flujo va a poder asociarse a un campo vectorial
mediante la expresión:
Se dirá que un flujo tiene una simetría si existe un difeomorfismo
S : M -> M
(ver apéndice de variedades para la definición de difeomorfismo)
que cumple:
Equipados con estas definiciones diremos que un lagrangiano es invariante (equivariante) bajo un difeomorfismo S si cumple:
(Aquí DS(x) indica el jacobiano del difemormismo)
En el caso particular en el que el difemorfismo depende de un parámetro,
tenemos el teorema de Noether (formulado en 1915)
Teorema de Noether. Supongas L(x,v,t) es
es un difeomorfismo dependiente de manera suave en el parámetro
s y L es invariante por h.
Entonces las ecuaciones de Euler-Lagrange para L
tienen un invariante:
Esta versión del teorema de Noether es adecuada para simetrías externas,
es decir , simetría de la acción bajo cambios en las coordenadas (difeomorfismos).
puede verificarse que si el difemormorfismo es una traslación el invariante
de Noether sería el momento lineal, si fuera una rotación sería el momento angular y si fuese una traslación temporal el invariante seria la energía.
En física de partículas es posiblemente más común el caso en que las simetrías son simetrías internas.
En ese caso estamos hablando de lagrangianos de campo (densidades lagrangianas) y la acción es invariante bajo transformaciones internaas
que transforman unos campos en otros.
Para los propósitos tratados aquí no interesa principlamente la versión
que hemos expuesto del teorema de Noether.
CORCHETES DE POISSON
Se pueden reescribir las ecuaciones de Hamilton (8) en una forma
más compacta:
10. dónde
Aquí representa un punto en el espacio de fase J,
llamada matriz de Poisson, es una 2n x 2n matriz antisimétrica e I
es la nxn matriz identidad.
Es interesante señalar que cumple la propiedad
con lo que en cierto modo J generaliza a la unidad imaginaria, i.
Nos va a interesar conocer cuanto cambia una función escalar, F,
en el espacio de fases.
Para ello usaremos (10) y la regla de la cadena
.
Esto puede escribirse de modo compacto como:
11.
dónde es el corchete (canónico) de Poisson y está definido por:
12.
Usando el corchete de Poisson podemos escribir las ecuaciones d
e movimiento en la forma:
13.
Podemos usar l expresión anterior como punto de partida para una clase más genérica de sistemas dinámicos, los sistema de Poisson.
Mantenemos 13 como la ecuación de movimiento, pero ampliamos la definición de los corchetes de Poisson.
La clave está en que exigimos que cumplan una serie de propiedades (antisimetría, bilinealidad, derivación e identidad de Jacobi)
que cumplen los corchetes canónicos pero no exigimos que provengan
de un sistema hamiltoniano.
La definición concreta es la siguiente:
Un corchete de Poisson { , } es un operador bilineal
en un par de funciones en que cumple:
i) Antisimetría: {F,G}= -{G,F}
ii) Bilinealidad: {F + G, H}={F,H} +
{G,H} y {aF, bG}=ab{F,G}
iii) Derivación: {FH, G}= F{H,G} + H{F,G}
iv) Identidad de Jacboi:
{F,{G,H}}+ {G, {H,F}} + {H, F,G}}=0
Se puede probar que la existencia de un corchete de Poisson implica
la existencia una matriz J antisimétrica que cumple la igualdad 12.
Hay, no obstante, una diferencia.
En el caso standard J es no singular.
En el caso general si puede ser singular.
Un caso sencillo dónde utilizar la dinámica de Poisson simplifica
las cosas nos lo darían las ecuaciones de Euler para un cuerpo rígido.
Si escribimos la ecuaciones en términos de las velocidades angulares, momentos angulares y ejes de inercia obtendríamos tres ecuaciones.
Esto significa que el espacio de fases sería de dimensión impar y no correspondería a un sistema hamiltoniano,
pero si sería un sistema poissoniano.
No se darán los detalles, que pueden ser consultados
en la bibliografía correspondiente.
INVARIANTE DE POINCARÉ
El propósito de esta breve sección es introducir unos conceptos
que se usarán mas adelante, cuando se analice el caos en sistemas
de dos dimensiones.
También servirá para ilustrar el porque es relevante el uso de formas diferenciales y, en general, conceptos de gemoetría diferencial,
incluso si no se pretende trabajar de una manera sofisticada
como pueda ser la mecánica simpléctica en variedades.
Empezamos con unas definiciones:
-Bucle: Es, sencillamente, un mapa de un círculo en un espacio topológico.
Dicho de otro modo, una curva cerrada.
Técnicamente, en el caso de que el espacio topológico fuese la variedad espacio de fase de un sistema hamiltoniano, tendría la siguiente caracterización:
14.
dónde q(1)=q(0).
Nótese que aquí, aparte de q y p, hemos considerado que el espacio
de fases tiene una variable adicional, t.
Esto es adecuado para hamiltonianos que dependen del tiempo.
Estos no suponen grandes modificaciones a lo visto antes.
El espacio de fases de estos hamiltonianos se denomina
espacio de fases extendido.
– Acción de bucle (loop action):
Sea
un bucle en el espacio de fases extendido.
Entonces la acción de bucle se define como:
El teorema de Poincaré afirma que esa acción es invariante
bajo el flujo hamiltoniano.
El flujo hamiltoniano es un caso particular de el flujo asociado a un vector f.
En particular f tiene la expresión
No se va a dar la demostración de esta afirmación.
No obstante es importante señalar que depende en la versión n-dimensional (osea, en variedades) del teorema de Stokes.
Para empezar la simple definición de integrales de línea, rotacionales
y demás elementos del cálculo vectorial requieren para su generalización
a n-dimensiones de las formas diferenciales.
SISTEMAS HAMILTONIANOS LINEALIZADOS
En teoría de sistemas dinámicos los puntos de equilibrio
juegan un papel clave.
En dinámica hamiltoniana un punto de equilibrio z*
se corresponde con un punto crítico de la función hamiltoniana,
i.e. .
Linealizamos el hamiltoniano en un entorno de z y nos da:
15.
Aquí es el hessiano de H:
16.
La constante H(z*) no parecería en la ecs. de movimiento.
Eso nos permite escribir dichas ecuaciones en la forma:
17:
dónde J es la matriz de Poisson y
Una matriz de la forma K=JS, con se llama matriz hamiltoninana.
Estas matrices forman grupo bajo adicción: Si K1 y K2 son matrices hamiltonianas también lo es K1 + K2.
Este grupo es el grupo simpléctico sp(2n) (más concretamente
el álgebra de Lie del grupo simpléctico).
Una solución formal a la ecuación 17 es .
La exponencial exp(tK) es una matriz simpléctica.
El conjunto de matrices simplécticas tiene estructura de grupo bajo
la multiplicación de matices y se denota como SP(2n).
En términos de formas diferenciales se puede caracterizar el grupo simpléctico como el grupo de formas antisimétricas de rango máximo,
aunque no se entrará en detalles de esa forma de definirlo.
Nótese que aunque las matrices simplécticas forman grupo el producto
de dos matrices hamiltonianas no es necesariamente una matriz hamiltoniana.
No obstante vamos a poder definir una operación interna para el conjunto
de las matrices hamiltonianas. i y H1, H2 son matrices hamiltoninas cuadráticas también lo es H3.
En particular se puede ver que dónde S3= S1JS2 – S2JS1.
De ese modo K3=JS3 es una matriz hamiltoniana y:
18.
dónde [ , ] es el conmutador [A,B]=AB – BA.
Es está estructura adicional la que convierte el grupo sp(2n)
en una álgebra de Lie.
En general un álgebra de Lie es un grupo aditivo con la operación adicional
del paréntesis de Lie [ , ] que satisface las identidades de Jacobi.
Si uno exponencia los elementos de un álgebra de Lie uno obtiene un grupo
de Lie (el álgebra son los generadores infinitesimales del grupo)
Una introducción sencilla a los elementos más básicos de la teoria de grupos puede consultarse en :
Teoría de grupos y física I: conceptos básicos
La estabilidad del equilibrio de un sistema hamiltoniano esta gobernada por los autovalores de su matriz hamiltoniana.
El primer resultado importante es el siguiente teorema,
debido a Poincaré y Lyapunov:
Terorema..
Si es un autovalor de una matriz hamiltoniana K,
entonces también lo es su opuesto.
Además el polinomio característico
de K es par.
De este teorema pueden obtenerse bastantes conclusiones
Si una matriz hamiltoniana es real su polinomio característico también
lo será y, por consiguiente, si tiene un autovalor complejo el conjugado
de ese autovalor también será autovalor.
Otra consecuencia es que un equilibrio hamiltoniano no puede
ser nunca asisntóticamente estable pues eso requeriria que todos
los autovalores tuviesen partes reales negativas
(y el teorema dice que si hay un autovalor negativo su opuesto positivo también será autovalor).
En el caso particular en que H es real hay cuatro posibles
agrupaciones de los autovalores:
a) Hiperbólico (punto de silla):
es real.
Por tanto hay un par de autovalors (, )
b) Elíptico (centro): es imaginario.
Entonces y (iw, – iw) forman un par.
c)Cuarteto de Krein:
es complejo con .
En ese caso hay un cuarteto de autovalores .
d) Parabólico: Un autovalor doble .
Esto puede generalizarse al teorema:
Teorema (autovalores hamiltonianos).
Si tiene un autovalor de multiplicidad k entonces
es también un autovalor de multiplicidad k.
Además, la multiplicidad del autovalor 0 (si está presente)
es par.
COLISIONES DE KREIN
En este apartado se analiza la cuestión de como cambia la estabilidad
de un sistema hamiltoniano cuando se modifica un parámetro.
Estamos por tanto ante lo que podría considerarse el estudio
de las bifurcaciones par un sistema hamiltoniano.
Supongamos que el equilibrio es linealmente estable,
de modo que los autovalores empiezan en el eje imaginario.
Según varia el parámetro los autovalores cambian de manera continua.
Además no pueden dejar el eje a menos que dos autovalores
colisionen pues según habíamos visto si es autovalor su opuesto también
lo es. Según eso hay dos modos en que un punto elíptico pueda perder
la estabilidad.
Uno es que un par de autovalores colisionen al valor 0 (caso parabólico)
y continúen a autovalores reales (caso hiperbólico).
El otro es que un par colisione con otro par
dando lugar a un cuarteto de Krein.
Es este segundo caso lo que se conoce como una colisión de Krein.
La cuestión a tratar es si puede cada colisión de Krein llevar
a una inestabilidad.
La respuesta es negativa. La inestabilidad es posible solamente
si ciertas condiciones en una cantidad, la signatura de Krein,
se satisfacen.
Vamos a definir dicha signatura.
Partimos del hecho que a cada matriz hamiltoniana K,
le corresponde un hamiltoniano lineal:
El valor de H es independiente del tiempo a lo largo
de su flujo y puede usarse para la definició buscada.
Signatura de Krein.
Supongase que
tiene un par de autovalores no nulos
con autovectores correspondientes .
Sea
cualquier vector en el subespacio invariante por .
La signatura de Krein de es:
Es sencillo verificar que la definición no depende del autovector elegido.
La signatura de Krein es, esencialmente, la dirección de rotación
en el plano canónico. Veamos esto ilustrado en un ejemplo.
Sea de modo que .
El autovector para es y
Por tanto
que corresponde a la dirección de rotación.
Una vez tenemos las nociones necesarias podemos enunciar el teorema.
Teorema de colisiones de Krein
Sea K(s) una matriz hamiltoniana que depende en un parámetro s.
Supóngase que para s < 0 tal que K tiene autovalores imaginarios distintos que son no nulos para .
Supongase que estos autovalores colisionan en s = 0.
Si todos los autovalores que colisionan tienen la misma signatura de Krein entonces existe un tal que los 2d autovalores permanecen
en el eje imaginario para .
La interpretación de este teorema es que un equilibrio cuyos autovalores ejecutan una colisión de Krein con signatura mezclada habitualmente
dan lugar a una órbita periódica.
Por analogía con la correspondiente bifurcación genérica esto
se llama una bifurcación de Hamilton-Hopf.
INTEGRABILIDAD
Hay varias nociones posibles del concepto de integrabilidad.
Aquí se usará la que, posiblemente, sea la mas aceptada.
Recoremos que una integral de movimiento es una F que cumple:
Integrabilidad de Liouville Un sistema hamiltoniano de n grados de libertad
es integrable si existen n integrales F_i
que son indpendientes en casi todo punto y que están en involución,
En esta definición la independencia de ls F’s se entiende como
que sus vectores gradientes sean linealmente independientes.
El resultado central es el siguiente teorema:
Teorema (Liouville-Arnold)
Supongase que H es integrable de Liouville.
Para sea
una superficie de nivel de las integrales en la cuál
los gradientes son linealmente independientes.
Entonce es un subvariedad invariante.
Sí es compacto y conexo es difeomoro al n-toro.
En este caso hay n coordenadas angulares
tal que el flujo Hamiltoniano es conjugado a
para algún vector de frecuencia
Este teorema enlaza con resultados clásicos
y bien conocidos de la teoría de sistemas hamiltonianos,
las variables de acción-ángulo y la ecuación de Hamilton-Jacobi.
Se dice que un sistema hamiltoniano integrable está en forma
de variables acción ángulo si depende solo en variables momento,
es decir:
En estas variables las ecuaciones de movimiento son:
Estas ecuaciones son triviales de integrar.
Por supuesto la complicación es encontrar cuales son esas variables
acción-angulo.
Uno debe partir de el sistema hamiltoniano expresado en las variable
“físicas” y encontrar una trasformación canónica de variables que nos lleve
a esas variables acción-ángulo.
Aunque interesantes los detalles de transformaciones canónicas
y la ecuación de Hamilton-Jacobi tiene un interés tangencial
para lo que sigue y no se darán.
Un último comentario, cuando se trató el tema de los solitones
se mencionaba que la ecuación de KdV era un sistema completamente integrable.
Esa ecuación puede plantearse desde una formulación Hamiltoniana
-para sistemas continuos- y el criterio de integrabilidad expuesto aquí
puede aplicarse sin grandes cambios.
Cuando se hablaba de que la ecuación era completamente integrable podía entenderse en este sentido.
SISTEMAS CASI INTEGRABLES: TEOREMA KAM
Consideremos la perturbación de un hamiltoniano integrable:
19.
En el caso integrable, para las trayectorias se apoyan
en toro invariante definido como las superficies de nivel
de las variables de acción.
En cada toro la dinámica está dada por las correspondiente ecuaciones
que tienen el flujo:
Las órbitas resultantes dependen de la relaciones entre los
componentes del vector frecuencia.
El caso más sencillo se da cuando con y .
En este caso la órbita es periódica con periodo
El caso contrario se da cuando w es inconmensurable,
i.e..
En este caso el flujo es cuasiperiódico y transitivo, es decir,
cada órbita es densa en el toro.
Entender porque esto es así es relativamente sencillo intuitivamente.
Ver los detalles detrás de estas afirmaciones requieren unos conceptos elementales de teoría de números, que no se incluirán aquí.
Entre estos dos casos extremos están los vectores de frecuencias conmensuradas: w tales que hay al menos un vector entero no nulo m
con w.m=0.
El conjunto de soluciones enteras de esta ecuación son llamadas el módulo resonante.
En este caso las órbitas son densas en toros de dimensión mas baja.
En general los toros resonantes de un sistema integrable pueden
ser muy afectados por una perturbación.
No obstante uno de los resultados mas importantes de la dinámica Hamiltoniana, descubierto por Kolmogrov en 1953
es que un número “suficiente” de toros son preservados.
Este resultado fué formalizado posteriormente por Vladimir I. Arnold (1963) para sistemas analíticos y por Jürgen Moser para sistemas
suficientemente suaves (1962).
Las frecuencias relevantes para la teoría KAM
serán las frecuencias diofánticas:
Frecuencias diofánticas. Un vector w es diofántico si hay un c > 0
y un tal que
Aquí es un conjunto de cantor cuando y .
Además, cuando c->0 la medida de este conjunto de cantor se aproxima
a 1 (Nota: esta es una afirmación no trivial, pero no se dará aquí una demostración de la misma).
Un concepto clave en la teoría de Kolmogrov es la identificación de toros invariantes por sus frecuencias.
En lugar de intentar entender la órbita de un punto particular en el espacio
de fases se elige un vector de frecuencia diofántica w y se sigue el toro
con esa frecuencia según crece .
La cuestión es entonces si el flujo del sistem perturbado tiene un toro invaante n-dimensional con una frecuencia dada para algún .
Una respuesta a esa cuestión es la siguiente versión del teorema KAM.
Teorema KAM (versión de Pöschel, 1982)..
Supóngase que es analítico real y no degenerado y supongase
que con r 0 $ tal que si el sistema 19 tiene
un toro invariante para todo
en el rango del mapa de frecuencia .
Similarmente, si una superficie de energía es isoenergéticamente
no degenerada entonces hay toros cuyas frecuencias son proporcionales
a cada en el rango de .
En ambos casos la dinámica en cada toro es suavemente conjugada
al flujo del hamiltoniano.
Una consecuencia de este teorema enlaza con lo que se comentaba
cuando se hablaba de solitones.
Allí se mencionaba que experimentos numéricos con el sistema FPU
(Fermi, Pasta, Ulam) mostraban que, en contra de lo esperado,
no se producía una termalización de la energía entre los diferentes modos
de vibración de una cadena no lineal.
Aunque la aplicación directa del teorema KAM a ese sistema es compleja
se puede intuir de él que la termalización no es una propiedad típica
de los sistemas hamiltonianos completamente integrables débilmente perturbados porque la mayoría de ls trayectorias están confinadas
en toros n-dimensionales y no se esparcen densamente a través
de la superficie de energía.
CAOS EN SISTEMAS HAMILTONIANOS DE DOS DIMENSIONES
Vamos a analizar algunos aspectos de sistemas con dos grados de libertad (i.e. dos posiciones mas dos momentos).
Nuestra principal herramienta serán las secciones de Poincaré.
Recuérdese que la filosofía de las secciones de Poincaré es estudiar
la intersección de las trayectorias (en el caso hamiltoniano serán órbitas
en el espacio de fases) de un sistema con una superficie
fija que las intersecta.
De ese modo podemos analizar algunos aspectos de una dinámica continua mediante un sistema discreto, el mapa de Poincaré.
En concreto la definición del mapa de Poincaré es la siguiente:
20.
dónde el primer tiempo para el que la órbita de retorna a S.
Cuando S es una superficie bidimensional la dinámica de P es fácil
de visualizar numéricamente.
Sin embargo en nuestro caso la construcción de una sección se complica
por el hecho de que la superficie tridimensional de energía
,
es tipicamente no euclidea (un plano/hiperplano), y es, por contra,
una variedad.. Por ejemplo, para el oscilador armónico n-dimensional
es el conjunto:
que, cuando es, topologicamente, la esfera
Para construir una sección de Poincaré para un sistema bidimensional
nos gustaría elegir una superficie bidimensional en que es una sección global para el flujo.
Recuérdese que una superficie es una sección si el campo vectorial asociado al flujo no es tangente en ningún punto a S y es una sección global
si la órbita de cada punto cruza S y retorna.
Frecuentemente es difícil demostrar que una sección es global
y es necesario recurrir a la intuición.
Por ejemplo, en un sistema de osciladores no lineales suele suceder
que las variables oscilan en torno a cero y una posible elección para una sección es la superficie para la cuál una de esas configuraciones se anula:
Si nos centramos en una superficie de energía una candidata a sección
es la intersección .
Sin embargo esta superficie no es, tipicamente, transversa a S.
Para mejorar este problema la sección debe ser un subconjunto
de al cuál el campo vectorial es transverso.
Como el campo vectorial será transverso a cuando
. podemos pues, elegir como sección:
21.
Las secciones de Poincaré de la forma 21 normalmente son visualizadas proyectándolas sobre el par de de variables .
Una de las razones porque este es un buen sistema de coordenadas para
S es que el mapa resultante preserva áreas.
Esto se sigue de la conservación del bucle de Poincaré .
Sea un bucle en la sección tal que cada punto en tiene energía E.
Cómo y la integral de una diferencial exacta en torno
a un bucle es cero este término de la acción se anula.
Para la sección s tiene y se reduce a
y así la acción de bucle se convierte en:
que es simplemente el área encerrada por en el plano .
Cómo S[L] esta preservada a lo largo de ls trayectorias la acción transformada L’=P(L) también se apoya en la sección y tiene la misma acción.
Por tanto el mapa de Poincaré preserva el área.
Consecuentemente el estudio de la dinámica de los sistemas hamiltonianos en dos dimensiones en superficies de energía (sin puntos críticos) esencialmente se reduce al estudio de mapas que preservan el área.
Usando las técnicas de este apartado y algún lenguaje de programación
es fácil construir un mapa de Poincaré para el sistema de Henon-Heiles
que nos informa sobre el movimiento de las estrellas en una galaxia.
Ese sistema se corresponde con el potencial:
Cuando E= 1/2 las órbitas parecen cubrir círculos, indicando
que están en algún toro invariante.
También parece haber un punto de silla de “periodo tres” y algunos puntos
en las variedades estables e inestables de equilibrio.
Cuando la energía se incrementa a E=!/8 las trayectorias cercanas
al punto de silla ya no aparentan apoyarse en curvas suaves.
Esto es una indicación de que los toros KAM han sido destruidos
y reemplazados por dinámica caótica
(conjetura que podría respaldarse calculando los exponentes de Liapunov
y verificando que exhiben dependencia sensible a las condiciones iniciales)
Sección de Poincaré para el hamiltoniano de Henon-Heiles para
el caso no caótico (E=0.02):
Sección de Poincaré para el hamiltoniano de Henon-Heiles para
el caso cuasi-caótico (E=1/8):
APÉNDICE 1: Conceptos topológicos
Las nociones de continuidad en cálculo se suelen dar en términos
de epsilones y deltas, pero eso en esencia es hablar de entornos abiertos
de la recta real, y el caso es que si uno lo analiza uno usa sólo 3 propiedades básicas de los abiertos.
Una topología es recoger esas tres propiedades y convertirlas en axiomas.
Sea X un conjunto y sea Y={Xn} una colección finita o infinita
de subconjuntos de X, X e Y forman un espacio topológico
si i. el conjunto vacío e Y pertenecen a Y
ii. Cualquier subcolección finita o infinita {Zn} de Xn tiene la propiedad
de que la unión de todos los Zn pertenece a Y
iii. Cualquier subcolección finita {Zm} de los Xn tiene la propiedad
de que su intersección pertenece a Y.
Los Xn son los abiertos de esa topología.
Conviene hacer una pequeña distinción, que no siempre se explica
en los libros de topologia/geometría para físicos.
Los intervalos epsilón y deltas del cálculo de una varible,
y sus generalizaciones elmentales, los discos abiertos de radio epsilon/delta en el plano, las bolas abiertas en tres dimensiones, etc,
son un tipo especial de abiertos, pero, ciertamente, hay conjuntos
que son abiertos y no son de esa forma.
Esos subconjuntos especiales de la topología forman una base de la misma.
Una vez que tenemos definidos los abiertos cualquier definición que hagamos en términos de esos conjuntos va a ser una definición topológica.
Por ejemplo se dice que un conjunto es cerrado cuando su complementario
es abierto.
Otra noción topologica de interés es la de compacidad.
Intuitivamente en un compacto va a ser un conjunto cerrado
y acotado (la distancia entre dos cualesquiera de sus puntos es finita).
Pero esa no es realmente la definición de compacidad.
Se puede usar esa definición (de hecho en algunos sitios se hace así)
pues el teorema de Heine-Borel nos dice que todo conjunto cerrado
y acotado en es compacto.
Pero como dije una noción topológica debe darse en términos de los abiertos.
Vamos a ello.
Primero debo explicar la idea de recubrimiento.
Dado un subconjunto, S, de un espacio topológico,
X un recubrimiento de S es una colección de conjuntos abiertos
Rn tal que S esta incluido en la unión de todos los Rn.
Se dirá que un conjunto es compacto cuando todo recubrimiento
del mismo admite un subrecubrimiento (un cubrimiento con un un subconjunto de la colección recubridora) finito.
La noción de compacidad es útil por muy diversos motivos.
Una es que, por el teorema de Heine-Borel, podemos caracterizar
los cerrados y acotados, un tipo de conjuntos interesante,
mediante esta propiedad.
Otro aspecto útil es que si queremos demostrar algo sobre un compacto
nos basta demostrarlo sobre cualquier elemento del conjunto recubridor
y asegurarnos de que la propiedad demostrada no se pierde cuando tenemos una unión finita de esos elementos.
Es importante hacer notar que como en un compacto todos
los recubrimientos admiten subrecubrimiento finito podemos elegir los Rn
de la forma que mas nos convenga.
Antes de seguir con tecnicismo haré una aclaración importante.
Quienes hayan leído en algún libro de divulgación sobre topología lo más probable es que se la hayan definido algo así como
“geometría de las superficies de goma”,
o el estudio de las propiedades que se mantienen bajo operaciones
de estirar/contraer y de identificar.
Eso se parece muy poco a lo que he explicado hasta ahora.
El caso es que conviene distinguir dos aspectos de la topologia,
Por un lado esta la topologia de conjuntos.
Al generalizar las propiedades de los abiertos usados en las definiciones
de cálculo nos permite formalizar el mismo y extenderlo a espacios abstractos.
Esto es útil para dar un marco común a todas las ramas de las matemáticas.
Estas nociones de topologia de conjuntos son fundamentales
en las definiciones que se hacen en conceptos relacionados con teoría
de la medida, análisis funcional, etc.
Y por supuesto también son esenciales en definiciones de geometría
(tanto diferencial cómo algebraica).
Por otro lado tenemos otro aspecto, que enlaza con la definición
dada en los textos divulgativos.
Nos va a interesar poder conocer cuando dos espacios son indistinguibles entre si a partir exclusivamente de sus propiedades topológicas.
Pues bien, esos espacios equivalentes topologicamente se corresponden
a la noción intuitiva de estirar/contraer e identificar.
Enseguida veremos la definición técnica de estos conceptos.
Había dicho que la introducción de una topología permitía definir el concepto de función continua de forma abstracta. Vamos con esa definición.
Una función f:M->N entre dos espacios topológicos se dice continua
si la imagen inversa de un abierto de N es un abierto de M.
Sólo con esto se puede dar una definición rigurosa de la idea de que dos espacios son deformables el uno en el otro, es decir topológicamente equivalentes.
Dos espacios son topologicamente equivalentes, homeomorfos,
cuando existe entre ellos una aplicación continua y con inversa continua,
tal aplicación se dice que es un homeomorfismo.
(Normalmente se añade la condición de que esa aplicación sea biyectiva)
Lo interesante de esto es que si dos espacios son homeomorfos
van a tener las mismas propiedades topológicas.
Una noción topológica comúnmente usada es la de espacio conexo, intuitivamente un espacio es conexo cuando
no esta hecho de varias partes separadas.
Por ejemplo R 2 sería conexo, un círculo en el plano sería conexo.
Sin embargo dos círculos sin puntos en común, por ejemplo círculos
de radio uno con centro en (-5.0) y (0,5) no lo serían.
La definición rigurosa de este concepto es:
Un espacio topológico X es conexo si no puede ser escrito
cómo X = X1 U X2 dónde X1,X2 son ambos abiertos
y X1 Int X2 = Conjunto vacío.
Es fácil probar, no lo haré, que esta definición es “topológica”,
es decir que dos espacios, uno conexo y otro no, no pueden
ser homeomorfos.
Hay más definiciones referentes a la conectividad, conexo por arcos, etc.
Pero con esta nos sirve.
Vamos ahora con unos conceptos mas especializados
que usaremos en el apéndice de variedades.
– Haussdorf:
Un espacio X es Hussdorff si para cada x,
y pertenecientes a X con hay entornos U, V de x e
y respectivamente tales que la intersección de U y V es nula.
- Compacidad local:
Un espacio X es localmente compacto si cada punto de X
tiene un entorno compacto.
-Separabilidad.
Un espacio topológico se dice que es separable
si tiene una base contable de entornos
– Paracompacticidad:
Un espacio es paracompacto si es Haussdorff
y cada recubrimiento abierto admite un subrecubrimiento localmente finito
APENDICE 2: Formas diferenciales
Una forma diferencial puede ser entendida como un operador multilineal antisimétrico definido sobre un espacio vectorial.
Dicho de otra forma sería un elemento del producto tensorial antisimetrizado de elementos del espacio dual a un vectorial.
Para los propósitos de este apéndice no es necesario dar
los detalles algebraicos.
Lo interesante es conectar esta definición algebraica
con una definición operativa.
Si consideramos que tenemos una familia de espacios vectoriales dependientes de unos parámetros continuos podemos tener una forma diferencial definida algebraicamente en cada punto.
El caso mas sencillo es considerado como espacio afín.
Es decir, que en cada punto de tenemos un espacio vectorial copia
del espacio vectorial en el origen.
De ese modo podemos tener una forma diferencial, en el sentido algebraico, en cada punto.
Esto define una forma diferencial en .
Una 0-forma sería simplemente una función.
Si la forma pertenece al espacio dual será una 1-forma.
Si pertenece al producto tensorial antisimetrizado
de dos espacios duales sería una 2-forma, etc.
En en la práctica esto redunda en una construcción bastante sencilla,
como a que puede leerse en, por ejemplo, el libro de Marsden-Tromba
de cálculo vectorial.
Así una 1-forma es una expresión formal del estilo:
dónde las son funciones arbitrarias de las coordenadas
y las dxison una notación para indicar la base del espacio
dual de la base canónica de
Una n- forma sería una expresión del estilo:
En esta expresión se ha introducido un elemento nuevo, el producto exterior
.
Este producto es una notación para el producto tensorial
antisimetriado de espacios vectoriales.
También puede definirse de otro modo, mediante unas propiedades sencillas:
Sea { ei } una base de un espacio vectorial V (o de su dual),
que a su vez es un espacio vectorial).
Un producto exterior, o producto cuña, de dos tales generadores
se define exigiendo las reglas de cómputo (relaciones) siguientes:
1.
2.
A partir de esa propiedad de producto exterior de las bases puede,
por linealidad, obtenerse el producto exterior de dos formas arbitrarias.
En , dado que el dual de coincide con el mismo, puede identificarse
una 1-forma con un campo vectorial.
Y el producto exterior de dos 1-formas puede verificarse que coincide formalmente con el producto vectorial de dos vectores.
Eso sí, el producto vectorial de una n-forma y una m-forma es una
(n+m) forma.
Por tanto el “producto vectorial” de dos 1-formas es una 2-forma,
y, por tanto, un objeto diferente a los “vectores” de los que era producto.
Sin embargo la identificación funciona porque una 1-forma arbitraria
tiene 3 componentes y una 2-forma también
(ya que los productos exteriores se anulan)
y al tener la misma dimensión, 3, pueden considerarse como “vectores”
de dimensión 3.
El otro elemento importante de las formas diferenciales
es la derivada exterior.
Esta transforma un n-forma diferencial en una (n+1)-forma diferencial.
La definición formal no es especialmente complicada.
No obstante a efectos prácticos nos basta con la siguiente
definición intuitiva:
Vamos a enlazar la derivada exterior con los elementos bien conocidos
del cálculo vectorial.
Si f es una 0-forma (recordemos, una función ordinaria)
su derivada exterior es simplemente:
Podemos, como antes, identificar esa 1-forma con un campo vectorial.
De ese modo la derivada exterior de una 0-forma coincide con el gradiente
de una función.
Para el caso de una 1-forma tenemos que su derivada exterior es:
Si interpretamos la 1-forma como un campo vectorial y la 2-forma también como campo vectorial puede verse fácilmente que la derivada exterior coincide con el rotacional.
Así mismo podría verse con sencillez que la derivada exterior
de una 2-forma identificada a un campo vectorial nos daría la divergencia
de ese campo. Nótese que la derivada de una 2-forma es una 3-forma.
La 3-formas en tienen una úrica componente no nula y,
por consiguiente, pueden identificarse con funciones.
Hemos tratado n-formas en .
En una variedad arbitraria tendríamos que en cada punto de la variedad
va a estar definido su espacio tangente, que será un espacio vectorial.
Este espacio a su vez tendrá su espacio dual.
De ese modo podemos trasladar la maquinaria de las formas diferenciales
en a formas en variedades arbitrarias.
La única circunstancia que da una complejidad extra es que tenemos mapas de la variedad a y hay que lleva cuenta de esos mapas.
Los detalles necesarios sobre variedades se tratan en su propio apéndice.
APÉNDICE 3: Variedades
La idea de una variedad es generalizar el concepto de las curvas y superficies del cálculo vectorial y de la geometría diferencial clásica,
en particular de los conceptos de métrica y curvatura en superficies.
El primer modo en que se llevo a cabo esa tarea fué mediante el cálculo tensorial de Levi-civitta.
Sin embargo el cálculo tensorial clásico es poco riguroso, y tiene limitaciones en cuanto a los objetos geométricos que pueden definirse por esos medios.
Por ese motivo se creó la teoría de variedades diferenciales,
que usa elementos de topologia de conjuntos y álgebra multilineal.
Una variedad va a ser algo que localmente es como y que puede obtenerse pegando esos trozos de manera adecuada.
Un aspecto importante a tener en cuenta en la definición será que definiremos mapas de la variedad en y no como en la teoría de curvas
y superficies dónde se hace un mapa de (curvas)
y (superficies) a subconjuntos de .
Esto permite definir la variedad sin hacer referencia a un espacio
en el que este embebida.
Tras estos preliminares vamos con las definiciones.
Un variedad es un espacio Haussdorf separable tal que en cada punto
hay un mapa d-dimensional.
La dimensión de la variedad es la dimensión de las cartas.
Por tanto hay una colección de cartas
tal que
es un recubrimiento de la variedad.
Esta colección de mapas es llamada un atlas.
Un trozo de la variedad puede quedar cubierto por dos o mas mapas.
Se debe cumplir que las funciones de paso de un atlas a otro
(basicamente un cambio de variable) sean continuas.
Si en la definición anterior sustituimos la condición de continuidad
por la condición de derivabilidad infinita
obtenemos una variedad diferenciable.
Es importante (y sorprendente) notar que puede haber variedades
que admitien distintas estructuras diferenciables.
Es decir, son iguales como variedades, pero diferentes
com variedades diferenciables.
BIBLIOGRAFÍA
Dinámica convencional:
1. Landau y Lipshitz: “Mecánica” (vol 1 del curso de física teória).
editorial reverté.
2. S. Goldstein. Mecánica clásica.
Dinámica analítica para matemáticos :
1. VI. Arnold: Métodos matemáticos de la mecánica clásica (editorial paraninfo) [incluye una demostración del teorema KAM]
Dinámica Hamiltoniana y caos.
1. James D. Meiss Differential Dynamical Systems (ed Siam: mathematical modeling and computation)
Topología:
1. Munkres: Topology
2. Amstrong: topología básica (editorial reverté)
Geometria diferencial (formas diferenciales y variedades):
1. Michael Spivak : Calculo en variedades (ed Reverté) [introductorio]
2. Boothby: Diferentiable manifolds
2. Richard L. Bisho- Samuel I. Goldberg: Tensor Analysis on manifolds (editoral Dover).
[El último capítulo contiene una breve introducción a la dinámica hamiltoniana en variedads- geometría simpléctica-.
Las definiciones de este capítulo son mas rigurosas que el de Arnold, con lo cuál es un buen complemento]
No hay comentarios:
Publicar un comentario