miércoles, 1 de marzo de 2017

Una guía compacta a la compactificación...

En su momento escribí una entrada sobre la forma más básica de compactificación, la teoría de Kaluz-Klein. Si se quieren más detalles (en especial cómo aparece, y que papel juega el dilatón) de los que vienen en esa entrada se puede consultar, por ejemplo, la correspondiente entrada de la wikipedia inglesa Kaluza–Klein theory.

Bien, voy a intentar avanzar un poco más respecto a lo que ahí viene y dar una idea un poco global de cómo es el proceso de compactificación. Al intentar dar una idea global dejaré de lado bastantes detalles técnicos, pero tampoco va a ser a nivel de un libro de divulgación para legos sino más bien en la línea de la entrada anterior.
El siguiente paso, una vez tenemos una teoría guague abeliana U(1), es intentar obtener una teoría no abeliana, para lo cual vamos a necesitar mas de una dimensión adicional, usando la notación de la entrada anterior descomponemos la métrica en la forma:

g_{MN}= \begin{pmatrix} \eta_{\mu \nu } & \\ & g_{\alpha \beta (y))} \end{pmatrix}

Recordemos que M y N son índices que recorren todas las dimensiones, mu y nu recorren sólo las 4 dimensiones usuales, eta es la métrica de Minkowsky e y denota las coordenadas en las dimensiones extra.
Asumimos que esta métrica es una solución a las ecuaciones de Einstein para el vacío R{MN}=0 o bien, sí permitimos una constante cosmológica

R_{MN} - \frac{1}{2}Rg_{MN} + \Lambda g_{MN}=0

En el caso de una sóla dimensión adicional la compactificación era única, convertir el eje y en un círculo, ahora tenemos mucha más libertad. 
Sí tenemos D dimensiones extra y plegamos cada uno de los ejes coordenados en un círculo tendremos un D-toro (recordemos que el 2-toro tiene forma de “donut” hueco, o de neumático) y, en ése caso, la gravedad de las dimensiones extra se verá cómo una teoría gauge [U(1)]^D. Más adelante explicaré cómo se obtiene ese D-toro, pero de momento entendamos bien lo que hemos hecho. Cuando las dimensiones extra están descompactificadas ahí opera la simetría del grupo de difeormorfismos de esas dimensiones extra, que es muy grande.
 Al reducir esas dimensiones a la forma de un D-toro esa simetría de difeomorfismos se ha visto muy reducida, a ese [U(1)]^D. Digamos que el grupo de isommetrías de la dimensión compactificada se ve cómo una teoría gauge con esa misma simetría en las 4 dimensiones.

Cuando las dimensiones extra se compactifican a una geometría más compleja que un D-toro y no es nada sencillo ver las isometrías de ese espacio. Voy a entrar un poco en algunos detalles matemáticos, elementales, pero que no siempre se comentan en los libros de física sobre el proceso de compactificación (sobre los detalles de las isomerías hablaré en otra entrada). Lo primero es el origen del término “compactificar”. Hace referencia al concepto topológico de espacio compacto. 

Lo escribí en la entrada que dediqué a un libro sobre la conjetura de Poincaré pero lo reescribiré aquí, para hacer ésto más autocontenido.

Las nociones de continuidad en cálculo se suelen dar en términos de epsilones y deltas, pero eso en esencia es hablar de entornos abiertos de la recta real, y el caso es que si uno lo analiza uno usa sólo 3 propiedades básicas de los abiertos.
Una topología es recoger esas tres propiedades y convertirlas en axiomas.
Sea X un conjunto y sea Y={Xn} una colección finita o infinita de subconjuntos de X, X e Y forman un espacio topológico si
i. el conjunto vacío e Y pertenecen a Y

ii. Cualquier subcolección finita o infinita {Zn} de Xn tiene la propiedad de que la unión de todos los Zn pertenece a Y

iii. Cualquier subcolección finita {Zm} de los Xn tiene la propiedad de que su intersección pertenece a Y.


Los Xn son los abiertos de esa topología. Conviene hacer una pequeña distinción, que no siempre se explica en los libros de topología/geometría para físicos. Los intervalos epsilón y deltas del cálculo de una varible, y sus generalizaciones elementales, los discos abiertos de radio epsilon/delta en el plano, las bolas abiertas en tres dimensiones, etc, son un tipo especial de abiertos, pero, ciertamente, hay conjuntos que son abiertos y no son de esa forma. Esos subconjuntos especiales de la topología forman una base de la misma.

Bien, una vez que tenemos definidos los abiertos cualquier definición que hagamos en términos de esos conjuntos va a ser una definición topológica.

 Por ejemplo se dice que un conjunto es cerrado cuando su complementario es abierto. Otra noción topológica de interés es la de compacidad. Intuitivamente en \mathbb{R} un compacto va a ser un conjunto cerrado y acotado (la distancia entre dos cualesquiera de sus puntos es finita).
Pero como dije una noción topológica debe darse en términos de los abiertos.

 Vamos a ello.
Primero debo explicar la idea de recubrimiento. Dado un subconjunto, S, de un espacio topológico, X un recubrimiento de S es una colección de conjuntos abiertos Rn tal que S está incluido en la unión de todos los Rn. Se dirá que un conjunto es compacto cuando todo recubrimiento del mismo admite un subrecubrimiento (un cubrimiento con un un subconjunto de la colección recubridora)finito. La noción de compacidad es útil por muy diversos motivos. Una es que, por el teorema de Heine-Borel, podemos caracterizar los cerrados y acotados, un tipo de conjuntos interesante, mediante 
esta propiedad.

Otro aspecto útil es que si queremos demostrar algo sobre un compacto nos basta demostrarlo sobre cualquier elemento del conjunto recubridor y asegurarnos de que la propiedad demostrada no se pierde cuando tenemos una unión finita de esos elementos. Es importante hacer notar que como en un compacto todos los recubrimientos admiten subrecubrimiento finito podemos elegir los Rn de la forma que más nos convenga.

Tan importante es la noción de compacidad que la mayoría de resultados topológicos van a estar referidos a espacios compactos.
 Los no compactos son mucho más difíciles de estudiar.

Entonces la idea de la compactificación es coger un conjunto que no es compacto, por ejemplo la recta real, que no es acotada, y por tanto, según el teorema de Heine-Borel no es compacta, y convertirla en un conjunto compacto por un procedimiento bien definido, en este caso identificar los dos puntos del infinito a la “izquierda” y “derecha”. 

Si tomamos un folio e identificamos dos lados opuestos obtenemos la superficie de un cilindro (sin las tapas). Sí en ese cilindro resultante identificamos los dos círculos opuestos obtenemos un 2-toro.


ES interesante que, en el caso anterior, tanto el folio (un rectángulo con sus lados incluidos) como el toro son compactos así que aquí no estaría del todo justificado el término “compactificación”. Pero sí nos imaginamos que el rectángulo es infinito, es decir, es el plano real, entonces sí estamos convirtiendo ese plano, que no es compacto, en un toro, que es compacto. Realmente el proceso de compactificación de un rectángulo aunque no cambia la compacidad del rectángulo si cambia otras propiedades topológicas del mismo, por ejemplo la conectividad por arcos (la explico en la entrada sobre la conjetura de Poincaré). 

El rectángulo es contractible (cualquier círculo que dibuje dentro del mismo se puede contraer a un punto sin salirse del rectángulo) mientras que en el toro no es así (de hecho hay dos familias de círculos que no pueden contraerse a un punto). No daré más detalles sobre ésto ahora (en el post sobre la conjetura de Poincaré comento más al respecto) pero no deja de ser un hecho interesante, que tiene muchas implicaciones en topología y en física.

Uno, bastante conocido, es que, en teoría de cuerdas, en particular para la cuerda heterótica compactificada en un Calabi-Yau, el número de generaciones de partículas es igual a la mitad de la característica de Euler-Poincaré de el espacio de compactificación 

Esta constante apareció por primera vez en el trabajo sobre teoría grafos que hizo Euler para, entre otras cosas, resolver el problema de los puentes de Königsberg. Para un grafo la expresión de la característica de Euler es \chi= C - A +V donde C, A y V son los números de caras, de aristas y de vértices respectivamente.

Cómo una superficie puede ser triangulada se puede definir esa constante en términos de la constante de Euler de la triangulación de la misma. No obstante, para una superficie, o una variedad n-dimensional, es mejor definir la constante en términos de los grupos de homología o cohomología. 

Primero se define el n-ésimo número de Betti  como el rango del n-ésimo grupo de homología. En términos de esos números la característica de ÇEuler es la suma alternada de los números de Betti, es decir, tiene la expresión \chi =\sum_{i=0}^{n} (-1)^{i}b_i. También, mediante la dualidad de Poincaré, se podría escribir en términos de grupos de cohomología, así cómo en otras formas más sofisticadas, pero éso ya sería irnos demasiado del propósito de la entrada.
Otro ejemplo es el uso de “Wilson loops” (o Wilson lines), osea, holonomías sobre círculos, que cuando el espacio no es conexo por arcos pueden usarse para reducir la simetría de un grupo gauge de una manera diferente al mecanismo de Higgs. Este procedimiento se usa de manera habitual en la fenomenología de la cuerda heterótica.

Por cierto, el plano real puede ser compactificado de manera natural de más de una forma. Un proceso muy típico sería la compactificación por un punto, el punto del infinito, es decir, cogemos todos las regiones del plano que “están en el infinito” y las convertimos en un punto. 

El espacio resultante sería una esfera. Es un proceso algo más complejo de visualizar, y para ayudar a entenderlo vendría bien que explicase la proyección estereográfica, pero espero que con esta imagen os hagáis una idea aproximada.


Al inicio de la entrada mencioné que iba a explicar cómo surgía el D-toro al compactificar cada una de las dimensiones extra a un círculo. Hasta ahora he explicado cómo obtener el toro identificando los lados opuestos de un cuadrado, pero ahí no se ve cómo surge a partir de círculos.

Bien, éso requiere el concepto de producto cartesiano de dos espacios topológicos. Sí tenemos dos espacios topológicos X1 y X2 su producto cartesiano es el conjunto X1xX2={x1,x2}, es decir, el conjunto de pares donde el primer par, x1, es un elemento del conjunto X1 y el segundo, x2, es un elemento del conjunto X”. 

A partir de una base de las topología de X1 y X2 se puede formar una base de la topología producto tomando el conjunto de todos los pares ordenados posibles formados con los elementos base. En caso de que no se haya entendido muy bien este párrafo tampoco pasa nada, que es bastante fácil de visualizar la explicación que daré ahora.

Si tenemos dos círculos S^1 y S^2, el toro es el producto cartesiano de esos dos círculos T^2=S^1xS^2. Intuitivamente podemos pensar que cogemos uno de los círculos y cada uno de los puntos de ese círculo lo hacemos girar 360 grados alrededor de otro círculo perpendicular. 

Se puede visualizar en el siguiente dibujo bastante bien la idea.

Obviamente un D-toro es la generalización de esa idea, osea, un producto cartesiano de D círculos, cada uno de los cuales se obtiene al compactificar cada uno de los ejes coordenados.

lunes, 9 de enero de 2017

Hoguera y lumbre


La desnudé con cierta cobardía 
(no siempre la pasión es temeraria) 
y huérfana de abrigo y necesaria, 
como una flor tardía, 
se deshojó en mis manos, geografía 
de espiga  alimentaria, 
carnal y hospitalaria 
bajo la luz pacífica del día. 
Y fuimos el amor de tantos modos, 
en todos 
los espacios concebidos. 
Ardiente corazón, hoguera y lumbre 
de roja certidumbre, 
igual que dos metales encendidos.

Ahora


La vida es esta vida que no vuelve
y que dejas pasar sin pena alguna
suponiendo tal vez que habrá otra hora
para quebrar el muro del silencio.
El tiempo es un albur y no hay mañana
que alivie el porvenir de tu tristeza,
si callas será tarde para todo
y hay cosas que no tienen salvamento.
Ni presagios de amor ni vaticinios,
ni llanto ni conjuros
que valgan el azar de un imposible.
Sólo cuenta la vida que hoy declaras,
el pulso con que lates.
No esperes otro tiempo más que éste.

Del libro de poemas Oceanario.

El número de quarks en un protón

dibujo20170103-the-secret-life-of-quarks-william-detmold-mit-kitp

Un protón está formado por incontables quarks y antiquarks, pero la diferencia entre estos números infinitos es exactamente tres. El número de quarks en un protón con momento P se calcula como N(q) = ∫ q(x) dx = ∞, donde q(x) es la fracción de quarks con momento x P, para x < 1. De forma similar se define el número de antiquarks, N(q̅) = ∞. Se dice que un protón está formado por tres quarks porque N(q) − N(q̅) = 3.
Un protón está caracterizado por distribuciones de partones para quarks, fq(x) para q = u, d, s, …, antiquarks f(x) para q̅ = u̅, d̅, s̅, …, y gluones fg(x). Todas ellas divergen para x→0, por ello se suele dibujar la distribución x f(x), o similar. Además, estas funciones dependen de la energía a la que se explora el protón mediante colisiones a energía E = Q², por lo que se suele dibujar la distribución x f(x,Q²), como ilustro más abajo.
Recomiendo la charla KITP de Will Detmold (MIT), “The Secret Life of Quarks,” Video/Slides (31 Aug 2016). En el estudio de las colisiones del LHC Run 1 se recomienda usar las distribuciones de partones MSTW 2008, por el artículo de A.D. Martin, W.J. Stirling, R.S. Thorne, G. Watt, “Parton distributions for the LHC,” Eur. Phys. J. C 63: 189-285 (2009), doi: 10.1140/epjc/s10052-009-1072-5, arXiv:0901.0002 [hep-ph]. Para el LHC Run 2 se usan también las del The NNPDF Collaboration (Richard D. Ball et al.), “Parton distributions for the LHC Run II,” J. High Energ. Phys. 2015: 40 (2015), doi: 10.1007/JHEP04(2015)040arXiv:1410.8849 [hep-ph].
dibujo20161230-parton-distribution-functions-pdfs-for-the-lhc-mstw-2008
Estas figuras MSTW 2008 muestran la distribución de partones x f(x,Q²), para Q²=10 GeV² (izquierda) y Q²=100² GeV² (derecha). Se basan en estudios experimentales mediante dispersión inelástica profunda (DIS), colisiones de electrones, neutrinos y muones contra protones, combinadas con estimaciones teóricas mediante QCD en el retículo. Su energía debe ser alta para que puedan penetrar dentro del protón y explorar su interior. Por ello la determinación experimental de estas distribuciones de partones para Q² → 1 GeV² raya lo imposible. Hay que extrapolar las obtenidas para Q² mucho mayor.
Por cierto, como puedes ver en estas figuras, la distribución de gluones crece mucho más rápido que las distribuciones de quarks, por ello se muestra el valor dividido por diez (g/10). Además, puedes observar que para Q²=10 GeV², el protón contiene cuatro especies de quarks y antiquarks, los esperados up (u) y down (d), pero también strange (s) y charm (c). Para Q²→1 GeV² dominan los quarks u, d y s, cuyas masas son muy pequeñas comparadas con la del protón (1 GeV); recuerda que la masa del quark c es un poco mayor de 1 GeV, luego la producción de pares quark-antiquark charm está fuertemente suprimida en un quark en reposo.
dibujo20170103-proton-quark-antiquark-gluon-composition-quantum-diaries
Esta entrada ha sido motivada por el intento de Rafael @rafasith de dibujar una versión tridimensional físicamente realista del contenido de quarks, antiquarks y gluones de un protón. Su idea original es obtener una versión tridimensional de esta imagen. No es labor fácil. Máxime si se pretenden usar las distribuciones de partones para obtener una estructura fractal realista.
dibujo20170103-fractal-quarks-gluones-proton-3d-by-rafael-rafasith
Esta imagen muestra los primeros progresos de Rafael en su titánica labor. Publicaré (con su permiso) la versión final que logre… sin prisas, pero sin pausa.

La teoría BCS no explica la superconductividad del bismuto a 0,5 mK

dibujo20170106-dc-susceptibility-function-temperature-at-different-magnetic-fields-sciencemag-org-355-6320-52

Para sorpresa de los expertos, el bismuto es superconductor con una temperatura crítica de 0,53 mK a presión ambiente. Siendo un semimetal su superconductividad no se puede explicar con la teoría de Bardeen, Cooper y Schrieffer (BCS). La aproximación adiabática usada en esta teoría no es aplicable al bismuto. Hay extensiones no adiabáticas, pero no aplican bien a los cristales 3D de bismuto. Una gran oportunidad para los físicos teóricos más intrépidos.
La teoría BCS se basa en la formación de pares de Cooper, parejas de electrones cuya atracción mutua mediada por fonones es débil, la hipótesis adiabática. La energía típica de los fonones (energía de Debye ℏωD) debe ser mucho más pequeña que la energía de los electrones (energía de Fermi EF). En el bismuto a baja temperatura (por debajo de 10 mK) ambas energías son comparables, en concreto, EF ≈ 25 meV y ℏωD ≈ 12 meV. Un valor de ℏωD / EF ≈ 0,5 exige usar una extensión no adiabática de la teoría BCS. Ya se han publicado varias, pero fallan en el caso del bismuto por su baja densidad de portadores (n ≈ 3 × 1017 cm–3 a 4,2 K) y la baja masa efectiva de dichos portadores (meff ≈ 10–3 me, donde me es la masa del electrón libre). Un terreno abonado para los teóricos.
El artículo es Om Prakash, Anil Kumar, …, S. Ramakrishnan, “Evidence for bulk superconductivity in pure bismuth single crystals at ambient pressure,” Science 355: 52-55 (06 Jan 2017), doi: 10.1126/science.aaf8227; más información divulgativa en Kamran Behnia, “The fragility of distant Cooper pairs,” Science 355: 26-27 (06 Jan 2017), doi: 10.1126/science.aal2516.
dibujo20170106-pairing-in-fermion-systems-sciencemag-org-355-6320-26
En 1911 se descubrió que el mercurio es superconductor a baja temperatura. Comparte esta propiedad con otros metales. La explicación cuántica de este fenómeno se logró en 1957 (Premio Nobel de Física en 1972). Los electrones se emparejan en bosones que a baja temperatura forman un condensado de Bose-Einstein. Los pares de Cooper están ligados por una débil interacción atractiva mediada por las vibraciones (fonones) de la red cristalina. Esta teoría falla a la hora de describir la superconductividad de alta temperatura en cupratos y pnicturos. Se sabe que en ellos se forman pares de Cooper que se condensan, pero la teoría BCS no describe la interacción que los liga.
dibujo20170106-hexagonal-crystal-structure-of-bismuth-and-laue-diffraction-pattern-sciencemag-org-355-6320-52
El bismuto tiene número atómico 83, peso atómico 209 y está en el grupo V de la tabla periódica, como el arsénico y el antimonio. Un cristal 3D (material en “bulk”) presenta una estructura cristalina romboédrica, pero también puede ser descrita como hexagonal con seis átomos por celda unitaria. El bismuto es un semimetal, como otros elementos del grupo V; simplificando, tiene exactamente el mismo número de electrones libres que de huecos. Gracias a ello muestra propiedades atractivas para muchas aplicaciones; por ejemplo, muestra una gran magnetorresistencia y se usa mucho en sensores de campo magnético.

dibujo20170106-sketch-electron-like-carriers-and-the-crystal-lattice-in-bismuth-sciencemag-org-355-6320-26
El descubrimiento de un nuevo superconductor en el que falla la teoría BCS podría ser un hito histórico. Siendo el bismuto un cristal mucho más sencillo que los cupratos y pnicturos, la teoría que explique en detalle su superconductividad parece más fácil de alcanzar. Quizás dicha teoría ayude a desvelar el misterio de los superconductores de alta temperatura. En su defecto, nos conformaremos con una nueva familia de materiales superconductores.

El tetraquark más bello

dibujo20170109-four-bottom-quarks-held-together-by-the-qcd-strong-force-flip-tanedo-particlebites

El tetraquark de mayor masa está formado por cuatro quarks bottom (o beauty). El quark bottom es el quark de mayor masa que puede formar hadrones, ya que la vida media del quark top es demasiado corta. El tetraquark bb̅bb̅ se desintegra en una pareja de los mesones más bellos, los úpsilon Υ (bb̅). La masa del estado fundamental de este tetraquark se estima en 18,69 ± 0,03 GeV, un valor similar (aunque un poco menor) que la suma de las masas de cuatro quarks bottom (su masa 1S es 4,66 ± 0,04 GeV según el PDG 2016).
Calcular la masa de un tetraquark tipo quarkonio (hadrón formado por quarks del mismo sabor) no es fácil; se usan métodos de Montecarlo y aproximaciones efectivas no relativistas. Este año se han publicado varias estimaciones. Por fortuna sus valores son compatibles entre sí. Más aún, el resultado es menor que el doble de la masa del mesón Υ(1S), que es 9,46030±0,00026 (PDG 2016), es decir, 18,92 GeV. La búsqueda de este tetraquark en el LHC se basa en su desintegración en cuatro leptones con energía total entre 18 y 19 GeV. Este proceso ocurre vía dos mesones úpsilon, Υ(1S)Υ(1S) → ℓ++, siendo la señal más clara la desintegración en cuatro muones.
Una de las sorpresas más agradables del año 2017 sería la observación del tetraquark más bello usando colisiones del LHC Run 2 obtenidas en 2016. El artículo con la estimación de masa es Yang Bai, Sida Lu, James Osborne, “Beauty-full Tetraquarks,” arXiv:1612.00012 [hep-ph]; cálculos similares en Wei Chen, Hua-Xing Chen, …, Shi-Lin Zhu, “Hunting for exotic doubly hidden-charm/bottom tetraquark states,” arXiv:1605.01647 [hep-ph], y Marek Karliner, Jonathan L. Rosner, Shmuel Nussinov, “Production and Decay of (Q Q Qbar Qbar) States,” arXiv:1611.00348 [hep-ph].

martes, 22 de noviembre de 2016

Introducción a la supersimetría...

Resultado de imagen para super simetría

Mucho se ha hablado de supercuerdas.
 Esta palabra consta de dos partes. 
La parte de “cuerdas” más o menos es algo que todo el mundo puede entender en el sentido de que todo el mundo tiene la idea intuitiva de lo que es una cuerda. 
La parte “rara” es la de super.

El prefijo “super” se usó mucho en física en una época.
 Los casos más destacados probablemente sean los superconductores y la supersimetría. Pese a la coincidencia en el nombre no tiene nada que ver uno con otro. Vamos a ver, inevitablemente muy por encima, cómo avanza el tópico, qué es la supersimetría, SUSY para los amigos.

La motivación inicial para esta teoría provino del problema de la jerarquía. 

¿Cuál es este problema? 

En el marco de las teorías de gran unificación, hay una gran diferencia de energía entre la escala de la ruptura de la simetría electrodébil y la de la de la ruptura de la teoría unificada(SU(5) o la que fuera).
Si uno se mete en los tecnicismos del mecanismo de Highs esto requiere un ajuste muy fino de parámetros. Y esto es algo que siempre desagrada.
Una forma de solventarlo es la existencia de cierto tipo de campos escalares de masa 0. Pero no hay ninguna buena razón para esto. 
Lo que si hay es una buena razón para la existencia de fermiones quirales
 (o quasiquirales), el hecho de que se hayan observado (son los neutrinos). 
Estos fermiones quirales tiene masa 0. Si hubiera de algún modo una partícula de spin 0 ligada a ellos tendríamos resuelto el problema pués esa partícula debería tener masa 0.

Para esto uno busca que pueda existir una simetría que transforme bosones en fermiones, y viceversa. denotémosla por Q, i.e.

1.  Q|F>=|B>  Q|B>=|F>

Para ilustrar algunas propiedades clave de la supersimetría cojamos un ejemplo muy sencillo basado en un oscilador armónico cuántico que incluya bosones a y fermiones b, que satisfacen las relaciones de conmutación (y anticonmutación):

2.  [a, a^+]=1, [a,a]=[a^+,a^+]=0
\{b, b^+\}=1, \{b,b\}=\{b^+,b^+\}=0

Dónde, por si alguien no lo conoce {x,y}=x.y +y.x.
El hamiltoniano para este sistema es:

3. H=1/2w_B\{a^+,a\} + 1/2w_F[b^+,b]

Siendo un oscilador armónico sabemos cuál va a ser su energía:

4. E=w_B(n_B + 1/2) + w_F(n_F - 1/2)= w(n_F + n_F)

Dónde en el último paso hemos asumido que las w fermiónica y bosónica sean iguales.

Se puede ver fácilmente que que cada estado tiene una degeneración con el mismo número de grados de libertad bosónicos y fermiónicos.

Esto indica que debe haber algún tipo de (super)simetría en el hamiltoniano. 
Y en efecto, uno puede comprobar que los operadores:

5. Q=\sqrt{2w}a^+b,   Q^+=\sqrt{2w}b^+a

conmutan con el hamiltoniano, es decir:
6. [Q,H]=[Q+,H]=0

Obviamente los operadores Q y Q+ claramente intercambian un fermión por un bosón y viceversa.

Además tenemos que:

7. {Q,Q+}=2H

Pués bien, esta es la esencia de los operadores de SUSY expresados para un caso sencillo de mecánica cuántica no relativista. Pero claramente estamos interesados en mecánica cuántica relativista, i.e. teoría de campos.
Dejaré para otra ocasión cómo se realiza el álgebra SUSY en teoría de campos. Señalar solamente una característica específica de la SUSY no mencionada hasta ahora que tiene un cierto interés.

Desde que empezó a surgir el interés por las teorías gauge, puede que incluso antes, se planteó la cuestión de si había alguna forma de tener un grupo que mezclara las simetrías internas con la simetría del grupo de Poincaré. Coleman y Mandula en 1967 demostraron que bajo supuestos muy generales esto era imposible.

Pués bien, la superismetría escapa este teorema “no-go” pues aparte del los generadores P_{\nu} (momento lineal) y M_{\mu\nu} (momento angular) y Ta (generadores del grupo gauge) incluye los generadores de la supersimetría.

De hecho estos estarán relacionados con el operador momento por la relación:

8. 

Por cierto, para los posibles lectores de exactas decir que en términos matemáticos la supersimetría tiene la estructura de una álgebra de Lie graduada.

Bien, este ha sido un primer contacto con la supersimetría. 

En la siguiente entrada hablaré del modelo supersimétrico más sencillo, el de Wess-Zumino.

miércoles, 16 de noviembre de 2016

¿Es la energía oscura realmente un misterio?


El Universo está en expansión y la expansión parece estar acelerándose. Esta aceleración se explica a menudo usando una substancia misteriosa, la “energía oscura.”
 Podría decir que no hay ningún misterio en esta aceleración cósmica. La constante cosmológica de Einstein la explica perfectamente. La aceleración cósmica es predicha por la teoría de la relatividad general cuando se toma una constante cosmológica no nula, Λ. El modelo cosmológico estándar, con materia oscura y constante cosmológica, denotado por las siglas (ΛCDM), es “aceptado por casi todos los cosmólogos como la mejor descripción actual de los datos disponibles.” Hay una confusión histórica y conceptual profunda entre quienes creen que el término Λ requiere una explicación a base de una misteriosa “energía oscura.” 
Planteamos una respuesta a las tres objeciones (prejuicios) más habituales hacia la constante cosmológica (Λ).
La primera objeción se conoce como “Λ es el error de Einstein.” 
Se afirma que Λ fue rechazada por los relativistas en general, y de hecho por el propio Einstein, que la calificó como más tarde como su “mayor error.” 
Pero muchos olvidan que la “metedura de pata” de Einstein no fue Λ, sino constatar que, con o sin Λ, el Universo no es estático. La teoría de la relatividad general predice la expansión cósmica y el error de Einstein fue no darse cuenta. La constante cosmológica Λ no es un añadido a la teoría de Einstein para dar cuenta de las observaciones, sino una parte integrante y natural de la misma. Su naturaleza y su escala (valor) no son ni más ni menos misteriosas que los de cualquiera de las constantes que aparecen en nuestras teorías físicas fundamentales.
La segunda objeción se denomina el “problema de la coincidencia cósmica.” 
Los datos cosmológicos indican que nos ha tocado vivir en un “corta” fase de la historia del universo, durante la cual las contribuciones a la dinámica cósmica de la materia y de Λ son comparables en magnitud. Esta “coincidencia improbable” se presenta como un argumento en contra de la hipótesis Λ en el modelo ΛCDM. Ahora bien, si miramos la evolución del universo en función del tiempo cósmico en una escala lineal, en lugar de la habitual escala logarítmica, se puede ver que esta “corta” fase dura la mitad de la vida del Universo hasta el momento actual y por tanto no hay ninguna “improbable” coincidencia.
 En cualquier caso, no debemos asumir que vivimos en un lugar del Universo y en un momento completamente aleatorios. La densidad a nuestro alrededor, por ejemplo, está muy lejos de la densidad cósmica promedio.
La tercera y última ojeción se refiere a la “energía del vacío.” La teoría cuántica de campos (QFT ) predice una energía del vacío que se suma a la fuerza cósmica debida a Λ (similar al efecto del vacío sobre las líneas espectrales de los elementos atómicos, las llamadas correcciones radiactivas). 
Esta contribución a la hipotética Λ es mucho mayor que la Λ observada.
 Esta discrepancia es un rompecabezas abierto en la QFT en presencia de gravedad. Pero es un error conceptual confundir Λ con la energía del vacío de la QFT . 
La constante cosmológica Λ no se puede confundir con nuestra incomprensión de la energía del vacío en QFT o con cualquier otra substancia misteriosa .
 La constante Λ es una especie de “curvatura del punto cero,” una fuerza de repulsión causada por la dinámica intrínseca del espaciotiempo. Buscarle cinco patas al gato no nos lleva a entender por qué el gato tiene cuatro patas.
 El modelo ΛCDM debe continuar siendo explorado mediante los experimentos y se deben seguir ofreciendo ideas alternativas que lo complementen, pero en su opinión, y en la de muchos físicos relativistas, es algo engañoso afirmar que la energía oscura es un “gran misterio.” Es un grave error hablar de una “substancia” al referirse a la “energía oscura,” es como afirmar que si nos apetece salir a la calle para dar una vuelta es porque una “misteriosa fuerza oscura” nos empuja a hacerlo.
El modelo ΛCDM es el modelo cosmológico más completo, más exitoso y con mayor poder predictivo que jamás ha sido diseñado. Un modelo capaz de dar cuenta de un enorme número de observaciones astronómicas y cosmológicas. En la actualidad, no existen observaciones discrepantes con el modelo ΛCDM. Pero su éxito tiene un precio. Solo el 5% de la masa-energía total del Universo observable es comprendida por dicho modelo. El 95% del Universo es “oscuro,” en el sentido de que no lo entendemos completamente. El lado oscuro incluye el 25% de la masa-energía total, en forma de la llamada materia oscura que conforme la estructura de las galaxias y de los cúmulos galácticos, y el 70% en forma de energía oscura, responsable de la aceleración de la expansión cósmica.
En mi opinión, una constante cosmológica es un misterio en el sentido de que es “algo cuyo origen no se entiende o está más allá de la comprensión actual.” 
La constante cosmológica de Einstein Λ es la explicación más simple para la energía oscura: se ajusta a los datos adecuadamente y no hay razón para excluir su presencia, sin embargo, su valor para explicar las observaciones está “más allá de [nuestro ] entendimiento.” Si la constante cosmológica es la explicación para la energía oscura, Λdeberán tener un valor de (1028 cm)-2, pero la longitud 1028 cm es absurdamente grande y por el momento no está relacionada de ningún modo conocido con ninguna escala de longitud observable en la naturaleza. Todos los intentos de explicar esta nueva escala de longitud han sido infructuosos en muchos órdenes de magnitud.
No podemos conformarnos con añadir una constante al modelo que permita reproducir las observaciones, debemos encontrar una explicación para dicha constante y para su valor. Todas las constantes de los modelos cosmológicos deben estar basadas en las leyes de la naturaleza que comprendemos. Ahora mismo, la magnitud de la constante cosmológica no se puede explicar por ninguna teoría física conocida. 
Por ello es un misterio aún por resolver: “el misterio de la energía oscura.”
 “no es un error pensar que para cada fenómeno físico complejo hay una explicación simple.” 
Sería un error quedarnos satisfechos con la constante cosmológica sólo porque es una explicación sencilla a la aceleración de la expansión cósmica.

La materia oscura emerge de la energía oscura en la gravedad entrópica de Verlinde... (36826)

dibujo20161112-two-possible-quantum-entanglement-patterns-of-de-sitter-space-with-a-one-sided-horizon-arxiv-org

El físico Erik Verlinde es famoso por su teoría de la gravedad emergente a partir de una fuerza entrópica. La energía oscura sería una especie de éter gravitacional, un medio elástico que emerge del entrelazamiento entre grados de libertad cuánticos. Más aún, la materia oscura sería resultado de la interacción de la energía oscura con la materia bariónica. Su teoría permite derivar la teoría MOND de Milgrom a escala galáctica. Teoría que se modifica a escala de supercúmulos y a escala cosmológica para ajustarse a las observaciones que la refutan. Verlinde afirma que su teoría explica por qué la materia oscura representa el 75% de la materia total (y la materia ordinaria el 25%).
La nueva teoría tiene muchos problemas cosmológicos y contradice lo que sabemos sobre la evolución del universo. La energía oscura debería haber dominado el universo siempre, en contra de las observaciones del fondo cósmico de microdondas; cuando se formó no era relevante y, de hecho, entonces la proporción entre la materia oscura y la materia total no era del 25%. Tampoco explica la expansión del universo, ni tiene cabida la inflación cósmica. El artículo de Verlinde, como ya es habitual en él, está repleto de divagaciones (él las llama conjeturas) y resulta difícil seguir sus ideas altamente especulativas. Aún así, está generando mucho eco mediático.
Verlinde afirma que le ha costado seis años de investigaciones escribir este artículo, producto de los 2 millones de euros que logró con un proyecto ERC Advanced Grant y de los 2,5 millones de euros de un Premio Spinoza. Su trabajo está inspirado artículos previos de Knopp, Ng, Takeuchi y otros que deducen la teoría MOND a partir de su gravedad entrópica. Sin embargo, ofrece nuevas ideas que han surgido de las discusiones sobre los muros de fuego (firewalls) en agujeros negros. Si eres físico te recomiendo leer las 51 páginas de Erik P. Verlinde, “Emergent Gravity and the Dark Universe,” arXiv:1611.02269[hep-th].
Más información loando a Verlinde en “Una nueva teoría de la gravedad podría explicar la materia oscura,” Europa Press, 08 Nov 2011; Imane Rachidi, “Una nueva teoría sobre la gravedad podría explicar la materia oscura,” El Mundo, 08 Nov 2016. O en inglés en, por ejemplo, Jaccqueline de Vree, “New Theory of Gravity Might Explain Dark Mattter,” Delta Institute for Theoretical Physics, 08 Nov 2016; Ian Johnston, “Stunning new theory of gravity suggests there’s no such thing as dark matter,” Independent, 08 Nov 2016.
[PS 13 Nov 2016] En blogs recomiendo leer a Luboš Motl, “Verlinde’s de Sitter MOND is highly incomplete, to say the least. The Dutch media brutally overhype a generic speculative idea,” TRF, 12 Nov 2016.
dibujo20161112-ads-left-entanglement-entropy-obeys-area-law-but-in-ds-right-there-is-additional-volume-law-arxiv-org
La entropía de Bekenstein–Hawking para los agujeros negros (que son espaciotiempo curvado pero vacío) sugiere que el espaciotiempo (y la gravitación) emergen de una formulación holográfica. Todos los grados de libertad cuánticos que describen un volumen de espaciotiempo se encuentran concentrados en el área de su superficie. La gravedad entrópica de Verlinde usa esta idea para deducir las ecuaciones de Einstein linealizadas (hay que recurrir ad hoc a la backreaction, que la gravedad gravita, para obtener las ecuaciones de Einstein, que son no lineales).
El gran problema de la idea del universo holográfico es que nuestro universo es de tipo de Sitter (dS), con constante cosmológica positiva, en lugar de anti-de Sitter (AdS), con constante cosmológica negativa. La holografía funciona bien en un universo de tipo AdS, con borde, vía la correspondencia AdS/CFT de Maldacena y argumentos similares. Sin embargo, en un universo de tipo dS, sin borde, ¿dónde está el área que contiene los grados de libertad holográficos que determinan la física en el volumen? Verlinde nos propone que se encuentran en el horizonte cosmológico. Un horizonte ficticio (como lo es el horizonte de sucesos de un agujero negro), pero que podría contener dichos grados de libertad cuánticos codificados de alguna forma exótica (Verlinde no dice cómo), en analogía a como se codifican en el horizonte de sucesos de un agujero negro (donde se recurre a ideas como las simetrías BMS o la dualidad ER=EPR).
dibujo20161112-penrose-diagram-global-de-sitter-space-with-a-mass-in-the-center-arxiv-org
El problema es que la entropía en un universo de de Sitter con horizonte cosmológico no se describe por la fórmula de Bekenstein–Hawking que depende del área de dicho horizonte; hay que incluir términos volumétricos. El origen de dichos términos es un misterio, pero Verlinde afirma que la energía oscura es resultado de dichos grados de libertad cuánticos en el volumen del espaciotiempo. Más aún, recuperando la idea del éter luminífero, introduce un medio elástico que se comporta como éter gravitacional que emerge de la termalización de los grados de libertad cuánticos en el volumen del universo dS.
Recurrir a un éter gravitacional para explicar la energía oscura puede molestar a algunos físicos. Por ello Verlinde no usa el término éter en su artículo y prefiere el término “fase elástica oscura” (‘dark’ elastic phase). Pero la formulación que presenta recuerda mucho a la del éter luminífero como medio elástico para sustentar la propagación de las ondas electromagnéticas.
dibujo20161112-entropy-in-one-sided-perspective-de-sitter-space-with-a-mass-m-in-the-center-arxiv-org
Explicada la energía oscura como un medio elástico que permea el universo dS, Verlinde estudia el efecto de dicho medio sobre la materia de las galaxias. La materia ordinaria causa un desplazamiento en el “medio elástico oscuro” que produce una fuerza de reacción sobre la materia. Dicho efecto corresponde a una modificación de la gravedad similar a la teoría MOND de Milgrom. 
Se observa como una aceleración constante que permite explicar las curvas de rotación galáctica sin necesidad de halos de materia oscura. Verlinde se cura en salud afirmando que su teoría no viola la ley de la inercia (como la teoría MOND) sino que dicha “violación” es aparente.
El Cúmulo Bala no se puede explicar con la teoría MOND. Verlinde sortea este problema de forma elegante. La aceleración constante aparece para distribuciones esféricas de materia. La reacción entrópica del medio elástico oscuro para cúmulos y supercúmulos, cuya forma no es esférica, requiere modificar la teoría MOND; no dice cómo, pero afirma que en el futuro calculará dicha modificación y que en su opinión logrará explicar la materia oscura donde la teoría MOND falla.
dibujo20161112-volume-removed-from-an-incompressible-elastic-medium-leads-to-displacement-arxiv-org
La teoría MOND también falla a escala cosmológica. No hay problema para el que Verlinde no sugiera una solución. Tras un alarde técnico se saca de la manga una fórmula que explica que la reacción entrópica del medio elástico oscuro hace que la “materia oscura aparente” siempre parece tres veces más abundante que la materia bariónica. Así explica que observemos que el 25% de la materia del universo es bariónica y el 75% es materia oscura. En realidad solo existiría la materia bariónica, siendo la materia oscura la reacción de la energía oscura (medio elástico oscuro) a dicha materia.
dibujo20161112-dictionnary-between-elastic-and-gravitational-quantities-correpondences-arxiv-org
El artículo de Verlinde sigue su estilo habitual. Se supone que está inspirado en ideas de la teoría de cuerdas. Por tanto, no puede faltar un diccionario, una correspondencia entre magnitudes físicas diferentes guiada por una supuesta dualidad física. Como muestra esta tabla, Verlinde relaciona las propiedades gravitacionales de la materia con las del medio elástico oscuro (su éter gravitacional), usando su aceleración constante a0 tipo MOND. De hecho, como es habitual en los artículos de gravedad entrópica solo se habla de gravitación newtoniana.
Este tipo de diccionarios ad hoc son muy habituales entre los físicos que afirman estar inspirados en la teoría de cuerdas, pero que no quieren adentrarse en las matemáticas de la teoría de cuerdas necesarias para justificar su correspondencia. Todo el artículo está repleto de fórmulas, pero la mayoría son divagaciones. Falta un hilo conductor que actúe como razonamiento lógico. En apariencia todo es muy riguroso, pero las apariencias engañan.
Las ideas de Verlinde contradicen lo que sabemos sobre la Naturaleza. ¿A quién le importa? Lo maravilloso de Verlinde es que nos obliga a desaprender todo lo que sabemos. Su objetivo no confesado es doblegar a la Naturaleza para que se comporte como él afirma que debe comportarse. Sus ideas son tan profundas que la Naturaleza no puede seguir otro camino. 
Los 4,5 millones de euros gastados en este trabajo merecen la pena. 
Sin lugar a dudas.
En resumen, un artículo de Verlinde siempre da mucho que hablar.
 Muchos otros físicos seguirán sus ideas y tratarán de darles algún sentido. 
Pero por ahora lo único que muestran las 51 páginas del artículo son una enorme cantidad de problemas sin resolver, con muchos argumentos faltantes. 
Muchos físicos tratarán de rellenar dichas lagunas.
 Lo que no sabemos es si llevarán a algún sitio o si solo servirán para oscurecer lo que de por sí ya es muy oscuro.