martes, 10 de noviembre de 2015

Running Schwarschild radio

El caso mas sencillo de agujero negro es el de Scharschild, que describe un agujero negro sin carga y que no rota sobre si mismo. 

Su horizonte de sucesos, la superficie desde la cuál no se puede salir (ignoraré aquí cualquier sutileza sobre diversos tipos de horizontes que se pueden definir o la reciente afirmación de Hawking de que el horizonte de sucesos no es bueno para describir agujeros negros en los que los efectos cuánticos son importantes). 

Esta superficie, para el caso de Schwarschild es esférica, y tiene un radio el radio de Schwarschild que viene dado por R_s= \frac{2GM}{c^2}.

Cuando he hablado de efectos cuánticos al referirme a Hawking me refería, por supuesto, a su famosa teoría en la que usando técnicas de cuantización en espacios curvos mostraba que un agujero negro emite radiación, conocida cómo radiación Hawking.

Cómo se puede leer en esas entradas un agujero negro que esté aislado de todo y no se “alimente” como resultado de esa emisión de radiación va perdiendo energía, y por tanto masa, y su radio de Schwarschild se va haciendo mas pequeño, es decir, el agujero negro se va evaporando.

 Podría pensarse que el título de la entrada haga referencia a este efecto, pero considero que a estas alturas el tema de la desintegración Hawking es algo sobradamente conocido por cualquiera interesado en estos temas así que el propósito de esta entrada es ligeramente diferente.

 El término “running” seguramente pueda dar una pista a la gente que conozca teoría cuántica de campos con un cierto nivel y, por tanto, haya oído hablar de las “running coupling constants”. 

He mantenido el término en inglés porque no se me ocurre ninguna traducción realmente buena del término running, quizás lo que más podría acercarse es “deslizante”.

Cuando empecé a escribir la entrada pensaba despachar la explicación del grupo de renormalización, la ecuación de Callan-Symanzsky y la teoría de las “constantes de acoplo deslizantes” con entradas a la wiki española (o a algún blog en español que tratase el tema), pero he visto que la wiki tiene un tratamiento muy pobre, siendo generoso, del asunto y no he visto ningún blog que lo trate. 

Supongo que la mayor parte de gente que me lea se manejará bien con el inglés (después de todo suelo poner vínculos a sitios en inglés casi siempre) y podrá leer la entrada de la wiki inglesa:renormalizción

En todo caso me sirve para darme cuenta que tal vez debería hacer un esfuerzo y escribir algo sobre renormalización en el futuro. 

En todo caso ahora daré las ideas mínimas sobre renormalización para que se pueda entender lo que pretendo exponer.

En QFT el objetivo final, normalmente, es calcular amplitudes de transición entre estados asintóticos. 

Es decir, uno tiene, un grupo inicial de partículas libres con unos momentos dados que interaccionan por un tiempo finito y se convierten, en general, en otras partículas con otros momentos distinto.
 La idea es calcular las probabilidades de esas transiciones. 

Los cálculos de esas probabilidades se suelen hacer usando los diagramas de Feynman. Discutí algo sobre ello en la entrada sobre el amplithuedron.

 Cómo explico ahí los diagramas se organizan en función del número de loops. Los que no tienen loops se denominan “tree level” y normalmente suelen reproducir las secciones eficaces clásicas (las secciones eficaces son unos objetos que sirven para expresar los procesos de colisión y están relacionados con las amplitudes de transición que comentaba antes)

. A nivel tree los diagramas de Feynman dan resultados finitos. 

Sin embargo, en cuanto nos vamos a diagramas con loops los resultados se vuelen infinitos y hay que ver si se puede lidiar con esos infinitos de algún modo para obtener respuestas finitas. Sí ello es posible se dice que la teoría es renormalizable.

Para entender un poco mejor el tema usemos el ejemplo de la wiki, el lagrangiano de la QED.


Ese lagrangiano consta de tres partes básicas. Una es el lagrangiano de Dirac que describe un fermión libre standard (no quiral). 

Otro término L_{em}=\frac{1}{4}F_{\nu \mu}F^{\nu \mu}  (lo he escrito omitiendo las B’s) es el que describe el campo electromagnético libre. 

El otro término, el que, operando para dejarlo por separado, vendría a ser L_{int}=ieA^{\nu}\Phi  es el que describe la interacción. 

La e que aparece multiplicando sería la constante de acoplo que en el caso del electromagnetismo es la constante de estructura fina, que suele escribirse con la letra alpha, pero bueno, mantengo la notación de la wikipedia.

 Según decía, y como comentan en la wikipedia, los diagramas con uno y mas loops suelen dar resultados divergentes cuando se calculan. 

Eso se debe a que en el cálculo hay que efectuar integrales indefinidas que resultan no estar acotadas.

 Hay diversas técnicas de regularización y renormalización (Pauli-Villards, dimensional, función z, etc). 

Todas ellas tienen una estrategia común. Hay un parámetro, llamémoslo u, y la integral se divide en dos partes, una hasta un valor de inferior a u, y otra desde u hasta infinito (esto es muy transparente en la técnica de Pauli-villars dónde ese u es un momento, denominado momento de corte. 

En la regularización dimensional se calcula la integral en el plano complejo, cambiando el momento p por p + iu, y luego se hace tender u a 0).

 Una de las partes de la integral dará un resultado finito, el otro un resultado infinito. La idea de la renormalización es que tenemos que añadir al lagrangiano original unos términos que den un nuevo diagrama de Feynman que anule la parte infinita de el diagrama original. 

Eso se va a poder hacer siempre, lo malo es que esos nuevos términos, en general, van a tener su propia constante de acoplo. 

Y luego, por cada nuevo loop, tendremos que añadir mas contratérminos, con mas constantes. 

En general una teoría con estas características va a ser inútil porque si bien término por término va a tener resultados finitos resulta que cada nuevo término añade una nueva constante que debe ser medida experimentalmente y, por consiguiente, se vuelve no predictiva.

En el caso de las teorías renormalizables los contratérminos tienen la misma forma que el término de interacción orginal. 

Eso hace que podamos anular los resultados infinitos mediante cambios en el valor de los campos, masas y consantes de acoplo. 

Se supone que el lagrangiano original “desnudo” (bare en inglés, de ahí la B que añade la wiki a los términos del lagrangiano) no puede observarse porque debido a fluctuaciones cuánticas un electrón va a estar rodeado de una nube de pares electrón/positron virtuales que apantallan la carga desnuda.

 Por ese motivo, la carga, la masa, la función de onda, y, lo más importante, las constantes de acoplo, van a depender de la energía a la que se mide la interacción. Por eso se habla de “running coupling constants”.

 Dependiendo de la energía a la que se midan van a tener un valor distingo. Esto es el proceso de renormalización, pero si uno va un poco más allá llega a una ecuación que deben cumplir en general esas constantes de acoplo, la ecuación de Callan-Szymansky

Esa ecuación, usando los resultados a un loop, se puede resolver y nos da el flujo de las constantes de acoplo según cambia la energía.
 Estos resultados son los que dan la idea de teorías de unificación porque se observa que las constantes de acoplo del electromagnetismo, de la nuclear débil y de la nuclear fuerte casi convergen a un valor común en el que todas las constantes valdrían lo mismo y, por tanto, habría una única interacción. 
Eso da la idea de teorías de gran unificación (GUT en inglés).
 Si uno incorpora supersimetría esa casi convergencia se convierte en convergencia, y es uno de los muchos motivos por los que se cree que la supersimetría es importante, pese a no haberse observado.

Bien, ahora ya tenemos (espero) una idea de lo que es eso de “las constantes de acoplo deslizantes”.

 Al hablar de las GUT he mencionado tres interacciones, pero, aparte de esas, hay otra, la gravedad. 

Tanto en la teoría de Newton cómo en la de Einstein la constante de acoplo de la gravedad es la G de la fórmula de Newton de la gravitación universal F=G \frac{m.m'}{R^2} .

En QFT tenemos partículas “materiales” descritas por la ecuación de K-G (partículas escalares cómo el bosón de Higgs) o por la ecuación de Dirac (fermiones no quirales, cómo el electrón o los quarks) o algún tipo de ecuación (Weyl o Majorana para fermiones quirales, cómo el neutrino.

 Las interacciones viene medidas por partículas virtuales que van a ser partículas vectoriales.
 Para el electromagnetismo esa partícula es el fotón, para las nucleares fuertes son los gluones y para la nuclear débil los bosones W+, W- y Z0).

 En las entradas de este blog dedicadas a QFT, por ejemplo la anterior, se pueden encontrar mas detalles. Feynman, uno de los creadores de la QED, y el que desarroló la técnica de los diagramas que lleva su nombre intentó cuantizar la teoría de la gravedad de Einstein por procedimientos análogos a los de la QED. Más adelante de Witt continuó su trabajo y formuló las reglas para los diagramas de Feynman de la relatividad general.

El truco está en que la métrica de la relatividad general , una introducción desde o a relatividad especial y general se divide en dos partes g_{\nu \mu} = \eta_{\nu \mu} + h_{\nu \mu}  

La primera parte, la \eta  de esta división puede pensarse que es la métrica de minkowsky que describe la relatividad especial (aunque, en realidad, puede ser cualquier otra métrica que cumpla las ecuaciones de Einstein que se considera una métrica de fondo que no se cuantiza) y la parte con la h es la que describe las fluctuaciones cuánticas.

 Se supone que esas fluctuaciones corresponden al intercambio de gravitones. 

El problema es que la teoría cuántica que se obtiene al hacer eso es no renormalizable y uno debe buscar una teoría cuántica de la gravedad de otra manera. 
La respuesta mas desarrollada de la gravedad cuántica es la teoría de cuerdas. 
Esta describe la propagación de gravitones y es una teoría renormalizable.

Bien, ya vamos llegando a la idea de la entrada.

 Sí tenemos una teoría cuántica de la gravedad deberíamos tener que, de forma análoga al resto de constantes, la contante gravitatoria G va a depender de la energía a la que se mide y que es una “running coupling constant”.

 Lo cierto es que no es un tema que haya visto (al menos que recuerde) tratado en ningún libro standard, ni de QFT, ni de cuerdas, ni tampoco en artículos de introducción a la gravedad cuántica y su problemática. 

De hecho ha sido mientras pensaba en otros asuntos cuando he caído en que esto podría pasar. Las consecuencias de una “running G” serían varias, pero inicialmente se me ocurrió relacionarlo con los agujeros negros.

 El planetamiento es muy simple: si el radio de Schwarschild depende de G, y esta varía con la energía, el radio de Schwarschild debería depender de la energía. Esto hay que concretarlo un poco, claro.

 Una idea sería que cuando hago chocar dos partículas a alta energía estas ven una G renormalizada y, por consiguiente, su radio de Schwarschild debería calcularse con esa Gren y no con la G de bajas energías. 

Otra idea sería que un agujero negro astrofísico (o uno primordial, formado en los momentos inmediatamente posteriores al big bang) cuando se estuviese terminando de evaporar llegaría a un tamaño en el que “probaría” tamaños muy pequeños, y por tanto energías muy grandes (recordemos, por causa de la relación de incertidumbre de Heisenberg para probar tamaños pequeños necesitamos energías muy grandes).

 Por tanto, una vez más, ahí podría jugar su papel la Gren.

Bien, una vez que se me ocurrió la idea me puse a buscar si alguien la había considerado ya, y sí, algo he encontrado. Está, por ejemplo, éste artículo On the running of the gravitational constant. Es del 2011 y analiza trabajos previos sobre el asunto. Afirma que no se puede dar una definición universalmente válida para esa “running G”. Ahora bien, sí uno mira los cálculos observa que están hechos con la gravedad cuántica mas sencilla, la cuantización directa de la gravedad de Einstein, que sabemos que no es renormalizable. 

Todos los demás artículos que he visto sobre el tema también hacen algo similar.
 Eso, por supuesto, es muy chocante. ‘t Hoof demostró que si bien la gravedad pura (sin términos de materia) es renormalizable a 1 loop no lo es si se introducen términos de materia (y desde luego no lo es a 2-loops, incluso sin materia).
 Eso hace que, salvo que se usaran para calcular la “running G” diagramas de interacción entre dos gravitones no se podría hacer nada en el sentido habitual. Y, de hecho, por lo que he visto, los cálculos usan interacción de materia con la gravedad. No he seguido los detalles, pero si está claro que no pueden seguir los pasos habituales.
 De hecho en ese artículo ya aclaran que es precisamente por no ser renormalizable la teoría por lo que no hay una definición universalmente válida de esa “running G”.

El caso, y esto es lo que me sorprende, si uno va a teorías de supergravedad, que son teorías de campo ordinarias. Se tiene cree que en general la teoría no es renormalizable. 

En los 70-80 se encontraron argumentos que así lo afirmaban, aunque en la década pasada se han revisado esos argumentos y, al menos por un tiempo, hubo esperanza de que tal vez, las mas supersimétricas, de ellas, si fuesen teorías renormalizables después de todo. ahora ya no está tan claro, y, en cualquier caso, aunque fuesen renormalizables se sabe que no podrían incorporar el modelo standard mediante mecanismo de Kaluza-Klein.

 En todo caso estas teorías de supergravedad, incluso con una carga supersimétrica, sí son rernormalizables a 1-loop, y creo que a mas loops, incluso interactuando con materia. Siendo así me pregunto porque no se usan esas teoris de supergravedad para calcular esa “running G”. 
Y, desde luego, la teoría de cuerdas da una teoría cuántica de la gravedad renormalizable ¿Por qué no usan la integral de Polyakov y demás para obtener esa “running G? Estoy revisando material, a ver si encuentro respuestas.

En cualquier caso hay muchos indicios de que una teoría perturbativa no va a incorporar todos los aspectos de la gravedad cuántica. 
En el cálculo de la entropía de un agujero negro en teoría de cuerdas se usaron objetos no perturbativos de esta teoría, las black branas (objetos de la supergravedad que generalizan a los agujeros negros, que son obtenibles cómo límite de las supercuerdas) formadas por apilamiento de D-branas. 
Más adelante se vió que, en realidad, la clave está en el cómputo de la entropía de una teoría conforme que describe la proximidad del horizonte y que no son necesarios todos esos detalles finos de la teoría de cuerdas. No obstante hasta que esos grados nuevos de libertad se vuelvan importantes yo creo que la “running G” sería válida. 
Estoy mirando material para precisar los límites esos, ya veré que saco.

Pese a todas estas consideraciones uno podría pensar que, después de todo, el resultado obtenido en una teoría completa de la gravedad cuántica no debería diferir mucho de lo que se obtiene por los métodos imperfectos que usa esta gente. Y como quiera que en ese artículo dan un resultado concreto (que coincide con el obtenido en otros artículos) uno podría usar, a modo de estimación, esa expresión y ver cómo afecta eso a la creación de agujeros negros en colisiones de partículas, y, por otro lado a la desintegración de agujeros negros “grandes”.

 Estoy ahora mismo terminando los cálculos, y pondré una entrada cuando los termine y tenga tiempo.

 Por supuesto que nadie se tome esto terriblemente en serio. 

Son cálculos relativamente sencillos, y es divertido. Anticipo ya que, con menos detalle, otra gente ha hecho algo similar y, según ellos, y cómo yo sospechaba por estimaciones groseras, con esa G renormalizada los agujeros negros empiezan a formarse con menos energía. 

En particular en un artículo afirman que podría ser que, incluso con
 4 dimensiones (sin necesidad a recurrir a dimensiones extra mesoscópicas cómo en los modelos de braneworlds inspirados en teoría de cuerdas) a la escala de unos pocos TeV podrían formarse agujeros negros.

 Y, sospecho, por estimaciones groseras que he hecho, que la radiación Hawking se debilita conforme el agujero se empequeñece haciendo que estos agujeros sean mas estables de lo que se pensaba.

 Pero vamos, insisto, todo esto está traído por los pelos y es especulación sin una base demasiado sólida, así que recomiendo al lector que trate esta entrada, y la que debería venir después cómo algo pedagógico sobre aspectos ya conocidos en la que, además, se presenta algo ligeramente nuevo, cómo una especulación poco sería, aunque, eso espero, entretenida de considerar.