lunes, 29 de agosto de 2016

Núcleos con forma de pera y viajes en el tiempo imposibles

Dibujo20160628 Nuclei can take several shapes sphere oblate spheroid prolate spheroid exotic pear shape  nature497190a-f1

La forma del núcleo de un átomo viene dada por la simetría de su estado fundamental. Puede ser esférica (monopolar), esferoidal (dipolar), elipsoidal (cuadrupolar), e, incluso, ovoidal (octopolar). Este último caso (predicho en 1982 y observado en 2013) se da en núcleos con un número par de protones y de neutrones, como el radio-224 (88+136) y el radon-220 (86+134). Se publica en Physical Review Letters su observación (indirecta) en el bario-144 (56+88), el primer núcleo con número másico A<200 el="" en="" font="" observa.="" que="" se="">
¿Tiene esto algo que ver con los viajes en el tiempo? Los núcleos octopolares existen porque los nucleones (protones y neutrones) tienen momento dipolar eléctrico. Su origen es la violación de la simetría de inversión temporal (T) por la interacción electrodébil (algo descubierto en 1964). Un viaje en el tiempo (curva espaciotemporal cerrada) que garantice que nada cambie en el universo requiere que la simetría T se conserve. Pero no lo hace. Cualquier violación de esta simetría implica que los viajes en el tiempo siempre cambian algo. Para muchos esto implica que los viajes en el tiempo no pueden existir.
El nuevo artículo es B. Bucher et al., “Direct Evidence of Octupole Deformation in Neutron-Rich Ba-144,” Phys. Rev. Lett. 116: 112503 (17 Mar 2016), doi:10.1103/PhysRevLett.116.112503arXiv:1602.01485 [nucl-ex], más información en Jessica Thomas, “Synopsis: Nucleus is Surprisingly Pear Shaped,” Physics, 17 Mar 2016.
La primera observación experimental del fenómeno es de L. P. Gaffney et al. (ISOLDE), “Studies of pear-shaped nuclei using accelerated radioactive beams,” Nature 497: 199–204 (09 May 2013), doi: 10.1038/nature12073, más información en C. J. (Kim) Lister, Jonathan Butterworth, “Nuclear physics: Exotic pear-shaped nuclei,” Nature 497: 190–191 (09 May 2013), doi: 10.1038/497190a. La predicción teórica es de G.A. Leander, R.K. Sheline, …, A.J. Sierk, “The breaking of intrinsic reflection symmetry in nuclear ground states,” Nuclear Physics A 388: 452-476 (1982), doi: 10.1016/0375-9474(82)90471-7.
Más información general en P A Butler, “Octupole collectivity in nuclei,” Journal of Physics G: Nuclear and Particle Physics 43: 073002 (01 Jun 2016), doi: 10.1088/0954-3899/43/7/073002, y en Rémi N. Bernard, Luis M. Robledo, Tomás R. Rodríguez, “Octupole correlations in the nucleus 144Ba described with symmetry conserving configuration mixing calculations,” arXiv:1604.06706 [nucl-th].
Dibujo20160628 hfb potential energy surface computed for 144-ba
Los viajes en el tiempo (hacia el pasado con retorno al presente) son imposibles. Por supuesto, en la ciencia ficción se afirma que ninguna ley física prohíbe su existencia. Lo que sería cierto si todas las leyes físicas son invariantes al cambiar la flecha del tiempo. Pero esto es falso, rotundamente falso. La interacción electrodébil viola la simetría de inversión temporal (T). Por tanto, el modelo estándar de las partículas también lo hace y por ende toda la física conocida.
Recuerda que toda la física conocida (olvidemos la especulativa) muestra una simetría CPT exacta. Todo proceso físico posible es idéntico e igualmente posible si se cambian las partículas por sus antipartículas (conjugación de carga, C), y al mismo tiempo se refleja todo el universo en un espejo (simetría de paridad, P), y al mismo tiempo se invierte la dirección de la flecha del tiempo (inversión temporal, T). La combinación de las tres simetrías discretas C, P y T se preserva en todos los procesos físicos. Sin embargo, en 1957 se observó la violación de la simetría P usando átomos de cobalto-60 (luego también de CT). Y en 1964, como ya he indicado, se observó la violación de la simetría CP usando una partículas llamadas kaones neutros (luego también T).
Dibujo20160628 220Rn and 224Ra octupole coupling nuclides
Los núcleos pesados cuyo estado fundamental es octopolar son muy interesantes porque permiten estudiar el momento dipolar eléctrico (EDM) de los nucleones (protones y neutrones). Algo muy difícil con nucleones o con núcleos ligeros. El origen del EDM es que la interacción electrodébil viola la simetría discreta CP, que implica la violación de la simetría T. Estas violaciones están en el origen de la asimetría materia-antimateria primordial.
Dibujo20160628 particle number parity angular momentum pes for 144-ba
Bajo un campo eléctrico externo, la energía de un estado se desplaza cierta cantidad Δe = d·E + E·δ·E, donde d es el EDM y δ es el momento dipolar inducido. En moléculas de geometría asimétrica (como la molécula de agua) el fenómeno es fácil de entender, incluso si la simetría T se conserva. Pero en un sistema con simetría esférica (como un protón o un neutrón), el valor medio del EDM debe ser nulo si el sistema es invariante ante las simetrías P y T. Por contra, la observación de un EDM no nulo implica que alguna de estas simetrías es violada.
Dibujo20160628 chart of nuclides for which the proton and neutron numbers having the strongest octupole coupling
Medir el EDM de una partícula es muy difícil porque es muy pequeño comparado con el momento dipolar magnético (MDM) debido al espín. La inversión el tiempo (T) provoca que el MDM cambie de dirección, pero no afecta al EDM. Por eso se pueden usar núcleos pesados para medir el EDM de un nucleón de forma indirecta. Para ello hay que usar núcleos con ciertos números concretos de protones o de neutrones tales como 56, 88, 134, etc. El radio-224 tiene 88 protones y el radon-220 tiene 134 neutrones. Para medir el EDM lo ideal sería un núcleo cuyo número de protones y de neutrones estuviera en dicho listado. El ideal es el bario-144, que tiene 56 protones y 88 neutrones (recuerda que no existe ningún isótopo del radio, que tiene 88 protones, que tenga 56 neutrones, aunque sí existe uno con 134 neutrones). Por cierto, en teoría el núcleo del xenón-140, con 54 protones y 86 neutrones, también debería ser octopolar (tener forma de pera), pero no está confirmado de forma experimental.
Dibujo20160628 particle spectrum from CHICO2 measured in coincidence with gamma ray in GRETINA
Por todo ello, la observación de que el bario-144 tiene un núcleo con estado fundamental octopolar es muy importante a la hora de estudiar con precisión los EDM de los nucleones. Por supuesto, el nuevo artículo publicado en Physical Review Letters no presenta ninguna estimación del EDM. Aún así, se considera un importante avance para el futuro diseño de experimentos específicos en este sentido.
Hay que recordar que la medida del EDM de los nucleones no solo nos aportará información sobre la violación de simetrías discretas en el modelo estándar, y con ellas información sobre el origen de la asimetría materia-antimateria primordial (que requiere más violación CP (o T) de la que parece presentar el modelo estándar). También nos dará información sobre la posible existencia de física más allá del modelo estándar (BSM); tanto la supersimetría como otras teóricas BSM predicen un EDM mayor que el modelo estándar. Medir el EDM permite una búsqueda indirecta de física BSM.
http://francis.naukas.com/

El estudio del origen de la masa del bosón de Higgs en el LHC

Dibujo20160827 di-higgs sm processes tri-linear coupling yukawa interaction

El origen de la masa del bosón de Higgs es la autointeracción del campo de Higgs, es decir, que el campo de Higgs se acopla con el propio campo de Higgs. Según la teoría del modelo estándar este acoplamiento trilinear está cuantificado por λ = 0,129. ¿Se podrá verificar este valor usando las colisiones del LHC? No, lo siento, se requiere un mímimo de 3 /ab = 3000 /fb de colisiones protón contra protón a 14 TeV c.m. El LHC debería alcanzar tras el Run 3 unos 300 /fb. Será necesario el futuro HL-LHC, la versión de alta luminosidad del LHC, que acumulará 3000 /fb alrededor de 2035 (si acaba siendo construido).
Para un Higgs de 125 GeV/c² la sección eficaz de producción de dos Higgs en una colisión protón contra protón a 14 TeV es de 39,56 fb (para 13 TeV c.m. es de 33,45 fb). No podemos observar todos los pares de Higgs producidos. Se requiere producir al menos cien veces más Higgs de los que se observarán, de ahí que sean necesarios unos 3 /ab de colisiones. El objetivo del LHC Run 3 es acumular unos 300 /fb de colisiones a 14 TeV para finales del año 2022. El futuro del LHC no está claro y hay varias opciones. Una de las más prometedoras es el HL-LHC, que como pronto debería ser construido a principios de 2023, empezaría sus colisiones en 2027, y acumularía 3000 /fb como muy tarde en 2037.
Más información técnica en “LHC Higgs Cross Section HH Sub-group,” LHC Physics, Twiki CERN, 2016. Casi todas las conferencias sobre el Higgs tienen una charla sobre este tema. Las figuras de esta entrada están extraídas de Martino Dall’osso, “DiHiggs and Prospect at ATLAS and CMS,” International Symposium on Higgs Boson and Beyond Standard Model Physics, 15-19 August 2016 [contribution].
Dibujo20160827 lhc hl-lhc plan hilumi cern org
Peter Higgs y François Englert (Robert Brout se quedó sin él por su deceso) recibieron el premio Nobel de Física de 2013 por el descubrimiento teórico del mecanismo de Brout–Englert–Higgs para la rotura espontánea de la simetría y la predicción teórica de la existencia de la partícula de Higgs. Sin embargo, su modelo teórico aún no ha sido confirmado, pues predice un potencial concreto de autointeracción para el campo de Higgs (por cierto, el más sencillo concebible). Para comprobar que dicho modelo teórico es correcto (y no sonrojar al Comité Nobel por haberle dado el Nobel a los físicos equivocados) es necesario verificar que el acoplamiento entre tres Higgs cumple λHHH = λSM = 0,129 (para mH = 125 GeV/c²).
¿Qué pasaría si sobre el año 2035 se mide y resulta que λHHH ≠ 0,129? Hay dos opciones posibles. Si no existe nueva física más allá del modelo estándar, resultará que el modelo teórico para el potencial de autointeracción del Higgs es incorrecto (su forma será más complicada que la más sencilla posible). Hay muchas variantes que se han publicado en los últimos 50 años y será necesario un colisionador de partículas específico (una fábrica de Higgs), o un colisionador más energético que el HL-LHC, para determinar el potencial correcto. Hay mucha física en el modelo estándar que aún no ha sido verificada que exigirá futuros colisionadores. Quizás un futuro colisionador chino a 100 TeV c.m. nos desvele el potencial del campo de Higgs sobre el año 2050. Si resulta ser uno de los ya publicados y sus autores no han fallecido para esa fecha, deberían recibir un merecido premio Nobel.
Dibujo20160827 di-higgs bsm processes ttHH higgs-gluon contact interactions
Pero hay otra opción, que exista física más allá del modelo estándar. Podría ocurrir que no hubiera ninguna señal de dicha física en 2035 y que el primer indicio fuera λHHH ≠ 0,129. Entre 2035 y 2050 se buscarían otras señales para aclarar su naturaleza y un nuevo colisionador sería imprescindible. Pero también podría ocurrir que en 2035 ya haya indicios (o incluso señales claras) de nueva física más allá del modelo estándar. Más aún, incluso podría ocurrir que dichos indicios se hayan observado en las colisiones del LHC que muestran dos bosones de Higgs.
Por ello, incluso hoy en día, cuando no hay ninguna esperanza de observar un pareja de Higgs en el LHC, se está buscando dicha señal. La física más allá del modelo estándar podría dar lugar a su observación por múltiples canales. Los modelos supersimétricos (que predicen nuevas partículas de Higgs), la existencia de una nueva partícula escalar que se acople al Higgs, o incluso la existencia de dimensiones extra gigantes en el espacio (que predicen la existencia de gravitones de Kaluza–Klein y partículas escalares de tipo radión) podrían conducir (para valores adecuados de sus parámetros) a la observación de dicha señal en el LHC (aunque también podrían estar fuera de su alcance).
Dibujo20160828 br hh xxyy lhc
El bosón de Higgs se observó en 2012 en los canales H→γγ (Higgs a dos fotones) y H→ZZ→ℓℓℓℓ (Higgs a cuatro leptones vía dos bosones Z). Observar la producción de dos Higgs usando ambos canales en el LHC es imposible. Por ello se considera que el canal más prometedor es HH→bbXX (un Higgs se desintegra en un par bottom-antibottom y el otro Higgs se desintegra en otro canal), donde XX = bb, WW, ττ, γγ; también se podría observar una señal en los canales HH→γγWW y HH→WWWW.
Por supuesto, en estos canales no se observará nada de nada si no existe física más allá del modelo estándar (BSM) que amplifique la producción de parejas de Higgs. Pero la búsqueda es necesaria y por ello ya ha sido emprendida por CMS y por ATLAS, enmarcada entre las búsquedas BSM. Las búsquedas para unas 20 /fb de colisiones a 8 TeV c.m. (LHC Run 1 en el año 2012), que, por supuesto, no han observado nada, se publicaron en: ATLAS Collaboration, “Searches for Higgs boson pair production in the hh→bbττ, γγWW∗, γγbb, bbbb channels with the ATLAS detector,” Phys. Rev. D 92: 092004 (2015), doi: 10.1103/PhysRevD.92.092004arXiv:1509.04670 [hep-ex]; CMS Collaboration, “Search for heavy resonances decaying to two Higgs bosons in final states containing four b quarks,” Eur. Phys. J. C 76: 371 (2016), doi: 10.1140/epjc/s10052-016-4206-6,arXiv:1602.08762 [hep-ex]; CMS Collaboration, “Searches for a heavy scalar boson H decaying to a pair of 125 GeV Higgs bosons hh or for a heavy pseudoscalar boson A decaying to Zh, in the final states with h to tau tau,” Phys. Lett. B 755: 217 (2016), doi:10.1016/j.physletb.2016.01.056arXiv:1510.01181 [hep-ex]; y CMS Collaboration, “Search for two Higgs bosons in final states containing two photons and two bottom quarks,” Submitted to Phys. Rev. D, arXiv:1603.06896 [hep-ex].
Este año se están publicando las primeras búsquedas en el LHC Run 2 con colisiones a 13 TeV c.m. recabadas en 2016. Los interesados pueden consultar: ATLAS Collaboration, “Search for pair production of Higgs bosons in the bbbb final state using proton-proton collisions at √s=13 TeV with the ATLAS detector,” arXiv:1606.04782 [hep-ex]; “Search for Higgs boson pair production in the bbγγ final state using pp collision data at sqrt(s)=13 TeV with the ATLAS detector,” ATLAS-CONF-2016-004; “Search for Higgs boson pair production in the final state of γγWW∗→lνjj using 13.3 fb−1 of pp collision data recorded at √s=13 TeV with the ATLAS detector;” ATLAS-CONF-2016-071; CMS Collaboration, “Search for resonant pair production of Higgs bosons decaying to two bottom quark-antiquark pairs in proton-proton collisions at 13 TeV,” CMS-PAS-HIG-16-002; “Search for heavy resonances decaying to a pair of Higgs bosons in the four b quark final state in proton-proton collisions at √s= 13 TeV,” CMS-PAS-B2G-16-008; “Search for resonant Higgs boson pair production in the bbℓνℓν final state at √s= 13 TeV,” CMS-PAS-HIG-16-011; “Search for resonant Higgs boson pair production in the bbττ final state using 2016 data,” CMS-PAS-HIG-16-029; “Search for Higgs boson pair production in the bbℓνℓν final state at √s= 13 TeV,” CMS-PAS-HIG-16-024; “Search for non-resonant Higgs boson pair production in the bbττ final state using 2016 data,” CMS-PAS-HIG-16-028; “Search for non-resonant pair production of Higgs bosons in the bbbb final state with 13 TeV CMS data,” CMS-PAS-HIG-16-026; “Search for H(bb)H(γγ) decays at √s= 13 TeV,” CMS-PAS-HIG-16-032.
Dibujo20160828 simulation cms hl-lhc bbgg 3000 ifb lhc cern
Resumir todas y cada de estas búsquedas en diferentes canales está más allá de los objetivos de esta entrada. El resumen más breve posible es que, como se esperaba, no se ha observado nada. Por supuesto, lo importante es que nos ilustran la intensa labor que se está realizando. 
El entrenamiento de los físicos y el ajuste de los algoritmos que realizan estas búsquedas es muy importante conforme el número de colisiones del LHC Run 2 vaya creciendo. ATLAS y CMS ya han acumulado 25 /fb de colisiones y aún quedan 7 semanas más de colisiones protón contra protón (no es arriesgado soñar con acumular 50 /fb a finales de 2016).
Las simulaciones por ordenador de la física que se espera poder observar con el HL-LHC son muy prometedoras y por ello este tipo de búsquedas son importantes. Cuando mucha gente se pregunta por qué son necesarios futuros colisionadores de partículas la respuesta está clara: porque hay mucho que seguir explorando dentro del modelo estándar y porque en los estudios de precisión del modelo estándar se ocultarán los primeros indicios de nueva física más allá.

sábado, 27 de agosto de 2016

La descuantización de la carga permite observar los instantones de Korshunov

Dibujo20160804 nanodevice to investigate charge quantization 536038a-f1

La carga eléctrica de los átomos está cuantizada en unidades de la carga del electrón. En 1909 lo demostró Robert Millikan con su famoso experimento de la gota de aceite. La física cuántica predice que la cuantización de carga se puede destruir mediante fluctuaciones cuánticas (descuantización). Lo demuestra un experimento con un nanodispositivo que controla estas fluctuaciones y observa en detalle cómo se produce la descuantización de la carga almacenada. Se puede interpretar el resultado como la primera observación de los instantones de Korshunov.
En lugar de una gota de aceite de Millikan, el nuevo experimento usa una nanoestructura, una isla metálica conductora que almacena una unidad de carga eléctrica. La isla está en contacto con un baño térmico a 17 mK que induce fluctuaciones cuánticas. La cuantización de la carga se observa gracias a las llamadas oscilaciones de Coulomb en la nanoestructura. Las fluctuaciones cuánticas reducen la amplitud de estas oscilaciones de Coulomb de forma gradual hasta llegar a cero, lo que implica que la cuantización de la carga disminuye hasta llegar a cero.
El artículo es S. Jezouin, Z. Iftikhar, …, F. Pierre, “Controlling charge quantization with quantum fluctuations,” Nature 536: 58–62 (04 Aug 2016), doi: 10.1038/nature19072. Más información en Yuli V. Nazarov, “Quantum physics: Destruction of discrete charge,” Nature 536: 38–39 (04 Aug 2016), doi: 10.1038/536038a.
Dibujo20160804 Tunable quantum connection to a metallic island nature19072-f1
La relación de indeterminación de Heisenberg entre posición y momento lineal nos dice que una medida precisa de la posición requiere una medida muy imprecisa del momento lineal debido a fluctuaciones cuánticas imposibles de evitar. De la misma manera están conectados la carga eléctrica y el flujo magnético en nanoestructuras superconductoras. Si las fluctuaciones cuánticas incrementan la incertidumbre en la cuantización de la carga eléctrica, la reducen en la cuantización del flujo magnético.
En un metal, que no esté en un estado superconductor, el flujo de carga es continuo, no está cuantizado. Sin embargo, hay una excepción. En 1987, el físico Sergey Korshunov descubrió que unas soluciones matemáticas de tipo solitón llamadas instantones podían cuantizar el flujo de carga en un metal. Los instantones pueden transferir dos cuantos de flujo entre sendos estados de flujo no cuantizados. Estos dos cuantos de flujo se comportan como un levitón, una cuasipartícula que fue observada en el año 2013 (LCMF;LCMF). Los levitones son excitaciones de los electrones en el metal cuyo estado fundamental, su vacío sin levitones, es un sistema de instantones de Korshunov. Para observar estos instantones (y confirmar su existencia, aunque no se observen de forma individual) se puede usar la cuantización de la carga vía las oscilaciones de Coulomb (Vds versus Vsw).
Dibujo20160816 Tunable quantum connection to a metallic island nature com
El experimento usa un transistor de electrón único (SET) tipo híbrido metal-semiconductor; en concreto, una isla metálica de una aleación AuGeNi. La isla se rodea de un baño térmico (Q) que será responsable de las fluctuaciones cuánticas. A una temperatura de T ≈ 17 mK, el baño está implementado con un gas de electrones bidimensional de alta movilidad de Ga(Al)As (con una profundidad de 105 nm).
El sistema se somete a un campo magnético transversal de gran intensidad, B ≈ 4 T, que produce un efecto Hall cuántico entero con factor de llenado ν = 2. En este régimen, la cuantización de la carga se observa en la isla central gracias a las oscilaciones periódicas en el SET. Para controlarlas sin perturbar la isla hay que usar el efecto túnel cuántico, por ello se usan como electrodos dos contactos tipo túnel, τR y τL (a la derecha y a la izquierda en la figura). La conductancia en la nanoestructura sigue un comportamiento oscilatorio (véase en la figura abajo-izquierda para Vds respecto a Vsw), las oscilaciones de Coulomb. La teoría de Korshunov predice la ley de escala para estas oscilaciones en función de los instantones en el estado fundamental del sistema.
Dibujo20160816 coulomb oscillations in metallic island nature com
Esta figura muestra las oscilaciones de Coulomb para τL = 0,24 variando τR = 0,1, 0,6, 0,88, 0,98 y 1,5. Entre τR = 0,1 y τR = 0,6 se observan que las oscilaciones crecen, para decrecer entre τR = 0,6 y τR = 0,98. Para τR > 1, las oscilaciones desaparecen por completo.
Dibujo20160804 Charge quantization versus connection strength nature19072-f2
Esta figura muestra la cuantización de la carga ΔQ en función de τR a la temperatura T ≈ 17 mK, para diferentes valores de τL < 1. Para τR ≲ 0,6 se observa la cuantización en un valor casi constante para ΔQ. Para valores mayores de τR < 1, dicha cuantización se va reduciendo de forma gradual, hasta alcanzar cero para τR ≥ 1. Esta curva se puede modelar de forma teórica usando instantones de Korshunov.
En resumen, se han observado efectos no perturbativos (instantones) en un gas de electrones en interacción fuerte. La observación de muchos instantones de Korshunov es el primer paso para su observación individual. Cuando se logre en un futuro no muy lejano podremos pensar en desarrollar mecanismos para su control y uso en aplicaciones prácticas. En especial, las cuasipartículas de electrones de carga fraccionaria (no cuantizada) se comportan como aniones, que en teoría permiten realizar computación cuántica topológica, mucho más robusta que la convencional.

La habitabilidad del planeta Próxima b

Dibujo20160825 artist recreation proxima b ESO M  Kornmesser eso1629j

La habitabilidad del planeta rocoso de tamaño terrestre más cercano, Próxima Centauri b, ya ha sido estudiada por varios artículos que se han publicado hoy mismo en arXiv. De hecho, los propios autores del artículo publicado ayer en Nature afirman en tres artículos que se trata de un candidato viable a planeta habitable y que lo ha sido durante miles de millones de años. Quizás son muy optimistas, pues otros dos artículos no lo son tanto, aunque tampoco se les puede calificar de pesimistas.
Por supuesto, estudiar la posible atmósfera de Próxima b debe ser un prioridad en los próximos años. El telescopio europeo extremadamente grande (E-ELT) de la ESO quizás podría observar directamente este nuevo planeta y realizar un análisis espectroscópico de alta resolución de su atmósfera. Así se podrían buscar señales de O2, H2O, CO2, y CH4. Gracias a ello se podrían evaluar con mayor confianza los escenarios posibles para su habitabilidad presente y pasada. Sin lugar a dudas, el estudio de Próxima b en los próximos años conducirá a resultados apasionantes.
Los tres artículos optimistas sobre la habitabilidad de Próxima b son: Ignasi Ribas, Emeline Bolmont, …, Guillem Anglada-Escude, “The habitability of Proxima Centauri b. I. Irradiation, rotation and volatile inventory from formation to the present,”arXiv:1608.06813 [astro-ph.EP]; Martin Turbet, Jeremy Leconte, …, Guillem Anglada-Escudé, “The habitability of Proxima Centauri b II. Possible climates and Observability,”arXiv:1608.06827 [astro-ph.EP]; y Gavin A. L. Coleman, Richard P. Nelson, …, Guillem Anglada-Escude, “Exploring plausible formation scenarios for the planet candidate orbiting Proxima Centauri,” arXiv:1608.06908 [astro-ph.EP].
Otros dos artículos que no son tan optimistas son Rory Barnes, Russell Deitrick, …, Eddie Schwieterman, “The Habitability of Proxima Centauri b I: Evolutionary Scenarios,”arXiv:1608.06919 [astro-ph.EP]; y James R. A. Davenport, David M. Kipping, …, Chris Cameron, “MOST Observations of our Nearest Neighbor: Flares on Proxima Centauri,”arXiv:1608.06672 [astro-ph.SR].
[PS 27 Ago 2016] Recomiendo encarecidamente el estupendo artículo de Daniel Marín, “Un punto rojo pálido: a vueltas con la habitabilidad de Próxima b,” Eureka, 27 Ago 2016.
Dibujo20160825 All of the data sets phase-folded at the 11 day signal planet proxima centauri nature19106-f2
Lo primero, el nuevo planeta que orbita la estrella Próxima Centauri es un candidato a planeta, mientras no sea confirmado de forma independiente. Así funciona la ciencia. Aunque se publique en Nature a bombo y platillo, no debemos afirmar a la ligera que se trata de un planeta sin que haya sido confirmado. En el año 2012 se publicó en Nature el descubrimiento de un planeta con una masa terrestre orbitando la estrella Alpha Centauri B (que junto a Próxima Centauri y Alpha Centauri A forman un sistema estelar triple). Como ya sabrás, no fue confirmado y hoy está descartado. El candidato a planeta, que los medios vendieron como planeta, al final fue una falsa alarma. Ya te conté mis dudas en su momento en “Un granito de sal sobre el exoplaneta más cercano a la Tierra que orbita la estrella Alfa Centauri B,” LCMF, 17 Oct 2012, y en “Más información sobre la órbita del exoplaneta Alfa Centauri B b, el más cercano a la Tierra,” LCMF, 19 Oct 2012.
Dibujo20160825 Phase-folded radial-velocity curve with a period of 3 days alpha centauri b planet nature11572-f5
Por si no lo recuerdas, el artículo era Xavier Dumusque, Francesco Pepe, …, Stéphane Udry, “An Earth-mass planet orbiting α Centauri B,” Nature 491: 207–211 (08 Nov 2012), doi: 10.1038/nature11572; recomiendo también Artie P. Hatzes, “Astronomy: Meet our closest neighbour,” Nature 491: 200–201 (08 Nov 2012), doi: 10.1038/nature11636. El planeta que tenía una masa mínima de 1,13 ± 0,09 veces la masa de la Tierra, se descubrió por el método Doppler (o de la velocidad radial) con el espectrógrafo HARPS (High Accuracy Radial Velocity Planet Searcher) del telescopio ESO de 3,6 m en La Silla, Chile, el mismo que se ha usado ahora. Su periodo (año) de solo 3,236 días indicaba que se encontraba a 0,04 unidades astronómicas de su estrella, luego era demasiado caliente para estar en la zona habitable de su estrella. Además, cuando se anunció se hablaba de candidato a planeta, pues el método Doppler se consideraba poco fiable para la detección de un planeta de tamaño tan pequeño (similar al terrestre).
El (candidato a) planeta tipo terrestre alrededor de Alpha Centauri B, cuya confianza estadística se estimó en tres sigmas, no fue confirmado con un análisis independiente de los mismos datos de HARPS, ni por Artie P. Hatzes, “The radial velocity detection of earth-mass planets in the presence of activity noise: the case of α Centauri Bb,” The Astrophysical Journal 770: 133 (05 Jun 2013), doi: 10.1088/0004-637X/770/2/133, ni por V. Rajpaul, S. Aigrain, S. Roberts, “Ghost in the time series: no planet for Alpha Cen B,” Monthly Notices of the Royal Astronomical Society (MNRAS) 456: L6-L10 (11 Feb 2016), doi: 10.1093/mnrasl/slv164. Como resultado hoy en día se considera que dicho planeta no existe. El viento se llevó al candidato a planeta.
Dibujo20160825 Detection of a Doppler signal at 11 day proxima centauri nature19106-f1
Para minimizar las posibles dudas sobre el candidato a planeta alrededor de Proxima Centauri, los astrónomos han combinado dos métodos para su detección (y tres conjuntos de datos): 90 medidas HARPS anteriores a 2016 (HARPS pre-2016), 54 medidas HARPS obtenidas en 2016 por el proyecto Pale Red Dot entre el 19 de enero y el 31 de marzo (HARPS PRD), y 72 medidas UVES obtenidas entre 2000 y 2008 (Ultraviolet and Visual Echelle Spectrograph). Ambos instrumentos de ESO, HARPS y UVES, están instalados en sendos telescopios y sus datos han sido analizados por el mismo equipo de investigadores, lo que no evita el sesgo de confirmación, luego su análisis independiente me parece imprescindible. El artículo es Guillem Anglada-Escudé, Pedro J. Amado, …, Mathias Zechmeister, “A terrestrial planet candidate in a temperate orbit around Proxima Centauri,” Nature 536: 437–440 (25 Aug 2016), doi: 10.1038/nature19106.
Dibujo20160825 planet proxima centauri parameters nature table
Como indica esta tabla el periodo (año) del nuevo (candidato a) planeta es de 11,186 ± 0,002 días, con una órbita de semieje mayor a 0,048 ± 0,005 unidades astronómicas y una masa mínima de 1,27 ± 0,19 veces la terrestre. La relación entre masa y radio para un planeta rocoso indica que su radio será inferior a 1,2 veces el radio terrestre, lo que garantiza que no se trata de un planeta gaseoso (Li Zeng, Dimitar Sasselov, Stein Jacobsen, “Mass-Radius Relation for Rocky Planets based on PREM,” The Astrophysical Journal 819: 127 (Mar 2016), doi: 10.3847/0004-637X/819/2/127arXiv:1512.08827 [astro-ph.EP]). Muchos medios hablan de este planeta omitiendo estos detalles, quizás porque así lo ha hecho en esta ocasión Artie P. Hatzes, “Astronomy: Earth-like planet around Sun’s neighbour,” Nature 536: 408–409 (25 Aug 2016), doi: 10.1038/536408a. ¿Por qué ahora no tiene dudas sobre este planeta como ocurrió en 2012? Porque la confianza estadística bayesiana en contra de la hipótesis nula alcanza 21 millones (como ves en la tabla), es decir, unas 5,4 sigmas (la del planeta de 2012 rondaba las 3 sigmas). Sin embargo, repito, la confirmación independiente me parece imprescindible.
Dibujo20160825 Schematic diagrams climate regimes function CO2 atmospheric content synchronous spin state proxima b
No se conocen en detalle los parámetros orbitales, luego hay dos escenarios posibles. Una órbita casi circular en rotación síncrona 1:1, con lo que el planeta siempre ofrece la misma cara a su estrella, o una órbita excéntrica en rotación asíncrona 3:2. La posibilidad de la existencia de oceános o lagos de agua líquida depende del contenido de gases de efecto invernadero en su atmósfera y de la cantidad de agua que se pudo perder durante la evolución temprana del planeta. Esta figura presenta los escenarios posibles en el caso síncrono en función de la concentración de CO2 y del contenido actual de agua retenida. Hay una amplia región del espacio de parámetros en el que habría un océano de agua líquida en la superficie, pero también es posible que se trate de un planeta seco con pequeños lagos superficiales solo durante la noche.
Dibujo20160825 Schematic diagrams climate regimes function CO2 atmospheric content asynchronous state proxima b
Esta figura presenta los escenarios posibles en el caso asíncrono en función de la concentración de CO2 y del contenido actual de agua retenida. Hay una amplia región del espacio de parámetros en el que habría agua líquida en la superficie. Se observa que para un efecto invernadero pequeño (baja concentración de CO2) podría ser un mundo cubierto de nieve, quizás con océanos bajo la superficie, o un mundo similar a Marte, con agua sólo en los casquetes polares. Siendo optimistas es posible que tenga grandes océanos o un gran número de lagos con agua líquida en su superficie.
Dibujo20160825 Annual mean surface temperatures of completely dry atmospheres proxima b
Estas figuras muestran las temperaturas medias anuales para el caso de una atmósfera seca en función de la presión de CO2 (las de abajo corresponden a una atmósfera similar a la terrestre). Recuerda que 355 K son unos 82 ºC, que 265 K son −8 ºC y que 145 K son −128 ºC. Si Próxima b está en resonancia 1:1 su temperatura superficial sólo permitiría albergar vida en la cara que ofrece a su estrella. Pero si estuviera en resonancia 3:2 esta región se extendería a casi todo el planeta.
Guillem Anglada-Escudé y sus colegas realizan un análisis de gran número de escenarios posibles, y no quiero aburrirte con los detalles. Lo más importante es que afirman que Próxima b es habitable casi con toda seguridad. Por supuesto, todo depende de su contenido inicial de agua y de la cantidad que haya perdido durante su evolución en los últimos miles de millones de años. Todos los extremos son posibles, desde un planeta casi seco, hasta un mundo acuático similar a la Tierra.
Dibujo20160825 high-energy fluxes received proxima b
Un elemento clave en Próxima b es la irradiación de alta energía que recibe desde su estrella. Esta tabla muestra la estimación entre 0,6 y 170 nm, comparada con la que recibe la Tierra. La irradiación en rayos X promedio que recibe hoy en día Proxima b se estima en 250 veces la que recibe la Tierra; en el ultravioleta cercano (XUV) recibe 60 veces la terrestre y en el lejano (FUV) unas 10 veces más. Esta irradiación promedio está compuesta por un flujo constante y por eventos más intensos (llamaradas).
Más importante que la irradiación actual es su evolución en el pasado, desde que la estrella Próxima se formó hace unos 4800 millones de años. Se han considerado dos escenarios posibles, que la irradiación XUV en Proxima b fuera unas ~150 veces más fuerte que la terrestre durante sus primeros 3000 millones de años, cayendo luego hasta los valores actuales, o que el flujo haya sido constante en el tiempo, es decir, ~60 veces más fuerte que la Tierra de forma continua. En ambos casos puede haberse retenido una atmósfera y suficiente agua líquida en la superficie para permitir la evolución de la vida.
Dibujo20160825 multiple evolutionary pathways for the water on proxima b
Esta figura muestra múltiples escenarios para la evolución del contenido de agua y de oxígeno atmosférico en Próxima b en función de las condiciones iniciales, bajo la hipótesis de la superficie es ineficiente a la hora de captura el oxígeno. La zona azul correponde a la existencia de agua pero no oxígeno (planeta habitable ideal para el origen de la vida), la amarilla a la de agua y oxígeno (planeta habitable, pero cuyo contenido en oxígeno dificulta el origen de la vida), la rosada a oxígeno pero no agua (planeta inhabitable, pero cuya atmósfera mostraría rastros de oxígeno) y la gris a la ausencia de ambos (planeta seco e inhabitable).
Dibujo20160825 efficient oxygen sinks multiple evolutionary pathways for the water on proxima b
Para el origen de la vida lo ideal sería que hubiera mecanismos superficiales eficientes para la captura del oxígeno, como muestra esta figura. La clave de la vida en Próxima b es cómo fue su evolución temprana. Lo más razonable es que estaba fuera de la zona habitable de su estrella y entró en ella más tarde. Exactamente cuándo es clave para saber cuánta agua retuvo y si pudo retener una atmósfera.
En resumen, no te aburro más, si te interesa el tema te animo a leer los artículos de arXiv que cito más arriba. Sabemos tan poco sobre Próxima b que hay hueco para casi todos los escenarios posibles. Lo importante es que muchos de ellos permiten que la vida haya surgido en dicho planeta y que en la actualidad haya agua líquida en su superficie.
 Sin lugar a dudas Próxima b será un planeta que dará mucho que hablar en los próximos años.
http://francis.naukas.com/

Una galaxia ultradifusa con un 99,99% de materia oscura

Dibujo20160826 Deep Gemini image Dragonfly 44 Black circles compact objects brighter than the completeness limit ApJ Letters


Las galaxias ultradifusas están dominadas por la materia oscura, que constituye más del 98% de su masa. El proyecto Dragonfly ha observado unas 1000 galaxias ultradifusas en el cúmulo de Coma. El récord actual lo tiene Dragonfly 44, que contiene un 99,99% de materia oscura. Su masa (un billón de masas solares) y su diámetro (cien mil años luz) es similar a los de la Vía Láctea, pero tiene cien veces menos estrellas. El récord anterior, un 99,96% de materia oscura, publicado en marzo de este año, lo tenía la galaxia VCC 1287 en el cúmulo de Virgo.
El nuevo récord se ha publicado en Pieter van Dokkum, Roberto Abraham, …, Jielai Zhang, “A High Stellar Velocity Dispersion and ~100 Globular Clusters for the Ultra-Diffuse Galaxy Dragonfly 44,” The Astrophysical Journal Letters 828: L6 (25 Aug 2016), doi: 10.3847/2041-8205/828/1/L6arXiv:1606.06291 [astro-ph.GA]; el récord anterior en Michael A. Beasley, Aaron J. Romanowsky, …, Aaron L. Deich, “An Overmassive Dark Halo Around An Ultra-Diffuse Galaxy In The Virgo Cluster,” The Astrophysical Journal Letters 819: L20 (03 Mar 2016), doi: 10.3847/2041-8205/819/2/L20arXiv:1602.04002[astro-ph.GA].
Más información divulgativa sobre galaxias ultradifusas en español en Rafael Bachiller, “Galaxias ultradifusas dominadas por materia oscura,” Ciencia, El Mundo, 13 Julio 2015; y en este blog “Galaxias ultradifusas en el cúmulo de Coma con un 99% de su masa en forma de materia oscura,” LCMF, 01 Jul 2015.
http://francis.naukas.com/

viernes, 19 de agosto de 2016

Antimateria, el otro lado del espejo...


Varios años después de viajar al País de las Maravillas, el escritor inglés Lewis Carroll retomó el personaje de Alicia en el libro A través del espejo y lo que Alicia encontró al otro lado, escrito en 1871. La historia comienza con Alicia sentada en el sofá de su sala, meditando sobre lo que ella llama la casa del espejo. Por extraño que parezca, Alicia está convencida de que al otro lado del espejo que hay encima de la chimenea existe un mundo tan real como el de su sala, sólo que las cosas están dispuestas a la inversa. Los libros, por ejemplo, se parecen a los suyos, pero con las letras escritas al revés. El humo que sale de la chimenea es el mismo que el que sale del otro lado, aunque Alicia no puede ver si ahí también encienden el fuego en invierno.
Pero lo que más intriga a Alicia es lo que se intuye cuando ella deja abierta la puerta del salón. ¿Y si más allá de la puerta de la casa del espejo fuera completamente diferente? ¿Habría alguna forma de atravesar el espejo y comprobarlo?
De repente, una niebla empieza a rodear el espejo como si se estuviera disolviendo el cristal. Alicia se encarama a la chimenea y un instante después atraviesa el cristal sin saber muy bien cómo. ¡Alicia ha pasado al otro lado!
Entonces empieza a mirar atentamente a su alrededor y descubre que allí dentro, en la casa del espejo, todo es muy distinto…

La ecuación de Dirac
El principio del libro de Carroll enlaza a la perfección con nuestra historia, cuyo argumento hubiera asombrado al propio escritor. ¿Te imaginas que el Universo en el que vivimos se pareciera al salón y a la casa del espejo de Alicia?
Todo empezó a finales de la década de 1920. Por aquel entonces, los científicos sabían que el átomo está formado por electrones, partículas con carga negativa que giran alrededor de un minúsculo núcleo donde se concentran los protones, con carga positiva (el otro componente del núcleo, el neutrón, sin carga eléctrica, todavía no se había descubierto).
Sin embargo, no se había podido describir con exactitud el comportamiento de los electrones en el interior del átomo. El problema estaba en que las ecuaciones de la mecánica cuántica, que se encarga de los fenómenos subatómicos, se basaban en la mecánica de Newton. Ésta es muy útil en el caso de sistemas en los que las velocidades son mucho menores que la de la luz, como ocurre en nuestra vida cotidiana o con el movimiento de los cuerpos celestes. Pero no sirve para partículas como el electrón, que se mueven casi tan rápido como la luz. En tales casos hay que recurrir a la teoría especial de la relatividad de Einstein, que explica lo que sucede cuando los objetos se mueven a velocidades cercanas a las de la luz.
En 1928, el físico inglés Paul Dirac fue el primero en combinar la relatividad y la mecánica cuántica, y así llegó a una ecuación que describe con precisión al electrón. Pero había algo más. Igual que una ecuación simple como x2 = 4 tiene dos soluciones, x = 2 y x = -2, la ecuación de Dirac predice también la existencia de una partícula con las mismas propiedades que el electrón, pero con carga positiva: una antipartícula. Y no sólo debía existir una antipartícula para el electrón, sino también para el resto de partículas conocidas.
El descubrimiento en 1932 del positrón, la antipartícula del electrón, confirmó la teoría de Dirac y dejó la puerta abierta a una fascinante posibilidad. De la misma manera que las partículas ordinarias forman la materia que nos rodea, también sus correspondientes antipartículas podrían formar átomos de antimateria; es decir, positrones que dan vueltas alrededor de un núcleo compuesto por antiprotones y antineutrones. La antimateria sería el reflejo de la materia, como la casa del espejo lo era del salón de Alicia antes de atravesar el espejo.
La antimateria, ¿fuente de energía?
Cuando la antimateria entra en contacto con la materia se genera una enorme cantidad de energía, más que en cualquier otra reacción conocida en física. Para que te hagas una idea, la aniquilación materia-antimateria es 2 000 millones de veces más energética que la combustión de la gasolina y 100 veces más que la fisión nuclear (la energía de los reactores nucleares y las bombas atómicas). Bastaría un gramo de antihidrógeno para producir más energía que la bomba de Hiroshima.
Pero eso no significa que la antimateria sea una fuente de energía útil. El principal inconveniente es que la antimateria que existe en el Universo es muy escasa, así que lo primero que hay que hacer es fabricarla. Y resulta que éste es un proceso muy poco eficiente, porque se necesita crear millones de antiprotones y positrones para producir unos pocos átomos de antihidrógeno. En definitiva, la energía que se aporta para crear antimateria es mucho mayor que la que se obtiene después cuando se aniquila. Parece casi imposible que en el futuro vaya a existir, por ejemplo, un motor de antimateria como el que propulsa la nave espacial Enterprise de Star Trek.
Pero imagínate que nuestro propósito no es utilizar la antimateria como fuente de energía, sino para otros fines más dudosos. Como los terroristas de la novela Ángeles y demonios de Dan Brown, que roban antimateria del CERN (Organización Europea de Investigaciones Nucleares) con la intención de crear una devastadora bomba. Después de todo, un gramo de antimateria es muy poca cantidad, ¿no?
Supongamos que pudiésemos atrapar todos los antiprotones que se producen en el CERN y utilizarlos para formar antihidrógeno, algo impensable de momento. Eso nos daría unos 1 000 millones de átomos de antihidrógeno por segundo. O lo que es lo mismo, unos 30 000 billones (3 x 1016) al año. Parece mucho, pero es que si quieres formar un gramo de antihidrógeno se necesitan 6 x 1023 átomos de antihidrógeno. A ese ritmo serían necesarios millones de años para reunir un gramo, algo inviable por mucho que se perfeccionen las técnicas. En la realidad, los terroristas que quieran hacer armas de antimateria se las van a ver más difíciles que en la ficción. Así que podemos olvidarnos de la antimateria como fuente de energía o arma destructiva y centrarnos en el verdadero interés de los científicos, que es comprender las leyes que gobiernan la naturaleza.
El origen de la antimateria
Nuestro Universo está compuesto básicamente de materia ordinaria, así que ¿de dónde surgió la antimateria y por qué no la vemos a nuestro alrededor? Para responder a esta pregunta debemos retroceder en el tiempo más de 13 000 millones de años, cuando toda la energía del Universo estaba concentrada en un único punto minúsculo. En un momento incierto se produjo lo que hoy se llama Big Bang, una catastrófica explosión que inició la expansión del Universo. A medida que crecía, el Universo se fue enfriando y parte de la energía que se generó en el estallido comenzó a transformarse en partículas y antipartículas. Eso debió ocurrir cuando ni siquiera había transcurrido una billonésima de segundo desde el Big Bang.
Fue el único momento en que materia y antimateria coexistieron de forma natural. Cuando una partícula se encuentra con su antipartícula, las dos se aniquilan y se transforman en radiación. En principio, el Big Bang debería haber generado el mismo número de partículas y antipartículas, que se habrían destruido mutuamente hasta convertir el Universo en nada más que pura radiación. Podemos estar seguros que eso no ocurrió, porque en tal caso no estaríamos aquí para contarlo. Por algún motivo desconocido, el equilibrio entre materia y antimateria se decantó a favor de la materia. Se calcula que por cada 1 000 millones de antipartículas, se formaron 1 000 millones más una partículas. Es decir, por cada 1 000 millones de pares partícula-antipartícula que se aniquilaron, hubo una afortunada partícula que se salvó. La diferencia puede parecer insignificante, pero ahí empezó a formarse el Universo tal y como lo conocemos hoy: estas partículas supervivientes se unieron luego para formar los primeros átomos, que más tarde constituirían las primeras estrellas y galaxias.
Los científicos sospechan que la causa de este desequilibrio entre materia y antimateria es que ambas se comportan de distinta manera y que, por tanto, las leyes físicas para una y otra no son exactamente las mismas. Esto sería algo extraordinario, tan sorprendente como lo fue para Alicia descubrir que su salón y la casa del espejo eran diferentes.
¿Cómo comprobarlo? Una manera sería crear un átomo de antihidrógeno —que es el más simple de todos, formado por un antiprotón y un positrón—, estudiar sus propiedades físicas y luego comparar los resultados con los del átomo de hidrógeno, que conocemos tan bien.
Producción de antimateria
La producción de antipartículas como positrones y antiprotones se ha convertido en algo rutinario en los aceleradores de partículas. Pero juntar estas antipartículas y formar átomos de antimateria es mucho más difícil, ya que cualquier contacto con la materia ordinaria tiene desastrosas consecuencias. Los primeros intentos se remontan a principios de la década de 1990. El método consistía en hacer pasar un antiprotón muy veloz cerca de un núcleo atómico pesado, por ejemplo, xenón, lo que de tanto en tanto creaba un par electrón-positrón. En este hipotético caso, el antiprotón podía unirse con el positrón y formar un átomo de antihidrógeno, aunque esto era todavía menos frecuente que lo anterior. Fue un logro enorme que unos investigadores del CERN (Organización Europea de Investigaciones Nucleares), en Ginebra, consiguieran en 1995 crear así los primeros nueve átomos de antihidrógeno. El problema de esta técnica, además de ser muy poco eficiente, es que el antihidrógeno se fabrica a velocidades cercanas a las de la luz, por lo que no había ninguna posibilidad de estudiar sus propiedades antes de que los antiátomos desaparecieran.
A principios de la década de 2000, el experimento ATHENA del CERN producía por separado positrones —a partir de diversas sustancias radiactivas, como el flúor o el sodio— y antiprotones —en los aceleradores de partículas—. Como los átomos de antihidrógeno no se pueden enfriar de la manera convencional —por ejemplo, con helio líquido— porque se aniquilarían al entrar en contacto con él, deben crearse ya con poca energía, o como dicen los físicos, fríos. Y su energía depende principalmente de la energía de los antiprotones incidentes, pues son mucho más masivos que los positrones. Cuanto más fríos estén los antiprotones (es decir, cuanto más lentos sean), más fácil será luego crear y capturar los átomos de antihidrógeno.
Con esta idea se construyó el llamado Desacelerador de Antiprotones (AD, por sus siglas en inglés), un anillo en el que se colocaban diversas láminas llamadas degradadores. Los antiprotones se hacían girar por el anillo y chocar con los átomos de las láminas; los que no se aniquilaban, se frenaban a un 10% de su velocidad inicial.
Los antiprotones que salían del AD se mezclaban con los positrones en unas "botellas" electromagnéticas llamadas trampas de Penning. Estas trampas son recipientes de donde se extrae por bombeo todo el aire del interior y se rodean con helio líquido, el cual se mantiene a una temperatura de apenas 4 kelvin (-269º C). En el núcleo de la trampa se crean campos electromagnéticos que facilitan la unión de las antipartículas y, al mismo tiempo, impiden que entren en contacto con las paredes de la trampa.
Gracias a los antiprotones fríos y a la trampa de Penning, el equipo ATHENA consiguió en 2002 crear átomos de antihidrógeno durante sólo unos microsegundos. Fue tan breve porque al formarse el átomo de antihidrógeno, la carga de una antipartícula compensa la de la otra y, como ocurre con el átomo de hidrógeno cotidiano, su carga eléctrica total es cero. Sin carga, los campos eléctricos y magnéticos del interior de la botella ya no tienen efecto sobre él y se escapa, perdiéndose para siempre. Las trampas de Penning son muy útiles a la hora de crear átomos de antihidrógeno, pero no sirven para tenerlos quietos.
La antimateria en nuestra vida diaria
Es cierto que la antimateria escasea en nuestro universo, pero eso no significa que sea algo tan raro y exótico como pueda parecer. Los físicos crean y destruyen antipartículas a diario desde hace décadas. Y en los hospitales se utiliza la antimateria en una técnica de imagen médica muy importante: la llamada tomografía por emisión de positrones (PET, por sus siglas en inglés).
La tomografía es una técnica que permite tomar imágenes del cuerpo en cortes. En el caso de la PET se consigue gracias a la radiactividad de determinados elementos, que emiten positrones de manera natural; el más utilizado es el flúor-18. Estos elementos radiactivos tienen una vida media corta, de unos 10 minutos, lo que significa que transcurrido ese tiempo la cantidad de dicho elemento se reduce a la mitad. La muestra radiactiva se introduce en el cuerpo del paciente, normalmente por vía intravenosa u oral, y se espera a que se acumule en el área de interés. Los positrones que emite continuamente se encuentran enseguida con los electrones de los átomos de nuestro cuerpo, explotando en dos fotones de alta energía, que son emitidos en direcciones opuestas, de acuerdo con las leyes de la física.
Alrededor del paciente se disponen los detectores en forma de anillo, que son capaces de medir el tiempo de llegada de los fotones y su dirección. Cuando se detectan dos fotones que llegan a la vez desde direcciones opuestas, sabemos que se ha producido una aniquilación electrón-positrón. Estos fotones detectados se convierten en señales eléctricas y la información que se obtiene permite construir una imagen por secciones.
La PET es una técnica diagnóstica muy útil porque también detecta regiones de alta actividad química. Cuando el metabolismo de una zona aumenta —por ejemplo, en un tumor—, la concentración de sustancias químicas también aumenta, y con ella la densidad de electrones. Por tanto, las aniquilaciones serán más numerosas en esta zona que en otra de baja actividad metabólica. En definitiva, la PET no sólo proporciona imágenes, sino que permite visualizar procesos biológicos como el flujo sanguíneo, el metabolismo y los receptores neuronales. De todo ello se están beneficiando diversas áreas de la medicina.
La trampa dentro de la trampa
Había que pensar en otra estrategia para atrapar los átomos de antihidrógeno. Con este objetivo surgió en 2005 el proyecto ALPHA, que tomó el relevo de ATHENA en el CERN. Su planteamiento se basaba en que aunque no tenga carga eléctrica, el átomo de antihidrógeno se comporta como una pequeña brújula sensible a un campo magnético. El equipo ALPHA diseñó una trampa magnética a base de un complejo imán con varios polos magnéticos, una configuración que se conoce como trampa de Ioffe. La trampa de Penning se sitúa dentro de la trampa de Ioffe, de manera que cuando se forman los átomos de antihidrógeno y la trampa de Penning ya no los puede retener, entra en acción la trampa de Ioffe y los atrapa. La combinación de ambas trampas es el arma perfecta para cazar antimateria, siempre que los antiprotones sean lo suficientemente lentos.
En efecto, el campo magnético creado por la trampa de Ioffe es muy débil, por lo que es necesario enfriar todavía más los antiprotones para poder atraparlos. Por eso se incluyó antes de la trampa un ingenioso mecanismo de frenado a base de electrones. La idea es parecida a detener un balón de fútbol haciéndolo pasar por un montón de pelotas de tenis. De la misma manera, los científicos utilizan los electrones para enfriar los antiprotones haciendo que choquen con ellos. La ventaja de los electrones es que son fáciles de enfriar y pueden interactuar con los antiprotones sin aniquilarlos, puesto que no forman un par partícula-antipartícula. En apenas un minuto, electrones y antiprotones llegan a una temperatura de equilibrio de 20 kelvin (-253º C). Los antiprotones ya están listos para mezclarse con los positrones y formar átomos de antihidrógeno fríos que puedan ser luego capturados en la trampa de Ioffe.
En noviembre de 2010, los responsables del experimento ALPHA confirmaron que de la interacción de 10 millones de antiprotones y 700 millones de positrones, se habían formado 38 átomos estables de antihidrógeno, que duraron 172 milisegundos cada uno. Éste era el tiempo mínimo para asegurarse que se habían barrido de la trampa el resto de antipartículas que no habían llegado a formar antimateria. Apenas unos meses después, consiguieron atrapar 309 átomos de antihidrógeno, 19 de los cuales aguantaron 1000 segundos. Este tiempo sí es suficiente para estudiar el antihidrógeno en profundidad y comprobar si se comporta tal y como indican los modelos teóricos.