El reciente descubrimiento del “bosón de Higgs” ha conseguido llegar hasta la prensa generalista, consiguiendo despertar gran expectación entre el gran público que se preguntaba que significaba esa partícula o por qué era tan importante.
El desconocimiento es generalizado como era lógico esperar, incluso en personas mejor formadas en ciencias.
Por ello, viene bien añadir cuanta más luz mejor en el contexto en que dicho descubrimiento se produce. Y es que estamos de lleno inmersos dentro de las “arenas movedizas” de la física cuántica.
Difícil, contraintuitiva pero a la vez más maravillosa que “el País de las Maravillas de Alicia”.

El Modelo Estándar es el cuerpo de teoría que explica las partículas elementales y las fuerzas o interacciones que las ligan entre sí, que es tanto como decir que explica la materia que hoy día conocemos. Éste funciona muy bien al explicar gran cantidad de resultados experimentales.
Sin embargo, reposa incómodo sobre una base inestable que plantea un misterio profundo, cuya solución es casi seguro que nos va llevar a ideas innovadoras y nuevos hallazgos sobre la estructura que subyace en el universo.
Este misterio se conoce entre los físicos como “el problema de la jerarquía”.
El problema no es que las predicciones del Modelo Estándar no coincidan con los resultados experimentales. Las masas y las cargas asociadas con la “fuerza electromagnética”, la “fuerza débil” y la “fuerza fuerte”, tres de las cuatro fuerzas fundamentales de la naturaleza, han sido comprobadas con una precisión increíble. Los experimentos realizados en el pasado en los grandes aceleradores de de partículas, como el LEP de Ginebra o el Tevatrón del Fermilab en Chicago o actualmente en el LHC del CERN en Ginebra, han confirmado con precisión exquisita las predicciones del Modelo Estándar sobre las interacciones entre las partículas y sobre las tasas de desintegración de las mismas.
Tampoco la “intensidades de las fuerzas” plantean ningún misterio significativo, sino que por el contrario sugieren la idea de una “gran teoría unificada” que hace referencia al hecho de que durante las primeras fracciones de segundo todas ellas estuvieron unificadas en una sola fuerza. Además, el “mecanismo de Higgs” explica perfectamente como el vacío rompe la simetría electrodébil y proporciona masas a los “bosones W y Z”, así como a los quarks y a los leptones.
Pero ocurre que la masa de las partículas elementales que medimos habitualmente y por tanto, también la masa obtenida para la recién descubierta partícula de Higgs es diez mil billones de veces, o lo que es lo mismo dieciséis órdenes de magnitud (recuérdese que cada orden de magnitud equivale a una potencia de diez), más pequeña que la masa que los físicos esperarían obtener aplicando consideraciones teóricas generales. A cualquier físico que se hubiera puesto a calcular el valor de la masa aplicando la teoría para altas energías, le habría salido un resultado completamente erróneo. El valor de la masa parece surgir por arte de magia.
¿Por qué la masa del “bosón de higgs” y de los “bosones W y Z” es tan pequeña?
Este enigma, el denominado “problema de la jerarquía”, es una gran brecha en nuestra comprensión de la física de partículas.
Existe un efecto que se llama “las contribuciones de la física cuántica” o, simplemente, “contribuciones cuánticas”.
Esas “contribuciones cuánticas” han de sumarse a la masa clásica para determinar la auténtica masa que tendría la “partícula de Higgs” en el mundo real.
Y esas contribuciones son mucho más grandes que los alrededor de 125 GeV obtenidos experimentalmente para la masa de la “partícula de Higgs”.
Lo que sigue a continuación es contraintuitivo, pues no existe una situación análoga que podamos imaginarnos en la física no cuántica, es decir, en la física clásica.
Las “partículas virtuales”, consecuencia de la mecánica cuántica, son gemelas extrañas y fantasmales de las partículas reales. Irrumpen en el mundo real e inmediatamente se esfuman.
Las “partículas virtuales” tienen las mismas interacciones y las mismas cargas que las partículas físicas, pero disponen de energías que parecen estar mal.
Por ejemplo, una partícula que se mueve muy rápido obviamente transporta mucha energía,
por el contrario, una partícula virtual puede tener una velocidad enorme y nada de energía.
De hecho, las “partículas virtuales” pueden tener cualquier energía diferente de la que porta la correspondiente partícula física real.
Las “partículas virtuales” son un aspecto extraño de la mecánica cuántica que hay que tener en cuenta para llegar a las predicciones correctas.
El concepto de “partículas virtuales” es uno de los más profundos y difíciles de explicar con palabras cotidianas de toda la física. Lo más importante que hay que saber es que las “partículas virtuales” no son partículas, sino excitaciones del “vacío del campo”.
Una región del espacio está vacía si no hay partículas y cuya energía y momento es cero para un valor promedio de espacio-tiempo, pero puede haber ondas en el campo.
¡El “vacío” del “campo” no está vacío, tiene ondas del campo, que los físicos denominan “fluctuaciones” y también con el curioso nombre de “partículas virtuales”.
Las leyes de la física cuántica (en concreto, el “principio de incertidumbre” de Heisenberg) permiten que estas “partículas virtuales” aparezcan y desaparezcan sin que nadie puedan observarlas.
¿Por qué se les llama entonces partículas?
Porque en ciertas interacciones una “partícula virtual” puede transformarse en una partícula. Estas “excitaciones del vacío” son tratadas como si fueran “partículas” que pueden violar las leyes de la física (por ejemplo, los “fotones virtuales” tienen masa, pueden comportarse como si viajaran al pasado y otras cosas más raras).
Pero hemos de tener en cuenta que violan las leyes físicas cuando insistimos en ver como partículas cosas que no lo son.
Recreación de las fluctuaciones cuánticas del vacío o partículas virtuales.
¿Cómo pueden existir, entonces, unas partículas aparentemente imposibles?
Una partícula virtual con su energía prestada no podría existir si no existiera el “principio de incertidumbre”, que permite que las partículas tengan una energía incorrecta siempre y cuando esto ocurra durante un intervalo de tiempo tan corto que resulte imposible de medir.
El “principio de incertidumbre” dice que ciertas parejas de magnitudes nunca pueden medirse con precisión al mismo tiempo. Esto supuso una ruptura con mayúscula con la física clásica, que asume que podemos medir todas las características de un sistema físico (la posición y el momento, por ejemplo) con tanta precisión como queramos.
En física cuántica, estas parejas de magnitudes son aquellas donde es importante considerar cuál se mide primero. Por ejemplo, si tuviéramos que medir la “posición” y luego el “momento”, no obtendríamos el mismo resultado que si midiéramos primero el momento y después la posición.
Esto no pasaría en la física clásica y ciertamente no es algo a lo que estemos acostumbrados.
El orden en el que se hagan las mediciones sólo importa en la física cuántica.
El “principio de incertidumbre” de Heisenberg dice que en el caso de dos magnitudes para las cuales el orden de medición cuenta, el producto de los errores de ambas medidas, será siempre superior a una constante fundamental, la constante de Plnack, que vale 6´582·10 ^ -25
(diez elevado a menos veinticinco) GeV (giga electronvoltios) por segundo.
Si insistimos en saber la “posición” con mucha precisión, no podemos saber el “momento” con precisión análoga y viceversa. No importa ni lo precisos que sean los instrumentos de medida ni las veces que lo intentemos. No podremos nunca medir simultáneamente ambas magnitudes con una precisión muy alta. Si una magnitud se midiese con total precisión, el “principio de incertidumbre” nos diría que después de hacer esa medición, no podemos saber nada sobre la otra magnitud conjugada con la que forma pareja, de la que tendríamos una “incertidumbre” infinita en su correspondiente medida. Y viceversa. En cualquier caso, cuanto mejor conozcamos una de dichas magnitudes, menos precisa ha de ser la medida de la otra.
Aunque la aplicación de este principio afecta a numerosas parejas conjugadas, es frecuente expresarlo a la pareja de magnitudes posición-momento, o bien, energía –tiempo:
La “h barrada” se denomina “constante reducida” de Planck, fue introducida por Dirac y equivale a “h dividido entre dos pi”.
Por lo que también se puede expresar así:
La segunda expresión se suele utilizar en física de partículas y nos dice que el producto de la incertidumbre de la energía y del tiempo característico para que el sistema cambie será siempre mayor que la constante de Planck.
Otra manera de explicar esto consiste en decir que necesitamos altas energías para explorar distancias cortas.
Escala de energía-distancia
Esta expresión del “principio de incertidumbre” nos dice que tardaríamos un tiempo infinito en medir la energía (o la masa) con una precisión absoluta.
A causa del “principio de incertidumbre”, las “partículas virtuales” harán todo aquello que puedan hacer “sin que las pillen”, si no se puede medir.
Las partículas virtuales no tienen escrúpulos y “hacen lo que les parece cuando nadie las mira”. (Un físico de Amsterdan llegó a insinuar que eran holandesas).
Podemos imaginar que el vacío es un depósito de energía.
Las “partículas virtuales” son partículas que surgen del vacío, tomando prestada temporalmente parte de su energía.
Existen de un modo fugaz y desaparecen de nuevo en el vacío, llevándose la energía que tomaron prestada. Esta energía puede volver a su lugar de origen o puede ser transferida a partículas situadas en algún otro punto.
El “vacío” de la física cuántica es un lugar muy frecuentado. Aunque por definición en el vacío no hay nada, los “efectos cuánticos” producen un “mar hormigueante de partículas y antipartículas virtuales”, que aparecen y desaparecen y, aunque no son estables, también las partículas de larga vida están allí presentes.
Todas las parejas partícula-antipartícula pueden, en principio, producirse, aunque eso sí, sólo durante intervalos muy cortos; tan cortos que es imposible verlas directamente.
Recreación de la creación instantánea partícula-antipartícula.
Pero a pesar de lo breve de su existencia, hemos de ocuparnos de las “partículas virtuales”, ya que dejan su marca en las interacciones de las partículas de larga vida.
Recreación del mar hormigueante de partículas y antipartículas virtuales.
Las “partículas virtuales” tienen consecuencias medibles porque ejercen su influencia sobre las interacciones de las partículas físicas reales que entran y salen de una determinada región de interacción. Durante el breve lapso de su existencia, una “partícula virtual” puede viajar entre partículas antes de desaparecer y de pagar su deuda de energía al vacío.
Las partículas virtuales actúan por ello como “intermediarios” que ejercen su influencia sobre las interacciones de las partículas estables de larga vida.
En la siguiente figura se muestra, utilizando un diagrama de Feynman como un fotón entra en una zona de interacción, se produce una pareja virtual electrón-positrón y luego la pareja es absorbida en otro punto. En el lugar donde son absorbidas las partículas, emerge del vacío otro fotón que se lleva la energía que la pareja intermediaria electrón-positrón había tomado prestada temporalmente:
La intensidad de las fuerzas que conocemos depende de las “energías” y de las “distancias” implicadas en las interacciones de las partículas y en física cuántica las “partículas virtuales” desempeñan un papel. Resulta de aplicar una propiedad de la “teoría cuántica de campos” que el físico Jonathan Flynn llamó con humor el “principio de anarquía”
El “principio de anarquía” surge de la física cuántica y nos dice que “todas las interacciones de partículas que pueden darse, de hecho se darán”. En la “teoría cuántica de campos”, ¡todo lo que no está prohibido ocurrirá!,
Llamaremos “camino” a cada proceso independiente mediante el cual interactúa un grupo determinado de partículas. Un “camino” puede implicar o no partículas virtuales.
Cuando incluya alguna de éstas diremos que es una “contribución cuántica”.
¡La mecánica cuántica nos dice que todos los posibles “caminos” contribuyen a la intensidad de una interacción! Por ejemplo, las partículas físicas pueden convertirse en partículas virtuales (como en la figura anterior), que pueden interactuar entre sí y luego volver a convertirse en otras partículas físicas reales.
En un proceso así, las partículas físicas originales podrían volver a emerger o podrían transformarse en otras partículas físicas diferentes. Aunque las “partículas virtuales” no durarían el tiempo suficiente como para que sea posible verlas directamente, afectarían de todas maneras al modo de interacción entre las partículas observables, reales.
No solo las interacciones directas entre partículas físicas, sino también las interacciones indirectas, las que implican “partículas virtuales”, desempeñan un papel a la hora de transmitir una fuerza. ¡La interacción neta entre partículas es la suma de todas las posibles “contribuciones”, incluidas las que provienen de las “partículas virtuales”. Y como la importancia de las distancias implicadas, la intensidad de las fuerzas depende de las distancias.
En cualquier interacción todos los efectos de las “partículas virtuales” intermedias se van sumando, reforzando o debilitando al bosón de interacción.
La física cuántica, por tanto, dice que puede haber muchos “caminos” e insiste en que la intensidad neta de una interacción es la suma de las “contribuciones” de todos los posibles “caminos”
que pudieran recorrerse.
Consideremos un fotón que viaja de una partícula cargada a otra. Como puede convertirse en parejas de electrón-positrón virtuales sobre la marcha, la mecánica cuántica (principio de anarquía), nos dice que, efectivamente, así lo hará. Y las rutas con electrones y positrones virtuales debilitan la eficacia con la que el fotón transmite la “fuerza electromagnética”.
Y este no es el único proceso cuántico que puede darse.
Los mismos electrones y positrones virtuales pueden emitir fotones, que pueden convertirse en otras partículas virtuales, y así sucesivamente.
La recurrencia del proceso debilita la fuerza electromagnética con la distancia.
La distancia entre las partícula cargadas que intercambian el fotón determina cuántas interacciones de éstas tendrá el fotón mensajero con partículas virtuales en el vacío y cómo
de grande será el impacto de las interacciones.
La intensidad de la “fuerza electromagnética” es el resultado neto de los muchos “caminos” que adopta el fotón cuando se tienen en cuenta todos los rodeos posibles, es decir, todos los procesos cuánticos en los que podrían participar “partículas virtuales”.
Como el número de partículas virtuales que un fotón recorre depende de la “distancia” que recorre, la fuerza de interacción del fotón depende de la distancia entre los objetos cargados con los que interactúa.
Cuando se suman todas las “contribuciones de todos los posibles “caminos”, el cálculo demuestra que el vacío diluye el mensaje que el fotón transmite de parte del electrón.
La auténtica fuerza eléctrica a largas distancias parece ser más pequeña que la fuerza eléctrica a cortas distancias porque un fotón que transmite una fuerza a corta distancia toma con más frecuencia un “camino” que no involucra “partículas virtuales”. Un fotón que viaje a corta distancia no tendría que pasar a través de una gran nube debilitadora de “partículas virtuales”, que es lo que le ocurriría a un fotón que transmitiera una fuerza a una gran distancia.
Podemos observar, por tanto, la diferencia de interpretación de la dependencia de las fuerzas con la distancia en la física clásica, donde se trata de una “acción instantánea a distancia”, de la dada por la física cuántica, donde se trata de una suma de “caminos”, cuyas contribuciones” están intermediadas muchas veces por “partículas virtuales”.
Aunque no vamos a entrar en esta cuestión, las “partículas virtuales” no siempre echan el freno o debilitan las interacciones, sino que puede ocurrir lo contrario. Éste es el caso de la “fuerza o interacción fuerte” que se establece entre los quarks del núcleo. En este caso la partícula intermediaria de la fuerza no es el fotón, sino el “gluón”.
En este caso los “gluones” interactúan entre sí, constituyendo un caso diferente al de la “fuerza electromagnética” comentado anteriormente.
Los mismos tipos de “contribuciones cuánticas” que producen la dependencia respecto a la distancia de la intensidad de las fuerzas, también influyen en el “tamaño de las masas”.
Pero en el caso de la “masa” no ocurre lo mismo que con las fuerzas, donde los hechos experimentales se ajustan a las predicciones teóricas, sino que ¡en este caso existe una gran divergencia respecto a la “contribución de las partículas virtuales” en la determinación de las masas, puesto que estas resultan ser en la teoría mucho más grandes!
En el caso de la “partícula de Higgs”, ésta interactúa con partículas pesadas cuya masa excede en muchos órdenes de magnitud a la encontrada recientemente en el LHC del CERN. Alguno de los “caminos” que sigue el Higgs implica que el vacío expela una “partícula virtual” pesada, así como el hecho de que el Higgs se convierta temporalmente en esas partículas mientras viaja.
Las partículas pesadas que surgen del vacío y se desvanecen en él, influyen sobre el movimiento de la “partícula de Higgs”. Ellas son las responsables a las que hay que adjudicarlas enormes “contribuciones cuánticas” y, por tanto, de masa.
La física cuántica nos dice que si queremos determinar la masa que posee realmente la “partícula de Higgs”, debemos añadir esos “caminos” con “partículas virtuales” pesadas al único camino que no las tiene.
El problema es que los “caminos” que contienen “partículas virtuales” pesadas, generan contribuciones a la masa de la “partícula de Higgs” que son trece órdenes de magnitud superior a la masa encontrada.
Algunas contribuciones cuánticas serían positivas y otras serían negativas.
La teoría realiza un “apaño” para que entre unas y otras se produzcan cancelaciones de masa de manera que el resultado final se corresponda con la masa encontrada. Basta que haya una sola “partícula virtual” que interactúe con la “partícula de Higgs” para que aparezca un problema.
El “apaño” que se realiza es altamente improbable y requiere urgentemente nuevos planteamientos teóricos para salvar el “problema de la jerarquía”, de lo contrario nos encontraríamos instalados en una situación donde el “mecanismo de Higgs” requiere de la “burocracia” de las “partículas virtuales” que mantenga unas partículas pesadas, pero que mantenga otras, como la “partícula de Higgs”, que sean ligeras. Sin embargo, los “caminos cuánticos” vinculados a las partículas virtuales otorgan “contribuciones” parecidas a todas las masas de las partículas.
Así que habría que esperar que todas las partículas, incluida la de Higgs, sean tan pesadas como trece órdenes mayores de la masa encontrada para el “bosón de Higgs”.
Sin una “nueva física”, que replantee el problema y aporte nuevas soluciones, la única alternativa que ofrece el Modelo Estándar es el “apaño” que hemos comentado anteriormente: que la suma de todas las enormes contribuciones, se dieran una serie de cancelaciones entre contribuciones positivas y negativas, de modo que a pesar los grandes números manejados el resultado fuese un número muy pequeño. Esta “afinación precisa” es extremadamente improbable, pues algo menos de una precisión de trece cifras, daría resultados espectacularmente incorrectos.
Si la masa de la “partícula de higgs” fuese más grande de lo que es, también lo serían las masas de las demás partículas y las estructuras que vemos en el universo, incluida la propia vida, serían imposibles.
Existen teorías que proponen soluciones a este problema, por ejemplo la “Supersimetría”, cuyas predicciones quizás estemos en condiciones de explorarlas en el LHC del CERN, en Ginebra.
Hasta ahora, en el momento de escribir estas líneas, no se ha producido ninguna novedad en este terreno, si bien la vida operativa que le queda al LHC (en principio su actividad está garantizada hasta el año 2022) no cierra ninguna expectativa sobre el hallazgo de
“partículas supersimétricas”.
Otra alternativa pueden ser las teorías que admiten la existencia de “dimensiones extras”.
Tal vez, los experimentos en curso en el LHC también puedan decir algo sobre esta visión de la realidad.









