Líneas de investigación

  • Detección directa de materia oscura

La búsqueda de partículas candidatas a materia oscura, en experimentos de detección directa y a través de telescopios de axiones, es una de las líneas de investigación del Centro de Astropartículas y Física de Altas Energías. El descubrimiento de una nueva partícula fundamental, componente potencial de la materia oscura del universo, constituiría un hallazgo de primer orden en física de partículas. El establecimiento experimental de física más allá del modelo estándar tendría consecuencias revolucionarias para la física de partículas, astrofísica y cosmología, y redefiniría la estrategia de investigación en estos campos. Los resultados en esta línea pueden tener una gran repercusión para el posicionamiento de la física española de astropartículas en el contexto internacional.

Gran parte de este trabajo experimental se realiza en el Laboratorio Subterráneo de Canfranc (LSC), utilizando técnicas propias de la física nuclear y, en particular, trabajando en condiciones de ultra bajo fondo radiactivo. El LSC es una de las ICTS existentes en Aragón, en la que miembros del grupo de investigación de Física Nuclear y Astropartículas (GIFNA), que actualmente ostenta la condición de Unidad Científica Asociada, llevan trabajando desde hace 30 años. Su colaboración técnica y científica con el LSC y su participación directa en algunos de los experimentos que allí se desarrollan suponen un apoyo sustancial a una ICTS del sistema aragonés. Actualmente la investigación del grupo en dicho laboratorio se centra en la búsqueda de WIMPs (Weakly Interacting Massive Particles), que son el candidato preferido a constituir la materia oscura del universo. El grupo, que es pionero en los estudios de materia oscura en España, dirige dos experimentos (ANAIS-112 y TREX-DM) estratégicamente elegidos para complementarse y cubrir dos de las aproximaciones experimentales más prometedoras en la detección directa de materia oscura: modulación anual y WIMPs de baja masa. ANAIS-112, aprobado como experimento del LSC en 2010, tiene como objetivo la confirmación o refutación del controvertido resultado del experimento DAMA/LIBRA, en el laboratorio nacional del Gran Sasso, Italia, que ha observado una modulación anual en el ritmo de detección compatible con la esperada para WIMPs. El experimento, consistente en 112.5 kg de centelladores ultrapuros de ioduro de sodio, ha iniciado la toma de datos en agosto de 2017 y tiene un alto potencial de descubrimiento de la materia oscura con cinco años de datos si la señal de modulación observada por DAMA/LIBRA es debida a WIMPs. El experimento TREX-DM está orientado a la detección de WIMPs de baja masa, y consiste en un detector con tecnología Micromegas y componentes de máxima radiopureza, resultado de los desarrollos realizados en la Universidad de Zaragoza como parte del proyecto TREX (ERC StG 2009-2015). TREX-DM fue aprobado como experimento del LSC a comienzos de 2017 y su montaje se está realizando en 2018 para, a continuación, entrar en la fase de toma de datos y obtener los primeros resultados  físicos.

  • Modelización de materia oscura en galaxias

El primer argumento en favor de la existencia de materia oscura no bariónica resultó de la descripción de las curvas de rotación observadas en galaxias. A él se añadieron posteriormente nuevas evidencias provenientes de la nucleosíntesis primordial, el espectro de potencias angular del fondo cósmico de microondas, las grandes estructuras del universo y las lentes gravitacionales producidas por cúmulos de galaxias.

Pero la materia oscura no es suficiente. También se precisa de otra nueva componente para explicar la edad de las estrellas más viejas y la expansión acelerada de nuestro universo. Esta nueva componente, denominada “energía oscura”, presentaría, desde un punto de vista hidrodinámico, una presión negativa que sería una función de su densidad de energía. El modelo más sencillo de energía oscura es el de la constante cosmológica.

El modelo estándar con el que se ha tratado el universo es el modelo de constante cosmológica y materia oscura fría (LCDM). En este modelo, la constante cosmológica presenta una presión constante que es igual a menos su densidad de energía, y la materia oscura fría es considerada como partículas no-relativistas (presión despreciable) que solo interaccionan gravitacionalmente.

Siguiendo este modelo, se han estudiado los efectos de la constante cosmológica en cúmulos de materia oscura. En particular, se ha investigado la región de colapso de estos cúmulos. Los resultados obtenidos son consistentes con resultados observacionales de los cúmulos de galaxias estudiados en el CAIRNS (Cluster and Infall Region Nearby Survey).

Por otro lado, el modelo LCDM, a grandes escalas, da cuenta de las observaciones de grupos y de cúmulos de galaxias. Sin embargo, a pequeña escala se están encontrando grandes discrepancias. En simulaciones de grupos de galaxias, el número de galaxias enanas en estos grupos supera en más de un factor 10 al número de las observadas. Además, las simulaciones para estas galaxias dan densidades de materia oscura muy picadas en torno a su centro, mientras que los resultados a partir de mediciones de las velocidades de sus estrellas dan densidades constantes. Todo esto indicaría que la materia oscura podría ser diferente a la considerada en el modelo estándar.

A este respecto, hace ya algunos años propusimos halos oscuros compuestos de condensados de Bose-Einstein, estudiamos cúmulos oscuros de fermiones degenerados, y presentamos sus curvas de rotación, que podrían dar cuenta de las observadas en galaxias. En el futuro planeamos estimar valores para las masas de estas partículas, tanto en el caso de fermiones degenerados, como en el de halos oscuros compuestos de condensados de Bose-Einstein, mediante el estudio de enanas esferoidales (dSph) del grupo de la Vía Láctea (los sistemas galácticos más pequeños y débiles y los objetos más dominados por la materia oscura en el universo).

  • Física de axiones: teoría y detección

Aunque los fenómenos más relevantes del Modelo Estándar de las partículas fundamentales pueden describirse mediante dicha teoría, existen numerosos indicios de que hay nuevos sectores de materia e interacciones que no encajan en ella y que presumiblemente pueden ser también descritos en el marco de teorías cuánticas de campos.  En particular, es posible que la materia oscura admita también una descripción dentro de ese marco. La propuesta más interesante actualmente es la basada en axiones, que son las partículas hipotéticas predichas por el mecanismo de Peccei-Quinn, formulado en el marco de la Cromodinámica Cuántica (QCD) para solucionar el llamado Strong CP problem.  Varias líneas  de investigación se centran en la fenomenología de la materia oscura axiónica y su detección, así como en la búsqueda de axiones solares en el Observatorio Internacional de Axiones (IAXO) recientemente propuesto. 

La colaboración internacional IAXO está formada por 17 instituciones, incluyendo CERN y DESY, y está liderada por Igor García Irastorza,  investigador del Centro. IAXO es un helioscopio de axiones de nueva generación, sucesor del helioscopio CAST que ha estado funcionando en el CERN durante los últimos 15 años, y que buscará axiones solares con una sensibilidad sin precedentes. IAXO está actualmente en fase de diseño técnico. La colaboración contempla como primer paso la realización de una versión intermedia del experimento, denominada BabyIAXO, que constituirá un test para los subsistemas finales, además de aportar resultados de física relevantes en sí mismos. El grupo de la Universidad de Zaragoza contribuirá con la realización de uno de los detectores de rayos-X situados en el punto focal de la óptica, y realizará un primer prototipo de tal detector, denominado IAXO-D0. Además, se trabaja en una revisión del potencial físico de IAXO, así como en una estrategia para medir la masa del axión en caso de que IAXO detectase alguna señal.

Un tema angular del proyecto es el estudio del escenario en que la materia oscura es altamente inhomogénea a pequeña escala (menor que un parsec).  En esa línea completaremos el estudio de la formación de axitones y minicúmulos de axiones en el universo mediante simulaciones numéricas y extrapolaciones analíticas. En colaboración con el grupo de Jens Niemeyer (Universidad de Goettigen), se está estudiando el colapso gravitatorio que describirá la densidad de estos cúmulos. En colaboración con el Instituto Max Planck de Munich, se está trabajando en axtronomía (astronomía de axiones) con detectores de materia oscura axiónica, así como en la distribución local de velocidades y la identificación de mini clusters o tidal streams. En la  detección de materia oscura axiónica, el grupo forma parte de las colaboraciones RADES (en el ámbito español) y MADMAX (colaboración internacional basada principalmente en Alemania). Con estos grupos se participará optimizando el diseño y caracterización de la señal en situaciones no ideales.

  • Física de neutrinos: desintegración beta doble

La búsqueda de la desintegración beta doble sin neutrinos de los núcleos es uno de los retos más importantes de la física de astropartículas. Su detección daría información única sobre la naturaleza del neutrino y su masa, y sobre el papel de esta partícula en el universo primitivo. Como se ha mencionado en la sección de antecedentes de esta memoria, la Universidad de Zaragoza tiene una trayectoria muy importante en esta línea de investigación, con aportaciones históricas ampliamente reconocidas en el campo, como la realización del experimento IGEX en los años 90. Posteriormente, miembros del grupo han participado en otros experimentos beta doble como CUORE o SuperNEMO, así como en el montaje BiPo, realizado en el Laboratorio de Canfranc como apoyo a este último experimento. Miembros de los grupos proponentes han tenido un papel central en la concepción, propuesta y etapa inicial del experimento NEXT, actualmente parte del programa científico del LSC. Aunque actualmente no hay una participación formal en el mismo, se mantiene una actividad de apoyo en aspectos de radiopureza. Más recientemente, la colaboración PandaX-III, compuesta principalmente por instituciones chinas, ha iniciado un ambicioso experimento para la detección de la desintegración beta doble del isótopo 136Xe con cámaras de proyección temporal leídas con planos Micromegas basadas en gran medida en conceptos desarrollados en Zaragoza como parte del proyecto TREX. En este contexto, se mantiene una relación de apoyo a dicha colaboración en aspectos de asesoramiento en la concepción y diseño de los planos Micromegas del experimento.

  • Radiactividad y técnicas de ultra bajo fondo

En el LABAC (Laboratorio de Bajas Actividades) se realiza el estudio de la radiactividad medioambiental mediante la caracterización de muestras orgánicas e inorgánicas. Una parte de este estudio se engloba dentro de la Red de Vigilancia Radiológica Ambiental nacional (REVIRA) del Consejo de Seguridad Nuclear (CSN), en la que se realizan medidas periódicas de aerosoles, suelos, agua potable y alimentos. También se hacen medidas para otros organismos públicos (entre ellos el Gobierno de Aragón y ayuntamientos) y empresas privadas, incluyendo, además de las muestras anteriores, materias primas, productos elaborados, residuos industriales, etc., que se gestionan mediante proyectos y contratos. Además, en colaboración con el LSC se realiza la monitorización del 222Rn en el aire del laboratorio para verificar que es inferior a los límites legalmente establecidos en España, la determinación de un conjunto de parámetros físicos y químicos de las instalaciones del LSC y el uso conjunto de equipos de medida de radiopureza de materiales. El LABAC es un servicio oficialmente reconocido por la Universidad de Zaragoza.

En relación con lo anterior, también existe una colaboración en I+D con instituciones y empresas, tanto nacionales como internacionales, para el desarrollo y construcción de detectores de radiación radiopuros y de gran sensibilidad que puedan ser aplicados en experimentos de ultrabajo fondo radiactivo o en medidas de niveles de radiactividad muy inferiores a los correspondientes a la radiactividad natural.

  • Desarrollo de nuevos detectores de partículas

La actividad experimental mencionada en los puntos anteriores implica una vertiente instrumental importante, derivada del hecho de requerir especificaciones muy especiales a los equipos de detección (expresadas en términos de bajos niveles de ruido, radiopureza extrema de los materiales, etc), para las que no existen estándares industriales. Evidentemente, esto implica ir más allá de la mera operación o utilización de detectores de partículas comerciales, y a menudo conlleva el reemplazo, mejora o desarrollo completo de partes de los detectores. Esto implica un conocimiento casi a nivel de construcción del detector y su tecnología asociada. La trayectoria de las actividades de física experimental de partículas ha permitido atesorar este tipo de saber-hacer para diversas tecnologías de detección, como por ejemplo, detectores de germanio, centelleadores, bolómetros y cámaras de proyección temporal. Esto ha propiciado un caldo de cultivo idóneo en el que realizar desarrollos más allá del estado-del-arte en estas tecnologías, siempre en conjunción con las técnicas de bajo fondo y radiopureza en las que la Universidad de Zaragoza es líder. Ejemplo destacado de esto es el proyecto TREX, financiado con una Starting Grant del ERC durante 2009-2015, en el que se han desarrollado nuevas cámaras de proyección temporal (TPCs), y, más específicamente, TPCs leídas por planos Micromegas, para su aplicación en búsquedas de sucesos poco probables como las descritas en los puntos anteriores. Esto ha permitido posicionar a la Universidad de Zaragoza como un referente internacional en esta tecnología de detección. Los desarrollos de TREX han resultado importantes en la participación en un buen número de las investigaciones mencionadas en los puntos anteriores; en particular, en los experimentos CAST, NEXT, PandaX-III, TREX-DM o IAXO. 

  • Teorías gauge en el retículo

En el año 1974, Kenneth Wilson introdujo el retículo como una regularización no perturbativa de las Teorías de Campos. En 1980, Mike Creutz demostró, usando la formulación de Wilson y retículos relativamente pequeños, que se puede simular QCD en un ordenador obteniendo los resultados correctos de la Física del continuo. Desde la publicación de estos trabajos pioneros, la aplicación de las técnicas del retículo al estudio de los efectos no perturbativos en el Modelo Estándar ha logrado grandes éxitos. Las primeras contribuciones de científicos españoles en este campo aparecieron a principios de los 80, y los grupos de la Universidad de Zaragoza y de la Universidad Autónoma de Madrid fueron los pioneros en España. La actividad del grupo de la Universidad de Zaragoza en el campo del “Lattice” se ha mantenido ininterrumpidamente desde entonces. Miembros del grupo han sido invitados a dar charlas plenarias en diversas conferencias “Lattice Symposium” y han participado en la organización del último de estos simposios, celebrado en Granada en 2017, que contó con la participación de más de 400 congresistas de todo el mundo.

En la actualidad, dentro de la colaboración HPQCD (High Precision QCD), se desarrolla el cálculo a partir de primeros principios (usando la formulación del retículo), de magnitudes de interés fenomenológico en QCD. Esto es importante como test de precisión en el régimen no perturbativo, además de ser crucial en la búsqueda de física más allá del Modelo Estándar. Recientemente, hemos desarrollado métodos muy precisos para tratar sistemas con quarks charm, que han sido tradicionalmente difíciles de incluir en las simulaciones en el retículo. Hemos calculado las constantes de desintegración leptónicas de los mesones D y DS con una precisión muy superior a la que había sido posible hasta ahora, así como el valor de la masa del quark charm.

Por otra parte, entender el papel del parámetro ‘theta’ (θ) en QCD y su conexión con el problema CP fuerte, la física de axiones y sus implicaciones en el universo primitivo, es uno de los mayores desafíos para los físicos teóricos de altas energías. Investigadores del grupo de la Universidad de  Zaragoza tienen mucha experiencia en la elaboración de algoritmos eficientes para simular sistemas con un término de vacío theta superando el problema de signo severo, así como en la aplicación de ellos al cálculo de la energía del vacío y de la carga topológica en varios sistemas físicos excepcionales. Uno de nuestros principales objetivos es escribir un código para simular QCD con término topológico y calcular la dependencia en theta. Existe un interés añadido en esta línea debido a que por primera vez el comportamiento de la materia hadrónica en condiciones extremas de temperatura y densidad puede verificarse mediante colisiones de iones pesados que están realizándose en los laboratorios de Brookhaven y CERN. Nuestro grupo posee también una extensa experiencia en simular QCD a densidad bariónica finita, donde el problema de signo severo está también presente.

  • Aplicaciones de la teoría de campos en información cuántica y materiales topológicos

Las técnicas de la física de partículas han encontrado recientemente aplicaciones inesperadas en dos campos de la física con importantes perspectivas desde el punto de vista tecnológico: la teoría de información cuántica y la obtención de materiales topológicos. La pléyade de nuevos materiales con interesantes propiedades tipo conductor/aislante, debido a su estructura topológica interna, abre nuevas perspectivas a la aplicación de los métodos de teoría de campos de la física de altas energías. Aunque a nivel fundamental los materiales topológicos no son relativistas, en ciertos regímenes presentan estados de borde en los que existen pseudopartículas que se comportan como las partículas de las teorías cuánticas de campos. Utilizando técnicas de la física de partículas se pueden predecir nuevos efectos y tipos de comportamientos conductor/aislante que pueden dar lugar a interesantes aplicaciones en computación cuántica y espintrónica.

  • Fenomenología del Modelo Estándar de Física de Partículas y nueva física más allá del Modelo Estándar

El Modelo Estándar de la Física de Partículas (SM) ha sido confirmado en los aceleradores de altas energías con una precisión del orden de la milésima, siendo su más reciente éxito el descubrimiento de la partícula de Higgs en el Large Hadron Collider (LHC). No obstante, existen razones teóricas para creer que el SM podría no ser la última palabra en la teoría de las interacciones fundamentales. Algunos problemas teóricos permanecen aún sin respuesta, como por ejemplo: la gran diferencia entre la escala electrodébil y la escala de Planck, el origen de la materia oscura, la existencia de tres generaciones de fermiones, etc. En consecuencia, se proyectan e investigan extensiones del SM que tratan de solucionar estos problemas, llamadas teorías o modelos de Nueva Física. Actualmente no se han observado aún las nuevas partículas propuestas en estos modelos en los experimentos actuales, imponiéndose restricciones sobre sus masas y parámetros, sin excluir totalmente la posible observación de partículas de Nueva Física en los experimentos actuales o futuros.

Existen muchas extensiones del Modelo Estándar que pretenden describir la física de altas energías en regímenes de energías superiores a las actuales donde se espera que aparezcan próximamente discrepancias que requieran un cambio de modelo. Entre estas propuestas destacan los modelos que incorporan supersimetría como simetría básica complementaria de las simetría gauge y Poincaré. Las predicciones fenomenológicas de estos modelos han sido muy discutidas en trabajos previos de nuestro grupo. Actualmente, estos modelos se han visto muy restringidos por los recientes resultados de los experimentos ATLAS y CMS del CERN. Sin embargo, existen todavía regiones de parámetros que no están excluidas y es imprescindible tener al día todos los datos y predicciones de los modelos supersimétricos posibles para contrastar con los resultados experimentales y posibilitar el descarte definitivo o no de estos modelos. Los cálculos requieren poderosas herramientas de análisis y un desarrollo del software apropiado. Nuestro grupo trabaja activamente en esta área, formando parte además del grupo de trabajo “LHC Higgs Cross Section Working Group”, creado con el objetivo de investigar de manera coordinada entre físicos teóricos y experimentales, todos los observables de precisión y pseudo-observables relevantes para la física de los bosones de Higgs, tanto en el SM como en sus extensiones supersimétricas. Este trabajo requiere la colaboración activa de los principales físicos teóricos que desarrollan los marcos teóricos y las herramientas de cálculo, con las diferentes colaboraciones experimentales. Esta es una de las líneas que nuestro grupo desarrollará con gran interés en los próximos  años.

    Por otra parte, con la avalancha de nuevas mediciones experimentales en el LHC se hacen necesarias predicciones teóricas cada vez más precisas, bien desarrollando estrategias para obtener información de partículas que incluso puedan ser demasiado pesadas para ser descubiertas, pero cuya existencia se manifestaría a través de correcciones cuánticas (medibles experimentalmente), o mediante la utilización del método de lagrangianos efectivos, que nos permite describir la física de un sistema en función de los grados de libertad ligeros de la teoría (los que se detectan en los experimentos) y codificar así los efectos de Nueva Física en acoplamientos efectivos entre estos campos. Las diferencias entre estos acoplamientos efectivos y los acoplamientos del SM nos proporcionan información sobre la posible Nueva Física, y/o nos confirman la validez del SM y sus posibles extensiones. En este marco de estudio, la física de observables de sabor ha cobrado un interés especial en los últimos años motivado por las discrepancias con respecto a las predicciones del SM obtenidas en el experimento LHCb en el CERN. Nuestro grupo posee también experiencia en este campo de trabajo, y actualmente se están dirigiendo tesis doctorales en este campo de investigación de temática actual. 

  • Teoría y fenomenología de gravedad cuántica

El reto de construir una teoría de gravitación cuántica compatible con los datos observacionales no está resuelto y es uno de los objetivos de nuestro grupo. Por un lado, pretendemos analizar, a la vista de los resultados de LIGO/VIRGO sobre ondas gravitatorias, los efectos de alternativas a la teoría de Einstein de gravitación que pueden ser importantes para la solución de los principales problemas cosmológicos del Modelo Estándar: el problema de la pérdida de información, energía oscura, materia oscura, etc. La multitud de modelos alternativos que explican algunos de estos fenómenos se ha visto muy constreñida por los resultados recientes  de LIGO/VIRGO. Las teorías que se están analizando en el Centro pasan este filtro y son compatibles también con los resultados del satélite PLANCK.

Por otro lado, se pretende explorar la posibilidad de ir más allá del marco de la teoría cuántica de campos relativista para incorporar efectos cuánticos de gravedad que puedan resultar observables. Una de las posibles consecuencias de una teoría de gravedad cuántica es la modificación de las simetrías del espacio-tiempo, lo cual deja abierta la cuestión de identificar huellas de las posibles modificaciones a la invariancia relativista. La física de astropartículas (rayos gamma, neutrinos y rayos cósmicos de muy alta energía) es el lugar idóneo para el estudio de las huellas de una modificación de la relatividad especial. Los datos futuros de las colaboraciones AUGER, IceCube, Fermi o CTA serán vitales para este estudio. Nos proponemos llevar a cabo un análisis detallado de las consecuencias fenomenológicas de las posibles formas en que las simetrías de relatividad especial pueden estar rotas o deformadas a altas energías, incluyendo una aproximación multimensajero (análisis combinado de las distintas astropartículas) al problema. Asimismo, consideraremos consecuencias más formales a nivel de teoría de campos, como una modificación del concepto usual de localidad y sus implicaciones observacionales, o el estudio de los diferentes mecanismos de desacoplo necesarios para hacer compatible la presencia de campos escalares adicionales (dilatón, etc.) con los tests experimentales de la relatividad general.

en_GBEnglish (UK)