Defending Your Life (Part 3)

This is the last part of my attempt to explain our simulation software. You can read Part 1, about event generators, and Part 2, about detector simulation, if you want to catch up. Just as a reminder, we’re trying to help our theorist friend by searching for his proposed “meons” in our data. The detector simulation gives us a long list of energy deposits, times, and locations in our detector. The job isn’t done though. Now we have to take those energy deposits and turn them into something that looks like our data – which is pretty tricky! The code that does that is called “digitization”, and it has to be written specially for our detector (CMS has their own too). The simple idea is to change the energies into whatever it is that the detector reads out – usually times, voltages, and currents, for example, but it can be different for each type of detector. We have to build in all the detector effects that we care about. Some are well known, but not well understood (Birk’s law, for example). Some are a little complicated, like the change in light collected from a scintillator tile in the calorimeter depending on whether the energy is deposited right in the middle or on the edge. We can use the digitization to model some of the very low-energy physics that we don’t want to have to simulate in detail with Geant4 but want to get right on average. Those are effects like the spread and collection of charge in a silicon module or the drift of ionized gas towards a wire at low voltage.
Z to mu mu at high pileup

One of our events with lots of “pile-up” – many standard proton-proton collisions, one dot for each, on top of one that we’re interested in (the one with the yellow tracks)

Digitization is where some other effects are put in, like “pile-up“, which is what we call the extra proton-proton collisions in a single bunch crossing. Those we usually pre-simulate and add on top of our important signal (meon) events, like using a big library. We can add other background effects if we want to, like cosmic rays crossing the detector, or proton collisions with remnant gas particles floating around in the beampipe, or muons running down parallel to the beamline from protons that hit collimators upstream. Those sorts of things don’t happen every time protons collide, but we sometimes want to study how they look in the detector too. Now we should have something that looks a lot like our data – except we know exactly what it is, without any ambiguity! With that, we can try to figure out if our friend’s meons are a part of nature. We can build up some simulated data that includes all the different processes that we already know exist in nature, like the production of top quarks, W bosons, Z bosons, and our new Higgs bosons. And we can build another set that has all of those things, but also includes our friend’s meons. The last part, which is really what our data analysis is all about, is trying to figure out what makes events with meons special – different from the other ones we expect to see – and trying to isolate them from the others. We can look at the reconstructed energy in the event, the number of particles we find, any oddities like heavy particles decaying away from the collision point – anything that helps. And we have to know a little bit about the simulation, so that we don’t end up using properties of the events that are very hard to get right in the simulation to separate meons from other particles. That really is the first part of almost all our data analyses. And the last part of most of our analyses (we hope), is “unblinding”, where we finally check the data that has all the features we want – passes all our requirements – and see whether it looks more like nature with or without meons. Sometimes we try to use “data-driven methods” to estimate the backgrounds (or tweak the estimates from our simulation), but almost every time we start from the simulation itself.

Some of our data with a few different guesses as to what new physics might look like (here different dark matter models). The data look more like our expectation without them, though – so no new physics today!

The usual thing that we find is that our friend told us about his theory, and we looked for it and didn’t find anything exciting. But by the time we get back, our theorist friends often say “well, I’ve been thinking more, and actually there is this thing that we could change in our model.” So they give you a new version of the meon theory, but this time instead of being just one model, it’s a whole set of models that could exist in nature, and you have to figure out whether any of them are right. We’re just going through this process for Supersymmetry, trying to think of thousands of different versions of Supersymmetry that we could look for and either find or exclude. Often, for that, you want something called a “fast simulation.” To make a fast simulation, we either go top-down or bottom-up. The top-down approach means that we look at what the slowest part of our simulation is (always the calorimeters) and find ways to make it much, much faster, usually by parameterizing the response instead of using Geant4. The bottom-up approach means that we try to skip detector simulation and digitization all together and go straight to the final things that we would have reconstructed (electrons, muons, jets, missing transverse momentum). There are even public fast simulations like DELPHES and the Pretty Good Simulation that theorists often use to try to find out what we’ll see when we simulate their models. Of course, the faster the simulation, normally, the fewer details and oddities can be included, and so the less well it models our data (“less well” doesn’t have to be “not good enough”, though!). We have a whole bunch of simulation types that we try to use for different purposes. The really fast simulations are great for quickly checking out how analyses might work, or for checking out what they might look like in future versions of our detector in five or ten years. So that’s just about it – why we really, really badly need the simulation, and how each part of it works. I hope you found it a helpful and interesting read! Or at least, I hope you’re convinced that the simulation is important to us here at the LHC.
ZachMarshall Zach Marshall is a Divisional Fellow at the Lawrence Berkeley National Laboratory in California. His research is focused on searches for supersymmetry and jet physics, with a significant amount of time spent working on software and trying to help students with physics and life in ATLAS.

¿Nuevo diseño de reactor de fusión?

La compañía Lockheed Martin dice que podrá tener un reactor de fusión comercial de 100 Mw de potencia en 10 años.

La compañía Lockheed Martin ha declarado recientemente que va a desarrollar un nuevo tipo de reactor de fusión nuclear por confinamiento magnético mucho más pequeño, compacto y eficiente que los tokamaks.
La idea es la de siempre: mantener un plasma hidrógeno muy caliente en donde se den reacciones fusión nuclear. Como la temperatura necesaria para esto es enorme (100 millones de grados), no se puede construir un contenedor para el plasma hecho de material normal y, en su lugar, se usa una “botella” magnética.

reactor_Lockheed_Martin
Para crear esta botella normalmente se usan campos magnéticos de forma toroidal, es decir, en forma de rosquilla. Es lo que se llama una configuración de tipo tokamak. Lo malo es que el plasma es inestable en el seno de este tipo de sistema y, al cabo de poco tiempo, toca la pared de la vasija, se contamina, se enfría y se detienen las reacciones de fusión en su seno (si las hay). Para prolongar este tiempo se hacen tokamaks cada vez más grandes. El tokamak del ITER por ejemplo pesará 23.000 toneladas y volumen de plasma será de 840 metros cúbicos. ITER es una prueba de concepto de fusión nuclear no comercial (no generará energía neta) en la que participan muchos países debido a su elevado coste (20.000 millones de dólares en principio).

Continue reading

Científicos españoles analizan las posibilidades del reinicio del LHC en 2015

El nuevo arranque del gran colisionador de hadrones del CERN durante el año que viene, los experimentos sobre neutrinos, el observatorio de rayos gamma CTA y la presencia de investigadores españoles en el laboratorio de física nuclear FAIR serán algunos de los temas que trataron los cerca de 200 investigadores que asisten en Sevilla a la reunión anual del Centro Nacional de Física de Partículas, Astropartículas y Nuclear. La divulgación científica y la transferencia tecnologica también estarán presentes en las jornadas.

Expertos españoles en la física del Gran Colisionador de Hadrones (LHC), la investigación de la estructura nuclear y los experimentos para descubrir el 95% del universo 'invisible' se reúnen la semana próxima en Sevilla en las VI Jornadas del Centro Nacional de Física de Partículas, Astropartículas y Nuclear (CPAN). Este congreso, que se celebra por primera vez en la capital hispalense, congrega a 200 investigadores en estos ámbitos de la física, que discutirán sobre los principales avances en sus respectivos campos.

Continue reading

Arranca el proyecto para construir el mayor observatorio de axiones del mundo

Tras el descubrimiento del bosón de Higgs en el Gran Colisionador de Hadrones (LHC), se busca nueva frontera para la física de partículas. La materia oscura, una forma desconocida de materia que compone el 25% del Universo pero que aún no ha sido detectada, aparece como uno de los mayores retos. Hay múltiples experimentos persiguiéndola, cada uno basado en diversas teorías sobre su naturaleza, pero hasta ahora no hay señales inequívocas.

views_iaxo

Diseño conceptual del telescopio de axiones IAXO. Imagen: IAXO Collaboration.

Ante la falta de pistas de partículas 'pesadas' que la conformen, algunos científicos apuntan al axión, partícula más ligera que vendría a resolver además uno de los problemas del Modelo Estándar. Para detectarlo, una colaboración internacional entre los que se encuentran físicos españoles ha propuesto al CERN la construcción de IAXO, el Observatorio Internacional de Axiones. Los comités del laboratorio europeo de física de partículas han reconocido los objetivos del proyecto, que ahora entra en su fase decisiva: el diseño del instrumento.
Continue reading

El CPAN entrega los premios de su concurso de divulgación

El Centro Nacional de Física de Partículas, Astropartículas y Nuclear (CPAN) ha entregado hoy en Sevilla los premios de su quinto concurso de divulgación científica en un acto que ha puesto fin a las VI Jornadas CPAN, que se han celebrado en la capital hispalense esta semana. Un artículo sobre la masa del neutrino, el blog de física médica Desayuno con fotones, un vídeo sobre la 'temperatura' de un agujero negro, una noticia publicada en El Mundo sobre la búsqueda de la supersimetría y un experimento que reproduce un detector de partículas del LHC han resultado ganadores en esta edición, donde se han presentado 66 trabajos. El concurso se convoca con la colaboración de la Fundación General CSIC.

En la categoría de Artículos de divulgación ha sido premiado el texto "La masa de los neutrinos: dónde está nuestro Neptuno", de Mikael Rodríguez Chala. El autor, doctor en Física por la Universidad de Granada y actualmente en la Escuela Politécnica Federal de Zúrich, describe cómo estas elusivas partículas elementales adquieren su ligerísima masa, considerada hasta hace poco nula por la teoría. El Jurado valora la claridad del texto y la utilización de un símil con la astronomía que enlaza el funcionamiento de las leyes físicas a gran escala con el mundo cuántico.

En la modalidad de páginas webs ha resultado ganador el blog colaborativo Desayuno con fotones, iniciativa surgida de un grupo de radiofísicos de diferentes hospitales que cuenta con 30 colaboradores, entre ellos médicos e investigadores. El Jurado valora esta unión de profesionales de la medicina e investigadores para ofrecer contenidos de calidad en temas como medicina y salud, así como su potencial para convertirse en un sitio de referencia para el público que busque información contrastada sobre estos temas.

Agujeros negros y Supersimetría

Continue reading

El coste de la acidificación

Un informe de la ONU apunta a que el coste económico de la acidificación oceánica tendrá será de 1 billón de dólares para 2100.

La protección del medio ambiente es algo que se puede considerar desde distintos puntos de vista. En principio se puede ver desde el punto de vista ético, pues el ser humano no tiene derecho a extinguir especies debido a la simple codicia. La aparición de nuevas especies tardará millones de años y mientras tanto las siguientes generaciones sentirán que sus abuelos les han robado su herencia biológica.

Blue Linckia Starfish

By Richard Ling (Own work) [GFDL, CC-BY-SA-3.0 or CC-BY-SA-2.5], via Wikimedia Commons

Pero la biodiversidad tiene un gran impacto en el agua que bebemos, el aire que respiramos o la comida que comemos. Así que otra manera de analizar el problema es desde el punto de vista práctico y egoísta. Básicamente, si no protegemos el medio ponemos en peligro a la propia raza humana.
Continue reading

Desenmascaran agujeros negros pequeños, pero voraces

La revista Nature publica mañana un artículo que aclara el misterio de las fuentes ultraluminosas en rayos X

Hace tres décadas, uno de los primeros telescopios espaciales capaces de captar rayos X en el espacio detectó un tipo de objeto desconocido: brillaba en rayos X más que cualquier estrella, pero mucho menos que otras fuentes identificadas, como los núcleos de galaxias activas. Con no mucha originalidad se bautizó a estos nuevos objetos fuentes X ultraluminosas o ULX. Y aún no está claro lo que son. Ahora, un grupo en el que participa un investigador postdoctoral del Instituto de Astrofísica de Canarias (IAC) y de la Universidad de La Laguna (ULL), Fabien Grisé, ha logrado descifrar este misterio y lo publica mañana en la revista Nature. Resulta que lo que hace brillar tanto a la fuente ULX mejor estudiada no es, como muchos esperaban, uno de los muy buscados agujeros negros de masa intermedia.

La fuente ultraluminosa observada, llamada ULX P13, sí que alberga un agujero negro, pero uno de tipo estelar, pequeño, de menos de 15 masas solares. ¿Cómo explicar entonces su brillo en rayos X, muy superior al que generaría cualquier agujero negro estelar conocido? Con una característica especial: el agujero negro de P13 come con una avidez mayor de lo habitual.
Continue reading