FCNM

FCNM

Es uno de los grandes enigmas de la física: saber de qué materia está hecho el universo. Porque sabemos que más del 80% es materia oscura, pero desconocemos de dónde viene y de qué está hecha. Solo sabemos una cosa: no es materia tal y como nosotros la conocemos.

En 1933 el heterodoxo astrónomo Fritz Zwicky decidió “pesar” el cúmulo de galaxias situado en la constelación de Coma Berenices midiendo el movimiento de las galaxias. Al hacerlo descubrió que las galaxias se movían a velocidades altísimas, del orden de los mil kilómetros por segundo. No había que ser muy avispado para ver que esto planteaba una seria dificultad. Si la masa total del cúmulo fuera sólo la contenida en las galaxias, la que es visible a través de nuestros telescopios, éste tendría que haber dejado de existir: las galaxias ya se habrían dispersado por el espacio pues su masa total no es suficiente para mantenerlas unidas gravitacionalmente. Ahora bien, como el cúmulo no se había “evaporado” sólo quedaba un única solución: había más materia en el cúmulo que la que puede verse a través de los telescopios. Zwicky concluyó que la masa oculta de Coma debía ser del orden o dos veces mayor que la visible en forma de galaxias. El siempre arriesgo Zwicky aquí se quedó corto: es 10 veces mayor.

Esa “masa perdida” -como la llamó Zwicky- durmió el sueño de los justos durante casi medio siglo hasta que en 1977 la astrónoma Vera Rubin, observando la rotación de las galaxias espirales, descubrió que para explicarla necesitaba más masa que la que se encuentra en forma de estrellas y nebulosas. En nuestra galaxia, la Vía Láctea, las estrellas viajan por el espacio a unos 240 kilómetros por segundo, independientemente de si se encuentran cerca del centro galáctico o en los arrabales. Esto es debido a que existe una esfera de materia oscura que envuelve la Galaxia. Es como la yema del huevo: forma parte de algo mayor. En nuestra región galáctica los astrónomos infieren que existe una masa diez veces mayor que la de toda la masa visible en ella y más del 90% de la masa total de los cúmulos de galaxias se encuentra en forma de materia no visible, oscura.

Candidatos a materia oscura

Ahora bien, ¿qué es esa materia oscura? Desde estrellas de baja masa a agujeros negros, pasando por partículas exóticas productos de los sueños de los físicos teóricos, la caza de esa materia faltante es uno de los problemas más importantes a resolver por la astrofísica del siglo XXI. Esencialmente los candidatos a materia oscura se pueden dividir en tres categorías: materia oscura caliente, materia oscura fría y materia oscura ordinaria (también conocida como materia bariónica).

La más fácil de imaginar es la última de las tres. Y también es la más difícil de justificar, pues la materia de la que estamos hechos sí emite. Nosotros, por ejemplo, radiamos en el infrarrojo: de ahí las gafas de visión nocturna usadas por los comandos y las fuerzas especiales. Esta materia ordinaria que todavía no hemos podido detectar se encontraría en forma de cuerpos tipo Júpiter, estrellas enanas marrones, galaxias enanas..., o los socarronamente llamados MACHOs (Massive Compact Halo Objects, objetos de gran masa del halo galáctico) -que incluyen agujeros negros, estrellas enanas marrones y planetas tipo Júpiter-, y RAMBOs (Robust Associations of Massive Baryonics Objects, asociaciones robustas de objetos masivos bariónicos), que no serían otra cosa que acumulaciones de MACHOs. Aunque puedan existir, la mayoría de los astrónomos lo dudan porque si se hacen números salen cantidades que asustan: 5 billones de “estrellas oscuras” frente a 200.000 millones de estrellas luminosas. Parece irrefutable que este tipo de materia oscura no puede dar cuenta de lo que sucede en cúmulos y supercúmulos de galaxias. Para explicar las observaciones debemos apelar a otro tipo de materia completamente diferente.

Resulta fascinante cómo los cosmólogos pueden hablar de una materia que no sólo no han visto sino que no tienen ni idea de cómo es: aquí vale tanto partículas exóticas provenientes de las calenturientas mentes de los físicos teóricos como ejemplares de la revista Muy Interesante distribuidos por el espacio. El único inconveniente es justificar, de manera razonable, qué hacen y cómo llegaron esos ejemplares al frío espacio intergaláctico. A pesar de semejante inconveniente, los cosmólogos clasifican esta desconocida materia exótica en dos tipos: caliente y fría. Son dos términos cosmológicos que están referidos a la velocidad a la que se mueven las partículas que la componen. Si tienen una masa del orden de la del protón, entonces se moverán lentamente: es la materia fría. Pero si son más ligeras, viajarán a velocidades cercanas a la de la luz: es la materia caliente. El candidato más popular a materia oscura caliente es el neutrino, una partícula enormemente peculiar pues prácticamente no interacciona con nada: puede atravesar un bloque de plomo de decenas de años-luz de tamaño sin enterarse.

¿Materia oscura fría o caliente?

¿Por qué los cosmólogos distinguen entre ambos tipos? Porque la existencia de un tipo u otro de materia oscura decide la forma en que se construyó el universo. De las diferentes simulaciones de la distribución de galaxias a gran escala teniendo en cuenta modelos de materia oscura fría y caliente se obtienen dos resultados llamativamente diferentes. Mientras que el modelo frío asegura la formación de estructuras de abajo-arriba -primero aparecen las galaxias y después los cúmulos y supercúmulos-, el modelo caliente hace justamente al contrario: las galaxias aparecen por fragmentación de estructuras mayores.

Ahora bien, si miramos cómo predicen la distribución de galaxias a gran escala, ambos modelos presentan problemas. La materia oscura fría tiene dificultades a la hora de explicar los grandes vacíos y los filamentos de galaxias y cúmulos de galaxias que se observan en el universo, mientras que la materia oscura caliente “se pasa” y predice demasiada estructura. ¿Solución? Totalmente salomónica: la materia oscura exótica es una mezcla de fría y caliente.

Con todo, el consenso actual tiende a favorecer el modelo frío pues es consistente con las fluctuaciones de la radiación del fondo cósmico de microondas. Ahora bien, la pregunta del millón es: ¿De qué está hecha esa materia oscura fría? Quizá sean WIMPs (Weakly Interacting Massive Particles), partículas masivas que interaccionan débilmente. Bajo este nombre de detergente se agrupan toda una colección de partículas que nacen de las ecuaciones de los expertos en unas teorías que pretenden unificar los constituyentes de la materia y las fuerzas elementales bajo una única expresión, en una única superpartícula (o superfuerza). 

Por supuesto existen detractores de que exista un tipo de materia que ni se vea ni interaccione con la materia ordinaria -salvo gravitatoriamente-. Para el que fuera premio Nobel de Física Abdus Salam la materia oscura es como los invisibles djinns (genios) de Las mil y una noches. Otros físicos afirman que no existe tal materia oscura sino lo que relamente necesitamos es una nueva física. Eso implica modificar una de las más sacrosantas teorías de la física del siglo XX, la relatividad general; defienden que al igual que la gravitación newtoniana no explica lo que sucede cuando tenemos campos gravitatorios intensos, quizá la relatividad einsteniana no sea aplicable a grandes distancias. Sea cual sea la solución, lo único cierto es que la materia oscura lleva entre nosotros casi 90 años y seguimos sin saber qué demonios es.

Fuente: Muyinteresante.es

La idea, relacionada con la generación de números aleatorios, surgió cuando el matemático polaco Stanislaw Ulam resolvió un complicado solitario

El próximo viernes 13 de mayo se cumplen treinta y tantos años del fallecimiento del matemático polaco Stanislaw Ulam (1909 – 1984), uno de los integrantes del proyecto Manhattan, que como sabrán, se encargó entre otras cosas de conformar la primera bomba de hidrógeno de la Historia. Desgraciadamente nos hallamos en un periodo en el que vuelven a aparecer nítidamente los dilemas morales sobre la utilización de la energía nuclear con fines no precisamente pacíficos. Ulam fue uno de los más reticentes y atormentados con el desarrollo final de la bomba atómica. Dejando a un lado esa controversia, claramente no superada, se encuentra la cuestión de qué papel pudo desempeñar un inofensivo matemático (a priori), con sus cálculos y ecuaciones, en un asunto como éste. Echémosle un vistazo.

Si buscamos información sobre Ulam, encontraremos que sus contribuciones matemáticas se distribuyen en campos tan diferentes como la teoría de números, la teoría de conjuntos, la teoría ergódica y la topología algebraica. Evidentemente no podemos repasar tanto material en una única reseña, de modo que nos centraremos en esta ocasión en el modelo que desarrolló junto con otro genio de las matemáticas y la informática, que también trabajó en el Laboratorio de Los Álamos en el citado proyecto Manhattan, el matemático húngaro-estadounidense John Von Neumann (1903 – 1957), el conocido como método de Montecarlo.

Antes de nada conviene recordar algunas ideas que nos aclaren un poco el tipo de problemas con los que vamos a tratar. A la hora de modelizar cualquier fenómeno o circunstancia que sucede a nuestro alrededor (experimento que puede ser tan sencillo como lanzar al aire una moneda, o tan complejo como describir la evolución del agua cuando se rompe una tuberia dentro de un edificio; o cómo simular el movimiento de difusión de neutrones en el material de fisión nuclear). Esa modelización de lo que puede ocurrir se realiza mediante un algoritmo (palabreja que se ha hecho familiar en nuestras vidas desde hace algún tiempo).

Un algoritmo no es ni más ni menos que unas reglas fijas, siempre las mismas, que reproducen un proceso. Por ejemplo, para sumar, restar, multiplicar o dividir dos números utilizamos en cada caso un algoritmo (los que nos han enseñado en la escuela), la elaboración de una tarta, el desplazamiento de los autobuses por una ciudad, la interpretación de una canción, todo lo que hacemos (a veces con algunas variaciones, en cuyo caso, modificamos el algoritmo) puese describirse mediante unas reglas, mediante un algoritmo. Los experimentos (que modelizamos mediante esos algoritmos) pueden clasificarse en dos tipos básicos: deterministas y aleatorios (o probabilisticos). Es determinista cuando su resultado es idéntico siempre que partamos de las mismas condiciones (si dejamos caer un objeto, sabemos con toda seguridad que acaba en el suelo; si calentamos una olla con agua, sabemos que acabará hirviendo), mientras que es aleatorio cuando no tenemos garantizado el mismo resultado aunque hagamos lo mismo (tirar al aire una moneda, extraer una bola de una urna, saber dónde va a caer un rayo). En realidad sólo los fenómenos naturales son puramente aleatorios, porque lo de la moneda, la bola de la urna, etc., podríamos intuir su comportamiento estudiando dicha moneda, o la máquina que extrae la bola. Por eso hablamos de experimentos seudoaleatorios (los que dependen de algún artefacto construido por el hombre) y puramente aleatorios. Pero no haremos tal distinción en lo que sigue, por simplificar las cosas. La modelización de los experimentos o fenómenos deterministas se fundamenta en una fórmula conocida y cerrada, mientras que los segundos se basan en la generación de números aleatorios y el análisis de las probabilidades asociadas.

Juegos de cartas

En el trabajo que realizaban sobre la difusión de partículas en la fisión nuclear, los físicos que integraban el proyecto Manhattan se percataron de que ésta poseía un comportamiento completamente aleatorio. Para su estudio podían optarse por dos procedimientos: resolver las ecuaciones íntegro-diferenciales que gobiernan la dispersión, la absorción y la fisión, o tomar datos a partir de experimentos reales. Ni una ni la otra eran factibles (la primera porque no se saben resolver ese tipo de ecuaciones en modo exacto; la segunda porque evidentemente no podemos hacer desintegraciones atómicas). Stan Ulam era un apasionado de los juegos de cartas y el cálculo de probabilidades para encontrar métodos trucos para tratar de tener ventaja sobre el rival.

Precisamente, jugando un solitario, se percató de que resultaba más simple tener una idea del resultado general del solitario haciendo pruebas múltiples con las cartas y contando las proporciones de los resultados, que computar todas las posibilidades de combinación formalmente. Esas pruebas múltiples las podía hacer generando números aleatorios con el ordenador y viendo los resultados. Por supuesto, una persona puede hacerlo varias veces, pero un ordenador puede pasarse horas generando números, y en ese tiempo hacer cientos, miles, millones hoy en día, de simulaciones. Entonces se dio cuenta de que lo mismo podía aplicarse para inferir el comportamiento de un fenómeno físico, como el de la difusión de neutrones.

Ulam explicó la idea a Von Neumann. Aunque inicialmente no le convencía, con el tiempo (y es de suponer alguna experimentación) se convirtió en un auténtico fan convencido del procedimiento. Como todo lo que hacían en Los Álamos era secreto, dieron al proyecto un nombre en clave, que uno de los integrantes del grupo bautizó como Montecarlo, en referencia al célebre Casino de esa localidad. Al fin y al cabo lo que genera la ruleta son números aleatorios (como comenté antes falso, porque al depender de un mecanismo mecánico, es seudoaleatorio; de hecho muchos jugadores han tenido grandes beneficios observando el comportamiento de las ruletas y deduciendo una fórmula empírica que las modelice), aunque al parecer Ulam aceptó el nombre en “honor” a un tío suyo que no hacía más que pedir dinero prestado a todo el mundo para jugar allí.

Fuera como fuese el caso es que los métodos Montecarlo fueron fundamentales para las simulaciones requeridas, aunque bastante limitados por las herramientas informáticas de aquella época (una ENIAC). En 1948 lograron los primeros resultados aceptables sobre el comportamiento de un núcleo de fisión. En la década de 1950, los métodos Montecarlo fueron decisivos para el desarrollo de la bomba de hidrógeno y se popularizaron en los campos de la física, la química física y la investigación operativa. La Rand Corporation y la Fuerza Aérea de los EE. UU. fueron dos de las principales organizaciones responsables de financiar y difundir información sobre estos métodos. Desde entonces no han parado de perfeccionarse y encontrarse aplicaciones en los campos más variopintos, entre los que destacan la física, la medicina (imágenes radiográficas, sobre todo), la química molecular, ingeniería, diseño gráfico, economía y negocios y, por supuesto, las matemáticas.

Ejemplo

Suele mencionarse el experimento de la aguja de Buffon para estimar los decimales del número Pi como precursor de los métodos Montecarlo. Si tomamos una hoja de papel en la que marcamos unas líneas paralelas a distancia d entre ellas (ver imagen), y dejamos caer una aguja de longitud l < d sobre el papel, pueden darse dos situaciones: que la aguja quede entre dos de las líneas (situación b de la imagen), o que caiga entre dos de las franjas, cortando a una de las líneas (situación a).

La probabilidad p de que la aguja esté en la posición a es

Más adelante, Pierre Simon de Laplace (1749 – 1827) interpretó esa relación como un modo de encontrar aproximaciones a los decimales de Pi. ¿Cómo? Tirando la aguja muchas veces y contando el número de las que quedaban en la situación a. Ese valor dividido por el número total de lanzamientos, se aproxima a ese valor de la probabilidad p, y por tanto facilita también el cálculo de Pi:

Por supuesto, la aproximación obtenida es muy poco eficiente: lograr así 5 decimales correctos con 3400 lanzamientos está por debajo del 1.5%. Simplemente trata de plasmar la idea de los métodos Montecarlo: cuantos más lanzamientos, más nos aproximamos.

Cuando jugamos a los barcos, al principio, hasta “definir” las zonas por donde se halla el objetivo, también utilizamos una estrategia Montecarlo: “lanzamos” andanadas al azar, y cuantas más, mejor queda definida la zona donde se encuentran los barcos del oponente. Un procedimiento similar utilizan los guardacostas para localizar las probables ubicaciones de personas o buques en los naufragios (véase el software SAROPS, por ejemplo) durante las operaciones de búsqueda y rescate. Cada simulación puede generar hasta diez mil puntos de datos que se distribuyen aleatoriamente en función de las variables proporcionadas. Los patrones de búsqueda luego se refinan en base al análisis de estos datos para optimizar la probabilidad de contención y la probabilidad de detección, que en conjunto equivalen a una probabilidad general de éxito. En última instancia, esto sirve como una aplicación práctica de la distribución de probabilidad para proporcionar el método de rescate más rápido y conveniente, que se ha probado eficaz en el salvamento de vidas y la optimización de recursos.

En matemáticas, hay muchos lugares en los que se emplean estos métodos, desde la aproximación de integrales o la estimación de soluciones de ecuaciones que no se saben resolver en modo exacto, hasta la determinación de si un número de cientos de dígitos es o no primo (test de primalidad).

Aventuras de un matemático

Hace pocos meses, se estrenó la película 'Adventures of a Mathematician' (Thor Klein, Alemania, Polonia y Reino Unido, 2020) sobre Stanislaw Ulam y su trabajo junto a otros científicos en Los Álamos. Mejor dicho, se estrenó en más de una docena de países, entre los que no está el nuestro. De acuerdo que no es una película de acción trepidante, ni de superheroes, ni es una comedia (de hecho deja bastante mal cuerpo, ya que nos explica cómo asesinaron a la familia de Ulam en el Holocausto, y los problemas de conciencia que constatemente surgían en el grupo de trabajo de la bomba atómica y la posterior de hidrógeno, aspectos sobre los que deberían reflexionar algunos dirigentes en la actualidad antes de hablar tan alegremente de las armas nucleares; paradojicamente, en Rusia sí se ha estrenado).

La película se basa en el libro homónimo de Ulam, editado en 1984, que tampoco se ha publicado en español (los temas científicos parece que se nos atragantan, junto a los idiomas, así que en este caso, lo tiene todo). No obstante, se lo recomiendo si tienen ocasion de hacerse con él. Sobre la película, aquí disponen del trailer. En la imagen una escena en la que Ulam enseña algunos trucos sobre juegos de cartas a sus alumnos en base al cálculo de probabilidades.

Volveremos sin duda a recordar otros trabajos de Ulam en posteriores reseñas, como una espiral de la que seguro han oído hablar.

Fuente: ABC Ciencia

A principios de 1960, Dennis Sullivan era un estudiante de Ingeniería Química en la Universidad Rice, en Texas (EE. UU.), con un porvenir asegurado en la boyante industria petroquímica local. En su segundo año se enroló en un curso de análisis matemático, como estaba mandado y, a las pocas semanas, su profesor les explicó el teorema de representación conforme de Riemann. Este resultado, uno de los grandes hitos del siglo XIX, afirma que es posible deformar a gran escala una superficie de forma muy complicada, respetando, a pequeña escala, la forma original. Si en lugar de figuras planas se consideran volúmenes tridimensionales, esto es imposible.

El teorema de transformación conforme de Riemann afirma que siempre hay una manera de deformar el círculo amarillo A en otra región arbitraria B (hasta aquí nada sorprendente) cuidando que todo círculo suficientemente pequeño dentro de A se transforme, sin deformarse, en otro círculo en B, y viceversa.

Al comprender este teorema, todo cambió para Sullivan. “Las matemáticas eran algo profundo, general, a lo que merecía la pena dedicarse”, afirmaba años más tarde. Desde aquel momento, en su discurrir incansable en pos del entendimiento de las matemáticas, Sullivan ha ido creando una de las obras más influyentes y variadas de los últimos 60 años. Prueba de ello es que, si se pregunta sobre él a distintos especialistas, muchos coincidirán en que le deben sus áreas de investigación, pero parecerá que cada uno habla de una persona diferente.

Unos destacarán sus primeros trabajos, cruciales para el desarrollo de la topología moderna: su técnica de localización en primos, la teoría de la homotopía racional, o la demostración de la conjetura de Adams. Otros acentuarán sus aportaciones al estudio de los grupos kleineanos o a la dinámica holomorfa. Entre estas, está su famoso “teorema del dominio no errante” (“no wandering domain theorem”).

Este teorema se inscribe en la siguiente cuestión: partimos de cierta regla para asignar a todo punto de la superficie de una esfera otro punto de la misma superficie; aplicando esta regla, como se ve en el dibujo, el punto x se transforma en y, y la región de puntos amarilla A se transforma en otra B. Si aplicamos ahora la misma regla de transformación sobre el resultado, y repetimos esto suficientes veces, podríamos volver a una de las regiones por las que ya hemos pasado. En este caso, decimos que el conjunto amarillo no es errante. Para una regla de transformación y una región generales, es muy raro que esto ocurra.

En los años veinte del siglo pasado, el matemático francés Pierre Fatou conjeturó que, para cierta clase de reglas de transformación, había unas regiones, llamadas ahora conjuntos de Fatou, que no eran errantes. Sullivan fue el primero en demostrarlo, 60 años más tarde, gracias a su rara habilidad para discernir qué estructuras matemáticas son esenciales en un problema.

En rojo, verde, y azul: distintos conjuntos de Fatou de una misma función racional.

Las reglas de transformación que consideró Fatou, llamadas funciones racionales, consisten solamente en realizar una cantidad finita de sumas y multiplicaciones, y después una división. Esto trae consigo que no hay “demasiadas” reglas de esta clase. Mejor dicho, aunque hay infinitas, basta una lista de, por ejemplo, 100 números (100 coordenadas) para describir a cada una, de forma análoga a lo que ocurre con los puntos sobre un mapa: también hay infinitos, pero cada uno se puede situar inequívocamente con dos coordenadas. Decimos que el mapa tiene dos dimensiones, y el “espacio de todas las reglas” tiene cien.

Sullivan se preguntó qué pasaría si la conjetura de Fatou fuese falsa, es decir, si las regiones de Fatou fuesen errantes, y demostró que, en tal caso, ¡el “espacio de todas las reglas” tendría infinitas dimensiones! Pero sabemos que esto es falso, por tanto, la conjetura de Fatou es correcta. Para llegar a esta contradicción, Sullivan utilizó estructuras irregulares (llamadas transformaciones casi-conformes) en un problema cuyas estructuras aparentes son muy regulares.

Más información

Quedarían todavía muchísimas aportaciones igualmente importantes de Sullivan por mencionar: ciclos foliados, topología de cuerdas… junto con otras, menos visibles, que van más allá de lo que se puede encontrar en sus artículos. Muchos trabajos de otros matemáticos han resultado no ya de su inspiración, sino directamente de su concierto.

Su seminario en la City University of New York, en plena Quinta Avenida, ha sido durante décadas un centro de la vida matemática de la ciudad. Allí presentan sus últimos trabajos investigadores venidos de todas partes, en sesiones que a veces se prolongan cinco o seis horas, derivando en una especie de jam session matemática gracias a la atmósfera afable e inquisitiva que promueve el organizador.

Quienes conocen a Sullivan quedan impresionados por su energía, su sagacidad, y su generosidad. Muchos se sentirán identificados en la experiencia que relata el matemático francés Etienne Ghys: siendo este todavía un estudiante doctoral en Lille, pasó un día por allí Sullivan, ya célebre, para presidir un tribunal de tesis. Se pusieron a charlar y a Ghys le sorprendió el interés que mostraba el gran matemático por su trabajo. Al rato, alguien vino a buscar a Sullivan para que se uniese a beber algo: “No”, respondió, “I am drinking mathematics with Etienne!”

Fuente: Columnadigital.com

La medición más precisa hasta ahora del bosón W, portador de la fuerza débil, no coincide con la teoría, y eso amenaza nuestra idea de cómo funciona el Universo

Existen cuatro fuerzas en la naturaleza: electromagnetismo, gravedad, fuerza nuclear fuerte y fuerza nuclear débil. Y cada una de ellas está asociada a una partícula, o cuanto, que transporta la unidad mínima de cada fuerza. Así, la partícula portadora del electromagnetismo es el fotón, la de la fuerza nuclear fuerte es el gluón, que mantiene fuertemente unidos a los quarks que forman protones y neutrones en el interior de los núcleos atómicos, y los bosones W y Z son los portadores de la fuerza débil, responsable de la desintegración radiactiva de las partículas subatómicas. Solo la gravedad, por el momento, escapa a esta regla, ya que nadie ha conseguido todavía encontrar un 'gravitón'.

Ahora, y tras una larga década de pruebas y meticulosas mediciones, un equipo de físicos capitaneado por Ashutosh Kotwal, de la Universidad de Duke, acaba de anunciar que la masa del bosón W, que gobierna la fuerza nuclear débil, es «significativamente mayor» de lo que predicen las teorías.

Algo que podría sacudir los cimientos de nuestra comprensión del Universo y afectar al Modelo Estándar de la física de partículas, la mejor teoría que manejan los científicos para describir los componentes básicos de la materia y las fuerzas que los gobiernan. El hallazgo se acaba de publicar en ' Science'.

Según explica el propio Kotwal, este resultado, la medición más precisa del bosón W hasta la fecha, fue obtenido un grupo de más de 400 científicos, que durante una década examinaron hasta cuatro millones de bosones W en «un conjunto de datos de alrededor de 450 billones de colisiones», llevadas a cabo en el colisionador Tevatron, en Illinois, el mayor del mundo hasta 2009, cuando ese 'titulo' pasó al gran colisionador de hadrones el CERN, en el CERN (Ginebra). El Tevatron dejó de operar en 2011, pero los físicos han estado procesando sus datos desde entonces.

Según el estudio, los investigadores lograron determinar la masa del bosón W con una precisión del 0,01 por ciento. Lo cual, explican, equivale a calcular el peso de un gorila de 350 kilogramos con un margen de error de 40 gramos. De este modo, descubrieron que la masa del bosón es notablemente superior a lo predicho por el Modelo Estándar. «Y si esto es real -explica Harry Cliff, de la Universidad de Cambridge- y no un sesgo sistemático o un malentendido sobre cómo hacer los cálculos, entonces es un gran problema porque significaría que hay un nuevo ingrediente fundamental para nuestro universo que no habíamos descubierto antes».

El Modelo Estándar es, sin duda, una de las teorías más exitosas que existen, capaz de hacer predicciones extraordinariamente precisas, pero no está exento de problemas. Por ejemplo, no dice nada de la materia oscura, que junto con la 'energía oscura' da cuenta, ni más ni menos, que del 95% de la masa del Universo. Y tampoco explica por qué vivimos en un Universo hecho de materia, cuando se supone, según la teoría, que durante el Big Bang se creó la misma cantidad de materia que de antimateria.

«En este marco de pistas de que faltan piezas en el Modelo Estándar -dice Kotval- hemos aportado una pista más. Y se trata de algo grande». Ahora, según los investigadores, «depende de la comunidad de física teórica y otros experimentos hacer un seguimiento de esto y arrojar luz sobre este misterio». El propio Kotwal asegura que, después de toda una década de esfuerzo, su trabajo aún no ha terminado. «Seguimos las pistas -afirma el físico-y no dejaremos piedra sin remover, así que averiguaremos qué significa esto».

Fuente: ABC Ciencia

Un nuevo estudio sugiere que, en realidad, la gravedad emerge del mundo cuántico del mismo modo en que el flujo de un líquido emerge de los movimientos caóticos de las gotas individuales

La descripción de la mecánica cuántica de los agujeros negros aún está en pañales, pero involucra matemáticas avanzadas espectaculares - Universidad Tecnológica de Chalmers/MIT

Uno de los mayores desafíos de la Física moderna es encontrar una teoría única o 'unificada' que sea capaz de describir todas las leyes de la naturaleza en un solo marco. Uno que conecte las dos grandes (e irreconciliables) teorías que, hoy por hoy, los científicos usan para comprender la realidad: la Relatividad General de Einstein, que describe el Universo a gran escala; y la Mecánica Cuántica, que describe nuestro mundo a nivel atómico. La razón por la que estas dos exitosas teorías encajan entre sí constituye uno de los mayores misterios a los que se enfrenta la Ciencia.

Si se consiguiera, esa teoría de la 'gravedad cuántica' incluiría una descripción tanto macroscópica como microscópica de la realidad, y nos daría además una visión profunda de fenómenos hoy inaccesibles como los agujeros negros o el instante en que se creó el Universo.

¿Pero cómo conseguirlo? Durante casi un siglo, varias generaciones de físicos han intentado, sin éxito, averiguar por qué las leyes que rigen en el reino de lo muy pequeño no 'funcionan' en el mundo macroscópico que nos rodea, y viceversa. Ahora, un equipo de investigadores de la Universidad Tecnológica de Chalmers, en Suecia, junto con el MIT estadounidense, han publicado un artículo en ' Nature Communications' en el que sugieren que la gravedad, la fuerza que domina el Universo a gran escala, emerge en realidad del mundo cuántico. Para llegar a esta extraordinaria conclusión, los investigadores han recurrido a las matemáticas avanzadas y al llamado 'principio holográfico'.

«Nos esforzamos por comprender las leyes de la naturaleza -explica Daniel Persson, coautor del estudio-, y el lenguaje en el que están escritas esas leyes son las matemáticas. Cuando buscamos respuestas a preguntas en física, a menudo también nos llevan a nuevos descubrimientos en matemáticas. Esta interacción es particularmente prominente en la búsqueda de la gravedad cuántica, donde es extremadamente difícil realizar experimentos».

Un ejemplo de fenómeno que requiere este tipo de descripción unificada son los agujeros negros. Un agujero negro se forma cuando una estrella lo suficientemente pesada colapsa bajo su propia fuerza gravitacional, de modo que toda su masa se concentra en un volumen extremadamente pequeño. La descripción de la mecánica cuántica de los agujeros negros aún está en pañales, pero involucra matemáticas avanzadas espectaculares.

En el caso de la teoría unificada, explica por su parte Robert Berman, primer firmante del artículo, «el desafío consiste en describir de qué forma la gravedad surge como un fenómeno 'emergente'. Así como los fenómenos cotidianos, como el flujo de un líquido, emergen de los movimientos caóticos de las gotas individuales, queremos describir cómo emerge la gravedad del sistema mecánico-cuántico a nivel microscópico».

De esta forma, los investigadores mostraron cómo la gravedad emerge de un sistema especial de Mecánica Cuántica, en un modelo simplificado para la gravedad cuántica llamado 'principio holográfico'.

«Usando técnicas matemáticas que ya había investigado antes -prosigue Berman- logramos formular una explicación de cómo surge la gravedad por el principio holográfico, de una manera más precisa que antes».

El nuevo artículo también puede ofrecer una nueva forma de enfrentarse a la misteriosa energía oscura. En la Teoría General de la Relatividad de Einstein, la gravedad se describe como un fenómeno geométrico. Así como una cama recién hecha se curva bajo el peso de una persona, los objetos pesados pueden curvar el espacio tiempo, el 'tejido' que conforma el Universo.

Pero según la teoría de Einstein, incluso el espacio vacío, el 'estado de vacío' del Universo, tiene una rica estructura geométrica. Si pudiéramos acercarnos y mirar este vacío con un microscopio, veríamos diminutas fluctuaciones u ondas mecánicas cuánticas, conocidas como energía oscura, la misteriosa forma de energía que se considera como responsable de la expansión acelerada del Universo.

El estudio puede conducir a nuevos conocimientos sobre cómo y por qué surgen estas ondas mecánico-cuánticas microscópicas, así como la relación entre la teoría de la gravedad de Einstein y la Mecánica Cuántica, algo que los científicos llevan décadas intentando.

«Estos resultados -concluye Persson- abren la posibilidad de probar otros aspectos del principio holográfico, como la descripción microscópica de los agujeros negros. También esperamos poder utilizar estas nuevas conexiones en el futuro para abrir nuevos caminos en las matemáticas».

Fuente: ABC Ciencia

Ese quinto estado sería la información, que tendría una masa específica y que se añadiría a los cuatro estados conocidos de la materia: sólido, líquido, gaseoso y plasma

Representación esquemática del proceso de aniquilación de positrones y electrones. (a) Proceso estándar de aniquilación de positrones y electrones que produce solo dos fotones gamma de 511 keV y (b) proceso de aniquilación de positrones y electrones que produce dos fotones gamma de 511 keV y dos fotones adicionales de baja energía a partir del borrado de información - Advances AIP (2022)

Un nuevo experimento llevado a cabo por investigadores de la Universidad de Portsmouth, en Inglaterra, podría confirmar la existencia de un 'quinto estado' de la materia en el Universo. Si los resultados se confirman, cambiarían para siempre los resultados de la Física tal y como la conocemos.

Sólido, líquido, gaseoso y plasma. Esos son los cuatro estados de la materia que conocemos. Pero según el físico Melvin Vopson, también la información tiene masa, y todas las partículas elementales, los diminutos 'ladrillos' que forman todo lo que existe, son capaces de almacenar información sobre sí mismas, de forma similar a como el ADN almacena información sobre los seres vivientes.

Según Vopson, que acaba de publicar sus resultados en 'AIP Advances',

 revista editada por el Instituto Americano de Física, si su experimento resulta ser correcto habrá conseguido demostrar que la información es, precisamente, el 'quinto estado' de la materia. "Sería un momento eureka porque cambiaría la física tal como la conocemos -afirma el investigador- y ampliaría nuestra comprensión del Universo. Pero no entraría en conflicto con ninguna de las leyes existentes de la física. No contradice la mecánica cuántica, la electrodinámica, la termodinámica o la mecánica clásica. Todo lo que hace es complementar la física con algo nuevo e increíblemente emocionante”.

La información tiene masa

En trabajos anteriores, Vopson ya sugería que la información tiene una masa física, y que es 'el bloque de construcción fundamental' del Universo. E incluso llegó a afirmar que la información podría ser la escurridiza materia oscura, la misteriosa sustancia que da cuenta de casi un tercio de la masa del Universo.

"Si asumimos que la información es física y tiene masa -prosigue Vopson-, y que las partículas elementales tienen un 'ADN' con información sobre sí mismas, ¿cómo podemos probarlo? Mi último artículo trata sobre cómo poner a prueba estas teorías para que la comunidad científica pueda tomarlas en serio”.

En su experimento, el científico propone un método para detectar y medir la información supuestamente contenida en el interior de una partícula elemental. Y ese método consiste en hacer colisionar partículas con antipartículas, es decir, materia con su correspondiente antimateria. Como se sabe, a cada partícula conocida le corresponde una antipartícula, que es exactamente igual a ella excepto por su carga eléctrica, que es opuesta. Por ejemplo, la antipartícula del electrón es el positrón, y la del protón, el anti protón. Se da la circunstancia de que cuando una partícula de materia se encuentra con su 'imagen en el espejo' de antimateria, ambas se aniquilan en un destello de rayos gamma.

Según explica Vopson, "la información en un electrón es 22 millones de veces menor que su masa, pero podemos medir esa información borrándola. Sabemos que cuando haces chocar una partícula de materia con una partícula de antimateria, se aniquilan entre sí. Y la información de la partícula tiene que ir a alguna parte cuando se aniquila".

El proceso de aniquilación, pues, convierte toda la masa restante de las partículas en energía, normalmente fotones gamma. Pero cualquier partícula que contenga información se convertirá también en fotones infrarrojos de baja energía. En su artículo, Vopson predice exactamente la energía exacta de esos fotones infrarrojos resultantes del borrado de la información. Ahora solo se trata de encontrarlos.

Según el investigador, su trabajo podría demostrar que la información es un componente clave de todo en el Universo y daría lugar a un nuevo campo de investigación en física.

Fuente: ABC Ciencia

Un grupo de científicos ha producido el modelo más grande y detallado del Universo primigenio que se ha conseguido hasta la fecha. La simulación se ha denominado como ‘Thesan’ en honor de la diosa etrusca del amanecer y ayuda a comprender los primeros mil millones de años desde el origen del Universo.

Todo comenzó hace alrededor de 13.800 millones de años con la gran explosión del Big Bang. La materia y la energía que formó el Universo apareció de manera tan repentina como espectacular, pero poco después se enfrió drásticamente y se oscureció por completo. Un par de cientos de millones de años después del Big Bang, el universo despertó cuando la gravedad reunió materia en las primeras estrellas y galaxias.

La luz de estas primeras estrellas convirtió el gas circundante en un plasma ionizado caliente, una transformación crucial conocida como reionización cósmica, la segunda mayor fase de cambio del hidrógeno en el universo que lo modificó hacia la estructura compleja que vemos hoy. 

Para los físicos, la evolución cósmica durante estas primeras ‘edades oscuras’ ha sido relativamente simple de calcular, pero más allá la situación se complica porque en algún momento la gravedad comenzó a atraer y colapsar la materia. «Al principio lentamente, pero luego tan rápido que los cálculos se vuelven demasiado complicados y tenemos que hacer una simulación completa”, comentan.

Por ello esta fase de reionización cósmica ha sido un período difícil de reconstruir para los astrofísicos, ante las interacciones caóticas inmensamente complicadas, incluidas las de la gravedad, el gas y la radiación.

Detallado el Universo primigenio

Una simulación conocida como Thesan, desarrollada por científicos del MIT, la Universidad de Harvard y el Instituto Max Planck de Astrofísica, resuelve estas interacciones del «amanecer cósmico» con el mayor detalle y volumen de cualquier modelo conseguido hasta la fecha.

Para ello, la simulación Thesan combina un modelo realista de formación de galaxias con un nuevo algoritmo que rastrea cómo la luz interactúa con el gas, junto con un modelo de polvo cósmico. Así, han podido modelar un volumen cúbico del universo que abarca 300 millones de años luz de diámetro.

Desde ahí han avanzado en el tiempo hasta rastrear la primera aparición y evolución de las cientos de miles de galaxias que dieron forma al Universo primigenio, desde 400.000 años después del Big Bang hasta los primeros mil millones de años.

«Thesan actúa como un puente hacia el universo primitivo«, explican los científicos del proyecto. «Está destinado a servir como una contraparte de simulación ideal para las próximas instalaciones de observación, que están preparadas para alterar fundamentalmente nuestra comprensión del cosmos».

Thesan sigue cómo la luz de estas primeras galaxias interactúa con el gas durante los primeros mil millones de años y transforma el universo de neutral a ionizado. Un descubrimiento del modelo es que la luz no viajó a grandes distancias en los inicios del universo: «De hecho, esta distancia es muy pequeña y solo se vuelve grande al final de la reionización, aumentando en un factor de 10 en solo unos pocos cientos de millones de años».

Grandes enigmas esperan. Y es que hasta ahora las simulaciones se basaban en las pocas observaciones que los astrónomos tenían del universo primigenio. A medida que tengan más datos, por ejemplo con el telescopio espacial James Webb de reciente lanzamiento, esperan ubicar esas observaciones en el contexto cósmico y mejorar nuestra comprensión del origen del Universo.

Fuente: Muycomputer.com

Lunes, 14 Marzo 2022 11:55

CINCO RAREZAS DEL NUMERO PI

El 14 de marzo se celebra el Día Internacional de las Matemáticas en honor a esta constante que está en todas partes

Catorce de marzo: 14/3 o 3/14 si lo leemos en nomenclatura inglesa. Al decir 'tres catorce' rápidamente se dibuja en nuestra mente un número que nos recuerda al instituto. Es muy posible, además, que al escucharlo sigamos la retahíla: quince, noventa y dos, sesenta y cinco… hasta donde nos alcance la memoria para recordar las cifras del singular número Pi.

El congreso de EE.UU. en 2009 declaró oficialmente que este día, el 14 de marzo, sería el Día de π. Tuvo un enorme éxito desde sus inicios, y la idea creció hasta que en 2019, la UNESCO lo declaró el Día Internacional de las Matemáticas. Desde entonces, cada año más y más gente se ha ido uniendo a la celebración, con π como símbolo de los que amamos las matemáticas.

Pi no es realmente un número

Empecemos por aclarar algo, Pi es la decimosexta letra del alfabeto griego (π) y en matemáticas la usamos para representar algo mucho más interesante que un número (que no digo yo que los números no lo sean). Así pues, la primera rareza de Pi es esa, que no es un número. Pero entonces, si no es un número, ¿qué es Pi?

Pi representa la proporción que guarda la longitud de la circunferencia con su diámetro. Una proporción que tiene la particularidad (aquí su segunda rareza) de ser constante, esto es, de valer siempre lo mismo sin importar lo grande o lo pequeña que sea la circunferencia.

En particular, en la geometría euclídea –la que debemos a Euclides (325 - 265 a. e. c.) y que nos asegura cosas como que por dos puntos pasa una única recta– el valor constante de Pi es tan especial (y ya van tres) como para ser irracional.

No es que haya perdido la razón sino que, a pesar ser el resultado de dividir el perímetro entre el diámetro, no puede expresarse nunca como la división de dos números enteros. Si el diámetro de una rueda es un valor 'exacto', sin decimales, el espacio que recorrerá al dar una vuelta no lo será. Pero, entonces ¿cuánto será? Nos acercamos a una cuestión clave, el valor de Pi… pero déjenme que antes siga con otra de sus rarezas, la cuarta ya.

Pi es trascendente. No es que sea tan importante como para que transcienda (que también) sino que es trascendente, sin n. Esta propiedad matemática nos asegura que Pi no será nunca la solución de ningún polinomio. ¿Polinomio? Seguro que lo recuerdan de sus estudios de matemáticas. Los polinomios son las ecuaciones en las que la incógnita aparece elevada a uno o varios números naturales, por ejemplo x2 + x + 3 = 0.

Pues bien, da igual los exponentes y los números que se pongan, no hay un polinomio para el que la x valga Pi. Cabe mencionar, además, que esta es una propiedad que no cumplen muchos números así que, a estas alturas, ya está demostrado que Pi es rarito pero aún falta lo mejor. Ahora sí, vamos a hablar de su valor.

El escurridizo valor de Pi

Como decíamos al inicio, el valor constante de Pi (en la geometría euclídea) es de 3,141592… pero, precisamente por el hecho de que es irracional, sabemos que tendrá infinitos decimales. Infinitos, como suena, sin fin y, para más inri, en este caso no solo es que sean infinitos si no que no siguen ningún patrón. Parecen colocados al azar, con todas las cifras del 0 al 9 teniendo la misma probabilidad de aparecer. De hecho, pueden usarse sus valores como ungenerador de números aleatorios y es posible buscar entre ellos cualquier sucesión de cifras, incluso el número de DNI de una persona cualquiera, que seguro que se encuentra en alguna parte. Sin embargo, lo más importante de esta propiedad de Pi es que se ha convertido en una fuente inspiración para el trabajo de muchísima gente.

Desde los tiempos más remotos (hay indicios de que a Pi ya lo conocían los babilonios en el 2000 a. e. c.) se han hecho esfuerzos por conseguir establecer su valor con la mayor precisión posible. En particular, uno de los primeros en dar sus frutos fue el de Arquímedes de Siracusa (287 - 212 a. e. c.), quien diseñó un método para acotar el valor de esta rara constante.

Arquímedes usaba polígonos que se inscribían (los que se sitúan dentro de la circunferencia) y se circunscribían (los que contienen a la circunferencia en su interior). De esta forma, el valor del perímetro de la circunferencia se situaría siempre entre el perímetro del polígono inscrito y el del polígono circunscrito. Añadiendo cada vez más lados a los polígonos, Arquímedes consiguió dar un intervalo de valores para Pi, que tenía un error máximo del 0,040% sobre el valor real… vamos, cerquita, cerquita.

A la idea de Arquímedes le siguieron muchas otras y de muy diversa índole, algunas incluso desde el punto de vista de la probabilidad y la estadística, como fue el caso del Georges-Luis Leclerc (1707-1788), el Conde de Buffon.

En particular, Leclerc encontró al número Pi mientras trataba de determinar lo probable que era que al lanzar una aguja sobre un conjunto de lineas paralelas esta caiga cruzada sobre una de las rectas. Tras diversos cálculos llegó a la conclusión de que, si las lineas estaban separadas por la misma distancia que la longitud de la aguja, dicha probabilidad era de 2 dividido por Pi. De esta forma era fácil aproximar Pi lanzando muchas agujas, observando la proporción de estas que cortaban realmente a las rectas paralelas y comparándola con la probabilidad exacta.

Sin embargo, con la llegada de la era de la computación apareció la quinta rareza de Pi, ser un número computable. En particular, Alan Turing, allá por 1936, definió que un número es computable si existe un algoritmo que nos permite aproximar su valor con una cantidad de cifras decimales predeterminadas.

Se han calculado 63 billones de decimales de Pi

Siguiendo esta premisa, en 1949 una máquina ENIAC consiguió romper el récord establecido hasta la fecha por el ser humano y calcular los 2037 primeros decimales de Pi, dando el pistoletazo de salida a una carrera que ha llegado hasta los 63 billones (europeos) de cifras con las que fue calculado en 2021 por un equipo de la University of Applied Sciences del cantón suizo de los Grisones.

Pero Pi no es solo un entidad matemática curiosa que ha hecho sonar las cuerdas del pensamiento humano desde la antigüedad. Pi es, como asegura Rhett Alain, un número asombroso que aparece de manera natural allá donde menos lo esperamos: en la estimación de nuestra posición por GPS, en el movimiento del péndulo de un reloj de pared o hasta en el modo en que un asistente por voz es capaz de reconocer que el usuario quiere, por ejemplo, que le cuente un chiste.

Pero, sobre todo, Pi es la excusa perfecta para que cada catorce de marzo celebremos las matemáticas y todo lo que nos dan. ¡Feliz Día Internacional de las Matemáticas!

Fuente: ABC Ciencia

Después de tres años y medio de estudio de la kilonova GW170817, los científicos se enfrentan a dos escenarios diferentes y nunca observados hasta ahora

En la ilustración, las consecuencias de una kilonova, un poderoso evento que sucede cuando dos estrellas de neutrones se fusionan - NASA/CXC/M. Weiss

Por primera vez en la historia de la Astronomía, un equipo de astrónomos dirigidos por investigadores de la Northwestern University, en Illinois, podría haber detectado el resplandor residual de una kilonova, una explosión que sucede cuando dos estrellas de neutrones en un sistema binario se fusionan.

Conocidas también como supernovas de tipo r, las kilonovas son hasta 1.000 veces más brillantes que una nova clásica, un evento explosivo en el que una enana blanca, densa y pequeña, absorbe material de una estrella compañera mucho mayor hasta que, literalmente, revienta expulsando con violencia sus capas externas y produciendo un fuerte destello, aunque de corta duración. Sin embargo, y mientras la estrella 'vampirizada' siga teniendo masa, una misma enana blanca puede generar múltiples eventos de nova, a no ser que uno de ellos sea lo suficientemente fuerte como para destruir el sistema binario de un solo golpe.

Pero la kilonova, descubierta en 2017 y denominada GW170817, fue mucho más fuerte que todo eso. Y durante la violenta fusión, los investigadores detectaron un estrecho chorro de partículas de alta energía que no se desvaneció hasta tres años y medio después, dejando tras de sí una nueva y misteriosa fuente de rayos X.

Dos posibilidades totalmente nuevas

En un artículo recién aparecido en 'The Astrophysical Journal Letters' y que también puede consultarse en el servidor de prepublicaciones 'arXiv', los astrónomos explican que esa fuente de rayos X podría deberse a los escombros en expansión de la fusión entre los dos objetos, una onda de choque similar al estampido sónico de un avión que rompe la barrera del sonido. La onda de choque pudo calentar los materiales de alrededor, generando los rayos X observados en el estudio, algo que se conoce como 'resplandor residual' de kilonova. Aunque también podría ser que esos mismos escombros emitieran los rayos X al caer en un agujero negro formado tras la fusión.

Según explica Aprajita Hajela, primera firmante del artículo, «aquí, al estudiar las consecuencias de la fusión de dos estrellas de neutrones, hemos entrado en territorio desconocido. Estamos viendo algo nuevo y extraordinario por primera vez, y eso nos brinda la oportunidad de estudiar y comprender nuevos procesos físicos, que no se habían observado antes».

Tres años y medio de observación

El 17 de agosto de 2017, GW170817 hizo historia al convertirse en la primera fusión de estrellas de neutrones detectada tanto por ondas gravitacionales como por radiación electromagnética (o luz). Desde entonces, los astrónomos han estado utilizando tanto telescopios terrestres como espaciales para estudiar el evento en todo el espectro electromagnético.

Gracias al Observatorio de rayos X Chandra, por ejemplo, los científicos lograron descubrir las emisiones de rayos X del chorro de partículas causado por la fusión, moviéndose casi a la velocidad de la luz. A principios de 2018, sin embargo, la emisión de rayos X se fue debilitando a medida que el estrecho haz de partículas disminuía su velocidad. Pero durante todo el año 2020, el brillo de los rayos X dejó de disminuir y se mantuvo constante. Lo cual fue una pista importante.

«El hecho de que los rayos X dejaran de desvanecerse rápidamente -explica Faffaella Margutti, autora principal del estudio- fue nuestra mejor evidencia de que estábamos detectando algo más en esa fuente. Parece que se necesita una fuente de rayos X completamente diferente para explicar lo que estamos viendo».

Y esa 'fuente adicional' de rayos X podría ser tanto un resplandor de kilonova como un agujero negro recién nacido, dos escenarios que nunca antes habían sido observados.

En palabras de Joe Bright, de la Universidad de California en Berkeley y coautor del estudio, «esta podría ser tanto la primera vez que vemos un resplandor residual de kilonova como la primera vez que vemos material cayendo en un agujero negro formado tras una fusión de estrellas de neutrones. Cualquiera de los resultados sería extremadamente emocionante».

¿Pero cómo saber cuál es la explicación correcta? La única solución, según el equipo, es seguir observando a GW170817 tanto en rayos X como en ondas de radio. Si se trata de un resplandor residual de kilonova, se espera que las emisiones de rayos X y de radio sean más brillantes en los próximos meses o años. Si la explicación, por el contrario, involucra materia que cae sobre un agujero negro recién formado, entonces la emisión de rayos X debería permanecer constante o disminuir rápidamente, y con el tiempo no se detectará ninguna emisión de radio.

Para Kate Alexander, coautora de la investigación, «el estudio adicional de GW170817 podría tener implicaciones de gran alcance. La detección de un resplandor residual de kilonova implicaría que la fusión no produjo inmediatamente un agujero negro. Alternativamente, este objeto puede ofrecer a los astrónomos la oportunidad de estudiar cómo cae la materia en un agujero negro solo unos años después de su nacimiento».

Fuente: ABC Ciencia

Este descomunal estallido cósmico desafía la teoría sobre los rayos gamma en el universo. Por su cercanía y por su colosal energía.

DESY SCIENCE COMMUNICATION LAB

Un equipo de científicos ha conseguido la mejor vista hasta ahora de las explosiones más brillantes del universo: los estallidos de rayos gamma (GRB), asociadas a explosiones extremadamente energéticas en galaxias distantes.

Ha sido un observatorio especializado en Namibia el que ha registrado la radiación más enérgica y el resplandor de rayos gamma más largo de un estallido de rayos gamma (GRB) hasta la fecha. Ha sido tan colosal la explosión cósmica que las observaciones con el Sistema Estereoscópico de Alta Energía (H.E.S.S.) desafían la idea establecida de cómo se producen los rayos gamma en estas colosales explosiones estelares.

Uno de los fenómenos más energéticos del universo

“Los estallidos de rayos gamma son rayos X brillantes y destellos de rayos gamma observados en el cielo, emitidos por fuentes extragalácticas distantes”, explica la científica de DESY Sylvia Zhu, coautora del trabajo. “Son las explosiones más grandes del universo y están asociadas con el colapso de una estrella masiva que gira rápidamente en un agujero negro. Una fracción de la energía gravitacional liberada alimenta la producción de una onda expansiva ultrarelativista. Su emisión se divide en dos fases distintas: una fase inicial caótica y rápida que dura decenas de segundos, seguida de una fase de resplandor de larga duración que se desvanece suavemente ".

El evento explosivo supuso la muerte de una estrella y el inicio de su transformación en un agujero negro, según expertos del Sincrotrón de Electrones Alemán en Hamburgo. Fue detectado por los telescopios espaciales Fermi y Swift, con el apoyo del telescopio del Sistema Estereoscópico de Alta Energía (H.E.S.S) en Namibia.

La explosión, denominada GRB 190829A, se detectó por primera vez el 29 de agosto de 2019. A pesar de que esta explosión se encuentra a unos 1.000 millones de años luz de distancia, se cree que está en nuestra región cósmica.

"La energía de los rayos gamma se detectó durante varios días", explican los expertos. Antes de esto, los estallidos de rayos gamma generalmente suelen ser detectados a unos 20.000 millones de años luz de distancia (esta vez a solo 1.000 millones de años luz) y su resplandor solo se pudo observar durante unas pocas horas cada una y con energías mucho más bajas.

"Estábamos realmente sentados en primera fila cuando se produjo esta explosión de rayos gamma", celebra el coautor Andrew Taylor, del DESY. El equipo captó el resplandor posterior a la explosión inmediatamente cuando se hizo visible para los telescopios HESS. "Pudimos observar el resplandor posterior durante varios días y a energías de rayos gamma sin precedentes", comenta Taylor.

Su distancia, relativamente corta, permitió realizar mediciones detalladas del espectro del resplandor, la distribución de 'colores' o energías de los fotones de la radiación, en el rango de energía muy alto.

"Podríamos determinar el espectro de GRB 190829A hasta una energía de 3,3 tera-electronvoltios, que es aproximadamente un billón de veces más energético que los fotones de la luz visible", explica Edna Ruiz-Velasco del Instituto Max Planck de Física Nuclear en Heidelberg.

Los resultados

"Nuestras observaciones revelaron similitudes curiosas entre los rayos X y la emisión de rayos gamma de muy alta energía del resplandor de la explosión", comentan los autores.

La teoría establece que los dos componentes de emisión deben ser producidos por mecanismos separados. Pero las observaciones del resplandor crepuscular de GRB 190829A muestran que ambos componentes, rayos X y rayos gamma, se desvanecieron en sincronía. Esto plantea un desafío para el origen del sincrotrón de la emisión de rayos gamma de muy alta energía.

Fuente: Muyinteresante.com

Página 1 de 2
© 2017 Universidad Nacional del Callo. Todos los Derechos Reservados