sábado, 30 de enero de 2016

¿El neutrino es su propia antipartícula?

Artículo publicado por Signe Brewster el 20 de enero de 2016 en Symmetry Magazine
La misteriosa partícula podría tener la clave de por qué la materia prevaleció sobre la antimateria en los inicios del universo.
Casi todas las partículas tienen un homólogo de antimateria: una partícula con la misma masa pero carga opuesta, entre otras características.
Esto parece aplicarse a los neutrinos, minúsculas partículas que nos atraviesan constantemente. A partir de las partículas liberadas cuando un neutrino interactúa con la materia, los científicos pueden discernir si han captado un neutrino contra un antineutrino.
Superkamiokande
Detector Super-Kamiokande

Pero ciertas características de los neutrinos y los antineutrinos hacen que los científicos se pregunten: ¿Son los mismos? ¿Son los neutrinos sus propias antipartículas?
Esto no es una novedad. Los gluones e incluso los bosones de Higgs se cree que son sus propias antipartículas. Pero si los científicos descubren que los neutrinos son sus antipartículas, podría darnos una pista sobre por qué tienen esa masa tan minúscula — y si desempeñaron un papel en un universo predominado por la materia.

Dirac contra Majorana

La idea de antipartícula procede de 1928, cuando el físico británico Paul Dirac desarrolló lo que se ha llegado a conocer como ecuación de Dirac. Su trabajo buscaba explicar qué sucedía cuando los electrones se movían a una velocidad cercana a la de la luz. Pero sus cálculos dieron como resultado un extraño requisito: que los electrones, a veces, tenían energía negativa.
“Cuando Dirac escribió su ecuación es cuando supo que las antipartículas existían”, señala André de Gouvêa, físico teórico y profesor en la Universidad Northwestern. “Las antipartículas son una consecuencia de su ecuación”.
El físico Carl Anderson descubrió el compañero de antimateria del electrón que Dirac previó en 1932. Lo llamó positrón – una partícula como el electrón, pero con una carga positiva.
Dirac predijo que, además de tener cargas opuestas, los homólogos de antimateria deberían tener otra característica opuesta, conocida como quiralidad, que representa una de las propiedades cuánticas inherentes que tiene una partícula. Cada partícula puede tener una quiralidad dextrógira o levógira.
La ecuación de Dirac permitió que neutrinos y antinetrinos fuesen partículas distintas y, como resultado, eran posibles cuatro tipos de neutrinos: neutrinos con quiralidad levógira y dextrógira, y antineutrinos también con ambas quiralidades.
Pero si los neutrinos no tenían masa, como pensaban los científicos en aquella época, sólo se requeriría la existencia de neutrinos levógiros y antineutrinos dextrógiros.
En 1937, el físico italiano Ettore Majorana debutó con otra teoría: neutrinos y antineutrinos eran en realidad lo mismo. La ecuación de Majorana describía que los neutrinos, si después de todo tenían masa, podrían convertirse en antineutrinos, y viceversa.

El desequilibrio materia-antimateria

Si la masa del neutrino era cero o no, siguió siendo un misterio hasta 1998, cuando los experimentos Super-Kamiokande y SNO hallaron que realmente tenían una masa muy pequeña — un logro reconocido con el Premio Nobel de Física de 2015. Desde entonces, han surgido experimentos en Asia, Europa y Norteamérica buscando pistas de que el neutrino es su propia antipartícula.
La clave para encontrar esta prueba es algo llamado conservación del número leptónico. Los científicos consideran una ley fundamental de la naturaleza que el número leptónico se conserve, lo que significa que el número de leptones y antileptones implicados en una interacción debería ser igual antes y después de que tenga lugar dicha interacción.
Los científicos creen que justo después del Big Bang, el universo debería haber contenido las mismas cantidades de materia que de antimateria. Los dos tipos de partículas deberían haber interactuado, cancelándose gradualmente entre sí hasta que no quedase más que energía. De algún modo, no es así como sucedió.
Descubrir que el número leptónico no se conserva abriría una puerta que permitiría el actual desequilibrio entre materia y antimateria. Y las interacciones entre neutrinos podrían ser el lugar donde encontrar dicha puerta.

Desintegración doble beta sin neutrinos

Los científicos están buscando la violación del número leptónico en un proceso conocido como desintegración doble beta, dice el teórico de SLAC Alexander Friedland, que está especializado en el estudio de los neutrinos.
En su forma más común, la desintegración doble beta es un proceso en el cual un núcleo se desintegra en un núcleo distinto y emite dos electrones y dos antineutrinos. Esto equilibra la materia y antimateria leptónica antes y después del proceso de desintegración, por lo que se conserva el número leptónico.
Si los neutrinos son sus propias antipartículas, es posible que los antineutrinos emitidos durante la desintegración doble beta pudiesen aniquilarse entre sí y desaparecer, violando la conservación del número leptónico. Esto es lo que se conoce como desintegración doble beta sin neutrinos.
Dicho proceso sería favorable a la materia sobre la antimateria, creando un desequilibrio.
“Teóricamente, provocarían una profunda revolución en nuestra comprensión de dónde logran su masa las partículas”, señala Friedland. “También nos diría que hay una nueva física a unas escalas de energía altísimas — que hay algo nuevo más allá del Modelo Estándar que conocemos y queremos”.
Es posible que neutrinos y antineutrinos sean diferentes, y que haya dos estados para los neutrinos y otros dos para los antineutrinos, como se requiere en la ecuación de Dirac. Los dos estados que faltan podrían ser tan esquivos como para que los físicos aún no los hayan observado.
Pero observar las pruebas de una desintegración doble beta sin neutrinos sería una señal de que Majorana tuvo la idea correcta — neutrinos y antineutrinos son lo mismo.
“Son experimentos muy complejos”, señala de Gouvêa. “Son similares a los experimentos de materia oscura, en el sentido de que tienen que realizarse en entornos muy tranquilos con detectores muy limpios y sin radiactividad salvo la del núcleo que tratas de estudiar”.
Los físicos aún están evaluando su comprensión de las esquivas partículas.
“Ha habido tantas sorpresas procedentes de la física de neutrinos”, apunta Reina Maruyama, profesor de la Universidad de Yale asociado al experimento CUORE sobre desintegración doble beta sin neutrinos. “Creo que es realmente apasionante pensar en lo que no sabemos”.

Fuente: http://www.cienciakanija.com/

El último artículo de Hawking sobre agujeros negros divide a los físicos

Artículo publicado por Davide Castelvecchi el 27 de enero de 2016 en Nature News
Algunos dan la bienvenida a su último trabajo como una nueva forma de resolver un problema con los agujeros negros; otros no están seguros de su valor.
Casi un mes después de que Stephen Hawking y sus colegas publicasen un artículo en línea sobre agujeros negros1, los físicos no se ponen de acuerdo sobre su significado.
Algunos apoyan las afirmaciones del borrador — que proporciona una prometedora forma de abordar un obstáculo conocido como la paradoja de la información de los agujeros negros, que Hawking identificó hace más de 40 años. “Creo que hay un sentimiento general de entusiasmo por tener una nueva forma de estudiar cosas que puede que nos saquen del atasco en el que nos encontramos”, comenta Andrew Strominger, físico en la Universidad de Harvard en Cambridge, Massachusetts, y coautor del último artículo.
Hubble Helps Find Smallest Known Galaxy Containing a Supermassive Black Hole
Impresión artística de un agujero negro Crédito: NASA

Strominger presentó los resultados el 18 de enero en una abarrotada charla en la Universidad de Cambridge, en el Reino Unido, donde trabaja Hawking.
Otros no están tan seguros de que el enfoque pueda resolver la paradoja, aunque algunos dicen que el trabajo arroja luz sobre varios problemas de la física. A mediados de la década de 1970, Hawking descubrió que los agujeros negros no son realmente negros sino que, de hecho, emiten cierta radiación2. De acuerdo con la física cuántica, deben aparecer pares de partículas, surgidas a partir de las fluctuaciones cuánticas, justo en el borde exterior del horizonte de sucesos — el punto de no retorno del agujero negro. Algunas de estas partículas escapan al tirón del agujero negro, pero se llevan una parte de su masa con ellas, provocando que el agujero negro mengüe lentamente hasta desaparecer finalmente.
En un artículo3 publicado en 1976, Hawking señalaba que las partículas que salían del agujero negro – conocidas como radiación de Hawking — tendrían propiedades completamente aleatorias. Como resultado, una vez que el agujero negro desaparecía, la información transportada por cualquier cosa que hubiese caído anteriormente en el agujero se perdería para el resto del universo. Pero este resultado choca contra las leyes de la física, que dicen que la información, como la energía, se conserva, creando la paradoja. “Ese artículo fue responsable de más noches de insomnio entre los físicos teóricos que ningún otro en la historia”, apuntó Strominger durante su charla.
El error, explica Strominger, fue ignorar el potencial del espacio vacío para transportar información. En su artículo, él y Hawking, junto con un tercer coautor, Malcolm Perry, también de la Universidad de Cambridge, se centran en las partículas “suaves”. Son versiones de baja energía de fotones, partículas teóricas conocidas como gravitones, y otra serie de partículas. Hasta hace poco se usaban principalmente para realizar cálculos en la física de partículas, pero los autores señalan que el vacío en el cual se sitúa un agujero negro no puede estar desprovisto de partículas — sólo energía — y, por tanto, las partículas suaves están presentes allí en un estado de energía cero.
Se deduce, escriben, que cualquier cosa que caiga en un agujero negro dejaría una impronta en estas partículas. “Si estás en el vacío y respiras — o haces cualquier cosa — agitas un montón de gravitones suaves”, comenta Strominger. Tras esta perturbación, el vacío alrededor del agujero negro ha cambiado, y la información se conserva.
El artículo pasa a sugerir un mecanismo para transferir la información al agujero negro — lo cual daría como resultado la resolución de la paradoja. Los autores hacen esto mediante el cálculo de cómo codificar los datos en una descripción cuántica del horizonte de sucesos, conocido como ‘pelo del agujero negro’.

Una transferencia compleja

Aun así, el trabajo está incompleto. Abhay Ashtekar, que estudia gravitación en la Universidad Estatal de Pennsylvania en University Park, dice que ve la forma en que los autores transfieren la información al agujero negro — lo que llaman ‘pelo suave’ — poco convincente. Y los autores reconocen que no saben aún cómo se transferiría la información posteriormente a la radiación de Hawking, un paso necesario.
Steven Avery, físico teórico en la Universidad de Brown en Providence, Rhode Island, se muestra escéptico sobre que el enfoque pueda resolver la paradoja, pero está entusiasmado por la forma en que amplía el significado de las partículas suaves. Señala que Strominger ha encontrado que las partículas suaves revelan sutiles simetrías de las fuerzas conocidas en la naturaleza4, “algunas de las cuales conocíamos, y otras son nuevas”.
Otros físicos son más optimistas sobre las perspectivas del método para resolver la paradoja de la información, incluyendo a Sabine Hossenfelder del Instituto Frankfurt para Estudios Avanzados en Alemania. Dice que los resultados sobre el pelo suave, junto con parte de su propio trabajo, parecen zanjar una controversia más reciente sobre los agujeros negros, conocida como el problema del cortafuegos. Ésta es la pregunta a si la formación de la radiación de Hawking hace que el horizonte de sucesos sea un lugar muy caliente. Esto estaría en contradicción con la teoría general de la relatividad de Einstein, en la cual, un observador que cayese a través del horizonte no verían súbitos cambios en el entorno.
“Si el vacío tiene distintos estados”, explica Hossenfelder, “entonces puedes transferir información hacia la radiación sin tener que poner ninguna energía en el horizonte. Por consiguiente, no hay cortafuegos”.

Referencias

Nature 529, 448 (28 January 2016) doi:10.1038/529448a
1.- Hawking, S. W., Perry, M. J. & Strominger, A. Borrador en http://arxiv.org/abs/1601.00921 (2016).
2.- Hawking, S. W. Nature 248, 30–31 (1974).
3.- Hawking, S. W. Phys. Rev. D 14, 2460–2473 (1976).
4.- Strominger, A. J. High Energ. Phys. 1407, 152 (2014).


Fuente: http://www.cienciakanija.com/2016/01/30/el-ultimo-articulo-de-hawking-sobre-agujeros-negros-divide-a-los-fisicos/

viernes, 22 de enero de 2016

¡Sorpresa! El Planeta X existe de verdad

¡Sorpresa! El Planeta X existe de verdad

Se trataría del noveno planeta de nuestro sistema estelar y ha sido apodado como «Planeta Nueve». Aún no se ha observado directamente, pero su presencia se ha inferido al estudiar las órbitas de sus vecinos, más allá de Plutón.
Al final, el famoso Planeta X podría convertirse pronto en realidad. El conocido astrónomo Michael Brown, descubridor de Eris y Sedna, acaba de aportar, junto a su colega Konstantin Batygin, las mejores evidencias que existen hasta ahora de la existencia de un nuevo y distante planeta gigante en los confines del Sistema Solar. Su trabajo, que está revolucionando a la comunidad científica internacional, acaba de publicarse en The Astronomical Journal.
Todo parece indicar que estamos más cerca que nunca de descubrir el noveno planeta del Sistema Solar. Y no se trata esta vez de pequeños mundos helados más allá de la órbita de Plutón, como el que anunció la Institución Carnegie el pasado mes de noviembre, ni tampoco de un simple objeto transneptuniano, sino de un auténtico gigante de tamaño comparable a Neptuno y que, de confirmarse definitivamente su existencia, entraría por la puerta grande en el selecto club planetario del que la Tierra forma parte y del que, en 2006, fue expulsado el propio Plutón. En otras palabras, podría tratarse del famoso y escurridizo Planeta X, ese que los astrónomos persiguen desde hace más de un siglo y que la cultura popular ha terminado por convertir en leyenda.
Los autores del trabajo, un equipo de investigadores de Instituto de Tecnología de California, le han bautizado como «Planeta Nueve». Tiene entre cinco y diez veces la masa de la Tierra, gira alrededor del Sol una vez cada 15.000 años y, aunque aún no lo han observado directamente, Michael Brown y Konstantin Batygin han deducido su existencia a partir de las órbitas de toda una serie de planetas enanos y otros objetos extremos de nuestro Sistema descubiertos recientemente. Se sabe desde hace tiempo que las extrañas «maniobras orbitales» de estos pequeños mundos podrían explicarse gracias a la perturbación gravitatoria de un hipotético planeta gigante nunca visto hasta ahora. Brown y Batygin creen que el nuevo planeta pudo ser «expulsado» lejos del Sol y al espacio profundo hace miles de millones de años, como consecuencia de un «empujón gravitatorio» de Júpiter o Saturno.

Escepticismo

Los investigadores saben que su trabajo será sometido a toda clase de revisiones por astrónomos de todo el mundo. No es la primera vez, en efecto, que se anuncia el hallazgo del misterioso Planeta X, cuya búsqueda está plagada de errores, exageraciones e, incluso, pura y simple charlatanería. Por eso, Brown y Batygin se han preparado conta la inevitable ola de escepticismo con una larga serie de datos, análisis orbitales de otros objetos distantes y sesudas simulaciones informáticas. «Si dices que tienes evidencias del planeta X -afirma Brown- prácticamente cualquier astrónomo dirá: ´¿Otra vez? Estos chicos, claramente, están locos. ¿por qué esta vez debería ser diferente a las demás?´. Esta vez es diferente porque esta vez tenemos razón».
Los dos astrónomos dedujeron la presencia del«Planeta Nueve» por la singular agrupación de seis objetos previamente conocidos y cuyas órbitas se encuentran más allá de Neptuno. Según sus datos, solo hay un 0,007% de probabilidades (una entre 15.000) de que esa agrupación se deba a una simple coincidencia. Mucho más probable es que un planeta con la masa de diez tierras esté guiando a los seis objetos en sus extrañas y peculiares órbitas elípticas, muy inclinadas con respecto al plano del Sistema Solar.
Del mismo modo, también la órbita del nuevo planeta está inclinada, y también estirada hasta distancias tan grandes que obligarán a revisar algunas de las ideas más establecidas sobre la dinámica planetaria dentro de nuestro sistema.

Locura

La mayor aproximación del Planeta Nueve al Sol lo sitúa hasta siete veces más lejos que Neptuno, a 200 Unidades Astronómicas (UA) de distancia. (Una Unidad Astronómica es la distancia que hay entre la Tierra y el Sol, 150 millones de km). Pero en su periplo orbital, el recién descubierto Planeta X podría llegar a alejarse periódicamente del Sol entre 600 y 1.200 Unidades Astronómicas. Es decir, mucho más allá del cinturón de Kuiper, la región de los pequeños mundos helados más allá de Neptuno, que empieza a «solo» unas 30 UA.
Hace años, la investigación de Brown y Batygin no iba encaminada a descubrir un nuevo planeta, sino todo lo contrario, a demostrar que el Planeta Nueve no existía. Pero el trabajo de otros dos astrónomos, que descubrieron una inusual agrupación de pequeños mundos helados en una remota región del Sistema Solar, les hizo cambiar de idea. En 2014, además, un estudio publicado en Nature por Scott Sheppard Y Chad Trujillo, de la Institución Carnegie, apuntaba a la existencia potencial de un planeta gigante desconocido, uno cuya gravedad, precisamente, estuviera afectando a las órbitas de todos esos cuerpos más pequeños. Al principio Brown pensó que era una locura, y trató de demostrarlo con una serie de ecuaciones y simulaciones informáticas que, al final, terminaron por demostrar que la del planeta gigante oculto era la mejor de las explicaciones posibles.
Según sostienen Brown y Batygyn, si el Planeta X está ahí fuera, los astrónomos deberían encontrar muy pronto más objetos en «órbitas reveladoras», influenciadas por el gigante oculto. Aunque Brown sabe muy bien que nadie creerá de verdad en el descubrimiento hasta que el Planeta X, en todo su esplendor, sea detectado por fin con un telescopio. «Hasta que no haya una detección directa -afirma el astrónomo- estamos ante una hipótesis». El equipo de investigadores utilizará ahora sus cálculos para «cazar» al escurridizo planeta con uno de los grandes telescopios instalados en Hawaii. Y no cabe duda de que, con los datos de su trabajo en la mano, muchos otros astrónomos intentarán hacer lo mismo.

Matar a Plutón

De hecho, grandes telescopios de dos continentes están tratando ya de poner la vista encima al Planeta X, que sería, por tamaño, el quinto mayor del Sistema Solar, después de Júpiter, Saturno, Urano y Neptuno. Pero a tanta distancia, no se trata de una tarea sencilla, ya que el Planeta Nueve, o X, refleja tan poca luz solar que pone a prueba la capacidad de los mejores intrumentos de observación disponibles.
Resulta irónico que sea precisamente Michael Brown el descubridor del noveno planeta del Sistema Solar. De hecho, fue él quien, en 2005, descubrió Eris, un pequeño y distante mundo helado del mismo tamaño de Plutón y que demostró que el hasta entonces noveno planeta de nuestro sistema era más que uno entre muchos mundos similares del cinturón de Kuiper. Fue precisamente su descubrimiento el que provocó que, apenas un año más tarde, en 2006, la Unión Astronómica Internacional reclasificara a Plutón, privándole de su título planetario y degradándolo a planeta enano. El propio Brown contó este proceso en su libro «Cómo maté a Plutón». Unos años antes, en 2003, Brown también protagonizó el descubrimiento de Sedna, otro pequeño y lejano mundo, aunque menor que Eris y Plutón.
«Matar a Plutón fue divertido -afirma el investigador-. Y encontrar a Sedna fue científicamente interesante. Pero esto está una cabeza por encima de todo lo demás«.

Fuente: http://abcblogs.abc.es/nieves/public/post/sorpresa-el-planeta-x-existe-de-verdad-16892.asp/

La NASA pide cautela ante el posible descubrimiento del Planeta X

James Green, Director de la División de Ciencia Planetaria de la agencia, ha destacado que el hallazgo publicado ayer es el comienzo de un largo proceso científico para confirmar o descartar la existencia del noveno planeta del Sistema Solar 


El astrofísico y divulgador Carl Sagan defendió a lo largo de su carrera la idea de que a la hora de divulgar la ciencia y sus avances era necesario despertar la sed de maravilla. Pero también alertó de que, sin las necesarias dosis de escepticismo y de pensamiento crítico, la ciencia podía transformarse en pseudociencia. Es decir, en mito y fábula.
Un día después de que los astrónomos Michael Brown y Konstantin Batygin publicaran en la revista «The Astronomical Journal» el posible hallazgo del Planeta X, el que podría ser el noveno planeta del Sistema Solar, la NASA ha querido hacer un llamamiento hacia la cautela. Y el escepticismo.

«La idea de que haya un nuevo planeta es sin duda excitante para mí, como científico planetario», ha dicho James Green, Director de la División de Ciencia Planetaria de la NASA en un vídeo difundido hoy. «Sin embargo, no estamos ante la detección de un nuevo planeta. Es muy pronto para poder afirmar esto», ha señalado.

En el artículo científico publicado ayer, los científicos proponían la hipótesis de que hubiera un nuevo planeta gigante en los confines del Sistema Solar. Pero ese cuerpo no se ha detectado, y podría no existir. Su idea se basa en cálculos matemáticos sobre las órbitas de seis lejanos cuerpos, que parecen girar en torno a algo que aún no se ha encontrado.

«Estamos ante una predicción temprana basada en modelos matemáticos elaborados con observaciones limitadas (...) Estamos en el comienzo de un proceso que podría llevar a un interesantísimo resultado», ha explicado James Green.

Comienza el debate

Eso no quiere decir que la hipótesis de Brown y Batygin sea endeble. Sino que efectivamente aún se trata de una hipótesis, lo que significa que tiene que ser comprobada por otros investigadores y superar la prueba final: la detección directa del noveno planeta.

De hecho, los propios autores del artículo ya estaban preparados ante la inevitable ola de escepticismo. Para ello, trataron de blindar su trabajo con una larga serie de datos, análisis orbitales de otros objetos distantes y complejas simulaciones informáticas: «Si dices que tienes evidencias del planeta X -afirmaba Brown- prácticamente cualquier astrónomo dirá: "¿Otra vez? Estos chicos, claramente, están locos. ¿por qué esta vez debería ser diferente a las demás?". Esta vez es diferente porque esta vez tenemos razón».

Adoptando una postura más intermedia, Green ha destacado la importancia del artículo publicado ayer, porque «alimenta el interés por la exploración espacial» y estimula un «sano debate» que «forma parte del proceso científico».

Las reglas del escepticismo

«Teorías como estas sirven para estimular ideas y conversaciones. Tocan nuestra curiosidad innata», ha dicho. Pero, «cada vez que tenemos una idea tan interesante como esta, siempre debemos aplicar las reglas de Carl Sagan del pensamiento crítico, que piden confirmar de forma independiente los hechos, buscar explicaciones alternativas y estimular el debate científico».

«Si el planeta X está ahí fuera, lo encontraremos juntos. O buscaremos una explicación alternativa para los datos que hemos recibido hasta el momento. Ahora, vamos a explorar», ha propuesto James Green.

Fuente:http://elblogantares.blogspot.com.es/2016/01/la-nasa-pide-cautela-ante-el-posible.html

lunes, 18 de enero de 2016

La habitabilidad de otros mundos

Artículo publicado el 14 de enero de 2016 en el Instituto Max Planck
Nuevos métodos permiten unas medidas precisas de la gravedad de las estrellas y el tamaño de los exoplanetas.
Cuánto pesamos en un planeta es algo que depende de su gravedad de superficie. La gravedad es un parámetro importante también para las estrellas, y cambia drásticamente a lo largo de la vida de una estrella, proporcionando información sobre su edad y etapa en la evolución estelar. Dado que las estrellas en el cielo nocturno aparecen sólo como pequeños puntos de luz, este valor es muy difícil de medir. Un equipo de científicos del Instituto Max Planck para Investigación en el Sistema Solar, en Göttingen, la Universidad de Viena, y Canadá, Francia y Australia, han desarrollado ahora un nuevo método que puede usarse para determinar la gravedad en la superficie de estrellas lejanas, de una precisión con un bajo porcentaje de error. También permite una mejor determinación del tamaño y la habitabilidad de los exoplanetas.
Exoplaneta circumbinario
Exoplaneta circumbinario Crédito: CfA

En los últimos años, los astrónomos han descubierto miles de planetas alrededor de estrellas lejanas (exoplanetas), la mayor parte de los mismos usando el método de tránsito. Este método implica una búsqueda de variaciones en el brillo de la estrella, que tienen lugar cuando los planetas pasan frente a su estrella madre, bloqueando parte de la luz estelar. El tamaño del planeta puede deducirse a partir de la curva de luz – pero siempre sólo en relación al tamaño de su estrella.
Para calcular si un planeta recién descubierto es similar a la Tierra, o si es un gigante gaseoso como Júpiter, por ejemplo, los investigadores deben tener información precisa sobre las propiedades de la estrella. El tamaño de la estrella y, en última instancia, del planeta, también pueden deducirse a partir de la fuerza gravitatoria.
Hasta ahora, las medidas exactas sobre la gravedad eran posibles sólo para un pequeño número de estrellas relativamente brillantes. Tal como informan los astrónomos en la revista Science Advances, el nuevo método les permite determinar la gravedad de superficie de las estrellas que son mucho más tenues con una precisión casi constante.
El método usa variaciones mínimas del brillo en la luz estelar. Aunque el brillo de las estrellas en el cielo nocturno parece constante a primera vista, está sujeto a variaciones medibles: oscilaciones acústicas en el interior de una estrella cambian la cantidad de luz irradiada, como también los movimientos de convección – burbujas de gas caliente que suben y luego bajan al enfriarse.
Ambos fenómenos se ven influidos directamente por la gravedad de superficie de la estrella. Pueden, por tanto, usarse para medir la gravedad, la cual se deduce de la masa y el radio de la estrella.
El autor principal, Thomas Kallinger de la Universidad de Viena, explica que no es necesario mirar en el espacio para observar estos fenómenos. Simplemente mirando lo que sucede en nuestra cocina podemos verlo: “Si calentamos agua en una olla, sube desde el fondo hacia la superficie, donde el calor transportado se transfiere al aire. El líquido se hunde de nuevo, y el ciclo se inicia de nuevo”.
Esta circulación transporta energía y es lo que se conoce como convección. También tiene lugar en las capas bajo la superficie solar, entre otros sitios, y de forma similar en la mayor parte de las estrellas de nuestra galaxia.
Para poder investigar las oscilaciones acústicas y los movimientos de convección de una estrella, se determina su brillo en intervalos cortos a lo largo de un gran periodo de tiempo. El valor del brillo medido – dibujado en una gráfica como una función del tiempo – genera la curva de luz.
El método más preciso disponible para medir la gravedad de una estrella está en el análisis minucioso de las oscilaciones estelares y, por tanto, de la curva de la luz. Sin embargo, este método puede usarse sólo para aquellas estrellas cuyas oscilaciones sobresalen claramente del ruido de fondo. Pero normalmente este caso sólo se da con estrellas brillantes que son, relativamente, muy pocas.
Más habitual es el caso en que los astrónomos tienen que lidiar con estrellas que no tienen el brillo suficiente para que sus oscilaciones puedan estudiarse en detalle. Sus curvas de luz son mucho más ruidosas, dado que la proporción de señal a ruido depende del brillo de la estrella, entre otras cosas. Cuanto más tenue es la estrella, más débil es la señal que llega al detector, y más difícil es procesarla. Para curvas de luz con tanto ruido, las frecuencias individuales no pueden extraerse y no se puede aplicar el método clásico.
El nuevo método, que los investigadores llaman Autocorrelation Function Timescale TechniqueTimescale Technique para abreviar, ahora permite a los investigadores determinar un valor preciso para la gravedad de estrellas débiles con curvas de luz con mucho ruido.
Los astrónomos filtran las curvas de luz para eliminar las señales de periodo largo – las cuales se originan a partir del campo magnético de la estrella, por ejemplo, y no se ven afectadas directamente por la gravedad de superficie. La escala de tiempo normal es la señal provocada por la convección y los pulsos, que pueden determinarse a partir de la curva de luz filtrada.
Esto se hace con la ayuda de lo que se conoce como filtro de paso alto, que tamiza las señales de periodo largo en los datos. La frecuencia de filtrado debe seleccionarse de tal forma que la señal que quiere medirse no se vea también filtrada; la intención es eliminar todas las señales periódicas que no se correlacionan con la gravedad, es decir, señales que surgen a partir de la rotación estelar, por ejemplo.
La precisión del método está alrededor del 4 por ciento. El único método hasta la fecha que puede aplicarse a estrellas tenues sólo proporciona una precisión de alrededor del 25 por ciento, por contra.
Los investigadores ven una enorme cantidad de posibles aplicaciones para su método. El telescopio espacial Kepler, por ejemplo, actualmente usa el método de tránsito para buscar exoplanetas, generando cientos de miles de curvas de luz extremadamente precisas durante el proceso. Futuras misiones, tales como PLATOTESS, también usarán este método.
En el proceso, se observarán millones de estrellas, cuyas etapas de evolución y tamaños de planetas podrían investigarse usando este nuevo método.
“El método nos proporciona valores precisos para parámetros estelares que necesitamos para determinar la estructura y edad de la estrellas”, dice el coautor Saskia Hekker del Instituto Max Planck para Investigación en el Sistema Solar, en Göttingen. Y también apunta que: “Los resultados para estrellas individuales también serán muy útiles para darnos una mejor comprensión de nuestra Vía Láctea”.

'Queremos detectar la partícula que explique la materia oscura'


Fabiola Gianotti, directora del CERN, ante uno de los detectores del LCH.
Fabiola Gianotti (Roma, 1960) fue la encargada de anunciar al mundo el descubrimiento del bosón de Higgs. El experimento ATLAS del cual era portavoz fue uno de los que localizaron la última pieza del Modelo Estándar de la Física. El pasado 1 de enero tomó las riendas del CERN, el Laboratorio Europeo de Física de Partículas, de la mano del alemán Rolf Heuer convirtiéndose en la primera mujer que dirige la institución desde que comenzó su actividad en 1954. Gianotti ha visitado España recientemente para impartir la conferencia LHC «Run 2»: impulsando tecnologías y despejando incógnitas en la sede de la Fundación BBVA.
¿Qué está por venir desde el LHC para la Física?
El inicio de la fase dos del LHC nos permitirá dar un salto en la energía del acelerador de casi el doble. Y cada vez que vamos un paso más allá en la energía, nos brinda nuevas oportunidades de abordar las preguntas sin resolver con mayores esperanzas de llegar a alguna solución.
¿Como averiguar si la partícula que se encontró es realmente el bosón de Higgs del Modelo Estándar y no uno de los otros bosones de Higgs posibles?
Sí, por supuesto. Continuaremos tomando medidas del bosón de Higgs con mayor precisión cada vez. No sólo se trata de la última partícula que nos quedaba por describir de cuantas componen el Modelo Estándar de la Física, sino que es una partícula muy especial que puede abrir por sí sola una puerta hacia una nueva física. Pero también abordaremos otras preguntas sin respuesta. ¿Por qué hay tanta materia en el Universo y tan poca antimateria? ¿A dónde fue a parar toda la antimateria? Sabemos perfectamente que sólo un 5% del Universo es visible y el resto está hecho de un tipo de materia y de energía de la que apenas sabemos nada... Hay muchas preguntas abiertas. Algunas ya las hemos empezado a contestar en la primera fase, como el origen de la masa de las partículas con el hallazgo del bosón de Higgs, pero las demás aún están ahí.
¿Cuándo se pueden esperar los primeros resultados llamativos de esta segunda etapa?
Para conseguir resultados sobre el bosón de Higgs con la más alta precisión se necesitarán varios años de toma de datos, por eso este proyecto del LHC se extenderá durante los próximos 15 o 20 años. ¿Descubrimientos sobre nueva física? Bueno, eso está en manos de la naturaleza. Si esta nueva física se produce en abundancia a la energía del LHC, entonces podría producirse un gran descubrimiento relativamente rápido. En cambio, si es difícil de encontrar, puede llevar mucho tiempo. Todo está en manos de la naturaleza. Pero los seres humanos estamos dando el máximo.
Si tuviera que apostar cuándo y qué se descubrirá...
Soy física experimental, sinceramente, yo no apuesto. Estoy abierta a lo que decida la naturaleza.
Pero, ¿qué preferiría usted?
Le diré dos preferencias. La primera sería que llegamos a encontrar la partícula que explique la materia oscura. Eso nos permitiría dar un enorme salto en nuestro conocimiento del Universo, desde el 5% que conocemos hoy hasta casi el 30%. Y la otra sería encontrar algo que sea completamente nuevo, algo que no esperemos en absoluto. Algo que no encaje con ninguna de las teorías que el ser humano ha desarrollado, porque creo que la naturaleza es más inteligente que el ser humano, más elegante, más simple...
¿Echó de menos una mayor atención del comité del Nobel al CERN cuando le concedieron el galardón a Higgs y Englert?
Los físicos teóricos que predijeron la existencia de la partícula merecen el premio Nobel. Creo que el papel de los experimentos en el LHC se ha demostrado por el hecho de que el premio Nobel sólo ha sido concedido después del descubrimiento. Pero también en la motivación que cita el comité del Nobel se nombra de forma explícita a los dos experimentos, ATLAS y CMS, que realizaron el hallazgo. Y eso es una gran satisfacción.
¿Sigue adelante el proyecto para construir un nuevo acelerador de mayores dimensiones?
En este momento, sí. Ese proyecto está aún en la fase de realización de los estudios del diseño conceptual. Tenemos planeado terminar los estudios sobre la viabilidad de este proyecto para finales de esta década, sobre 2019. Y entonces la comunidad europea volverá a reunirse para discutir lo que llamamos la estrategia europea de física de partículas, que se celebra cada cinco o seis años.
¿Y se está manejando ya alguna cifra de lo que podría costar?
Claramente requerirá un esfuerzo mucho mayor del que se necesitó para el proyecto del LHC. Supondría un reto desde el punto de vista tecnológico y también científico. Estamos explorando todas las posibilidades para el futuro, pero claramente esta es una de las más interesantes. Pero los resultados del LHC nos irán guiando.
¿Si todo va bien, cuándo podría ser una realidad este gran acelerador de 100 kilómetros de circunferencia?
Dentro de unos 25 años desde hoy. Estos proyectos llevan muchísimo tiempo. Las primeras discusiones sobre el LHC empezaron en 1984 y no comenzó a operar hasta 2009.
¿Qué hallazgos permitiría un acelerador de estas características?
Un anillo mayor nos permitiría dar otro gran salto de energía, multiplicando la actual por siete. Y eso nos aporta mayores probabilidades de descubrir nueva física.
¿Cómo está la deuda de España con el CERN?
Va muy bien y me consta que España está haciendo muchos esfuerzos, no sólo desde el punto de vista del presupuesto, sino también aportando cerebros, tecnología, gente joven, experiencia y una gran competencia. El LHC y los experimentos son de alguna forma el resultado también de la contribución fuerte y de gran calidad que ha realizado España.
 
Fuente: http://www.elmundo.es/ciencia/2016/01/12/56940d09268e3ec7088b4573.html

viernes, 8 de enero de 2016

Misteriosas señales de radio ponen a prueba el principio de equivalencia

Artículo publicado por Barbara Kennedy el 4 de enero de 2016 en Penn State News
Una nueva forma de poner a prueba uno de los principios básicos subyacentes a la teoría general de la relatividad de Einstein es usar breves estallidos de unas raras señales de radio procedentes del espacio, conocidas como Fast Radio Bursts (Estallidos Rápidos de Radio – FRBs por sus siglas en inglés), y es de 10 a 100 veces mejor que los métodos anteriores de prueba, que usaban estallidos de rayos gamma, de acuerdo con un artículo publicado en la revista Physical Review Letters. El artículo recibió una mención adicional como “Sugerencia del Editor” debido a “su particular importancia, innovación, y amplio interés”, de acuerdo con el editor de la revista.
Einstein
Albert Einstein
El nuevo método está considerado como un significativo tributo a Einstein en el centésimo aniversario de su formulación del Principio de Equivalencia, que es un componente clave de la teoría general de la relatividad de Einstein. Más generalmente, también es un componente clave de la idea de que la geometría del espacio-tiempo está curvada por la masa de galaxias, estrellas, planetas y otros objetos.
Los FRBs son estallidos de energía muy breves, apenas duran unos milisegundos. Hasta el momento, sólo se habían detectado en la Tierra apenas una docena de FRB. Parecen estar provocados por misteriosos eventos más allá de nuestra galaxia de la Vía Láctea y, posiblemente, más allá del Grupo Local de galaxias que incluye a la Vía Láctea. La nueva técnica será importante para analizar las abundantes observaciones de FRBs que los observatorios avanzados de radio, actualmente en proceso de planificación, esperan detectar.
“Con una abundante información observacional en el futuro, podemos lograr una mejor comprensión de la naturaleza física de los FRBs”, señala Peter Mészáros, que ostenta la Cátedra Eberly Family en Astronomía y Astrofísica y es Profesor de Física en la Universidad Estatal de Pennsylvania, autor senior del artículo de investigación. Al igual que otras formas de radiación electromagnética, que incluye la luz visible, los FRBs viajan por el espacio como ondas de partículas fotónicas. El número de crestas de onda que llegan desde los FRBs cada segundo, su frecuencia, está en el mismo rango que las señales de radio. “Cuando unos detectores más potentes nos proporcionen unas observaciones mejores”, apunta Mészáros, “también podremos usar los FRBs como un método de sondeo de las galaxias que los albergan, del espacio entre las galaxias, de la estructura de la red cósmica del universo, y como una prueba de la física fundamental”.
El impacto de usar el nuevo método de FRBs se espera que aumente conforme se observen más estallidos, y si puede establecerse un origen más sólidamente. “Si se demuestra que los FRBs se originan fuera de la Vía Láctea, y su distancia puede medirse con precisión, proporcionarán una nueva y potente herramienta para poner a prueba el Principio de Equivalencia de Einstein y para extender el rango de energías probado hasta las frecuencias de la banda de radio”, explica Mészáros.
El Principio de Equivalencia de Einstein requiere que dos fotones de distintas frecuencias, emitidos a la vez desde la misma fuente, y viajando a través de los mismos campos gravitatorios, lleguen a la Tierra exactamente al mismo tiempo. “Si el Principio de Equivalencia de Einstein es correcto, cualquier retraso que pudiese darse entre estos dos fotones no se debería a los campos gravitatorios por los que pasan a lo largo de su viaje, sino que se debería a otros efectos físicos”, señala Mészáros. “Midiendo la diferencia de tiempo con la que llegan dos fotones de distinta frecuencia, podemos poner a prueba lo bien que se cumple el Principio de Equivalencia de Einstein”.
Más específicamente, Mészáros comenta que la prueba que él y sus coautores desarrollaron, implica  un análisis de cuánta curvatura del espacio experimentaron los fotones debido a los objetos masivos que encontraron a lo largo o cerca de su camino por el espacio. Apunta que: “Nuestra prueba del Principio de Equivalencia de Einstein usando FRBs consiste en comprobar cuánto difiere un parámetro – el parámetro gamma – para los dos fotones con distintas frecuencias”.
Mészáros dijo que el análisis de su equipo de investigación de menos de una docena de FRBs detectados recientemente “mejora en uno o dos órdenes de magnitud los mejores límites anteriormente establecidos sobre la precisión del Principio de Equivalencia de Einstein”, que se basaron en rayos gamma y fotones de otras energías procedentes de una explosión de supernova de 1987, la supernova 1987A. “Nuestro análisis usando frecuencias de radio demuestra que el Principio de Equivalencia de Einstein se mantienen en una parte en cien millones”, apunta Mészáros. “Este resultado es un significativo tributo a la teoría de Einstein, en el centésimo aniversario de su formulación”.

Fuente:http://www.cienciakanija.com/2016/01/08/misteriosas-senales-de-radio-ponen-a-prueba-el-principio-de-equivalencia/

Captada una señal de ondas gravitacionales nunca vista

  Los detectores LIGO y Virgo captan dos choques de agujeros negros contra estrellas de neutrones, los astros más densos del universo. Dos d...