lunes, 31 de mayo de 2010

Nueva confirmación de que la expansión del universo está acelerada por una fuerza desconocida


Un grupo de astrónomos, dirigido por Tim Schrabback del Observatorio de Leiden, en los Países Bajos, ha realizado un estudio intensivo de más de 446.000 galaxias observadas por el Telescopio Espacial Hubble. Los resultados confirman la aceleración en la expansión del universo, una aceleración atribuida a la misteriosa Energía Oscura.
(NC&T) Además de los datos del Hubble, los investigadores, entre quienes figura Patrick Simon de la Universidad de Edimburgo, utilizaron datos de telescopios terrestres para asignar distancias a 194.000 de las galaxias observadas.
El número de galaxias incluidas en este tipo de análisis no tiene precedentes, pero lo más importante es la cantidad enorme de información que los astrónomos han logrado obtener acerca de las estructuras invisibles en el universo.
En particular, los astrónomos lograron "pesar" la distribución a gran escala de la materia en el espacio a grandes distancias. Para ello, se valieron del hecho de que esta información se puede obtener a partir de cómo aparece distorsionada la forma de las galaxias lejanas por el efecto de lente gravitacional débil.
Usando algoritmos complejos, el equipo dirigido por Schrabback ha mejorado el método estándar y ha obtenido las mediciones de la forma de las galaxias con una precisión sin precedentes.
Este estudio brinda una confirmación independiente de que la expansión del Universo se acelera por un misterioso componente adicional, la Energía Oscura.
Los científicos necesitan saber cómo ha evolucionado la formación de las aglomeraciones de materia en la historia del universo, para determinar cómo tales acumulaciones fueron afectadas por la fuerza gravitacional, que mantiene la materia unida, y por la energía oscura, que tiende a dispersarla al acelerar la expansión del universo.

Fuente: noticias21

Verifican a escala cósmica la validez de la teoría de la relatividad de Einstein


Un equipo liderado por científicos de la Universidad de Princeton ha puesto a prueba la teoría de la relatividad general de Albert Einstein para ver si se cumple a escala cósmica. Y, después de dos años de análisis de datos astronómicos, los científicos han dictaminado que la teoría de Einstein, que describe la interacción entre la gravedad, el espacio y el tiempo, opera a grandes distancias tal como lo hace en las regiones locales del espacio.
(NC&T) El análisis de estos científicos sobre más de 70.000 galaxias demuestra que el universo, al menos hasta una distancia de 3.500 millones de años-luz de la Tierra, sigue las normas establecidas por Einstein en su famosa teoría.
Desde que el físico Arthur Eddington midió la curvatura de la luz de las estrellas alrededor del Sol durante un eclipse en 1919 y demostró la validez de la teoría de la relatividad general de Einstein, el mundo científico ha aceptado sus principios. Pero hasta ahora, nadie había puesto a prueba la teoría tan a fondo ni tan robustamente, a distancias y escalas que van mucho más allá del sistema solar.
En este trabajo, han intervenido Reinabelle Reyes, Rachel Mandelbaum y James Gunn de la Universidad de Princeton, Tobias Baldauf, Lucas Lombriser y Robert Smith de la Universidad de Zúrich, y Uros Seljak de la Universidad de California en Berkeley.
Los resultados del análisis son importantes porque respaldan las teorías actuales que explican la forma y dirección del universo, incluyendo las ideas más aceptadas sobre la Energía Oscura, y permiten descartar las sospechas que se despertaron a raíz de otros experimentos recientes que sugerían que la relatividad general podía estar equivocada.
Publicada por primera vez en 1915, la teoría de la relatividad general de Einstein sigue siendo un avance fundamental en la física moderna. Redefinió la comprensión humana del tejido de la existencia: La gravedad, el espacio y el tiempo.
La innovadora teoría mostró que la gravedad puede afectar al espacio y al tiempo, una cuestión crucial para comprender las fuerzas fundamentales de la física y los fenómenos naturales, incluyendo los agujeros negros.

Fuente: noticias21.com

Descubierto un sistema estelar binario con eclipses únicos


Astrofísicos de la UC Santa Barbara son los primeros científicos en identificar dos estrellas enanas blancas en un sistema binario eclipsante, permitiendo la primera medida directa del radio de una rara enana blanca compuesta de helio puro. Los resultados se publican en la revista Astrophysical Journal Letters. Estas observaciones son las primeras en confirmar una teoría sobre un cierto tipo de estrella enana blanca.

La historia empieza con las observaciones de Justin Steinfadt, estudiante graduado de física en la UCSB que ha estado monitorizando estrellas enanas blancas como parte de su tesis doctoral junto a Lars Bildsten, profesor y miembro permanente del Instituto Kavli de Física Teórica (KITP) de la UCSB, y Steve Howell, astrónomo del Observatorio Nacional de Astronomía Óptica (NOAO) en Tucson, Arizona.
Descubrieron breves eclipses durante las observaciones de la estrella NLTT 11748 con el Telescopio Faulkes Norte del Telescopio Global del Observatorio Las Cumbres (LCOGT), una institución afiliada a la UCSB. NLTT 11748 es una de las pocas enanas blancas de muy baja masa y núcleo de helio que están bajo cuidadoso estudio por sus variaciones de brillo. Rápidas instantáneas de la estrella – aproximadamente una exposición cada minuto – encontraron algunas imágenes consecutivas donde la estrella era ligeramente más tenue. Steinfadt rápidamente se dio cuenta de la importancia de este inesperado descubrimiento. “Hemos estado mirando muchas estrellas, ¡pero sigo pensando que tuvimos suerte!”, comenta.
Avi Shporer, becario de posdoctorado en la UCSB y LCOGT, ayudó con las observaciones y rápidamente prestó su experiencia al descubrimiento. “Sabíamos que era algo inusual, especialmente cuando confirmamos estas caídas la siguiente noche”, dice Shporer. Los científicos observaron eclipses de tres minutos de la estrella binarias dos veces durante la órbita de 5,6 horas.
La emoción por el descubrimiento y la necesidad de confirmación llevaron rápidamente al uso del Telescopio Keck de 10 metros situado en Mauna Kea, Hawai, sólo cinco semanas después de la primera observación. El equipo también contó con David Kaplan, Miembro de Hubble y becario de posdoctorado en KITP. Bildsten y Kaplan lograron su uso del telescopio Keck intercambiando tiempo que habían reservado para otro proyecto con Geoff Marcy de la UC Berkeley.
Durante esa noche, los científicos fueron capaces de medir el cambiante desplazamiento Doppler de la estrella NLTT 11748 cuando orbitaba a su tenue pero más masiva enana blanca compañera. “Fue asombroso ser testigos del cambio de velocidad en la estrella en apenas unos minutos”, dice Kaplan, que estuvo presente en el telescopio Keck durante las observaciones.
Estas observaciones llevaron a la confirmación de una importante teoría sobre las enanas blancas. Las estrellas terminan sus vidas de muchas formas. “La formación de tal sistema binario que contiene una enana blanca de helio y masa baja tiene que ser el resultado de interacciones y pérdida de masa entre las dos estrellas originales”, dice Howell. Las enanas blancas son remanentes muy densos de estrellas como el Sol, con dimensiones comparables a las de la Tierra. Una estrella se convierte en enana blanca cuando ha agotado su combustible nuclear y todo lo que queda es el denso núcleo interior, normalmente hecho de carbono y oxígeno.
Una de las estrellas en la binaria recientemente descubierta es una enana blanca relativamente rara de núcleo de helio con una masa de sólo de un 10 a un 20 por ciento la del Sol. La existencia de estas estrellas especiales se ha sabido desde hace más de 20 años. El trabajo teórico predijo que estas estrellas son más calientes y grandes que las enanas blancas comunes. Hasta ahora su tamaño nunca había sido medido. Las observaciones de la estrella NLTT 11748 por este grupo de investigación ha arrojado las primeras medidas directas del radio de una inusual enana blanca que confirma la teoría.
La otra estrella en la binaria también es una enana blanca, aunque una algo más común, compuesta mayormente de carbono y oxígeno con aproximadamente el 70 por ciento de la masa del Sol. Esta estrella es más masiva y también menor que la otra enana blanca. La luz que emite es 30 veces más tenue que la de su compañera en la binaria.
Bildsten da crédito a las colaboraciones científicas del UCSB por el éxito de este trabajo, señalando que el equipo original fue expandido para incluir al KITP, el Departamento de Física y el LCOGT para dar una rápida respuesta al nuevo descubrimiento.
“Una posibilidad particularmente intrigante a evaluar es qué sucederá en 6000-10 000 millones de años”, dice Bildsten. “Esta binaria está emitiendo ondas gravitatorias a un ritmo que forzará a las dos enanas blancas a entrar en contacto. Lo que suceda entonces nadie puede imaginarlo”.

miércoles, 26 de mayo de 2010

Cómo la dualidad podría resolver el dilema de la materia oscura


Los astrofísicos tienen que elegir entre la materia oscura o la gravedad modificada para explicar el universo. Pero una nueva y extraña dualidad podría indicar que pueden quedarse con ambas.

El debate sobre la naturaleza de onda o partícula de la luz consumió a los físicos durante 300 años después de que Isaac Newton defendiera la idea de partícula y Christian Huygens respaldara la idea de la onda. La solución, que la luz puede verse como una onda y como una partícula, habría dejado asombrados a estos gigantes de la física, como hizo con nosotros.
Lo que no debería sorprendernos, no obstante, es que otros argumentos, aparentemente igual de intratables, puedan resolverse de forma similar.
Pero exactamente esto es lo que puede suceder con el problema de la materia oscura que ha desconcertado a los astrofísicos durante casi 80 años, de acuerdo con Chiu Man Ho de la Universidad Vanderbilt en Nashville y un par de colegas.
El problema es que las galaxias rotan tan rápido que la materia que contienen debería salir volando hacia el espacio. De forma similar, los cúmulos de galaxias no parecen contener suficiente masa para mantenerlas unidas y evitar que se desmiembre. Dado que esto, manifiestamente no sucede, alguna fuerza debe estar mantiendo las masas en su lugar.
Los astrofísicos proponen dos explicaciones. La primera es que estas galaxias están llenas de una masa invisible, conocida como materia oscura, que proporciona un tirón gravitatorio extra. La segunda es que la gravedad es más fuerte a estas escalas intergalácticas y puede hacer el trabajo por sí misma, una idea conocida como Dinámica Newtoniana Modificada o MOND.
No hay mucho cariño entre los defensores de la materia oscura y sus homólogos de MOND: ambos dicen que el otro está equivocado y escrutan el universo en busca de evidencias para batir a sus oponentes. Ningún bando ha derrotado convincentemente el argumento del otro por ahora, pero todos parece conceder que cuando uno triunfe, el otro hincará la rodilla.
Tal vez haya otra posibilidad, no obstante: que ambos estén en lo cierto.
Lo que hace que sea posible es una nueva aproximación a la gravedad en la que es un fenómeno emergente relacionado con la entropía. Ya echamos un vistazo a esto hace unos meses.
La idea básica es que partes del universo tienen distintos niveles de entropía y esto crea una fuerza que redistribuye la materia de una forma que maximiza su entropía. Esta fuerza es a lo que llamamos gravedad.
Hasta el momento, esta aproximación ha asumido un universo simple. Pero los cosmólogos saben que nuestro universo no sólo se está expandiendo sino que lo hace de forma acelerada. Lo que Chui y compañía han hecho es derivar la gravedad como una fuerza emergente usando la misma aproximación entrópica, pero esta vez en un universo que está acelerando.
El resultado es una forma de gravedad en la que los parámetros de masa y aceleración comparten un extraño tipo de dualidad: el término aceleración puede verse como modificado al igual que en MOND; o el término de masa puede verse como modificado como en la teoría de la materia oscura.
En efecto, Chui y compañía dicen que la materia oscura y MOND son dos caras de la misma moneda.
Es interesante señalar que el efecto de cada tipo de modificación parece ser dependiente de escala. En esta teoría, la interpretación MONDiana funciona a nivel galáctico mientras que la interpretación de la materia oscura funciona mejor a escala de cúmulos de galaxias.
Así es como también tiene éxito en las pruebas observacionales. MOND parece explicar mejor el comportamiento real de las galaxias, mientras que la aproximación de la materia oscura explica mejor las estructuras de cúmulos de galaxias.
¿Podría ser que ambas fueran manifestaciones de la misma cosa? Sólo los osados o los tontos lo descartarían. Y cosas más extrañas han pasado en la física, como Newton y Huygens podrían afirmar.

viernes, 21 de mayo de 2010

Se demuestra que Einstein estaba equivocado con la observación de la velocidad instantánea de partículas brownianas



Un siglo después de que Albert Einstein dijera que nunca seríamos capaces de observar la velocidad instantánea de diminutas partículas cuando se agitan de forma aleatoria, conocido como movimiento browniano, el físico Mark Raizen y su grupo lo ha logrado.
>
“Ésta es la primera observación de la velocidad instantánea de una partícula browniana”, dice Raizen, Decano Regente de la Fundación Sid W. Richardson y profesor de física en la Universidad de Texas en Austin. “Es una predicción de Einstein que se ha mantenido sin probarse durante 100 años. Propuso una prueba para observar la velocidad en 1907, pero dijo que el experimento no podría realizarse”.
En 1907, Einstein probablemente no previó una época en la que partículas de vidrio del tamaño de motas de polvo podrían ser atrapadas y suspendidas en el aire mediante un rayo láser dual o “pinzas ópticas”. Tampoco tenía constancia de que las vibraciones ultrasónicas procedentes de un transductor similar a una placa agitarían esas cuentas de vidrio en el aire para ser recolectadas y medidas cuando se movían en suspensión.
La investigación de Raizen, publicada en Science, es la primera prueba directa del Teorema de Equipartición para las partículas brownianas, uno de los pilares básicos de la mecánica estadística. También es un paso adelante hacia el enfriamiento de las cuentas de vidrio a un estado en el que podrían usarse como osciladores o sensores.
El Teorema de Equipartición afirma que la energía cinética de una partícula – la energía que posee debido a su movimiento – viene determinada sólo por su temperatura, no por su masa o tamaño.
El estudio de Raizen demuestra ahora que el Teorema de Equipartición es cierto para las partículas brownianas; en este casi, las cuentas de vidrio que tenían 3 micrómetros de diámetro.
Raizen dice que él y sus colegas pueden ahora extender los límites, moviendo las partículas más cerca de un estado cuántico para su observación.
“Ahora hemos observado la velocidad instantánea de una partícula browniana”, dice Raizen. “En cierto sentido, estamos cerrando una puerta a este problema de la física. Pero en realidad estamos abriendo una mucho mayor para futuras pruebas del Teorema de Equipartición a nivel cuántico”.
Allí, espera que la Teoría de la Equipartición colapse, llevado a nuevos problemas y soluciones alrededor de la mecánica cuántica de pequeñas partículas compuestas de muchos átomos.

Fuente: cienciakanija.com

Se logra el teletransporte cuántico a lo largo de 16 kilómetros


Científicos de China han tenido éxito al teletransportar información entre fotones mucho más alejados que en ningún experimento anterior. Transportaron la información cuántica sobre una distancia de 16 km, mucho más que los pocos cientos de metros anteriormente conseguidos, lo cual nos deja más cerca de lograr transmitir información a lo largo de grandes distancias sin necesidad de una señal tradicional.

El teletransporte cuántico no es el mismo teletransporte que conocemos la mayoría por la ciencia-ficción, donde un objeto (o persona) en un lugar es “lanzado” a otro donde se replica una copia perfecta. En el teletransporte cuántico dos fotones o iones (por ejemplo) están entrelazados de tal manera que cuando se cambia el estado cuántico de uno, también cambia el del otro, como si aún estuviesen conectados. Esto permite que la información cuántica sea teletransportada si uno de los fotones/iones es enviado lejos.
En anteriores experimentos, los fotones estaban confinados a canales de fibra de unos pocos cientos metros de largo para asegurar que su estado permanecía sin cambios, pero en los nuevos experimentos, se entrelazaron pares de fotones y el fotón de mayor energía del par fue enviado a través de un canal de espacio libre de 16 km de largo. Los investigadores, de la Universidad de Ciencia y Tecnología de China y la Universidad Tsinghua en Pekín, encontraron que incluso a esta distancia el fotón en el extremo receptor aún respondía a los cambios del estado en el otro fotón. La fidelidad media lograda en el teletransporte fue del 89 por ciento.
La distancia de 16 km es mayor que el grosor efectivo de la aerosfera de 5-10 km, por lo que el éxito del grupo puede allanar el camino a experimentos entre una estación terrestre y un satélite, o dos estaciones terrestres con un satélite actuando como repetidor. Esto significa que las aplicaciones de las comunicaciones cuánticas podrían ser posibles a escala global en un futuro cercano.
El canal de espacio libre público estaba a nivel del mar y se extendía 16 km, la distancia entre Badaling en Pekín (el lugar del teletransporte) y el receptor en Huailai en la provincia de Hebei. Los pares de fotones entrelazados se generaron en el lugar del teletransporte usando un semiconductor, un rayo láser azul, y un cristal de borato de beta-bario (BBO). El par de fotones se entrelazó en los modos espaciales del fotón 1 y modos de polarización del 2. El equipo de investigación diseñó dos tipos de telescopios para usarlos como transmisores ópticos y antenas receptoras.
Los experimentos confirman la factibilidad del teletransporte cuántico espacial, y representan un gran salto adelante en el desarrollo de aplicaciones de comunicación cuántica.

martes, 18 de mayo de 2010

Quantum dynamics of matter waves reveal exotic multibody collisions



At extremely low temperatures atoms can aggregate into so-called Bose Einstein condensates forming coherent laser-like matter waves. Due to interactions between the atoms fundamental quantum dynamics emerge and give rise to periodic collapses and revivals of the matter wave field.

A group of scientists led by Professor Immanuel Bloch (Max Planck Institute of in Garching, Germany) has now succeeded to take a glance 'behind the scenes' of atomic interactions revealing the complex structure of these quantum dynamics. By generating thousands of miniature BECs ordered in an the researchers were able to observe a large number of collapse and revival cycles over long periods of time. The experimental results imply that the atoms do not only interact pairwise - as typically assumed - but also perform exotic collisions involving three, four or more atoms at the same time. On the one hand, these results have fundamental importance for the understanding of quantum many-body systems. On the other hand, they pave the way for the generation of new exotic states of matter, based on such multi-body interactions.
The experiment starts by cooling a dilute cloud of hundreds of thousands of atoms to temperatures close to absolute zero, approximately -273 degrees Celsius. At these temperatures the atoms form a so-called Bose-Einstein condensate (BEC), a in which all particles occupy the same quantum state. Now an optical lattice is superimposed on the BEC: This is a kind of artificial crystal made of light with periodically arranged bright and dark areas, generated by the superposition of standing laser from different directions. This lattice can be viewed as an 'egg carton' on which the atoms are distributed. Whereas in a real egg carton each site is either occupied by a single egg or no egg, the number of atoms sitting at each lattice site is determined by the laws of : Depending on the lattice height (i.e. the intensity of the laser beam) the single lattice sites can be occupied by zero, one, two, three and more atoms at the same time. 
The use of those "atom number superposition states" is the key to the novel measurement principle developed by the researchers. The dynamics of an atom number state can be compared to the dynamics of a swinging pendulum. As pendulums of different lengths are characterized by different oscillation frequencies, the same applies to the states of different atom numbers. "However, these frequencies are modified by inter-atomic collisions. If only pairwise interactions between atoms were present, the pendulums representing the individual atom number states would swing synchronously and their oscillation frequencies would be exact multiples of the pendulum frequency for two interacting atoms", Sebastian Will, graduate student at the experiment, explains.
Using a tricky experimental set-up the physicists were able to track the evolution of the different superimposed oscillations over time. Periodically interference patterns became visible and disappeared, again and again. From their intensity and periodicity the physicists found unambiguous evidence that the frequencies are actually not simple multiples of the two-body case. "This really caught us by surprise. We became aware that a more complex mechanism must be at work", Sebastian Will recalls. "Due to their ultralow temperature the atoms occupy the energetically lowest possible at each lattice site. Nevertheless, Heisenberg's uncertainty principle allows them to make - so to speak - a virtual detour via energetically higher lying quantum states during their collision. Practically, this mechanism gives rise to exotic collisions, which involve three, four or more atoms at the same time."
The results reported in the journal Nature provide an improved understanding of interactions between microscopic particles. This may not only be of fundamental scientific interest, but find a direct application in the context of ultracold atoms in optical lattices. Owing to exceptional experimental controllability, ultracold in optical lattices can form a "quantum simulator" to model condensed matter systems. Such a quantum simulator is expected to help understand the physics behind superconductivity or quantum magnetism. Furthermore, as each lattice site represents a miniature laboratory for the generation of exotic quantum states, experimental set-ups using optical lattices may turn out to be the most sensitive probes for observing atomic collisions. 
 
Fuente: physorg.com

D0 afirma tener pruebas de una nueva fuente de violación CP


El Tevatron quería reclamar que aún no está muerto. Esta noche, la colaboración D0 del Tevatron publicará un nuevo artículo en arXiv que ya está disponible para su lectura en el servidor:
Los cientos de personas que han mirado en los 6,1 femtobarns inversos de sus colisiones protones-antiprotones de 1,96 TeV, captaron las colisiones en las que dos muones o antimunones con el mayor momento transverso tenían el mismo signo de carga – ya fuese positivo (eventos “N++“) o negativo (eventos “N-—“).
Estos números deberían ser casi iguales, por lo que la asimetría definida como la proporción de la diferencia y la suma
A = \frac{N^{++} - N^{- -}}{N^{++} + N^{- -}}
debería ser casi cero debido a que hay una simetría CP aproximada entre la materia y la antimateria, incluyendo muones y antimuones (que también intermcambian derecha e izquierda en el espacio, debido a la P, pero la “A” no es sensible a esta etiqueta espacial).
Más precisamente, los hadrones que contienen quarks bottom decaen bajo la influencia de la matriz CKM que viola “ligeramente” la CP. La pequeña fase compleja en esta matriz de 3 por 3 es la única fuente “establecida” de violación CP en toda la física que conocemos (hasta el momento). Por esto es por lo que el modelo estándar predice que “A” es -0,0002 (± 25%).
Sin embargo, el valor medido por D0 es de  -0,0096, cincuenta veces mayor que eso. El error estadístico – la incertidumbre para el “ruido” de tener un conjunto limitado de datos – es (±) 0,0025 y el error sistemático – del aparataje, que puede ir siempre en la misma dirección  -  es  (±) 0,0015.
Estos dos tipos de error debería imaginarse como “independientes uno de otro, es decir, como dos lados de un triángulo rectángulo; la hipoetenusa es:
\sqrt{0,0025^2+0,0015^2} = 0,0029 y determina el error total.
La desviación del valor medido “centralmente”  -0,0096, respecto al valor predicho, -0,0002, es -0,0094 que es (menos) 3,2 veces mayor que 0,0029. Por lo que decimos que el valor medido difiere en 3,2 desviaciones estándar de las predicciones.
Es ligeramente más que tres desviaciones estándar. ¿Es suficiente discrepancia para afirmar que algo debe estar yendo mal? El correspondiente nivel de confianza es de aproximadamente 99,9%.
El riesgo de que la audaz conclusión sobre una nueva fuente de violación C-P sea incorrecta  es de apenas 1 en 1000, aproximadamente 50-100 veces menor de lo que los científicos climáticos llaman “casi certeza, un abrumador consenso que justifica la caza de brujas contra aquella que quiere asesinar al bebé Tierra con fiebre”.
No obstante, en ciencia, la desviación entre el valor predicho y medido por 3 sigma es lo que se conoce por “simple evidencia” – la primera palabra del artículo de arriba. Es sólo una pista de que podría haber un nuevo efecto. No obstante, la precisión tendría que mejorarse para que la desviación llegase a 5 sigma – o un nivel de confianza de 99,99995% – para que los físicos de partículas afirmen el descubrimiento de un nuevo fenómeno.
Este inmenso incremento del nivel de confianza puede obtenerse simplemente duplicando la cantidad de datos (al menos, el error estadístico decrecerá lo bastante; el error sistemático debe reducirse mediante otros métodos).
Por lo que aunque la observación es tentadora, el 3 sigma no parece suficientemente fiable para afirmar que se ha encontrado un agujero en el Modelo Estándar. Muchos otros anuncios de 2 sigma e incluso 3 sigma de este tipo fueron desechados en el pasado.
Aunque cientos de los “principales científicos del mundo” nos ofrecen un evidencia del 99,9% como una nueva fuente de violación, la gente que espera que este resultado desaparezca no son negacionistas. Son muy prudentes, eso sí. Mi opinión – no apoyada por encuestas directas en este momento, simplemente por una extensa experiencia con las opiniones y forma de pensar en la física de partículas – es que la mayor parte de los físicos de partículas (teóricos y fenomenólogos, y posiblemente también los experimentadores del LHC) realmente creen que desaparecerá este resultado. Por simple estadística, observando la historia real de la ciencia, tales cosas terminan desapareciendo, te guste o no un 99,9% simplemente no es suficiente para cambiar tu opinión sobre el bueno y viejo Modelo Estándar.
Además, la gente del Tevatron puede estar nerviosa por la muerte de facto de su colisionador, por lo que pueden estar ansiosos de publicar resultados impresionantes. Esto también debería disminuir ligeramente tu confianza en el artículo. Personalmente dudo que los detectores, hechos de materia y no de antimateria, realmente sean capaces de tratar con muones y antimuones (y su energía) con casi toda seguridad, por lo que puedo imaginar que el error sistemático real es mucho más alto.
Por otra parte, si este aumento de la violación CP es real, tiene que existir un nuevo fenómeno físico. La supersimetría ofrece varias herramientas para lograr nuevas violaciones CP. Pero otros modelos del sector Higgs extendido también pueden hacerlo. La forma más obvia de lograr el aumento de asimetría en eventos de dimuón es creer que existe una nueva oscilación de mesones-B y mesones B-bar, los cuales pueden ser creados, ambos, a partir de los pares de quarks bottom-antibottom.
Para producir tales oscilaciones extra nuevas, necesitas un nuevo término en la interacción entre quarks en el Lagrangiano efectivo proporcional a
L_{para hacer feliz a D0} \approx \frac{c}{\Lambda^2}(bs)^2+h.c
Espero que envíes muchos borradores que calculen este término a partir de tu teoría o modelo favorito y determines el coeficiente correcto que encaje con las observaciones.

Enlace original: motls.blogspot.com

lunes, 17 de mayo de 2010

Quantum space monster leaps from a gravity well


GRAVITY may have the power to create quantum monsters. A strong gravitational field can induce a runaway effect in quantum fluctuations in apparently empty space, resulting in a burgeoning concentration of energy that may explode stars or create black holes. So say Daniel Vanzella and William Lima at the University of São Paulo in Brazil.
Quantum phenomena are not thought to have any significant influence over processes on the astrophysical scale, such as the compression of gas clouds into stars. That's the domain of gravity, which in turn is not supposed to be much affected by quantum events, like an elephant unaware of the microbes on its skin. In only a few exotic cases, such as singularities inside black holes, do gravity and quantum-level forces influence the same processes.
Gravity is not supposed to feel quantum events, like an elephant unaware of the microbes on its skin
Now calculations by Vanzella and Lima suggest gravity can trigger a powerful reaction in the fluctuating quantum fields of forces in apparently empty space, and that this reaction may be enough to influence the evolution of large objects like stars.
According to the uncertainty principle, virtual particles quickly pop in and out of existence throughout the vacuum of space. The pair calculate that a sufficiently powerful gravitational field, such as that created by a dense object like a neutron star, could create a region near the star where these virtual particles become densely packed. Their calculations suggest that the overall energy density of this region will grow exponentially until it dwarfs the energy of the object that generated the gravitational field - a monster of virtual particles that exceeds the strength of its creator.
What that monster could do is still unknown, but Vanzella and Lima speculate that the amassed energy could conceivably explode a neutron star, collapse it into a black hole, or some combination of the two.
However, none of the quantum fields based on known forces, such as electromagnetism, would be capable of causing a neutron star to collapse. Only an as-yet undiscovered quantum field would react to the gravity of a neutron star.
Nevertheless, the pair say that known quantum fields may have an influence on astrophysical processes if they were triggered by gravitational effects on much larger scales - across clusters of galaxies or in superclusters, for example (Physical Review Letters, vol 104, p 161102).
David Toms at the University of Newcastle, UK, is intrigued by the idea. "It is surprising that it was not noted earlier," he says.
Paul Anderson of Wake Forest University in Winston-Salem, North Carolina, is also impressed by the pair's demonstration that quantum fields may occasionally rival gravity as the dominant force on large scales. But he says it is unclear whether the process could have significant astrophysical effects.

Desconcertante alineación de quásares apunta a cuerdas cósmicas



Algo ha hecho que quásares vecinos en el universo lejano apunten a una dirección similar cuando sus orientaciones deberían ser aleatorias. ¿Podría ser una señal de cuerdas cósmicas – gigantescas ondas en el tejido del espacio-tiempo?

En 2005, Damien Hutsemekers de la Universidad de Lieja en Bélgica, y sus colegas, informaron de un inusual efecto en la observación de 355 quásares. Encontraron que la luz de esos quásares tendía a estar polarizada, con las oscilaciones electromagnéticas confinadas a un plano particular que puede describirse mediante un vector de polarización. Aunque no hay una razón obvia para pensar que estos vectores debieran estar orientados de una forma especial de un quásar a otro, el equipo de Hutsemekers encontró que las orientaciones no eran aleatorias. Si se tomaban dos quásares adyacentes cualesquiera, los vectores de polarización apuntaban en casi la misma dirección.
Es más, cuando el equipo observó quásares incluso más alejados, vieron que este vector rotaba aproximadamente 30 grados cada 3260 millones de años luz desde la Tierra. El vector giraba en sentido horario cuando se observada desde el polo norte galáctico de la Vía Láctea y en sentido antihorario mirando desde el polo sur (arxiv.org/abs/astro-ph/0507274v1).
El año pasado, el equipo demostró que la dirección del vector de polarización está correlacionado con el eje de rotación del propio quásar. Esto significa que los quásares adyacentes tienden a tener aproximadamente la misma orientación – de nuevo, algo que nadie habría esperado ver.
Ahora, Robert Poltis y Dejan Stojkovic de la Universidad Estatal de New York en Buffalo dicen que tienen una explicación. Se debe todo a eventos que tuvieron lugar aproximadamente 10-12 segundos tras el Big Bang. En el momento en que el universo sufrió una transición de fase, provocando que la fuerza electrodébil se separase en la fuerza electromagnética y la fuerza nuclear débil. El modelo estándar de la física de partículas sugiere que esto también habría dado como resultado la formación de cuerdas cósmicas, que son defectos topológicos en el tejido del espacio-tiempo y que puede tomar la forma de lazos gigantes.
Las cuerdas cósmicas pueden provocar que se formen campos magnéticos a lo largo de ellas, dice Poltis. Las cuerdas son inestables y decaen rápidamente, pero el campo magnético permanece y se habría estirado a escalas cosmológicas conforme se expandía el universo.
Poltis y Stojkovic modelaron cómo dos lazos gigantes de líneas de campo magnético podrían afectar a la formación de galaxias. Una proto-galaxia contiene partículas cargadas – electrones e iones de hidrógeno – las cuales adquieren momento angular a partir del campo magnético. El efecto neto es que la proto-galaxia adquiere un momento angular global, alineando su eje en una cierta dirección. Dos proto-galaxias vecinas que se forman en la vecindad del mismo campo magnético terminarían por tener sus ejes apuntando en la misma dirección.
Los investigadores también demostraron cómo el retorcimiento de las líneas de campo magnético a escalas cósmicas podría ser la causa de que los ejes de los quásares rotasen cuanto más lejos mirases (arxiv.org/abs/1004.2704).
“Esta explicación puede, efectivamente, reproducir nuestras observaciones bastante bien, incluso la posible rotación del ángulo de polarización”, dice Hutsemekers. “Además, la posibilidad de que la impresión de las cuerdas puede detectarse a través del estudio de la orientación de galaxias o quásares es emocionante”.

Fuente: cienciakanija.com

Enlace original: newscientist.com 

lunes, 10 de mayo de 2010

The imperfect universe: Goodbye, theory of everything


FIFTEEN years ago, I was a physicist hard at work hunting for a theory of nature that would unify the very big and the very small. There was good reason to hope. The great and the good were committed. Even Einstein, who recognised that our understanding of reality is necessarily incomplete, had spent the last 20 years of his life searching for a unified field theory that would describe the two main forces we see acting around us - gravity and electromagnetism - as manifestations of a single force. For him, such a mathematical theory represented the purest and most elegant expression of nature and the highest achievement of the human intellect.
Fifty-five years after Einstein's death, the hunt for this elusive unified field theory continues. To physicist Stephen Hawking and many others, finding the "theory of everything" would be equivalent to knowing the "mind of God". The metaphor is not accidental.
Modern critics say that Einstein and other giants of 20th-century physics (including Wolfgang Pauli, Erwin Schrödinger and Werner Heisenberg) failed because their models didn't include all particles of matter and their fundamental interactions. Factor them in, they argue, and we stand a much better chance of success. Dreams of a final theory (as a book on the subject, by Nobel laureate Steven Weinberg, was titled) live on, stronger than ever.
But are we really getting any closer? Do we dare ask whether the search is fundamentally misguided? Could belief in a physical theory that unifies the secrets of the material world - a "hidden code" of nature - be the scientific equivalent of the religious belief in oneness held by the billions who go to churches, mosques and synagogues every day?
Even before what we now call physics existed, ancient Greek philosophers pondered whether the diversity of nature could radiate from a single source, a primal substance. Thales, regarded by Aristotle as the first philosopher in the Greek tradition, proposed that everything was made of water, a substance he believed represented nature's dynamic essence. Later, Pythagoras and his followers believed that nature was a mathematical puzzle, constructed through ratios and patterns that combine integers, and that geometry was the key to deciphering it.
The idea of mathematics as a fundamental gateway to nature's secrets re-emerged during the late Renaissance. Galileo Galilei, René Descartes, Johannes Kepler and Isaac Newton made it clear that the mathematical description of nature succeeds only through the painstaking application of the scientific method, where hypotheses are tested by experiments and observations and then accepted or rejected. Physics became the science of the "how", leaving the "why" for philosophy and religion. When Newton was asked why matter attracts matter with a strength that weakens with the square of the distance, he answered that he "feigned no hypotheses"; it was enough to provide a quantitative description of the phenomenon.
That, however, is only half the story. To Newton, God was the supreme mathematician and the mathematical laws of nature were Creation's blueprint. As science advanced, the notion that god interfered explicitly with natural phenomena faded away, but not the idea that nature's hidden code lay in an all-encompassing mathematical theory. Einstein's "God" was far removed from Newton's, as he famously said: "I believe in Spinoza's God who reveals himself in the orderly harmony of what exists." His search for a unified field theory was very much a search for the essence of this natural god.
Modern incarnations of unified field theories come in two flavours. The more traditional version, the so-called Grand Unified Theory (GUT), seeks to describe electromagnetism and the weak and strong nuclear forces as a single force. The first of these theories was proposed in 1974 by Howard Georgi, of Harvard University, and Sheldon Glashow, now at Boston University. The more ambitious version seeks to include gravity in the unification framework. Superstring theory tries to do this by abandoning the age-old paradigm that matter is made of small, indivisible blocks, substituting them with vibrating strings that live in higher-dimensional spaces.
Like all good physical theories, GUTs make predictions. One is that the proton, the particle that inhabits all atomic nuclei, is unstable. For decades, experiments of increasing sensitivity have looked for decaying protons and failed to find them. As a consequence, the models have been tweaked so that protons decay so rarely as to be outside the current reach of detection. Another prediction fared no better: bundled-up interacting fields called magnetic monopoles have never been found.
For superstrings, the situation is even worse. In spite of its mathematical elegance, the theory is so detached from physical reality that it is exceedingly difficult to determine what a measurable string effect might be.
I now think that the very notion of a final theory is faulty. Even if we succeed in unifying the forces we know, we can only claim to have achieved partial unification. Our instruments have limits. Since knowledge of physical reality depends on what we can measure, we will never know all there is to know. Who is to say there are only four fundamental forces? Science is full of surprises. Much better to accept that our knowledge of physical reality is necessarily incomplete. This way, science is understood as a human enterprise and the "mind of God" is exorcised once and for all.
Ever since the discovery of parity violation in the weak interaction over 50 years ago, experiments in particle physics have shown us that our hopes for perfection are just that - hopes. Symmetries are violated left and right; in nature, unlike in John Keats's famous poem, beauty isn't always truth.
But there's more. I propose that fundamental asymmetries are a necessary part of our universe, that they determine our very existence. Consider the following. The universe had to have special properties to keep on expanding for 14 billion years. And particles of matter had to dominate those of antimatter soon after the big bang, or the universe would consist mostly of radiation.
Life itself is a product of imperfections, from the spatial asymmetry of amino acids to mutations during reproduction. Asymmetries forged the long, complex and erratic path from particles to atoms to cells, from simple prokaryotic cells without nuclei to more sophisticated eukaryotic cells, and then from unicellular to multicellular organisms.
The history of life is deeply enmeshed with the earth's environmental changes, from the increase of oxygen availability, to the advent of plate tectonics that help regulate carbon dioxide. Life (not to mention intelligence) in the extraordinarily complex forms we have come to know is probably quite rare, a product of asymmetries, imperfections and accidents.
In the end, giving up on a final theory won't make doing physics - or science - less exciting. Nature has plenty of mysteries to keep us busy for a very long time.

Profile

Marcelo Gleiser is Appleton Professor of Natural Philosophy and professor of physics and astronomy at Dartmouth College, New Hampshire. He runs the 13.7 blog, hosted by US National Public Radio. This essay is based on his book A Tear at the Edge of Creation: A radical new vision for life in an imperfect universe (Free Press)

Fuente: newscientist.com

Descubren el cluster de galaxias más lejano del Universo

 Foto: MAX PLANCK INSTITUTE

MADRID, 10 May. (EUROPA PRESS) -
Un equipo internacional de astrofísicos alemanes del instituto Max Planck y de japoneses de la Universidad de Tokio y de la de Kioto han descubierto el cluster de galaxias más lejano conocido hasta la fecha, situado a unos 9.600 millones de años luz de la Tierra, 400 millones de años luz más lejos del cluster de galaxias que hasta la fecha se conocía como el más lejano, según el centro de investigación germano.
Los expertos han podido llegar a este hallazgo gracias a las observaciones realizadas con rayos X e infrarrojos en el telescopio hawaiano Subaru, que han demostrado que el cluster o cúmulo alberga en su gran mayoría galaxias viejas, masivas y que podrían ser una prueba de los primeros estadios del Universo y suponer un paso más en el conocimiento de la Historia del mismo, al formarse en aquella época.
Los clusters o cúmulos de galaxias son los mayores ‘bloques de edificios’ del Universo. La Vía Láctea, por ejemplo, es parte del cluster denominado como ‘Virgo’, que comprende entre 1.000 y 2.000 galaxias.
Una de las particularidades de este descubrimiento es que se han empleado longitudes de onda infrarroja, invisibles al ojo humano por la expansión del Universo, que provoca que las galaxias más lejanas tengan “grandes velocidades”, moviendo su luz fuera de las longitudes de onda visibles a las infrarrojas.
Asimismo, han comprobado que las galaxias, a pesar de ser individuales, se encuentran agrupadas por la gravedad. Concretamente, los expertos han destacado que la materia entre las galaxias situadas en los clusters son calentadas a temperaturas extremas y emiten luz a longitudes de onda más cortas, como para ser vistas por el ojo humano. Para ello han empleado el telescopio espacial XMM-Newton para vigilar esta radiación por rayos X.
“A pesar de las dificultades de agrupar los fotones de rayos X con un pequeño telescopio terrestre, encontramos señales de gases calientes en el cluster”, ha añadido el investigador del Max Planck Institute de Física Extraterrestre, Alexis Finoguenov.
Los procesos de envejecimiento de las galaxias son lentos y la presencia de éstas requiere de un cluster para poder convertirse en un grupo masivo de galaxias, siempre lideradas por una, que es la que más destaca frente a las demás. A juicio de los investigadores, los cluster son los “laboratorios ideales” para estudiar la evolución de las galaxias cuando el Universo era tan sólo una tercera parte de lo que es en la actualidad.

domingo, 9 de mayo de 2010

El extraño vínculo entre esferio y helio


Una extraña e hipotética sustancia conocida como esferio, puede ayudar a desvelar los secretos cuánticos de la materia real, dicen los físicos.

El esferio es un material hipotético que se forma cuando dos electrones están confinados en la superficie de una esfera.
Esta sustancia es la idea de Pierre-Francois Loos y Peter Gill de la Universidad Nacional Australiana en Canberra, que la revelaron por primera vez el año pasado. Hoy, continúan la exploración de sus propiedades y comportamiento y llegan a una interesante sorpresa.
El esferio, dicen, es uno de los pocos sistemas cuánticos para los cuales es posible resolver con exactitud la ecuación de Schrodinger que describe su estado para cierta parte del espectro de energía. Pero esta no es la sorpresa.
Los modelos simples resolubles son de gran interés para los físicos dado que pueden revelar importantes propiedades de un sistema cuántico sin usar la intratable complejidad matemática que normalmente aparece. Pero el número de sistemas cuánticos exactamente resolubles pueden contarse con los dedos de una mano.
Por lo que en los últimos años, la física cuántica ha buscado modelos cuasi-resolubles que puedan resolverse exactamente pero sólo en una parte limitada del espectro de energía. Estos resultan ser más numerosos y útiles. Desarrollarlos se ha convertido casi en un arte.
El esferio cae dentro de esta categoría. Y Loos y Gill no se refieren a ninguna de las viejas esferas. Han calculado las propiedades de varias esferas d-dimensionales (una d-esfera es la superficie de una bola de dimensiones d+1).
La sorpresa es que los electrones confinados en la superficie de una 3-esfera (es decir, la superficie de una bola 4-D) se comportan de forma notablemente similar a los electrones confinados en un espacio 3D real. “Por tanto, hemos defendido que el 3-esferio puede ser el modelo más apropiado para estudiar los sistemas atómicos o moleculares ‘reales’”, dicen Loos y Gill.
Señalan, en particular, a la similitud entre las propiedades del 3-esferio y los iones de helio. En cierta forma no es demasiado difícil de imaginar. Claramente, la esperanza es que el esferio les ayude a entender también otros sistemas.
Esto es interesante y ciertamente prometedor. Lo que Loos y Gill parecen estar apuntando es que la química del esferio – la forma en que se unen sus átomos – proporcionará una nueva forma de estudiar el comportamiento cuántico de las moléculas reales y átomos artificiales.
Y, de ser así, entonces ¿quién dice que no hay una tabla periódica de esferas con 3, 4 y más electrones que puedan arrojar también resultados cuasi-resolubles? La química cuántica podría no volver a ser la misma. Apuesto a que Loos y Gill tarabajarán febrilmente para hacérnoslo saber.

Enlace original: technologyreview.com

domingo, 2 de mayo de 2010

El LHC descubre un “beauty quark”

Finalmente (y por ahora) nuestro querido Colisionador de Hadrones, más conocido como LHC, no ha traído pestes ni el fin del mundo, sino millones de datos para analizar en manos de los científicos que no le quitan el ojo ni un segundo. Así fue como se encontraron con esta grata sorpresa: un beauty quark, o bottom quark , o quark fondo, como se lo conoce en su traducción al español.
Según informa, Andreas Schopper, vocero del experimento LHCb (división de investigación que analiza el comportamiento de los quarks B o “Beauty”) se han encontrado con este hallazgo de manera imprevista:
Es un suceso muy raro, es como encontrar una aguja en un pajar. En un análisis de 10 millones de datos podemos encontrarnos con sólo un evento de estas características.



Luego de enterarse de la noticia, algunos científicos de la Organización Europea para la Investigación Nuclear (CERN), consideran que hallazgos como estos confirman que muchas de las teorías de la física podrían estar mal:
Los científicos estamos estudiando formas diferentes de aplicar y teorizar la actual teoría del Modelo Estándar, la cual parece no poder abarcar estos nuevos descubrimientos,  pero, dado el hecho de que lo que observamos sólo representa alrededor del 4% del total de la energía y materia de la que está hecha el Universo, podemos predecir que parte de la clave para resolver el misterio de la antimateria podría encontrarse en alguna otra parte aún desconocida del Universo.
Al parecer, este Beauty Quark o Quark +B se produjo por el choque frontal de dos protones viajando a la velocidad de la luz. La partícula fue detectada por el sistema de activación automática del LHCb, diseñado para reconocer y diferenciar acontecimientos inusuales, omitiendo el 99% de las colisiones de protones. Hallazgos como este podrían explicar (o dar comienzo a una nueva teoría) el origen del Universo, el cual se especula, se inició luego del choque de partículas de materia contra otras de antimateria, generando una inmensa energía, y también podría explicar el motivo de la escasez de antimateria en el Universo.

Fuente:  fayerwayer.com

Las matemáticas tras la física que subyace al universo


Shing-Tung Yau explica cómo descubrió las dimensiones ocultas de la teoría de cuerdas.

Shing-Tung Yau es una fuerza de la naturaleza. Es más conocido por concebir las matemáticas detrás de la teoría de cuerdas – que mantiene que al nivel más profundo de la realidad, nuestro universo está formado por cuerdas vibrantes en diez dimensiones. Pero el genio de Yau va más allá. Ha generado la moderna sinergia entre la geometría y la física, liderando trabajos en equipo sin precedentes en matemáticas, y ha ayudado también a fomentar un renacimiento intelectual en China.

A pesar de haber crecido en la pobreza en una granja de Hong Kong, Yau se abrió camino hasta llegar a la Universidad de California, en Berkeley, donde estudió con el geómetra chino Shiig-She Chern y el maestro de las ecuaciones no lineales, Charles Morrey. Entonces, a la edad de 29 años, Yau demostró la conjetura de Calabi, que postula que la existencia de espacios hexadimensionales ocultos bajo la realidad que percibimos. Estas dimensiones ocultas dan rigor a la teoría de cuerdas complementando las tres dimensiones espaciales y la dimensión temporal descritas en la teoría de la relatividad general de Einstein.

Desde entonces, Yau ha obtenido puestos en el Instituto de Estudios Avanzados, en la Universidad de Stanford, en Harvard (donde dirige actualmente el Departamento de Matemáticas), enseñando a dos generaciones de estudiantes de doctorado y embarcándose en lejanas colaboraciones que van desde la naturaleza de la materia oscura a la formación de los agujeros negros. Yau ha ganado la medalla Fields, una beca MacArthur, y el premio Wolf.

Con todo, Yau ha mantenido una posición franca. En China ha llamado a la jubilación de la vieja guardia académica, para dejar crecer al nuevo talento. En los E.E.U.U. ha criticado lo que considera crasos errores en demostraciones matemáticas de jóvenes académicos. Yau también se ha esforzado por hablar al público; su libro “La forma del espacio interior”, escrito junto con Steve Nadis, se publicará el próximo otoño. Reflexionó en febrero sobre su vida y obra con la editora senior de la revista DISCOVER, Pamela Weintraub, en su oficina de Harvard durante cuatro días.
(...)
Usted es más conocido por su trabajo en la conjetura de Calabi, que en su día fue uno de los mayores problemas sin resolver en las matemáticas de las dimensiones superiores. ¿Qué le llevó a él?

Me sentía arrastrado por los importantes problemas que me daban una visión profunda de la geometría y del espacio-tiempo. A veces, resolviendo un problema, creas una nueva forma de pensar, a veces las propias matemáticas son bellas. El problema con el que trabajé, la conjetura de Calabi, es un enunciado muy elegante sobre la curvatura de las variedades complejas.

¿Qué significa curvatura en este contexto, ya que no estamos hablando del tipo de curvas que observamos normalmente?

La curvatura es información de segundo orden – por ejemplo, supón que estoy conduciendo un coche a lo largo de una curva en una autovía. La velocidad del coche cambiará a medida que recorres la curva, así que puedes medir la curva en base a los cambios en la velocidad a lo largo de dicha línea unidimensional. Del mismo modo, existe también la llamada curvatura de Gauss, que te da la curvatura de una superficie bidimensional multiplicando la curvatura más grande por la curvatura más pequeña de la familia de todas las curvas tangentes a la superficie en dicho punto. Para espacios de dimensiones superiores, como el espacio tridimensional que nos rodea, calculamos la curvatura de todas las superficies bidimensionales que pasan por dicho punto. Finalmente tenemos la curvatura de Ricci, que medimos promediando la curvatura de todas las superficies bidimensionales tangentes entre ellas a lo largo de una dirección común. En esencia, la curvatura de Ricci es una media de una parte de la curvatura total del espacio. Es un concepto geométrico abstracto, pero es fundamental.

¿Por qué es la curvatura de Ricci fundamental?

En física, la curvatura de Ricci es análoga a la materia. El espacio con curvatura de Ricci cero es el vacío.

¿Y cómo está todo esto relacionado con la conjetura de Calabi?

Calabi dijo que determinadas condiciones topológicas requieren la existencia de espacios complejos cerrados y no planos sin curvatura de Ricci en ningún punto. Tales espacios tendrían muchas propiedades maravillosas. Podrías encontrar lazos sub-dimensionales o el toro que describí en mi primer artículo – o podrías encontrar branas (membranas) que se cortan entre sí. Estaba 100 % seguro de que los espacios que Calabi requería no podrían existir. Ningún matemático o físico ha encontrado nunca un ejemplo de estos, y la mayoría de geómetras los consideraban demasiado buenos para ser reales.

¿Y qué hizo después?

Dediqué mucho tiempo a pensar en cómo refutar a Calabi. En 1973 estaba dando clases en SUNY – Stony Brook – y pensando en irme a Stanford. En mayo de aquel año puse mis pertenencias en un pequeño Volkswagen y conduje a lo largo de la autopista 80. Pensaba que E.E.U.U. era un país donde todos viajaban de un lado a otro de éste, pero para mi asombro, mucha gente de la que encontré por el camino me dijeron que nunca habían conducido más allá de diez millas de su pueblo. Crucé las Montañas Rocosas. El coche se averió llegado un punto. Cuando llevaba en Stanford unos meses, pensé que por fin había refutado a Calabi.

Refutar la conjetura de Calabi sería un gran logro; ¿cómo lo anunció?

En agosto había una gran conferencia en Stanford con los mejores geómetras del mundo, incluyendo a Calabi. Hablé con él, y le conté mi idea. Me dijo: “Eso suena genial. ¿Por qué no me das una charla sobre ello?” Estaba programada para las 19 horas, y Calabi llevó a algunos colegas suyos de la Universidad de Pensilvania, y entonces, algunos otros se enteraron, y aún otros cuantos más también se enteraron. Había una pequeña multitud. Hablé alrededor de una hora, y Calabi estaba emocionado. “He estado esperando esto durante mucho tiempo, y espero que sea correcto”, dijo. El resto dijo: “Genial, finalmente podemos dejar de pensar ilusamente que Calabi está en lo cierto”. Entonces Calabi me escribió en octubre. Me dijo: “Estoy intentando reconstruir tu argumento, y estoy encontrando algunas dificultades. ¿Podrías explicarme los detalles?”. Empecé a reconstruirlo y encontré también un problema. Estaba totalmente avergonzado. No respondí a Calabi en ese momento y en vez de eso intenté con todas mis fuerzas parchear la demostración. No pude, así que eché un vistazo para encontrar otros ejemplos donde Calabi estuviese equivocado. No dormí durante dos semanas. Pero cada vez que encontraba un ejemplo que se acercaba, la prueba caía en el último minuto. Al final, dije, ¡hey!, esto no puede ser tan complicado. Tuve entonces, una percepción mucho más profunda del problema y sentí que tenía que tener algo de cierto. Determiné que tenía que ser correcto.

Así que después de todo el trabajo tratando de demostrar que la conjetura de Calabi era errónea, ¿decidió después de todo que era correcta?

Empecé desarrollando las herramientas para entenderla, y en 1975, sólo faltaba una parte de la demostración. Ese año mi mujer consiguió un trabajo en Los Angeles. Me trasladé a la Universidad de Los Ángeles. En un período de tiempo corto nos casamos, compramos un coche, una casa en el valle y tuvimos que buscar los muebles. Mi madre vino de Hong Kong a la boda, y también los padres de mi futura esposa – todos ellos vivieron bajo el mismo techo y se pelearon; fue complicado, una locura. Estaba harto, así que me encerré en el estudio, y pensé en Calabi en vez de en los problemas familiares, y resolví el problema. Repasé tres veces la prueba en detalle, y fui a ver a Calabi a Pensilvania. En un día de navidad nevado, vino conmigo a visitar al matemático Louis Nirenberg, de la Universidad de New York. Pasamos todo el día de navidad con el problema, y dediqué el mes siguiente a escribir la prueba para su publicación.

Las implicaciones fueron enormes. Se hizo famoso en un instante.

Resolvió cerca de una docena de los grandes problemas de la geometría algebraica. Muchas personas me ofrecieron trabajos.

Algunos de los espacios con un número elevado de dimensiones llamados ahora espacios de Calabi-Yau han resultado ser fundamentales en la teoría de cuerdas. ¿Cuál es la conexión?

Cuando Einstein publicó su Teoría de la Relatividad general en 1915, se quería unificar la gravedad con el electromagnetismo. Los matemáticos de entonces pensaron que podrían conseguirlo con cinco dimensiones, cuatro espaciales y una temporal. Pero entonces los físicos encontraron nuevas partículas y necesitaron dimensiones extra para las fuerzas fuerte y débil. Cuando resolvieron todo, determinaron que podían explicar el universo con algo que llamaron Teoría de Cuerdas, que sustituye las partículas puntuales de la física de partículas con cuerdas vibrantes muy pequeñas. Para ser consistente con la teoría cuántica, las cuerdas necesitan diez dimensiones en las que vibrar: tres espaciales, una temporal, y seis dimensiones compactas. Estas dimensiones compactas son tan pequeñas que no las puedes detectar a través de ningún experimento concebible. Tan sólo forman parte de la teoría. Sucede que los espacios de Calabi-Yau de seis dimensiones tienen también características topológicas específicas que satisfacen los requisitos de la teoría de cuerdas. Si esos espacios modelaban el espacio de seis dimensiones requerido por la Teoría de Cuerdas, nos ayudarían a deducir la geometría y, por extensión, las leyes físicas del universo.

Algunas teorías cosmológicas implican la existencia de otros universos. ¿Podría cada espacio de Calabi-Yau describir un conjunto diferente de leyes en dichos universos?

Sí. Cada universo aislado puede ser modelado por un espacio de Calabi-Yau diferente. Pero algunos de mis colegas estudiaron un bonito concepto llamado simetría de espejo, en el que cada espacio tiene una imagen especular con la misma teoría cuántica de campos y la misma física.

¿Cúantos espacios de Calabi-Yau hay?

Usando un programa de ordenador, Philip Candelas, de la Universidad de Texas, en Austin, encontró hasta 10 000 espacios de Calabi-Yau, de los que casi la mitad de ellos eran las imágenes especulares de los otros. Cada miembro de un par es topológicamente diferente, pero todavía se adecua al otro algebraicamente y da lugar a las mismas fuerzas, las mismas partículas y las mismas reglas. La estructura geométrica resultante puede usarse para determinar las cantidades físicas asociadas a cada espacio, como la masa de las partículas.

La Teoría de Cuerdas suele describirse como una manera matemáticamente elegante de explicar toda la física. Pero, ¿cómo podemos saber si describe realmente el universo?

No podemos estar seguros, pero las matemáticas inspiradas por la Teoría de Cuerdas resuelven algunas viejas preguntas. Esa parte es rigurosa y su verdad no puede ser desafiada. Si la estructura de las matemáticas es profunda, resolverá algo de la naturaleza de un modo u otro; es difícil imaginar que una estructura tan profunda no se corresponde con nada. Todo lo fundamental en matemáticas ha tenido al final algún significado en el mundo físico.
(...)

Fuente: cienciakanija.com

Enlace Original: discovermagazine.com

Captada una señal de ondas gravitacionales nunca vista

  Los detectores LIGO y Virgo captan dos choques de agujeros negros contra estrellas de neutrones, los astros más densos del universo. Dos d...