Mostrando entradas con la etiqueta física. Mostrar todas las entradas
Mostrando entradas con la etiqueta física. Mostrar todas las entradas

miércoles, 16 de diciembre de 2015

Google, NASA: Our Quantum Computer Is 100 Million Times Faster Than A Normal PC

Google, NASA: Our Quantum Computer Is 100 Million Times Faster Than A Normal PC
Google, NASA: Our Quantum Computer Is 100 Million Times Faster Than A Normal PC
But only for very specific optimisation problems.
“Two years ago Google and NASA went halfsies on a D-Wave quantum computer, mostly to find out whether there are actually any performance gains to be had when using quantum annealing instead of a conventional computer. Recently, Google and NASA received the latest D-Wave 2X quantum computer, which the company says has “over 1000 qubits.”
At an event yesterday at the NASA Ames Research Center, where the D-Wave computer is kept, Google and NASA announced their latest findings—and for highly specialised workloads, quantum annealing does appear to offer a truly sensational performance boost. For an optimisation problem involving 945 binary variables, the D-Wave X2 is up to 100 million times faster (108) than the same problem running on a single-core classical (conventional) computer.
Google and NASA also compared the D-Wave X2’s quantum annealing against Quantum Monte Carlo, an algorithm that emulates quantum tunnelling on a conventional computer. Again, a speed-up of up to 108 was seen in some cases.”

enter image description here


Hartmut Neven, the head of Google’s Quantum Artificial Intelligence lab, said these results are “intriguing and very encouraging” but that there’s still “more work ahead to turn quantum enhanced optimization into a practical technology.”
As always, it’s important to note that D-Wave’s computers are not capable of universal computing: they are only useful for a small number of very specific tasks—and Google, NASA, and others are currently trying to work out what those tasks might be. D-Wave’s claim of “over 1,000 qubits” is also unclear. In the past, several physical qubits were clustered to create a single computational qubit, and D-Wave doesn’t make that distinction clear.

Scientists explain origin of heavy elements in the Universe

Scientists explain origin of heavy elements in the Universe (new.huji.ac.il)
Scientists explain origin of heavy elements in the Universe
In a letter published in the prestigious journal Nature Physics, a team of scientists from The Hebrew University of Jerusalem suggests a solution to the Galactic radioactive plutonium puzzle.
All the Plutonium used on Earth is artificially produced in nuclear reactors. Still, it turns out that it is also produced in nature.
“The origin of heavy elements produced in nature through rapid neutron capture (‘r-process’) by seed nuclei is one of the current nucleosynthesis mysteries,” Dr. Kenta Hotokezaka, Prof. Tsvi Piran and Prof. Michael Paul from the Racah Institute of Physics at the Hebrew University of Jerusalem said in their letter.
Plutonium is a radioactive element. Its longest-lived isotope is plutonium-244 with a lifetime of 120 million years.
Detection of plutonium-244 in nature would imply that the element was synthesized in astrophysical phenomena not so long ago (at least in Galactic time scales) and hence its origin cannot be too far from us.
Several years ago it was discovered that the early Solar system contained a significant amount of plutonium-244. Considering its short-lived cycle, plutonium-244 that existed over four billion years ago when Earth formed has long since decayed but its daughter elements have been detected.
But recent measurements of the deposition of plutonium-244, including analysis of Galactic debris that fell to Earth and settled in deep sea, suggest that only very small amount of plutonium has reached Earth from outer space over the recent 100 million years. This is in striking contradiction to its presence at the time when the Solar system was formed, and that is why the Galactic radioactive plutonium remained a puzzle.
The Hebrew University team of scientists have shown that these contradicting observations can be reconciled if the source of radioactive plutonium (as well as other rare elements, such as gold and uranium) is in mergers of binary neutron stars. These mergers are extremely rare events but are expected to produce large amounts of heavy elements.
The model implies that such a merger took place accidentally in the vicinity of our Solar System within less than a hundred million years before it was born. This has led to the relatively large amount of plutonium-244 observed in the early Solar system.
On the other hand, the relatively small amount of plutonium-244 reaching Earth from interstellar space today is simply accounted for by the rarity of these events. Such an event hasn’t occurred in the last 100 million years in the vicinity of our Solar system.

Computing with time travel

Computing with time travel
Computing with time travel
Why send a message back in time, but lock it so that no one can ever read the contents? Because it may be the key to solving currently intractable problems. That’s the claim of an international collaboration who have just published a paper in npj Quantum Information.
It turns out that an unopened message can be exceedingly useful. This is true if the experimenter entangles the message with some other system in the laboratory before sending it. Entanglement, a strange effect only possible in the realm of quantum physics, creates correlations between the time-travelling message and the laboratory system. These correlations can fuel a quantum computation.
Around ten years ago researcher Dave Bacon, now at Google, showed that a time-travelling quantum computer could quickly solve a group of problems, known as NP-complete, which mathematicians have lumped together as being hard.
The problem was, Bacon’s quantum computer was travelling around ‘closed timelike curves’. These are paths through the fabric of spacetime that loop back on themselves. General relativity allows such paths to exist through contortions in spacetime known as wormholes.
Physicists argue something must stop such opportunities arising because it would threaten ‘causality’ – in the classic example, someone could travel back in time and kill their grandfather, negating their own existence.
And it’s not only family ties that are threatened. Breaking the causal flow of time has consequences for quantum physics too. Over the past two decades, researchers have shown that foundational principles of quantum physics break in the presence of closed timelike curves: you can beat the uncertainty principle, an inherent fuzziness of quantum properties, and the no-cloning theorem, which says quantum states can’t be copied.
However, the new work shows that a quantum computer can solve insoluble problems even if it is travelling along “open timelike curves”, which don’t create causality problems. That’s because they don’t allow direct interaction with anything in the object’s own past: the time travelling particles (or data they contain) never interact with themselves. Nevertheless, the strange quantum properties that permit “impossible” computations are left intact. “We avoid ‘classical’ paradoxes, like the grandfathers paradox, but you still get all these weird results,” says Mile Gu, who led the work.
Gu is at the Centre for Quantum Technologies (CQT) at the National University of Singapore and Tsinghua University in Beijing. His eight other coauthors come from these institutions, the University of Oxford, UK, Australian National University in Canberra, the University of Queensland in St Lucia, Australia, and QKD Corp in Toronto, Canada.
“Whenever we present the idea, people say no way can this have an effect” says Jayne Thompson, a co-author at CQT. But it does: quantum particles sent on a timeloop could gain super computational power, even though the particles never interact with anything in the past. “The reason there is an effect is because some information is stored in the entangling correlations: this is what we’re harnessing,” Thompson says.
There is a caveat – not all physicists think that these open timeline curves are any more likely to be realisable in the physical universe than the closed ones. One argument against closed timelike curves is that no-one from the future has ever visited us. That argument, at least, doesn’t apply to the open kind, because any messages from the future would be locked.

Provided by: National University of Singapore

A fundamental quantum physics problem has been proved unsolvable

A fundamental quantum physics problem has been proved unsolvable
A fundamental quantum physics problem has been proved unsolvable
For the first time a major physics problem has been proved unsolvable, meaning that no matter how accurately a material is mathematically described on a microscopic level, there will not be enough information to predict its macroscopic behaviour.
The research, by an international team of scientists from UCL, the Technical University of Music and the Universidad Complutense de Madrid – ICMAT, concerns the spectral gap, a term for the energy required for an electron to transition from a low-energy state to an excited state.
Spectral gaps are a key property in semiconductors, among a multitude of other materials, in particular those with superconducting properties. It was thought that it was possible to determine if a material is superconductive by extrapolating from a complete enough microscopic description of it, however this study has shown that determining whether a material has a spectral gap is what is known as “an undecidable question”.
“Alan Turing is famous for his role in cracking the Enigma, but amongst mathematicians and computer scientists, he is even more famous for proving that certain mathematical questions are `undecidable’ – they are neither true nor false, but are beyond the reach of mathematics code,” said co-author Dr Toby Cubitt, from UCL Computer Science.
“What we’ve shown is that the spectral gap is one of these undecidable problems. This means a general method to determine whether matter described by quantum mechanics has a spectral gap, or not, cannot exist. Which limits the extent to which we can predict the behaviour of quantum materials, and potentially even fundamental particle physics.”

enter image description here


The research, which was published today in the journal Nature, used complex mathematics to determine the undecidable nature of the spectral gap, which they say they have demonstrated in two ways:
“The spectral gap problem is algorithmically undecidable: there cannot exist any algorithm which, given a description of the local interactions, determines whether the resulting model is gapped or gapless,” wrote the researchers in the journal paper.
“The spectral gap problem is axiomatically independent: given any consistent recursive axiomatisation of mathematics, there exist particular quantum many-body Hamiltonians for which the presence or absence of the spectral gap is not determined by the axioms of mathematics.”
In other words, no algorithm can determine the spectral gap, and no matter how the maths is broken down, information about energy of the system does not confirm its presence.

enter image description here


The research has profound implications for the field, not least for the Clay Mathematics Institute’s infamous $1m prize to prove whether the standard model of particular physics, which underpins the behaviour of the most basic particulars of matter, has a spectral gap using standard model equations.
“It’s possible for particular cases of a problem to be solvable even when the general problem is undecidable, so someone may yet win the coveted $1m prize. But our results do raise the prospect that some of these big open problems in theoretical physics could be provably unsolvable,” said Cubitt.
“We knew about the possibility of problems that are undecidable in principle since the works of Turing and Gödel in the 1930s,” agreed co-author Professor Michael Wolf, from the Technical University of Munich.
“So far, however, this only concerned the very abstract corners of theoretical computer science and mathematical logic. No one had seriously contemplated this as a possibility right in the heart of theoretical physics before. But our results change this picture. From a more philosophical perspective, they also challenge the reductionists’ point of view, as the insurmountable difficulty lies precisely in the derivation of macroscopic properties from a microscopic description.”
“It’s not all bad news, though,” added Professor David Pérez-García, from the Universidad Complutense de Madrid and ICMAT. “The reason this problem is impossible to solve in general is because models at this level exhibit extremely bizarre behaviour that essentially defeats any attempt to analyse them.
“But this bizarre behaviour also predicts some new and very weird physics that hasn’t been seen before. For example, our results show that adding even a single particle to a lump of matter, however large, could in principle dramatically change its properties. New physics like this is often later exploited in technology.”

miércoles, 22 de octubre de 2014

Estrellas dobles

Estrellas dobles

Estrellas dobles

Las estrellas dobles (o binarias) son muy frecuentes. Una estrella doble es una pareja de estrellas que se mantienen unidas por la fuerza de la gravitación y giran en torno a su centro común.
Los periodos orbitales, que van desde minutos en el caso de parejas muy cercanas hasta miles de años en el caso de parejas distantes, dependen de la separación entre las estrellas y de sus respectivas masas.
También hay estrellas múltiples, sistemas en que tres o cuatro estrellas giran en trayectorias complejas. Lira parece una estrella doble, pero a través de un telescopio se ve como cada uno de los dos componentes es un sistema binario.
La observación de las órbitas de estrellas dobles es el único método directo que tienen los astrónomos para pesar las estrellas.
En el caso de parejas muy próximas, su atracción gravitatoria puede distorsionar la forma de las estrellas, y es posible que fluya gas de una estrella a otra en un proceso llamado “transferencia de masas”.
A través del telescopio se detectean muchas estrellas dobles que parecían simples. Sin embargo, cuando están muy próximas, sólo se detectan si se estudia su luz medianteespectroscopia. Entonces se ven los espectros de dos estrellas, y su movimiento se puede deducir por el efecto Doppler en ambos espectros. Estas parejas se denominan binarias espectroscópicas.
La mayoría de las estrellas que vemos en el cielo son dobles o incluso múltiples. Ocasionalmente, una de las estrellas de un sistema doble puede ocultar a la otra al ser observadas desde la Tierra, lo que da lugar a una binaria eclipsante.
En la mayoría de los casos, se cree que las componentes de un sistema doble se han originado simultáneamente, aunque otras veces, una estrella puede ser capturada por el campo gravitatorio de otra en zonas de gran densidad estelar, como los cúmulos de estrellas, dando lugar al sistema doble.

domingo, 19 de octubre de 2014

Spacecraft catches Mars atmosphere in act of escaping

Spacecraft atrapa la atmósfera de Marte en acto de escapar

La atmósfera de la Tierra se está escapando hacia el espacio, también, pero sólo muy, muy lentamente. Mientras tanto, Marte se cree que han perdido gran parte de su atmósfera ya.
Tres puntos de vista de una atmósfera de escapar, obtenidos por la MAVEN Imaging ultravioleta Espectrógrafo.  Mediante la observación de todos los productos de la descomposición de agua y dióxido de carbono, el equipo de detección remota de MAVEN puede caracterizar los procesos que conducen a la pérdida de la atmósfera de Marte.  Imagen a través de la Universidad de Colorado / NASA
Imágenes ultravioleta que muestran la tenue oxígeno, hidrógeno, carbono y coronas que rodean el planeta Marte y la atmósfera marciana escapar. Imagen a través de la Universidad de Colorado / nave de la NASA / Mars MAVEN
Un equipo de científicos de la nave espacial MAVEN, que ha estado orbitando Marte desde el 21 de septiembre, dijo esta semana (14 de octubre de 2014) que - mediante la observación de todos los productos de agua y carbono desglose dióxido en la atmósfera del planeta rojo - que será capaces de caracterizar los procesos que conducen a la pérdida de la atmósfera de Marte.
Eso es correcto. La atmósfera de Marte está escapando, al igual que la de la Tierra es. En la Tierra, esta fuga gradual de nuestra atmósfera hacia el espacio es extremadamente pequeño, sólo alrededor de tres kilogramos de hidrógeno y 50 gramos de helio (los dos gases más ligeros) por segundo. Mientras tanto, Marte - que es más pequeño que la Tierra y por lo tanto tiene una gravedad más débil - se cree que han perdido a un gran porcentaje de su atmósfera al espacio. Es un objetivo de la MAVEN (Mars Atmosphere and Volatile Evolution) nave espacial para ayudar a resolver el misterio de cómo Marte perdió gran parte de su atmósfera.
Estas imágenes ultravioletas principios de MAVEN - que todavía está bajando su órbita y probando sus instrumentos -. Espectáculo oxígeno tenue, hidrógeno y coronas de carbono que rodean el planeta NASA dice  MAVEN ya ha dado un mapa completo de la capa de ozono altamente variable en la atmósfera que subyace a la coronas.
Plus MAVEN ha proporcionado a los científicos su primer vistazo a una tormenta de partículas energéticas solares en Marte, que se piensan para ser un posible mecanismo para la conducción de pérdida atmosférica. Lea más acerca de las primeras observaciones de MAVEN en Marte aquí. 
Bruce Jakosky, MAVEN investigador principal de la Universidad de Colorado, Boulder, dijo en un comunicado de prensa:
Todos los instrumentos están mostrando calidad de datos que es mejor de lo previsto en esta primera etapa de la misión. Todos los instrumentos ahora se han convertido en - aunque aún no está totalmente comprobado - y están funcionando nominalmente. Está resultando ser una nave espacial de fácil y sencillo de volar, al menos hasta ahora. Realmente parece como si nos dirigimos a una misión de la ciencia emocionante.
La misión tiene como objetivo iniciar la recolección ciencia completa a principios o mediados de noviembre.
El concepto del artista de la nave espacial MAVEN al amanecer sobre Marte, a través Colorado.edu
El concepto del artista de la nave espacial MAVEN al amanecer sobre Marte, a través Colorado.edu 
En pocas palabras: la atmósfera de la Tierra se está escapando poco a poco en el espacio, también, pero la fuga de la Tierra es muy pequeña. Mientras tanto, Marte se cree que han perdido gran parte de su atmósfera. Uno de los objetivos de la nave espacial MAVEN en Marte es averiguar por qué.

Los secretos de la construcción de una metrópoli galáctica

Los secretos de la construcción de una metrópoli galáctica

APEX revela la formación estelar oculta en un protocúmulo

15 de Octubre de 2014
Un equipo de astrónomos ha utilizado el telescopio APEX para sondear un inmenso cúmulo de galaxias que se está formando en el universo primitivo, revelando que, gran parte del formación de estrellas que está teniendo lugar, no sólo está oculta por el polvo, sino que se está desarrollando en lugares inesperados. Es la primera vez que se ha podido llevar a cabo un censo completo de la formación estelar en un objeto de este tipo.
Los cúmulos de galaxias son los objetos más grandes del universo que se mantienen unidos por la gravedad, pero aún no comprendemos bien cómo se forman. Hace más de veinte años que los investigadores estudian la Galaxia Telaraña (conocida como MRC 1138-262 [1]) y sus alrededores, utilizando tanto telescopios de ESO como de otras instituciones [2]. Se cree que es uno de los mejores ejemplos de un protocúmulo en pleno proceso de unión, un evento que observamos tal y como ocurría hace más de diez mil millones de años.
Pero Helmut Dannerbauer (Universidad de Viena, Austria) y su equipo sospechaban que a esta historia le faltaban muchas piezas. Querían estudiar el lado oscuro de la formación estelar y averiguar cuántas de las estrellas que se estaban formando en el cúmulo de la Galaxia Telaraña estaban ocultas a nuestra vista, detrás del polvo.
El equipo utilizó la cámara LABOCA, instalada en el telescopio APEX, en Chile, para observar este cúmulo de la Telaraña, durante cuarenta horas, en longitudes de onda milimétricas (longitudes de onda de la luz lo suficientemente largas como para mirar a través de la mayoría de las gruesas nubes de polvo). LABOCA tiene un amplio campo de visión y es el instrumento perfecto para este sondeo.
Carlos De Breuck (responsable científico del proyecto APEX en ESO y coautor del nuevo estudio) destaca: "esta es una de las observaciones más profundas que se han hecho con APEX y lleva esta tecnología a su límite –lo mismo ocurre con la resistencia del personal que trabaja en las instalaciones de APEX, a un altitud de 5.050 metros sobre el nivel del mar".
Las observaciones de APEX revelaron que, comparado con el cielo circundante, se habían detectado cuatro veces más fuentes en la zona de la Telaraña. Y cotejando cuidadosamente los nuevos datos con las observaciones complementarias realizadas en diferentes longitudes de onda, pudieron confirmar que muchas de estas fuentes se encontraban a la misma distancia que el propio cúmulo de galaxias, por lo que debía tratarse de partes del cúmulo en formación.
Según explica Helmut Dannerbauer, "las nuevas observaciones de APEX añaden la última pieza que necesitábamos para crear un censo completo de todos los habitantes de esta ciudad de mega estrellas. Estas galaxias están en pleno proceso de formación, por lo que, al igual que cuando tenemos obras aquí en la Tierra, está todo lleno de polvo".
Pero, mientras observaban el lugar en el que habían descubierto este foco de nacimiento de estrellas, se llevaron otra sorpresa. Esperaban encontrar esta región de formación estelar en los grandes filamentos que conectan las galaxias. En cambio, la encontraron concentrada en su mayor parte en una sola región, y esa región ni siquiera se encuentra centrada en la Galaxia Teladearaña, que sí está en el centro del protocúmulo [3].
Helmut Dannerbauer concluye: "Queríamos encontrar la formación de estrellas oculta en el cúmulo de Telaraña — y lo logramos — pero, por el camino, desenterramos un nuevo misterio: ¡no estaba en el lugar previsto! La mega ciudad se está desarrollando asimétricamente".
Para continuar con la historia, es necesario llevar a cabo más observaciones — y ALMA será el instrumento perfecto para dar esos pasos y estudiar estas regiones polvorientas con mucho más detalle.

Notas

[1] La Galaxia Telaraña contiene un agujero negro supermasivo y es una poderosa fuente de ondas de radio — que es lo primero que llamó la atención de los astrónomos.
[2] Esta región ha sido observada de forma intensiva por diferentes telescopios de ESO desde mediados de la década de 1990. El corrimiento al rojo (y por lo tanto la distancia) de la galaxia de radio MRC1138-262 (la Galaxia Telaraña) fue medida por primera vez en La Silla. Las primeras observaciones de FORS  en modo visitante en el VLT descubrieron el protocúmulo y luego se hicieron otras observaciones con ISAAC, SINFONIVIMOS y HAWK-I. Los datos de APEX- LABOCA complementan los datos del óptico y del infrarrojo cercano de los telescopios de ESO. El equipo también utilizó una imagen de VLA de 12 horas para cruzar las fuentes con las imágenes en el óptico de LABOCA e identificarlas.
[3] Se cree que estos polvorientos estallidos evolucionan hasta transformarse en galaxias elípticas como las que observamos a nuestro alrededor, en cúmulos de galaxias cercanas.

Información adicional

Esta investigación se hizo pública en el artículo científico “An excess of dusty starbursts related to the Spiderweb galaxy”, por Dannerbauer, Kurk, De Breuck et al., y aparece online en la revista Astronomy & Astrophysics del 15 de octubre de 2014.
APEX es una colaboración entre el Instituto Max Planck de Radioastronomía (MPIfR), el Observatorio Espacial de Onsala (OSO) y ESO. Las operaciones de APEX en Chajnantor están a cargo de ESO.
El equipo está compuesto por H. Dannerbauer (Universidad de Viena, Austria), J. D. Kurk (Instituto Max Planck de Física Extraterrestre, Garching, Alemania), C. De Breuck (ESO, Garching, Alemania), D. Wylezalek (ESO, Garching, Alemania), J. S. Santos (INAF–Observatorio Astrofísico de Arcetri, Florencia, Italia), Y. Koyama (Observatorio Astronómico Nacional de Japón, [NAOJ], Tokio; Instituto de Astronomía Espacial, Kanagawa, Japón), N. Seymour (CSIRO Astronomía y Ciencias Espaciales, Epping, Australia), M. Tanaka (NAOJ; Instituto Kavli para el estudio de la Física y las Matemáticas del Universo, Universidad de Tokio, Japón), N. Hatch (Universidad de Nottingham, Reino Unido), B. Altieri (Centro de Ciencia de Herschel [HSC], Centro Europeo de Astronomía Espacial [ESAC], Villanueva de la Cañada, España), D. Coia (HSC), A. Galametz (INAF–Observatorio de Roma, Italia), T. Kodama (NAOJ), G. Miley (Observatorio de Leiden, Países Bajos), H. Röttgering (Observatorio de Leideny), M. Sánchez-Portal (HSC), I. Valtchanov (HSC), B. Venemans (Instituto de Astronomía Max Planck, Heidelberg, Alemania) y B. Ziegler (Universidad de Viena).
ESO es la principal organización astronómica intergubernamental de Europa y el observatorio astronómico más productivo del mundo. Cuenta con el respaldo de quince países: Alemania, Austria, Bélgica, Brasil, Dinamarca, España, Finlandia, Francia, Holanda, Italia, Portugal, el Reino Unido, República Checa, Suecia y Suiza. ESO desarrolla un ambicioso programa centrado en el diseño, construcción y operación de poderosas instalaciones de observación terrestres que permiten a los astrónomos hacer importantes descubrimientos científicos. ESO también desarrolla un importante papel al promover y organizar la cooperación en investigación astronómica. ESO opera en Chile tres instalaciones de observación únicas en el mundo: La Silla, Paranal y Chajnantor. En Paranal, ESO opera el Very Large Telescope, el observatorio óptico más avanzado del mundo, y dos telescopios de rastreo. VISTA (siglas en inglés de Telescopio de Rastreo Óptico e Infrarrojo para Astronomía) trabaja en el infrarrojo y es el telescopio de rastreo más grande del mundo, y el VST (VLT Survey Telescope, Telescopio de Rastreo del VLT) es el telescopio más grande diseñado exclusivamente para rastrear el cielo en luz visible. ESO es el socio europeo de un revolucionario telescopio, ALMA, el proyecto astronómico más grande en desarrollo. Actualmente ESO está planificando el European Extremely Large Telescope, E-ELT, el telescopio óptico y de infrarrojo cercano de 39 metros, que llegará a ser “el ojo más grande del mundo para mirar el cielo”.
Las traducciones de las notas de prensa de ESO las llevan a cabo miembros de la Red de Divulgación de la Ciencia de ESO (ESON por sus siglas en inglés), que incluye a expertos en divulgación y comunicadores científicos de todos los países miembros de ESO y de otras naciones.

El 
nodo español de la red ESON está representado por J. Miguel Mas Hesse y Natalia Ruiz Zelmanovitch.

Enlaces

Contactos

J. Miguel Mas Hesse
Centro de Astrobiología (CSIC-INTA)
Madrid, España
Tlf.: (+34) 918131196
Correo electrónico: mm@cab.inta-csic.es
Helmut Dannerbauer
University of Vienna
Vienna, Austria
Tlf.: +43 1 4277 53826
Correo electrónico: helmut.dannerbauer@univie.ac.at
Carlos De Breuck
ESO APEX Project Scientist
Garching bei München, Germany
Tlf.: +49 89 3200 6613
Correo electrónico: cdebreuc@eso.org
Richard Hook
ESO, Public Information Officer
Garching bei München, Germany
Tlf.: +49 89 3200 6655
Móvil: +49 151 1537 3591
Correo electrónico: rhook@eso.org
Esta es una traducción de la nota de prensa de ESO eso1431.