miércoles, 16 de diciembre de 2015

Scientists watch a planet being born for the first time in history

Scientists watch a planet being born for the first time in history
Scientists watch a planet being born for the first time in history
For the first time ever, scientists have been able to see planets as they are born. In photographs obtained by the Large Binocular Telescope and the Magellan Adaptive Optics System, astronomers watched as a ring of material formed into planets around a young star. This discovery could lead to the discovery of other forming exoplanets and give scientists answers to how planets are formed and then evolve into solar systems such as ours.
enter image description here

The telescope and optics system was able to photograph LkCa 15, a gas-giant exoplanet forming around a young star about 450 light years from Earth. The LkCa 15 system, according to Space.com, features a “disk of dust and gas” around a “sun-like” star that’s just two million years young. The scientific team, led by Stephanie Sallum, a graduate student at the University of Arizona, used the Large Binocular Telescope, an observatory in southeastern Arizona that has two 27-foot-wide mirrors.
The scientists confirmed that one giant protoplanet (not quite a planet, yet) existed and called it LkCa 15b. They were able to see it in hydrogen-alpha photons which are a type of light emitted when “superheated material accretes onto a newly forming world.” Essentially, the new planets are surrounded by “feeder” material.
Another newborn planet, LkCa 15c is also inside the gap between star and the dust ring and it’s possible that another LkCa 15d is also there. “We’re seeing sources in the clearing,” Sallum said. “This is the first time that we’ve been able to connect a forming planet to a gap in a protoplanetary disk.”

Google, NASA: Our Quantum Computer Is 100 Million Times Faster Than A Normal PC

Google, NASA: Our Quantum Computer Is 100 Million Times Faster Than A Normal PC
Google, NASA: Our Quantum Computer Is 100 Million Times Faster Than A Normal PC
But only for very specific optimisation problems.
“Two years ago Google and NASA went halfsies on a D-Wave quantum computer, mostly to find out whether there are actually any performance gains to be had when using quantum annealing instead of a conventional computer. Recently, Google and NASA received the latest D-Wave 2X quantum computer, which the company says has “over 1000 qubits.”
At an event yesterday at the NASA Ames Research Center, where the D-Wave computer is kept, Google and NASA announced their latest findings—and for highly specialised workloads, quantum annealing does appear to offer a truly sensational performance boost. For an optimisation problem involving 945 binary variables, the D-Wave X2 is up to 100 million times faster (108) than the same problem running on a single-core classical (conventional) computer.
Google and NASA also compared the D-Wave X2’s quantum annealing against Quantum Monte Carlo, an algorithm that emulates quantum tunnelling on a conventional computer. Again, a speed-up of up to 108 was seen in some cases.”

enter image description here


Hartmut Neven, the head of Google’s Quantum Artificial Intelligence lab, said these results are “intriguing and very encouraging” but that there’s still “more work ahead to turn quantum enhanced optimization into a practical technology.”
As always, it’s important to note that D-Wave’s computers are not capable of universal computing: they are only useful for a small number of very specific tasks—and Google, NASA, and others are currently trying to work out what those tasks might be. D-Wave’s claim of “over 1,000 qubits” is also unclear. In the past, several physical qubits were clustered to create a single computational qubit, and D-Wave doesn’t make that distinction clear.

Scientists explain origin of heavy elements in the Universe

Scientists explain origin of heavy elements in the Universe (new.huji.ac.il)
Scientists explain origin of heavy elements in the Universe
In a letter published in the prestigious journal Nature Physics, a team of scientists from The Hebrew University of Jerusalem suggests a solution to the Galactic radioactive plutonium puzzle.
All the Plutonium used on Earth is artificially produced in nuclear reactors. Still, it turns out that it is also produced in nature.
“The origin of heavy elements produced in nature through rapid neutron capture (‘r-process’) by seed nuclei is one of the current nucleosynthesis mysteries,” Dr. Kenta Hotokezaka, Prof. Tsvi Piran and Prof. Michael Paul from the Racah Institute of Physics at the Hebrew University of Jerusalem said in their letter.
Plutonium is a radioactive element. Its longest-lived isotope is plutonium-244 with a lifetime of 120 million years.
Detection of plutonium-244 in nature would imply that the element was synthesized in astrophysical phenomena not so long ago (at least in Galactic time scales) and hence its origin cannot be too far from us.
Several years ago it was discovered that the early Solar system contained a significant amount of plutonium-244. Considering its short-lived cycle, plutonium-244 that existed over four billion years ago when Earth formed has long since decayed but its daughter elements have been detected.
But recent measurements of the deposition of plutonium-244, including analysis of Galactic debris that fell to Earth and settled in deep sea, suggest that only very small amount of plutonium has reached Earth from outer space over the recent 100 million years. This is in striking contradiction to its presence at the time when the Solar system was formed, and that is why the Galactic radioactive plutonium remained a puzzle.
The Hebrew University team of scientists have shown that these contradicting observations can be reconciled if the source of radioactive plutonium (as well as other rare elements, such as gold and uranium) is in mergers of binary neutron stars. These mergers are extremely rare events but are expected to produce large amounts of heavy elements.
The model implies that such a merger took place accidentally in the vicinity of our Solar System within less than a hundred million years before it was born. This has led to the relatively large amount of plutonium-244 observed in the early Solar system.
On the other hand, the relatively small amount of plutonium-244 reaching Earth from interstellar space today is simply accounted for by the rarity of these events. Such an event hasn’t occurred in the last 100 million years in the vicinity of our Solar system.

Computing with time travel

Computing with time travel
Computing with time travel
Why send a message back in time, but lock it so that no one can ever read the contents? Because it may be the key to solving currently intractable problems. That’s the claim of an international collaboration who have just published a paper in npj Quantum Information.
It turns out that an unopened message can be exceedingly useful. This is true if the experimenter entangles the message with some other system in the laboratory before sending it. Entanglement, a strange effect only possible in the realm of quantum physics, creates correlations between the time-travelling message and the laboratory system. These correlations can fuel a quantum computation.
Around ten years ago researcher Dave Bacon, now at Google, showed that a time-travelling quantum computer could quickly solve a group of problems, known as NP-complete, which mathematicians have lumped together as being hard.
The problem was, Bacon’s quantum computer was travelling around ‘closed timelike curves’. These are paths through the fabric of spacetime that loop back on themselves. General relativity allows such paths to exist through contortions in spacetime known as wormholes.
Physicists argue something must stop such opportunities arising because it would threaten ‘causality’ – in the classic example, someone could travel back in time and kill their grandfather, negating their own existence.
And it’s not only family ties that are threatened. Breaking the causal flow of time has consequences for quantum physics too. Over the past two decades, researchers have shown that foundational principles of quantum physics break in the presence of closed timelike curves: you can beat the uncertainty principle, an inherent fuzziness of quantum properties, and the no-cloning theorem, which says quantum states can’t be copied.
However, the new work shows that a quantum computer can solve insoluble problems even if it is travelling along “open timelike curves”, which don’t create causality problems. That’s because they don’t allow direct interaction with anything in the object’s own past: the time travelling particles (or data they contain) never interact with themselves. Nevertheless, the strange quantum properties that permit “impossible” computations are left intact. “We avoid ‘classical’ paradoxes, like the grandfathers paradox, but you still get all these weird results,” says Mile Gu, who led the work.
Gu is at the Centre for Quantum Technologies (CQT) at the National University of Singapore and Tsinghua University in Beijing. His eight other coauthors come from these institutions, the University of Oxford, UK, Australian National University in Canberra, the University of Queensland in St Lucia, Australia, and QKD Corp in Toronto, Canada.
“Whenever we present the idea, people say no way can this have an effect” says Jayne Thompson, a co-author at CQT. But it does: quantum particles sent on a timeloop could gain super computational power, even though the particles never interact with anything in the past. “The reason there is an effect is because some information is stored in the entangling correlations: this is what we’re harnessing,” Thompson says.
There is a caveat – not all physicists think that these open timeline curves are any more likely to be realisable in the physical universe than the closed ones. One argument against closed timelike curves is that no-one from the future has ever visited us. That argument, at least, doesn’t apply to the open kind, because any messages from the future would be locked.

Provided by: National University of Singapore

A fundamental quantum physics problem has been proved unsolvable

A fundamental quantum physics problem has been proved unsolvable
A fundamental quantum physics problem has been proved unsolvable
For the first time a major physics problem has been proved unsolvable, meaning that no matter how accurately a material is mathematically described on a microscopic level, there will not be enough information to predict its macroscopic behaviour.
The research, by an international team of scientists from UCL, the Technical University of Music and the Universidad Complutense de Madrid – ICMAT, concerns the spectral gap, a term for the energy required for an electron to transition from a low-energy state to an excited state.
Spectral gaps are a key property in semiconductors, among a multitude of other materials, in particular those with superconducting properties. It was thought that it was possible to determine if a material is superconductive by extrapolating from a complete enough microscopic description of it, however this study has shown that determining whether a material has a spectral gap is what is known as “an undecidable question”.
“Alan Turing is famous for his role in cracking the Enigma, but amongst mathematicians and computer scientists, he is even more famous for proving that certain mathematical questions are `undecidable’ – they are neither true nor false, but are beyond the reach of mathematics code,” said co-author Dr Toby Cubitt, from UCL Computer Science.
“What we’ve shown is that the spectral gap is one of these undecidable problems. This means a general method to determine whether matter described by quantum mechanics has a spectral gap, or not, cannot exist. Which limits the extent to which we can predict the behaviour of quantum materials, and potentially even fundamental particle physics.”

enter image description here


The research, which was published today in the journal Nature, used complex mathematics to determine the undecidable nature of the spectral gap, which they say they have demonstrated in two ways:
“The spectral gap problem is algorithmically undecidable: there cannot exist any algorithm which, given a description of the local interactions, determines whether the resulting model is gapped or gapless,” wrote the researchers in the journal paper.
“The spectral gap problem is axiomatically independent: given any consistent recursive axiomatisation of mathematics, there exist particular quantum many-body Hamiltonians for which the presence or absence of the spectral gap is not determined by the axioms of mathematics.”
In other words, no algorithm can determine the spectral gap, and no matter how the maths is broken down, information about energy of the system does not confirm its presence.

enter image description here


The research has profound implications for the field, not least for the Clay Mathematics Institute’s infamous $1m prize to prove whether the standard model of particular physics, which underpins the behaviour of the most basic particulars of matter, has a spectral gap using standard model equations.
“It’s possible for particular cases of a problem to be solvable even when the general problem is undecidable, so someone may yet win the coveted $1m prize. But our results do raise the prospect that some of these big open problems in theoretical physics could be provably unsolvable,” said Cubitt.
“We knew about the possibility of problems that are undecidable in principle since the works of Turing and Gödel in the 1930s,” agreed co-author Professor Michael Wolf, from the Technical University of Munich.
“So far, however, this only concerned the very abstract corners of theoretical computer science and mathematical logic. No one had seriously contemplated this as a possibility right in the heart of theoretical physics before. But our results change this picture. From a more philosophical perspective, they also challenge the reductionists’ point of view, as the insurmountable difficulty lies precisely in the derivation of macroscopic properties from a microscopic description.”
“It’s not all bad news, though,” added Professor David Pérez-García, from the Universidad Complutense de Madrid and ICMAT. “The reason this problem is impossible to solve in general is because models at this level exhibit extremely bizarre behaviour that essentially defeats any attempt to analyse them.
“But this bizarre behaviour also predicts some new and very weird physics that hasn’t been seen before. For example, our results show that adding even a single particle to a lump of matter, however large, could in principle dramatically change its properties. New physics like this is often later exploited in technology.”

sábado, 11 de abril de 2015

La teoría de la relatividad especial, explicada de manera sencilla

La teoría de la relatividad especial, explicada de manera sencilla

La teoría de la relatividad especial, explicada de manera sencilla

La teoría de la relatividad especial, formulada por Albert Einstein en 1905, constituye uno de los avances científicos más importantes de la historia. Alteró nuestra manera de concebir el espacio, la energía, el tiempo y tuvo incluso repercusiones filosóficas, eliminando la posibilidad de un espacio/tiempo absoluto en el universo.

Se complementa con la teoría de la relatividad general, publicada en 1915, algo más compleja y que pretende aunar la dinámica newtoniana con parte de las consecuencias de la primera teoría especial.

Con la teoría de la relatividad especial, la humanidad entendió que lo que hasta ahora había dado por sentado que era una constante, el tiempo, era en realidad una variable. No sólo eso, sino que el espacio también lo era y que ambos dependían, en una nueva conjunción espacio-tiempo, de la velocidad.

Luis Álvarez-Gaumé, director del grupo de física teórica del CERN, nos explica en conversación telefónica:

Lo más importante es entender cómo el tiempo depende, en realidad, del movimiento, de la velocidad. Eso fue lo que lo cambió todo.

Einstein se basó a su vez en dos hipótesis:

  1. Las leyes de la física son las mismas mientras el sistema de referencia sea el mismo e inercial. Esto es, ambos se mueven a una velocidad constante. Si una ley se cumple en un sistema, también se debe cumplir en el otro.
  2. La velocidad de la luz es una constante universal, que se define como c. Que era constante lo habían demostrado algunos años antes otros dos grandes científicos, Michelson y Morley.

Pero para llegar al famoso E = mcantes tenemos que entender dos conceptos muy importantes: por un lado qué es exactamente la relatividad y por otro lado entender el espacio-tiempo y cómo define lo que se conoce como líneas de universo. Por último, aunque no deduciremos los pasos matemáticos necesarios para llegar hasta la ecuación, veremos las consecuencias que tiene y cómo se relaciona dentro de la teoría de la relatividad general. Vamos allá.

Qué es la relatividad

La situación que imaginó Einstein ha sido usada y explicada hasta la saciedad en escuelas y libros de física. Imaginemos un tren y a dos individuos, uno de ellos está montado en el mismo y otro lo ve pasar a toda velocidad desde el borde de la vía. El tren se mueve a 200 kilómetros por hora.

Un momento, ¿se mueve? ¿seguro? Sí y no al mismo tiempo. Para la persona que va sentada dentro el tren no se mueve, está quieto. Sólo se mueve para la persona que está al borde de la vía. Es algo, efectivamente, relativo.

Einstein luego imaginó que alguien tira una pelota a 20 kilómetros por hora hacia delante dentro del tren. Para la persona que está dentro la pelota se mueve a esa velocidad pero para la persona que está abajo esa pelota se mueve , sin embargo, a 220 (200+20) kilómetros por hora.

Ahí es cuando toca recordar que la velocidad de la luz es constante, y es cuando empezamos a entender que algo no encaja del todo con el concepto de que el tiempo también lo sea. Puesto que la velocidad de la luz siempre es la misma, al volver al ejemplo del tren y la persona que está dentro si en lugar de lanzar una pelota enciende una linterna proyectando un haz de luz hacia delante, la persona que está abajo no ve ese haz propagarse a la velocidad de la luz+200 km/h, la ve propagarse a la velcoidad de la luz, sin más, independientemente de lo rápido o lo lento que vaya el tren porque, simplemente, es una constante.

Para entender un poco mejor el concepto veamos el siguiente ejemplo. Muestra dos fotones de luz rebotando infinitamente entre dos espejos y tomándose un tiempo x en ir de uno a otro.

La teoría de la relatividad especial, explicada de manera sencilla

La velocidad de la luz (y al contrario que el tiempo) sí es constante. Esto lo habían demostrado algunos años antes que Einstein otros dos físicos, Michelson y Morley. Teniendo en cuenta que la velocidad de la luz siempre es la misma (casi 300.000 kilómetros por segundo), veamos ahora el siguiente ejemplo.

La teoría de la relatividad especial, explicada de manera sencilla

Puesto que el primer carrito se mueve a una velocidad constante, desde nuestro punto de vista el fotón tiene que recorrer una diagonal (más distancia) entre un espejo y otro variando el tiempo efectivo que tardar en rebotar. El tiempo, desde nuestro punto de vista estático, acaba de variar con respecto al de alguien que estuviese mirando dentro (que siempre verá como el fotón rebota de manera regular, se mueva el carrito o no).

Pero, ¿por qué no apreciamos la distorsión del tiempo en la vida diaria? Básicamente, porque las distorsiones sólo se producen en velocidades cercanas a las de la luz. Como referencia, el artefacto más rápido construido jamás por el hombre, las sondas Helios, siguen siendo 15.000 veces más lentas que la velocidad de la luz. Es el equivalente a si sobre una tortuga caminando lentamente sobre la superficie de la tierra pasase en vuelo rasante un avión supersónico. Con un avión supersónico moviéndose a 2470 kilómetros por hora, que para nosotros es ya una velocidad considerable el tiempo se alarga con un factor de 1,000000000002. Es muy pequeño. Si viajásemos durante un año nuestro tiempo se alargaría 0,000063 y aún cuando pasásemos 50 años metidos en él volando a esa velocidad, el tiempo se habría alargado sólo 0,0032 segundos.

Viajar en el tiempo es posible, te explicamos cómo

Viajar en el tiempo ha sido una de las fantasías del ser humano por siglos. Es una tendencia…Seguir leyendo

Sabiendo entonces que el tiempo no es una constante, sino que depende de la velocidad, aparece la paradoja de los dos gemelos. Narra el hipotético caso de dos gemelos, uno que pasa 10 años viajando en el espacio a altas velocidades (la mitad de la luz, 150.000 km/s, por ejemplo) y otro que se queda en la tierra. Después de ese tiempo, el gemelo astronauta vuelve a la tierra y comprueba que, puesto que el tiempo ha pasado de manera distinta y ha sido más lento para él, su hermano es casi una década más viejo. ¿Ha vivido más? ¿Son los viajes a altas velocidades una fuente de eterna juventud? No, sólo ha vivido menos porque el tiempo ha pasado más lento para él, ha pensado menos, ha crecido menos y ha madurado menos. Lo único que ha ocurrido es que el tiempo ha pasado más despacio.

Lo curioso de todo, es que el observador no tiene manera de saber si se está moviendo o no si no tiene un sistema contra el que compararse. Estamos hablando de trenes, de hecho, mientras la Tierra se mueve a toda velocidad por la Vía Láctea, y con ella el universo. La realidad es que ahora mismo, aunque estés leyendo esto sentado o tumbado, estás de todo menos "quieto".

El espacio-tiempo

En palabras de Luis Álvarez Gaumé:

La revolución de la teoría de la relatividad es que crea un cono de luz, tanto hacia delante en el tiempo, como hacia detrás. Puesto que lo que define los límites de ese cono es la velocidad de la luz y ninguna partícula puede superarla, nada de lo que ocurra puede estar fuera de los límites del mismo.

Este es el cono

La teoría de la relatividad especial, explicada de manera sencilla

Ese cono describe al observador moviéndose por la hipersuperficie que es el presente. Hacia "arriba" quedan los eventos del futuro, lo que va a ocurrir. Cualquier posibilidad o hecho tiene que ocurrir dentro de ese cono. Hacia abajo quedan los eventos que te han ocurrido.

Añade Gaumé: " Y cuidado, no es que no "ocurran" cosas fuera de ese cono, sí ocurren, sólo que no pueden afectarte. Para que pudiesen afectarte tienen que superar la velocidad de luz. El cono es independiente de la velocidad de movimiento del observador. Eso es lo que fuerza a que el tiempo dependa del estado del movimiento".

El cono delimita eventos que puedan tener efecto sobre otros. La línea del universo es la unión de la infinidad de puntos correspondientes a todos lo que ha ocurrido en tu vida. Siempre dentro del cono.

E = mc2

E = mc2 se llega a raíz de una serie de ecuaciones que, debido al carácter más accesible de este post, no tiene sentido explicar aquí aunque para quien tenga conocimientos medios de física y matemática hay una explicación bastante buena aquí. Para llegar hasta la ecuación hace falta tener en cuenta dos leyes importantes:

  • Ley de conservación del momento lineal: qué básicamente quiere decir que cuando dos objetos entran en colisión a distinta velocidad (y por tanto diferente momento lineal) la resultante de la suma de ambos objetos ha de tener el mismo valor antes y después.
  • La famosa ley de conservación de la energía: La energía ni se crea ni se destruye, sólo se transforma. Cambia de una forma de energía a otra.

Lo verdaderamente interesante de la ecuación es que relaciona de manera directa masa y energía. Son transformables. Y hasta Einstein nadie se había dado cuenta y se pensaba que eran cosas independientes.

Explicándolo un poco mejor: pongamos por ejemplo un tronco de leña quemándose en una chimenea. Una vez se ha quemado si sumamos la masa correspondiente a todas las cenizas más los gases que ha emitido, apreciaríamos que que la masa total ha disminuido, aunque sea minúscula. Esa masa es la que se ha transformado en energía, el calor de la combustión.

En el caso de la leña no es muy eficiente, pero en el caso de las centrales nucleares, por ejemplo, es mucho mayor y por eso la utilizamos para la producción de energía.

Aunque ya es carne de otro post, la manera en la que energía, masa y espacio-tiempo se relacionan es lo que se conoce como Teoría de la Relatividad General. Y ahí es donde entra en juego la gravedad. Sin embargo, la teoría de la relatividad considera que los efectos gravitatorios no son creados por fuerza alguna, sino que encuentran su causa en la curvatura del espacio-tiempo generada por la presencia de materia. Cuando la gravedad aumenta de manera brutal, como ocurre en los agujeros negros, es cuando se producen esas curvaturas extremas que pueden apreciarse en películas como Interstellar.

Imagen: Roland IJdema/Shutterstock

12 formas en las que la humanidad podría destruir todo el Sistema Solar

12 formas en las que la humanidad podría destruir todo el Sistema Solar

12 formas en las que la humanidad podría destruir todo el Sistema Solar

Los seres humanos estamos haciendo un excelente trabajo destruyendo nuestro propio planeta poco a poco, pero ¿quién dice que no podemos salir y destruir cosas en otros lugares. A continuación, y sin un orden particular, os presentamos 12 formas no intencionadas en las que también podríamos ocasionar serios daños en el Sistema Solar.

Huelga decir que todo esto contiene altas dosis de especulación y ciencia-ficción.

Un desastre en un acelerador de partículas

12 formas en las que la humanidad podría destruir todo el Sistema Solar

Antes de que el CERN construyera el gran acelerador de partículas, algunos científicos expresaron su preocupación sobre la posibilidad de que las colisiones produjeran reacciones adversas como burbujas de vacío, monopolos magnéticos, agujeros negros microscópicos o anomalías como los strangelets de materia extraña, una forma hipotética de materia similar a la que conocemos, pero que incorpora también quarks y que, al chocar con materia normal, también la convierte en materia extraña.

Las quejas, por supuesto, fueron enterradas por la comunidad científica, que las calificó como basura y rumores extendidos por personas sin cualificar en busca de simple publicidad. Un informe publicado en 2011 llegó a la conclusión que las colisiones no suponían ningún riesgo.

Anders Sandberg es un investigador que trabaja en el Instituto para el Futuro de la Humanidad, una institución mucho más seria de lo que apunta su nombre que forma parte de la Universidad de Oxford. Sandberg está de acuerdo en que un accidente en el LHC es muy improbable, pero si tomamos el ejemplo de los strangelets como cierto, su liberación sería catastrófica.

Convertir incluso un planeta tan pequeño como Marte en materia extraña liberaría una fracción de la masa como energía (y probablemente otros strangelets). Asumiendo un índice de conversión en un plazo de una hora y con una conversión de masa de solo el 0,1%, la radiación resultante sería 42 millones de veces la del Sol. La mayor parte de esta radiación serían rayos gamma.

¡Ouch! Obviamente, el LHC es incapaz de producir materia extraña, pero futuros experimentos en la Tierra o en el espacio podrían tener éxito. Se especula, por ejemplo, con que el núcleo de las estrellas de neutrones está formado por materia extraña a altísimas presiones. Si logramos recrear esa materia de repente, sería un final realmente rápido. Foto: The Core

Un proyecto de ingeniería estelar que sale horriblemente mal

12 formas en las que la humanidad podría destruir todo el Sistema Solar

Algunos futurólogos especulan con que los seres humanos (o sus descendientes) podrían decidir realizar experimentos de ingeniería estelar. En su obra Interstellar Migration and the Human Experience David Criswell de la Universidad de Houston describe estos experimentos como intentos por controlar la evolución o las propiedades de las estrellas. Entre esos intentos podría estar el tratar de prolongar su vida, extraer material de la estrella o crear nuevas estrellas. En teoría, si se pudiera extraer masa de una estrella, se podría hacer que esta se consumiera más despacio.

El potencial de catástrofe de estas operaciones es bastante elevado. La ingeniería estelar podría producir efectos en cascada incontrolables. Por ejemplo, extraer masa del sol podría desencadenar destellos solares imprevistos y peligrosos, o incluso reducir tanto su luminosidad que supusiera un riesgo para la vida. Asimismo, podría alterar las órbitas del resto de planetas (ver más abajo). Foto: NASA / JPL

Un intento fallido de convertir Júpiter en una estrella

12 formas en las que la humanidad podría destruir todo el Sistema Solar

No es la primera vez que se piensa en la posibilidad de convertir Júpiter en una especie de estrella artificial, pero ello podría destruir el planeta y, de paso, la vida en la Tierra.

El astrofísico Martin Fogg propuso en la publicación Journal of the British Interplanetary Society que convertir Júpiter en una estrella podría ser el primer paso para hacer habitables sus satélites. Para ello solo (casi nada) habría que generar un pequeño agujero negro cuidadosamente creado para que no se saliese de los límites de Eddington (un punto de equilibrio entre la radiación y la gravedad). Según Fogg, esto crearía suficiente energía como para calentar Europa y Ganímedes a niveles de La Tierra y Marte respectivamente.

Suena bien, pero no hay manera de saber hasta qué punto se mantendría el equilibrio. Como explica Sandberg, si el agujero negro crece y eventualmente absorbe Júpiter, la radiación resultante esterilizaría completamente el sistema Solar. Eso por no mencionar que en lugar de Júpiter iba a quedar un agujero negro. El vecindario iba a quedar un poco estropeado.

Manipular la dinámica orbital de los planetas

12 formas en las que la humanidad podría destruir todo el Sistema Solar

Empezar a enredar con la localización o masa de los planetas o demás objetos del Sistema Solar puede hacer que se desequilibre el delicado equilibrio entre las órbitas.

Aunque sorprenda, las dinámicas orbitales de nuestro Sistema Solar son muy frágiles. Se estima que hasta la más mínima perturbación puede alterar estas órbitas de forma caótica y potencialmente peligrosa. La razón de esto es que los planetas están sujetos a resonanciasdebido a la periodicidad con la que interactúan. Neptuno y Plutón, por ejemplo, tienen una resonancia orbital de 3:2. Plutón completa dos vueltas en el tiempo en el que Neptuno completa 3. Los encuentros cercanos y regulares pueden acabar con un objeto menor expulsado fuera de su órbita original e incluso del Sistema Solar.

En un futuro lejano estas resonancias caóticas podrían ocurrir de manera natural, o podríamos causarlas experimentando con ingeniería estelar, con la idea de mover Marte a una zona habitable, o tratando de construir una esfera de Dyson con materiales de Mercurio y Venus.Ilustración: Hagai Perets.

Proponen un nuevo tipo de esfera de Dyson prácticamente indetectable

La esfera de Dyson es uno de los conceptos más fascinantes de la física y la ciencia ficción. ¿Y si …Seguir leyendo

Maniobrar torpemente un motor Warp

12 formas en las que la humanidad podría destruir todo el Sistema Solar

Una nave con un motor Warp sería algo asombroso, sí, pero también supondría un peligro enorme por las energías a las que se vería sometido el punto de destino.

Conocido también como motor de Alcubierre, un motor warp funcionaría generando una burbuja de energía negativa a su alrededor, expandiendo el espacio y el tiempo detrás de la nave y reduciéndolo delante para viajar más rápido que la luz. Sin embargo, esta burbuja tiene tambien el potencial de hacer mucho daño. En 2012, un equipo calculó lo que un motor Warp podría hacer y lo publicó en la revista Universe Today. Jason Mayor lo explica así:

El espacio no es solo un vacío entre el punto A y el punto B. En realidad está lleno de partículas que tienen masa y otras que no. Lo que el equipo de investigadores ha descubierto es que estas partículas pueden ser atraídas por la burbuja y arrastradas delante y detrás de ella.

Cuando el motor de Alcubierre decelere a velocidades inferiores a la de la luz, las partículas son liberadas en haces de energía. Las de la parte delantera pueden ser muy potentes, lo bastante como para destruir cualquier objeto directamente delante de la nave.El estudio concluye que cualquier objeto o seres delante de la nave a su llegada serían simplemente destruidos por un haz de radiación gamma y partículas de alta energía.

El estudio añade que, incluso en viajes cortos, la energía que se libera es suficiente como para destruir cualquier objeto delante de la nave, y con cualquier objeto se refieren también a planetas enteros. Como la acumulación de energía depende de la longitud del viaje, no existe límite potencial a la descarga de partículas. Imagen: Mark Rdemaker.

Un accidente con un agujero negro artificial

12 formas en las que la humanidad podría destruir todo el Sistema Solar

Usar agujeros negros de gusano para realizar viajes interestelares suena bien en teoría, pero debemos ser muy cuidadosos antes de abrir un agujero en el tejido del espacio tiempo. En 2005, el físico nuclear iraní Mohammad Mansouryar diseñó una forma de crear un agujero de gusano transitable. Su teoría explicaba que si se creaban las suficientes partículas de materia extraña se podía crear una de estas singularidades. Andreas Sandberg apunta algunos de los inconvenientes graves de esta teoría.

En primer lugar, los agujeros de gusano necesitan una relación masa-energía equivalente a la de un agujero negro del mismo tamaño. En segundo lugar, los bucles temporales podrían causar que las partículas virtuales se vuelvan reales y causen un efecto cascada en el agujero, lo que no sería nada bueno para lo que haya en las inmediaciones. Por último, pon uno de los extremos cerca de una estrella y puedes destruirla, vaciando toda su radiación en otra región del espacio y aniquilando cualquier forma de vida que pueda haber en un sistema como el nuestro.

Un error catastrófico de navegación en un sistema Shkadov

12 formas en las que la humanidad podría destruir todo el Sistema Solar

¿Y si nos da por cambiar de sitio todo nuestro Sistema Solar en el futuro? El traslado podría saldarse con su completa destrucción.

En 1987, el físico ruso Leonid Shkadow formuló un concepto de megaestructura conocido como impulsor de Shkadow o sistema Shkadow. Se trata de un dispositivo capaz de mover de su sitio una estrella con todo lo que orbita alrededor de ella. Adam Hadhazy explica su funcionamiento en Popular Mechanics:

El impulsor de Shkadow es simple en teoría. Se trata de un espejo curvado colosal con su lado cóncavo apuntando al Sol desde una posición donde su atracción gravitatoria se compense con la presión ejercida por su radiación. El espejo se convierte en un satélite estable en equilibrio. La radiación reflejada por el espejo es capaz de mover la estrella lentamente. ¡Voilá! La humanidad ya está lista para viajar a lo grande.

¿Qué puede fallar, verdad? Un simple fallo de cálculo y podemos enviar el Sol a cualquier lugar o hacerlo chocar con otra estrella. La idea de mover todo un sistema solar implica que deberíamos ser capaces de mover también objetos para evitar causar un caos de proporciones estelares, con estrellas, planetas y cometas volando sin control en todas direcciones. Imagen: Steve Bowers.

Atraer alienígenas con malas intenciones

12 formas en las que la humanidad podría destruir todo el Sistema Solar

Si el programa SETI continua su andadura, seguiremos transmitiendo mensajes al espacio con la esperanza de que alguien los capte porque, ya sabes, todos los extraterrestres son buenas personas y todo eso. Foto: Mars Attacks.

El retorno de sondas modificadas von Neumann

12 formas en las que la humanidad podría destruir todo el Sistema Solar

Digamos que enviamos una flota de sondas Von Neumann capaces de autoreplicarse para colonizar la galaxia. Dependiendo de cómo estén de bien (o de mal) programadas y de su capacidad para adaptarse y evolucionar, es posible que regresen con intenciones menos sanas de las que tenían al partir. Eventualmente, podrían adquirir capacidades incluso superiores a las de nuestra civilización.

Un desastre interplanetario de plaga gris

En parte este desastre es similar al de las sondas von Neumann. La amenaza proviene en este caso de un ejército de nanobots capaces de autoreplicarse. La hipótesis se conoce como la plaga gris y apunta a una imparable legión de diminutos nanobots programados para consumir materia y replicarse casi como un virus. Podrían generarse en un planeta y escapar al espacio o incluso nacer como parte de un proyecto espacial fuera de control. Sea como sea, podrían extenderse por el Sistema Solar y consumir todos los recursos a su alcance.

Una superinteligencia fuera de control

12 formas en las que la humanidad podría destruir todo el Sistema Solar

Si ya jugamos con la hipótesis de que una inteligencia artificial decida acabar con la especie humana, ¿Por qué va a detenerse ahí? Podría perfectamente extender sus dominios por el Sistema Solar y más allá.

Existe un escenario hipotético conocido como Paperclip que resulta tan humorístico como inquietante, y es que una inteligencia artificial mal programada decida convertir todo lo que encuentra a su alcance en clips para sujetar papel. Es solo un ejemplo que remarca la urgencia de manejar la inteligencia artificial con mucho cuidado. Es dudoso que una IA fuera de control decida convertirlo todo en clips hasta la náusea, pero podría querer usar toda la materia a su alcsance para fabricar chips con los que mejorar su rendimiento. Ese imperativo podría trascender nuestro planeta y abarcar algo como toda la galaxia. Imagen:Stevebidmead/Pixabay/CC

Haciendo que el Sistema Solar no importe

12 formas en las que la humanidad podría destruir todo el Sistema Solar

¿Cómo conseguir que el Sistema Solar no sea más que una mota sin importancia en el universo? Muy sencillo, provocando nuestra total extinción. Foto: Udra11 / Shutterstock.