lunes, 6 de septiembre de 2010

¿Cuánta masa crea un agujero negro?

¿Cuánta masa crea un agujero negro?: "

Magnetar en westerlund 1Utilizando el Telescopio Muy Grande (VLT) de ESO en el norte Chile, astrónomos europeos han demostrado por primera vez que un magnetar – un inusual tipo de estrella de neutrones – se formó a partir de una estrella de al menos 40 veces la masa del Sol. El resultado desafía las actuales teorías sobre evolución estelar pues se esperaba que una estrella tan masiva como ésta se convirtiera en un agujero negro, no en un magnetar. Esto genera una pregunta fundamental: ¿cómo de masiva tiene que ser realmente una estrella para convertirse en un agujero negro?



Para llegar a estas conclusiones, los astrónomos miraron en detalle el extraordinario cúmulo estelar Westerlund 1, ubicado a 16 000 años-luz de distancia, en la austral constelación de Ara (el Altar). A partir de estudios anteriores, los astrónomos sabían que Westerlund 1 es el súpercúmulo de estrellas más cercano conocido, con cientos de estrellas muy masivas en su interior – algunas que brillan con un resplandor similar a casi un millón de soles – y una extensión de unas doscientas veces el diámetro del Sol (similar a la órbita de Saturno).


“Si el Sol estuviese ubicado en el corazón de este notable cúmulo, nuestro cielo nocturno estaría lleno de cientos de estrellas tan brillantes como la Luna llena”, dice Ben Ritchie, autor principal del artículo que presenta estos resultados.


Westerlund 1 es un fantástico zoológico estelar, con una población de estrellas diversa y exótica. Las estrellas del cúmulo tienen algo en común: todas alcanzan la misma edad, estimada en entre 3,5 y 5 millones de años, debido a que el cúmulo se creó en un solo evento de formación estelar.


Un magnetar es un tipo de estrella de neutrones con un campo magnético tremendamente fuerte – 1015 veces más fuerte que el de la Tierra-, que se forma cuando ciertas estrellas explotan como supernovas. El cúmulo Westerlund 1 alberga uno de los pocos magnetares conocidos en la Vía Láctea. Gracias a que se encuentra en el cúmulo, los astrónomos pudieron llegar a la notable deducción de que este magnetar debe haberse formado a partir de una estrella al menos 40 veces más masiva que el Sol.


Como todas las estrellas en Westerlund 1 tienen la misma edad, la estrella que explotó y dejó un remanente de magnetar debió tener una vida más corta que las estrellas sobrevivientes en el cúmulo. “Como el tiempo de vida de una estrella está directamente relacionado a su masa –mientras más masiva sea una estrella, más corta será su vida-, si podemos medir la masa de cualquier estrella sobreviviente sabremos con seguridad que la estrella de vida más corta que se convirtió en el magnetar debió ser incluso más masiva”, dice el coautor y líder del equipo Simon Clark. “Esto tiene gran importancia pues no existe una teoría aceptada sobre cómo se formaron estos objetos extremadamente magnéticos”.


Los astrónomos, por tanto, estudiaron las estrellas que pertenecen al sistema doble eclipsado W13 en Westerlund 1, utilizando el hecho de que en un sistema como éste las masas pueden ser calculadas directamente a partir del movimiento de las estrellas.


Al comparar con estas estrellas, descubrieron que la estrella que se convirtió en un magnetar debió tener al menos 40 veces la masa del Sol. Esto prueba por primera vez que los magnetares pueden desarrollarse a partir de estrellas que, por su gran masa, se esperaría que formen agujeros negros. Hasta ahora se suponía que las estrellas con masas iniciales de entre 10 y 25 masas solares se convertían en estrellas de neutrones, mientras que aquéllas sobre 25 masas solares producían agujeros negros.


“Estas estrellas deben deshacerse de más de 9 décimos de su masa antes de explotar como supernova, o de otra forma crearían un agujero negro”, dice el coautor Ignacio Negueruela. “Pérdidas de masa tan enormes antes de la explosión presentan grandes desafíos a las actuales teorías de evolución estelar”.


“Esto genera la inquietante pregunta de cuán masiva tiene que ser una estrella para colapsar y formar un agujero negro, si estrellas que son más de 40 veces más masivas que nuestro Sol no pueden conseguir esta proeza”, concluye el coautor Norbert Langer.


El mecanismo de formación preferido por los autores de este estudio postula que la estrella que se convirtió en magnetar – la progenitora – nació con una compañera estelar. A medida que ambas estrellas se fueron desarrollando, comenzaron a interactuar, consumiendo la energía derivada del movimiento orbital en eyectar grandes cantidades de masa desde la estrella progenitora. Si bien la compañera no es actualmente visible en la zona del magnetar, ello puede deberse a que la supernova que formó el magnetar provocó el quiebre del sistema binario, eyectando a ambas estrellas a alta velocidad desde el cúmulo.


“Si este es el caso, los sistemas binarios jugarían un rol clave en la evolución estelar, provocando pérdidas de masa – una “dieta” cósmica perfecta para estrellas de gran peso, que permite perder hasta un 95% de la masa inicial”, concluye Clark.



Artículo de Referencia

Fecha Original: 18 de agosto de 2010

Enlace Original


This page is wiki editable click here to edit this page.



"

Fluctuaciones solares provocaron un colapso parcial de la atmósfera terrestre

Fluctuaciones solares provocaron un colapso parcial de la atmósfera terrestre: "

Capas de la atmósfera superiorCuando la energía del Sol sube y baja, también lo hace la atmósfera, según sugiere un nuevo estudio.


Estas fluctuaciones en la energía del Sol explican un reciente colapso parcial en la atmósfera superior de la Tierra, el cual había desconcertado anteriormente a los científicos.



Una severa bajada en los niveles de radiación ultravioleta del Sol ha disparado el colapso, de acuerdo con un nuevo estudio, detallado en la edición del 25 de agosto de la revista Geophysical Research Letters. Los investigadores también encontraron que el ciclo magnético del Sol, que produce distintos números de manchas solares a lo largo de un ciclo de 11 años, puede variar más de lo que anteriormente se pensaba.


“Nuestro trabajo demuestra que el ciclo solar no sólo varía en la escala temporal típica del ciclo de 11 años, sino que también varía de un mínimo solar a otro”, dijo el miembro del equipo del estudio Stanley Solomon del Centro Nacional de Investigación Atmosférica (NCAR) en Boulder, Colorado. “Todos los mínimos solares no son iguales”.


Los hallazgos pueden tener implicaciones para los satélites en órbita, así como para la Estación Espacial Internacional.


Durante un colapso, el hecho de que la capa de la atmósfera conocida como termosfera disminuya y se haga menos densa, significa que los satélites pueden mantenerse con más facilidad en su órbita. Pero también significa que los escombros espaciales y otros objetos que suponen una amenaza pueden persistir más tiempo en la termosfera.


“Con una menor densidad atmosférica, nuestros satélites tendrán una vida mayor en órbita”, dijo el miembro del estudio Thomas Woods de la Universidad de Colorado en Boulder. “Estas son buenas noticias para nuestros satélites que están operando actualmente, pero también malas noticias debido a los miles de objetos no operativos que quedan en el espacio, y que podrían potencialmente tener colisiones con los satélites en funcionamiento”.


Un cambio mayor de lo esperado


Recientemente, la actividad solar estaba en un mínimo extremadamente bajo. En 2008 y 2009, las manchas solares eran escasas, las llamaradas solares casi inexistentes, y la luz ultravioleta extrema solar (EUV) – una clase de fotones con longitudes de onda extremadamente cortas – estaba al mínimo.


Durante este tiempo, la termosfera de la Tierra disminuyó más que nunca en los 43 años de era de exploración espacial.


La termosfera, que varía en altitud de 90 a 500 km, es un enrarecida capa de gas al borde del espacio, donde la radiación del Sol hace contacto con la atmósfera terrestre. Normalmente se enfría y se hace menos densa durante la actividad solar baja.


Pero la magnitud del cambio de densidad durante el reciente mínimo solar parecía ser un 30 por ciento mayor de lo esperado para esta baja actividad solar.


¿Radiación o dióxido de carbono?


Los investigadores usaron modelos por ordenador para analizar dos posibles culpables del misterio de la termosfera menguante.


Simularon tanto los impactos de las emisiones del Sol como el papel del dióxido de carbono, un potente gas invernadero que, de acuerdo a anteriores estimaciones, está reduciendo la densidad de la atmósfera exterior entre un 2 y un 5 por ciento cada década.


Sin embargo, los científicos no tienen claro si la bajada en la radiación ultravioleta extrema sería suficiente para tener un impacto tan drástico en la termosfera, incluso cuando se combina con los efectos del dióxido de carbono.


Los modelos por ordenador demostraron que la termosfera se enfrió en 2008 41 Kelvins en comparación con 1996, con apenas 2 Kelvins atribuibles al incremento de dióxido de carbono.


Los resultados demostraron que la densidad de la termosfera disminuyó un 31 por ciento, con apenas un 3 por ciento atribuible al dióxido de carbono. Los resultados se aproximaron mucho a la reducción del 30 por ciento en la densidad indicada por trabajos anteriores.


“Ahora está claro que el nuevo mínimo de temperatura y densidad fue principalmente provocado por niveles inusualmente bajos de radiación solar en el nivel del ultravioleta extremo”, señala Solomon.


Woods dice que la investigación indica que el Sol podría estar pasando por un periodo de actividad relativamente baja, similar a los periodos de principios de los siglos XIX y XX. Esto podría indicar que la emisión solar pueden mantenerse a un nivel bajo en el futuro cercano.


“Si efectivamente es similar a ciertos patrones del pasado, entonces esperamos tener ciclos solares bajos para los próximos 10 a 30 años”, señala Woods.



Autor: Plantilla de SPACE.com

Fecha Original: 26 de agosto de 2010

Enlace Original

This page is wiki editable click here to edit this page.



"

A Deepening Look at the Digital Sky

A Deepening Look at the Digital Sky: "

Sometimes as I click through imagery from spacecraft and observatories, I think about what the world was like before we had an Internet to deliver this kind of information. Consider the early surveys of the heavens, exemplified by William Herschel sweeping the sky in the late 1700s. Herschel’s survey would find a new planet, create a basic map of the Milky Way, and note the location of the ‘cloudy things’ called nebulae, many of which turned out to be galaxies in their own right. His lists and annotations would grow into the New General Catalogue, which identifies thousands of objects by the now familiar NGC numbers.



The sky is all about statistics, as Herschel saw. When you’re dealing with objects whose lifespan is far longer than a human’s, you try to understand them by looking at enough examples to see the objects at every stage of their existence. Ann Finkbeiner offers this lovely Herschel quote in her new book A Grand and Bold Thing (Free Press, 2010):


“[The heavens] are now seen to resemble a luxuriant garden, [and]…is it not the same thing, whether we live successively to witness the germination, blooming, foliage, fecundity, fading, withering, and conception of a plant, or whether a vast number of specimens, selected from every stage through which the planet passes in the course of its existence be brought at once to our view?”


And then there’s Fred Hoyle, who said, “The Universe is so vast, and the lengths of time…are so long, that almost every conceivable type of astronomical process is still going on somewhere or other.” Finkbeiner’s book is all about the Sloan Digital Sky Survey, placing it firmly in the context of earlier astronomical work while bringing home with clarity and conviction how the new tools at our disposal, from adaptive optics to light-absorbing CCDs, have changed the game. Go back to the mid-20th Century and ponder the first optical survey done with a camera, the Palomar Observatory Sky Survey done with Caltech’s 48-inch telescope on Mount Palomar.


Surveys and Their Limitations


The Palomar survey, begun in 1949, produced some four thousand glass photographic plates, and if you were going to be a thorough astronomer in that era, you would need a set of photographic prints of the plates ($14,000) or glass copies of them ($25,000). Find something odd in a radio or X-ray observation and you would take your data to the Palomar plates to see what you were detecting. With the coordinates established, you could then go to a telescope and take a spectrum of whatever you had found. Needless to say, there was no ready access to telescopes or databases of their observations through a network available in the office.


But that wasn’t the only thing wrong with the plate method. For one thing, although their resolution was excellent, the plates used grains of silver halide that darkened when exposed to light. Too much light caused the plates to saturate, sharply reducing astronomers’ ability to measure the brightness of an object. And like all photographic plates, the Palomar plates differed from each other, exposed at different times and under different conditions. The advent of CCDs meant we could start measuring light without saturation and with immediate response. Moreover, the brightness of an object could now be measured to exceedingly high levels of accuracy.


Compared to all previous methods, the beauty of a digital sky survey like the SDSS is obvious. Data go from telescopes into computer storage, from which computers everywhere can access them. But doing a digital survey was a job of mind-numbing complexity (and I’ll spare you the political and academic dimension, which Finkbeiner covers in great detail and with a whimsical verve). Here she describes what the the Sloan Digital Sky Survey was attempting to do:


The Sloan itself was a new creature, effectively a real-time robotic astronomer. The software needed to observe and record, then locate, characterize, identify, and archive. It needed to be able to handle at least a trillion bytes of data — a terabyte, a unit astronomers had never before had any cause to use — coming off the telescope at a rate of 17 gigabytes, 17 billion bytes, every hour. It needed to command the automation of the telescope and the observations so that the only people on the mountain would be a staff of professional observers to oversee and troubleshoot, and everybody else could stay home and download galaxies. It needed to take the data coming off the instruments — the camera and the spectrographs — and reduce it, that is, turn data from the CCDs into images and spectra, standardized so that the stars and galaxies and quasars all looked as though they’d been taken on the same night under the same conditions.


What changes we’ve seen. In the late 1980s, Finkbeiner writes, there were about 4500 astronomers in the US and ten large telescopes, the majority of which were private. An astronomer would make observations at such an instrument and return with plates that would be analyzed in isolation. Astronomers without private telescopes could use the National Science Foundation’s two national observatories, coping with the fact that the instruments were far oversubscribed. Even then, scientists labored without well calibrated archives. Some early Sloan participants contemplated putting their data on CDs and selling them for $20,000 per set.



Image: 2.5m dedicated SDSS telescope at Apache Point Observatory. Credit: SDSS.


Taking the Data Online


Digital networking, of course, changed the equation. Today we can take a quick trip online to the SkyServer, downloading data with abandon and the kind of ease that will have future generations wondering how earlier astronomers ever functioned with so few major instruments and such inaccessible data. Putting terabytes of data into an online gateway, though, first meant collecting the information. It was James Gunn (Princeton) who coupled the idea of using state of the art CCDs with a camera and spectrograph fed by optical fibers to take spectra of hundreds of galaxies at once. His story animates Finkbeiner’s account. Gunn’s notion just grew and grew: Let the camera and spectrograph be fixed to a telescope that can drift scan one strip of sky after another and you wind up with images and spectra of galaxies galore.


Gunn’s idea would galvanize the astronomical community. Listen to Finkbeiner as she describes the reaction of Tim Heckman (Johns Hopkins) upon reading the Sloan proposal:


…the Sloan was going to change the way astronomers without private telescopes worked: Instead of taking a couple of years writing and rewriting proposals for three clouded-out nights on a public telescope, you could just take the interesting question that occurred to you and find the data you needed in the library of the universe. And the interesting questions would not be just about large-scale structure: for every question in optical astronomy that Heckman could think of, the Sloan archive would have data. And the amount of data on each question would be orders of magnitude larger than it had ever been before.


Amazing what you can do with a 2.5-meter mirror. Amazing, too, how institutions and individuals can alternately work together and frustrate each other to the point where projects like the SDSS are brought within an inch of being canceled. Finkbeiner has the whole story, and it’s sharply etched with the personalities of its protagonists. But what a result: The SkyServer holds everything in the surveyed sky, everything available through spectra, every image in five colors, every object from star to galaxy to quasar sorted as required and available for data manipulation.


How big has the SDSS become?


By the end of 2003, Science magazine’s Breakthrough of the Year was the new standard model of the universe revealed by comparing the cosmic microwave background as measured by NASA’s WMAP satellite with the large-scale structure as mapped by Sloan. By mid-2004, Sloanies had written 400 papers, and non-Sloanies using Sloan data another 125. In August, Scot Kleinman, an Apache Point observer, went to the Fourteenth European White Dwarf Workshop in Germany and reported that nearly 40 percent of the talks mentioned the Sloan. A non-Sloanie attending an American Astronomical Society meeting said he was astounded at the way the Sloan permeated all the talks…In 2001 and 2006, of all the optical observatories — the Hubble Space Telescope included — the Sloan was the most productive; in the intervening years, no one bothered to rank observatories…. As of October 2009, 2,656 papers were based on Sloan data and were cited in other papers 100,000 times. A non-Sloanie at the Space Telescope Science Institute said that Sloan hadn’t even been on his radar, and now it was astronomy’s eight-hundred-pound gorilla.


The impact of the SDSS is undeniable, and it’s no surprise that the public impulse behind it has spawned further innovations like Google Sky, WikiSky, and the Galaxy Zoo. Sloan II followed, then Sloan III as astronomy continued to move from a solitary scientist on a mountain to group collaboration and papers with not one or two but 150 co-authors. Today large surveys like Pan-STARRS and the LSST are in the works and like the SDSS, they will be online. Astronomy has opened up, becoming more accessible for practitioner and amateur alike. What a sea-change we’ve witnessed, and the Sloan Digital Sky Survey has been in the thick of it, described in this new book with panache by a writer who knows her science as well as her verbal craft.


The book is Finkbeiner, A Grand and Bold Thing: An Extraordinary New Map of the Universe Ushering in a New Era of Discovery. New York: Free Press, 2010.


tzf_img_post




"

Podcast Irreductible 35 - Expedicion Malaspina (parte 2)

Podcast Irreductible 35 - Expedicion Malaspina (parte 2): "Tras un mes bastante ajetreado por fin puedo ofreceros la segunda parte del especial que le estoy dedicando a la Expedición Malaspina en conmemoración de los 200 años del fallecimiento del marino y explorador. (Aquí podéis encontrar la primera parte)


En la primera parte de este doble capítulo dejamos en Cádiz y listas para zarpar las dos corbetas, la Atrevida y la Descubierta, protagonistas de esta aventura de la ciencia española. Y es ahí dónde vamos a continuar en este archivo en el que viajaremos durante algo más de 5 años por las colonias españolas y en el que descubriremos el triste final de Alejandro Malaspina y de su legado.



DESCARGAR EL PODCAST:
- 65MB DESCARGA DIRECTA FORMATO .MP3
- 25MB DESCARGA DIRECTA FORMATO .OGG
- 65MB DESCARGA EN FORMATO COMPRIMIDO .ZIP
- 65MB DESCARGA MEDIANTE MEGAUPLOAD
- DESCARGA DESDE IVOOX
- DESCARGA EN OTROS FORMATOS
- DESCARGA EN iTUNES

Las Músicas utilizadas en este Podcast están bajo Licencia Creative Commons:
- Alexander Blu
- David Gay-Perret
- Roger Subirana
- DJ Fab
- Canción 'Red Castle' de 'The dada weatherman'

------------------------------------------------------
SUSCRIBETE AL PODCAST DE HISTORIA Y CIENCIA
LA ALDEA IRREDUCTIBLE



"