INICIO › FOROS › GENERAL › Lo que tú digas › Hablemos de CIENCIA
Etiquetado: ciencia, Hablemos de CIENCIA
- Este debate tiene 340 respuestas, 25 mensajes y ha sido actualizado por última vez el hace 1 mes por marea.
-
El mejor ejemplo real de la Teoría del Caos. [i]El tsunami desencadenado por el terremoto de magnitud 9 que devastó una extensa región costera en el noreste de Japón el pasado mes de marzo, se hizo notar a más de 13.000 kilómetros de distancia, en la Antártida. Las olas se propagaron por el Pacífico y su impacto provocó fracturas en la plataforma Sulzberger del continente blanco, de manera que unos grandes trozos de hielo se convirtieron en icebergs que empezaron a flotar en el mar de Ross. Lo captó el satélite Envisat de la Agencia Europea del Espacio (ESA), pero ha sido una científica de la NASA, Kelly M. Brunt, y dos colaboradores suyos, quienes han logrado relacionar ambos sucesos. Tras los análisis de los datos, estos especialistas en criosfera presentan sus resultados en la revista Journal of Glaciology.Las olas del tsunami tras el terremoto de Honshu, al llegar a la Antártida, medirían sólo unos 30 centímetros de altura (según los modelos de propagación), pero la plataforma helada que las recibió se fracturó. Se formaron grandes trozos de hielo flotantes, el mayor de unos 6,5 por 9,5 kilómetros con un grosor de unos 80 metros que se aprecian en las imágenes captadas por el radar del Envisat.
«El tsunami de Honshu cruzó el pacífico en poco más de 18 horas y afectó a la plataforma helada de Sulzberger provocando la ruptura de 125 kilómetros cuadrados de hielo en el frente de la misma, que había permanecido estable durante más de 46 años», escriben Brunt y sus colegas en Journal of Glacilogy. La llegada del tsunami a la Antártida fue registrada, por ejemplo, en el mar de Ross por mareógrafos instalados por los neozelandeses, añaden. Los investigadores han podido comprobar el efecto de las olas en esa región del continente blanco gracias a imágenes previas al terremoto -o a la llegada del tsunami al mar de Ross- y después tomadas con el radar del Envisat, que ve a través de las capas de nubes que pueda haber.
En los primeros registros del satélite tras la llegada del tsunami a la Antártida de Honshu a la Antártida (el 12 de marzo) se aprecia claramente que se ha fracturado el frente de la plataforma helada y se ha formado un iceberg de unos 10×6 kilómetros, explican los investigadores. Al día siguiente se distingue ya la separación de otro trozo de hielo, más pequeño que el primero, de unos 7×4 kilómetros. En esos días se rompió una superficie total helada superior a los 125 kilómetros cuadrados, incluidos estos dos icebergs grandes y otros fragmentos menores.
«Este hallazgo en la Antártida demuestra que las observaciones desde satélite son esenciales para comprender los mecanismos y los efectos asociados a los desastres naturales», recuerda Henri Laur, responsable de la misión Envisat en un comunicado de la ESA.
[/i] [i]
[u]Nueva datación determina que la Luna es unos 200 años más joven de lo que se creía hasta ahora.[/u] La Luna puede ser bastante más joven de lo que se pensaba hasta ahora. Una roca traída del satélite terrestre por los astronáutas de una de las misione Apollo de la NASA, ha servido para rejuvenecerla unos 200 millones de años, lo que podría cambiar lo que se sabe de su historia.
Hasta ahora, la hipótesis más aceptada por los científicos es la que defiende que la Luna se formó cuando un cuerpo espacial, con un tamaño similar a Marte, colisinó con la Tierra, provocando que saliera despedida una gran cantidad de materia, desechos que al fundirse, dieron lugar al satélite.
Más adelante, la corteza de la Luna se solidificó durante varios cientos de años. Los datos que se han recabado con sondas orbitales indican que en un principio hubo allí un océano de magma, cuyas evidencias son minerales como la plagioclasa, que cristaliza en la parte superior del magma.
Ahora, los científicos, bajo la dirección de James Connelly, del Museo de Historia Natural de Dinamarca, y Lars Borg, del Lawrence Livermore National Laboratory de California, publican en la revista ‘Nature’ que la plagioclasa lunar que hay en las rocas lunares no confirman claramente esa historia, dado que tendrían apenas 4.360 millones de años, lo que indicaría que se formaron unos 200 millones de años después del Sistema Solar, y no unos 30 millones de años más tarde, como se pensaba.
El equipo de Borg fue el responsable de eliminar la posible contaminación terrestre que había acumulado la roca, utilizando un ácido que acababa con su primera capa.
Según los investigadores, este ‘rejuvenecimiento’ lunar significaría que el impacto con el cuerpo estelar ocurrió más tarde, o que no hubo en sus inicios un océano de magma que cubría su superficie. «Esta nueva datación del satélite podría cambiar su historia geoquímica», apuntaba Richard Carlson, otro de los miembros del equipo.
Otros expertos, en declaraciones a ‘New Scientist’ apuntan que puede que la plagioclasa que está en la roca pudo derretirse después de que la Luna se formara. «Hay diversos minerales que solidifican en temperaturas diferentes, así que si un mineral pesado solidificara antes que otro más ligero que está debajo, se hundiría, empujando el magma hacia arriba. Esto podía derretir la plagioclasa y reajustar su edad», ha señalado Clive Neal, de la Universidad de Notre Dame, en Francia.
[/i]
http://www.elmundo.es/elmundo/2011/08/18/ciencia/1313663595.html [i][u]Descubierto el mecanismo que desarrolla el ELA.[/u] La esclerosis lateral amiotrófica (ELA) es una enfermedad neurodegenerativa, a menudo mortal, que causa parálisis en los pacientes y cuyo origen ha traído de cabeza a los científicos durante décadas. Entre un 90% y un 95% de las veces, aparece espontáneamente, y ni siquiera se sabía si los mecanismos que la causan son los mismos en todos los casos.
Un veterano investigador en el estudio de la ELA, el neurólogo Teepu Siddique, acaba de publicar junto a su equipo de la Universidad de Northwestern (EEUU) lo que parece ser una respuesta definitiva a este dilema: existe una causa común subyacente en todas las formas de la enfermedad y se debe a un defecto en una proteína llamada ubicuitina 2, encargada de degradar y reciclar otras proteínas. El descubrimiento se ha publicado en la revista ‘Nature’.
Al no funcionar adecuadamente el recambio de estas proteínas, se forman cúmulos de las mismas en el interior de las células. Dichas aglomeraciones, que los investigadores comparan a «madejas enredadas de lana», provocan la degeneración de las neuronas, característica de esta dolencia. Este efecto malicioso se ha observado tanto en pacientes con ELA espontáneo como en aquellos que sufren la forma hereditaria de la enfermedad, y también en personas con la variante que ataca al cerebro, llamada ELA-demencia.
Agregados de proteínas de distinta clase se dan en otras enfermedades neurodegenerativas, tales como el Alzheimer o el Parkinson, por lo que se sospechaba que podían estar también detrás de la ELA. Pero, hasta ahora, no se había descubierto su mecanismo de acción. El estudio arrancó con el análisis de los genes de una familia con 19 personas afectadas de esta enfermedad, también llamada mal de Lou Gehrig en recuerdo de un jugador de béisbol que la padeció (hoy en día, el caso más conocido es el del científico británico Stephen Hawking).
Todos los individuos estudiados en esta familia presentaban una anomalía genética que había pasado inadvertida hasta el momento, concretamente una mutación en el gen que codifica la ubicuitina 2. Después se observó que pacientes ajenos a esta familia, y que no eran portadores de dicha mutación hereditaria, también sufrían este mal funcionamiento en el reciclaje de proteínas, por lo que presentaban idénticas madejas de las mismas en las células de su cerebro o su médula espinal.
«Estos datos aportan una robusta evidencia de un defecto en el recambio metabólico de proteínas en la ELA y la ELA-demencia, y posiblemente también en otros desórdenes neurodegenerativos», concluyen los investigadores en su estudio, en el que también aventuran que el hallazgo de este mecanismo «podría aportar nuevas dianas moleculares para el diseño de terapias». Es decir, los tratamientos del futuro podrían centrarse en reparar la degradación de proteínas, al ser este un defecto común a todas las formas de la enfermedad.
La ELA -o ALS por sus siglas en inglés- afecta a unas 350.000 personas en todo el mundo, tanto niños como adultos. Se estima que la mitad de los pacientes fallece durante los tres primeros años tras la aparición del mal, «una enfermedad sin tratamiento ni causa conocida», tal y como la describe el doctor Siddique. Por ello, conocer los mecanismos celulares que la provocan era «uno de los más difíciles problemas de la neurología», según este experto. «Estas personas, en lo mejor de sus vidas y en la cumbre de su productividad, adquieren esta devastadora enfermedad que las mata», añade.
[/i]
http://www.elmundo.es/elmundosalud/2011/08/19/neurociencia/1313778431.html Genial descubrimiento. Está claro que el diagnóstico de las patologías avanza a pasos agigantados desde la generalización de la inmunohistoquímica. Detectar esas madejas de lana (se llaman así porque a microcopio se ven tal cual) con las tinciones de hace 15-20 años era una tarea prácticamente imposible. Hoy en día con cualquier prep-stainer sencillo se puede hacer de manera sencilla y rápida (reacciones antígeno-anticuerpo), robotizada, controlado todo a ordenador y sin el fallo de cálculo en las disoluciones por el margen de error de las pipetas manuales. [i][u]Hallan una supernova cerca de la tierra.
[/u] Una estrella agotada ha explotado en una galaxia relativamente cercana la Tierra, a unos 21 millones de años luz, y un telescopio en EE UU la ha captado a las pocas horas de la explosión, desencadenando una actividad frenética de astrónomos en todo el mundo para observarla y analizar su luz. Se trata de una supernova de tipo Ia y su brillo se está incrementando por momentos. Los expertos calculan que en una semana o 10 días se podrá ver desde la Tierra con prismáticos.
El pasado 24 de agosto, un telescopio automático del Observatorio de Monte Palomar (California) que rastrea constantemente el cielo nocturno para encontrar estas explosiones (el programa Palomar Transient Factory, PTF), captó la nueva supernova en la galaxia espiral del Molinete (M 101); los ordenadores que analizan los datos del telescopio identificaron el fenómeno y lo difundieron por la red de observatorios de todo el mundo para apuntar cuanto antes los telescopios y poder hacer así un seguimiento intenso. El primer científico que vio la supernova, denominada PTF 11kly, fue Peter Nugent, del Laboratorio Nacional Lawrence Berkeley (EE UU), y sólo tres horas después de que el sistema automático la identificara, ya estaban haciendo análisis de su luz los telescopios de Canarias, según informa, los científicos de Berkeley. Nugent y su equipo, con observaciones realizadas desde los observatorios Lick (California) y Keck (Hawai), han podido determinar que la supernova es del tipo Ia.
Estas explosiones -un millar ha descubierto el PTF desde que comentó su operación, en 2008- se producen cuando una estrella mucho más masiva que el Sol ha quemado todo su combustible (hidrógeno) y su horno de fusión nuclear interno ya no puede contener la presión de la gravedad de la propia estrella masiva y el cuerpo colapsa, desencadenándose la explosión de supernova, que llega a adquirir un brillo superior a la entera galaxia en la que está. Pero los procesos detallados implicados todavía guardan muchos secretos que los científicos quieren desentrañar.
«Las supernovas de tipo Ia son las que utilizamos para medir la expansión del universo y presenciar una tan cercana nos permite estudiarla con detalles como nunca antes», ha dicho Mark Sullivan , de la Universidad de Oxford, que lidera uno de los primeros equipos que han iniciado el seguimiento de la del pasado miércoles.
El hecho de haber captado la supernova PTF 11kly en las primeras horas y empezar a estudiarla inmediatamente es muy importante para los astrónomos, no sólo para conocer su evolución desde las primeras fases, sino también porque pueden incluso observar fragmentos de la estrella que ha explotado y averiguar de qué tipo era, según ha explicado Andrew Howelly, de la Universidad de California en Santa Bárbara. «Estamos encontrando nuevas pistas para resolver el misterio del origen de estas supernovas que nos ha desconcertado desde hace 70 años. Pese a haber investigado miles de supernovas, nunca he visto algo así», añade Howelly en un comunicado del laboratorio Berkeley.
La supernova del miércoles está todavía aumentando su brillo y los científicos creen que dentro de una semana o diez días llegará a ser visible desde la Tierra con unos buenos prismáticos, como la supernova de tipo Ia más brillante de los últimos 30 años.
[/i]
http://www.elpais.com/articulo/sociedad/potente/supernova/explota/relativamente/cerca/Tierra/elpepusoc/20110826elpepusoc_8/Tes [i][u]Encontrado un «planeta diamante» cerca de la tierra[/u] Un equipo internacional de científicos ha descubierto un pequeño «planeta de diamante» orbitando un púlsar, que es una estrella de neutrones, a 4.000 años luz de la Tierra, en la contelación de la Serpiente.
La composición de este planeta es cristalina y se cree que «gran parte» de este cuerpo «puede ser similar a un diamante», según el comunicado de la Organización para la Investigación Industrial y Científica de la Mancomunidad de Australia (CSIRO), que ha publicado su hallazgo en la revista ‘Science’.
Se trata de un pequeño planeta de apenas 60.000 kilómetros de diámetro, una quinta parte de la Tierra, pero de una densidad incluso más alta que la de Júpiter, mucho más grande. Junto con el púlsar, este astro de carbono forma un sistemas binario en el que están separados por unos 600.000 kilómetros.
El planeta diamante, que podría ser llamado ‘Lucy’ por sus descubridores, según han anunciado, realiza un órbita en torno a su estrella netrónica, llamada PSR J1719-1438, cada dos horas y 10 minutos terrestres. Ségún han observado los astrónomos con el telescopio australiano ‘The Dish’, se ha convertido en una ‘enana blanca y sería el último residuo de lo que fue en el pasado una estrella enorme, cuya mayor parte de su masa se desvió hacia la órbita de este púlsar.
Los púlsares son estrellas de neutrones que rotan a gran velocidad y tienen unos 20 kilómetros de diámetro. Estas estrellas neutrónicas emiten pulsos de ondas de radio que son captadas por los telescopios, explica CSIRO en su comunicado. A pesar de que la distancia entre ambos cuerpos celestes es corta, el planeta no ha sido destruido por las oscilaciones del púlsar debido a su tamaño.
«A pesar de la rareza, este planeta corrobora lo que sabemos sobre cómo estos sistemas binarios evolucionan», ha señalado uno de los líderes de la investigación, Matthew Bailes de la Universidad de Teconología Swinburne de la ciudad de Melbourne. El científico australiano también explicó que la «alta densidad» del pequeño planeta dieron «pistas sobre su origen».
Por lo que han observado, parece estar compuesto principalmente de carbono y oxígeno, con elementos brillantes, como el hidrógeno y el helio.
Tras un primer vistamiento con el telescopio ‘The Dish’, investigadores siguieron el descubrimiento desde Lovell (Reino Unido) y Keck (en Hawaii).
[/i]
http://www.elmundo.es/elmundo/2011/08/25/ciencia/1314296588.html PD: hay dos imágenes en los enlaces que no me deja colgar la web imageshack que son interesantes para hacerse una idea, recomiendo que las veáis.
[i][u]Virus para acabar con el cancer.
[/u]
La viroterapia es un viejo concepto que ha resurgido en los últimos años gracias a los avances científicos que han permitido la modificación genética de los virus para potenciar sus propiedades anticancerígenas. Desde los primeros ensayos clínicos, iniciados en 1956 y muy limitados por cuestiones técnicas, el panorama ha evolucionado hasta los estudios en fase III -la más avanzada en el desarrollo de nuevas terapias- que han colocado a algunos de estos virus a un paso de la clínica. Pero, ¿qué podemos esperar de ellos?Cualquier tema en el que aparezca la palabra ‘cáncer’ gana rápidamente protagonismo debido a la sensibilidad que despierta esta enfermedad, que es la primera causa de muerte en el mundo. Por eso, los investigadores y los médicos se mueven con pies de plomo cuando se habla de nuevos o posibles tratamientos, ya que cada pequeño avance o descubrimiento en este campo -como el publicado en el último número de ‘Nature’- es recibido con un entusiasmo que no siempre tiene su traducción en una mejora en el manejo de los pacientes.
«Buscar cualquier alternativa a los fármacos, la terapia que nos ha permitido mejorar los resultados, es importante. Pero hay que tener en cuenta que se trata de aspectos que están en investigación», subraya Manuel Hidalgo, del Centro Nacional de Investigaciones Oncológicas (CNIO). Ése es el caso, afirma, de la viroterapia, una línea «interesante» aunque «eso no significa que vaya a ser eficaz».
De momento, ninguno de estos virus ha llegado al mercado y aunque muchos están en fases avanzadas, «pasarán años hasta que los veamos en la clínica», opina Manuel Ramírez Orellana, que trabaja en el Hospital Niño Jesús de Madrid con un virus modificado para tratar un tumor del sistema nervioso. «La viroterapia -afirma- tiene limitaciones».
Alterados en el laboratorio
Desde su descubrimiento, los virus han despertado el interés de los científicos por sus cualidades antitumorales. Lejos quedaron ya los experimentos en los que inyectaban líquidos corporales de pacientes con infecciones virales a otros que padecían cáncer, con la intención de frenar la progresión de la enfermedad. Ahora, la ciencia ha descubierto los mecanismos que están detrás de este efecto anticancerígeno y ha proporcionado las herramientas para explotarlos y potenciarlos.
Los virus con los que actualmente se trabaja pertenecen a distintas familias pero se pueden clasificar en función de cómo combaten los tumores. Por un lado están los que son oncolíticos, que penetran en las células cancerígenas donde se replican causando su destrucción. Estos «se modifican normalmente en el laboratorio para que las distingan de las células sanas», explica Ramírez Orellana. Los científicos suelen alterarlos para que además estimulen la respuesta inmune de organismo contra el cáncer, potenciando así su efecto.
Por otro lado, están los virus que se emplean como ‘vehículos’ «que llevan genes a los tumores», señala Hidalgo. Dentro de estos genes existe una gran variedad: pueden ser supresores de tumores, como p53, o genes suicidas, que aumentan la sensibilidad de las células a un fármaco concreto que al ser administrado las mata.
Posible aliados en una lucha compleja
Sobre el papel, parece sencillo, pero no lo es. Una de las limitaciones es «hacerlos llegar a las células tumorales», subraya el investigador del CNIO. «Otro problema es que se trata de tratamientos a veces muy selectivos porque sólo atacan a una diana [gen] y es difícil que con una acción tan pequeña vayan a ser útiles para todos los pacientes».
Ramírez coincide en este punto ya que, como explica, «no existe una lesión universal en los cánceres que se pueda tratar con una única droga. De modo que no todos los virus servirán para todo ni para todos los pacientes».
Habrá que esperar a que los ensayos en marcha den resultados para saber si la viroterapia entra a formar parte del arsenal que tienen los oncólogos para tratar el cáncer. Eso, opinan los expertos, será a largo plazo. Mientras, en el medio, «creo que se probará su combinación con las terapias actuales», señala Ramírez, porque «podrían ser útiles como tratamiento complementario».
[/i]
http://www.elmundo.es/elmundosalud/2011/09/01/oncologia/1314879547.html Pues a ver si es verdad,con esto se salvarían millones de personas al año [i][u]Sobre el LHC del CERN.
[/u]
El gran acelerador de partículas (LHC) de Ginebra está funcionando al pleno rendimiento previsto (para su primera fase) y sus mayores detectores han acumulado ya los datos de más de 70 billones de choques de protones. El complejo científico, diseñado para averiguar cómo se hace la materia a la escala más pequeña jamás alcanzada, está operando sin parar desde marzo de 2010 y miles de físicos llevan meses analizando los datos de los experimentos con total dedicación e intensidad. ¿Han descubierto ya algo realmente importante? «La física de partículas exige paciencia porque los procesos nuevos son poco corrientes y, para encontrarlos, hace falta tomar muchos datos», responde Rolf Heuer, director del Laboratorio Europeo de Física de Partículas (CERN), junto a Ginebra.Indicios, rumores de buenos resultados y expectativas, además de mucho entusiasmo y algún jarro de agua fría, se suceden estos meses en torno al LHC, en el CERN y en todo el mundo, dado el alcance internacional del proyecto. Pero de la nueva partícula elemental, el llamado bosón de Higgs, que sería clave en las teorías del universo subatómico y que tanto se aireó en la inauguración del acelerador, no hay un rastro definitivo.
«En menos de un año y medio, el LHC ha hecho un barrido completo de toda la física de partículas que conocemos, ha entrado en territorio ignoto y ha empezado a explorarlo», explica Sergio Bertolucci, director científico del CERN. «Los próximos meses van a ser cruciales».
La verdad es que este verano se ha creado bastante expectación sobre un posible avance significativo que tal vez podría desembocar en un hallazgo importante a finales de año. Pero los resultados de los experimentos del LHC presentados en una conferencia celebrada a finales de agosto de Bombay (India), han desinflado un poco las esperanzas: al acumular y analizar más datos se han desvanecido los indicios que apuntaban hacia la identificación de Higgs, la partícula que ayudaría a explicar el origen de la masa de las demás partículas, algo que la teoría actual del microcosmos no logra hacer.
«Creo que para finales de 2012 el LHC sería capaz de cerrar la cuestión acerca de la existencia o no del bosón de Higgs», dice Fabiola Gianotti, líder de Atlas, uno de los grandes detectores del acelerador. «No sabemos si puede ser antes, depende de la masa de esa partícula (si es que existe)», añade. De hecho, ya se ha avanzado mucho en la cacería y se va estrechando el cerco a la hipotética presa, ya que se empiezan a descartar valores de la masa en los que seguramente no está.
«Es emocionante ver a miles de investigadores trabajando juntos con único objetivo, literalmente desvelar algunos secretos del universo», comenta Heuer a EL PAÍS, acerca del ambiente que ahora se vice en el CERN. «Estos científicos compiten de manera muy constructiva y colaborando al mismo tiempo».
Conviene repasar cómo funciona el LHC -que costó alrededor de 3.000 millones de euros- y qué experimentos se hacen para descubrir las nuevas partículas. Si un átomo se entiende vulgarmente como el no va más de la pequeñez, hay que tener en cuenta que la física de partícula se mueve a escala mucho menor. Si un átomo tuviera el tamaño de una catedral (su corteza exterior de electrones), el núcleo atómico sería una mosca volando dentro, recuerda una habitual comparación de escala que hacen los científicos. Y los físicos del CERN (y de otros laboratorios en diferentes países) están mirando no dentro del núcleo/mosca, sino dentro del mismo, en decir sus constituyentes fundamentales.
El LHC acelera hasta casi la velocidad de la luz protones, es decir, átomos de hidrógeno a los que se han arrancado los electrones. Billones de esas partículas -aceleradas y obligadas a viajar en haces finísimos por el tubo de alto vacío de 27 kilómetros de acelerador- se hacen chocar en el centro de los gigantescos detectores que registran las consecuencias de las colisiones, es decir, las nuevas partículas que se crean.
«Hoy en día, para ver un mero en el Mediterráneo, hay que bucear bastante profundo, y para ver un mero de mayor peso, más profundo aún», dice el físico teórico Álvaro de Rújula. «Algo parecido pasa si uno busca partículas elementales de masa más y más elevada: para crearlas en colisiones de otras partículas, como protones, son necesarios aceleradores (de protones) de mayor y mayor energía. En el caso de las partículas -no de los meros- se trata de la ley natural y bien conocida E= mc2 [la archifamosa ecuación de Einstein que relaciona masa y energía]. La energía de una colisión frontal de protones puede transmutarse en la masa de partículas creadas en ella y cuanto mayor es la energía de las colisiones, mayor es el rango de masas de partículas hipotéticas que uno puede explorar, creándolas y detectándolas».
En el LHC se producen millones de esas colisiones en las que se crean partículas, y muchas de ellas se desintegran casi inmediatamente formando otras. Por sus trayectorias y propiedades registradas en los detectores, los físicos las identifican y pueden deducir qué leyes las rigen. Pero la mayoría son terreno muy trillado ya, nada nuevo, y solo muy excepcionalmente puede surgir una nueva partícula, por lo que los expertos necesitan cantidades ingentes de datos para cazar algo y, más aún, para estar seguros de lo que han cazado. De ahí que a casi nadie extrañe la tardanza en surgir los descubrimientos en el LHC. «Las partículas que están ahora en lo alto de la lista de las más buscadas son las de Higgs y las llamadas supersimétricas», continúa De Rújula. «El papel de Higgs es generar la masa de todas las demás partículas que tienen masa».
El Higgs es un mecanismo complicado de explicar para profanos, pero los físicos hacen intentos -algunos eficaces- para hacerse entender. Uno de esos intentos lo recoge el también físico teórico del CERN, Gian Francesco Giudice, en su libro A Zeptospace Odyssey. La idea es que existe algo por ahora desconocido que se llama campo de Higgs y que las partículas que tienen masa la adquieren precisamente al interaccionar con ese algo. Giudice recurre al símil del agua en la que nadan delfines y se bañan hipopótamos: para las partículas que no tienen masa, como el fotón, el agua es totalmente transparente, como si no existiera; las que tienen masa, pero poca, se deslizan fácilmente sin apenas interactuar con el líquido, como los defines; y las más masivas, como los hipopótamos, se mueven sumergidos con con dificultad. «La masa de una partícula elemental es una medida de la fuerza de su interacción con el campo de Higgs», señala Guidice. Y el campo de Higgs se expresa, en determinadas condiciones, como una partícula nueva, el famoso bosón. ¿Por qué podría surgir precisamente en el LHC?
«La teoría que predice la existencia del Higgs (el modelo estándar) deja de ser autoconsistente si su masa es superior a un cierto valor máximo, y los protones que el LHC acelera y hace colisionar tienen energía más que suficiente para producir partículas de Higgs incluso si tienen la masa máxima. Por eso, si el LHC no lo encuentra es que la hipótesis de su existencia es falsa», explica De Rújula.
Los dos grandes experimentos del LHC, el Atlas y el CMS, podrían tener ya algún indicio. Pero «es demasiado prematuro abrir el champán porque puede tratarse de fluctuaciones de los datos, aunque el ritmo al que el LHC y los experimentos están aumentando sus datos, permitirá extraer conclusiones firmes pronto», comenta Bertolucci.
«Como ya hemos excluido en los experimentos una región extensa de posible masa del Higgs, ahora podemos concentrar nuestros esfuerzos en las regiones de masa donde estamos viendo intrigantes fluctuaciones», añade Guido Tonelli, líder de CMS, advirtiendo de que esas señales todavía podrían ser algo así como ruido de fondo del experimento.
Además del Higgs, muchas esperanzas se han puesto en las partículas supersimétricas (o SUSY), predichas por nuevas teorías que engloban el modelo estándar, llevándolo mucho más lejos, pero aún pendientes de resultados experimentales que indiquen si son reales o meras especulaciones. Incluso algunos pensaban que las SUSY podrían aparecer pronto en el LHC, pero, por ahora no hay ni rastro de ellas. «Hay gente que se ha deprimido porque se están excluyendo las SUSY, pero debería ser todo lo contrario: estamos confirmando que la naturaleza es mucho más sutil que las cosas obvias», dice Maria Spiropulu, física de Caltech (EE UU) y del CERN.
«El papel de las partículas supersimétricas no es fácil de explicar», apunta De Rújula. «Digamos que su existencia contribuiría a la elegancia de las leyes de la naturaleza (que siempre la tienen, quién sabe por qué). Pero para estas partículas no existe un intervalo estricto de masas en el que necesariamente tengan que existir [a diferencia del caso de Higgs]. Asi que si el LHC no las encuentra, caben dos posibilidades: que no existan… o que necesitemos para descubrirlas un colisionador de mayor energía que el LHC».
«Las predicciones de un próximo descubrimiento de las SUSY en los datos del LHC se basaban en modelos muy simples y los estudios hasta ahora han excluido algunos de esos modelos», apunta Tonelli. «Pero el trabajo sigue y hay mucho espacio para sorpresas». Su colega Gianotti también deja la puerta abierta: «No hay que olvidar que el LHC alcanzará su potencia completa de descubrimiento cuando alcance la energía de 14 TeV [el doble de la actual, prevista para 2014] y hayamos registrado cien veces más datos que los que tenemos ahora».
Por supuesto, lo que todos los físicos esperan con auténtico interés es lo imprevisto, que puede ser el mayor descubrimiento.
[/i] [i][u]El nuevo ancestro del ser humano moderno[/u] Los fósiles de dos jóvenes homínidos encontrados en una cueva de Malapa, cerca de Johannesburgo (Sudáfrica), podrían revolucionar el árbol evolutivo que soporta la rama del ser humano. Cinco investigaciones, publicadas en la prestigiosa revista ‘Science’, analizan varios aspectos de la morfología de los ‘Australopithecus sediba’ y concluyen que este homínido primitivo podría ser la base del género ‘Homo’ (que incluye a la especie humana ‘Homo sapiens’) en el árbol de la vida.
Además, uno de los estudios, dirigido por el investigador del Instituto de Evolución Humana de la Universidad de Witwatersrand en Johannesburgo, Lee Berger, retrasa la edad de ambos ejemplares hasta hace casi dos millones de años (concretamente 1,977 millones de años). Este dato sitúa a esta especie antes que las apariciones más tempranas en el registro fósil de los ‘Homo’. Los fósiles más antiguos del género que condujo hasta el ser humano moderno datan de hace 1,9 millones de años y corresponden con ejemplares de ‘Homo habilis’ y ‘Homo rudolfensis’, antecesores del ancestro humano indiscutible, el ‘Homo erectus’.
Pero la edad más antigua de los fósiles de A. sediba indican que esta especie más antigua que los ‘Homo’ es un linaje diferente a partir del que podría haber evolucionado el ‘Homo erectus’, según indican los autores. «La edad es particularmente interesante porque está muy cerca del tiempo de la transición clave que dio lugar al género ‘Homo'», aseguró Brooks Hanson, editor en jefe de la revista Science en la presentación de una teleconferencia de prensa con los investigadores.
«Por suspuesto, el retraso de la edad de los fosiles con respecto a la que ofrecimos cuando se presentó el descubrimiento de A. sediba postula a la especie como el mejor candidato para ser el ancestro que condujo hacia el surgimiento del género ‘Homo'», aseguró Lee Berger, durante la teleconferencia.
Características ‘mosaico’
Además, los nuevos detalles aportados en las diferentes investigaciones publicadas en Science sobre el cerebro, la pelvis, las manos y los pies de ‘Australopithecus sediba’ dejan claro que este antiguo pariente del ser humano tuvo varios rasgos modernos, parecidos a los humanos, al tiempo que mantiene algunas características muy primitivas. Esta naturaleza «mosaico» hace pensar a los investigadores que A.sediba es el mejor candidato para ser el ancestro del género ‘Homo’.
«El panorama evolutivo del ser humano es una gran sopa de letras y hay muchos pretendientes para ser el primer ancestro», explica a ELMUNDO.es Eudald Carbonell, director del Instituto Catalán de Paleoecología Humana y Evolución Social y codirector del Proyecto Atapuerca. «Esta nueva investigación supone una buena hipótesis, pero es muy difícil de comprobar. Las muestras genéticas de los homínidos primitivos están muy fragmentadas, pero la tecnología avanza muy deprisa. Cuando la genética pueda aplicarse a ejemplares de más de 100.000 años podremos tener la solución definitiva para la sopa de letras».
Los nuevos hallazgos incluyen la mano más completa jamás descrita en un homínido primitivo y una de las pelvis más completas jamás descubiertas. Además, aportan piezas completamente nuevas del pie y tobillo que permiten a los investigadores saber que ‘Australopithecus sediba’ caminaba erguido sobre sus dos piernas. Otro de los grandes descubrimientos relacionados con el análisis de la mano es que la especie ya fabricaba herramientas de piedra, lo que hasta la fecha sólo se relacionaba con el género Homo.
«Hay estructuras en la mano que reflejan un gran énfasis en la fabricación de herramientas asociada a una manipulación muy fina de esas herramientas para resolver los retos ambientales de la especie», explicó Steven Churchill, otro de los autores de los estudios.
[/i] http://www.elmundo.es/elmundo/2011/09/08/ciencia/1315485215.html [i]Un equipo internacional de científicos ha encontrado unas partículas, llamadas neutrinos, que viajan más rápido que la luz, según un portavoz de los investigadores. El hallazgo podría suponer un desafío a una de las leyes fundamentales de la física.Antonio Ereditato, que trabaja en el centro de partículas físicas del CERN (Organización Europea para la Investigación Nuclear, por sus siglas en francés) en la frontera franco-suiza, contó a Reuters que los tres años de mediciones han mostrado que los neutrinos se movían 60 nanosegundos más rápido que la luz en una distancia de 730 kilómetros entre Ginebra y Gran Sasso, en Italia.
La luz podría haber cubierto esa misma distancia en alrededor de 2,4 milésimas de segundo, pero los neutrinos tardaron 60 nanosegundos (un nanosegundo equivale a una mil millonésima parte de un segundo) menos que los haces de luz.
«Tenemos mucha confianza en nuestros resultados. Pero necesitamos que otros colegas hagan sus pruebas y lo confirmen por sí mismos», dijo.
Hay que ser prudente
Si se confirma, el descubrimiento podría invalidar una parte clave de la teoría de la relatividad que Albert Einstein enunció en 1905, que asegura que nada en el universo puede viajar más rápido que la luz.
«Queríamos encontrar un error, un error trivial, uno más complicado o un efecto desagradable, pero no lo hemos encontrado», dijo el investigador a la BBC.
«Cuando uno no encuentra nada, entonces dices: Bueno, ahora me veo obligado a salir y pedir a la comunidad que examine esto».
«Es una pequeña diferencia», dijo Ereditato, que también trabaja en la Universidad de Berna en Suiza «, pero conceptualmente es muy importante. El hallazgo es tan sorprendente que, por el momento, todo el mundo debe ser muy prudente»
[/i] http://www.elmundo.es/elmundo/2011/09/22/ciencia/1316718466.html ¡Viva la ciencia!
Cada vez que leo cosas asi, me doy cuenta de que la profesión que he escogido es sencillísima cuando en mis comienzos me parecía lo más avanzado científicamente.Hallar un infarto en el corazón de una persona fallecida por causas presuntamente naturales es pan comido en comparación con esto. :/
Es impresionante como avanza la ciencia, exponencial es poco decir la verdad, y eso que lo que sabemos sobre los avances es una mìnima parte… Acojonante descubrimiento. Quien sabe lo que nos queda por delante? Hmm creo que aun es muy temprano para darlo como cierto: los científicos no anunciaron nada: simplemente pedieron ayuda a sus pares para estudiar los datos. Nada está aun confirmado y, bueno, las implicaciones de algo así, se confirmando, son demasiado largas.. Si se confirma un hecho como este, podría tambalear los cimientos de más de 50 años de física moderna, todo lo postulado a raíz de la teoría relativista de Einstein podría quedar en papel mojado, pues casi un siglo trabajado con un axioma que ahora se empieza a resquebrajar significaría que todo lo hecho hasta ahora habría que tirarlo a la basura, pues si se trabaja y se construye toda la ciencia moderna a partir de un principio que hasta ahora se creía inamovible y 100×100 seguro, y que resulta no ser tan válido, todo el trabajo basado en ese principio erróneo estará equivocado. La ciencia se basa en el método de la prueba y el fallo, pues si todo se diera por cierto, para que seguir investigando?, a raíz de probar lo incorrecto se llega a lo verdadero, pues uno de los principios básicos de la ciencia está en hacerse preguntas para hallar las respuestas, en poner en solfa todo lo que genera dudas y tiene fallos para hallar la verdad, eliminar los fallos y corregirlos.
Si un modelo se daba como verdadero es falso, se tira a la papelera y a seguir investigando.Si Copérnico no hubiera puesto en duda los cimientos de la época, ahora mismo seguiríamos pensando como entonces, el modelo heliocéntrico no hubiera visto la luz y seguiríamos en la eEdad Media.
Más sobre el tema; La publicación de un trabajo realizado en el CERN (Organización Europea para la Investigación Nuclear) de Ginebra que demuestra que unas partículas, llamadas neutrinos, pueden viajar más rápido que la velocidad de la luz ha agitado a la comunidad científica durante todo el día y ha ocupado titulares en todos los medios de comunicación del mundo. Tal ha sido el revuelo que los autores de la investigación se han visto obligados a presentar sus resultados a sus colegas en un seminario abierto en la sede del CERN.
En una abarrotada sala de actos, uno de los firmantes del estudio publicado en ‘High Energy Phisycs’ de la Universidad de Cornell, Dario Autiero, ha presentado el experimento Opera y los resultados que han obtenido. Las mediciones corresponden a tres años de trabajo (2009, 2010 y 2011) en los que se han enviado neutrinos en multitud de ocasiones, según explicó Autiero durante casi dos horas de presentación
Tras analizar los datos obtenidos, el equipo internacional al que pertenece el investigador italiano de la Universidad Claude Bernard de Lyon pudo sacar una conclusión sorprendente, pero que por más que han intentado refutar repasando toda la metodología, no han conseguido encontrar dónde está el error. Una corriente de neutrinos puede reorrer los 730 kilómetros que separan el CERN del laboratorio subterráneo del Gran Sasso en un tiempo 60 nanosegundos menor que lo que tardaría la luz.
«Hemos estado seis meses analizando los datos observados y que eran inexplicables», dice Auteiro. «No pretendemos hacer ninguna interpretación teórica de los resultados», sentenció Autiero al final de la presentación. Como ya dijo un portavoz de la investigación, los resultados son una locura y ponemos nuestros resultados a disposiión de los colegas para que alguien nos saque de esta locura. La prudencia ha sido la tónica general de la exposición del trabajo.
Las dudas de los popes de la física
Los científicos más reputados del mundo son escépticos con los resultados e incluso han manifestado su desconfianza en que la metodología o la explicación teórica de los resultados sean las correctas. «Es prematuro comentar este experimento se necesitan más experimentos y clarificaciones», ha asegurado Stephen Hawking a ‘Reuters’.
Los resultados se comenzaron a tomar en 2009 y se han seguido tomando en 2010 y 2011. Y durante todo ese tiempo los científicos han estado comprobando que las medidas estaban bien tomadas. La incertidumbre que se haya podido producir por diferentes causas (diseño de base, calibración, etcétera) es de tan sólo 7,4 nanosegundos, según han podido calcular los autores. Sigue siendo menor que los 60 nanosegundos que separaron a los neutrinos de la luz en el experimento. Un nanosegundo equivale a 0,0000000001 segundo, por lo que el experimento debe tener una precisión de medida fuera de toda duda.
A pesar de los envites de sus colegas, Autiero se defendió con solvencia ante las dudas y el escepticismo generalizado en la audiencia, que no pudo más que felicitar al autor por el trabajo y aplaudir con una sonada ovación el final del seminario.
«En 2005 el Fermilab dio a conocer unos resultados de este tipo, aunque la precisión en las medidas era baja, con lo que todo podría venir de fuentes de error experimental. El trabajo de OPERA ha sido precisamente disminuir esas imprecisiones, pero ello ha llevado a una complejidad instrumental, y sobre todo en el análisis que hace difícil -muy difícil- juzgar a la vista de la presentación si alguna de las muchas explicaciones alternativas es la correcta», escribió Javier Armentia, director del Planetario de Pamplona, en el En vivo de ELMUNDO.es
«La presentación ha sido impecable y ha presentado todas las objeciones que ellos mismos han puesto, y como han solventado las fuentes conocidas de error. Esto es un poderoso argumento a favor… pero ahora los físicos se irán a casa, leerán con calma el artículo y los datos y… me imagino, encontrarán lo que comentaba Rújula, el error cometido», aseguraba Armentia.
http://www.elmundo.es/elmundo/2011/09/23/ciencia/1316798042.html El universo se puede estudiar de dos formas, mediante la visualización de la luz visible o el estudio de las ondas electromagnéticas que todo cuerpo celeste emite.
Recordemos que según la teoría de Einstein sobre la Relatividad, el fotón, o sea la luz, es una partícula bipolar, es a la vez un elemento físico y una onda electromagnética. El espectro de luz visible es el que utilizan los telescopios visuales, pero cuando se quiere estudiar otras longitudes de onda no visibles se a de usar telescopios de ondas de radio, o radiotelescopios, que básicamente son antenas parabólicas gigantes que solo captan la frecuencia que se desea buscar.El mayor radiotelescopio del mundo, compuesto por multitud de esas antenas, ha entrado en funcionamiento en Chile, en el desierto del Atacama.
Este radiotelescopio, cuyas antenas funcionan como una sola, al estar intercomunicadas, tiene un funcionamiento muy simple; actuan en conjunto estudiando entre todas grandes partes del cielo, pero dentro de ese funcionamiento conjunto, cada una estudia una parte diferente, lo que ofrece unas capacidades de observación totales totalmente desconocidas.
Es como si varios fotógrafos se juntan para realizar una fotografía conjunta de un lugar muy extenso, cada fotógrafo hace una foto a una zona, luego esas fotografías se juntan y obtienes la fotografia que buscabas, si lo hubiera hecho uno solo, no hubiera podido terminarla en mucho tiempo.Es además, el primer telescopio en funcionar en longitudes de onda milimétrica y submilimétrica, lo que junto al número total de antenas, da un poder de observación realmente desconocido hasta ahora. Gracias a este instrumento, podremos saber más cosas del frio y lejano universo, cosa que hasta ahora nos resultaba imposible.
podeis ver dos fotografías, una de la primera imagen obtenida y otra de las primera antenas puestas en funcionamiento.[url url=http://www.elpais.com/fotografia/sociedad/Galaxias/colision/elpepusoc/20111003elpepusoc_3/Ies/]Aquí[/url] [i]La Agencia Espacial Europea (ESA) ha anunciado su apoyo a la misión Solar Orbiter, una epopeya científica que en 2017 se acercará «más que nunca» al Sol para estudiar diversos fenómenos del astro.Esta misión fue aprobada el martes por el Comité del Programa Científico de la ESA junto con Euclid, un telescopio espacial que analizará las zonas más oscuras del Universo.
El director de Ciencia y Exploración Robótica de la ESA, Álvaro Giménez, indicó que con estas dos misiones, la Agencia «muestra una vez más» su preferencia por observaciones que tienen incidencia en la vida de los ciudadanos.
«Solar Orbiter se acercará más al Sol que ninguna otra misión lo ha hecho en el pasado. Este proyecto, que conducirá a un avance importante de los conocimientos, debe permitir comprender mejor cómo el Sol actúa en su entorno», indicó la ESA en un comunicado.
Viento solar
En particular, la sonda se aproximará tanto al Sol que será capaz de obtener partículas del conocido como «viento solar» poco después de que sean expulsadas de la superficie del astro.De esa forma se comprenderá algo más la formación de ese fenómeno turbulento por la actividad solar que tiene incidencia en la Tierra, señaló la Agencia.
Giménez aseguró que gracias a sus estudios se conocerán mejor los fenómenos de expulsión de materia coronaria del sol que afectan, por ejemplo, perturbando las comunicaciones radiofónicas y las redes eléctricas terrestres.
La misión despegará de Cabo Cañaveral en 2017 a bordo de un cohete Atlas de la Agencia Espacial Estadounidense (NASA).
Expansión del universo
En cuanto a Euclid, puesta en el espacio dos años más tarde por una lanzadera rusa Soyuz desde la base de Kurú, en la Guayana francesa, tendrá como objetivo «explorar los componentes ‘oscuros’ del Universo».
Con su contribución, los científicos esperan conocer algo más de uno de los misterios actuales, el de la aceleración de la expansión del Universo, cuyo motor parece ser una forma de energía bautizada como ‘oscura’ por su naturaleza desconocida. Precisamente hoy, los descubridores de este fenómeno acaban de ser galardonados con el Premio Nobel de Física.
Gracias a Euclid, los investigadores podrán analizar los efectos de esta energía en las galaxias y así «comprender su naturaleza exacta», agregó. El telescopio espacial «cartografiará la estructura a gran escala del Universo con una precisión sin precedentes», indicó la ESA.
Con una capacidad hasta a 10.000 millones de años luz, Euclid «desvelará la historia de la expansión del Universo y el crecimiento de su estructura en el curso de los tres últimos cuartos de su existencia». El responsable científico de la ESA indicó que Euclid «dará explicaciones sobre la naturaleza de una de las fuerzas fundamentales del Universo».
[/i] http://www.elmundo.es/elmundo/2011/10/04/ciencia/1317752786.html …y los caminos que tenemos, por delante, que explorar. [i]La oscura energía, para Nobel
04OCT 2011 14:15
La concesión del Premio Nobel de Física hoy a los dos equipos que, de manera independiente, descubrieron en 1998 que la expansión del Universo está acelerándose, uno en EEUU (dirigido por Saul Perlmutter) y el otro en Australia (dirigido por Brian P. Schmidt con Adam G. Riess) era esperada, lo que no quita ni un ápice a que sea merecida. Sus estudios implican que el principal ingrediente de nuestro Cosmos es una energía de repulsión, la llamada energía oscura, de la que solo una constante que 80 años antes había introducido Albert Einstein en su teoría de la Relatividad General, y obviada posteriormente por innecesaria, podía dar cuenta. Quienes hace poco más de 10 años hicieron renacer la pasión por entender quiénes somos, de dónde venimos y adónde vamos, están de celebración.Riess y Perlmutter estaban ya este año no solo entre los más populares en las porras para pronosticar los galardonados al Nobel de Física (ya el año pasado, el ranking que elabora Thomson Reuters a partir de lo que se publica había colocado a estos astrofísicos en primer lugar, pero el grafeno y la física de materiales ganó por la mano) sino que en primavera habían recibido la medalla de la Sociedad Albert Einstein de Berna y, ciertamente, su trabajo había ido sido reconocido en los últimos diez años: no es poco para quienes dieron un mazazo a lo que sabemos sobre el Universo.
A mediados de los 90 estaban en marcha ya la construcción de los telescopios que superarían los 10 metros de diámetro (el VLT de Cerro Paranal, en Chile, los Keck de Hawaii, el último es nuestro GTC de La Palma) pero además había una completa revolución en los sistemas de detección y análisis de la luz: ópticas capaces de adaptarse a las cambiantes condiciones de la atmósfera, sistemas de observación detallada múltiple…; el Telescopio Espacial Hubble, también, sumaba una nueva plataforma de observación del Universo más lejano, con capacidad de obtener datos que antes quedaban más allá de la capacidad de observación.
Toda una generación de astrofísicos formados en los años 80 estaba emprendiendo proyectos muy ambiciosos usando estos nuevos ojos más capaces, más sensibles, más detallistas. Ahora era posible ver más allá en el tiempo, y conocer con más detalle la vida de galaxias que, antes, solo eran un pixel de luz y ahora se podían resolver en imágenes, y medir en detalle. Los nuevos datos iban confirmando muchas de las observaciones anteriores y, a la vez, mostrando que el detalle general de la evolución cósmica, narrado por el modelo estándar que conocemos como «Big Bang» era acertado en su visión general, pero necesitaba pulirse en los detalles.
La idea general de la cosmología de los 90 mostraba un Universo que comenzó en un momento denso y caliente, hace más de 13 mil millones de años, comenzando a expandirse y sufriendo, en los primeros instantes, una enorme inflación que permitía explicar que, allá donde miremos, el Universo es bastante similar en todo: grandes vacíos con zonas donde se arraciman grupos de galaxias. La expansión parecía frenarse, pero la tasa de frenado no se podía definir bien. Ya para entonces, quedaba claro que además de la materia que vemos en forma de estrellas o nebulosas y formando galaxias había casi 10 veces más de una materia oscura, cuya luz no veíamos pero de la que medíamos su influencia gravitatoria.
Para poder medir realmente cómo había evolucionado el Universo era necesario poder, por ejemplo, ver si en las galaxias más lejanas, aquellas cuya luz recibimos ahora pero que viaja desde hace miles de millones de años, podíamos analizar detalles y ver cómo eran las estrellas y su vida entonces. Sería como conseguir el libro de fotos del colegio de nuestro abuelo, y ver en las fotos de los parvulitos si obtenemos información sobre cómo era la época en que vivió cuando era niño. Los astrónomos investigan galaxias lejanas porque así miden la luz de objetos que vivieron cuando el Universo era mucho más joven que ahora.
Obtener los detalles de esas galaxias permite, además, calibrar todas las escalas de distancia y conocer mejor cómo es la expansión del Universo, un asunto cosmológico donde la teoría necesitaba confirmaciones o refutaciones observacionales: la teoría necesitaba observaciones astronómicas.
Y entonces llegaron los astrofísicos con sus observaciones. El Proyecto de Cosmología por Supernovas del Lawrence Berkeley National Laboratory , dirigido por Saul Perlmutter, se centró en un tipo de explosión de supernova, las tipo Ia, que corresponden a fenómenos en sistemas binarios de estrellas evolucionadas: sobre una enana blanca cae materia de la otra estrella del par y, por culpa de esta acumulación de materia, la cosa acaba explotando de forma violenta y rápida, emitiendo un tipo de luz característico. Debido a que son objetos extremadamente brillantes, y relativamente frecuentes (se estima que en nuestro Universo se producen unas 10 por minuto, aunque observarlas es una verdadera cuestión de tener mucha suerte) es posible descubrirlas incluso en galaxias muy lejanas. En la Universidad Nacional de Australia, junto con la Universidad Johns Hopkins de Maryland en EEUU, otro grupo, el Equipo de Búsqueda de Supernovas a Alto Corrimiento al Rojo, con Brian Schmidt y Adam Riess a la cabeza, hacían lo mismo, de forma independiente. Sus artículos con los resultados se publican en 1998, y en conjunto aportan 50 supernovas con datos precisos y los cálculos que muestran algo insospechado: según las calibraciones habituales según los modelos cosmológicos, las supernovas más lejanas eran más débiles de lo debido.
¿Cómo sería posible algo así? Quizá los modelos estaban mal. Si la expansión del Universo fuera frenándose debido a la materia visible y a la materia oscura (la gravedad es una fuerza siempre atractiva), no pasaría eso. Sólo si el Universo estuviera acelerando su expansión podría entenderse que, realmente, estábamos viendo supernovas que estaban más lejos de lo esperado. Había por lo tanto algo que empujaba a que el Universo en vez de frenarse, se acelere. Los resultados publicados por los dos grupos generaron una gran controversia pero, teniendo en cuenta que eran observaciones independientes, de hecho suponían una doble confirmación de un fenómeno nuevo.
O no tan nuevo, porque como comentábamos esa repulsión ya estaba en las formulaciones originales del Universo de Einstein. Aunque el mismo físico había confesado que esa constante cosmológica había sido uno de sus grandes errores, lo cierto es que esa repulsión del Universo se convertía ahora en uno de los principales agentes de la evolución del Cosmos. La energía oscura corresponde a casi tres cuartas partes de lo que es el Universo. Ha estado operando desde hace miles de millones de años y asegura que todo se irá expandiendo sin cesar.
El trabajo de los premiados este año con el Nobel de Física fue una confirmación de que las teorías deben someterse a los datos de la realidad. Y, para una generación de astrofísicos observacionales, que con cuidado y mucho trabajo procesaban toda esa información que de manera tan compleja recogemos del Universo, fue la demostración de que todo ha de cambiar cuando la realidad nos obliga a ello. De hecho, el descubrimiento de esta energía ha supuesto uno de los más importantes acicates de desarrollo de nuevos proyectos de investigación, y también de todo un trabajo en el desarrollo de modelos teóricos que permitan entender cómo es y cómo se expande el Universo.
Dentro de unos meses tendremos los datos de la misión Planck, un satélite cosmológico de la Agencia Espacial Europea: será el broche perfecto para esta década prodigiosa en que la visión que tenemos del Universo ha cambiado por completo.
[/i] http://www.elmundo.es/blogs/elmundo/cosmos/2011/10/04/la-oscura-energia-para-nobel.html
- Debes estar registrado para responder a este debate.