INICIO › FOROS › GENERAL › Lo que tú digas › Hablemos de CIENCIA
Etiquetado: ciencia, Hablemos de CIENCIA
- Este debate tiene 340 respuestas, 25 mensajes y ha sido actualizado por última vez el hace 1 mes por marea.
-
[i]Iniciar cuanto antes la terapia antirretroviral reduce drásticamente -hasta en un 96% de los casos- las posibilidades de transmitir el virus a una pareja sana. Así lo demuestra un estudio que acaban de hacer público los Institutos de Salud de EEUU (NIH en sus siglas en inglés).Las conclusiones de este trabajo, dirigido por la Red de Ensayos para la prevención del VIH, estaban previstas para dentro de cuatro años. Sin embargo, los resultados observados estaban siendo tan positivos, que el ensayo se ha detenido antes de tiempo.
La investigación realizó un seguimiento a más de 1.700 parejas serodiscordantes (uno de los miembros era portador del VIH, mientras que el otro no) de África, Asia, Latinoamérica y EEUU.
En principio, los seropositivos analizados no eran candidatos a la medicación, según las últimas guías de la Organización Mundial de la Salud (OMS) -que establecen que la terapia con antirretrovirales sólo debe iniciarse cuando las células defensivas CD4 están por debajo de 350-. Sin embargo, iniciaron el tratamiento antes de ese umbral para comprobar cuál era su efecto para evitar la expansión del virus.
Impacto
Los resultados fueron muy positivos. Según sus datos, el tratamiento fue capaz de reducir el riesgo de transmisión del virus en un 96%, lo que podría suponer un importante avance en la lucha contra el sida.
«Este hallazgo cambia las reglas del juego y conducirá a una revolución preventiva. Hace que el tratamiento del VIH deba considerarse como una nueva opción prioritaria para la prevención», ha señalado Michel Sidibé, director ejecutivo del programa de la ONU contra el sida (ONUSIDA). «Ahora tenemos que asegurarnos de que las parejas [en las que un miembro es seropositivo] tienen la opción de elegir este ‘tratamiento para la prevención’ y tener acceso a él», ha añadido.
«Es crucial, porque sabemos que el 80% de las nuevas infecciones se deben a la transmisión sexual», ha señalado, por su parte, Margaret Chan, directora general de la OMS, quien ha añadido que «los hallazgos de este estudio apuntalarán las nuevas guías que la OMS prevé editar en Julio para las personas que viven con VIH y sus parejas».
Según sus previsiones, la disponibilidad del ‘tratamiento para la prevención’ animará a la gente a hacerse la prueba del VIH y contribuirá a reducir el estigma y la discriminación que aún rodea al sida.
Se estima que sólo la mitad de los 33 millones de personas que tienen el VIH saben que son seropositivos. «Un aumento en los análisis para comprobar si se es portador del virus tendrá un impacto significativo en la respuesta frente al sida, especialmente si más personas tienen acceso a los tratamientos», han señalado ONUSIDA y la OMS en un comunicado.
Según sus previsiones, las nuevas guías incluirán recomendaciones específicas para incrementar el acceso a la prueba del VIH y aconsejará el uso de antirretrovirales en parejas serodiscordantes.
En el texto, la agencia de la ONU recuerda que la terapia con antirretrovirales no debe usarse como único método de prevención contra el VIH, sino en combinación con otras fórmulas, como el uso del preservativo o la circuncisión, entre otras.
[/i] http://www.elmundo.es/elmundosalud/2011/05/12/hepatitissida/1305217568.html [i]El descubrimiento científico de 2011, elegido por la revista ‘Science’, no parece, a simple vista, tan espectacular como otras veces. No se trata de una nueva molécula clave para el cáncer o de la identificación de un tipo de vida desconocida hasta el momento. Lo más importante para la ciencia este año es el tratamiento antisida, un conjunto de fármacos ya conocidos que, por primera vez, se han revelado como la estrategia más eficaz para prevenir la transmisión del VIH.Porque averiguar que esta terapia reduce hasta un 96% las posibilidades de infectar a otra persona «cambia completamente las reglas del juego» y por los enormes impactos que tendrá en la salud y en las políticas sanitarias, ‘Science’ ha decidido conceder al estudio HPTN 052, que reveló todos estos datos sobre el tratamiento, el título de ‘Descubrimiento del Año’.
El trabajo, que se publicó en agosto en la revista ‘New England Journal of Medicine’, puso fin a un debate que llevaba mucho tiempo enfrentando a los investigadores. Algunos sospechaban que esta medicación podía tener un doble beneficio y, además de controlar al virus en los pacientes infectados, reducía las posibilidades de transmitir el VIH a otros, mientras que un grupo numeroso de escépticos argumentaba que el último extremo nunca había sido probado y, por tanto, era «atrevido y peligroso» recomendarlo como estrategia de prevención.
El estudio HPTN 052 zanjó de pleno la cuestión. Myron Cohen, de la Escuela de Medicina de la Universidad de Carolina del Norte y un equipo de investigadores internacionales comenzaron el trabajo en 2007, con 1.763 parejas heterosexuales serodiscordantes -en las que uno de los miembros estaba infectado por el VIH-. Los participantes eran de nueve países: Brasil, India, Tailandia, Estados Unidos, Botsuana, Sudáfrica, Kenia, Malawi y Zimbabue.
La idea era darles a la mitad los fármacos antisida nada más comenzar el estudio y a la otra mitad dárselo cuando lo necesitaran por fuerza, cuando sus defensas bajasen hasta el límite considerado como definitorio de sida. Pretendían comparar a ambos grupos hasta 2015, pero cuatro años antes los resultados ya eran tan espectaculares y el papel de los fármacos como arma preventiva tan claro que suspendieron la investigación para darles a todos la terapia y hacer público el hallazgo.
La reacción internacional
«Lo que resultó sorprendente de este trabajo fue la magnitud de la protección y luego el impacto que los resultados tuvieron entre investigadores y formadores de políticas contra el sida», destaca Jon Cohen, de la revista ‘Science’. «Esto no significa que sólo tratar a la gente pondrá fin al sida, pero en combinación con otras estrategias sí que se puede doblegar a la epidemia», añade.
El hallazgo fue tan importante que hasta la secretaria de Estado de EEUU, Hillary Clinton, se atrevió a decir que «el objetivo de lograr una generación libre de sida es ambicioso, pero ahora sabemos que es posible».
Françoise Barré-Sinoussi, viróloga del Instituto Pasteur y ganadora del Premio Nobel de Medicina por el codescubrimiento del VIH, reconoce que «esta investigación ha tenido un gran impacto en nuestra visión de futuro. Ha cambiado el escenario y lo ha hecho más favorable para nosotros».
También Julio Montaner, experto en sida de la Universidad British Columbia de Vancouver (Canadá) se expresa en la mima línea y señala que «este estudio era la pieza del puzzle que faltaba para zanjar todas las dudas sobre la medicación».
Sin embargo, no todo es favorable. Ahora se tiene la evidencia de que el tratamiento salva vidas y previene infecciones. El gran problema es cómo llevarlo a la práctica. En la actualidad 15 millones de personas con VIH que necesitan urgentemente medicarse, no tienen acceso a los fármacos. Anthony Faucci, director de los Institutos de Alergia y Enfermedades Infecciosas (NIAID) de EEUU y una de las voces más reconocidas en el campo del sida insiste en esta cuestión: «Tenemos los datos, la certeza de que el tratamiento controla la epidemia. Es hora de ir a por todas y extender el acceso a la terapia».
Los otros hitos de salud
Además de la terapia antirretroviral, que ocupa el primer puesto de los hitos científicos de 2011, en la lista de los 10 más importantes hay otros dos estudios con aplicaciones en el campo de la salud.
Uno de ellos es el ensayo clínico de una vacuna contra la malaria, la RTS,S, que tras probarse en más de 15.000 niños de siete países africanos ha dado unos resultados esperanzadores y hace pensar, por primera vez, que la inmunización contra el paludismo puede estar cerca.
La investigación en profundidad del microbioma -los microbios que viven en el intestino- demostró que todos tienen una bacteria dominante (Bacteroides, Prevotella o Ruminococcus) que actúa como ‘líder de la pandilla’ y encabeza a los demás por el tracto digestivo. Una de ellas prospera con una dieta rica en proteínas mientras que las otras son más vegetarianas. Por sus implicaciones en nutrición ha sido otro de los descubrimientos del año.
[/i]
http://www.elmundo.es/elmundosalud/2011/12/22/hepatitissida/1324576844.html [i]En las personas infectadas con VIH y que reciben tratamiento con medicamentos antiretrovirales, se reduce en un 96% la probabilidad de contagiar el virus a sus parejas. Esto se ha demostrado en un estudio clínico con pacientes, y es el avance científico más importante de 2011, según la revista estadounidense Science, que prepara todos los años la clasificación de lo que han sido, según sus expertos, los descubrimientos más destacados en los últimos doce meses. Tras la investigación sobre el sida, que aclara finalmente el debate acerca de si la medicación proporciona o no el doble beneficio de tratar a quienes tienen el virus y a la vez cortar las tasas de expansión de la enfermedad, se sitúa en la lista de los 10 mejores del año la sonda espacial japonesa Hayebusa, que trajo a la Tierra polvo de un asteroide. El tercer puesto es para los estudios de paleontología genética que han demostrado que los humanos actuales tienen en sus genomas rastros del ADN de antepasados remotos.Tratamiento y prevención del sida
El estudio denominado HPTN 052 arrancó en 2007 con 1.763 parejas heterosexuales (uno de cuyos miembros estaba infectado con VIH) de Brasil, India, Tailandia, Estados Unidos, Botswana, Kenia. Malawi, Suráfrica y Zimbabue. El experimento clínico, financiado con 73 millones de dóalres, consistía en suministrar antirretrovirales a la mitad de las personas infectadas inmediatamente y retrasar la medicación para el resto hasta que en ellas hubiera descendido el recuento de células CD4 del sistema inmune hasta 250 por mililitro de sangre (el nivel indicador de desarrollo de sida se ha establecido en 200 CD4). El ensayo iba a durar hasta 2015, pero ya en abril de este año, una evaluación independiente del como avanzaba, recomendó hacer públicos los resultados, que se presentaron en agosto, por sus conclusiones y por sus implicaciones para la lucha contra la pandemia. De las 28 personas infectadas con VIH durante la prueba, solo una era del grupo que tomó antirretrovirales desde el principio. Se recomendó que se suministrara medicación apropiada a todos los participantes en el ensayo clínico, dados los efectos positivos comprobados.
La validez de los tratamientos para reducir la transmisión del virus se había planteado ya antes del estudio HPTN 052, dirigido por Myron Cohen, dado que se reduce la carga viral en el organismo infectado. Pero había controversias al respecto, puesto que esta hipótesis no se había comprobado. “Ahora tenemos datos absolutamente comprobados”, declaró Anthony Fauci, experto internacional en VIH y sida y director del Instituto Nacional de Alergia y Enfermedades Infecciosas de Estados Unidos, recuerda Science. “Tenemos sencillamente que olvidar al tensión entre tratamiento y prevención, dejarla atrás, porque el tratamiento es prevención”, añadió.
Para muchos no fue una sorpresa la eficacia de los retrovirales para interrumpir la cadena de contagio, pero sí que sorprendió en general la magnitud de la protección, comenta Science. Los especialistas consideran que incluso se podría, en algunos países, eliminar la epidemia, pero también recuerdan que hay muchas diferencias entre regiones del mundo en cuanto acceso a los medicamentos y las medidas de prevención. “En torno al 52% de la gente que necesita antirretrovirales inmediatamente para su propia salud no tiene acceso a ellos ahora mismo, y eso significa 7,6 millones de personas en el mundo”, señala Jon Cohen, el experto de la revista que presenta el descubrimiento ganador del año.
[/i]
http://sociedad.elpais.com/sociedad/2011/12/22/actualidad/1324571175_527496.html [i]La materia oscura sigue siendo uno de los principales misterios para los astrónomos. Los científicos saben que las galaxias están constituidas en su mayor parte por materia oscura pero ni pueden observarla de forma directa, ni saben de qué se compone. Ahora, un equipo internacional de astrónomos de la Universidad de Edimburgo (Escocia) y de la British Columbia (Canadá) ha elaborado un mapa que muestra cómo se distribuye la materia oscura del Universo a una escala sin precedentes.El hallazgo ha sido presentado durante el 219 encuentro que la Sociedad Astronómica Americana (American Astronomical Society) celebra en Austin, Texas (EEUU) del 8 al 12 de enero.
Los investigadores, liderados por Catherine Heymans y Ludovic Van Waerbeke, han mostrado un Universo compuesto por una compleja red cósmica de materia oscura y galaxias que se expande en una región de 1.000 millones de años luz.
«Saber cómo se distribuye la materia oscura es el primer paso para comprender su naturaleza y cómo encaja con los conocimientos que actualmente tenemos sobre la física», explica Ludovic Van Waerbeke, de la Universidad British Columbia.
Los científicos calculan que un 23% del Universo estaría compuesto por materia oscura mientras que menos de un 5% sería materia ordinaria. El resto, aproximadamente un 72%, es energía oscura.
10 millones de galaxias
Para elaborar el mapa, los investigadores del proyecto ‘Canada-France-Hawaii Telescope Lensing Survey (CFHTLenS)’, analizaron imágenes de 10 millones de galaxias en cuatro regiones diferentes del cielo. La materia oscura no puede observarse directamente así que los astrónomos estudiaron la distorsión de la luz emitida desde estas galaxias. Los resultados obtenidos tras las observaciones coinciden con los conseguidos en simulaciones realizadas con ordenador.
«Es fascinante ser capaces de ‘ver’ la materia oscura mediante la distorsión espacio-tiempo. Nos permite un acceso privilegiado a esta misteriosa materia del Universo que no puede ser observada de otro modo», asegura Van Waerbeke.
La mayor parte de las galaxias estudiadas en este proyecto se encuentran a una distancia de unos 6.000 millones de años luz. La luz captada en las imágenes tomadas por el telescopio CFH (Canada-France-Hawaii Telescope) fue emitida cuando el Universo tenía 6.000 millones de años, es decir, aproximadamente la mitad de edad que tiene en la actualidad.
Catherine Heymans, de la Universidad de Edimburgo, confían en que radiografiando más materia oscura de la que ha sido estudiada hasta ahora, estaremos más cerca de entender sus características y su relación con las galaxias de nuestro Universo.
En los próximos tres años, los astrónomos que participan en este estudio esperan multiplicar por diez la zona cartografiada por el proyecto CFHTLens.
[/i] http://www.elmundo.es/elmundo/2012/01/10/ciencia/1326213576.html [i]Disparos cortísimos de un láser de un billón de vatios para destruir nanocristales en explosiones diminutas: es algo que puede parecer sacado de una novela futurista, pero en realidad es una aplicación de unas nuevas y poderosas máquinas que está causando revuelo en la biología por las expectativas que abre. Conocer la estructura atómica en tres dimensiones de las proteínas, los bloques básicos de las funciones vitales, es uno de los desafíos más importantes que todavía tiene planteados la biología, e incluso hay concursos mundiales para estimular su resolución. Es básico, por ejemplo, conocer cómo es una proteína de membrana de una célula para saber cómo se engancha el virus del sida para infectarla y poder desarrollar medicamentos que lo impidan.Pese a los avances, muchísimos, en los últimos 50 años y recientes herramientas como los sincrotrones, aún queda bastante camino por andar y por eso un nuevo tipo de láser, XFEL, que ya funciona en Estados Unidos y que se está construyendo en Europa, da razones para el optimismo. Su secreto es que emite ráfagas de pulsos más cortos y de mayor energía, lo que teóricamente da mucha mejor resolución.
La primera confirmación para este optimismo proviene de un experimento realizado en el láser de rayos X del laboratorio estadounidense SLAC por un equipo internacional liderado por científicos del laboratorio europeo DESY. Con pulsos de solo 30 femtosegundos (un femtosegundo es un tiempo inimaginablemente corto equivalente a 10 elevado a -14) han conseguido obtener información estructural de nanocristales del complejo Fotosistema I a pesar de que los destruye instantáneamente con su enorme energía por centímetro cuadrado. Es el pulso más corto que se ha conseguido hasta ahora y los resultados son sorprendentes.
Las muestras dan información cuando ya no existen
La técnica básica es la misma que utilizaba para intentar desentrañar la estructura del ADN hace 50 años Rosalind Franklin, que encaminó a Watson y Crick hacia su ¡Eureka! de la doble hélice. Se radian cristales con rayos X y se obtienen patrones de difracción que permiten deducir la estructura tridimensional de la muestra. “La difracción de rayos X es quizás la técnica que más ha influido en la biología molecular”, explica José María Valpuesta, experto en estructuras moleculares y director del Centro Nacional de Biotecnología. “Sin embargo, está claro que su uso tiene un cuello de botella, la generación de cristales”. El problema es que de muchas moléculas no se obtienen cristales de tamaño suficiente para ser irradiados, incluso con las fuentes de rayos X de alta energía como son los sincrotones. Pero también está el problema de la destrucción de la muestra antes de poder extraer la información.“Un gran problema técnico planteado, a medida que aumentó la energía aplicada en los sincrotrones de tercera generación, es el deterioro de la muestra expuesta a la radiación”, recuerda Cele Abad-Zapatero, experto en estructuras de proteínas. “Algunos investigadores vieron con escepticismo el papel de los láseres de rayos X en la resolución de estructuras biológicas, dada la gran cantidad de energía por unidad de área que estas fuentes pueden concentrar en nanomuestras, que resultarían vaporizadas”.
Por eso, la sorpresa ha sido grande. Con pulsos más largos de lo que se creía imprescindible, que bombardean un chorro, de cuatro micras de diámetro, de nanocristales en un medio líquido, se ha obtenido buena información de muestras que, paradójicamente, resultan destruidas antes de que termine el pulso. Aunque todo sea física y química, el proceso ya no es el mismo que en los sincrotrones, dicen los científicos, liderados por Anton Barty y Henry Chapman, al presentar su trabajo en Nature Photonics.
La clave de los resultados inesperados obtenidos es la cristalinidad”, según los científicos
“La clave de los resultados inesperados que hemos tenido es la cristalinidad”, explica Chapman. Debido a la estructura cristalina (regular) los rayos X no se dispersan de forma uniforme en todas las direcciones y el patrón obtenido se forma antes de la explosión de la muestra, como si el pulso fuera más corto.“En un sincrotrón todo sucede más despacio y hay tiempo suficiente para que se produzca daño en los enlaces químicos”, añade Barty. “En un láser de rayos X la muestra se convierte en plasma en pocos femtosegundos. Durante las primeras fases de la explosión los átomos se quedan en su sitio, debido a su propia inercia y se puede registrar la estructura”.
“El desarrollo de esta nueva fuente de radiación supone un avance enorme en muchos campos, pero desde luego en la cristalografía de rayos X”, dice Valpuesta, quien concluye: “Esta técnica puede teóricamente utilizarse sobre moléculas no cristalizadas, con técnicas tomográficas, lo que, de conseguirse, abriría un campo casi infinito para la determinación estructural de cualquier tipo de molécula sin necesidad de ser cristalizada”.
“El trabajo parece un avance técnico cualitativo importante”, señala Abad-Zapatero. “Abrirá las puertas a la obtención de estructuras biológicas difíciles de cristalizar, entre ellas las proteínas de membrana, y permitirá mantener el crecimiento del Banco de Datos de Proteínas, que ya almacena 77.000 estructuras, para encarar problemas biológicos cada vez más difíciles de resolver y de mayor relevancia científica y médica”.
[/i] http://sociedad.elpais.com/sociedad/2012/01/10/actualidad/1326191845_474311.html [i]Esta ‘Herradura Cósmica’ es uno de los casos más perfectos y espectaculares del fenómeno conocido como ‘anillos de Einstein’. La galaxia rojiza en el centro de la imagen (LRG 3-757) actúa como una lente gravitacional que amplifica y distorsiona la imagen de otra galaxia azul, muchísimo más lejana, que se encuentra exactamente detrás de la primera. El buen alineamiento entre las dos galaxias hace que la luz de la más lejana forme un anillo casi completo en torno a la más cercana.Un telescopio verdaderamente astronómico
Cuando dos galaxias se encuentran en nuestra misma línea de mirada podemos asistir a uno de los fenómenos más espectaculares de la naturaleza: lo que se denomina una ‘lente gravitacional’.Este fenómeno se ilustra en la figura adjunta, en la que la esfera azul representa a la Tierra y la esfera anaranjada a una galaxia cercana que se encuentra bien alineada con la galaxia espiral más lejana. La teoría de la relatividad general de Einstein predice que la galaxia cercana distorsiona las líneas del espacio-tiempo, lo que se representa con la malla amarilla de su entorno. Los rayos de luz emitidos por la galaxia lejana se curvan siguiendo esta malla que los redirige hacia la Tierra.
Los observadores en la Tierra veremos una imagen muy deformada de la galaxia más distante: normalmente unos arcos luminosos en torno a la imagen de la galaxia cercana.
Es un fenómeno similar al que se produce cuando observamos una luz a través del fondo de un vaso con líquido y vemos la imagen deformada de la fuente de luz. La galaxia más próxima actúa como una lente colosal que redirige los rayos de la luz emitida detrás para crear una imagen distorsionada. Se trata de una especie de gigantesco telescopio proporcionado por la propia naturaleza.
Anillos de Einstein
Si las dos galaxias se encuentran perfectamente alineadas, la imagen de la galaxia lejana formada por la lente es un anillo de luz centrado en la galaxia próxima. El fenómeno fue predicho por Albert Einstein hace ahora unos 75 años, por eso las figuras circulares que se forman reciben el nombre de ‘anillos de Einstein’. El propio Einstein consideraba que se trataba de un fenómeno muy sutil y dudaba que pudiese llegar un día en que se observarse, por lo que lo consideró una curiosidad más que una herramienta de trabajo.Sin embargo, gracias al progreso de la observación astronómica, que no pudo ser anticipada por Einstein, se conocen hoy centenares de lentes gravitacionales. Muchas de tales lentes tienen la forma bien circular, aunque casi siempre incompleta, de los anillos de Einstein.
Cuando hay varios objetos en la misma línea de mirada se producen arcos múltiples, más o menos centrados sobre la lente dependiendo del alineamiento relativo. Muchos de estos anillos de Einstein se detectan bien mediante observaciones en radioastronomía.
Un anillo casi perfecto
La imagen que encabeza este artículo muestra el sistema denominado LRG 3-757. Se trata de una galaxia roja y muy luminosa (LRG son las siglas de Luminous Red Galaxy) detectada primeramente en el Survey Digital de Sloan (SDSS) por un equipo internacional de astrónomos liderado por Vasily Belokurov de la Universidad de Cambridge (Reino Unido). La imagen que presentamos aquí fue obtenida recientemente con la cámara de gran campo del telescopio espacial Hubble.
La galaxia próxima está a unos 4,6 miles de millones de años-luz, mientras que la distante se encuentra a 10,9 miles de millones de años-luz. Esta observación permite por tanto estudiar cómo eran las galaxias cuando el Universo tenía apenas 3.000 millones de años de edad (su edad actual es de 13,7 miles de millones de años). La nueva imagen revela el anillo asombrosamente perfecto: uno de los más completos y regulares de los observados hasta la fecha. Tiene un diámetro en el cielo de unos 10 segundos de arco, unas cinco veces más grande que los mayores de los otros anillos conocidos. Su simetría se debe al buen alineamiento entre las dos galaxias y la Tierra. El estudio de este anillo permite estimar la masa (tanto estándar como oscura) de la galaxia lente y la composición de la galaxia lejana mediante la espectroscopía del arco.
[/i] [url url=http://imageshack.us/photo/my-images/692/13267384770.jpg/]http://img692.imageshack.us/img692/7831/13267384770.jpg[/url]
La imagen real;[url url=http://imageshack.us/photo/my-images/821/1326738477extrasladillo.jpg/]http://img821.imageshack.us/img821/7570/1326738477extrasladillo.jpg [/url]
Dibujo esquemático explicativo.[i]Un grupo de investigadores del Departamento de Energía de EEUU y de la Universidad de Oxford han utilizado el láser de rayos X más potente del mundo para calentar por primera vez un trozo de materia hasta los dos millones de grados. Con ello demuestran algo con lo que siquiera soñaban los pioneros de esta fuente de luz cuando comenzaron a trabajar con el láser hace ahora 50 años.Explicado de otra manera, lo que han logrado los científicos es recrear en un laboratorio las condiciones físicas del interior de las estrellas.
Los experimentos se llevaron a cabo en California (EEUU) gracias a una potente herramienta llamada Linac Coherent Light Source (LCLS). Esta fuente de luz, cuyo disparo rápido de pulsos de rayos láser son mil millones de veces más brillantes que los de cualquier otra fuente de rayos X, es capaz de producir tanta energía como la que produce todo Bélgica.
Los científicos utilizaron estos pulsos de calor sobre un pequeño trozo de papel de aluminio, creando lo que los físicos llaman «materia densa caliente». En menos de una billonésima de segundo, este plasma sólido alcanzó una temperatura de alrededor de dos millones de grados centígrados.
Crear plasma a partir de un metal sólidoEsta hazaña, publicada en el último número de la revista ‘Nature’, hace dar a los científicos un importante paso adelante en la comprensión de la materia más extrema que se encuentra en el corazón de las estrellas y de los planetas gigantes. Además, según los autores, podría ayudar a recrear en el laboratorio el proceso de fusión nuclear que impulsa el Sol.
«Hacer materia densa extremadamente caliente es importante científicamente para entender las condiciones que existen dentro de las estrellas y en el centro de los planetas gigantes en nuestro Sistema Solar y más allá», explica Sam Vinko, investigador de la Universidad de Oxford (Reino Unido).
Hasta ahora, la ciencia sólo había conseguido crear plasma a partir de gases, porque no se disponía de herramientas que permitieran hacer lo mismo con densidades sólidas que no pueden ser penetradas por los rayos láser convencionales.
«El LCLS, con su longitud de onda de rayos X ultra-corta, es el primer instrumento que puede penetrar un sólido denso y crear un parche uniforme de plasma al mismo tiempo», explica el coautor Bob Nagler, del Laboratorio Acelerador Nacional SLAC del Departamento de Energía de EEUU.
El científico del Imperial college London, Jon Marangos, también destaca en un articulo que acompaña la investigación en la propia revista ‘Nature’ las virtudes del instrumento láser. «El LCLS ha permitido los primeros estudios sobre materia expuesta a rayos X con energías del orden del kiloelectrónvoltio y ha sido usado para describir nanocristales y virus», comenta.
«Las 60 horas que transcurrieron cuando por primera vez se dirigió la LCLS sobre un sólido fueron las más emocionantes de toda mi carrera científica», asegura Justin Wark, líder del grupo de Oxford. «En mi opinión, el LCLS realmente va a revolucionar este campo de investigación».
[/i] http://www.elmundo.es/elmundo/2012/01/25/ciencia/1327513687.html [i]La fuerte atracción hacia el polo norte provocará dentro de millones de años la fusión de América y Asia dando lugar a Amasia, el nombre con el que científicos estadounidenses han bautizado al que creen que será el próximo supercontinente de la Tierra.Según sus cálculos, esta gran masa de tierra llegará a formarse dentro de entre 50 y 200 millones de años, de acuerdo con una investigación publicada en la revista británica ‘Nature’.
Así, ambos continentes se unirán por el polo norte, mediante una cordillera montañosa que permitirá cruzar de Alaska a Siberia y viceversa, de acuerdo con expertos de la Facultad de Geología y Geofísica de la Universidad de Yale (EEUU).
América permanecerá situada sobre el anillo de fuego del Pacífico, una zona de intensa actividad sísmica y volcánica, pero su orografía cambiará radicalmente porque la atracción hacia el Polo fusionará América del Sur con el Norte.
Este desplazamiento provocará a su vez la desaparición del océano Ártico y del mar Caribe, según explicó Ross Mitchell, geólogo de Yale y uno de los autores del artículo.
Nuna, Rodinia y PangeaHan pasado alrededor de 1.800 millones de años desde que se formó el primer supercontinente, Nuna, al que siguieron Rodinia y Pangea, última gran masa de tierra con centro en el África actual y que con el tiempo y la acción de las placas tectónicas conformó los continentes actuales.
El estudio del magnetismo de las rocas de entonces ha servido en el presente al equipo de Mitchell para determinar la distancia que existió entre uno y otro y estimar dónde se situaría Amasia, cuyo centro localizan en algún punto del actual océano Ártico, a noventa grados de distancia del centro del supercontinente anterior, Pangea.
Esta teoría, a la que han denominado ortoversión, desafía los dos modelos tradicionales defendidos hasta el momento para predecir la evolución de las masas terrestres, según detalló Mitchell.
De estas dos últimas hipótesis, una sugiere que la próxima gran masa continental se formará sobre la región en la que existió el supercontinente anterior (introversión), y la otra, todo lo contrario, defiende que será en un punto opuesto a donde se encontraba su predecesora (extroversión).
De esta forma, los partidarios de la introversión localizan el centro del próximo supercontinente en África, mientras que los defensores del modelo de extroversión lo sitúan en el océano Pacífico, en algún punto entre las islas de Hawaii, Fiji y Samoa.
Según estos modelos, la unión se produciría a través del océano Atlántico o del Pacífico respectivamente, mientras que el modelo de Mitchell se decanta por una unión a través del Ártico.
[/i] http://www.elmundo.es/elmundo/2012/02/08/ciencia/1328729688.html Un estudio, con participación del Instituto de Astrofísica de Canarias (IAC), ha descrito una novedosa técnica que podría llevar al descubrimiento de vida extraterrestre en otros planetas. Entre otros marcadores, este nuevo sistema, que se presenta en el último número de la revista ‘Nature’, incluso es capaz de detectar si un planeta tiene vegetación. Según han explicado los autores del hallazgo, la clave del trabajo ha sido estudiar la Tierra de forma indirecta, es decir, a través del reflejo que proyecta sobre su satélite, la Luna.
«El sol brilla sobre la Tierra y esta luz se refleja a su vez sobre la superficie lunar. El satélite, por tanto, actúa como un gran espejo que devuelve la luz terrestre hacia el planeta», ha explicado el investigador del Observatorio Europeo Austral (ESO) y principal autor del trabajo, Michael Sterzik.
El equipo ha investigado el fenómeno con el Very Large Telescope (VLT), ubicado en el desierto de Atacama (Chile) con el fin de encontrar indicadores, como por ejemplo, ciertas combinaciones de gases en la atmósfera terrestre, que se consideran indicios de vida orgánica. El objetivo era convertir la Tierra en una referencia para la búsqueda de vida en otros planetas más allá del Sistema Solar.
A diferencia de investigaciones anteriores, la nueva técnica explota la polarización (orientación de los campos magnéticos y eléctricos de la luz). Cuando la luz solar se refleja sobre la Tierra, queda polarizada. Y, según la superficie sobre la que se refleje (hielo, nubes, tierra y océanos), se polariza en un grado determinado.
Método sencillo
Los científicos han indicado que esta nueva forma de buscar vida extraterrestre trata de vencer las dificultades que entrañan los métodos convencionales: la luz de un exoplaneta distante es muy difícil de analizar porque es eclipsada por el potente resplandor de la estrella que lo ilumina.
En este sentido, el investigador del Observatorio de Armagh (Reino Unido), Stefano Bagnulo, ha explicado que «este sistema es comparable a tratar de observar un grano de polvo junto a una bombilla potente». «Sin embargo, el reflejo del planeta sobre su satélite está polarizado (orientado en una dirección), lo que permite su análisis de forma sencilla mediante técnicas polarimétricas», ha apuntado.
Para los expertos la clave de este proyecto es que se analizó la luz que reflejaba la Tierra sobre la Luna como si fuera la primera vez. Ésto llevó a los astrónomos a concluir que la atmósfera terrestre es parcialmente nubosa, que parte de su superficie está cubierta por océanos y otro dato especialmente crucial es que hay que hay vegetación.
El investigador del IAC, Enric Palle, ha indicado que, «si existe, encontrar vida fuera del Sistema Solar depende exclusivamente de disponer de técnicas adecuadas». Así, a su juicio, «este trabajo es un paso importante para alcanzar esa capacidad».
El equipo admite que este nuevo método no arrojará datos sobre «hombrecillos verdes» o «vida inteligente», pero su aplicación en las nuevas generaciones de telescopios -más potentes- «podría fácilmente brindar a la humanidad la noticia de que hay vida más allá de su planeta».
http://www.elmundo.es/elmundo/2012/02/29/ciencia/1330520487.html [i]Transportar cosas de aquí para allá, llevarse las propiedades a buen recaudo, acumular. Hace entre seis y tres millones de años, unos primates se pusieron de pie con la intención de tener las manos libres para acarrear cosas de un lado a otro. Fueron unos primeros pasos que comenzaron a transformar su organismo y su mente, hasta llegar a ser humanos.Esta es la hipótesis que mantiene un equipo de investigadores de Estados Unidos, Inglaterra, Japón y Portugal, que han realizado un estudio con chimpancés de los bosques de Bossou, en Guinea Conakry.
Los antropólogos han estudiado chimpancés que viven en libertad en el bosque de Bossou, en Guinea Conakry. Durante 44,5 horas de observación de este laboratorio natural, contabilizaron hasta 742 ocasiones en las que 11 individuos transportaban cosas de un lugar a otro.
«Estos chimpancés proporcionan un modelo de las condiciones ecológicas bajo las cuales nuestros antepasados más tempranos pudieron haber comenzado caminar en dos piernas», ha declarado Brian G. Richmond, de la Universidad George Washington (EE.UU) a ‘ScienceDaily’. «Algo tan sencillo como trasladar cosas, en condiciones adecuadas, puede estar en el origen de nuestra especie», apunta.
Las ricas nueces de cola
El trabajo realizado en Bossou confirma lo que ya sugería Gordon Hewes en un estudio previo de hace 60 años: los chimpancés, dijo, se ponen de pie para llevar alimentos. Lo que no supo precisar Hewes entonces es que lo hacen, especialmente, cuando se trata de algo que no es abundante a su alrededor, por lo que se esfuerzan por apropiárselo por si no vuelven a encontrar ese manjar en mucho tiempo. Al ponerse sobre dos piernas, liberan las manos, y así tienen mucho más fácil el traslado.
Por las fechas que se manejan del ADN y los fósiles y por los datos paleo-ambientales, se sabe que el bipedismo surgió en un momento de cambio climático, en el que los bosques estaban en retroceso y comenzó a extenderse la sabana. Ello podría haber provocado, mantienen los investigadores, que las explosiones de actividad bípeda se sucedieran ante la escasez de alimentos, una presión que fue generando cambios anatómicos fruto de la selección natural.
El artículo se fundamente en dos estudios. Uno es el realizado en la Universidad de Kyoto. En este caso, Ttsuro Matsuzawa permitió el acceso de los chimpancés salvajes a varias combinaciones diferentes de nueces: de palma de aceite (muy común) y de cola (escasas y más preciada por ello).
La presión de la competencia
Supervisó el comportamiento de los simios en tres situaciones: con muchas nueces de palma, con pocas nueces de cola y con muchas de estas últimas. Y quedaron claros sus gustos: las de cola eran las preferidas y competían por hacerse con un gran número de ellas.
Pero, además, cuanto más presión competitiva había, con mayor frecuencia caminaban sobre dos patas para poder acumular las preciadas nueces en las manos. Las ocasiones en las que se pusieron de pie se multiplicaron por cuatro en estas circunstancias. Y es que yendo erguidos incluso podían ir engulléndolas mientras iban de un lado a otro.
Un segundo estudio, realizado por Kimberley Hockings, de la Universidad de Oxford Brookes se extendió durante 14 meses. En ese tiempo, se repitieron diferentes situaciones en las que tenían que competir por recursos escasos. En este caso, hasta un 35% de la actividad de los chimpancés requirió movimientos bípedos, casi siempre cuando querían acumular lo más posible en sus manos.
Todo ello indicaría que el bipedismo tiene su origen en este ‘ansia’ de acumular, que seguimos practicando, aunque otros expertos creen que el ponernos de pie tuvo más de una ventaja. Así opina Manuel Domínguez-Rodrigo, director del proyecto hispano-tanzano de paleoantropología en Olduvai (Tanzania). «En mi opinión es una explicación buena pero parcial porque el bipedismo fue plurifuncional», asegura a ELMUNDO.es.
En concreto menciona, que a nuestros ancestros les permitió tener una visión mayor del entorno para detectar a los depredadores, una menos exposición a la radiación solar, ahorro de energía en desplazamientos largos, y también el transporte, no sólo de comida, sino de armas.
«Por ello, creo que el trabajo está bien, pero es incompleto en sus conclusiones», concluye el investigador.
[/i] http://www.elmundo.es/elmundo/2012/03/26/ciencia/1332762907.html [i]Un damero de ajedrez más que un enmarañado ovillo. Así podría resumirse la forma en que las fibras nerviosas se organizan en el cerebro y así es como las podemos ver en las fotografías que un grupo de expertos del Hospital General de Massachusetts (EEUU) ha obtenido con diferentes técnicas de imagen. Su trabajo, junto con el de otro grupo de la Universidad de California que ha analizado cómo la información genética contribuye en la conformación de la corteza cerebral, nos permite conocer mejor la estructura de ese órgano que todavía sigue siendo un gran desconocido.Aunque se conoce que en la médula espinal y en el tronco del encéfalo, las fibras nerviosas se organizan formando fascículos paralelos derivados de cómo se organiza el sistema nervioso en el desarrollo embrionario, se desconoce cómo es ese patrón de haces en el lóbulo frontal y otras regiones corticales. Hasta ahora sólo se había podido estudiar pequeñas fracciones de esas ‘carreteras’ neuronales en cerebros simples, pero no de humanos. A través de un nuevo escáner de imagen de resonancia magnética de difusión se puede ahora visualizar la distribución de esas fibras en todas las zonas del tejido cerebral.
«Hemos trabajado durante años en esta tecnología para establecer un mapa de la arquitectura de las fibras del cerebro […] Cada secuencia de fibras se conforma como una rejilla tridimensional. Esas fibras, en la parte superior del cerebro, son como un grupo de cables organizados en hojas dobladas, de tal manera que las fibras sólo van en las dos direcciones de las hojas y en otra perpendicular a ellas. Por lo tanto, todas las conexiones del cerebro siguen estas tres direcciones. En la vida embriológica seguir estas direcciones es más simple, pero el cerebro adulto tiene muchos pliegues, con lo que las tres direcciones terminan haciendo curvas», explica Van Weeden, principal investigador del estudio, publicado en la revista ‘Science’.
Un orden establecido
«Los libros clásicos nos dan la idea de que las fibras nerviosas carecen de orden en su recorrido, formando un aparente ovillo de fibras entremezcladas, pero en el cerebro hay tanta fibra que por fuerza tiene que haber un orden, para que no haya un caos. Es un principio esperable, si queremos que los diversos cerebros se comporten parecidamente. No vemos fibras que crucen regiones en oblícuo, igual que un coche no atraviesa los edificios, sino que sigue un orden establecido por reglas de tráfico y la estructura de las calles. Lo que pasa en el cerebro es que las calles y casas están deformadas, porque hay muchos pliegues debidos a crecimiento desigual (como en un cuadro de Dalí), pero las fibras se apañan para caminar por esas calles de manera ordenada, aunque tengan un recorrido deformado. Esto es lo que acaban de demostrar estos científicos para la zona del cerebro donde menos se esperaba que fuera así», explica Luis Puelles, del departamento de Anatomía Humana y Psicobiología de la Universidad de Murcia.
Gracias a esta tecnología, se puede conocer cómo crece el cerebro. «Las conexiones del cerebro maduro parecen reflejar los tres principales ejes establecidos en el desarrollo embrionario», afirma este investigador. Otro dato que han podido comprobar en este trabajo es que las fibras nerviosas no están aisladas sino que se relacionan entre sí. La tercera conclusión que podría extraerse de la investigación, en la que han analizado tejido cerebral de cuatro tipos de monos y de personas vivas, es que esta estructura fibrilar se mantiene entre las especies, es decir, que los cerebros más simples y los más complicados conservan una estructura similar. «En definitiva, ahora tenemos una manera de ver la conectividad del cerebro como un todo, no como áreas aisladas», señala Weeden.
Tal y como explica el investigador español Alberto Ferrús, del departamento de Neurobiología Molecular, Celular y del Desarrollo del Instituto Cajal del Consejo Superior de Investigaciones Científicas (CSIC), «al estudiar esas vías [de fibras] se ve una organización ortogonal [en ángulo recto], esta organización permite decir que la parte más compleja (cortical) del cerebro sigue el mismo patrón de crecimiento que cualquier otra parte del sistema nervioso. Hasta hace poco se pensaba que la corteza era una estructura desarrollada súbitamente en los mamíferos, siendo inicialmente de estructura homogénea. Se hacían deducciones singulares como que ‘la corteza es lo que nos hace humanos’ [ya que la mente emerge de su función]. Estos estudios demuestran que la estructura de la corteza en primates y el hombre no es tan homogénea sino que está organizada en módulos, cada uno con una pauta de conectividad especializada, y que es comparable no obstante con la de otras especies».
Genes y neuronas
El segundo trabajo que publica la revista ‘Science’ va en la misma línea de intentar conocer mejor la estructura del cerebro humano. En este caso, investigadores de la Universidad de California, utilizando un mapeo masivo de la información genética característica de distintas partes de la corteza cerebral, con datos obtenidos mediante una poderosa técnica de resonancia magnética en 406 pares de gemelos adultos (para reducir la variabilidad), han completado un novedoso atlas génico de la corteza cerebral, la capa más superficial del cerebro.
Al comparar gemelos monocigotos con gemelos dicigotos, los autores observaron cómo la influencia genética se comparte separadamente en grupos de áreas que conforman 12 regiones de la corteza. Estas 12 regiones coinciden a grandes rasgos con sectores con una función ya definida en estudios previos.
Comprobaron, por tanto, que la estructura regional funcionalmente especializada de la corteza cerebral está genéticamente controlada y se organiza de una manera jerárquica (varias subáreas forman un área, y varias áreas forman una región).
«Si podemos comprender la base genética del cerebro, podemos tener una mejor idea de como se desarrolla y funciona, información que, a la larga, podemos utilizar para mejorar tratamientos de múltiples enfermedades», concluye Chi-Hua Chen, principal autor de la investigación.
Puelles aclara que este trabajo es «la primera evidencia, de una forma fidedigna, de que también para construir la parte más compleja del cerebro se toma información del genoma. Probablemente estarán implicados miles de genes. Es interesante que haya un orden genético, y, aunque es hermoso verlo confirmado, no nos sorprende, porque sería difícil que fuera de otra manera. El cerebro es lo más ordenado que conocemos. Lo más sorprendente es hasta qué punto encaja bien este análisis con lo que ya se iba sabiendo de funciones diferenciadas en la corteza. Los grupos de áreas cerebrales determinadas en este estudio se agrupan por funciones que resultan predeterminadas por la estructura génica. Los estudios anatómicos y funcionales previos ya habían adelantado particiones similares, pero este nuevo enfoque ha llegado a parecidos resultados desde un ángulo totalmente nuevo. Esto indica que diversos enfoques científicos están llegando a un consenso, lo cual es todo un hito histórico».
Repercusión de los resultados
Los dos trabajos que publica ‘Science’ indican, según Puelles, que «estamos empezando a comprender el cerebro, a ver ‘las piezas de la máquina’ que dependen de los genes, hemos llegado a un dintel de conocimiento a partir del cual podemos empezar a profundizar. Evidentemente, los genes no lo controlan todo al detalle (no hay suficientes, teniendo en cuenta que se calculan 10.000.000.000.000.000 sinapsis –o contactos entre neuronas- y sólo hay unos 20.000 genes), por lo cual, más allá de las ‘piezas’ en cuestión, hasta llegar a la mente, se intercala la microestructura que creamos individualmente al ir viviendo (a este nivel esperaremos diferencias entre los individuos) Por otra parte, sabiendo qué genes son los que predominan en las diversas áreas cerebrales podemos estudiar algunas enfermedades cerebrales de causa genética con mayor detalle».
Sin embargo, no opina lo mismo Javier de Felipe Oroquieta, del Laboratorio Caja de Circuitos Corticales del Centro de Tecnología Biomédica de la Universidad Politécnica de Madrid, quien recuerda que ha habido mucha disparidad en los mapas citoarquitectónicos que han sido elaborados por diferentes investigadores. «Me parecen interesantes estos trabajos pero es difícil de entender el significado de esas diferencias. Cuando uno estudia el cerebro hay muchos niveles de análisis, éste es un nivel macroscópico, pero yo propongo el ultramicroscópico, con el que se pretende conocer el mapa de las sinapsis o sinaptoma», señala este experto.
No obstante, este investigador reconoce que el trabajo de Weeden, aun siendo grosero, es al mismo tiempo maravilloso. De momento lo que se ha podido mostrar es la disposición conjunta de muchas fibras nerviosas, como si viéramos la carretera que une Barcelona con Madrid junto a otras que se cruzan con ella, pero nada más. Necesitamos saber más de lo que pasa entre medias, de las neuronas, de los circuitos, de la sinapsis…».
En la misma línea se expresa Ferrús: «Incluso cuando queremos colocar una función en una estructura todavía no sabemos cuáles son las unidades de esa función. Necesitamos un código para codificar, pero no sabemos ni con qué, ni cómo hacerlo. Estamos muy por detrás de los bioquímicos de los años 50 tras el descubrimiento de la estructura del ADN».
Más optimista se muestra Puelles quien señala que, a pesar de que «estos dos estudios no son rompedores, sí son aclaradores y confirmadores de que se estaba pensando en la dirección adecuada. Ahora podemos plantear nuevas ideas y experimentos más productivos. Es como cubrir una etapa».
[/i] http://www.elmundo.es/elmundosalud/2012/04/03/neurociencia/1333446879.html [i]Tanto se ha hablado de la enorme complejidad del cerebro, y resulta que, al menos en cuanto a la arquitectura de sus conexiones, es “elegantemente simple”, dicen unos científicos que han logrado hacer un mapa de altísima resolución del cableado neuronal. Y esa estructura no es una maraña de fibras, como muchos pensaban. “Hemos descubierto que el cerebro está hecho de fibras paralelas y perpendiculares que se cruzan entre sí de forma ordenada”, afirma Van J.Wedeen, del Hospital General de Massachusetts (EE UU). “El hecho de encontrar una organización simple en el lóbulo frontal de los animales superiores ha sido completamente inesperado, no creo que nadie sospechase que el cerebro tendría este tipo de patrón geométrico omnipresente”, añade. El avance, dicen los científicos, es importante para poder trazar el atlas de las conexiones cerebrales, para conocer su desarrollo y perfilar mejor las teorías sobre cómo funciona este órgano y cómo ha evolucionado.El cerebro, explica la revista Science, donde Wedeen y sus colegas han dado a conocer su trabajo, está hecho de dos tipos de tejido: la materia gris de células nerviosas con funciones específicas, y la materia blanca hecha de largas fibras interconectadas o cables. Las trayectorias y las formas de estos cables, dónde y cómo se cruzan y conectan en sus recorridos se ha considerado siempre un asunto complejo y difícil de abordar. Pero estos investigadores muestran que el cableado cerebral está organizado geométricamente y es sorprendentemente simple.
Todas las fibras forman un único tejido o rejilla tridimensional, como una tela formada por múltiples hilos y doblada. Esta estructura, además, no es exclusiva del cerebro humano, ya que los investigadores han observado el mismo patrón en sus experimentos con cuatro especies diferentes de primates no humanos, además de personas voluntarias.
Los análisis revelan que todas las fibras entrecruzadas o adyacentes con unas vías neuronales dadas son perpendiculares o paralelas a dichas vías. Así se va formando esa estructura de tejido curvado tridimensional. Hasta ahora, destacan los científicos en su artículo en Science, “no estaban claros los principios organizativos de la conectividad cerebral”. Hay varias teorías que proponen una organización geométrica, reconocen, pero los estudios de alta resolución de la conectividad cerebral realizados con sustancias trazadoras habían proporcionado indicios limitados de esa organización geométrica.
El problema es que es difícil obtener imágenes detalladas de las conexiones neuronales en el cerebro humano, en parte, porque la corteza desarrolla muchos pliegues y recovecos que enmascaran la estructura de sus conexiones. Además, la utilización de esos trazadores en la investigación es una técnica invasiva que se ha aplicado en animales, pero que no puede utilizarse con personas.
El hallazgo de Wedeen y sus colegas resulta inseparable del avance tecnológico que les ha permitido alcanzar esa alta resolución en su mapa (aún parcial) de la red de fibras cerebrales. Ellos han utilizado un escáner de resonancia magnética, denominado de imagen por difusión espectral, que revela en el cerebro la orientación de todas las fibras que cruzan por un punto concreto en una vía neuronal. El escáner detecta el movimiento del agua dentro de las fibras para localizarlas y, como puede ver la orientación de múltiples fibras individuales que se entrecruzan en un punto, permite desvelar la estructura de tejido al aplicar a los datos su nuevo sistema de análisis.
“La obtención de un diagrama de alta resolución del cableado de nuestro cerebro es un hito en la neuroanatomía humana”, considera Thomas R. Insel, director del Instituto Nacional de Salud Mental (NIMH) estadounidense. La nueva tecnología “puede revelar diferencias individuales en las conexiones cerebrales que ayuden a diagnosticar y tratar enfermedades cerebrales”.
Conviene recordar que los neurocientíficos atacan la investigación del cerebro desde varios frentes: desde el enfoque estructural, como en este caso del mapa de las conexiones, hasta el funcional, el genético, el molecular, sin olvidar la perspectiva médica, la cognitiva, etcétera.
La resonancia magnética avanzada no solo permite visualizar la red de fibras entrecruzadas, es decir, cómo diferentes partes del cerebro se comunican entre sí, explican los investigadores en un comunicado del NIMH. “A medida que el cerebro se va cableando en la fase de desarrollo temprano, sus conexines forman vías neuronales horizontal, vertical y transversalmente”, continúan. “Esta estructura de tejido parece guiar la conectividad, limitando las opciones de crecimiento a las fibras nerviosas”. Es un desarrollo ordenado, lo que confiere eficacia en la formación de conexiones de las propias fibras. Además, sugieren los científicos, esto facilita la adaptación de la estructura a través de la evolución.
La antigua idea de una maraña de miles de interconexiones del cableado cerebral no tiene sentido desde el punto de vista de la evolución. ¿Cómo podría la selección natural guiar cada uno de esos cables hacía una configuración más eficiente, más ventajosa? “La misma simplicidad de esta estructura de tejido es la razón por la que puede acomodar los cambios al azar, graduales, de la evolución”, explica Wedeen. “Para una estructura simple es más fácil el cambio y la adaptación. Esto tiene sentido desde el punto de vista da evolución y del desarrollo”, concluye.
La nueva tecnología confiere a la investigación mucha más resolución que las técnicas de escáner previas, destacan los expertos. De momento, el mapa es parcial, aproximadamente un 25% de la estructura de la red, del tejido de fibras, del cerebro humano, pero los expertos están ya trabajando con el nuevo escáner para llegar al 75%.
[/i] http://sociedad.elpais.com/sociedad/2012/04/10/actualidad/1334086304_663569.html Paso un rato entretenido leyendo éste tipo de cosas. Me parecen realmente interesantes y creo que son muy útiles para el progreso humano. Muchas gracias marea
:mola: Yo creo que sois cuatro gatos los que lo leen… ;D .PD: Desde aquí quiero disculparme por hacer siempre copy paste.
Hoy traigo dos temas más que interesantes, uno trata sobre LUCA (Último Ancestro Común Universal, en sus siglas en inglés, y enumera las seis posibilidades donde la comunidad científica se centra para encontrarlo. El otro versa sobre un material cuyo potencial desarrollo de todas sus propiedades promete revolucionar nuestro mundo, el Grafeno.
[i]
Buscando a LucaSeis líneas de investigación nos acercan al Último Ancestro Común Universal
CARLOS BRIONES | Publicado el 13/04/2012
Desentrañar el origen de la vida ha sido (y sigue siendo) uno de los grandes retos del ser humano a lo largo de su historia. Saber quiénes somos y de dónde venimos constituye el objetivo fundamental sobre el que se asienta todo nuestro conocimiento. Por eso la ciencia no ha dejado de buscar el “Último Ancestro Común Universal” de todos los seres vivos, conocido por sus siglas en inglés como LUCA. Nos preguntamos cuándo vivió, cómo era, si se desarrolló en ambientes fríos o cálidos y si extraía su energía de las rocas, de la luz solar o de compuestos orgánicos. Pero hay más: en el caso de encontrar vida en Marte o en algún otro cuerpo del sistema solar los científicos querrán saber si es descendiente de LUCA o si fue esa vida la que emigró a la Tierra, por lo que tendríamos un origen extraterrestre. Carlos Briones, investigador del Centro de Astrobiología (CSIC-INTA), analiza esta cuestión e introduce seis líneas de investigación que rastrean la naturaleza de LUCA desde distintos campos científicos.
Adentrarnos en los senderos de un bosque, sumergirnos en las cálidas aguas de un arrecife de coral o analizar al microscopio una gota de agua de una laguna son experiencias muy gratificantes, de las cuales extraemos una misma conclusión: existe una enorme biodiversidad en la naturaleza y son muchas las especies que se relacionan entre sí en cualquier ecosistema.
Fascinado por la diversidad de la vida, en 1859 Charles Darwin recogió en su libro El origen de las especies las evidencias que mostraban la evolución de los seres vivos por selección natural. Además, en el último párrafo de esa iluminadora obra sugirió por primera vez que todas las formas de vida podrían haberse derivado “de un corto número de formas o de una sola”.
Darwin volvió a retomar esta idea revolucionaria en su libro La variación de los animales y plantas domesticados, de 1868. Tres años después, en una misiva al botánico Joseph D. Hooker, planteó que la vida podría haberse originado en “una pequeña charca de agua templada que contuviera todo tipo de sales de fósforo y amonio, luz, calor, electricidad y carbono, en la cual un compuesto proteico se formara químicamente, quedando listo para sufrir cambios aún más complejos”.
Darwin desconocía la naturaleza del material genético, las leyes de la herencia, los mecanismos moleculares que operan en los seres vivos y la complejidad del mundo microbiano. Pero su enorme intuición le llevó a plantear las dos estrategias que en la actualidad utilizamos para investigar sobre el origen de la vida.
La primera de ellas parte de la química más simple -hoy pensamos que estaría activa hace ya unos 4.100 de millones de años (Ma), es decir, unos 450 Ma después de que se formara nuestro planeta- hasta llegar a esa forma especial de la materia que es capaz de auto-reproducirse y evolucionar -tal vez operativa hace 3.800 Ma-. Esta línea de trabajo prosiguió su camino científico con las hipótesis de Alexander Oparin y John Haldane durante la década de 1920, y cobró un impulso fundamental gracias al primer experimento de química prebiótica llevado a cabo por Stanley Miller en 1953.
Un viaje al pasado
Desde entonces, el origen de la vida es un tema de investigación abordable por la ciencia experimental. Así, en muchos laboratorios se trabaja sobre la síntesis de los monómeros biológicos (aminoácidos, azúcares, nucleótidos o lípidos simples) en condiciones abióticas, su polimerización hasta formar macromoléculas biológicas como proteínas y ácidos nucleicos (RNA y DNA), y la auto-organización de estas últimas para originar estructuras progresivamente más complejas.
La segunda aproximación consiste en viajar hacia el pasado por medio de la comparación de los genomas y metabolismos de los seres vivos actuales, asumiendo que las características que más organismos comparten han de ser las más antiguas. Utilizando esta lógica, ¿sería posible llegar hasta un antepasado común de todos los seres vivos que alguna vez se han desarrollado en nuestro planeta?
La respuesta es afirmativa, y de hecho su existencia fue demostrada por Carl Woese y colaboradores a partir de la década de 1970, gracias al análisis comparativo de determinados genes presentes en todas las especies conocidas. Así, más de un siglo después de ser propuesto por Darwin, se corroboraba que todos los organismos compartimos ese antepasado común, bautizado como “progenote” o LUCA -por las siglas en inglés de “Último Ancestro Común Universal”-. LUCA vivió en un período que podemos acotar entre los 3.800 y los 3.500 Ma, puesto que en rocas de hace 3.500 Ma ya se han hallado fósiles de microorganismos evolucionados.
Esta especie ocupa la parte más alta del tronco común del árbol de la vida, y a partir de ella se dividieron los tres grandes grupos de organismos: Bacteria, Archaea y Eukarya. Las bacterias y las arqueas, habitantes mayoritarios de nuestro planeta, son procariotas, seres vivos unicelulares que carecen de núcleo. Muchas bacterias son imprescindibles para que los eucariotas vivamos, pero hay otras que pueden causarnos enfermedades.
Entre las arqueas se encuentran la mayoría de los microorganismos que viven en los ambientes extremos de la Tierra. Por su parte, los eucariotas son seres vivos uni o pluricelulares cuyas células poseen orgánulos especializados y un núcleo celular diferenciado: protistas, plantas, hongos y animales. Entre estos últimos, nosotros. Nuestra especie no es sino una de las decenas de millones de ramas del árbol de la vida actual, y no estamos ni más ni menos evolucionados que las demás. Todas descendemos de LUCA.
Esa especie de la que todos somos herederos está, evidentemente, extinguida. Por tanto, no podemos estudiarla directamente. Aun así, es posible acotar muchas de las propiedades de LUCA comparando los organismos actuales a nivel molecular, y aplicando la lógica evolutiva. En primer lugar, era una especie unicelular y sin núcleo, quizá similar en complejidad a los procariotas actuales. Fue el resultado muy perfeccionado de una línea evolutiva que había combinado con éxito las tres características básicas para la vida tal como la conocemos: un material genético capaz de producir copias de sí mismo, un compartimento definido por una membrana lipídica, y un metabolismo para captar y transformar la materia y energía de su entorno.
De hecho, las redes metabólicas que funcionaban en LUCA eran básicamente las mismas que en cualquiera de los seres vivos actuales. Muchos científicos trabajamos con la hipótesis de que pudo existir una etapa anterior a LUCA, denominada ‘Mundo RNA’, en la que tanto el archivo de la información genética como las actividades metabólicas básicas pudieron recaer en un único tipo de macromolécula: el RNA. En cualquier caso, en nuestro ancestro común ya se había fijado el flujo de información genética en el sentido DNA- RNA -proteína, lo que desde entonces ha caracterizado toda la vida celular.
Biología sintética
Se está estudiando cómo podría ser el genoma de LUCA, y tanto los análisis de los genomas bacterianos más cortos que se conocen como diversos modelos computacionales parecen mostrar que su número de genes estaría comprendido entre los 200 y los 1.000. Además, en el ámbito de la llamada “biología sintética” se está tratando de construir sistemas muy sencillos capaces de auto-reproducirse y evolucionar, sugiriendo así mecanismos quizá explorados por la naturaleza en su camino hacia LUCA.
Cada vez nos aproximamos más al primer antepasado en la genealogía de todas las especies. Entre las múltiples cuestiones que siguen abiertas sobre el origen de la vida están si el complejo proceso que llevó de la química prebiótica a LUCA tuvo lugar en ambientes calientes o fríos, y si las primeras células extraían la energía de las rocas, de la luz solar o de los compuestos orgánicos disponibles. Además, en la actualidad nos estamos preguntando algo aún más sugerente: si alguna vez encontramos seres vivos en Marte u otro cuerpo del sistema solar, ¿serán también descendientes de LUCA? Y, si la respuesta fuera afirmativa, ¿serán ellos quienes emigraron, o bien nuestro origen es extraterrestre?
«Mundo RNA»
Alfredo Berzal-Herranz
Instituto de Parasitología y Biomedicina López Neyra (CSIC). Granada
El RNA es la única molécula capaz de almacenar información genética y de catalizar las reacciones que permiten expresarla. Esto constituye uno de los pilares en los que se apoya la idea de un ‘Mundo RNA’ como estadio evolutivo intermedio entre la química prebiótica y LUCA. Las investigaciones sobre RNAs demuestran la gran versatilidad funcional que encierra el ácido ribonucleico, colocándolo en el centro de los procesos esenciales para la vida, al tiempo que nos hablan de aquel mundo anterior a LUCA. Hoy se estudian RNAs ribosomales y RNAs de transferencia (responsables de la traducción del mensaje genético desde los ácidos nucleicos a las proteínas), ribozimas (RNAs con actividad catalítica), RNAs cortos que regulan la expresión génica, y entidades replicativas con genoma de RNA como viroides y virus RNA.
Las superficies en el origen de la vida
José Ángel Martín Gago
Instituto de Ciencia de Materiales de Madrid (ICMM, CSIC) y Centro de Astrobiología (CSIC-INTA). Madrid
Los primeros pasos hacia la vida en la Tierra se dieron en un planeta envuelto en procesos volcánicos, que recibía una gran cantidad de radiación y meteoritos del espacio exterior. En un momento dado, los gases de su atmósfera se convirtieron en moléculas más complejas. Así, la química prebiótica, la que operaba en la Tierra antes de que hubiese vida, produjo los componentes más sencillos de las bio-macromoléculas, como los aminoácidos o nucleótidos. Posteriormente tuvo que darse otro paso importante. Esas biomoléculas debieron unirse entre sí para formar compuestos poliméricos parecidos a nuestras proteínas o ácidos nucleicos: ¿cómo pudo darse esa transformación? Hoy pensamos que las superficies de ciertos metales o minerales pudieron facilitar ese proceso.
Hipertermófilos: de la fuente termal al laboratorio
José Berenguer
Centro de Biología Molecular Severo Ochoa (CSIC-UAM). Madrid
Los microorganismos más antiguos que aún sobreviven en la actualidad proceden de zonas del planeta en las que todavía reinan las condiciones de elevada temperatura en las que se asume que vivió el ancestro común a todos los seres vivos (LUCA). Estos microorganismos se denominan hipertermófilos, y están tan adaptados a su medio que muchos no pueden crecer a temperaturas inferiores a 60°C e incluso 70°C. En nuestro grupo de investigación estudiamos la biología y las aplicaciones de una bacteria hipertermófila (conocida con el revelador nombre de Thermus thermophilus) que forma parte de este grupo de “fósiles vivientes”. En un trabajo reciente hemos descrito la forma en la que estos organismos, aislados de fuentes termales sintetizan su envoltura externa. Para ello hemos empleado el truco de marcar su superficie de forma irreversible con compuestos fluorescentes sin alterar su capacidad de crecimiento, de manera que una vez reiniciado el proceso (a 70 °C) las zonas de nueva síntesis aparecen con baja fluorescencia en imágenes de secciones microscópicas. La información obtenida nos ha permitido demostrar que la síntesis sigue un patrón helicoidal a partir de un punto central de estas células, de manera que los extremos o polos celulares se mantienen intactos por generaciones. Nuestra extrapolación muestra que este modelo de crecimiento podría ser similar al que tuvo LUCA.
Células mínimas
Andrés Moya
Instituto Cavanilles de Biodiversidad y Biología Evolutiva. Universidad de Valencia
Durante la última década hemos asistido al prodigioso descubrimiento de bacterias con una dotación mínima de genes en sus genomas. Muchas de estas bacterias viven en simbiosis en el interior de células especializadas de los insectos. Las bacterias suministran algunos productos esenciales para los insectos, pero los insectos también suministran recursos abundantes y estables para las bacterias, lo que ha permitido que de forma natural hayan perdido multitud de genes que les eran necesarios a sus antepasados de vida libre, no simbióticos. Dependiendo del tipo de insecto en el que viven y el tiempo que llevan juntos, las pérdidas de genes, en tipo y número, no son iguales. Algunas bacterias todavía presentan genes suficientes como para garantizarles su estatus de organismo, mientras que otras han perdido tantos que ya no podemos decir que lo sean. El estudio comparado de la composición de genes de todas estas bacterias nos da pistas para determinar un número mínimo de genes necesarios para la vida, y con ello postular la posible dotación genética de LUCA.
¿Extraía LUCA energía de las rocas? Explorando en el subsuelo
Ricardo Amils
Centro de Biología Molecular Severo Ochoa (CSIC-UAM) y Centro de Astrobiología). Madrid
La investigación sobre microorganismos extremófilos (literalmente, “amantes de los extremos”) nos está dando mucha información acerca de la enorme capacidad de adaptación de la vida a diferentes parámetros físicoquímicos, entre ellos temperatura, presión, acidez, salinidad, contenido de agua o nivel de radiación. Como uno de los modelos más interesantes para la vida en los extremos (y quizá para el propio origen de la vida), en la actualidad estamos estudiando la geo-microbiología del subsuelo del Río Tinto (en la Faja Pirítica Ibérica), responsable de la acidez y concentración de metales existentes en sus aguas. Durante las perforaciones (hemos realizado dos pozos, de 340 m y 613 m de profundidad) hemos hallado signos inequívocos de la alteración microbiana de la pirita: sulfatos e ión férrico. El uso de diferentes metodologías permitirá identificar la biodiversidad existente en los distintos ecosistemas interceptados. Queremos verificar si en el subsuelo también aparece el tipo de metabolismo predominante en la vida bacteriana del río: la denominada “quimiolitoautotrofía”. Tal capacidad de obtener energía de las rocas es probablemente uno de los primeros sistemas metabólicos (frente a la fotosíntesis o la fermentación) que surgieron en nuestro planeta. Por tanto, quizá LUCA obtenía su energía de esta forma. Nuestro equipo de investigación está formado por microbiólogos, biólogos moleculares, paleontólogos, geólogos, químicos e ingenieros del Centro de Astrobiología y de la Universidad Autónoma de Madrid.
Compartimentos esenciales
Kepa Ruiz Mirazo
Universidad del País Vasco (UPV/EHU). San Sebastián
Los ácidos grasos, como otras moléculas anfifílicas (por ejemplo, los lípidos de nuestras membranas celulares), están constituidos por una cabeza polar, a la que le gusta estar en contacto con agua (es decir, hidrofílica), y una cola que lo odia (hidrofóbica). Esto hace que, en solución acuosa, este tipo de compuestos se organice espontáneamente en estructuras supra-moleculares, como algunas vesículas formadas por finas bicapas cerradas sobre sí mismas, cuya topología es asombrosamente parecida a la de una membrana celular. Vesículas similares podrían haber encapsulado las primeras reacciones metabólicas, junto a las primeras moléculas con capacidad replicativa, lo cual pudo suponer una de las transiciones más importantes en el camino hacia LUCA. El trabajo realizado por nuestro equipo en la Unidad de Biofísica (CSIC-UPV/EHU), en colaboración con el centro BioGUNE, con vesículas de ácido oleico (recientemente publicado en la revista Biophysical Journal), nos permite elaborar modelos sobre la formación de membranas proto-celulares y recrear las primeras condiciones en las que los compartimentos comenzaron a ser fundamentales para la vida.
[/i] http://www.elcultural.es/version_papel/CIENCIA/30879/Buscando_a_Luca [i]Es transparente, flexible, extraordinariamente resistente, impermeable, abundante, económico y conduce la electricidad mejor que ningún otro metal conocido. Hablamos del grafeno, el material que tiene fascinados a científicos y a la industria debido a sus fantásticas propiedades.Aunque fue sintetizado por primera vez en 2004, saltó a la fama en 2010 cuando sus descubridores, los investigadores de origen ruso Andre Geim (Sochi, 1958) y Konstantin Novoselov (Nizhny Tagil, 1974) recibieron el Premio Nobel de Física. Como ya apuntó entonces Andre Geim, las aplicaciones potenciales del grafeno son tantas que ni siquiera eran capaces de enumerarlas.
Los prototipos de baterías fabricadas con electrodos de grafeno son diez veces más duraderas y se cargan en mucho menos tiempo
Este versátil material permitirá fabricar desde dispositivos electrónicos con pantallas flexibles y transparentes y baterías ultrarrápidas a potentes paneles solares, sin olvidar aplicaciones en aeronáutica, medicina y otros sectores que se investigan en la actualidad. Además, supone una base excelente para crear nuevos materiales a medida, en función de las necesidades específicas. Es decir, algo así como materiales a la carta.El estudio de las propiedades del grafeno mantiene ocupados a una gran cantidad de científicos en todo el mundo, entre los que destacan las aportaciones de los físicos teóricos españoles.
En fase de desarrollo
Todos hablan de este material aunque pocos lo han visto. Y es que pese a sus prometedoras aplicaciones, todavía se encuentra en fase de desarrollo. El grafeno es una lámina extremadamente delgada compuesta de carbono (sólo tiene un átomo de grosor). El grafito del que se obtiene es el mismo que se extrae de las minas de carbón y se usa para fabricar lápices, frenos de coches o aceros, por lo que se trata de una materia prima muy abundante en la naturaleza. Para conseguir grafeno se puede partir del grafito natural (las minas españolas son ricas en este mineral) o del grafito sintético.
Sin embargo, el principal obstáculo en la actualidad es que aún no es posible fabricar grafeno a gran escala, según explica Jesús de la Fuente, director de la empresa española Graphenea Nanomaterials, una de las pocas compañías que de momento, producen este material. Avanzare y GranphNanotech son otras dos empresas españolas que trabajan con este material.
Existen varias formas de producir grafeno. La cinta adhesiva (exfoliación mecánica) fue el método que utilizó Geim para aislarlo por primera vez y puede servir para algunos experimentos, pero no es un método válido para la industria. Básicamente se comercializa de dos maneras: en formato lámina y en polvo.
Grafeno en lámina
Graphenea, con base en San Sebastián, es una de las tres principales productoras de grafeno en lámina a nivel mundial (sus dos competidores son estadounidenses): «Es el grafeno de alta pureza y el que reúne las mejores propiedades. Se emplea para fabricar electrodos de baterías, pantallas táctiles, células solares, electrónica digital y analógica de alta frecuencia o composites avanzados para aeronáutica», explica De la Fuente en conversación telefónica.
Para producirlo no se utiliza grafito, sino gas metano, que se transforma mediante una tecnología denominada deposición química en fase vapor (Chemical Vapor Deposition, CVD): «Es una de las grandes ventajas, pues no dependemos de ningún producto mineral», señala.
Muestra de grafeno sobre lámina de silicio. | Graphenea
«Se realiza en un reactor CVD donde se introduce un gas con carbono. Mediante la aplicación de energía se despositan los átomos de carbono sobre un substrato metálico. El siguiente paso es transferir la lámina de grafeno al substrato final que puede ser un polímero, vidrio, silicio u otros, dependiendo de la aplicación», explicaEl precio varía según los tamaños y las propiedades. En los últimos años ha caído ya a la mitad. Una lámina de grafeno cuesta entre 300 y 1.000 euros, una cifra muy asequible para el consumo de investigación pero elevada para otros usos. De la Fuente explica que esperan que el precio siga descendiendo progresivamente y, «a medio plazo (unos cinco años), sea más barato que el silicio, que en la actualidad cuesta alrededor de 50 euros». «A medida que el mercado vaya avanzando el precio irá bajando. Prácticamente cuesta lo mismo producir una lámina que 100.000», afirma.
Esta empresa suministra material a sus clientes desde el verano de 2011, tanto a centros de investigación como a grandes empresas. «El 99% de nuestra producción la vendemos en el extranjero, aunque en España hay una gran actividad de investigación. Las empresas ‘start-up’ están llevando a cabo algunas iniciativas mientras que las grandes empresas están a la espera», explica.
Baterías mucho más duraderas
«El grafeno que vendemos se utiliza, sobre todo, para ensayos. Se está trabajando mucho en almacenamiento de energía. En ultracondensadores (para automóviles, trenes eléctricos y para mejorar el rendimiento de las líneas de distribución eléctrica) y en baterías. Se ha demostrado que con electrodos de grafeno se consiguen baterías diez veces más duraderas».
De hecho, este material podría solucionar uno de las grandes desventajas de los teléfonos inteligentes, cuyas baterías apenas duran un día. Los prototipos de baterías fabricadas con electrodos de grafeno son diez veces más duraderas que las que llevan los teléfonos que se venden en el mercado y se cargan en mucho menos tiempo (aproximadamente media hora).
Sin embargo, habrá que esperar algunos años para disfrutar de estas baterías. Según De la Fuente, Nokia (su principal cliente) no prevé comercializar dispositivos fabricados con grafeno hasta dentro de cinco años.
El grafeno también podrá usarse en televisores OLED (Organic LED), que estarán fabricados con materiales orgánicos y más sostenibles con el medio ambiente: «Ahora se utiliza como material tierras raras, como el indio, que tienen un impacto ambiental muy grande. Además su precio se ha multiplicado por diez». La industria busca un sustituto más económico y sostenible, por lo que el grafeno se perfila como una de las alternativas.
Por lo que respecta a los paneles solares, De la Fuente explica que el objetivo es conseguir células de un 42% de eficacia (es decir, que conviertan en electricidad el 42% de la energía solar que reciben. Las que hay ahora en el mercado tienen una eficiencia de aproximadamente el 16%).
Grafeno en polvo
El grafeno en polvo se utiliza en aplicaciones que requieren un material más barato, como composite para construcción (se suele mezclar con otros materiales). «El proceso de producción de grafeno en formato polvo básicamente parte del grafito como materia prima y consiste en realizar una oxidación violenta y un proceso de ultrasonificación para separar las pequeñas láminas de grafeno que componen el grafito», explica Jesús de la Fuente.
Sus propiedades no son tan buenas como el grafeno en lámina y conduce peor la electricidad. La demanda de este producto, cuyo precio depende de su pureza, sigue siendo pequeña. El de baja calidad cuesta menos de 10 euros el gramo mientras que el de alta calidad ronda los 100 euros.
Óxido de grafeno y grafeno en polvo. | Graphenea.
«Trabajamos también con equipos de alta competición de vela, que necesitan complementos para las fibras de carbono (el grafeno las mejora)». También se han hecho algunos ensayos en laboratorio para incorporarlo a la construcción aunque De la Fuente ve difícil su uso en este sector ya que «hacen falta volúmenes muy grandes y precios baratos».Los científicos estudian también las posibles aplicaciones en medicina. Por ejemplo, para fabricar biosensores y detectar ADN. «También se especula con la posibilidad de producir implantes neuronales y regenerar tejidos nerviosos dañados», señala De la Fuente, aunque advierte que, aunque estos avances médicos lleguen llegan a lograrse, tardarían años en aplicarse.
Por su parte, Elsa Prada, investigadora del Instituto de Ciencia de Materiales de Madrid del CSIC, señala que el grafeno podría usarse también en biodispositivos, en envoltorios bactericidas de medicinas y alimentos y como parte de materiales compuestos más ligeros y resistentes (para aviones, coches, etc.).
Grafeno artificial
Pese a sus extraordinarias cualidades, el grafeno no es perfecto. Sin embargo, sí parece una base muy adecuada para desarrollar nuevos materiales inspirados en él y que incorporen nuevas ventajas. Es decir, algo así como un grafeno perfeccionado. Uno de los últimos desarrollos en esta línea es el llamado grafeno artificial, una investigación publicada recientemente en la revista ‘Nature’ y en la que participa el español Paco Guinea, uno de los mayores expertos en grafeno del mundo.
Junto a colegas estadounidenses de la Universidad de Stanford (California), el investigador del Instituto de Ciencia de Materiales de Madrid (CSIC) ha conseguido fabricar un material que, según explica a este diario, «permite manipular las propiedades más exóticas del grafeno con gran precisión». El denominado grafeno artificial es un primer paso para sintetizar a gran escala materiales con propiedades cualitativamente similares al grafeno. «Se pueden estudiar propiedades que aún no se han observado en el grafeno real, por no tener la pureza necesaria», señala a través de un correo electrónico.
Una de las fases de producción de grafeno en la empresa Graphenea, en San Sebastián.
Este nuevo material ha sido fabricado colocando y moviendo moléculas de óxido de carbono sobre una superficie de cobre, aunque según señala Guinea, «se pueden usar otros metales». De momento, «el artificial es más costoso de producir que el otro grafeno».Antes de ver productos fabricados con grafeno, Guinea cree que será necesario que «se abaraten los costes». El investigador espera «que la demostración de que se puede fabricar grafeno artificial lleve a que otros grupos contribuyan a mejorar las técnicas de producción».
Inspirador de otros materiales
Entre los otros materiales bidimensionales que ha inspirado el grafeno, Elsa Prada destaca el fluorografeno (análogo bidimensional del teflón, con propiedades lubricantes y aislantes extraordinarias), el nitruro de boro hexagonal (aislante cristalino y transparente, de gran dureza, que combinado con el grafeno mejora sus propiedades electromecánicas), el disulfuro de molibdeno (otro cristal bidimensional con prometedoras propiedades para la construcción de una nueva clase de transistores) o el siliceno (versión del grafeno hecho de silicio. Tiene algunas propiedades en común con el grafeno, y como ventaja se podría integrar fácilmente con la electrónica actual basada en el silicio).
Prada, que ha trabajado con Konstantin Novoselov, uno de los descubridores del grafeno, destaca el alto nivel de la ciencia española en el estudio de este material: «El nodo español del proyecto Flagship de la UE es uno de los más activos, y promueve la investigación básica a la par que la transferencia de este conocimiento a la industria», una labor que, si logra éxito, «supondrá una gran cantidad de fondos para la investigación y el desarrollo de la tecnología de grafeno en España», añade Prada.
«En estos tiempos de crisis, nuestro país tiene que apostar por convertirse en productora (y no sólo consumidora) de soluciones y productos con potencial y demanda. En particular, el grafeno puedo brindarnos la posibilidad de ser líderes y exportadores a nivel mundial de una tecnología de futuro», concluye.
[/i] http://www.elmundo.es/elmundo/2012/04/13/nanotecnologia/1334331314.html [i]La relación del consumo de carne con la evolución de la especie humana viene de antiguo. La principal teoría apunta que esa dieta está intrínsecamente relacionada con el desarrollo de un cerebro creciente, que necesitaba tejidos y grasa para su desarrollo. Ahora, además, un grupo de investigadores apunta que este alimento permitió adelantar del destete de las crías, favoreciendo un aumento de la población que afectó a la expansión de la especie por el planeta.Para llegar a esta conclusión, los investigadores, de la Universidad de Lund, en Suiza, han realizado un estudio comparativo entre 67 especies de mamíferos, entre ellas monos, ratones, ballenas, osos o seres humanos, cuyas conclusiones publican en PLoS ONE.
Aseguran que el hecho de que los humanos primitivos se hicieran carnívoros (los chimpancés ya consumen pequeños animales, aunque son principalmente herbívoros) favoreció una dieta de más calidad que permitió a las madres aumentar su prole. «Esto debió tener un impacto crucial en la evolución», asegura Elia Psouni, responsable del estudio.
Unos restos fósiles encontrados por el equipo español que trabaja en Olduvai (Tanzania) confirman que la carne ya era un plato fundamental del menú humano hace casi dos millones de años y que su carencia provocaba enfermedades y muerte.
Más teta para los chimpancés
La duración media del amamantamiento entre las 46 sociedades humanas estudiadas por los suizos varía entre los dos años y los cuatro meses, un periodo que es muy corto para una vida que, en su tope máximo, puede alcanzar los 120 años. Y aún lo parece más si se compara con el de los parientes más cercanos, los chimpancés, que no destetan a sus crías hasta que tienen cuatro o cinco años, pese a que no viven más de 60 años.
Las explicaciones de este hecho han sido muy diversas y muchas se basan en hipótesis sobre el comportamiento social de la especie, el parentesco y la familia.
Grupo de humanos prehistóricos, aprovechando la carne con utensilios de piedra. |Mauricio Antón
El equipo suizo ha comprobado que todos los mamíferos, a lo largo de sus 90 millones de años de existencia, han dejado de amamantar cuando el cerebro alcanzaba una determinada fase de su desarrollo. Y ese punto lo alcanzan antes los carnívoros (es decir, los que reciben al menos el 20% de su energía de la carne) que los herbívoros u omnívoros, debido a que es una dieta de más calidad.Por lo tanto, concluyen en este trabajo, la diferencia entre el primate humano y los gorilas o los chimpancés, en cuanto al destete, también se debe a que el primero es más carnívoro. Psouni reconoce que es una tesis provocativa, pero que «no siempre hay que buscar la cultura por debajo de comportamientos que tienen que ver más bien con la biología».
La investigadora está convencida de que este hecho favoreció un aumento de las poblaciones humanas que fue clave en la expansión de aquellos primitivos homínidos fuera de África.
Hallazgo español en África
El hallazgo del arqueólogo español Manuel Domínguez-Rodrigo, codirector del Instituto de Evolución en África (IDEA), con sede en Olduvai, consiste en un fragmento del cráneo de un niño de dos años que presenta una patología producida por falta de vitaminas que hay en la carne. «Esto indica que ya hace más de millón y medio de años formaba ya parte fundamental de la dieta de la especie y, por ello, cuando no la había, se sufrían daños», explica el investigador a ELMUNDO.es.
De hecho, conseguirla se convirtió en uno de los objetivos fundamentales de los humanos prehistóricos, ya fuera carroñeando la que dejaban otros grandes carnívoros o cazando, algo más complicado.
No obstante, tanto Psouni como Rodríguez-Rodrigo apuntan que este pasado carnívoro no justifica el consumo que hoy se hace. «Hoy existen alimentos con similares propiedades a las de la carne que son buenos sustitutos de ella, pero que no había en la sabana africana», señala el español.
Psouni, por su parte, asegura que su investigación «no tiene que ver nada con el hecho de si los humanos dejan de comer carne o no en la actualidad».
Comer carne y grasa con exceso es para los humanos del siglo XXI un auténtico problema: no sólo genera problemas graves de salud, al generar enfermedades cardiovasculares y obesidad, sino que tiene un insostenible coste medioambiental en el planeta: producir cada kilo de carne (y se hace casi de forma industrial) supone un gasto de entre ocho y 10 kilos de grano.
[/i] [i]Nikola Tesla es, para muchos, el más grande inventor del siglo pasado. Gracias a él, la electricidad llega hoy a millones de hogares en todo el mundo. ¿Pero por qué su nombre ha caído en el olvido? ¿Y qué tuvo que ver en ello Thomas Alva Edison, su gran rival?Nikola Tesla
Llegó a Nueva York el año en que «nació» la Estatua de la Libertad, 1884. Armado con su impecable elegancia parisina y la cabeza llena de ideas, llevaba una carta de recomendación: «Conozco a dos grandes hombres, y usted es uno de ellos. El otro es el joven portador de esta carta». El destinatario de la misiva era un ya célebre Thomas Alva Edison, el padre de la bombilla (y el fonógrafo, y el altavoz, y el micrófono del teléfono, y…). El otro «gran hombre» era Nikola Tesla, un joven serbio desconocido, nacido en 1856 en Smilijan, entonces parte del imperio austrohúngaro e integrado en la actual Croacia. Tesla venía de trabajar en la sede parisina de la Continental Edison, la compañía del inventor norteamericano. Lo mandaba Charles Batchelor, su antiguo jefe europeo.Según llegó a Nueva York, Tesla preguntó dónde estaban las oficinas de Edison. Y allí fue, a hablar con su futuro jefe: salió del despacho con un puesto de trabajo. Pero entre ambos no hubo una gran sintonía. Y poco después la animadversión acabaría en conflicto abierto. Edison defendía un modelo de negocio eléctrico basado en la corriente continua. Y había convencido ya a algunos inversores, aunque aún a una escala muy reducida: su sistema de distribución eléctrica, el primero en el mundo, arrancó en 1882 con 110 voltios de corriente continua y 59 clientes en Manhattan.
Tesla, en cambio, creía en un modelo basado en la corriente alterna. La pugna entre ambos pasó a la historia como «la guerra de las corrientes». Ganó Tesla con su modelo, mucho más eficiente. Gracias a él apretar hoy un interruptor ilumina nuestras casas. Pese a que la memoria histórica ha sido más benévola con otros inventores (Edison, Hertz, Volta…), el mundo debe mucho al enigmático Nikola Tesla.
Gran ingeniero y con una memoria notable –heredada, según él, de su madre: analfabeta pero capaz de recitar poemas épicos serbios que ella nunca pudo leer–, Tesla poseía además una infinita capacidad de trabajo: le bastaba con dormir dos horas al día y, si el trabajo lo requería, podía estar 80 horas sin pegar ojo. «No hay emoción más intensa para un inventor que ver una de sus creaciones funcionando –decía–. Esa emoción hace que uno se olvide de comer, de dormir, de todo». A ese ritmo se empeñó en resolver el primer gran reto que Edison le puso, a solo un año de su llegada: rediseñar sus generadores de corriente continua. Si lo lograba, recibiría 50.000 dólares. Pero cuando se dirigió a su jefe para exigir su paga, Edison sonrió: «Ay, ¡qué poco ha aprendido usted del humor americano!». Despechado, Tesla abandonó la compañía sin aceptar el aumento de sueldo que se le ofrecía.
Poco después, Tesla encontró a su gran aliado en el «conflicto eléctrico» con Edison: el rico empresario George Westinghouse. Este contaba ya, desde 1886, con una pequeña red eléctrica en Massachusetts, basada en la corriente alterna. Pero le faltaba la clave para distribuir la electricidad a gran escala. El motor de inducción, ya inventado y patentado por Tesla, era esa clave. Según la leyenda, el empresario ofreció al inventor un millón de dólares y un porcentaje de los beneficios por los derechos de todas sus patentes. Los papeles que han llegado hasta hoy aportan otras cifras: 60.000 dólares por la adquisición de 40 patentes; cinco mil en metálico y el resto en acciones. Tesla, además, recibiría 2,5 dólares por cada caballo de potencia generado gracias a la electricidad vendida. Cuando las cosas adquirieron una escala mayor, este pago resultó inviable. Hubiese convertido a Tesla en un multimillonario sin precedentes…
Aquellos fueron años intensos, tanto en los laboratorios como en los incipientes medios de comunicación. Tesla y Edison trataban de convencer a la opinión pública de las bondades de su sistema y de los peligros del método rival. Edison no dudó en congregar a periodistas y curiosos para mostrarles los peligros de la corriente alterna aplicando descargas a perros y gatos que mandaba recoger de la calle. Filmó incluso la ejecución de un elefante del circo de Coney Island que había matado a tres hombres. Esto ocurría en 1903. Años atrás, Harold P. Brown –un ingeniero secretamente financiado por Edison– había inventado la silla eléctrica. Se utilizó por primera vez en agosto de 1890, y uno de sus objetivos era desacreditar a la corriente alterna que empleaba…
Precursor del whatsapp
Tesla también fue un mago en utilizar a los medios. Ya célebre, los periodistas se peleaban por arrancarle una entrevista, siempre generosa en titulares. «El presente es vuestro –decía–, pero el futuro es mío». O: «A lo largo del espacio hay energía, y es una mera cuestión de tiempo que los hombres logren aprovechar esa energía. El científico no busca un resultado inmediato. No espera que sus ideas avanzadas sean fácilmente aceptadas. Su deber es sentar las bases para los que vendrán, señalar el camino». Desde este punto de vista, Tesla marcó incluso el camino hacia el SMS, el e-mail y el whatsapp: «Cualquier persona, en mar o en tierra, con un aparato sencillo y barato que cabe en un bolsillo, podría recibir noticias de cualquier parte del mundo o mensajes particulares destinados solo al portador; la Tierra se asemejaría a un inconmensurable cerebro, capaz de emitir una respuesta desde cualquier punto».A su vez, los curiosos de la época se agolpaban para ver su demostración pública del primer dispositivo movido por un mando a distancia: un pequeño barco que dejó atónitos a cuantos se acercaron al Madison Square Garden.
Volviendo a la «guerra de las corrientes», el equipo de Westinghouse y Tesla logró hitos en la Feria Internacional de Chicago, en 1893, dedicada al invento de moda: la electricidad. Para iluminarla, se optó por los generadores de corriente alterna. La otra gran victoria llegó ese mismo año: el grupo de expertos que debía decidir qué sistema adoptar para aprovechar el potencial hidroeléctrico de las cataratas del Niágara otorgó el contrato a Westinghouse, desechando a otras compañías; entre ellas, la de Edison. Muchos dudaban de que el sistema cumpliese su objetivo: alimentar la demanda de la creciente industria de Búfalo. Tesla aseguró que esas cataratas podrían alimentar a todos los Estados Unidos. Y consiguió que su método se implantara en la mayor instalación eléctrica construida hasta la fecha. En 1915 se habló de un supuesto premio Nobel compartido por Tesla y Edison. Se desconoce hasta qué punto el rumor se basaba en hechos reales. El reconocimiento nunca llegó.
[/i] http://www.abc.es/20120423/ciencia/abci-expediente-nikola-tesla-cayo-201204231005.html [i]Científicos españoles han identificado la molécula que utiliza el VIH para propagarse por el organismo, un hallazgo que facilitará la creación de nuevos fármacos más eficaces para frenar la acción del virus y que supone también un paso más en el desarrollo de la vacuna para erradicar el sida.El estudio de científicos del Instituto de Investigación del Sida IrsiCaixa, que publica la revista internacional ‘Plos Biology’, demuestra que el virus del VIH tiene en su cubierta unas moléculas, llamadas gangliósidos, que utiliza para penetrar en las células dendríticas.
En general, este tipo de células son las responsables de capturar y trocear los virus (fagocitar los patógenos) que entran en el organismo para trasladarlos hasta los ganglios, que son un importante centro de control del sistema inmunitario en el que se crean sustancias para destruir los virus y acabar con la infección.
Como si de un Caballo de Troya se tratara, en las infecciones del sida el VIH se esconde en las células dendríticas y cuando estas células llegan a los ganglios, el virus destruye el sistema inmunitario, atacando concretamente a los linfocitos T CD4.
«Con este hallazgo hemos logrado acotar la interacción molecular entre el VIH y las células dendríticas», ha explicado este martes en conferencia de prensa el coordinador del estudio, Javier Martínez-Picado, que es el investigador de la Institución Catalana de Investigación y Estudios Avanzados (ICREA) y del IrsiCaixa.
Los investigadores no sólo han identificado la función de esta molécula clave en la propagación del virus, sino que han demostrado que eliminando los gangliósidos del VIH se evita que las células dendríticas puedan internalizarlo.
Nuevos fármacos
Siguiendo esta nueva diana terapéutica, los investigadores del IrsiCaixa, instituto impulsado por la Obra Social La Caixa y por la Generalitat, trabajarán en fórmulas para crear fármacos que bloqueen la interacción entre el virus y las células dendríticas y que serían complementarios a los tratamientos ya existentes.
El director del IrsiCaixa, Bonaventura Clotet, ha augurado que estos nuevos fármacos serían más eficaces y estables que los tratamientos actuales porque serían menos vulnerables a las mutaciones del virus.
Asimismo, el hallazgo supone un paso más en el desarrollo de la vacuna en la que trabaja el IrsiCaixa a través de su proyecto HIVACAT con el fin de erradicar la enfermedad, un hito por ahora imposible.
Los tratamientos actuales con antirretrovirales sólo frenan la acción del VIH, pero no lo destruyen del todo, porque resiste en algunos reservorios del cuerpo humano, como los ganglios.
Gracias a este estudio, en el que han participado investigadores del Consejo Superior de Investigación Científicas (CSIC) y la Universidad de Heidelberg de Alemania, se vislumbra la vía por la que se pueden hacer entrar los inmunógenos y los fragmentos de microbios desactivados de la vacuna hasta el sistema inmunológico para que éste desarrolle resistencias y se entrene para poder destruir definitivamente el virus.
Inversión en investigación
Clotet ha destacado que los investigadores están «esperanzados» en poder definir los primeros inmunógenos en un periodo de tres años y ha revelado que, desde hace tres meses, se están haciendo las primeras pruebas en ratones.
Sin embargo, para poder llegar a comercializar tanto fármacos como una vacuna a partir del nuevo hallazgo pasará al menos una década, según los expertos.
Clotet ha subrayado la importancia de invertir en investigación porque, si se logra una vacuna, se ahorrarán los millones de euros que se dedican a los fármacos que deben tomar los enfermos durante toda la vida.
En este sentido, Clotet ha considerado que es «poco razonable» la decisión del Gobierno de reducir hasta un 30% la dotación del Plan Nacional de Investigación, lo que ha comprometido la financiación del IrsiCaixa.
Este instituto está financiado en un 40% por fondos del Estado y europeos, mientras que el resto lo aporta la Obra Social La Caixa, la Generalitat y la farmacéutica Esteve. «La excelencia en la investigación que aún mantiene España no se ha hecho en dos días, pero se puede echar por tierra en dos días», ha advertido Clotet.
Con 34 millones de infectados en todo el mundo, el sida continua siendo una enfermedad muy extendida, que sigue matando en los países más pobres por la falta de acceso a los tratamientos.
En España, el sida ya hace años que no es letal y se ha convertido en una enfermedad crónica, con una esperanza de vida equivalente a la de la población no infectada, pero el ritmo de contagios ha aumentado un 17% en la última década y, además, uno de cada cuatro infectados no sabe que vive con el virus.
[/i] http://www.elmundo.es/elmundosalud/2012/04/25/hepatitissida/1335304945.html La cuestión es inyectar mediante un virus desprogramado telomerasa en los genes para evitar que los telómeros, que son las estructuras que se hallan en los extremos de los cromosomas, se vallan desgastando, que es lo que provoca el envejecimiento de la célula. Cuantas más veces se replica una célula, más desgastado se encuentra el telómero, perdiendo su capacidad de protección cromosomática, y por consecuente, llegando incluso a la muerte delular. Unos de los riesgos de una terapia con telomerasa es la propensión a provocar cáncer, pues es justo el poco desgaste de los telómeros lo que impide la muerte celular y lo que provoca acumulación de células provocando el cáncer, pero los científicos han apagado todas las alarmas, este tratamiento no provoca esa proliferación sin control de células.
http://www.elmundo.es/elmundosalud/2012/05/15/oncologia/1337071645.html [i]Investigadores del Centro Nacional de Investigaciones Oncológicas (CNIO) han probado con éxito la primera terapia génica contra el decaimiento del organismo asociado al envejecimiento. Por el momento, la ‘terapia antienvejecimiento’ ha conseguido, con un solo tratamiento, prolongar la vida de ratones hasta en un 24%.El trabajo, que publica este miércoles en la revista ‘EMBO Molecular Medicine’, desarrolla una estrategia nunca antes empleada para combatir el envejecimiento, se trata de un tratamiento efectivo y seguro -en el modelo animal-, que actúa directamente sobre los genes, pero que se aplica a animales adultos, y una única vez.
Liderado por la directora del CNIO, Maria A. Blasco, y Bruno M. Bernardes de Jesús, coautor del trabajo, en colaboración con Eduard Ayuso y Fátima Bosch, del Centro de Biotecnología Animal y Terapia Génica de la Universidad Autónoma de Barcelona (UAB), trataron a ratones adultos, de un año de edad; y viejos, de dos años. En ambos casos la terapia génica tuvo un efecto «rejuvenecedor», escriben los autores.
Los ratones que fueron tratados al cumplir el año vivieron, de media, un 24% más; los de dos años, un 13$ más. Así, la terapia consistiría en lograr que las células expresen telomerasa, la enzima que ‘ralentiza’ el ‘reloj biológico’.
En general, la terapia mejoró sensiblemente la salud de los animales, retrasando la aparición de enfermedades asociadas a la edad -como la osteoporosis y la resistencia a la insulina- y mejorando los valores de indicadores de envejecimiento, como la coordinación neuromuscular.
Este trabajo «demuestra que es posible desarrollar una terapia génica antienvejecimiento con telomerasa sin aumentar por ello la incidencia de cáncer», escriben los autores. «Los organismos adultos acumulan daños en el ADN resultado del acortamiento de los telómeros, este trabajo muestra que una terapia génica basada en la producción de telomerasa es capaz de reparar o retrasar este tipo de daño», añaden.
La telomerasa, tratada como un virus
La terapia se basa en tratar al animal con un virus cuyo ADN ha sido modificado, concretamente ha sido sustituido por la enzima telomerasa, uno de los genes más importantes para el envejecimiento. La telomerasa repara los extremos de los cromosomas, los llamados telómeros, y al hacerlo frena el reloj biológico de la célula y por ende del organismo. El virus, al infectar al animal, actúa como un vehículo que deposita el gen de la telomerasa en las células.
Los telómeros son estructuras que protegen los extremos de los cromosomas, pero de forma limitada en el tiempo: con cada división de la célula, los telómeros se acortan, hasta que se reducen demasiado y ya no pueden desempeñar su función. Como resultado, la célula deja de dividirse y envejece, o muere. Esto se evita con la telomerasa, que frena el acortamiento de los telómeros o incluso los reconstruye de nuevo.
El gen de la telomerasa, no obstante, sólo está activo en la mayoría de las células antes del nacimiento; las células del organismo adulto, salvo excepciones, no tienen telomerasa. La excepción son las células madres adultas y las cancerígenas, que se dividen sin límite y son por tanto inmortales. Precisamente, riesgo de promover el desarrollo de tumores siempre había supuesto un obstáculo a la hora de plantear terapias antienvejecimiento basadas en la telomerasa.
Por esta razón, los investigadores destacan que los animales de este ensayo no han desarrollado cáncer. Los investigadores lo atribuyen a que la terapia comienza cuando los animales ya son adultos, y por tanto no tienen tiempo de acumular el número de multiplicaciones aberrantes necesarias para la aparición de tumores.
El virus empleado para llevar el gen de la telomerasa a la células derivan de otros no patógenos en humanos y que no tienen capacidad para replicarse. Por tanto son «muy seguros, ampliamente usados en terapia génica con un gran éxito en el tratamiento de la hemofilia y enfermedades oculares».
Vía al tratamiento de enfermedades
Los investigadores Virgina Boccardi, de la Universidad Segunda de Nápoles, y Utz Herbig, del New Jersey Medical School-University Hospital Cancer Centre, han señalado que este trabajo se considera ante todo una «prueba de concepto de que la terapia génica con el gen de la telomerasa es una estrategia factible y en general segura para prolongar la vida en buenas condiciones de salud y tratar enfermedades relacionadas con presencia de telómeros cortos».
Así, destacan que aunque a corto plazo su aplicación en humanos contra el envejecimiento no es posible, sí podría abrir una nueva vía al tratamiento de enfermedades relacionadas con la presencia en los tejidos de telómeros anómalamente cortos, como algunos casos de fibrosis pulmonar humana.
Del trabajo Blaco destaca que, aunque «el envejecimiento hoy no se considera una enfermedad, cada vez más los investigadores tendemos a verlo como la causa común de enfermedades como la resistencia a la insulina o las cardiovasculares, cuya incidencia aumenta con la edad», por tanto, si se trata el envejecimiento de las células se podrían tratar también las enfermedades.
Por su parte, Bosch señala que el decubrimiento «podría ser imprescindible para una terapia antienvejecimiento, ya que cualquier otra estrategia requeriría de una administración constante del fármaco durante toda la vida del paciente, aumentando el riesgo de efectos adversos».
[/i] En esta imagen se pueden apreciar los telómeros en un grupo de cromosomas.
[url url=http://imageshack.us/photo/my-images/696/13370716450.jpg/]http://img696.imageshack.us/img696/5291/13370716450.jpg[/url]
- Debes estar registrado para responder a este debate.