miércoles, 25 de septiembre de 2013

Un arma eficaz contra la resistencia a los antibióticos

Los antibióticos fueron uno de los grandes avances de la medicina moderna y, en justa correspondencia, su pérdida de eficacia es uno de los grandes problemas de la contemporánea. Cuanto más usamos –y abusamos de— los antibióticos, más resistentes se hacen las bacterias a ellos, hasta el extremo de que buena parte de la mortalidad hospitalaria se debe a agentes infecciosos refractarios a cualquiera de estos fármacos o sus combinaciones. Científicos daneses presentan ahora una solución asombrosamente simple: alternar entre ciertos pares exactos de antibióticos.
No vale alternar cualquier antibiótico con cualquier otro, como ya saben muchos que lo han hecho. Por ejemplo, el cloranfenicol puede alternarse con la polimixina B, pero no con la fosfomicina ni con la rifampicina; la tetraciclina puede alternarse con la colistina, la nitrofurantoína o la estreptomicina, pero no con la kanamicina o la amoxicilina. Cada par de antibióticos útil para combatir la resistencia es un mundo, y no podía predecirse a partir de primeros principios. Ahora, hay que usar la lista de los biólogos daneses.
Cambiar al paciente de un antibiótico a otro es una práctica obvia y extendida cuando surgen resistencias –aunque no siempre eficaz—, pero el trabajo de hoy va mucho más allá, al identificar las secuencias de fármacos exactas que permiten erradicar la resistencia y al desarrollar un sistema racional. Lejla Imamovic y Morten Sommer, del departamento de biología de sistemas de la Universidad Técnica de Dinamarca, en Lyngby, presentan hoy en Science Translational Medicine, —la subsidiaria de la revista Science dedicada a investigaciones de evidente o inmediata utilidad médica— una lista de los pares de antibióticos cuya alternancia evita la aparición de resistencias en las bacterias.
Los autores reconocen que sus resultados no pueden llegar a la práctica clínica sin superar antes los ensayos clínicos que demuestren su seguridad y eficacia. Sus experimentos se han llevado a cabo in vitro,con una bacteria modelo de laboratorio –Escherichia coli, un habitante tradicional del intestino humano— y técnicas de evolución artificial para hacerla resistente a cada uno de los 23 antibióticos más utilizados en la práctica médica.
También han confirmado sus resultados con dos cepas bacterianas aisladas de pacientes, ambas recogidas en los hospitales daneses por constituir casos notables de multirresistencia, o resistencia simultánea, a media docena de los antibióticos más valiosos. Y sus conclusiones se mantienen con ese material más realista: utilizar los pares de antibióticos correctos suprime la resistencia. ¿Hay posibilidades, entonces, de abordar los ensayos clínicos a corto plazo?
“Sí”, responde Sommer a EL PAÍS, “creemos que este concepto, el ciclo de sensibilidad colateral, será directamente aplicable para el tratamiento de pacientes, puesto que los antibióticos que hemos usado en nuestro estudio ya están aprobados por los reguladores sanitarios; obviamente, estos ensayos requieren que el médico evalúe su validez clínica; en el caso de las infecciones crónicas, pensamos que los ciclos de sensibilidad colateral tienen un fuerte potencial de impactar en la práctica clínica”.
La “sensibilidad colateral” a la que se refiere Sommer es el concepto central de su investigación y se trata de lo siguiente. Cuando una población de bacterias se ve atacada por un antibiótico, lo habitual es que intente adaptarse a él. Este proceso, aparentemente dotado de un propósito presciente, se basa en realidad en la más ciega lógica darwiniana: las meras variantes aleatorias que, por casualidad, resultan vivir un poco mejor en el nuevo ambiente tóxico causado por el fármaco sobreviven y se reproducen más que el resto; la repetición de este proceso durante muchas generaciones –y una generación de bacterias puede durar tan poco como 20 minutos— acaban generando una población de bacterias resistentes al antibiótico en cuestión.
El descubrimiento de Imamovic y Sommer es que ese proceso de adaptación para resistir a un antibiótico genera siempre una hipersensibilidad a otro antibiótico. No a cualquier otro, sino a un antibiótico concreto de una lista de 23, o a lo sumo a unos pocos de esa lista. La explicación es bien curiosa: que la adaptación a los antibióticos se basa en el ajuste fino de una red de genes interrelacionados: una red genética que, literalmente, se ocupa de bregar con los desafíos químicos del entorno. Y al tocar la red para resistir a un antibiótico, a la bacteria le resulta inevitable hacerse muy vulnerable a otro.
En la lógica profunda de las redes metabólicas y de los circuitos genéticos que las codifican –o las significan— yace una balanza que imparte una suerte de justicia bioquímica. Siempre es posible adaptarse a una agresión, pero nunca sale gratis.
Las resistencias a los antibióticos llevan décadas creciendo en los entornos hospitalarios, y cada vez más en cualquier otro entorno. La razón es el uso extensivo —en el caso de los hospitales— o directamente el abuso –en el de la recetitis con que se viene tratando la soledad en estos tiempos duros— de estos fármacos esenciales, que junto al saneamiento de las aguas se han podido apuntar el grueso de la duplicación de la esperanza de vida que han conseguido las sociedades occidentales en el siglo XX. Y de la que esperan alcanzar los países en desarrollo en el XXI, y mejor antes que después.
El trabajo de los científicos daneses se centra en los antibióticos, pero la aparición de resistencias no es ni mucho menos una peculiaridad de estos fármacos: lo mismo ocurre con los tratamientos para la tuberculosis, los paliativos de la malaria o la quimioterapia contra el cáncer. Sommer cree que su estrategia de ciclos de “sensibilidad colateral” puede tener relevancia también en esos campos alejados de su experimentación.
“En el caso del cáncer”, sigue diciendo a este diario, “se sabe también que el desarrollo de resistencia a la quimioterapia en el tumor puede resultar en sensibilidad colateral (hipersensibilidad a un fármaco distinto); de acuerdo con esto, también vemos un potencial notable para aplicar los ciclos de sensibilidad colateral a los tratamientos del cáncer”.
En la variedad no solo está el gusto: también la vida.http://sociedad.elpais.com/sociedad/2013/09/25/actualidad/1380132083_130512.html
Wind Cube, la energía eólica en la fachada de cualquier casa


Un grupo de investigadores de la Universidad de Nueva Gales del Sur (Australia) ha desarrollado 
un material que permite reducir un 80 por ciento el coste de fabricación de los paneles solares. Esta tecnología se basa en el uso de la perovskita, un mineral conocido desde hace un siglo de fácil fabricación y alta eficiencia que permitiría a la energía solar competir con los combustibles fósiles a nivel de coste.
Palas telescópicas
Los paneles solares de silicio convencionales utilizan materiales de 180 micrómetros de espesor mientras que las nuevas células solares utilizan menos de un micrómetro de material para capturar la misma cantidad de luz solar. El grupo ha conseguido una eficiencia en la absorción de luz del 15 por ciento, que se estima que aumentará hasta el 25 por ciento característico de las células solares de hoy en día. El pigmento es además un semiconductor eficaz en el transporte de la carga eléctrica generada. 

Las células solares de perovskita se
 fabrican con tecnología muy barata y simple, a través de un proceso de difusión de un líquido sobre una superficie o de deposición de vapor. Este proceso permite que ambos tipos de células se complementen, de modo que los paneles de silicio puedan cubrirse con células de perovskita para mejorar su eficiencia sin necesidad de ser sustituidos. 

A pesar de haber sido testado con anterioridad en la industria solar, el potencial de este material ha sido descubierto en los últimos años y ha llamado la atención de varias empresas que ya están trabajando en su comercialización.

http://www.muyinteresante.es/innovacion/medio-ambiente/articulo/energia-solar-un-80-por-ciento-mas-barata-131376907810


lunes, 23 de septiembre de 2013


Hay nuevas fugas radiactivas en Fukushima

La Compañía Eléctrica de Tokio (TEPCO) http://www.muyinteresante.es/naturaleza/articulo/hay-nuevas-fugas-radiactivas-en-fukushima-111377678880comunicó ayer, 27 de agosto, que sus operarios han encontrado una nueva vía de escape del agua radiactiva almacenada en los tanques superficiales construidos alrededor de la central nuclear de Fukushima-1. Según ha explicado, sus operarios detectaron el pasado jueves un nivel de radiación de 16 milisievert por hora cerca de una válvula pluvial ubicada en la parte sur del tanque desde el que se han producido las fugas anteriores. TEPCO ya informó la semana pasada de una serie de vertidos contaminantes desde la parte noreste de este tanque, ubicado en los alrededores del reactor cuatro NHK. TEPCO ha insistido en que está investigando las causas de las fugas de agua radiactiva, pero ha advertido de que le llevará semanas. De momento, apunta como posibles causas a la corrosión de algunas piezas y del material del que están hechos los tanques. 
El pasado 8 de agosto, el Ministerio de Economía, Comercio e Industria de Japón reveló quediariamente se vierten al subsuelo 1.000 toneladas de agua desde la central nuclear, de las cuales unas 300 contienen sustancias altamente radiactivas que llegan al océano Pacífico. Con el fin de frenar las fugas, TEPCO inyectó un cóctel de agentes químicos para endurecer el subsuelo y crear un muro subterráneo alrededor de los reactores nucleares uno y dos e instaló una red de tuberías para extraer las toneladas de agua radiactiva acumuladas. El 16 de agosto, la compañía eléctrica comenzó a bombear el agua radiactiva desde el subsuelo hasta la superficie, a un ritmo de 60 toneladas diarias, para almacenarla en los tanques que ha construido alrededor de la central nuclear. Sin embargo, los trabajos para la construcción de un muro subterráneo alrededor de los reactores tres y cuatro todavía están marcha, por lo que se calcula que diariamente siguen liberando unas 35 toneladas de agua radiactiva. 


Por su parte, la Autoridad Reguladora de la Energía Nuclear (NRA) de Japón ha decidido elevar el nivel de alerta del uno ("anomalía") al tres ("incidente serio"), según la Escala Internacional Nuclear y de Sucesos Radiológicos (INES). Y la Agencia Internacional de la Energía Atómica (AIEA) ha expresado su preocupación por las fugas de agua radiactiva en la central y ha ofrecido al Gobierno de Japón su ayuda para resolver este problema.

Los problemas en Fukushima-1 se deben al terremoto y el tsunami que el 11 de marzo de 2011 arrasaron la costa de la prefectura japonesa, dando lugar al peor accidente nuclear de la historia desde el de la central de Chernóbil, en Ucrania.

http://www.astromia.com/tierraluna/origenluna.htm

HIPOTESIS SOBRE EL ORIGEN DE LA LUNA

Hay, básicamente, tres posibilidades en cuanto a la formación de la luna:
1.- Era un astro independiente que, al pasar cerca de la Tierra, quedó capturado en órbita.
2.- La Tierra y la Luna nacieron de la misma masa de materia que giraba alrededor del Sol.
3.- La luna surgió de una especie de "hinchazón" de la Tierra que se desprendió por la fuerza centrífuga.

Actualmente se admite una cuarta teoría que es como una mezcla de las otras tres: cuando la Tierra se estaba formando, sufrió un choque con un gran cuerpo del espacio. Parte de la masa salió expulsada y se aglutinó para formar nuestro satélite. Y, aún, una quinta teoría que describe la formación de la Luna a partir de los materiales que los monstruosos volcanes de la época de formación lanzaban a grandes alturas.

Hipótesis de fisión

El origen de la lunaLa hipótesis de fisión supone que originariamente la Tierra y la Luna eran un sólo cuerpo y que parte de la masa fue expulsada, debido a la inestabilidad causada por la fuerte aceleración rotatoria que en aquel momento experimentaba nuestro planeta. La parte desprendida se "quedó" parte del momento angular del sistema inicial y, por tanto, siguió en rotación que, con el paso del tiempo, se sincronizó con su periodo de traslación.

Se cree que la zona que se desprendió corresponde al Océano Pacífico, que tiene unos 180 millones de kilómetros cuadrados y con una profundidad media de 4.049 metros. Sin embargo, los detractores de esta hipótesis opinan para poder separarse una porción tan importante de nuestro planeta, éste debería haber rotado a una velocidad tal que diese una vuelta en tan sólo tres horas. Parece imposible tan fabulosa velocidad, porque, al girar demasiado rápido, la Tierra no se hubiese formado al presentar un exceso de momento angular.

Hipótesis de captura

Una segunda hipótesis denominada 'de captura', supone que la Luna era un astro planetesimal independiente, formado en un momento distinto al nuestro y en un lugar alejado.

La Luna inicialmente tenía una órbita elíptica con un afelio (punto más alejado del Sol) situado a la distancia que le separa ahora del Sol, y con un perihelio (punto más cercano al Sol) cerca del planeta Mercurio. Esta órbita habría sido modificada por los efectos gravitacionales de los planetas gigantes, que alteraron todo el sistema planetario expulsando de sus órbitas a diversos cuerpos, entre ellos, nuestro satélite. La Luna viajó durante mucho tiempo por el espacio hasta aproximarse a la Tierra y fue capturado por la gravitación terrestre.

Sin embargo, es difícil explicar cómo sucedió la importante desaceleración de la Luna, necesaria para que ésta no escapara del campo gravitatorio terrestre.

Hipótesis de acreción binaria


La hipótesis de la acreción binaria supone la formación al mismo tiempo tanto de la Tierra como de la Luna, a partir del mismo material y en la misma zona del Sistema solar. A favor de esta teoría se encuentra la datación radioactiva de las rocas lunares traídas a nuestro planeta por las diversas misiones espaciales, las cuales fechan entre 4.500 y 4.600 millones de años la edad lunar, aproximadamente la edad de la Tierra.

Como inconveniente tenemos que, si los dos se crearon en el mismo lugar y con la misma materia: ¿cómo es posible que ambos posean una composición química y una densidad tan diferentes?. En la Luna abunda el titanio y los compuestos exóticos, elementos no tan abundantes en nuestro planeta al menos en la zona más superficial.

Hipótesis de impacto

La hipótesis del impacto parece la preferida en la actualidad. Supone que nuestro satélite se formó tras la colisión contra la Tierra de un cuerpo de aproximadamente un séptimo del tamaño de nuestro planeta. El impacto hizo que bloques gigantescos de materia saltaran al espacio para posteriormente y, mediante un proceso de acreción similar al que formó los planetas rocosos próximos al Sol, generar la Luna.

Lo más dudoso de esta teoría es que tendrían que haberse dado demasiadas coincidencias juntas. L probabilidad de impactar con un astro errante era muy alta al inicio del Sistema Solar. Más dificil es que la colisión no desintegrase totalmente el planeta y que los fragmentos fuesen lo suficientemente grandes como para poder generar un satélite.

La teoría del impacto ha sido reproducida con ayuda de ordenadores, simulando un choque con un objeto cuyo tamaño sería equivalente al de Marte, y que, con una velocidad inferior a los 50.000 km/h, posibilitaría la formación de un satélite.

La luna de cercaHipótesis de precipitación

Últimamente ha aparecido otra explicación a la que dan el nombre de 'Hipótesis de precipitación' según la cual, la energía liberada durante la formación de nuestro planeta calentó parte del material, formando una atmósfera caliente y densa, sobre todo compuesta por vapores de metal y óxidos. Estos se fueron extendiendo alrededor del planeta y , al enfriarse, precipitaron los granos de polvo que, una vez condensados, dieron origen al único satélite de la Tierra.

domingo, 22 de septiembre de 2013

El año menos cálido de las últimas dos décadas



El otoño comenzará el próximo domingo a las 22:44 horas "con tiempo veraniego", según el portavoz de la Agencia Estatal de Meteorología (Aemet). Pero, a pesar de los cielos despejados en toda la Península estos días, más de uno tendrá la sensación de que el verano o al menos las primeras semanas del mismo fueron frescas y de que el calor durante sus vacaciones no ha sido para tanto. Según acaba de anunciar Aemet en su resumen climático del último trimestre, el verano ha sido el menos cálido desde el año 2008 y lo que va de año hay que remontarse 20 años, hasta 1993, para encontrar un periodo enero-septiembre más fresco que el que estamos viviendo en 2013.
Sin embargo, y con esas sensaciones de que el verano ha sido benevolente, el análisis de Aemet poniendo las temperaturas veraniegas en el contexto del periodo de referencia que se usa por consenso 1971-2000 revela que estos tres meses han sido casi un grado centígrado más cálidos que la media.
"La temperatura media sobre el conjunto de España ha sido de 23,1 grados centígrados, un valor que se sitúa 0,8 grados por encima del valor medio normal, respecto al periodo de referencia 1971-2000", ha asegurado Fermín Elizaga.
La sensación de año y de verano fresco proviene de que los años con temperaturas más elevadas de las últimas décadas están concentrados en los años posteriores al comienzo del siglo XXI. Por ese motivo, a pesar de haber sido un año caluroso, la sensación es de que el verano no ha hecho los estragos de años anteriores.
Los representantes de la agencia de meteoroogía también han destacado que no se ha batido ningún récord de temperatura máxima y que, a diferencia de lo ocurrido en 2012, "las altas temperaturas medias no se han debido a olas de calor, sino a una temperatura persistente".
Buena parte de esa temperatura media elevada con respecto a lo normal se debe al calor que ha vivido este año la franja norte, desde Galicia hasta Navarra, durante los meses de julio y agosto, donde las temperaturas medias han sido en algunos casos hasta 3ºC más altas de lo normal para esos meses.
En cuanto a las precipitaciones, el verano no ha sido demasiado lluvioso, estando un poco por debajo de lo normal. Pero el inicio del invierno y la primavera fueron tan lluviosas en toda España que 2013 va camino de ser el séptimo año más húmedo desde 1970.

sábado, 21 de septiembre de 2013

Documentan más de 4.000 mutaciones genéticas causantes de cáncer


Cromosoma de Drosophila melanogasterEl cáncer se origina debido a las disfunciones presentes en nuestros genes desde el día de nuestro nacimiento, y también a la alteración de los mismos a lo largo de nuestra vida fruto de agentes externos. No obstante y según este estudio, no todas las alteraciones presentes en los genes conducen irremediablemente al inicio de la enfermedad, de modo que es fundamental la detección de los que sí constituyen un desecadenante.
Un grupo de investigadores españoles ha documentado más de 4.000 mutaciones presentes en distintos tumores cancerígenos para facilitar la identificación de los genes implicados en cada caso clínico. El sistema busca allanar el terreno hacia la secuenciación rutinaria del genoma del paciente y su cotejo automático con los datos registrados para elaborar un tratamiento personalizado del cáncer.



Para ello, los científicos de la Universidad Pompeu Fabra (España) analizaron las características de 4.623 tumores de 13 órganos diferentes a través de un sistema de algoritmos. Con los datos sustraídos elaboraron una amplia base de datos que será actualizada continuamente y que servirá para clarificar qué patrones sitúan a ciertos genes y mutaciones como simiente de la enfermedad.

Este trabajo sienta las bases para el avance de los tratamientos personalizados contra el cáncer y el diseño de estrategias terapéuticas específicas para el tumor de cada paciente.http://www.muyinteresante.es/ciencia/fotos/retratos-de-adn/adn3

miércoles, 18 de septiembre de 2013

Toda la Tierra al alcance del usuario desde el espacio


Que la única perspectiva de toda la Tierra es la que se tiene desde el espacio es obvio. También lo es que los satélites en órbita ven el suelo, el hielo, el agua y los océanos a escala global y miden múltiples parámetros, como las temperaturas, los vientos, los contaminantes, la salinidad de los mares... Los científicos explotan intensamente desde hace años los datos para conocer el planeta. Pero ha llegado la hora de que esa información sea también ampliamente social y económica, que ayude a afrontar los retos y problemas de la población mundial, tal y como se puso de manifiesto en el congreso Planeta Vivo 2013, celebrado la semana pasada en Edimburgo (Reino Unido) con participación de casi 2.000 expertos internacionales.
Igual que la predicción meteorológica basada en información de satélites es un servicio constante, de indudable impacto económico e imprescindible para múltiples actividades, la información detallada y precisa de la humedad del suelo, de las corrientes, mareas y oleajes costeros, de la productividad marina, etcétera, debe llegar dentro de poco a planificadores, agricultores, ingenieros de infraestructuras... como servicio imprescindible. Por no hablar de la gestión de desastres naturales o de los delitos medioambientales.


El 71% de la superficie del planeta está cubierto por los océanos y el 29% es tierra firme; de esta, excluyendo la Antártida, el 22% son desiertos, hielo y nieve; el 28%, bosques y selvas; el 25%, tierras de pastoreo; el 13%, zonas urbanizadas, y el 12% está dedicado a las cosechas, detalló Volker Liebig, director de los programas de observación de la Tierra de la Agencia Europea del Espacio (ESA), en Edimburgo. Y más datos: de dos megaciudades en 1979 (Tokio y Nueva York), se ha pasado a 23 en 2011 y serán 37 en 2025; para mediados de siglo habrá que aumentar la producción de alimentos en un 70% respecto a 2005-2007, con una población mundial de 9.000 millones de personas (hacia 2040). Y no solo alimentos. Habrá que optimizar también el suministro de agua y de energía, manteniendo, además, la biodiversidad y los ecosistemas, recordó Volker. Así, argumentó, la imprescindible perspectiva global necesita la información detallada de la situación y evolución continua del uso del planeta que solo los satélites pueden proporcionar.
“Con el satélite Sentinel 1, que se lanzará el año próximo, vamos a proporcionar, por ejemplo, los datos tomados con radar del hundimiento o elevación del suelo con precisión de un milímetro. Ya se ha hecho para París y para Venecia, y ahora lo haremos para todas las ciudades”, explica el ingeniero español Ramón Torres, jefe del proyecto de ese satélite, el primero de la serie de los Sentinel que formarán el sistema europeo Copérnico. “Esos datos precisos de movimiento del suelo serán de gran utilidad en urbanismo y construcción, por ejemplo, influirán en los materiales y estructuras a utilizar y permitirán que accidentes como el socavón de El Carmelo, en Barcelona, en 2005, no se repitan”, añade Torres. “Es la hora de las aplicaciones comerciales”, subraya Torres. “Y no puedes tener usuarios si no ofreces continuidad y calidad de los datos”, añade. Todo esto va combinado con la revolución de Internet, las redes de datos en banda ancha, los avances en computación, las nuevas herramientas de generación de mapas, etcétera, apunta Volker.
Copérnico proporcionará datos globales, normalizados y constantes para que se puedan desarrollar aplicaciones que faciliten su uso masivo, han destacado los expertos en Edimburgo. El efecto podría ser algo similar al del sistema GPS que, tomando los datos de los satélites, ha permitido desarrollar múltiples usos. En Copérnico (antes GMES) y sus satélites, la ESA ha invertido 1.600 millones de euros desde 2005, y la UE, 600 millones. Ahora, para su operación, la UE se hace cargo del coste, que asciende a 3.800 millones desde 2014 a 2020. Según los cálculos de la Comisión Europea, Copérnico generará 30.000 millones de beneficios económicos.
Pero a la vez, las misiones científicas tienen que seguir abriendo camino. “Cara al futuro se planean satélites para la observación, cuantificación y vigilancia de las nieves en el planeta, para obtener la información global sobre la biomasa, midiendo cobertura forestal y altura de los árboles y para conocer con detalle, por ejemplo, las corrientes y otros fenómenos costeros, porque el océano abierto lo conocemos ya bien, pero a muchos efectos es un desierto, ya que la gente vive en la costa, y en ella se desarrollan las actividades económicas principales”, argumenta Alan O’Neill, profesor de la Universidad de Reading (Reino Unido).
La misión Biomass revolucionará la gestión y explotación de recursos forestales, pero también tomará información esencial para los científicos del clima, para cuantificar el ciclo del carbono e incluso para verificar los acuerdos internacionales sobre cambio climático, explicó en Edimburgo el experto Shaun Quegal, de la Universidad de Sheffield. El satélite se lanzará en 2020..http://sociedad.elpais.com/sociedad/2013/09/17/actualidad/1379448631_611059.html