Los vientos de Júpiter.

“Conociendo más sobre los vientos de Júpiter”

Compilado Por Manlio E. Wydler (|)

 

 

Los vientos arremolinados de Júpiter, que arrastran masas de gas multicolor y a los que se conoce como “chorros”, han intrigado desde hace mucho tiempo a los astrónomos. Uno de los misterios ha sido si los chorros existen solo en la atmósfera superior del planeta (de manera parecida a las corrientes en chorro de la propia Tierra) o si se zambullen en el interior gaseoso más denso de Júpiter. Esto último podría revelar pistas sobre la estructura interior y la dinámica interna del planeta.

 

Ahora, el equipo del geofísico Jonathan Aurnou, de la Universidad de California en Los Ángeles (UCLA), Estados Unidos, y sus colaboradores en Marsella, Francia, han simulado por vez primera chorros de Júpiter en el laboratorio. Su trabajo demuestra que los vientos se extienden probablemente a lo largo de miles de kilómetros bajo la atmósfera visible del planeta.

 

Ya había modelos digitales simulándolo, pero era necesario recrear el proceso de manera material, aunque fuese a escala ínfima.

 

La dificultad en la recreación de vientos en forma de remolino en el laboratorio radicaba en construir un modelo de un planeta con tres atributos clave que, por lo que se sabe, son necesarios para que se formen los chorros: una rotación rápida, turbulencia y un “efecto curvatura” que imite la forma esférica de un planeta. Los anteriores intentos de crear chorros en un laboratorio fallaban a menudo porque los investigadores no podían hacerlos girar lo bastante rápido o crear suficiente turbulencia.

 

El equipo de Aurnou espera ensayar sus predicciones con datos reales procedentes de Júpiter, y no tendrán que esperar mucho: la sonda Juno de la NASA está orbitando el planeta ahora mismo, recogiendo datos sobre su atmósfera, campo magnético e interior.

 

(°) Ingeniero, Presidente H. de FAPLEV. Vecino Solidario 2001.

Una vista del polo sur de Júpiter (arriba a la izquierda y abajo a la derecha) y resultados de laboratorio del nuevo modelo de los vientos del planeta (arriba a la derecha y abajo a la izquierda). (Imagen: Jonathan Aurnou)

[Img #41487]

Se están acercando a un superconductor frío.

“El dióxido de vanadio conduce bien la electricidad sin que casi conduzcan calor a temperatura ambiente”

Compilado por Manlio E. Wydler (|)

 

La percepción que de forma intuitiva tiene ser ciudadano de la calle sobre el calor y la temperatura suele estar equivocada.

Solemos creer que ciertos materiales están a mayor o menor temperatura, pese a que están, de hecho, exactamente a la misma. Así, por ejemplo, el interior de una casa en invierno con calefacción y termostato tiene todo su interior y todas sus superficies a la misma temperatura. Si el suelo es de madera sentiremos menos frío que si es cerámico cuando caminamos descalzos y decimos que el segundo es frío. También nos parecerá más frío un metal que un mueble de madera o PVC.

La situación se invierte en verano cuando la temperatura es superior a la de nuestros cuerpos. En ese caso, una piedra al sol nos parecerá más caliente que el tocón de un árbol talado, pese a que está uno al lado de otro y reciben la misma irradiación solar.

La explicación es que nuestra piel no mide temperatura, sino ganancias o pérdidas de calor. Un metal nos parecerá más frío o más cálido en las circunstancias antes relatadas porque es mejor conductor del calor que un madero.

El calor es una forma de energía que pasa de unos cuerpos a otros por efecto de la diferencia de temperatura. Es una cualidad extensiva, pues un trozo de ese cuerpo contiene una fracción de esa energía. La temperatura, por el contrario, es intensiva, pues una sección tiene la misma temperatura que cualquier otra. Además, esta propiedad de la temperatura es emergente, pues surge del todo y no está en cada una de sus partes. Según la cinética de los gases, la temperatura no es más que el reflejo de la velocidad media de las moléculas de un gas.

De este modo, un clavo al rojo tiene más temperatura que el mar, pero este contiene mucha más energía (calor).

Esto nos lleva a las razones por las cuales un metal es tan buen conductor del calor. Se debe a dos razones fundamentales. La primera es que en un metal hay electrones que pueden viajar libres por el mismo. El calor en este caso es la energía contenida en la agitación que tienen los electrones, que sería similar a la agitación de las moléculas de un gas. A mayor velocidad de agitación mayor temperatura, a mayor cantidad de moléculas (o electrones como en el caso de un metal) más calor. Así que, como estos electrones se mueven muy fácilmente por el metal, pueden transportar calor muy fácilmente.

Lo metales, además, gracias a estos electrones libres, pueden conducir muy bien la electricidad. La ley de Wiedemann-Franz dice que un buen conductor de la electricidad es un buen conductor del calor.

Pero los sólidos tienen otra forma de almacenar y transportar calor. Los átomos que los componen, aunque estén fijos, pueden oscilar sobre sus posiciones de equilibrio y transmitir esta vibración a los que tiene al lado. El mejor de los casos es el de los cristales. En ellos hay una estructura periódica y regular de átomos ordenados bajo un conjunto finito de formas de organizarse que llamamos grupos cristalográficos. En modelo simple podemos considerar a cada átomo como una bola de cierta masa sujeta a todos sus átomos vecinos por un muelle. El calor se transmite como vibraciones en esa red cristalina, vibraciones a las que llamamos fonones, por comportarse como lo hace el sonido.

Un metal, un diamante o un trozo de cuarzo de una roca tienen estructura cristalina, aunque alguno no sea transparente, por los que los fonones se transmiten muy bien, lo que significa que son buenos conductores del calor. Un vidrio es un amorfo y no tiene estructura cristalina, aunque sea transparente, por eso es peor conductor de calor, porque los fonones se transmiten peor a través de una estructura desordenada.

Así que un metal conduce muy bien el calor debido a estas dos circunstancias, lo que nos permite asombrarnos del logro conseguido por un grupo de investigadores del Berkeley National Laboratory.

Estos científicos han logrado que los electrones de una muestra de dióxido de vanadio conduzcan bien la electricidad sin que casi conduzcan calor. Este hallazgo podría tener aplicaciones en sistemas termoeléctricos que conviertan el calor residual en electricidad (siempre que haya un foco frío, claro).

El dióxido de vanadio es un material que pasa de aislante a conductor a 67 grados centígrados. Lo interesante es que incumpla la ley de Wiedemann-Franz, lo que, además, es un resultado totalmente inesperado.

Según Junqiao Wu, este material exhibe una quiebra de esta ley que está en los libros de texto que hasta ahora cumplían el resto de los conductores conocidos. Según este investigador, el descubrimiento es de importancia fundamental en la comprensión del comportamiento básico de los conductores novedosos.

Los investigadores pudieron ser capaces de medir las proporciones de la conductividad térmica atribuida a los fonones y la atribuida a los electrones usando dispersión de rayos-X. La conductividad atribuida a estos últimos es diez veces menos que la que se tendría según la ley de Wiedemann-Franz. Gracias al uso de la espectroscopía electrónica nano-Auger han podido averiguar más.

Los electrones en este material se mueven al unísono como si fueran un fluido, en lugar de comportarse como las partículas de un gas, que es lo habitual en metales en donde estos se mueven al azar.

En un metal convencional este gas de electrones transporta bien el calor porque hay muchas posibles configuraciones microscópicas entre las que puede saltar el estado de un electrón. Por el contrario, en este “fluido de electrones” del óxido de vanadio, la transferencia de calor es peor porque hay sólo unas pocas configuraciones posibles en las que puede estar el estado de un electrón y saltar al azar entre dos cualesquiera de ellas no siempre se puede hacer.

Lo interesante desde el punto de vista tecnológico es que tanto la conductividad térmica como eléctrica del dióxido de vanadio se pueden ajustar aleándolo con otros materiales. Si, por ejemplo, se añade wolframio se rebaja la temperatura de transición a la que el dióxido de vanadio se torna metálico. En esa fase es un mejor conductor del calor, lo que permite una disipación del calor mediante el paso de aislante a conductor y vice versa.

Esta propiedad permitiría una disipación de calor sintonizada para cierta temperatura en motores. También se podrían diseñar ventanas para edificios que dejaran escapar el calor en verano cuando la temperatura subiese por encima de cierto umbral, pero se comportaría como aislante térmico en invierno. Todo ello de forma automática y sin intervención exterior.

El dióxido de vanadio es además transparente por debajo de 30 grados y absorbe el infrarrojo por encima de 60 grados.

Aunque hay otros materiales además del dióxido de vanadio que conducen la electricidad mejor que el calor, operan a unas temperaturas muy por debajo de 0 grados centígrados, lo que limita su aplicabilidad en el mundo real.

La parte negativa es que el vanadio es un metal pesado tóxico, así que habría que extremar la síntesis, manipulación, uso y reciclaje de este material.

(°) Ingeniero, Presidente H. de FAPLEV, Vecino Solidario 2001.

Foto

Para el otro lado era mejor.

“Otra vista de la ciudad sobre el talud lateral de Cráter Gale.”

Compilado por Manlio E. Wydler (°)

Cuanto lamentamos los interesados en la Cosmología y la Astrobiología, que no se haya mandado al Cusiosity a la ciudad antigua de cuando Marte tenía su superficie habitada y el planeta tenía temperatura más amable, vegetación, buen aire, agua y humanoides como luego tuvo la Tierra. Al encontrar esta reliquia de robot, hubiera puesto camino a la Ciudad, lo interesante estaba allí- Hoy estaríamos escribiendo nuevos capítulos de la vida de la humanidad en el sistema Solar.

(°) Ingeniero, Presidente H. de FAPLEV. Vecino Solidario 2001.

 

 

 

Alergia a la cafeína.

“Alergia a la cafeína”

Compilado por Manlio E. Wydler (|)

Aparte de la toxicidad que aumenta con la ingestión de mayores dosis de cafeína: ansiedad, palpitaciones, diarreas, convulsiones, dolores enormes de cabeza y la muerte, la cafeína puede despertar sensibilidad a ella o directamente alergia, con piel irritada, puntos rojos, picazón y dolor profundo, ampollas, etc.

Picazón en la piel de sensibilidad a la cafeína es muy probablemente causada por una reacción alérgica en el cuerpo. Hay una diferencia entre ser sensible a las bebidas con cafeína y los alimentos y tener una alergia. Picazón en la piel es un signo de una reacción alérgica causada por el aumento de los niveles de histamina en la piel. Si usted nota que su piel se inflama, picazón e irritada después de consumir cafeína, haga una cita con un especialista en alergias para las pruebas y el diagnóstico clínico.

 

Sensibilidad a la cafeína 

 

Diferentes personas pueden manejar diferentes cantidades de cafeína en su dieta diaria. Usted puede ser capaz de beber dos tazas de café sin desarrollar reacciones adversas, mientras que otra persona sólo puede ser capaz de beber media taza de café. Si usted es sensible a la cafeína, puede experimentar dolores de cabeza, malestar estomacal, irritabilidad y un aumento de la frecuencia cardíaca. Si usted desarrolla una erupción cutánea de consumir cafeína, es posible que tenga una hipersensibilidad o alergia, a la cafeína. La alergia a la cafeína es una reacción del sistema inmunológico a la cafeína, que puede causar varios síntomas, como erupciones en la piel que causan comezón.

 

Alergia a la cafeína 

La alergia a la cafeína se produce cuando el sistema inmunológico no funciona y reacciona de forma exagerada a la presencia de la cafeína. Para que su condición de ser diagnosticado como una alergia, su sistema inmunológico necesita liberar anticuerpos de inmunoglobulina E, también llamados anticuerpos IgE, según la Academia Americana de Alergia, Asma e Inmunología. Las pruebas de alergia puede confirmar la presencia de estos anticuerpos en el torrente sanguíneo. Cuando el sistema inmunológico crea anticuerpos IgE, otras células a través de los productos químicos de liberación del cuerpo para proteger contra el alérgeno. Los otros productos químicos causan inflamación y la hinchazón en diferentes partes de su cuerpo.

 

Picazón en la Piel 

Picazón en la piel como resultado de una alergia a la cafeína se relaciona con urticaria, eczema o picazón general. Picazón en la piel es causada por la histamina, una sustancia química producida durante una reacción alérgica. La histamina es una sustancia química natural en el cuerpo que protege contra las infecciones, pero durante una reacción alérgica, el exceso de producción de histamina causa la inflamación y la hinchazón. Su piel puede desarrollar urticaria, que son ronchas que se forman en grupos con fronteras definidas. El eccema es una condición crónica de la piel que causa pequeñas ampollas para desarrollar en su cuerpo. Usted puede simplemente experimentar generales picazón, enrojecimiento e irritación de una reacción alérgica a la cafeína.

 

Prevención 
Una vez que reciba un diagnóstico clínico que usted tiene una alergia a la cafeína, se le informará de eliminar la cafeína de su dieta. Evite el café, el té, el café descafeinado, té descafeinado, bebidas energéticas y productos de chocolate, cápsulas para bajar de peso, etc.. La ingestión de una pequeña cantidad de cafeína tiene el potencial de causar una reacción alérgica grave.

 

(°) Ingeniero, Presidente H. de FAPLEV,  Vecino Solidario 2001.

Necesito ayuda para mi comezón de la piel en la noche

Giro del Universo por impulso invertido del Universo espejo…

“Viajamos por el espacio a más de dos millones de kilómetros por hora “

Compilado por Manlio E. Wydler (°)

El fenómeno fue descubierto hace 40 años, pero los astrónomos no han logrado explicarlo hasta ahora.

Cuesta de imaginar, pero mientras hacemos nuestra rutina diaria nos desplazamos a través del espacio a más de dos millones de kilómetros por hora. Eso se debe a que, de acuerdo con los astrónomos, nuestra galaxia, la Vía Láctea, se mueve a una velocidad inimaginable con respecto al resto del universo.  

El impactante descubrimiento fue realizado hace 40 años. En aquel entonces, sabiendo que el movimiento de las galaxias está dominado por la atracción gravitatoria, los astrónomos creían que el responsable de este movimiento insólito era la atracción que ejercía sobre la Vía Láctea el supercúmulo de Shapley, la mayor concentración de galaxias del universo cercano. Pero ahora un equipo de científicos liderados por el profesor Yehuda Hoffman, de la Universidad Hebrea de Jerusalén (Israel) ha identificado a otro culpable de este fenómeno.

 

Según el estudio, publicado en la revista ‘Nature Astronomy’, con ayuda del telescopio Hubble los investigadores han analizado la velocidad de 8.000 galaxias. Basándose en estos datos, fue creada una simulación en tres dimensiones que ha encontrado a 500 millones de años luz de nosotros una zona de baja densidad de estrellas y galaxias que con su atracción gravitatoria empuja a la Vía Láctea hacia el cúmulo de Shapley.

 

La suma de las dos fuerzas, por su parte, acelera a nuestra galaxia hasta 630 kilómetros por segundo o 2,3 millones de kilómetros por hora, explican los científicos. 

 

Solo vemos una porción del Universo; Más allá la luz no puede llegar hasta nosotros, pero nuestro Universo en expansión es mucho más grande y su l{imite será cuando la velocidad de expansión de los primeros cuerpos y energías alcancen la velocidad de la luz, allí encontramos la zona caótica del final de nuestro Universo expansivo y el inicio de un universo retrayente, cuyas propiedades y elementos constitutivos son espejos del nuestro: Casi pura antimateria y antienergía, flecha del tiempo orientada a nuestro pasado, temperaturas negativas al cero absoluto, etc., etc., y giro del Universo retrayente inverso al nuestro, por interacción entre ambos.

 

La zona del desfasaje posee una velocidad de la luz. Los hemisferios espejo giran a igual velocidad, pero inversas. Según donde estemos colocados, la velocidad de giro por el Universo puede oscilar entre 0 y 300.000Km/s

 

A 300.000Kil./seg. estaríamos en el límite Wydler 2, estaríamos por atravesar el agujero liminal, próximos a ir al pasado por el Universo Retrayente.

 

(°) Ingeniero, Presidente H. de FAPLEV. Vecino Solidario 2001.

Viajamos por el espacio a más de dos millones de kilómetros por hora sin saberlo

Los iones de oxígeno en la Luna.

“La Luna posee iones Oxígeno”

Compilado por Manlio E. Wydler (°)

 

 

Un año antes de acabar su misión y estrellarse contra la superficie de la Luna, el satélite Kaguya, de la Agencia Japonesa de Exploración Aeroespacial (JAXA), estuvo explorando la composición química y física del satélite durante 2008.

 

Los datos recogidos fueron analizados y procesados durante años. Gracias a esto, un artículo publicado este lunes en la revista Nature Astronomy ha informado del hallazgo de huellas de vida terrestre en la Luna. En concreto, los científicos han afirmado haber encontrado allí rastros de iones de oxígeno producidos en la Tierra como consecuencia de la actividad de los seres vivos.

 

«Para mí esto es fascinante», ha explicado a ABC Kentaro Terada, investigador en la Universidad de Osaka (Japón). «A pesar de la distancia que hay entre la Tierra y la Luna, y que es de cerca de 380.000 kilómetros, parece ser que la Luna y la Tierra han estado coevolucionando no solo “físicamente”, sino también “químicamente”, a través del transporte de algunos materiales».

 

Se sabe desde hace mucho tiempo que la interacción física de la Luna y la Tierra causan el flujo y reflujo de las mareas, o que el satélite influye sobre la rotación de la Tierra, facilitando la estabilidad de los ecosistemas, y a su vez permitiendo la aparición de la vida. Y ahora, tal como ha propuesto Terada, parece ser que la vida surgida bajo el influjo lunar es capaz de «contaminar» la Luna con el oxígeno que produce.

¿Un fósil de la atmósfera de la Tierra?

Tal como han concluido los investigadores, las primeras capas de polvo de la Luna almacenan una sutil huella dejada por la atmósfera terrestre. Por desgracia, el propio Terada duda de que sea posible usar este rastro como un registro histórico de la composición de la atmósfera de la Tierra.

«El oxígeno preservado en el suelo lunar, después de acumularse durante miles de millones de años, estará mezclado con el que procede del satélite, y con él tiene su origen en el viento terrestre y en el viento solar. Por eso, es difícil descifrar qué oxígeno es antiguo y procede de la Tierra, o cual es más reciente».

 

El viento solar y el terrestre está constituido por protones de Helio, el Solar, con los hidroxilos que encuentra en su viaje produce agua, el de la Tierra posee muy poca fuerza y es como una débil neblina del Hidrógeno de las partes superiores de la atmósfera que tienden a irse al espacio, solo se acrecienta con el viento solar en la parte  opuesta en donde alcanza a la Tierra. Lo que aseguran los japoneses es erróneo.( Nota del Redactor).

 

Sin embargo, propone que quizás sería posible averiguar más sobre esto al perforar el subsuelo lunar, en busca de capas más profundas y antiguas.

La historia del intercambio entre la Luna y la Tierra comenzó hace 2.500 millones de años, cuando los seres vivos que aprovechaban la luz del Sol comenzaron a producir oxígeno en la Tierra en grandes cantidades. Al principio, este gas se convirtió en un potente agente tóxico para la mayoría de las formas de vida, pero con el tiempo aparecieron seres vivos sencillos, y luego más complejos, capaces de aprovecharlo en su beneficio.

 

Según Terada, aquel hecho dejó huella en la Luna. Esto pudo ocurrir porque, a diario, la radiación solar impacta contra las capas más altas de la atmósfera de la Tierra y genera una corriente de viento de partículas energéticas sobre el planeta, entre las que están algunos iones de oxígeno. A veces, parece ser que alcanzan la Luna y dejan un leve rastro.

 

Sin embargo, lo más habitual es que este rastro quede enmascarado por el potente viento solar, un flujo de partículas de alta energía producido por el Sol, tal como han explicado estos investigadores.

 

Por suerte, cada mes hay una ventana de cinco días en la cual la Tierra se coloca entre el Sol y la Luna, y que facilita que sea el viento terrestre el que alcance el satélite. (Por lo que acotamos antes, todo esto es incorrecto. Nota del Productor)

Gracia a esto, los investigadores creen haber encontrado ahora fuertes evidencias de que el viento terrestre, cargado de iones de oxígeno, es capaz de llegar a la Luna y quedar atrapado en las primeras capas del suelo lunar (a una profundidad 10.000 veces menor que el ancho de un pelo humano).

 

Según Terada, es posible que en la Luna se puedan encontrar otras huellas de la Tierra, puesto que en el pasado, ambos cuerpos estuvieron más cerca. Además, en algunos momentos el campo magnético de nuestro planeta estaba debilitado, lo que habría aumentado el flujo de ciertas partículas hasta el satélite.

La Luna fue un planeta, independiente, con atmósfera, agua y vida como se supone por la edad de las piedras más viejas que trajeron las Apolo, que muestran que la Luna existió antes que el Sistema Solar, Los rastros de oxígeno mejor pueden ser de aquella época y sino pueden ser rastros de las atmósferas de las bases y construcciones que se han descubierto últimamente en la Luna y que por razones técnicas hayan tenido que ventear algo del gas. ( Nota del Redactor)

(°) Ingeniero, Presidente de FAPLEV, Vecino Solidario 2001.

El Oxígeno proviene de cuando la Luna era planeta o de las bases que siempre ha tenido.

HIPATIA | El más completo blog de Ciencia y Tecnologia 

Fuente contínua de ondas de radio.

“Emisiones de radio continuas desde W060+24, enana marrón cercana”

Compilado por Manlio E. Wydler (|)

 

Las enanas marrones son objetos demasiado grandes para ser considerados planetas, pero demasiado pequeñas para ser una estrella. Sin suficiente masa para encender los fuegos nucleares.

Situada a unos 23 años luz de distancia de la Tierra, la enana marrón denominada ‘W0607+24’ es una fuente de emisiones, estables pero muy débiles de radio, lo que significa que es uno de los objetos subestelares más fríos detectados hasta ahora, según un estudio publicado en la revista ‘PhysOrg‘.

Las enanas marrones como W0607+24 son objetos demasiado grandes para ser considerados planetas, pero demasiado pequeñas para ser una estrella. Con una masa inferior a la necesaria para mantener reacciones de fusión nuclear continuas en su núcleo, estos objetos son mucho más fríos y oscuros que las estrellas de secuencia principal. Estos cuerpos pueden ser fuentes de emisión de radio, pero las razones de este fenómeno aún son desconocidas.

Debido a su cercanía, W0607+24 es un excelente objetivo para el estudio de la naturaleza de las enanas marrones. Los autores de la investigación señalaron que haber descubierto que este objeto subestelar es fuente de una débil, pero constante, emisión de radio puede tener una gran importancia para comprender mejor la naturaleza de las enanas ultrafrías.

Además de haber detectado emisiones de ondas de radio, los científicos también calcularon la edad, la masa y el radio de esta enana marrón. Se estima que W0607+24 tiene menos de 2.000 millones de años, un peso máximo que no excede 0,06 masas solares y un radio de casi 10 veces menor que el Sol.

(°) Ingeniero, Presidente H. de FAPLEV, Vecino Solidario 2001.

El 90 % de la ciencia nace en USA.

“USA y el crecimiento exponencial de la Ciencia”

Compilado por Manlio E. Wydler (°)

Los que hacemos divulgación de ciencias sabemos que el 90 % de las investigaciones tiene origen, desde hace décadas en los estados Unidos.

Esto viene notándose desde finales de los ´40, con el establecimiento de la Ingeniería Inversa sobre todo material de origen extraterrestre.

Estamos asistiendo a una hiperaceleración tecnológica, que la singularidad está más cerca que nunca y que, gracias a la evolución exponencial de la evolución tecnológica en muchos de sus campos (como la ley de Moore), justo ahora estamos a punto de empezar pasos de gigantes (cabe recordar que las primeros pasos en una progresión exponencial son muy lentos, 2, 4, 8, 16, 32…, pero llegados a cierto punto, los cambios son de millones a billones).

 

A este cambio tecnológico está contribuyendo también el hecho de que cada vez hay más personas trabajando para ello, cada vez más gente se conecta a internet, hay mayor colaboración 2.0, más acceso a la información y hasta la formación. Y tampoco debemos olvidar que actualmente el 90% de todos los científicos que han existido a lo largo de la historia están vivos.

Esta estadística tiene otra lectura: los grandes avances a los que hemos asistido en los últimos doscientos años son solo la punta del iceberg de todo lo que va a pasar en apenas una o dos décadas.

En un artículo escrito por Eric Gastfriend, que se muestra optimista al respecto del progreso de la ciencia, reúne tres indicadores del crecimiento de la ciencia: el número de doctorados concedidos por año, el número de patentes concedidas, y el número de artículos publicados.

 

El gráfico muestra que Estados Unidos creció exponencialmente ,  En 1961, Derek de Solla Price, el padre de la cienciometría (es decir, la ciencia que estudia la ciencia), determinó que el número de científicos se duplica más o menos cada 15 años. Sin embargo, los datos muestran que desde 1961, este ritmo se ha ralentizado ligeramente, con una duplicación cada 18 años.

Como se puede decir dando un rápido vistazo a la gráfica siguiente, el crecimiento de las patentes también ha seguido siendo exponencial. La tasa de crecimiento es similar a la de doctorados, con una duplicación más o menos cada 19 años desde 1961.

Si echamos un vistazo a la tasa de publicación de artículos científicos, en función de los datos aportados por Lutz Bornmann y Rüdiger Mutz en un paper titulado Growth rates of modern science: A bibliometric analysis based on the number of publications and cited references, se confirma también el crecimiento exponencial de la ciencia: desde la segunda mitad del siglo XX, el número de artículos publicados cada año se ha duplicando cada 9 años.

Todos estos datos, obviamente, no indican indiscutiblemente que la ciencia crece exponencialmente. Por ejemplo, podría aducirse que la ciencia cada vez es más compleja, lo que requiere más esfuerzo colaborativo y, en consecuencia, más científicos o más estudios no significa necesariamente un progreso más rápido.

No obstante, hay rasgos compensatorios a tener en cuenta: ahora la ciencia está más contactada entre sí que nunca: no son disciplinas aisladas de científicos aislados, sino que los avances en computación influyen en los avances de la biotecnología, por ejemplo.

(°) Ingeniero, Presidente H. de FAPLEV. Vecino Solidario 2001.

Resultado de imagen para bandera de usa

Una buena…..

 

 

“La tasa de mortalidad de enfermedades como el cáncer de colon, la demencia y las cardiopatías está en declive, al menos en los países ricos.”

 

Compilado por Manlio E. Wydler (°)

 

Enfermedades que siempre han estado entre las principales causas de muerte, como el cáncer de colon, la demencia y las cardiopatías, están registrando un descenso en los países ricos sin que haya una explicación científica convincente, informa ‘The New York Times’, que lo califica de “misterio médico de los buenos” que tiene a los científicos “maravillados”.

 

“Es fácil proponer explicaciones interesantes y atractivas”, señala el doctor David Jones, historiador de medicina de Harvard, pero “el reto está en determinar cuál de esas hipótesis interesantes y atractivas puede ser acertada”.

Aunque están lejos de ser erradicadas, las enfermedades de la vejez parecen retroceder en EE.UU. y otros países ricos. Aunque el cáncer, las cardiopatías y los fallos cerebrovasculares siguen siendo las causas más comunes de los fallecimientos, ahora aparecen más tarde, mientras que las personas “viven más tiempo con buena salud”.

El dilema más reciente es el del cáncer de colon: la tasa de las muertes por esta causa ha caído casi a la mitad desde su auge en los 80, de acuerdo con un reciente estudio de los doctores H. Gilbert Welch y Douglas Robertson, de la Facultad de Medicina Geisel en Dartmouth y el Centro Médico de los Asuntos de los Veteranos en White River Junction, Vermont (EE.UU.).

Según estos científicos, la caída no se debe solo a la detección, ya que, argumentan, “la magnitud de los cambios por sí misma sugiere que debe haber otros factores implicados”.

Por otro lado, las fracturas de cadera han disminuido durante los últimos 30 años entre un 15 y un 20% por década. Si bien el cambio coincidió con la llegada de medicamentos para retrasar la pérdida de masa ósea, los investigadores señalan que esto no puede servir como explicación, ya que menos del 10% de las mujeres mayores de 65 años los toman.

El aumento del peso también explicaría como mucho la mitad del efecto, según el médico Steven Cummings del Centro Médico de Investigación California Pacific y de la Universidad de California en San Francisco, quien confiesa que “no sabe” qué más ha influido en el cambio.

Las tasas de demencia también se han reducido en EE.UU. y Europa un 20% por década desde 1977, lo que se puede deber a un mayor control de las personas sobre la presión arterial o los niveles de colesterol, y también a la mejora en la educación.

El caso más ilustrativo, según ‘The New York Times’, son las cardiopatías, cuya tasa de mortalidad lleva más de medio siglo en declive y ha disminuido en un 70% desde su pico.  

Los numerosos científicos que han estudiado las posibles razones de este resultado —una mayor prevención, un mejor tratamiento o cambios en el estilo de vida— han llegado a la conclusión de que los tres factores han contribuido.

La caída es tan significativa que los médicos pronostican que pronto las cardiopatías dejarán de ser la primera causa de muerte en EE.UU., y el cáncer ocupará el primer lugar, pese a que su tasa también está en declive.

(°) Ingeniero, Presidente H. de FAPLEV. Vecino Solidario 2001.

Feliz misterio: las causas más comunes de mortalidad están disminuyendo inexplicablemente

Mejora cerebral.

“La mejora del trabajo cerebral”

Compilado por Manlio E. Wydler (|)

 

¿La  atención intensificada aumenta la capacidad mental? Esta es la pregunta abordada por una nueva investigación publicada en la revista Cell Reports. 

 

Sus resultados han revelado que la exigencia de atención o las situaciones que nos “despiertan” hacen que se genere una señal química a través del cerebro como respuesta. 
Este nuevo hallazgo explicaría cómo medicamentos actuales utilizados en el tratamiento del Alzheimer, y diseñados para aumentar esta misma señal química, pueden contrarrestar los síntomas de la demencia. 

 

Pero, además, los resultados podrían impulsar nuevas formas de mejorar la función cognitiva para contrarrestar los efectos de enfermedades como el Alzheimer y la esquizofrenia, así como mejorar la memoria en personas sanas.
El equipo de investigadores médicos de las universidades de Bristol (Inglaterra) y Maynooth (Irlanda), en colaboración con la compañía farmacéutica Eli Lilly & Company, estudió cómo la liberación de un neurotransmisor del cerebro llamado “acetilcolina” fluctúa durante el día. 

 

Encontró así que la liberación de este neurotransmisor es mayor cuando el cerebro está ocupado con tareas mentales más desafiantes. 

 

Estas fluctuaciones se coordinan a través de todo el cerebro, lo que indica la existencia de una señal por todo este órgano para aumentar la capacidad mental, con picos específicos en la liberación de acetilcolina en momentos particularmente estimulantes, como la posibilidad de obtener una recompensa con determinadas actividades. 

 

El profesor Jack Mellor, investigador principal del Centro para la Plasticidad Sináptica de Bristol, explica que: “Estos hallazgos revelan cómo el estado del cerebro es regulado y actualizado para optimizar la codificación de la memoria y el rendimiento cognitivo. Muchos tratamientos actuales y futuros para una amplia gama de trastornos cerebrales están diseñados para sistemas químicos como el de la acetilcolina, así que comprender cuándo estos sistemas se activan y cómo funcionan resultará crucial para el futuro desarrollo y uso clínico de dichos medicamentos”. 

 

El hallazgo fue realizado en el contexto de una investigación interdisciplinaria en la que se empleó una tecnología de biosensores que funcionan en tiempo real para el estudio de los elementos neuroquímicos asociados con la memoria, añaden los autores del estudio.

 

(°) Ingeniero, Presidente H. de FAPLEV. Vecino Solidario 2001.

Imagen: PeteLinforth. Fuente: Pixabay.