TELMAG, Tren ElectroMagnético

El Tren ElectroMagnético TELMAG es un sistema de transporte masivo terrestre, construido y diseñado por la empresa INNOVEM. Una de sus ventajas es que no requiere de la fricción mecánica para su propulsión y es mucho más sencillo y económico que un MAGLEV.

TELMAG

Las Propiedades más destacadas son:

  • Propulsado por un motor Lineal de Reluctancia que lo guía y sustenta mediante fuerzas electromagnéticas directamente entre el vehículo y los rieles sin rozamiento ni desgaste mecánico.
  • Pendientes: No tiene ninguna limitación en subir fuertes pendientes.
  • Beneficios Ambientales: TELMAG es uno de los sistemas más amigables con el medio ambiente debido a que es totalmente eléctrico y no contaminante. Al estar situado en una vía elevada y poder superar fuertes pendientes garantizan un mínimo impacto ambiental en su entorno.
  • Baterías Recargables: Puede funcionar con baterías recargables en cada estación. Pudiendo utilizar en parte la energía solar.
  • Catenaria: Al utilizar un sistema de baterías recargables TELMAG es totalmente autónomo y no necesita de la catenaria para la toma de alimentación eléctrica. Aunque puede utilizarla.
  • Presión uniforme: No ejerce sobre la vía una presión puntual sino uniforme, que lo hace útil para cualquier tipo de terreno y clima.
  • Sistema guiado: El sistema de guiado y sujeto a la vía lo hace totalmente imposible de descarrilar.
  • Vía Pasiva: TELMAG no necesita una vía bobinada y electrificada, es totalmente pasiva. Este sistema simplifica y abarata la construcción y el mantenimiento.

La investigación y desarrollo del TELMAG empezó hace varias décadas a partir de una idea inicial del Dr. Albert Serra. Construir un sistema de transporte guiado, con mayor capacidad de tracción en comparación con un ferrocarril tradicional, que permitiera al vehículo subir fuertes pendientes y desarrollar altas velocidades con seguridad y bajo mantenimiento.

INNOVEM propone utilizar el TELMAG al simplificar y disminuir significativamente los costes de construcción de los sistemas de propulsión de alta velocidad. Además su sistema de propulsión totalmente innovador lo capacita para su utilización en cualquier terreno y clima adverso.

Publicado en Actualidad, Física, Tecnologia | Etiquetado , , , | Deja un comentario

¿Donde estan los Alienígenas? o La Solución Fermi

Recientemente se han explorado unas 100.000 galaxias en busca de las huellas que puede dejar una supercivilización alienígena devorando una gran cantidad de energía. Los resultados son que no se ha detectado nada especial, si las civilizaciones alienígenas existen no consumen tanta energía como presuponíamos. Enrico Fermi creía que las civilizaciones galácticas tendrían que dejar huella y si no han llegado a la Tierra y no hemos detectado sus huellas en el cielo galáctico es simplemente porque no existen.civilizaciones galácticas

Enrico Fermi era un físico italiano que construyo la primera pila nuclear en 1942 en la universidad de Chicago. Antecedente de los reactores nucleares. Participo en la construcción de la primera bomba atómica dentro del proyecto Manhattan.

Cuando se enteró de que algunos científicos consideraban la posibilidad de que existieran numerosas civilizaciones galácticas, el respondió, y porque no hemos recibido contacto de ninguna de ellas?. Donde estan?. Esta es la paradoja de Fermi, si hay tantas civilizaciones tecnológicamente avanzadas como es que no tenemos evidencia de su existencia. Para Fermi la solución era muy sencilla, simplemente no existen o se han destruido a si mismas.

Puede existir una solución intermedia, quizás estén demasiado lejos y el viaje interestelar podría no ser posible. O quizá ya estén aquí, o quizá estén en camino o de vuelta a su casa. Quizá se comuniquen a través de la Galaxia de modos que desconocemos. Quizá son tan diferentes a nosotros que su concepto de la ciencia escapa a nuestros conocimientos. Quizá la vida tarda más en desarrollarse a partir de moléculas elementales hasta las células procariotas (bacterias) y luego hasta las eucariotas (vegetales y animales) y más en desarrollar sistemas multicelulares.

Demasiados quizás y basados en una formula, la de Drake, que como me comentan, no tiene ninguna o muy poca validez dado la diversidad de resultados. Pues bien, voy a intentar dar con algunos parámetros indicativos de la cantidad de civilizaciones tecnológicamente avanzadas que pueden existir en la Galaxia. Para ello tengo que partir de los conocimientos básicos sobre las dimensiones de nuestra Galaxia.

Nuestra Galaxia se parece a un disco de diámetro 160000 años luz y altura 2000 años luz. Un año luz es la distancia que recorre la luz en un año. Teniendo en cuenta que la luz viaja aproximadamente a 300000 km/s en el vacío y que un año tiene 365·24·60·60 segundos, esto es 31536000 segundos, al multiplicar obtenemos 9460800000000 kilómetros. Podemos decir que un año luz son aproximadamente 9.46 billones de kilómetros.

fermi01

 

El volumen de la Galaxia sera

fermi02

Suponiendo que existen N civilizaciones tecnológicamente avanzadas en la Galaxia y que estas se encuentran uniformemente distribuidas, el volumen que ocupa cada civilización es

fermi03

Para calcular la distancia entre civilizaciones suponemos que este volumen VC esta formado por un cubo de dimensiones dC cada lado

fermi04

El volumen del cubo es V=d3, tenemos entonces que el volumen del cubo tiene que ser igual al volumen que ocupa cada civilización en la Galaxia

fermi05

El radio de la Galaxia es 80000 años luz y la altura 2000 años luz, tenemos pues

fermi06

Si representamos esta función, es decir la distancia entre civilizaciones respecto la cantidad de civilizaciones, obtenemos

fermi07

Podemos observar que a partir del valor de N = 6000 la distancia no disminuye más, esto es así porque hemos llegado a llenar todo el volumen de la Galaxia. El volumen de la Galaxia en este modelo es de

fermi08

Teniendo en cuenta 6000 civilizaciones repartidas por la Galaxia en este modelo tenemos que en total ocuparan un volumen de 4.02·1013 años luz cúbicos

fermi09

Así pues, si existen 6000 civilizaciones alienígenas tecnologicamente avanzadas y al mismo tiempo estas se encontraran separadas por una distancia de 1885 años luz. Obtenemos un parámetro interesante para medir que lejos nos encontramos unos de otros, la distancia entre civilizaciones dc.

fermi10

donde dc en función de la cantidad N de civilizaciones será

fermi11

Para N = 33 civilizaciones, la cantidad que obtengo a partir de la ecuación de Drake, la distancia es de 10681 años luz.

¿Es posible la comunicación entre estas civilizaciones? Otro parámetro importante será el tiempo que se tarde en viajar de una civilización a otra. Es difícil valorar a la velocidad que se puede viajar con una nave interestelar. El proyecto Daedalus con combustible nuclear de fusión tiene una velocidad teórica de 0.1 veces la velocidad de la luz. Consideremos pues que se puede viajar con una nave interestelar a 0.1c, donde c es la velocidad de la luz, aproximadamente 300000 km/s. Y de esta manera no tengo que hacer cálculos relativistas.

El tiempo de viaje entre civilizaciones para los dos valores de N seráfermi12

Para el caso más favorable el tiempo de viaje es de 18850 años y el que obtenemos a partir de mi consideración de 33 civilizaciones es de 106810 años. Es decir que aun para una civilización tecnológicamente avanzada el viaje interestelar presenta numerosos problemas, a no ser que los alienígenas vivan miles de años y no se atrevan a visitarnos…esto dice mucho sobre su inteligencia.

 

 

 

 

 

 

 

Publicado en Física, Universo | Etiquetado , , , | Deja un comentario

Que es el factor K?

La norma UNE 25-460-90 especifica en las instalaciones eléctricas en edificios la elección e instalación de los materiales eléctricos en la puesta a tierra con los conductores de protección adecuados. El factor K surge en la norma como una formula que especifica la relación entre la intensidad y la sección del cable. Como se obtiene esta fórmula?

Cuando se produce un cortocircuito la intensidad que circula por los conductores eléctricos es muy elevada, poniendo en peligro los sistemas de protección a tierra. La elección adecuada de los materiales y sus secciones son indispensables, tanto para evitar daños estructurales en las instalaciones eléctricas como para proteger correctamente a los usuarios. 

La norma UNE 20-460-90 explica el método para diseñar una correcta instalación de puesta a tierra mediante conductores de protección. El fundamento del método se encuentra en la transferencia de energía eléctrica en energía calorífica.

  • Transferencia de energía en un conductor eléctrico

Cualquier material conductor tiene una determinada resistividad que nos indica si es un muy buen conductor, buen conductor o mal conductor. Pero por muy buen conductor que sea el material siempre existe una pequeña resistencia al paso de la corriente eléctrica. Esta resistencia provoca que el conductor se caliente por la intensidad de la corriente eléctrica. La energía en forma de calor que se genera en el conductor se denomina efecto Joule y viene descrita por la siguiente ecuación donde R es la resistencia eléctrica, i la intensidad y t el tiempo

fk0111

Este calor se desprende al medio exterior en forma de energía calorífica Q según la variación de temperatura, la masa y el calor específico del material

fk02

Como podemos comprobar la energía disipada por efecto Joule depende linealmente de la resistencia del conductor. Pero la resistencia de un conductor aumenta linealmente con la temperatura, siguiendo la ecuación siguiente, donde se escoge la temperatura de 20 C como referencia.

fk03

Hay que tener en cuenta que al aumentar la intensidad, el efecto Joule provoca que en el conductor también aumente la temperatura, al aumentar la temperatura la resistencia aumenta provocando que disminuya la intensidad mediante la ley de Ohm I = V/R. De esta manera la resistencia, la temperatura y la intensidad se encuentran estrechamente relacionadas. Por este motivo las ecuaciones anteriores de la energía E y el calor Q no pueden utilizarse directamente. Mucha gente cree el proceso de igualar la energía creada por efecto Joule al calor cedido explica el comportamiento térmico del cable. Esto no es cierto por la relación anterior de la resistencia con la temperatura.

El proceso que tenemos que seguir es diferenciar primero las ecuaciones de la energía E y el calor Q antes de establecer las condiciones de equilibrio térmico adiabático.

Diferenciando obtenemos

fk04

  • Ecuación Diferencial

Todo el calor generado por efecto Joule se disipa hacia el medio exterior a través de la cubierta dieléctrica del conductor. Si esta disipación se produce de forma rápida podemos considerar un proceso adiabático con la resistencia una función de la temperatura R=R(T).

Entonces podemos establecer la igualdad siguiente

fk05

Y utilizando la resistencia como función de la temperatura obtenemos

fk06

En todas las instalaciones eléctricas es indispensable conocer la longitud y la sección de los conductores. Esta condición la incluimos a partir de la relación entre la resistencia R y la resistividad ρ del material conductor.

fk07

Las dimensiones del conductor las encontramos incluidas en la masa m. La masa y el volumen se encuentran relacionados mediante la densidad D, obtenemos

fk08

Tenemos así configuradas todas las variables que intervienen en la trasferencia de energía de un conductor eléctrico en un régimen adiabático. Estas variables son las siguientes

fk09

Teniendo en cuanta todas estas variables, la ecuación de la transferencia de energía se establece mediante la siguiente ecuación diferencial.

fk10

  • Integración

Para determinar el factor K tenemos que integrar la ecuación diferencial anterior, donde

fk11

fk12

Finalmente la solución es

fk13

donde he simplificado

fk14

siendo

Qc : capacidad térmica volúmica del material conductor

β : Inversa del coeficiente de temperatura del conductor normalizada a 0ºC

ρ20 : Resistividad eléctrica del material conductor a 20ºC

Ti: Temperatura inicial del conductor

Tf: Temperatura final del conductor

  • Factor K

Finalmente, el factor k viene expresado por la ecuación

fk15

Publicado en Física | Etiquetado , , | Deja un comentario

La Fuerza Centrífuga en el accidente del tren Alvia

Después de dejar pasar un tiempo prudencial y al comprobar que no hay demasiados detalles técnicos en la explicación del lamentable accidente del tren Alvia en Santiago de Compostela, comentare algunos detalles. En ningún momento pretendo realizar una valoración alternativa…pretendo dar a conocer como las fuerzas y momentos de las fuerzas originan desastres. Aparte que no dispongo de los datos exactos y sobretodo de los centros de gravedad de la cabeza motriz y el coche diesel, cruciales en este cálculo. Tampoco he tenido en cuenta el peralte pues no pretendo realizar un cálculo exacto, solamente dar a conocer la importancia del momento de la fuerza centrífuga en el vuelco del tren.

Esquema tren Alvia

Esquema tren Alvia

En junio de 2012 se estrenó el tren híbrido Alvia Serie 730, se trataba del primer tren híbrido de RENFE. Adaptado con tecnología tanto de tracción diésel como eléctrica. De esta manera se conseguía adaptar la alta velocidad a tramos aun sin electrificar. La serie 730 es una modificación o adaptación de la serie 130 a la que se añade un coche con un motor diesel y depósitos de combustible para dar la energía necesaria a los tramos sin electrificar.

Alvia-S-730-hibrido01

Alvia-S-730-hibrido02

Comprobaremos más adelante, mediante los cálculos de momentos, que desgraciadamente esta particularidad híbrida del Alvia conduce al desastre. Una de las propiedades importantes de cualquier vehículo de alta velocidad es la posición baja del centro de gravedad, justamente para evitar volcar en las curvas. El coche diesel o también denominado coche técnico tiene el centro de gravedad alto (desconozco la posición exacta de su centro de gravedad), como puede apreciarse en esta imagen.

Talgo_s130H_2b

En la siguiente imagen, obtenida del video de la grabación del accidente, se aprecia notablemente que el primer coche que descarrila es el correspondiente al coche técnico donde se encuentra el motor diesel y el depósito de combustible. Observamos que este coche se levanta, seguramente como consecuencia del frenado de la cabeza motriz, produciendo la elevación del centro de gravedad, ya de por si elevado en este coche técnico. El resultado de esta elevación del centro de gravedad resulta fatal, pues el momento (o par) que actúa para volcar el coche aumenta enormemente, terminando por volcar el furgón generador y arrastrando a la cabeza motriz y consecuentemente a todo el tren.

subida-centro-gravedad

  • Datos del tren

Masa de la cabeza motriz: mA = 72000 kg
Masa del coche técnico: mB = 50000kg
Velocidad de entrada en la curva: v = 180 km/h = 50 m/s
Velocidad normal de entrada en la curva: vn = 80 km/h = 22.22 m/s
Anchura coche: 2,960 m
Altura coche: 4,030 mAncho de via ibérica: 1668 mm = 1,67 m

  • Determinación del rádio de curvatura

Para determinar el rádio de curvatura utilizo el google maps el photoshop y la regla. La escala del mapa nos indica que 4 cm corresponden a 100 m en la realidad.

regla medida

La imagen ajustada de la curva de Angrois

medicion-radio-curva

Obtengo un diámetro de 32,1 cm que mediante una regla de tres corresponden a 401,25 m de radio de curvatura y escojo 401 m para el rádio de la curva.

Radio curva de Angrois

Radio curva de Angrois

  • Aceleración Centrífuga

A continuación los cálculos de la aceleración centrífuga correspondiente a la situación normal (acn) a la velocidad de 80 km/h y la otra correspondiente a la del accidente (ac).

eqalvia01

La relación entre las aceleraciones es la siguiente:

eqalvia02

Así pues, la aceleración centrifuga en el accidente es 5 veces superior a la correspondiente en una situación normal.

  • Fuerza Centrífuga

La fuerza centrífuga es el producto de la aceleración centrífuga por la masa. Determino la fuerza centrífuga correspondiente a la cabeza motriz (A) y al coche técnico (B) tanto para la aceleración en situación normal y a la del accidente.

eqalvia03

  • Peso de los vagones

El peso de la cabeza motriz (A) y el coche técnico (B).

eqalvia04

Como datos alternativos observamos que la fuerza centrífuga durante el accidente es 5 veces superior a la normal y corresponde al 63,5 % del peso del tren.

  • Energía cinética

La energía cinética es la energía asociada a la velocidad y depende del cuadrado  de la velocidad. Calculo la energía cinética de la cabeza tractor (A) y del vehículo técnico (B).

La energía cinética es la energía asociada a la velocidad y depende del cuadrado  de la velocidad. Calculo la energía cinética de la cabeza tractor (A) y del vehículo técnico (B).

eqalvia08

Para hacerse una idea de la fuerza del impacto, es como si el tren hubiese caído de una altura h = 127 metros aproximadamente.
eqalvia05

  • Cálculo del momento de la fuerza centrífuga

Con los cálculos anteriores sobre la fuerza centrífuga no se puede explicar el descarrilamiento del Alvia. El causante que provoca el descarrilamiento como consecuencia del vuelco del tren es el momento de la fuerza centrífuga, no la fuerza centrífuga. Para conocer el momento aplicado por la fuerza centrífuga es necesario conocer las dimensiones de los coches y el centro de gravedad, que en este caso desconozco, no he encontrado estos datos. Pero la cuestión relevante es que el centro de gravedad de la cabeza tractor es mucho más bajo que el coche diesel. He escogido 1 metro para el primero y 2 metros para el segundo.

– Esquema y cálculo del momento de la cabeza motriz sobre el punto de contacto de la rueda con la vía (V)

momento A

eqalvia06

Se obtiene un valor negativo que nos indica que le peso es suficiente para mantener el coche dentro de los rieles de la vía sin volcar. Cuidado…con este centro de gravedad…no tengo el exacto.

– Esquema y cálculo del momento del coche diesel sobre el punto de contacto de la rueda con la vía (V)

momentoB

eqalvia07

El valor positivo nos indica que esta vez el momento de la fuerza centrifuga  es suficiente para volcar el segundo vagón.

Con todo esto, y sin olvidar que no son cálculos exactos, se puede apreciar la gran importancia del momento de la fuerza centrífuga y de la posición del centro de gravedad en situaciones donde hay que tener en cuenta la velocidad en las curvas.

Publicado en Actualidad, Física | Etiquetado , , , , , | 1 comentario

De la Mecánica Cuántica a los Agujeros Negros

¿Porque Stephen Hawking y otros aseguran que los agujeros negros no existen después de dedicarle tanto tiempo a su existencia?. Aprovechan la paradoja de la pérdida de información para indicar que nada puede desaparecer del universo. El agujero negro emite radiación (radiación de Hawking) pero también lanza masa así que no puede seguir contrayéndose bajo el efecto de su propia gravedad. Yo creo que puesto se ha agotado el tema agujero negro como devorador del universo ahora se junta con la teoría de la información para iniciar un nuevo mercado científico donde publicar. Les explico de que va todo esto.

agujero-negro

Ya en un cuaderno de Einstein escrito en 1912 aparecen de forma caótica las ecuaciones de la relatividad general. Einstein la descartó por considerarlas imposibles, pues estaban totalmente en contra del principio de equivalencia inercial establecido por Newton en 1687 en Philosophiae Naturalis Principia Mathematica. Tres años más tarde cambio de opinión y envió sus artículos a Königlich Preubische Akademia der Wissenschaften a Berlin, entre los años 1915 y 1916, estaba naciendo la Teoría de la Relatividad General (TRG). La nueva teoría modificaba el principio de equivalencia de Newton, conocido ahora como el principio de equivalencia débil y establecía el principio de equivalencia de Einstein. El mismo Einstein lo escribía en un articulo a la revista Science en 1940.

“La teoría general de la relatividad tiene sus orígenes en la intención de explicar un fenómeno conocido des de Galileo y Newton, pero de difícil interpretación teórica: la inercia y el peso de un cuerpo, dos cosas diferentes pero mesurables con una misma constante: la masa”

Einstein se preocupo de conseguir un teoría elegante y simple desde el punto de vista de las hipótesis iniciales, pero el resultado fue y es una teoría muy complicada matemáticamente (geometría diferencial) y difícil de comprobar experimentalmente. El nuevo contenido matemático de la geometría diferencial, desconocido por la mayoría de los científicos de la época, la hizo una teoría difícil de entender de interpretar y de comprobar. Así pues, la TRG no tuvo mucha resonancia en la comunidad científica cuando apareció en 1916. Albert Einstein proponía que la gravedad no era una fuerza sino el resultado de la curvatura del espacio-tiempo causada por los objetos con la propiedad de la masa.

Para conocer la importancia que le dieron los científicos a esta nueva teoría utilizo la gráfica de la cantidad de publicaciones en TRG a lo largo del siglo XX

Grafica publicacions en trg

Grafica publicaciones en trg

Es curioso observar que existe un aumento de publicaciones en el año 1920 para volver a caer y es hasta el 1965 que empieza a repuntar para realizar un aumento espectacular. ¿Como puede ser eso?

La explicación, que ya intuye Helge Kragh en su libro “Quantum Generations, a history of physics in the twentieth century”, consiste en ver la relatividad general como una nueva filosofía de la vida al terminar la primera guerra mundial (IWW). Recordemos brevemente que la relatividad general tiene una aceptación mayor cuando Eddington el 29 de mayo de 1919 durante un eclipse de Sol cerca de África fotografió la luz de las estrellas que aparecían cerca del Sol. Estas observaciones de Eddington confirmaron la idea de la teoría de la relatividad general que la luz puede ser desviada por un intenso campo gravitatorio, como en este caso el campo gravitatorio Solar.

Pues bien, Eddington era ingles y Einstein alemán, la IWW había terminado apenas hacia un año y había enfrentado a Inglaterra y Alemania. La ciencia unía a los dos pueblos que la guerra había separado. Aunque Eddington hizo un poco de trampa en la experimentación. La mayoría de la gente creía que una nueva filosofía imperaba en el ser humano después del desastre. Apareció un nuevo pensamiento filosófico positivista que el Circulo de Viena hacia 1922 se encargó de impulsar. Muchos de sus miembros se vieron influidos por la nueva teoría de la relatividad general. Es en este contexto que aparecen una gran cantidad de artículos relacionados con la TRG pero más en el ámbito filosófico que el científico. De ahí el pico de publicaciones en 1920.

Hay que tener en cuenta que en esos años la mecánica cuántica estava muy desarrollada y existían una gran cantidad de científicos dedicados a esta disciplina científica. Precisamente el paso de algunos de estos científicos cuánticos a la relatividad general origina el desarrollo del estudio sobre agujeros.

A continuación una gráfica con los artículos más relevantes.

grafica-webtrg2

Puesto que el campo de las partículas elementales estaba muy desarrollado, Enrico Fermi i Paul M Dirac en 1926 utilizando la estadística cuántica determinan el comportamiento de una gas degenerado de electrones al que denominan fermiones. En el mismo año R.H. Fowler utiliza los fermiones para explicar el comportamiento de un gas degenerado de electrones sometido a una fuerte fuerza gravitatoria, en definitiva explica el comportamiento de una estrella enana blanca dentro de la evolución estelar. Hay que recordar que las enanas blancas aun no se habían descubierto, así que esta asociación teórica de la mecánica cuántica (fermiones) con la relatividad general (campo gravitatorio) dio muy buen resultado.

Posteriormente Chandrasekhar en 1931 demuestra que las enanas blancas no pueden ser más masivas que 1,24 veces la masa solar (límite de Chandrasekhar). ¿Que ocurre para una masa superior?, el gas de electrones no puede frenar el colapso gravitatorio y la estrella implosiona. En 1932 Chadwick descubre el neutrón y en 1934 Baade y Zwicky inventan el termino estrella de neutrones y describen el proceso de una supernova. No olvidemos que es un trabajo totalmente teórico y posteriormente se descubrieron las estrellas de neutrones y las supernovas.

En estos estudios sobre la masa de una estrella enana blanca aparece por primera ver una ecuación donde se mezcla la mecánica cuántica (MC) con la relatividad general (TRG). Podemos observar en la siguiente imagen dentro del cuadro azul que aparece la constante de Planck (h) y la constante de Gravitación (G) en un mismo término.

ecuacion-masa-estrella

En 1939 Oppenheimer y Volkoff estudian el equilibrio gravitacional de una estrella de neutrones utilizando la estadística cuántica de un gas degenerado de neutrones conjuntamente con la relatividad general. Este trabajo constituye los fundamentos teóricos de la teoría de la relatividad general aplicada a la estructura estelar. Al final de su articulo consideran la posibilidad que si no existe equilibrio entre la presión del gas de neutrones y la fuerza gravitatoria, la estrella continuara colapsando cada vez sin poder llegar a un equilibrio. Es el primer indicio de que la unión entre la mecánica cuántica y la relatividad general conduce a la formación de agujeros negros.

Oppenheimer posteriormente (1942) se encargo de dirigir el proyecto Manhattan (crear una bomba atómica) trabajando en el problema de la difusión de neutrones de alta velocidad, esenciales para la correcta explosión de la bomba atómica.

La ocupación de la mecánica cuántica en estos años del 1940-45 esta dominada por la bomba atómica, aspecto esencial de la cultura estadounidense. Aparte que la explosión de la bomba es una excusa para comprobar si los cálculos teóricos son correctos (duro pero el homo sapiens sapiens es así). En la TRG no existían ni experimentos ni observaciones que corroboraran los cálculos teóricos.

Respecto a los resultados experimentales de la TRG es decisivo la investigación de Duyvendak i Oort en 1942. Deducen que la nebulosa del cangrejo es lo que queda de una supernova, cuya explosión fue observada por los astrónomos chinos en el año 1054. Anteriormente Baade y Minkowski, también en 1942 habían identificado una estrella cercana al centro de la nebulosa como el residuo de una estrella que ocasiono la supernova.

A finales de la IIWW aparecieron los radiotelescopios como consecuència del desarrollo del radar en Inglaterra para detectar los aviones enemigos, inspirado en un articulo de Nikola Tesla de 1917. Tendriamos que esperar hasta 1967 para que finalmente se descubriesen las estrellas de neutrones de forma inesperada como pulsares por Hewish y Bel, utilizando un radiotelescopio. Este es un descubrimiento esencial, a partir del cual se produce un cambio en la visión de la relatividad general que tenían los físicos, la TRG conjuntamente con la MC proporcionaba un cálculo coherente con las observaciones. Por este motivo a partir de 1970 empiezan a aparecer publicaciones en este campo de investigación, los científicos descubren un campo nuevo donde pueden empezar a publicar tranquilamente sin oposición y competencia.

Pero volvamos a 1950, el hecho de que la unificación de la TRG con la MC pueda explicar observaciones astronómicas abre un nuevo “mercado” en la explotación científica. Y los agujeros negros se convierten en el objeto de mayor valor de este mercado. Objetos estelares tan masivos que ni la luz es capaz de escapar de su campo gravitacional. Aparecen tímidamente artículos teóricos sobre como tiene que ser estos nuevos astros. Destaca el artículo de Synge sobre el campo gravitacional asociado a una partícula y Wheeler construye su teoría sobre la geometrodinámica que no da los resultados que adecuados pero incluye la teoría del colapso gravitacional y acuña el término agujero negro en 1967, siendo un pionero en la gravitación cuántica. Escribe conjuntamente con Misner y Thorne el libro “Gravitation” publicado en 1973 y conteniendo unas 1200 paginas. Ese mismo año Hawking y Ellis publican “The Large Scale Structure of Space-Time” y en 1974 Hawking publica un articulo sobre la explosión de agujeros negros (“Black hole explosions”), desarrollando a continuación su carrera como experto en agujeros negros.

¿Quienes se pasan a la TRG?, precisamente los científicos que estaban en la disciplina de la MC. Esta estaba quedando muy colapsada y existía mucha competencia, pasándose a la TRG conjuntamente con la MQ se abre un campo virgen con posibilidades de muchas publicaciones de carácter teórico. Que más tarde pueden comprobarse con los nuevos instrumentos de los radiotelescopios.

Este campo ahora ha quedado saturado, el conocimiento sobre la gravedad cuántica no termina de despegar y hay que buscar nuevos mercados donde colocar los artículos. Aparece pues el mercado de la MC+TRG aplicada conjuntamente a la Teoría de la Información…claro que sin ninguna observación astronómica que pueda corroborar los resultados.

 Otras entradas relacionadas con agujeros negros:

Publicado en Física, Historia Ciencia, Reflexiones | Etiquetado , , , , | 1 comentario

Los Pingüinos y el Cambio Climático

Últimamente están saliendo algunas noticias sobre los desastres que ocurrirán a los pingüinos por culpa del cambio climático. Veamos cual es la realidad.

pinguinos

Imagen del documental ‘El viaje del emperador’, dirigido por Luc Jacquet.

Después de un largo periodo intentando abrir lineas de investigación en el Hospital de Mataró y conseguir solo perder el tiempo, vuelvo a la física. Bueno, al menos me he sacado un Máster en conocer las miseria y bajezas humanas…era una asignatura pendiente. Así que ahora espero tener más tiempo para dedicar a este blog.

Vuelvo con el tema del cambio climático…pero es que casi me obligan…

Un estudio dirigido por la Institución Oceanográfica de Woods Hole (WHOI) publicada en la revista Nature Climante Change nos dice que:

Leo en un medio de comunicación:

“La población de pingüinos emperador se verá dramáticamente mermada a finales de este siglo por culpa del cambio climático”

“La clave de la supervivencia de los pingüinos emperador (Aptenodytes forsteri) está en el hielo marino. Estos animales dependen de él para la cría, la alimentación y hasta la muda de las plumas. Si se reduce tal y como prevén las actuales proyecciones del IPCC, el Panel Intergubernamental de Cambio Climático, la población de estas icónicas aves se verá muy afectada, señalan los expertos.”

Pues podría parecer que así será, pero como ya estamos acostumbrados a las noticias alarmistas veamos que dicen las gráficas sobre el hielo en la Antártida. 

The Cryosphere Today

The Cryosphere Today

Observamos que hay más hielo que la media de los años 1979-2008. Pues nada, no hay que preocuparse por los pingüinos. Felicitar a los del la Institución Oceanográfica de Woods Hole por conseguir que les publiquen el articulo, que no siempre es fácil que te publiquen. 

Publicado en Actualidad, Cambio Climático | Etiquetado , , , , | 1 comentario