Archive for the ‘Tecnología’ Category

Superconductividad y efecto Meissner

febrero 20, 2008

El fenómeno físico de la superconductividad fue observado por vez primera en 1911 por Heike Kamerlingh Onnes cuando estudiaba las propiedades de la materia a la temperatura del helio líquido, gas que el propio Onnes había conseguido licuar unos años antes. Lo que vio el holandés fue que, cuando una muestra de mercurio se enfriaba por debajo de una cierta Temperatura Crítica (para dicho metal Tc= 4,2K, casi 270 grados Celsius bajo cero), su resistencia eléctrica caía abruptamente hasta límites indetectables.

A partir de ese momento, se iniciaron diversos estudios relacionados con el descubrimiento de Onnes, y durante los años que siguieron se encontró que, además del mercurio, otros elementos metálicos, a temperaturas muy bajas (con sus Tc características), eran también superconductores. Hoy en día sabemos que existen muchos compuestos que presentan superconductividad a temperaturas “bastante” altas.

Pero, no sólo depende el fenómeno de la temperatura, el propio Onnes descubrió ya en 1913 que la superconductividad desaparece en presencia de un campo magnético externo lo  suficientemente elevado. Es decir, existe un Hc (campo crítico) por encima del cual el material pierde sus carateríscticas superconductoras. Sin embargo, como demostraron Meissner y Ochsenfeld en un experimento realizado en 1933, mientras no se alcance este campo crítico el campo magnético en el interior de un superconductor es siempre nulo, independientemente de si ha sido enfriado por debajo de su Tc en presencia o no de un campo magnético externo. Por tanto, los superconductores, además de conductores ideales, pueden considerarse diamagnéticos ideales. Este hecho sirve además como diferenciador entre un conductor perfecto (i.e., que tiene resistencia eléctrica nula) y un material superconductor (ver figura).

(more…)

Hologramas dinámicos

febrero 8, 2008

Físicos estadounidenses acaban de crear un display holográfico capaz de mostrar imágenes tridimensionales cambiantes con el tiempo. El nuevo dispositivo, el primero basado en un material conocido como polímero fotorrefractivo, abre las puertas al desarrollo de pantallas dinámicas 3D de gran tamaño.

Holografía: para formar el holograma de una figura sólida necesitamos, en primer lugar, dividir  un haz de láser en dos; el llamado haz “objeto” y  el denominado “referente”. El haz objeto se dirige, obviamente, al objeto a renderizar, el cual dispersará la luz incidente que será recogida sobre una placa fotosensible situada a continuación. En esta placa, la luz difractada se combina con la del haz referente produciendo un patrón de interferencia que contiene toda la información 3D – esto es, fase y amplitud- del objeto. A continuación el patrón de interferencia deberá ser almacenado en un material adecuado.

Actualmente se dispone de una amplia variedad de materiales con los que formar hologramas estáticos, es decir, con la capacidad de almacenar toda la información necesaria -de hecho, podemos encontrar hologramas de casi cualquier tamaño, a todo color y con una alta resolución. Sin embargo, hasta la fecha no se había encontrado un material capaz de mostrar imágenes holográficas cambiantes.

Y es que Nasser Peyghambarian y sus colegas de la Universidad de Arizona, en colaboración con la Nitto Denko Technical Corporation de California, han creado una pantalla holográfica actualizable de 10 cm cuadrados y con una resolución cercana a la que ofrece un televisor estándar. Esta pantalla está compuesta de un polímero fotorrefractivo con el que se consigue que los portadores de carga móviles se acumulen sobre las franjas de luz y oscuridad del patrón de interferencia, creando un campo eléctrico que varía en el espacio. Este campo eléctrico obliga al índice refractario del polímero a ajustarse al patrón de interferencia, que puede permanecer grabado durante unas tres horas (o hasta que los portadores de carga son dispersados por un haz uniforme que funciona como borrador).

Imagen de un Molécula en 3D reproducida por el diplay holográfico

El siguiente paso, para el equipo de investigación norteamericano, es el desarrollo de displays mayores y la reducción del tiempo de escritura para conseguir la reproducción de video en 3D.

Traducido (libre e irresponsablemente) de physicsworld (by John Cartwright).

Letter que los investigadores enviaron a la Nature.

Más sobre el tema en ‘Ciencia al desnudo‘.

Retornos científicos: PET

diciembre 12, 2007

Aproximadamente la mitad de los 17000 aceleradores de partículas que hay por todo el mundo (sin contar los de los televisores CRT, claro) se utilizan en medicina, principalmente en la fabricación de radiofármacos. Para ello necesitamos un ciclotrón con el que irradiar una cierta sustancia y conseguir así transformarla en un compuesto radiactivo de vida media corta (de ahí la necesidad de ubicarlos en las proximidades de los complejos hospitalarios). Esta sustancia se inyectará en el paciente mezclada con, por ejemplo, glucosa.

El proceso es seguro y los radiofármacos se fijan exclusivamente en determinados tejidos. A medida que se desintegran emiten positrones que se aniquilan con electrones produciendo dos fotones de energía bien definida que salen emitidos en direcciones opuestas. Estos fotones se detectan por medio de plásticos centelladores. Los fotomultiplicadores amplifican la señal para que pueda ser analizada, permitiéndonos obtener imágenes estáticas e incluso dinámicas de los órganos en los que se depositan los radiofármacos, proporcionando así información sobre su morfología, función y metabolismo. En el caso del diagnóstico del cáncer, por ejemplo, sabemos que las células cancerosas consumen más glucosa que las sanas debido a su mayor vascularización, actividad metabólica y reproductiva, así que los tejidos cancerosos brillarán más.

Imágenes del cerebro obtenidas por Resonancia Magnética Nuclear y con Tomografía por Emisión de Positrones.

Una parte importante del trabajo inicial que daría lugar a la tecnología PET (Tomografía por Emisión de Positrones) fue desarrollado en el CERN a finales de los años 70. Todos los dispositivos scanner de este tipo se basan en la utilización de detectores creados en el ámbito de la física de partículas. De especial importancia en este sentido son los trabajos de Georges Charpak, laureado con el premio Nobel de física en 1992 por el invento y desarrollo de detectores de partículas, particularmente la cámara proporcional multihilos. Hablaremos de este gran hombre en otra ocasión.

+info: enlace a la web del CERN que muestra un poster en el que se explica gráficamente (y en inglés) en qué consiste esta técnica.

Fuente: on my way, a partir de un artículo de Antonio Dobado (espero que no le importe) aparecido en la Revista Española de Física (Volumen 21, Número 3, 2007).

50 años de Fortran

diciembre 8, 2007

Desde su lanzamiento en 1957 el lenguaje de programación Fortran ha permitido a los físicos tratar una amplia variedad de problemas, desde la predicción del tiempo a la búsqueda de nuevas partículas entre los datos proporcionados por los aceleradores. Puede parecer sorprendente, pero la física computacional nació a finales de los años 20, tres décadas antes de que se construyeran las primeras computadoras electrónicas. Uno de los responsables del impulso inicial en este campo fue el físico y matemático Douglas Hartree, que por entonces estaba intentando calcular funciones de onda atómicas para determinar las propiedades estructurales de los átomos. Mientras que la ecuación de Schrödinger puede resolverse fácilmente para el átomo de hidrógeno, el cálculo para átomos con múltiples electrones se consideraba por entonces intratable. A pesar de ello, Hartree desarrolló una técnica, conocida como el método del campo autoconsistente, que permitó resolver esos problemas numéricamente. Desgraciadamente su método era demasiado laborioso para los recursos disponibles entonces (calculadoras mecánicas operadas por humanos) y se utilizó muy poco, hasta que llegaron las computadoras electrónicas.

Fue durante la Segunda Guerra Mundial cuando tuvo lugar el desarrollo de dichas computadoras, siendo utilizadas para romper códigos secretos y generar tablas de fuego de artillería. Finalizado el conflicto muchos científicos, que habían tomado parte en esos proyectos, pudieron utilizar esas nuevas máquinas para sus propias investigaciones. De hecho, el mismo Hartree estuvo involucrado en el desarrollo de las primeras aplicaciones, asesorando al ejército estadounidense en el uso del ENIAC para el cálculo de las propiedades balísticas de diferentes tipos de munición.

Por aquel entonces, programar computadoras era una especie de arte esotérico. Tenían que proporcionar instrucciones en lenguaje máquina, una tarea tediosa, muy propensa a errores y que requería conocimientos muy específicos. Si algún días las computadoras fueran a ser utilizadas ampliamente programarlas debería de ser mucho más sencillo, y esto requería un lenguaje mucho más cercano a los problemas que se trataban.

Con esto en mente, en 1954 un equipo de investigadores de IBM dirigidos por John Backus (fallecido el pasado mes de marzo a los 82 años) empezó a trabajar en el desarrollo de Fortran (Formula Translation), que se convertiría en el primer lenguaje de alto nivel de éxito. Tres años después el primer compilador Fortran estaba disponible comercialmente. Desde entonces han ido surgiendo nuevas versiones, cada una más potente que la anterior, y todavía hoy día Fortran es el lenguaje de programación elegido en muchas áreas de la física.

Traducido libremente de physicsworld.

Un coche ecológico

octubre 23, 2007

Existen dos variables que determinan el grado de ecofilia de un automóvil: la emisión de partículas contaminantes, y la emisión de CO2. La Comisión Europea se ha marcado como objetivo alcanzar los 140 gramos de emisiones de CO2 por kilómetro en 2009 para llegar a los 120 gramos en 2012.

Estos días podemos ver la promoción que están llevando a cabo dos fabricantes de sus productos más respetuosos con el medio ambiente (mejor dicho, menos perjudiciales). Veamos que nos ofrecen :

Primero Renault presenta (a ritmo de musical cutrillo) sus Eco2, etiqueta bajo la que agrupa a aquellos modelos que cumplen las siguientes características:

1) Generan emisiones de CO2 inferiores a 140 g/km y tienen un consumo inferior a 6 litros a los 100km.

2) Se producen en fábricas “verdes” con certificación ISO 14001, que garantiza que en los procesos de fabricación se han producido importantes ahorros en el consumo energético y de agua, entre otros.

3) El 95% del vehículo es reciclable y al menos el 5% de los plásticos son reciclados.

Por su parte, Wolkswagen presenta sus Bluemotion, las versiones Polo y Passat de menor consumo y emisiones. Además, la firma alemana, promete plantar 17 árboles por cada Polo Bluemotion vendido para compensar el CO2 emitido por el vehículo en sus primeros 50.000 kilómetros de recorrido. Para ello crearán el “Bosque Bluemotion” en el terreno ocupado por una fincas rústicas en Albacete, y la plantación se realizará siguiendo técnicas de servicultura. El consumo medio del Polo es de 3,8 l/100 km y la cantidad de emisiones de CO2 es de 99 gr/km, así que cada árbol deberá fijar una cantidad equivalente de 291,17 kg de CO2. En un año un árbol es capaz de inhalar una media de 12 kg, y exhalar oxígeno suficiente para una familia de cuatro miembros.

Parecen dos buenas iniciativas, como en su momento lo fue la aparición del Toyota Prius, el mayor exponente de los vehículos híbridos, con un consumo de 4,3 l/100 km y un registro de emisiones de 104 g/km, y los biodiesel (los responsables de la subida del precio del pan, jaja). Y es que todos queremos tener un coche ecológico, no? Para evitar la contaminación de las ciudades, y luchar contra el calentamiento global, y todo eso…, sin perder nuestro confort. Así que seguro que consiguen algún cliente, pero hasta que se produzca la generalización de los automóviles de pila de combustible (la alternativa más prometedora al uso de combustibles fósiles en el transporte urbano) deberíamos probar a compartir el coche con el compi de la ofi, utilizar el transporte público (ya, debería funcionar un poco mejor), o probar con la bicicleta si la temperie lo permite.

Alimentación sin cables

junio 8, 2007

Llega a mis oidos la noticia sobre otro nuevo paso de gigante hacia la alimentación inalámbrica de dispositivos electrónicos. Se trata de un nuevo experimento llevado a cabo en el MIT por el grupo de Marin Soljacic, pioneros desde hace tiempo en este campo de investigación, recientemente publicado en Science Express.

El dispositivo experimental consta de dos bobinas auto-resonantes -el mismísimo Nikola Tesla se sentiría asombrado por las diversas aplicaciones dadas a sus bobinas- en un regimen fuertemente acoplado. Para esta configuración se demostró una transferencia de 60W, suficiente para encender una bombilla como la de la foto, para una distancia de ocho veces el radio de las bobinas. El dispositivo experimental, aparentemente rudimentario pero extremadamente productivo:

null

Para más y mejor información:

New Technologies in Spain

abril 27, 2007

New Technologies in Spain es un monográfico acerca del desarrollo tecnológico en España, que trata temas de actualidad tales como las líneas de alta velocidad ferroviarias, las nuevas infrastucturas sociales, el rápido crecimiento de la energía eólica, las plantas desalinadoras y la industria aero-espacial española.

El monográfico, publicado en la versión on-line de la prestigiosa Technology Review del también prestigioso MIT, resulta ser un extenso, pero ameno artículo, en el que se cuidan al mínimo los detalles y las referencias. La pregunta que nos formulamos ahora es: ¿quién está detrás de todo esto?. Échenle un vistazo y opinen.