Ciencia
jueves, 10 de febrero de 2011
colisionador de andrones
El día esperado por fin llegó, hoy 10 de septiembre los científicos del CERN encendieron el LHC conocida coloquialmente como la máquina de Dios o la máquina del fin del mundo. El LHC es el acelerador de partículas más grande del mundo, cuyas dimensiones abarcan varios kilómetros de circunferencia; por él se hacen circular partículas a gran velocidad en ambos sentidos para colisionarlas y descubrir partículas más pequeñas y tratar de encontrar las que solo existen en teoría.
En el LHC se recrearán las condiciones del universo durante el Big Bang, la misión: producir el Bosón de Higgs, una partícula elemental que existe solo en teoría y cuyo descubrimiento y observación podría explicar como adquieren sus propiedades las partículas elementales, lo que vendría a revolucionar el modelo estándar de la Física de partículas. Algo así como el eslabón perdido de la Física, por eso es conocida también como la partícula de Dios.
Pero en esto también hay polémica y 2 personas alegaron que con la puesta en marcha del LHC podrían producirse extrañas formas de materia que podrían acabar con el planeta y parte del universo o también que podría crearse un agujero negro de pequeñas dimensiones y tragarse a la Tierra, lo cual fue rebatido por otros científicos; además se creo un comité para valorar la seguridad del proyecto y sus resultados fueron alentadores. ¿Se habrá tratado de publicidad para que el LHC estuviera en boca de todos? Por lo menos alentó a las personas a investigar más sobre física y las posibilidades del LHC. Los catastrofistas siempre han existido y también han criticado otros aceleradores, por ello el mismo CERN creó un video para explicar su funcionamiento con un rap.
A estas horas ya habrá circulado el primer haz de protones por la circunferencia total del acelerador y los científicos deben estar fascinados por los resultados que esta máquina puede darles, pero otros como Stephen Hawking opinan que seria más emocionante si no se descubre la partícula de Dios, lo que haría pensar más a los científicos y hasta apostó 100 dólares a que el LHC fallará en su misión. Esperemos que nada malo ocurra, todo sea por el afán de conocer como se formó nuestro universo.
jueves, 3 de febrero de 2011
Energia solar
Origen
Los Recursos Energéticos como el carbón y el petroleo son cada vez menores. Si a esto le sumamos su alto grado de contaminación ambiental y la dependencia que de ellos poseemos nos vemos obligados a pensar en cambiar rápidamente hacia formas de energía menos contaminantes y con recursos renovables.
El Sol nos brinda una alternativa que, de ser aprovechada, provocaría grandes cambios en nuestra forma de vida.
Se calcula que el Sol tiene unos 5.000 millones de años y que se formó a partir de una gran nube de gas y polvo, de la cual también se originaron la Tierra y los otros planetas. La atracción gravitatoria liberó energía y calentó el primitivo Sol.
El calor es producido por el movimiento de los átomos y de las moléculas: cuanto mayor es la temperatura, mayor es su velocidad y sus colisiones son más violentas. Cuando la temperatura en el centro del Sol recién formado se elevó lo suficiente como para que las colisiones entre los núcleos venciesen a su repulsión eléctrica, los núcleos empezaron a juntarse y los protones se combinaron en helio, durante este proceso algunos protones se convirtieron en neutrones (más los positrones, electrones positivos, que se combinan con los electrones y se destruyen). Esto libera energía nuclear y mantiene la alta temperatura del centro del Sol; el calor también mantiene alta la presión del gas, manteniendo el Sol hinchado y neutralizando la atracción gravitatoria que no lo concentra más.
En términos muy simples este es el tipo de proceso que tiene lugar dentro del Sol. Predominan diferentes reacciones nucleares durante las diferentes etapas, incluyendo la reacción protón-protón y el ciclo carbón-nitrógeno que implica a los núcleos pesados, pero cuyo producto final sigue siendo la combinación de protones para formar helio.
Una rama de la física, el estudio de la "fusión nuclear controlada", ha intentado desde 1950 obtener potencia útil de las reacciones de "fusión nuclear" combinando núcleos pequeños para formar otros mayores, potencia que calentará unas calderas, cuyo vapor podrá hacer girar turbinas que produzcan electricidad. Desgraciadamente, los laboratorios terrestres no pueden compararse con la potencia solar, la gran masa solar cuyo peso mantiene el plasma caliente comprimido y confinado en el "horno nuclear" del centro del Sol.. En su lugar, los físicos usan potentes campos magnéticos para confinar el plasma y como combustible usan formas pesadas de hidrógeno, que se "quema" más fácilmente. Aún así, las trampas magnéticas son más bien inestables y el plasma suficientemente caliente y denso para experimentar la fusión nuclear, tiende a deslizarse fuera de ellas después de un corto período de tiempo. Aún con artilugios ingeniosos, el confinamiento, en la mayoría de los casos, dura una pequeña fracción de segundo.
El Sol actual se compone mayoritariamente de hidrógeno. El suministro de combustible que duró los primeros 15.000 millones de años, durará otros tantos más.
La evolución de las estrellas
Cada estrella que vemos en el cielo nocturno es un sol: algunas son mayores que el nuestro, otras son menores, algunas están en los comienzos de su evolución, otras al final y otras han evolucionado completamente diferente, por una variedad de razones. El telescopio permite a los astrónomos observar y comparar las estrellas de tamaños diferentes, en etapas diferentes de su evolución. Su espectro liso nos habla de sus temperaturas, sus líneas espectrales nos revelan algo de su composición y basado en esto se ha formulado una teoría general de su "evolución estelar", que se aplica también a nuestro Sol, una estrella típica de "secuencia principal".
Todas estas estrellas queman hidrógeno para formar helio, donde "quemar" significa el proceso nuclear, no el proceso químico (completamente inadecuado) del fuego. Las estrellas pequeñas duran más y muchas son oscuras; pero cualquiera que sea el tamaño de la estrella, finalmente se le acaba el hidrógeno. Pueden liberar energía "quemando" núcleos pesados y combinándolos en otros mayores, hasta el hierro: la teoría sugiere que ocurre esto, pero proporciona mucha menos energía y lo alarga mucho la vida de la estrella. Cuando se consume todo su combustible, la gravedad se vuelve de nuevo la forma de energía dominante y la estrella comienza su colapso hacia dentro.
La Tierra mantiene su tamaño porque su gravedad no es lo suficientemente fuerte para aplastar los minerales de que consiste. No es así en una estrella lo suficiente masiva como para mantener su "quemado" nuclear. Una estrella pequeña puede aplastar sus átomos juntos, creándose una "enana blanca", p.e. con la mitad de la masa del Sol, pero solo tan grande como la Tierra. Continúa liberando algo de energía (por eso es "blanca"), pero finalmente, la estrella probablemente se convierte en una ceniza oscura.
Supernovas
Las estrellas tan grandes como el Sol tienen suficiente energía como para aplastar no solo los átomos sino también los núcleos, comprimiendo toda su materia en una esfera de quizás 15 kilómetros de diámetro. Después de su colapso se convierten en "estrellas de neutrones" y constan solo de neutrones (cambian de forma todos los protones), núcleos gigantes tan densos como los de los átomos. Se libera una gigantesca cantidad de energía en el colapso final que es muy rápido, lanzando las capas superiores de la estrella y produciendo elementos más pesados.
Este evento catastrófico se conoce como una explosión supernova (técnicamente, una "supernova tipo 2 "). Tycho Brahe fue afortunado por ver una que ocurrió en nuestra galaxia, brillando más que Venus y visible hasta de día. Los chinos observaron una en el año 1054, en la constelación de Cáncer del zodíaco y también otra ocurrida en tiempos de Kepler. Desde entonces, no obstante, no se ha visto ninguna que haya ocurrido cerca de la Tierra. La más notable de este tipo se observó (muy extensamente) en 1987 en la Gran Nube de Magallanes, una pequeña galaxia cercana a nosotros (vea la imagen superior; la nube interior es la producida por la explosión, los anillos parecen más viejos).
El material lanzado por la explosión de una supernova finalmente se esparce por el espacio y algo de él se concentra en nubes de polvo y gas que posteriormente forma nuevos soles y planetas. Todos los elementos sobre la Tierra más pesados que el helio (excepto, posiblemente, una pequeña cantidad de litio) debieron de llegar de esta forma: productos del "quemado" nuclear en algunas estrellas pre-solares, liberados o creados en la explosión de acompañó a su colapso final. Nuestros cuerpos están hechos de restos estelares, el carbón, el oxígeno, el nitrógeno, y los demás han sido producidos por fusión nuclear.
Al igual que los "restos de la supernova" liberados en el colapso, la suerte de una supernova depende de su masa. Una estrella algo mayor que el Sol (y posiblemente el Sol, también) puede producir una estrella de neutrones residual y si giraba originalmente alrededor de su eje, esa rotación aumentará enormemente; la supernova restante del año 1054 (su nube eyectada, la nebulosa del Cangrejo, se ve a la izquierda) gira a unas ¡30 revoluciones por segundo! El campo magnético de la estrella original también se amplificará enormemente y los fenómenos asociados pueden emitir ondas de radio. Los Pulsares, fuentes de radio pulsantes con períodos de pulsación muy estables, se producen de esta forma.
Una estrella mucho mayor que el Sol se colapsará aún más y se convertirá en un agujero negro. Solo se puede adivinar y calcular lo que ocurre allí, ya que no se puede observar: su gravedad en el estado de colapso es tan grande que no emite luz ni ninguna información hacia el espacio exterior. Aunque los astrónomos no pueden ver estos objetos, tienen evidencias considerables de que existen, al menos en algunos lugares, incluyendo quizás un agujero negro muy masivo en el centro de nuestra galaxia, y probablemente en el centro de otras galaxias, ayudando a mantenerlas unidas.
Usos posibles de la energía solar
-
Calefacción domestica
-
Refrigeración
-
Calentamiento de agua
-
Destilación
-
Generación de energía
-
Fotosíntesis
-
Hornos solares
-
Cocinas
-
Evaporación
-
Acondicionamiento de aire
-
Control de heladas
-
Secado
Se han ensayado todos los usos citados de la energía solar en escala de laboratorio, pero no se han llevado a la escala industrial. En muchos casos, el costo de la realización de estas operaciones con energía solar no pueden competir con el costo cuando se usan otras fuentes de energía por la gran inversión inicial que es necesaria para que funcionen con energía solar y por ello la mayor parte de los estudios de los problemas de utilización de esta energía esta relacionado con problemas económicos.
Las instalaciones solares pueden considerarase clasificadas por tres tipos de aplicación. Primero, hornos solares, usados como medio de laboratorio para obtener altas temperaturas en diversos estudios y propuestos para usos semi industriales. En segundo lugar los usos potenciales de disposiciones solares sencillas, como cocinas, refrigerantes y bombas de irrigación en regiones no industrializadas, con radiación segura y en donde los actuales recursos de energía no son satisfactorios o resulten caros. Un tercer grupo de aplicación de energía solar podrá competir en el futuro económicamente con otras fuentes de energía en algunas zonas de países industrializados, como los EE.UU., si los adelantos técnicos en este campo o los cambios en el costo de la energía de otras fuentes llegan a alterar su costo relativo.
Los problemas con que se tropieza para recoger la energía solar, almacenarla y usar la energía resultante, son los mismos para numerosos usos potenciales de esta fuente de energía y se estudian uno por uno en lo que sigue. la discusión acerca de los usos posibles se estudia mas adelante.
Aplicaciones de la energía solar
En lo que sigue se discuten mas detalladamente los principios expuestos en relación con las diferentes aplicaciones de la energía solar para calefacción, enfriamiento y refrigeración de recintos, evaporación y destilación, generación de energía, hornos solares y diferentes usos.
Calefacción solar como medio de bienestar
La calefacción solar tiene interés principalmente por dos razones; en primer lugar, la calefacción para bienestar importa en los EE.UU. aproximadamente un tercio de las demandas totales de energía para calefacción, y en segundo lugar, las módicas temperaturas empleadas para calefaccionar recintos permiten uso de colectores de plancha plana que funcionan a temperaturas relativamente bajas y con rendimiento razonablemente bueno. Los estudios de calefacción domestica indican que el colector de plancha plana orientado en la posición indicada e incluido en la estructura del edificio como parte integrante de ella, es el tipo de colector para esta aplicación. El almacenamiento de calor por transiciones de fase en productos químicos, por calentamiento de lechos de guijarros, con colectores de aire o mediante tanques de agua con colectores calentadores de agua.
El tamaño del colector y el numero de unidades de almacenamiento se determinan por la carga de calefacción del edificio, el análisis del tiempo solar y los costos de combustible. Un simple análisis indica el almacenamiento de calor suficiente que se requiere para satisfacer las demandas calorificas del edificio durante el periodo nublado mas largo previsto, basado en el registro de datos meteorológicos, si la carga de calefacción ha de provenir totalmente de la energía solar. En el norte de los EE.UU., por ser los ciclos del tiempo muy variables, no es económicamente practico confiar en la energía solar para toda la carga de calefacción; los análisis indican que deben utilizarse fuentes de calor auxiliares. Estudios detallados del tiempo solar y de los factores económicos, realizados por Hottel y sus colaboradores en el Instituto de Tecnología de Massachusetts, indican que en Cambridge el sistema de calefacción solar mas económico es el que proporciona dos tercios de la carga de calefacción.
Enfriamiento y refrigeración
El uso de energía solar para enfriamiento de recintos o acondicionamiento de aire tiene atractivo porque hay una buena relación entre el suministro de energía y la demanda de enfriamiento y por la posibilidad de usar una parte de todo el sistema de calentamiento solar para el acondicionamiento del aire. Se han propuesto varios sistemas básicos para el acondicionamiento de aire por energía solar, entre ellos los sistemas de deshumectacion y de enfriamiento por absorción de calentados por el sol.
Un esquema de deshumectador activado por el sol, en el cual como desecante se usa trietilenglicol, es el que la figura 4. El aire que ha de circular en el espacio acondicionado se deshumedece en una cámara de rociado donde se pone en contacto con el trietilenglicol concentrado y frío.
La solución de glicol absorbe humedad del aire y vuelve a circular por cambiadores temidos adecuados hasta una cámara de rociado y despojo donde se pone en contacto con el aire calentado por el sol y se seca para volver a circular hacia el absorbedor de la corriente de aire que circula hacia la casa y se devuelve a la atmósfera en el aire calentado por el sol que atraviesa la cámara de despojo. Puede usarse un refrigerante de evaporación para enfriar el aire seco. Este tipo de unidad seria útil e regiones de humedad relativamente alta.
Se ha propuesto el uso de un sistema de refrigeración mecánico en el que trabajo de compresión se hace por un motor que funciona por la energía del sol, y en el cual el acondicionamiento del aire o del refrigerante seria de diseño convencional. Estos sistemas tiene el inconveniente de que se necesita conversión de energía calórica a mecánica. Otro método es el uso de calor en los refrigerantes de tipo de absorción. La figura 5 es un diagrama de un ciclo posible para refrigeración por absorción de un sistema de tipo solar. la energía del sol se usa para calentar un fluido que circula por un generador o rehervidor de la unidad de refrigeración por absorción. La unidad de absorción funciona de modo corriente, como en acondicionador de aire por gas de Servel, con las modificaciones necesarias en el diseño según el nivel de temperatura de que se puede disponer con los colectores que se usan. También seria posible usar el colector solar como rehervidor o generador y evitar de este modo el uso de un fluido intermedio para la transferencia de calor y de un cambiador térmico.
energia eolica
La Tierra recibe una gran cantidad de energía procedente del Sol. Esta energía, en lugares favorables, puede ser del orden de 2.000 Kwh/m2 anuales. El 2 por ciento de ella se transforma en energía eólica con un valor capaz de dar una potencia de 10E+11 Gigavatios.
En la antigüedad no se conocían estos datos, pero lo que sí es cierto, es que intuitivamente conocían el gran potencial de esta energía.
La historia nos muestra que existían molinos de viento en la antigua Persia, Irak, Egipto y China.
La primera referencia histórica sobre el aprovechamiento del viento para mover máquinas son unos molinos de eje vertical que figuran en obras geográficas del siglo V a. de C. Los citan en el Sijistán, situado entre lo que hoy en día es Irán y Afganistán, donde sopla un viento muy constante llamado de los 120 días.
A lo largo de la historia ha habido varios modelos de molinos de viento y de los cuales se pueden hacer grupos:
-
De eje vertical
-
De arrastre diferencial
-
De pantalla
-
De válvulas abatibles
-
De palas giratorias
-
De variación cíclica de incidencia de palas fijas
-
De variación cíclica de incidencia de palas móviles
-
De eje horizontal
-
Molinos de viento clásicos
-
Eólicas lentas
-
Eólicas rápidas
Partes importantes de los aerogeneradores:
-
Dispositivos de orientación
-
Dispositivos de regulación de velocidad
Las formas de mayor utilización son las de producir energía eléctrica y mecánica, bien sea para autoabastecimiento de electricidad o bombeo de agua. Siendo un aerogenerador los que accionan un generador eléctrico y un aeromotor los que accionan dispositivos, para realizar un trabajo mecánico.
Partes de un aerogenerador:
-
Cimientos, generalmente constituidos por hormigón en tierra, sobre el cual se atornilla la torre del aerogenerador.
-
Torre, fijada al suelo por los cimientos, proporciona la altura suficiente para evitar turbulencias y superar obstáculos cercanos; la torre y los cimientos son los encargados de transmitir las cargas al suelo.
-
Chasis, es el soporte donde se encuentra el generador, sistema de frenado, sistema de orientación, equipos auxiliares (hidráulico), caja de cambio, etc. Protege a estos equipos del ambiente y sirve, a su vez, de aislante acústico.
-
El buje, pieza metálica de fundición que conecta las palas al eje de transmisión.
-
Las palas, cuya misión es la de absorber energía del viento; el rendimiento del aerogenerador depende de la geometría de las palas, interviniendo varios factores:
-
Longitud
-
Perfil
-
Calaje
-
Anchura
Sistemas de un aerogenerador:
-
Orientación, mantiene el rotor cara al viento, minimizando los cambios de dirección del rotor con los cambios de dirección de viento; Estos cambios de dirección provocan pérdidas de rendimiento y genera grandes esfuerzos con los cambios de velocidad.
-
Regulación, controla la velocidad del rotor y el par motor en el eje del rotor, evitando fluctuaciones producidas por la velocidad del viento.
-
Transmisión, utilizados para aumentar la velocidad de giro del rotor, para poder accionar un generador de corriente eléctrica, es un multiplicador, colocado entre el rotor y el generador.
-
Generador, para la producción de corriente continua (DC) dinamo y para la producción de corriente alterna (AC) alternador, este puede ser síncrono o asíncrono.
Durante dos años, se ha investigado una técnica que mejorara, aún más, el rendimiento de los aerogeneradores, ya que no se optimizaba la captación de la energía del viento a determinadas velocidades.
El resultado ha sido un sistema de velocidad variable y generación síncrona, que permite que las palas puedan girar a diferentes velocidades en función de las variables de viento, lo que propicia una mayor producción de energía eléctrica.
Este se basa en la utilización de la máquina de doble alimentación DFM (Double Fed Machine), de construcción similar a la asíncrona con rotor bobinado. Posee, tanto en estator como en rotor, bobinados trifásicos, es decir, utiliza un generador robusto, sencillo y barato con un diseño eléctrico especial. Mediante un inversor IGBT's se imprimen en el rotor tres intensidades senoidales a 120º y una frecuencia controlada. Este sistema genera en el motor un campo giratorio de esa frecuencia (fr) respecto a un observador situado en dicho rotor.
La adición de la velocidad mecánica (fm) al motor hace que la velocidad del campo giratorio "vista" por el estator sea fe=Fm + fr. Si se hace que fr sea tal que fe coincida con la red, se tiene una iteración entre el estator y el rotor, en la que el par depende del ángulo eléctrico virtual de fase de las tensiones de la red en bornas de la máquina, es decir, del ángulo de transmisión de potencia síncrona.
Se puede hacer que fr tenga dos signos. O sea, que se puede controlar la máquina en régimen subsíncrono (por debajo de 1.500 rpm) y en régimen hipersíncrono (por encima de 1.500 rpm). En la práctica no va ser necesaria toda la gama de velocidades, la banda queda entre 1.200 y 1.700 rpm con un aprovechamiento sólo parcial de la banda supersíncrona.
El sistema de control, no sólo realiza el control de fr, sino también del ángulo de fase de la intensidad del rotor, con lo cual se controla eléctricamente el ángulo de transmisión de potencia, o sea, la potencia activa P transmitida a la red y además la componente magnetizante y con ello la potencia reactiva Q en bornas de la máquina.
De esta manera, se consigue una generación síncrona con óptima estabilidad en P y en Q aún en presencia de ráfagas, mínima participación de los componentes de electrónica de potencia y escaso contenido en armónicos en la red, aumento de la vida mecánica, compensación automática de reactiva y la posibilidad de trabajo en isla.
Otro tipo de aerogenerador es el ciclónico, un proyecto poco conocido, consistente en la mezcla de unir sistemas eólicos y solares.Se compone de un inmenso invernadero con una chimenea central. El aire es calentado por efecto invernadero y asciende por la chimenea. Este aire ascendente mueve una turbina dispuesta en la embocadura de la chimenea.
Antimateria
CONCEPTO
Todo comienza con los trabajos del físico británico Paul Dirac que publicó en el año 1929, en una época que coincide con los tiempos que se descubrían los primeros secretos de la materia, se teorizaba sobre el comportamiento de las partículas que comportan la fuerza débil, y se profundizaban los estudios de los componentes de los átomos, especialmente en la teorización de lo que se llama fuerza fuerte. Se plantearon conceptos como el de la mecánica ondulatoria, el principio de incertidumbre o, también, el descubrimiento del espín en los electrones.
Este era el escenario en el cual Paul Dirac estaba inserto cuando planteó que donde había materia, también podía haber antimateria. Concretamente señaló, que si el átomo tenía partículas de carga negativas llamadas electrones, debía haber partículas que fueran «electrones antimateria», a los que se les llamó positrones y que debían tener la misma masa del electrón, pero de carga opuesta y que se destruirían al entrar en contacto, liberando energía. Este descubrimiento de Dirac fue tan revolucionario que lo hizo merecedor del premio Nobel en el año 1933.
En 1932 Carl Anderson, del Instituto Tecnológico de California, en un trabajo de experimentación confirmó la teoría de Dirac al detectar la existencia de un positrón al hacer chocar rayos cósmicos. Pasaron dos décadas y en 1955 un equipo de la Universidad de Berkeley formado por los físicos Emilio Segre, Owen Chamberlain (ambos ganadores del Nobel de física de 1959), Clyde Weingand y Tom Ypsilantis lograron hallar el primer antiprotón, o sea, la primera partícula especular del protón que es la partícula de carga positiva del átomo. Un año después, con el uso de las mismas instalaciones, otro equipo, formado por Bruce Cork, Oreste Piccione, William Wenzel y Glen Lambertson ubicaron el primer antineutrón, el equivalente a la partícula de carga neutra de los átomos. La carrera por las tres antipartículas básicas - equivalentes a la neutra, la negativa y la positiva - estaba terminada. Otro paso lo dieron los soviéticos, que por el año 1965 contaban con el acelerador de partículas más poderoso de los existentes en esos momentos. En un trabajo encabezado por el físico León Lederma, los soviéticos lograron detectar la primera partícula compleja de antimateria, el antineutrino, formado por dos partículas básicas. Posteriormente, usándose el mismo acelerador se detectó el antihelio.
CENTRO DE INVESTIGACIÓN DE ALTA ENERGÍA
En 1978, con la inauguración de las instalaciones europeas del Centro de Investigación de Alta Energía (CERN) de Ginebra, y los avances tecnológicos que ello implicó, se pudo lograr crear antitritio y, en 1981, realizar el primer choque controlado entre materia y antimateria, con lo que comprobaron una hipótesis valiosa: la cantidad de energía liberada por el mismo choque era enorme, mil veces superior a la energía nuclear convencional. Pero para la receta para generar antiátomos faltaba un ingrediente que permitiera la combinación de antipartículas para poder producirlo
La dificultad radicaba en la velocidad con que se producen las partículas de antimateria y sus violentas colisiones. Era necesario contar con una fórmula que permitiera desacelerarlas o igualar su velocidad para unirlas.
El 4 de enero de 1996, los científicos del CERN anunciaron el éxito de haber obtenido en un proceso de experimentación, no uno, sino nueve antiátomos de hidrógeno. No se trata de partículas fundamentales o de pequeñas combinaciones, se trata - en propiedad - de lo que se puede mencionar como átomos de antihidrógeno.
Los antiprotones rompen los núcleos del xenón y crean algunos pares de electrón y positrón(2). Una fracción de estos pares es capturada por los antiprotones, alrededor de los cuales pasan a orbitar; se crean átomos de anti-hidrógeno(3). Como estos átomos son eléctricamente neutros, el campo magmético del acelerador no los desvía y continúan una trayectoria recta que los lleva a atravesar a gran velocidad una fina barrera de silicio(4). Mientras que el antiprotón continúa su camino, el positrón choca contra el electrón(6) con lo que ambas partículas se aniquilan.
El experimento que hizo el CERN consistió en la elección del hidrógeno como elemento de trabajo porque es el más simple y abundante de todos los que conforman el universo. Con apenas dos componentes - uno positivo y otro negativo - era lo más sencillo. El acelerador LEAR, con el cual se realizó el experimento, disparó un chorro de antiprotones a través de una fina nube de gas xenón. Los antiprotones rompieron los núcleos del xenón y crearon algunos pares de electro-positrón. Una fracción de estos pares fue capturada por los antiprotones, lo que implicó que empezaran a orbitar alrededor de ellos; entonces se crearon antiátomos de hidrógeno. Como estos antiátomos son neutros, el campo magnético del acelerador no los desvía y continuarán una trayectoria recta que los lleva a atravesar a gran velocidad una barrera de silicio. Mientras tanto el antiprotón continúa su camino, el positrón choca contra el electrón aniquilándose ambos. El resultado es una emisión de rayos gamma que choca contra la barrera de silicio y delata lo que ocurrió.
CAPSULA DE ANTIMATERIA: Uno de los problemas interesantes para desarrollar el proceso fue el de poder establecer como poder atrapar la antimateria. Una de las dificultades era la de evitar que la antimateria explotara al tomar contacto con la materia. La solución a la cual se llegó, en los trabajos realizados por el CERN, fue la de usar un envase diseñado por el Laboratorio Nacional de Los Álamos de EE.UU.. Este tipo de envase consiste en mantener a la partícula de antimateria en forma estable por medio de campos eléctricos y magnéticos. Un ciclotrón puede frenar a un antiprotón de modo que pueda ser capturado, detenido y paralizado con campos magnéticos. Una vez quieto, el antiprotón es introducido en un envase que comporta un vacío interior para evitar choques con átomos de aire y el magnetismo impide que el antiprotón toque sus paredes, detonando una explosión de rayos gamma.
En el proceso se detectaron once choques contra la barrera, de éstos, nueve son considerados indudablemente causados por la aparición de antiátomos de hidrógeno; sobre los otros dos hay dudas. El antiátomo de hidrógeno producido, sólo dura 10 segundo antes de encontrar materia a su paso y desaparecer y, fue por eso, que Brodsky y Schmidt propusieron en sus trabajos la creación de un campo magnético para poder detectar los antiátomos en medio de todas las partículas que se generan en el proceso. Las partículas - que tienen cargas positivas o negativas - comportarán una órbita curva, pero el antiátomo (cuya carga total es neutra) no será afectado por el campo magnético y saldrá en línea recta.
El antihidrógeno es el estado más simple del límite atómico de la antimateria y, hasta el anuncio efectuado por el CERN en enero de 1996, nunca antes se había observado experimentalmente. Se logró sintetizar un átomo de antimateria desde sus antipartículas comitentes.
El átomo de hidrógeno ha sido uno de los sistemas físicos más importantes para una variedad amplia de medidas fundamentales relativas al comportamiento de la materia ordinaria. La producción de antihidrógeno abre las puertas para una investigación sistemática de las propiedades de la antimateria y la posibilidad única de comprobar principios físicos fundamentales.
En la cosmología podemos prever que a futuro se podrán contar con tecnologías que permitan investigar con más y mejor precisión la estructura del universo y, por ende, las características y fuentes de emisión de antimateria en él. Para ello en particular, la NASA ha desarrollado un proyecto para instalar en la estación espacial Alpha, en el año 2002, un detector de antipartículas que se la ha denominado Espectrómetro Alfa Magnético (AMS). El instrumento está diseñado para detectar antimateria atómica (hasta ahora solamente se han observado antipartículas) entre las partículas de los rayos cósmicos, que a la velocidad de la luz bombardean intensamente la Tierra. La mayor parte de ellas provienen del Sol y también de remanentes de estrellas que han explosionado en nuestra galaxia, pero la detección de las más energéticas se ha conseguido en lugares ubicados próximos al centro de la Vía Láctea y de fuentes lejanas de ésta. En consecuencia, serán estos últimas los blancos focalizado para ejecutar los procesos de detección de antimateria atómica espacial.
NUEVO COHETE CON UN MOTOR DE ANTIMATERIA
La fuente de energía casi inagotable que pueda hacer realidad el sueño de la Humanidad de colonizar otros planetas está siendo considerada seriamente por los investigadores.
Si el Hombre quiere viajar hacia Marte y otros planetas a una velocidad elevada, se impone elegir sistemas de propulsión innovadores que lo hagan posible. El uso de antimateria, un material exótico donde los haya, es una posibilidad que los científicos barajan con interés y atención.
El deseo de cubrir enormes distancias de una forma rápida no es tan sólo un capricho genuinamente humano. En realidad, en el espacio interplanetario acechan radiaciones cósmicas y solares letales. Permanecer más tiempo del necesario expuestos a este peligro podría ocasionar graves daños a los astronautas. Las dos únicas soluciones para resolver este problema son dotar a las naves de un blindaje adecuado o efectuar la travesía a una velocidad alta para reducir el tiempo de tránsito y por tanto el de exposición a la radiación.
El acceso al espacio es todavía una empresa cara, y el dinero necesario para enviar en ruta interplanetaria a un solo kilogramo de materia es casi prohibitivo, de modo que la primera solución no es la más adecuada, ya que implica un aumento de la masa del vehículo y por tanto de los costes de lanzamiento.
La segunda posibilidad, aumentar la velocidad de tránsito, es la opción más atractiva, pero para ello se necesita nueva tecnología, sistemas más modernos y efectivos que nuestra actual propulsión basada en la combustión química. Gerald Smith, de la Penn State University, propone el diseño de un motor que permitiría ir y volver a Marte en apenas cuatro meses, incluyendo 30 días en la superficie del planeta. Dicho motor es uno de los más avanzados ideados hasta la fecha y mezcla conceptos de aprovechamiento de antimateria, fisión y fusión nuclear.
En concreto, Smith dice que unos pocos femtogramos de antimateria (de características análogas a la materia convencional pero de carga opuesta) bastarían para catalizar la fisión de uranio-238, lo que su vez provocaría la fusión de una mezcla de deuterio y helio-3. La energía producto de la fusión serviría para alimentar el sistema de reacción que haría avanzar al cohete. El motor se llamaría AIMStar (Antimatter Initiated Microfusion Starship) y consumiría menos de un microgramo de antiprotones al año.
Por el momento, sin embargo, tal cantidad de antimateria es un objetivo inalcanzable para los laboratorios actuales, y su coste imposible de aceptar. Pero esto podría cambiar en el futuro.
NUBE DE ANTIMATERIA PARTICULADA CÓSMICA
Para detectar y estudiar las emisiones de rayos gamma en la Vía Láctea la NASA, el 5 de abril del año 1991, colocó en el espacio el satélite científico Compton Gamma-Ray Observatory (CGRO) con cuatro instrumentos orientados a localizar los rayos y a estudiar sus espectro electromagnético dentro de una banda de rangos de energía que va desde los 30 KeV a los 30 GeV. En el proceso de localización de rayos gamma, el OGCR ha logrado elaborar varios mapas de ubicaciones que han permitido en ellos distinguir los rayos que se genera entorno a las explosiones de estrellas masivas jóvenes a lo largo del plano de la galaxia cerca del centro de ésta. Pero esos mapas, no sólo han mostrado a los rayos gamma, sino que fuera de programa, sorprendentemente han descrito la existencia de una nube relativamente alejada del plano del centro de la galaxia ubicada a un costado en los mapas de detección de rayos gamma, y cuyas bandas espectrales han sido captadas por uno de los más sensibles espectrómetros de la actualidad el OSSE, que se encuentra empotrado en el satélite CGRO. El estudio de las bandas del espectro que captó el OSSE señaló que se trataría de una nube de antimateria particulada, precisamente de positrones (antipartícula elemental).
Ahora bien, el origen de esa inesperada nube de antimateria particulada que aparece a uno de los costados de los mapas desarrollados por el CGRO es, por ahora, un misterio. Seguramente se tendrá que esperar hasta que pueda entrar en servicio el próximo satélite que ha proyectado instalar en el espacio la NASA, en el año 2002, para el monitoreo, rastreo y estudio de rayos cósmicos y también antimateria.
Las huellas espectrales de los procesos de aniquilamientos de electrones y positrones han sido detectadas por el espectrómetro OSSE. Los colores del mapa de la derecha representan la energía del aniquilamiento de electrones y positrones que han ocurrido en el plano de la Vía Láctea, cerca del centro galáctico, y que se han transformado en rayos gamma . La energía que se capta es de 511 KeV, y corresponde a los restos energéticos de la masiva energía del positrón. El mapa es un modelo adaptado de los 511 KeV detectados. El OSSE ha descubierto que la mayor cantidad de radiación se concentra mayormente dentro de una región comprendida dentro de los 10 grados del diámetro del centro de la galaxia. Las líneas superpuestas sobre el mapa representan las emisiones de 511 KeV de energía captadas por el OSSE.
La nube detectada de antimateria particulada , podría haberse formado a raíz de múltiples explosiones de estrellas, hecho que ha sido detectado justamente en el lugar de la galaxia donde fue hallada. Tampoco es descartable la eyección de antimateria particulada desde un disco de acreción de un agujero negro cercano al centro de la Vía Láctea, la fusión de dos estrellas de neutrones, o la producción de ella por una fuente enteramente diferente.
Se piensa que los positrones así como la antimateria en general, son relativamente raros en el universo. Sin embargo, existen varias formas como para que sea posible la generación de positrones. Una de ellas es a través de la descomposición natural de los elementos radiactivos. Tales materiales radiactivos pueden originarse en fuentes astrofísicas como supernovas, novas, y estrellas Wolg-Rayet que son masivas y tienen una violenta actividad en sus superficies. Como se trata de objetos relativamente comunes en las galaxias, los positrones resultantes de los materiales radiactivos pueden expandirse a través del espacio. Es posible que este tipo de estrellas que generan estos materiales radiactivos sean también las responsables de crear toda la materia constituyente que se distribuye por el universo, incluida la Tierra.
FUENTE TEÓRICA DE ANTIMATERIA CÓSMICA: Las bandas horizontales anchas representan a la radiación generada por la aniquilación desde el disco de la galaxia. La región circular de colores resaltados corresponde a la aniquilación radiactiva producida en el centro galáctico. La posible fuente de la antimateria particulada, descubierta por una radiación de aniquilación ascendente, se encontraría lejos del plano de la galaxia.
Otra manera en que se podrían generar positrones es con la caída de materia sobre los campos gravitacionales altos de los agujeros negros, ya que la temperatura de ella debería incrementarse lo suficiente como para generar pares de positrones y electrones que podrían ser disparados lejos de los agujeros negros a velocidades altísimas. El número de positrones que se puedan crear en un agujero negro depende de la cantidad de materia que aporte por insuflación alguna estrella que esté jugando el rol de compañera, mientras que el número de positrones creados por descomposición radiactiva se mantiene constante por un largo período de tiempo.
MODELO TEÓRICO DE FUENTE DE ANTIMATERIA: Modelo de contornos graficados sobre una imagen óptica del lugar donde fue ubicada la nube de positrones en nuestra galaxia. No se pueden observar evidencias visuales de una fuente de gas caliente cerca del centro de la Vía Láctea debido a la gran cantidad de polvo y gas que se encuentra en ese lugar impidiendo una visión más profunda y detallada.
Una tercera posibilidad es que en aquellos lugares donde se ha detectado la presencia de positrones --digamos por ahora en un sitio de nuestra galaxia-- sean espacios en que los últimos millones de años han sido la morada de la fusión de dos estrellas de neutrones de donde sale la emisión de partículas como un bólido galáctico masivo. De esos sucesos se crean las condiciones de los fenómenos de las explosiones de rayos gamma que tanto han desconcertado a los científicos que se focalizan en el estudio de las estructuras del cosmos.
Dado que el universo muestra tener más materia que antimateria, el positrón tiene un muy corto período de existencia desde que se crea. El positrón es la antipartícula del electrón y cuando ambos colisionan se aniquilan convirtiéndose en energía que se manifiesta en rayos gamma con un rango energético de 511 KeV, lo que refleja el aniquilamiento del positrón.
RECAMADO DE LA FUENTE: Contornos de radio recamados sobre un modelo de la fuente de la radiación producida por la aniquilación. La observacion de los radios sugieren la existencia de un canal conductor de la radiación que va desde el centro de nuestra galaxia a latitudes altas. En general, ello es consecuente con la ubicación y dirección de la fuente de aniquilación.
Las primeras observaciones que se pudieron realizar de explosiones de rayos gamma debido a emanaciones desde el centro de nuestra galaxia fueron a comienzos de 1970, y registraban un rango energético de 511 KeV. Posteriormente, a comienzos de 1980, la energía de las explosiones pareció disminuir cuando aparentemente emanaba desde el mismo lugar registrado anteriormente, volviéndose a observar emisiones con el rango de 511 KeV en las últimas detecciones que realizó el espectrómetro OSSE del satélite CGRO. Ello estaría indicando que los aniquilamientos de positrones se estarían generando en una pequeña y discreta fuente, posiblemente en la vecindad de un agujero negro al cual se le ha apodado "El Aniquilador".
La nube de antimateria particulada, que fue detectada en los mapas de explosiones de rayos gamma elaborados por el CGRO, se observa elevarse como un especie de pluma partiendo desde costado del centro de la Vía Láctea, y es extremadamente difusa. Por lo que se ha podido distinguir, es factible considerar que sólo hay en ella positrones, y no antiprotones o antiátomos.
DIBUJO DEL CENTRO DE LA VÍA LÁCTEA: El dibujo de arriba, representa al centro de la Vía Láctea con objetos y diferentes actividades cósmicas que cohabitan en esa región de la galaxia. La actividad que más se distingue es una fuente de gas caliente cargado de positrones, mucho de ellos aniquilándose mientras viajan dentro de los halos galácticos. La radiación de esa aniquilación ha sido observada por los instrumentos del OSSE empotrados en el satélite CGRO.
La detección de antiátomos fuera de los laboratorios no será un trabajo sencillo. Los antifotones que emitiría un antiátomo serían indistinguibles de los fotones que emitiría un átomo, de manera de que por este simple hecho de medición una galaxia no sería diferente de una antigalaxia. Tampoco es una labor sencilla rastrear señales de su presencia en los rayos cósmicos de alta energía.
Ahora bien, el hecho de que se llegara a descubrir dentro de los flujos de emisión de rayos cósmicos de tan sólo un núcleo de antihelio, ello daría cabida como para pensar con más de un fundamento sobre la existencia de estrellas y galaxias de antimateria, lo que llevaría también a implicaciones profundas sobre aspectos fundamentales que guardan relación con la asimetría bariónica del universo.
Para poder captar directamente los rayos cósmicos se han desarrollado experimentos con globos instalados en la atmósfera y satélites orbitando a la Tierra. Pero es un método que sólo permite la captación de ellos por algunas pocas horas y, en lapsos breves, solamente es posible distinguir antimateria si uno de cada 10.000 rayos cósmicos proviniera de un antinúcleo. Como las fuentes emisoras provienen desde lugares distantes, probablemente las antipartículas correspondan sólo a una de cada 10.000 millones de partículas.
Pero, no cabe duda esperar, de que el espectrómetro Alfa Magnético orbitando fuera de la atmósfera, tendrá muchas mayores posibilidades de éxito que los experimentos con los actuales satélites, globos ubicados en la atmósfera o con instrumentos empotrados en la superficie de la Tierra. Se piensa que con el AMS se podrán detectar los rayos cósmicos vírgenes. Asimismo, las mediciones podrán extenderse por períodos mucho más prolongados, lo que indudablemente facilitará la ubicación de la antimateria en medio de lluvias de partículas comunes.
Por los conocimientos experimentales que hemos adquirido hasta ahora, sobre la formación de antimateria en laboratorios y por el hallazgo de la existencia de positrones, no es arriesgado pensar en antimateria atómica deambulando por el espacio como fósiles ocasionados por los primeros segundos del Big Bang o como producto de la propia dinámica del universo.
En teoría, en el momento del Big Bang, debiera haber habido igual cantidad de materia que de antimateria. Ahora, por qué esta última se fue extinguiendo, las razones de ello las podemos encontrar en la explicación que nos entregó, en el año 1967, el físico Andrei Sakharoc. Según él, ese proceso de extinción se debería a una pequeña asimetría en las leyes de la física, conocida como violación CP.
Esa asimetría que formula Sakharoc, debería haber comenzado a intervenir en el primer segundo del Big Bang. En ese instante, y de acuerdo a la Teoría Unificada de la Física, todas las fuerzas que ahora se conocen en la naturaleza estaban fundidas en una sola, exteriorizadas en la llamada partícula X. Más tarde, cuando el universo se enfrió y estas partículas decayeron, la asimetría habría dejado una pequeña y mayor proporción de partículas en relación a las antipartículas. Específicamente, mil millones más una partícula, por cada mil millones de antipartículas.
En función a lo inmediatamente anterior, la mayoría de los físicos piensan, por lo tanto, de que tanto partículas como antipartículas en un instante se habrían mezclado, y como ambas se aniquilan en una bocanada de rayos gama, el resultado final sería que el universo actual no estaría conformado por antimateria. Por lo menos, la brillantez del trasfondo de radiación que lo llena, cerca de mil millones de fotones por cada partícula de materia, indicaría que ello es así, efectivamente. Puede que esta sea una explicación convencional, pero comparto la opinión de Stephen Hawking y de otros científicos en cuanto a que pensar experimentalmente en la posibilidad de la existencia de galaxias y antigalaxias o, más aún, de universo y de antiuniverso es, de alguna manera, una contradicción con las leyes de la física.
Lo anterior, no significa desterrar las posibilidades de que en algún momento la asimetría de las leyes de la física de las cuales hemos hablado podría haber sido revertida en ciertas regiones de la bola de fuego del Big Bang, favoreciendo la creación de antimateria sobre la materia. Eso abriría la posibilidad de que en alguna parte del espacio pueda haber sobrevivido antimateria, formando incluso, antigalaxias. Ello se sostiene en algunos modelos teóricos que se han desarrollado, pero se opone la experiencia experimental de laboratorio, lo que lo hace aparecer poco verosímil por ahora.
La primera prioridad para la física en esta cuestión se encuentra en poder entender y distinguir cuales son las leyes que gobiernan la antimateria. Según la relatividad general, la antimateria tiene que comportarse básicamente como la materia, y esto si que abre una tremenda interrogante. Si el comportamiento es asímil y la antimateria esta presente fuera de los laboratorios, entonces que pasa con el efecto gravitatorio sobre ella. A lo mejor, ha empezado un ciclo de la física en que se podría llegar a cuestionar hasta sus leyes fundamentales. El mayor conocimiento que se está adquiriendo sobre la antimateria, promete revelar muchas interrogantes acerca del comienzo del universo.
Biotecnologia
Los biochips son dispositivos similares a los microchips de computadoras, aunque con una amplia variedad de funciones para la medicina y la agricultura.Igual que sucede con los circuitos de las computadoras, que son capaces de calcular millones de operaciones matemáticas en sólo un segundo, los biochips realizan millones de reacciones biológicas, como decodificar genes, en cuestión de segundos.
Las compañías estadounidenses Motorola y Packard Instruments sumaron, en el año 1998, fuerzas con el laboratorio gubernamental Argonne National Laboratory para producir cantidades masivas de biochips. Motorola desarrollará el proceso de fabricación de los circuitos y Packard BioScience, se ocupará de fabricar los instrumentos con los que probar dichos biochips.
En la actualidad el término biochip está tratando de encontrar su correcta significación en el ámbito científico tecnológico ya que, en ocasiones, con él se designan instrumentos con muy diferentes aplicaciones en campos biológicos o informáticos, como la biocomputación, los biodispositivos y la biología molecular. Como biodispositivo encontraríamos aquellas aplicaciones de dispositivos electrónicos en los seres vivos como los implantes de chips para controlar los temblores en la enfermedad de Parkinson o los implantes cocleares. En la biocomputación por el contrario se emplean sustancias biológicas con la finalidad de desarrollar nuevo hardware para procesos computacionales, como ejemplo encontraríamos las memorias basadas en conformaciones proteicas y la computación con ADN. (Fernando Martín-Sánchez y Guillermo López-Campos, 1998).
En biología molecular el término biochip se asigna a aquellos dispositivos de pequeño tamaño (chip) que contienen material biológico (bio) y que son empleados para la obtención de información biológica. Estos dispositivos son también conocidos como Microarrays o por nombres comerciales de las empresas que los suministran. En general el término biochip se emplea dentro del campo de la biología molecular para referirse a los dispositivos en los que se alcanza una elevada densidad de integración de un material biológico inmovilizado sobre una superficie sólida, por analogía con la elevada densidad de circuitos electrónicos presente en un chip microelectrónico.
Los biochips son una de las más recientes herramientas con las que cuenta la biología molecular. Desarrollados a finales de los 80´s, tienen su origen en los ensayos realizados con anterioridad para la inmovilización de material biológico sobre superficies sólidas. La inmovilización puede ser realizada de muy diversas formas y sobre diferentes substratos como plástico, cristal o silicio. También se pueden realizar biochips empleando para ello la inmovilización sobre membranas u otros materiales porosos. Se pueden considerar como los herederos más o menos sofisticados de los diferentes Blots (Southern, Western…).
En la actualidad se ha producido una explosión de estas técnicas que ha conducido a una gran diversificación en las soluciones tecnológicas y en la aparición de numerosas compañías en el sector. Esta diversidad ha permitido que se hayan desarrollado chips que inmovilizan desde ácidos nucleicos, que es lo más común, hasta tejidos (tissue chip), pasando por proteínas.
El fundamento de estos dispositivos radica en la inmovilización del material biológico sobre una superficie sólida, para la realización de un ensayo de afinidad entre el material inmovilizado (sonda) y el material de muestra (blanco) que se desea analizar en paralelo, para lo cual se inmovilizan diferentes sondas.
En estos dispositivos se dispone el material biológico de una forma regular, ordenada y conocida sobre la superficie. Esta disposición permite el establecimiento de una retícula formada por un conjunto de filas y de columnas en el que cada posición es inequívoca y está identificada como en una matriz matemática. Este tipo de disposición permite el conocimiento del material depositado en cada posición.
La diversificación de soluciones tecnológicas dentro del campo de los biochips ha permitido la diferenciación de estos en dos grandes grupos:
Biochips "comerciales": que son aquellos diseñados por empresas que inmovilizan el material genético en la superficie del chip y lo fabrican en grandes cantidades y que llegan a los investigadores listos para su empleo.
Biochips "personalizados" o "home-made-chips": Este término agrupa a aquellos biochips que son fabricados por los propios investigadores en sus laboratorios. En este caso los biochips deben ser diseñados y fabricados por los propios investigadores. Con esta finalidad se han desarrollado y comercializa unos robots (arrayers) capaces de recoger y depositar sobre la superficie del chip el material biológico a inmovilizar.
La metodología fundamental de trabajo en un ensayo con biochips es la misma independientemente del tipo de biochip que se emplee; las diferencias se pueden encontrar únicamente en los dos primeros pasos, en el diseño y en la fabricación ya que en un caso es el investigador el encargado de llevarlos a cabo, mientras que si se usan los biochips "comerciales" estos pasos son realizados por la empresa fabricante. Los pasos a seguir son los siguientes:
Diseño del biochip: durante este proceso se produce la selección del tipo y cantidad de material biológico que se va a inmovilizar sobre la superficie, que variará en función del tipo de experimento que se desee llevar a cabo. Se determina también la densidad de integración, es decir el número de sondas que se desean inmovilizar sobre la superficie del chip, que se verá limitada por el método de fabricación que se desee emplear. Se seleccionan los estándares internos para el tipo de ensayo.
Todas estas selecciones deben ser realizadas por el investigador en el caso de que se vaya a emplear un biochip "personalizado".
Fabricación: este paso esté muy diversificado como consecuencia de la gran cantidad de soluciones tecnológicas presentes en el mercado. Este paso determina la densidad de integración que se puede lograr en un chip. En general las grandes empresas que comercializan los chips ya listos, son capaces de ofrecer mayores densidades de integración que las que se pueden alcanzar empleando los arrayers para la fabricación en el laboratorio de un biochip personalizado.
Hibridación y lavado: a partir de este paso el procedimiento de trabajo es exactamente igual para los chips comerciales y para los personalizados, con algunas diferencias debidas a las diferentes soluciones tecnológicas empleadas. Resulta un paso clave ya que en el se produce la reacción de afinidad en la que se hibridan las hebras de ADN de la muestra marcadas para permitir su posterior identificación, con sus complementarias inmovilizadas en la superficie del chip. Según las condiciones en las que se produzca esta reacción de afinidad se obtendrán mejores o peores resultados posteriormente en el proceso de revelado. El lavado se realiza para eliminar las interacciones inespecíficas que se dan entre la muestra y el material inmovilizado o la superficie del biochip.
Revelado: es un proceso que viene condicionado por la gran variedad de alternativas tecnológicas diseñadas para esta función. Entre estas soluciones las más comunes son la utilización de escáneres láser y cámaras CCD para la detección de marcadores fluorescentes con los que se ha marcado la muestra. Otra solución algo más económica es la utilización de isótopos radiactivos para el marcaje de los blancos y su posterior detección.
Almacenamiento de resultados: tras el revelado al que se someten los biochips se debe proceder al almacenamiento de los datos obtenidos.
Análisis de resultados: etapa final de todo experimento con la tecnología basada en biochips. A este paso llegan los datos procedentes del revelado y se presentan en forma numérica o en forma de una imagen de 16 bits en la cual se pueden apreciar los puntos en los que la reacción de hibridación ha sido positiva y los puntos en los que no ha habido tal hibridación. Es en este punto en el que se aplican una mayor cantidad de elementos de software bioinformático destinados a la extracción de conocimiento del experimento realizado.
Bioinformática
La Investigación Biomédica, una disciplina basada en la información, esta inmersa en profundos cambios a medida que las nuevas aproximaciones experimentales generan enormes volúmenes de datos sin precedentes. La Biología y la Medicina están apoyándose cada vez mas en la aplicación de las Ciencias de la Información.
La Bioinformática, el campo interdisciplinar que se encuentra en la intersección entre las Ciencias de la Vida y de la Información, proporciona las herramientas y recursos necesarios para favorecer la Investigación Biomédica. Este campo interdisciplinar comprende la investigación y desarrollo de herramientas útiles para llegar a entender el flujo de información desde los genes a las estructuras moleculares, a su función bioquímica, a su conducta biológica y, finalmente, a su influencia en las enfermedades y en la salud.
La Bioinformática comprende tres subespecialidades:
La investigación y desarrollo de la infraestructura y sistemas de información y comunicaciones que requiere la biología moderna. (Redes y bases de datos para el genoma, estaciones de trabajo para procesamiento de imágenes). Bioinformática en sentido estricto.
La computación que se aplica al entendimiento de cuestiones biológicas básicas, mediante la modelización y simulación. (Sistemas de Vida Artificial, algoritmos genéticos, redes de neuronas artificiales). Biología Molecular Computaciónal.
El desarrollo y utilización de sistemas computacionales basados en modelos y materiales biológicos. (Biochips, biosensores, computación basada en ADN). Los computadores basados en DNA se están empleando para la secuenciación masiva y el screening de diversas enfermedades, explotando su característica de procesamiento paralelo implícito. Biocomputación.
Procesadores con ADN
Los científicos siguen dando pasos de gigante para que algún día sea posible utilizar ADN en tareas informáticas. De momento, especialistas de la University of Wisconsin-Madison han conseguido trasladar una muestra de este material genético desde el mundo flotante de un tubo de ensayo a la superficie rígida de una placa de cristal y oro.
Con ello, no es descabellado pensar que, en el futuro, el ADN pueda ser usado para llevar a cabo las mismas tareas que ahora precisan de innumerables circuitos electrónicos y silicio.
La computación mediante ADN es una tecnología aún en pañales. Expertos como Lloyd Smith buscan capitalizar la enorme capacidad de almacenamiento de información de estas moléculas biológicas, las cuales pueden efectuar operaciones similares a las de una computadora a través del uso de enzimas, catalizadores biológicos que actúan como el software que ejecuta las operaciones deseadas.
La colocación del ADN sobre una superficie sólida, alejándolo del tubo de ensayo, es un paso importante porque simplifica su manipulación y acceso. Demuestra también que será posible aumentar su complejidad para resolver mayores problemas.
En los experimentos de Wisconsin, un grupo de moléculas de ADN fueron aplicadas sobre una pequeña placa de cristal recubierta por oro. En cada experimento, el ADN fue adaptado de manera que se incluyeran todas las posibles respuestas a un problema determinado. Exponiendo las moléculas a ciertos enzimas, las moléculas con las respuestas incorrectas fueron eliminadas, dejando sólo las que poseían las contestaciones correctas.
Las moléculas de ADN pueden almacenar mucha más información que un chip convencional de computadora. Se ha estimado que un gramo de ADN secado puede contener tanta información como un billón de CD’s. Además, en una reacción bioquímica que ocurriese sobre una pequeñísima área, cientos de billones de moléculas de ADN podrían operar en concierto, creando un sistema de procesamiento en paralelo que imitaría la habilidad de la más poderosa supercomputadora.
Los chips que se emplean en las computadoras normales representan la información en series de impulsos eléctricos que emplean unos y ceros. Se usan fórmulas matemáticas para manipular el código binario y alcanzar la respuesta. La computación por ADN, por su parte, depende de información representada como un patrón de moléculas organizadas en un hilo de ADN. Ciertos enzimas son capaces de leer este código, copiarlo y manipularlo en formas que se pueden predecir.
La computación convencional mediante chips está alcanzando los límites de la miniaturización. El ADN es una de las alternativas a estudiar seriamente.
Inteligencia artificial
La última generación en inteligencia artificial se llama 'algoritmos genéticos', en el que la computadora no sólo simula el funcionamiento neural biológico, sino que establece también cadenas de ADN (ácido desoxirribonucleico) para establecer, como ocurre en la naturaleza, características especiales.
Ingenieros de la NASA trabajan en el diseño de computadoras del tamaño de una molécula de proteína, que servirán para rastrear y reparar daños celulares en el organismo humano.
Meyya Meyyappan para Nanotecnología de la NASA, explicó que los "minúsculos médicos robots" que entrarán al torrente sanguíneo serán creados para reparar las lesiones causadas por accidentes, enfermedades, atacar virus y bacterias, así como eliminar células cancerosas. Explicó que aunque todavía no hay ningún nanorrobot en funcionamiento (con un tamaño equivalente a la diez mil millonésima parte de un metro), los ingenieros cuentan con diseños teóricos propuestos.
Robert Freitas, autor del libro Nanomedicine, precisó que el carbono será el principal elemento que los constituirá, y que el hidrógeno, azufre, oxígeno, nitrógeno, nitrógeno, silicio, entre otros, se utilizarán para fabricar los engranajes y otras partes del sistema.
Bases de Datos obtenidos mediante biochips
La situación actual pasa por la acumulación de los datos de los resultados de los experimentos basados en biochips en las bases de datos privadas de los investigadores. El importante auge que estas técnicas están teniendo en el ámbito de la investigación biomédica así como la extensión de su uso está sirviendo como un motor importante para el desarrollo de bases de datos públicas, impulsando la aparición de proyectos destinados a la generación de estos repositorios públicos con datos de estos experimentos en los que estos datos puedan ser almacenados para su posterior comparación y análisis. Una de las consecuencias de la gran capacidad de los biochips es que han permitido el desarrollo de grandes bases de datos de expresión génica, pudiendo ser estas bases de datos de expresión génica privadas y comercializadas, como por ejemplo Gene Express de Gene Logic, que es una base de datos generada empleando los GeneChips de Affymetrix.
Los proyectos de creación de bases de datos públicas tienen que ir necesariamente de la mano con los procesos de estandarización del trabajo con biochips, en este sentido es muy importante la estandarización de elementos tales como los controles internos empleados en los experimentos, los formatos en los que son presentadas las imágenes para ser almacenadas y la anotación de la información del material que se ha inmovilizado en cada punto del biochip.
En estos momentos existen diversas bases de datos capaces de recibir los datos de los resultados de los biochips, pero en muchos casos son bases de datos de expresión génica en general, es decir estas bases de datos lo que reciben es exclusivamente los resultados del proceso. Por el contrario se está desarrollando una nueva línea de trabajo que está dirigiendo sus pasos hacia la creación de bases de datos exclusivas de biochips con los datos de este tipo de experimentos.
En las bases de datos diseñadas para utilizar con los biochips se podrían dar dos posibilidades, una en la que se almacenarían las imágenes y los datos numéricos de cada experimento, que tendría como ventaja el ser menos voluminosa, y una segunda opción en la cual lo que se almacenaría sería los experimentos, es decir, se almacenaría la información completa del ensayo, con la procedencia del material inmovilizado correspondientemente anotado, el protocolo seguido, etc. Esta segunda opción es más completa y contiene más información, siendo este mayor volumen el posible inconveniente.
Aerodinamica
Historia
El primer aparato volador diseñado por el hombre fue la cometa aproximadamente en el siglo V. En el siglo XIII el monje inglés Roger Bacon tras años de estudio, llegó a la conclusión de que el aire podría soportar un cuerpo de la misma manera que el agua soporta un barco. A comienzos del siglo XVI Leonardo da Vinci se inspiró en el vuelo de los pájaros y anticipó varios diseños que después resultaron realizables. Entre sus importantes contribuciones al desarrollo de la aviación se encuentra el tornillo aéreo o hélice y el paracaídas. Concibió tres tipos diferentes de artefactos: el ornitóptero, máquina con alas como las de un pájaro que se podían mover mecánicamente; el helicóptero diseñado para elevarse mediante el giro de un rotor situado en el eje vertical y el planeador en el que el piloto se sujetaba a una estructura rígida a la que iban fijadas las alas diseñadas a imagen de las grandes aves. Leonardo creía que la fuerza muscular del hombre podría permitir el vuelo de sus diseños. La experiencia demostró que eso no era posible.
El desarrollo práctico de la aviación siguió varios caminos durante el siglo XIX. El ingeniero aeronáutico e inventor británico sir George Cayley, teórico futurista, comprobó sus ideas experimentando con cometas y planeadores capaces de transportar un ser humano. Diseñó un aparato en forma de helicóptero pero propulsado por una hélice en el eje horizontal. Sus méritos le llevaron a ser conocido por sus compatriotas como el padre de la aviación. El científico británico Francis Herbert Wenham utilizó en sus estudios el túnel aerodinámico, sirviéndose del flujo del viento forzado en su interior para analizar el uso y comportamiento de varias alas colocadas una encima de otra. Fue además miembro fundador de la Real Sociedad Aeronáutica de Gran Bretaña. Otros personajes interesantes del mundo aeronáutico de la época fueron el inventor británico John Stringfellow y William Samuel Henson, quienes colaboraron al principio de la década de 1840, para fabricar el prototipo de un avión que pudiera transportar pasajeros. El aparato desarrollado por Stringfellow en 1848 iba propulsado por un motor de vapor y arrastrado por un cable y consiguió despegar aunque no pudo elevarse. El inventor francés Alphonse Penaud fabricó un modelo que se lanzaba con la mano e iba propulsado por bandas de goma retorcidas previamente y consiguió en el año 1871 que volase unos 35 metros. Otro inventor francés, Victor Tatin, diseñó un ingenio propulsado por aire comprimido y equipado con un rudimentario tren de aterrizaje de cuatro ruedas. Lo sujetó a un poste central y las dos hélices consiguieron elevar el aparato en vuelos cortos y de baja altura.
El inventor británico nacido en Australia, Lawrence Hargrave, desarrolló un modelo de alas rígidas que iba impulsado por paletas batientes movidas por un motor de aire comprimido. Voló 95 metros en 1891. El astrónomo estadounidense Samuel Pierpont Langley fabricó en 1896 un monoplano en tándem impulsado por un motor de vapor cuyas alas tenían una envergadura de 4,6 metros. El aeroplano hizo varios vuelos, recorriendo entre 900 y 1.200 metros de distancia durante un minuto y medio. Subía en grandes círculos; luego, al pararse el motor, descendía lentamente para posarse en las aguas del río Potomac.
Se hicieron numerosos esfuerzos para imitar el vuelo de las aves con experimentos basados en paletas o alas movidas por los músculos humanos, pero nadie lo logró. Merecen citarse el austriaco Jacob Degen entre 1806 y 1813, el belga Vincent DeGroof, que se estrelló y murió en 1874 y el estadounidense R. J. Spaulding quien patentó su idea del vuelo empujado por músculos en 1889. Más éxito tuvieron quienes se dedicaron al estudio de los planeadores y contribuyeron al diseño de las alas, como el francés Jean Marie Le Bris, quien probó un planeador con las alas batientes, el estadounidense John Joseph Montgomery y el renombrado alemán Otto Lilienthal. Lilienthal realizó sus experimentos con cometas y ornitópteros pero los mayores éxitos los obtuvo con sus vuelos en planeador entre l894 y 1896. Por desgracia murió en 1896 al perder el control de su aparato y estrellarse contra el suelo desde 20 metros de altura. Percy S. Pilcher, de Escocia, que también había obtenido grandes éxitos con su planeador, tuvo asimismo un accidente mortal en 1899. El ingeniero estadounidense Octave Chanute consiguió en 1896 pequeños logros con sus planeadores de alas múltiples, pero su contribución más notable a la aviación fue su libro sobre los avances aeronáuticos Progress in Flying Machines (1894).
Los numerosos experimentos realizados con cometas durante esta época, consiguieron mejorar de forma notable los conocimientos sobre aerodinámica y estabilidad del vuelo. El inventor estadounidense James Means publicó sus resultados en los Aeronautical Annuals de 1895, 1896 y 1897. Lawrence Hargrave inventó en 1893 la cometa en forma de caja y Alexander Graham Bell desarrolló entre 1895 y 1910 diversas cometas en forma de tetraedro capaces de transportar a un ser humano en un pequeño alojamiento.
Entre 1890 y 1901 se realizaron numerosos experimentos con prototipos provistos de motor. El más importante fue el de Langley que en 1901 y 1903 probó e hizo volar sin piloto un aeroplano a un cuarto de escala de su tamaño real. Le llamó Aerodrome y fue la primera aeronave más pesada que el aire provista de un motor de gasolina que consiguió volar. El modelo a escala real se terminó en 1903 y realizó dos pruebas que acabaron en desgraciados accidentes. El aviador alemán Karl Jatho intentó en 1903, también sin éxito, volar un modelo motorizado de tamaño real.
Los logros conseguidos a lo largo del siglo XIX aportaron los fundamentos necesarios para el éxito de los hermanos Wright, pero los mayores avances se debieron a los esfuerzos de Chanute, Lilienthal y Langley a partir de 1885. En 1903 aún no se habían conseguido la estabilidad y el control necesarios para un vuelo prolongado, pero los conocimientos aerodinámicos y sobre todo el éxito de los motores de gasolina, que sustituyeron a los más pesados de vapor, permitirían que la aviación evolucionase con rapidez.
El día 17 de diciembre de 1903, cerca de Kitty Hawk, en el estado de Carolina del Norte, los hermanos estadounidenses Wilbur y Orville Wright realizaron el primer vuelo pilotado de una aeronave más pesada que el aire propulsada por motor. El avión fue diseñado, construido y volado por ambos hermanos, quienes realizaron dos vuelos cada uno. El más largo fue el de Wilbur con 260 metros recorridos en 59 segundos. Al año siguiente continuaron mejorando el diseño del avión y su experiencia como pilotos a lo largo de 105 vuelos, algunos de más de 5 minutos. En 1905 llegaron a recorrer 38,9 kilómetros en 38 minutos y 3 segundos. Todos los vuelos se realizaron en campo abierto, regresando casi siempre cerca del punto de despegue.
Hasta 1906 nadie más consiguió volar en un avión. En ese año el húngaro residente en París, Trajan Vuia, realizó algunos saltos muy cortos y también lo consiguió Jacob Christian Ellehammer en Dinamarca. El primer vuelo oficialmente registrado en Europa lo hizo en Francia el brasileño Alberto Santos Dumont y su trayecto más largo lo logró el 12 de noviembre de 1906 cubriendo una distancia de 220 metros en 22,5 segundos. El aeroplano, registrado como 14-bis, había sido diseñado por él y construido en la primera fábrica de aviones del mundo, la de los hermanos Voisin en París. Su forma era la de una gran cometa en forma de caja en la parte trasera y otra pequeña en la delantera, unidas por la estructura cubierta de tela. El motor era un Levavasseur Antoinette de 40 CV y estaba ubicado junto con la hélice en la parte posterior. El piloto iba de pie en una cesta situada delante del ala principal. En Europa nadie consiguió volar más de un minuto hasta finales de 1907, en que lo logró Henri Farman en un avión construido también por Voisin.
En contraste con Europa, los hermanos Wright conseguían en Estados Unidos superar sus marcas día a día. El 3 de septiembre de 1908, Orville Wright hizo una demostración con un modelo más veloz para el Cuerpo de Señales del Ejército en Fort Meyer, Virginia. El 9 de septiembre completó el primer vuelo mundial de más de una hora y también por primera vez se transportó un pasajero, el teniente Frank P. Lamh, durante 6 minutos y 24 segundos. Estas demostraciones se interrumpieron el 17 de septiembre a causa de un accidente en el que resultaron heridos Orville y su pasajero el teniente Thomas E. Selfridge, quien murió horas después a consecuencia de una conmoción cerebral. Fue la primera persona muerta en accidente de avión propulsado por motor. Entretanto Wilbur Wright, que había ido a Francia en agosto, completó, el 31 de diciembre, un vuelo de 2 horas y 20 minutos demostrando un control total de su avión con suaves virajes, subidas y descensos a su entera voluntad. Recuperado de sus heridas y con la colaboración de Wilbur, Orville reanudó las demostraciones para el Cuerpo de Señales en julio de 1909 y cumplió sus requisitos a finales de mes. El aeroplano fue comprado el 2 de agosto y se convirtió en el primer avión militar operativo de la historia. Permaneció en servicio activo durante dos años y después fue retirado y trasladado a la Institución Smithsonian en la ciudad de Washington donde puede contemplarse todavía.
Una figura importante entre los diseñadores, fabricantes y pilotos estadounidenses fue Glenn Hammond Curtiss, de Hammondsport, Nueva York. En 1907 realizó en solitario un vuelo en el dirigible construido por Thomas Baldwin, propulsado por un motor de motocicleta de la fábrica de Curtiss que él mismo había modificado. En mayo siguiente Curtiss voló, también en solitario, el aeroplano diseñado y fabricado por un grupo conocido como la Asociación de Experimentos Aéreos, organizada por Alexander Graham Bell. Curtiss era uno de sus cinco miembros. Con su tercer avión, el June Bug, el 4 de julio de 1908 Curtiss cubrió la distancia de 1.552 metros en 42,5 segundos y ganó el Trofeo Científico Americano, primer premio estadounidense concedido al vuelo de un avión. En Reims, Francia, el 28 de agosto del año siguiente, Curtiss ganó el primer torneo internacional de velocidad, al conseguir una marca de 75,6 km/h. El 29 de mayo de 1910 ganó también el premio New York World, dotado con 10.000 dólares, por realizar el trayecto desde Albany, en el estado de Nueva York, hasta la ciudad de Nueva York; y en agosto completó el trayecto desde Cleveland a Sandusky, Ohio, sobrevolando la costa del lago Erie. En enero de 1911 consiguió ser el primer americano en desarrollar y volar un hidroavión. En Europa lo había conseguido el 28 de marzo de 1910 el francés Henri Fabre.
El pionero en cruzar el Canal de la Mancha fue el ingeniero y piloto francés Louis Blériot. El día 25 de julio de 1909, durante 35,5 minutos recorrió 37 kilómetros, desde Calais, Francia, a Dover, Inglaterra, en un avión monoplano diseñado y fabricado por él mismo.
Durante los años posteriores a la I Guerra Mundial se realizaron grandes progresos tanto en el diseño de los aeroplanos como de los motores. Los aviones de dos alas con los motores y las hélices situadas en la parte posterior pronto fueron sustituidos por aviones con los motores situados en la parte delantera. Había muy pocos modelos de monoplanos, pero en cambio durante la guerra ambos contendientes fabricaron enormes biplanos con dos, tres y hasta cuatro motores que en Europa fueron al principio del tipo rotativo, aunque pronto se sustituyeron por los modelos radiales. En Gran Bretaña y Estados Unidos predominaron los motores refrigerados por agua.
El transporte aéreo de correo se aprobó oficialmente en Estados Unidos en el año 1911 y se realizó el primer vuelo el 23 de septiembre. El piloto, Earle Ovington, llevó la saca de correos en sus rodillas en un vuelo que tan sólo duró 5 minutos y recorrió los 8 kilómetros que hay entre el bulevar Nassau y Mineola, ambos en Long Island, Nueva York. Ovington lanzó la saca sobre Mineola, donde fue recogida y trasladada a la oficina de correos. El servicio duró sólo una semana.
En 1911 se completó el primer vuelo transcontinental en Estados Unidos, desde la ciudad de Nueva York hasta Long Beach en California. Lo consiguió el piloto estadounidense Calbraith P. Rodgers. Salió de Sheepshead Bay, en Brooklyn, Nueva York, el 17 de septiembre, al mando de un aeroplano Wright, y aterrizó en su destino el 10 de diciembre, 84 días más tarde. El tiempo real de vuelo fue de 3 días, 10 horas y 14 minutos.
Avión de transporte
En Europa el avión fue usado para transporte de pasajeros en el año 1919, mientras que en Estados Unidos los primeros vuelos de la aviación comercial se dedicaron principalmente al correo. Los vuelos de pasajeros aumentaron en rutas como la de Londres a París, se introdujeron en Estados Unidos a partir de 1927 y crecieron más deprisa gracias a la aparición de aviones seguros y confortables como el Douglas DC-3. Este avión iba propulsado por dos motores de hélice y podía transportar 21 pasajeros a una velocidad de crucero de 300 km/h. Todavía se puede ver volando por los cielos de muchos países. Poco después aparecieron los aviones cuatrimotores que podían volar aún más de prisa, subir más alto y llegar más lejos. El siguiente paso se dio en 1950, con el Vickers Viscount británico, primer avión impulsado por hélice movida por turbina a gas.
Los aviones para cubrir un servicio se eligen en función de dos factores: el volumen de tráfico y la distancia entre los aeropuertos a los que sirve. La distancia entre aeropuertos se conoce como recorrido y hay un elevado número de aviones que pueden operar entre 400 y 11.000 kilómetros.
Los reactores comerciales de pasajeros se usaron al principio para recorridos de larga distancia. El avión británico De Havilland Comet inició su servicio en 1952, y el Boeing 707 en 1958. A finales de la década de 1950 apareció el Douglas DC-8 y los Convair 880 y 990. Estos aviones desarrollaban una velocidad de crucero aproximada de 900 km/h y transportaban más de 100 pasajeros.
El Caravelle francés, el De Havilland Trident inglés y el Boeing 727 estadounidense, todos ellos más pequeños y diseñados con los motores en la cola, se construyeron para cubrir líneas de medio recorrido, entre 800 y 2.400 kilómetros. A mediados de la década de 1960 aparecieron birreactores aún más pequeños para operar en trayectos de corto recorrido, como el Boeing 737, el DC-9, el Fokker F-28 y el BAC-111.
El Boeing 747 entró en servicio en el año 1970 y fue el primer avión comercial de fuselaje ancho. Sirve en trayectos de media y larga distancia y alta densidad. Utiliza motores turbofán y vuela en crucero a unos 900 km/h. Normalmente transporta 400 pasajeros, llegando hasta 500 en algunas versiones. El Douglas DC-10 y el Lockheed 1011 Tristar son también grandes aviones con capacidades próximas a los 300 pasajeros. Ambos van empujados por tres motores montados en la cola. Se diseñaron para cubrir trayectos como el de Chicago-Los Ángeles y otros de recorrido similar. El primer DC-10 voló en 1971 y el L-1011 en 1972. Mientras, en Europa, el primer avión birreactor de fuselaje ancho, Airbus A300, realizaba su primer vuelo en el mismo año. Airbus es un consorcio de empresas de distintos países europeos como España, Francia y Reino Unido entre otros.
El avión supersónico comercial o SST constituye la cima en el desarrollo de la tecnología aeronáutica y permite cruzar el Atlántico Norte y regresar de nuevo en menos tiempo de lo que un reactor subsónico tarda en hacer uno de los trayectos. El supersónico soviético TU-144, que fue el primero en entrar en servicio en 1975, realizaba vuelos regulares de carga en la URSS. En 1962 los gobiernos del Reino Unido y Francia firmaron un acuerdo para desarrollar y construir el proyecto del avión supersónico Concorde. El primer vuelo de prueba se hizo en 1971 y el certificado de aeronavegabilidad se firmó en 1975. El primer vuelo comercial del avión francés fue desde París a Río de Janeiro, con escala en Dakar, y del inglés desde Londres a Bahrain.
En sus inicios el proyecto SST fue criticado por ser antieconómico y muy ruidoso. A pesar de las objeciones, el servicio a los Estados Unidos comenzó el 24 de mayo de 1976, con vuelos simultáneos desde Londres y París al aeropuerto internacional Dulles cerca de la ciudad de Washington y a Nueva York (22 de noviembre de 1977). Excepto en los países de la antigua URSS, los vuelos SST deben realizarse a velocidades subsónicas cuando pasan por zonas habitadas.
Las pérdidas de explotación del Concorde superaron los 500 millones de libras y dejó de fabricarse en 1979. Los aviones franceses han extendido sus servicios desde París a Caracas (Venezuela) y a Dakar (Senegal). A pesar del fracaso comercial del Concorde, los fabricantes y operadores están interesados en una posible segunda generación de aviones supersónicos. Entretanto hay una enorme competencia entre los fabricantes de aviones reactores subsónicos avanzados como los Boeing 757, 767 y 777 y los Airbus A-320, 330 y 340. El A-320 ha sido el primer avión comercial en usar el sistema de control completamente automático fly-by-wire. El avión cuatrimotor de largo recorrido A-340 y el trimotor McDonnell-Douglas MD-11 son los competidores del Boeing 747 mientras el bimotor de fuselaje ancho A330 y el Boeing 777 concurren en el mercado de alta densidad y medio recorrido donde ya competían el Boeing 767 y el Airbus A300/310.
Los aviones de carga han conocido una expansión sin precedentes desde la II Guerra Mundial. Los primeros aeroplanos de carga fueron los Canadair CL-44 y el Armstrong-Whitworth Argosy, a los que siguieron versiones de los grandes aviones de pasajeros modificados para carga, que son los usados actualmente.
Aeronáutica
La aeronáutica es la ciencia (o acción) de diseñar un avión o alguna otra máquina voladora. Existen cuatro áreas básicas que los ingenieros aeronáuticos deben entender.
Qué forma darle al avión, a las alas y a la cola de modo que el avión pueda elevarse sobre el suelo y volar fácilmente por el aire. A esto se le llama aerodinámica.
Cómo controlar el avión de manera que pueda dar vuelta en el aire, pero sin comenzar a girar fuera de control. A esto se le llama estabilidad y control.
Cómo construir un motor (a chorro o con hélices propulsoras) para que el avión pueda desplazarse a través del aire. A esto se le llama propulsión.
Cómo construir el avión de modo que no se desintegre cuando sea golpeado por una ráfaga del viento o aterrice de golpe en un portaaviones. A esto se le llama estructuras.
La ingeniería aeronáutica es diferente que la ingeniería aeroespacial. Los ingenieros aeroespaciales construyen cohetes y satélites. Los cohetes deben viajar a través del aire, pero deben también poder navegar por el espacio. El diseño y los motores de los cohetes son muy diferentes a los de los aviones.
Dinámica de los fluidos
Las moléculas (pequeñas partículas) de un objeto sólido permanecen alineadas de manera que el objeto mantiene su forma. Si intentas empujar un objeto sólido cuadrado a través de agujero redondo más pequeño, el sólido no cambiará de forma. Puede ser que se rompa, pero no cambiará su forma. Y, no importa cuánto lo trates de comprimir (apretar) o estirar, las moléculas no cambiarán de posición. (No puedes hacer que un sólido se haga más grande o más pequeño.)
Las moléculas de un líquido, sin embargo, son diferentes a las de un sólido. Si vacías un líquido de un tazón (recipiente) cuadrado a un tazón redondo, adquirirá la forma del recipiente redondo. El líquido volverá a juntarse. No se expandirá (no se hará más grande) para llenar el recipiente. Si tratas de comprimir o estirar un líquido, las moléculas no cambiarán posición. (Tampoco puedes hacer que un líquido se haga más grande o más chico.)
Los gases, como el aire, son diferentes a los líquidos y a los sólidos. Los gases se deforman para llenar el envase que los contiene. Los gases también se expanden (se esparcen) o se contraen (se encogen) ajustándose al espacio que haya disponible. Las moléculas de los gases se mueven (cambian de posición) cuando se les comprime o se les permite expandirse. Los líquidos y los gases son fluidos.
En las siguientes secciones, estudiaremos cuatro áreas de la dinámica (la ciencia que trata sobre el movimiento de los cuerpos y las fuerzas que lo producen): (1) dinámica de sólidos, (2) cómo se comportan los líquidos (hidrodinámica), (3) cómo se mueven el aire y otros gases (aerodinámica), y (4) cómo cambian los gases cuando se mueven a altas velocidades (dinámica de gases).
Aerodinámica
A medida que se mueve alrededor de un objeto (como las alas de un avión), el aire intenta hacer que dicho objeto se mueva. El estudio de cómo el aire tira (jala) y empuja un objeto se conoce como aerodinámica. Las fuerzas aerodinámicas actúan sobre aviones, barcos de vela, coches, y otros objetos que se mueven rápidamente a través del aire. La aerodinámica nos ayuda a entender cómo volar mejor.
Cómo Cambian los Gases de Alta Velocidad - Dinámica de Gases
Los aviones o los cohetes que vuelan muy rápido y muy alto siguen un conjunto de reglas distintas llamado "dinámica de gases". Las reglas cambian debido a la alta temperatura del aire y las altas velocidades de estos aviones y cohetes.
Propiedades de los fluidos
Cuando algo como un avión o un barco viaja a través del aire o del agua, ciertas fuerzas comienzan a hacerse presentes. Es necesario entender cómo actúan estas fuerzas. Se necesita realizar un estudio de los fluidos (como el aire o el agua). En la sección de Medidas, las unidades (pulgadas, pies, metros) fueron presentadas. Éstas nos ayudan a comprender mejor las fuerzas aerodinámicas.
Las propiedades o características del airo del agua incluyen, por ejemplo, temperatura, presión, densidad, viscosidad, peso, velocidad, y aceleración. Estos conceptos se definirán con detalle en esta sección.
Temperatura
La temperatura de un fluido es importante. El aceite caliente, por ejemplo, fluye más rápidamente que el aceite frío. El aire calientes se eleva, mientras que el aire frío baja. En muchas casas las ventanillas del sistema de calefacción están en el suelo. De esta forma el aire caliente se elevará por todo el cuarto. El agua muy fría es más ligera que el agua que no está tan fría. Esta es la razón por la cual la superficie de un lago se congela primero. Ya podrás comenzar a darte cuenta que conocer la temperatura de un fluido puede ser importante en la aerodinámica. Como ya se mencionó en la sección de Medidas, la temperatura tiene unidades de grados Fahrenheit (F) o grados centígrados (C).
Presión
La presión de un fluido es importante. Conforme un sustancia fluye a lo largo de un objeto, va empujando ligeramente sobre la superficie (es decir, va ejerciendo presión sobre la superficie del objeto). Pequeños "empujones" sobre una superficie de gran tamaño pueden dar como resultado una fuerza de gran magnitud! La presión de aire disminuye conforme aumenta la altura. La presión del agua crece a medida que aumenta la profundidad. La presión también disminuye cuando la velocidad del fluido aumenta. El aire o el agua caliente se expande, aumentando de este modo la presión. Es muy importante conocer y entender la presión a la que están expuestos los barcos y los aviones.
Densidad
Todo objeto tiene masa. Esto quiere decir que está compuesto de moléculas. Las moléculas son las partes más pequeñas de un cuerpo. La densidad es una medida de cuántas moléculas hay en un "objeto" y qué tan pegadas se encuentran unas de otras. La densidad del agua es mayor que la del aire.
Cierto tipo de materia, como el aire, se puede comprimir de modo que ocupe menos espacio, o puede espandirse para ocupar un espacio más grande. El agua, en cambio, no se puede complir.
Cuando la presión o la temperatura de un fluido cambia, la densidad también cambia. Las moléculas se juntan o se alejan unas de otras.
Viscosidad
La viscosidad indica qué tan rápida o lentamente fluye una sustancia. Por ejemplo, si derramas agua sobre una tabla inclinada, el agua correrá rápidamente hacia abajo. Sin embargo, si derramas miel sobre la misma tabla, la miel se moverá mucho más lentamente. Esto quiere decir que la viscosidad de la miel es mucho mayor que la del agua.
Fuerza
Las fuerzas son "empujones" o "tirones" que se ejercen sobre un objeto. Estas fuerzas pueden ser producidas por la presión del viento, la presión del agua, el peso o la gravedad. Estas fuerzas también pueden ser generadas por el hombre, como en el caso de un motor de propulsión a chorro o un cohete. Pero, en la aerodinámica (e hidrodinámica) nos concentramos en las fuerzas producidas por el aire y el agua.
Una fuerza debe tener dirección. Si empujas, por ejemplo, una caja que esté en el suelo hacia la derecha, se moverá hacia la derecha. Pero si la empujas hacia abajo, no lograrás que se mueva porque el suelo lo impedirá. Es muy importante saber la dirección en la que una fuerza está actuando.
Peso y gravedad
Recuerda que la masa representa la cantidad de moléculas que se encuentran acumuladas en cierta área. En otros países la masa se mide en gramos o kilogramos. En los Estados Unidos la gente usa unidades de peso para referirse también a la masa de un objeto. Esto está bien a nivel del mar porque la gravedad es la misma en cualquier lugar. Sin embargo, si tomamos un objeto que pesa 10 libras a nivel del mar y lo llevamos a la atmósfera superior donde la fuerza de la gravedad es menor, el mismo objeto pesará un poco menos (quizás 9.5 libras). La masa, sin embargo, no cambia. Los científicos utilizan diferentes unidades para separar la masa y el peso: libras masa y libras fuerza (el peso es una fuerza causada por la gravedad).
Velocidad
Cuando vas en un coche, puedes fijarte en el velocímetro para darte cuenta que tan rápidamente vas viajando. A esto se le llama velocidad. Sus unidades son millas por la hora (mph) o kilómetros por la hora (kph). Si recorres 120 millas en 2 horas, tu velocidad promedio es de 60mph (120 millas divididas por 2 horas).
Aceleración
Si un coche que está detenido comienza a moverse y aumenta su velocidad de cero mph a 60 mph, a esto se llama aceleración. Si el vehículo sigue viajando a 60 mph durante 10 minutos, no hay aceleración durante ese tiempo porque la velocidad no cambia. Si un coche está disminuyendo la velocidad, a esto se llama desaceleración.
Diferentes maneras en la que se mueve el aire
Una persona que diseña aviones (ingeniero aerodinámico) debe saber varias cosas. Esta sección define palabras y conceptos necesarios para entender la forma en la que un fluido (aire o agua) se mueve dentro o alrededor de un objeto, como las alas de un avión.
Velocidad del sonido
El sonido viaja en ondas invisibles a una velocidad de aproximadamente 760 millas por la hora (mph). Si te encontraras lejos del lugar donde ocurriera una explosión, la podrías ver antes de escucharla porque les lleva tiempo a las ondas del sonido (ondas acústicas) viajar hasta tu oído. A la velocidad del sonido también se le llama Mach 1. El doble de la velocidad del sonido serí entonces Mach 2.
Para que un avión viaje a una velocidad superior a Mach 1, debe ser diseñado de una manera especial. Cuando un avión se cerca a esta velocidad (Mach 1), la presión del aire aumenta enormemente. El avión debe ser capaz de "romper" esta barrera del sonido. Si el avión logra atravesar la barrera del sonido, se dice que ha alcanzado vuelo supersónico. Cuando esto sucede, una onda de choque se esparce en todas direcciones. La primera persona que logró atravesar la barrera del sonido fue el capitán Charles Yeager en 1947, mientras piloteaba un avión experimental, el Bell XS-1. Hoy en día, muchos aviones pueden volar a velocidades supersónicas.
Fricción
Es difícil empujar una caja pesado a lo largo de una alfombra. Esto se debe a la resistencia llamada fricción. Resulta mucho más fácil empujar la misma caja a través de un suelo liso de madera, aunque aún hay fricción inmóvil. Cuando el aire pasa sobre las alas de un avión, también hay fricción. Un ingeniero aerodinámico debe saber cómo diseñar las alas para que haya la menor cantidad de fricción posible. Aplican las mismas reglas cuando el agua pasa sobre un objeto, tal como el casco de una nave.
Capas de fluido
Cuando un fluido (aire o agua, por ejemplo) corre sobre una superficie (las alas de un avión o el casco de un barco), la fricción hace que sucedan cosas interesantes. En la superficie, el fluido deja de moverse. Otra capa de fluido que se mueve lentamente se forma encima de la primera capa. Luego más capas de fluido se forman, una encima de la otra. Cada una que se mueve más rápidamente que la anterior hasta que la capa superior se encuentra moviéndose a la velocidad original del fluido exterior.
Algunas superficies permiten que las capas de fluido que se forman sean lisas y ordenadas. A esto se le llama capa laminar. Sin embargo, la mayor parte del tiempo otra capa es la que se desarrolla: capa turbulenta (que es lo contratio a una capa lisa y ordenada). Los ingenieros aerodinámicos debe intentar diseñar superficies (alas o cascos) que reduzcan la turbulencia o desorden.
Separación del flujo
A veces las capas que se encuentran cerca de la superficie de las alas se ven obligadas a alejarse de la superficie. A esto se le llama separación. A los pilotos e ingenieros por lo general no les agrada que esto ocurra porque la separación del flujo puede causar pérdida de sustentación. Si esta pérdida no se corrige a tiempo, el avión puede estrellarse. A veces se utiliza una pérdida de sustentación controlada justo antes de aterrizar un avión, para que las ruedas hagan contacto con la pista suavemente.
Flotabilidad
Cuando se deja caer algo al agua, o flota o se hunde. Si flota, es porque el objeto pesa menos que el agua desplazada por dicho objeto. Pero si se hunde, es porque el objeto pesa más que el agua desplazada.
Por lo general, la flotabilidad es solamente un fenómeno que ocurre en el agua. La mayoría de los objetos no poseen flotabilidad en aire. Sin embargo, los globos y dirigibles muy grandes sí tienen flotabilidad en aire. Los diseñadores de buques y barcos deben conocer las reglas de flotabilidad cuando diseñan o construyen vehículos acuáticos.
Ondas de choque
Cuando un avión alcanza la velocidad del sonido, se generan ondas de choque en todas direcciones. Si el avión se encuentra cerca del suelo, iexcl;las ondas de choque pueden sacudir edificios y romper ventanas! Los aviones generalmente vuelan a gran altura de manera que las ondas de choque son desintegradas o debilitadas por los vientos antes de golpear el suelo.
Leyes
Los científicos y los ingenieros deben entender ciertas leyes sobre cómo fluye el aire para hacer que el vuelo sea posible. Por ejemplo, deben saber que cuando se calienta, el aire se expande (el volumen aumenta) y su presión aumenta.
En el siglo XVIII, Daniel Bernoulli descubrió que cuando el aire corre rápidamente sobre una superficie (tal como la de una ala), la presión del aire disminuye. Y cuando la velocidad del aire disminuye, la presión aumenta. Bernoulli pudo resumir estas observaciones en una fórmula matemática (el teorema de Bernoulli). En la actualidad, las alas están diseñadas para aumentar la velocidad del aire sobre la superficie superior y para disminuirla en la parte inferior. Esto produce sustentación, que es lo que mantiene al avión en el aire.
Fuerzas del vuelo
Existen, básicamente, cuatro fuerzas que se generan durante el vuelo: sustentación, resistencia, empuje y peso. La figura de abajo muestra cómo es que estas cuatro fuerzas se relacionan entre sí para lograr que el avión se mantenga en equilibrio mientras vuela. La fuerza de sustentación apunta hacia arriba, en sentido opuesto al peso. El empuje impulsa al avión hacia adelante, pero la fuerza de resistencia se opone al vuelo. La fuerza de sustentación debe ser mayor que el peso y el empuje más poderoso que la fuerza de resistencia para que el avión pueda comenzar a volar.
Peso
El peso es el resultado de la gravedad. La gravedad es una fuerza natural que hace que los cuerpos, incluyendo los aviones, sean atraídos hacia la tierra. Por lo tanto, la dirección del peso es hacia abajo.
Sustentación
La fuerza que empuja a un objeto hacia arriba en dirección opuesta al peso es la sustentación. En el caso de un avión o un pájaro, la elevación es creada por el movimiento del aire alrededor de las alas. El aire que se mueve sobre la ala lo hace con una velocidad distinta al aire que se mueve por debajo de la ala, creando así la sustentación. Hay dos maneras de lograr que esto suceda. Las alas pueden tener una superficie superior curvada y una superficie inferior más plana. Esto hace que el aire que fluye sobre la superficie superior de la ala se mueva más rápidamente. Y esto crea sustentación. O también se puede utilizar una ala plana y hacer que vuele con un ángulo de ataque con respecto al viento. Esta ala inclinada hace que el aire se mueva más rápidamente sobre ella, creando sustentación.
Las alas de los aviones modernos tiene una superficie superior curvada. La ilustración de abajo muestra dos tipos de líneas aerodinámicas; unas pasan sobre la ala y otras por debajo. El aire que corre más rápidamente hace que la presión baje en la parte superior de la ala, mientras que el aire más lento crea una presión más alta en la parte inferior de la ala. Las dos juntas hacen que se produzca la sustentación.
Según la tercera ley de Newton, para cada acción hay una reacción de igual magnitud, pero en dirección contraria. Por lo tanto, si las alas de un avión empujan el aire hacia abajo, la reacción resultante es un empuje hacia arriba del aire sobre las alas. Los aviones que tienen alas planas (en lugar de alas combadas o curvadas) deben inclinarlas para poder producir sustentación.
Por lo general, entre más rápidamente va volando un avión, mayor es la sustentación que se genera. Si la velocidad aumenta al doble, ¡la elevación aumenta cuatro veces!
Los coches de carreras también hacen uso de la sustentación. Sin embargo, ésta es sustentación negativa porque el perfil aerodinámico de las alas que usan estos coches produce sustentación que apunta hacia abajo. Esto ayuda a que los autos de carreras mantengan contacto con la pista cuando toman las curvas a alta velocidad.
Empuje
El empuje es generado por los motores del avión (o el aleteo de los pájaros). Los motores pueden usarse para hacer que hélices propulsoras den vuelta a gran velocidad o pueden ser motores de propulsión a chorro que expulsan gases calientes por la parte posterior. Si el empuje es lo suficientemente grande, logrará superar el peso del avión y la resistencia del aire, y el avión podrá volar.
Resistencia del aire
La fuerza de resistencia actúa en contra del empuje y retarda el movimiento del avión.
Hay cuatro tipos de resistencia:
Fricción - Conforme un avión viaja a través del aire, el aire debe circular alrededor del avión. El aire "roza" contra la piel metálica del avión. Esto tiende a retardar el movimiento del avión.
Resistencia de forma - La forma que tiene un avión hace que haya más o menos fricción. Si el avión tienen una forma "aerodinámica", el aire pasará alrededor de él con menos resistencia. Piensa por ejemplo en un trailer o un autobús. La parte plana de enfrente no es aerodinámica. Esto crea más resistencia y, por lo tanto, hace que se gaste más gasolina. Saca la mano por la ventana de un coche, con la palma hacia adelante; éste es un ejemplo de la forma que tiene la parte de enfrente de un trailer o un autobús. ¡Siente la resistencia del aire!
Resistencia inducida - Cuando las alas crean sustentación, también crean resistencia.
Resistencia de onda de choque - Cuando un avión viaja cerca a la velocidad del sonido o más rápidamente, el flujo del aire que corre alrededor del avión cambia, generándose una resistencia adicional.
Resumen
Las cuatro fuerzas del vuelo, el peso, la sustentación, el empuje, y la resistencia del aire son bien conocidas por los pilotos. Los pilotos de acrobacias aéreas utilizan estas fuerzas para divertir a la gente con sus piruetas espectaculares. Pueden hacer que el avión se detenga (pérdida de sustentación) en el aire y dejarlo caer en picada, y luego recuperarse en el último minuto y comenzar a volar otra vez normalmente. Estos pilotos también pueden apuntar el avión directamente hacia arriba y volar de esta manera hasta que el peso se vuelve mayor que el empuje y el avión comienza a caer de nuevo hacia la tierra. El piloto entonces vuelve a recobrar el control del avión para generar otra vez sustentación y volver a volar normalmente.