La Meditación

Publicado: 07/03/2011 en Cúltura, meditación, Salud

La meditación describe la práctica de un estado de atención concentrada, sobre un objeto externo, pensamiento, la propia consciencia, o el propio estado de concentración.

La meditación se caracteriza normalmente por tener algunos de estos rasgos:

  • Un estado de concentración sobre la realidad del momento presente
  • Un estado experimentado cuando la mente se disuelve y es libre de sus propios pensamientos
  • Una concentración en la cual la atención es liberada de su común actividad y focalizada en Dios (propio de las religiones teístas)Una focalización de la mente en un único objeto de percepción, como por ejemplo la respiración o una recitación de palabras constante.

Tipos de meditación

De acuerdo con Pérez De Albeniz & Holmes (2000), las diferentes técnicas de meditación pueden ser clasificadas de acuerdo a su enfoque. Algunos enfocan al campo de la percepción y la experiencia, también llamada de «conciencia plena» (mindfulness, en inglés). Otras enfocan a un objeto determinado, y son llamadas de «concentración». Hay también técnicas que intercambian el campo y el objeto de la meditación.

Categorizar las variedades de meditación es difícil. No obstante, dentro de las tradiciones religiosas esto resulta siempre más sencillo, si bien hay que notar que la meditación no tiene porqué tener trasfondo religioso, sino que es simplemente una herramienta.

Salud y efectos fisiológicos

Popularmente se considera a la meditación como un componente de las religiones orientales, si bien esto no es exacto. La meditación ha sido practicada durante más de 5000 años con propósitos intelectuales, religiosos o de salud. Actualmente al menos un estilo de meditación se ha probado efectivo para aumentar el cociente intelectual, mejorar la memoria e incluso cambiar partes del cerebro. Otros estilos de meditación otorgan igualmente distintos beneficios a la salud mental y física de sus practicantes, especialmente un mejoramiento de la inteligencia emocional y del sistema inmunitario. Entre los más comunes se encuentran el alivio del estrés y la bajada de la presión sanguínea.

Al analizar la actividad cerebral durante la meditación, usando un electroencefalograma, se puede apreciar que se pasa de las ondas beta (actividad normal, consciente y alerta, de 15-30 Hz) a ondas alfa (relajación, calma, creatividad, 9-14 Hz). En la meditación más profunda se pueden registrar ondas theta (relajación profunda, solución de problemas, 4-8 Hz) y en meditadores avanzadas se puede detectar la presencia de ondas delta (sueño profundo sin dormir, 1-3 Hz).

La meditación en diferentes culturas

La mayoría de las religiones tienen procedimientos o formas de meditación. En todas las culturas se considera la meditación como el proceso mental individual que puede transmitir estabilidad a los adoctrinados. En este sentido podemos hablar de tradiciones místicas en todas las religiones: el taoísmo, el chamanismo en sus múltiples expresiones, el zen y eldzochen en el budismo, el camino sufí en el Islam, la contemplación en el cristianismo, etc. La meditación está presente también en el eje de actividades como el yoga, las artes marciales (budō) o el Tai Chi Chuan. Se puede aprender meditación aunque uno no sea creyente de una religión. En ocasiones, los líderes de las religiones han hecho su mensaje sin crear una doctrina moral o social institucionalizada.

Las técnicas más populares y conocidas de meditación provienen de las dos religiones más conocidas de Oriente, elbudismo y el hinduismo.

A principios del siglo XX la mayoría de técnicas de meditación eran poco conocidas más allá de círculos académicos o religiosos. Durante el siglo XX se extendió su uso al gran público, si bien el desconocimiento de la amplia y compleja gama de técnicas de meditación ha causado que caiga sin demasiado rigor dentro del mercado de consumo, y en ocasiones en manos de grupos pseudo-religiosos o sectas.

Trastorno de Ansiedad

Publicado: 01/14/2011 en Salud

Es un estado que se caracteriza por un incremento de las facultades perceptivas ante la necesidad fisiológica del organismo de incrementar el nivel de algún elemento que en esos momentos se encuentra por debajo del nivel adecuado, o -por el contrario- ante el temor de perder un bien preciado.

La ansiedad tiene una función muy importante relacionada con la supervivencia, junto con el miedo, la ira, la tristeza o la felicidad.

Ante una situación de alerta, el organismo pone a funcionar el sistema adrenérgico. Por ejemplo, cuando el organismo considera necesario alimentarse, este sistema entra en funcionamiento y libera señales de alerta a todo el sistema nervioso central. Cuando se detecta una fuente de alimento para la cual se requiere actividad física, se disparan los mecanismos que liberan adrenalina, y se fuerza a todo el organismo a aportar energías de reserva para la consecución de una fuente energética muy superior a la que se está invirtiendo para conseguirla y que normalizará los valores que han disparado esa «alerta amarilla». En esos momentos el organismo, gracias a la adrenalina, pasa a un estado de «alerta roja».

El sistema dopaminérgico también se activa cuando el organismo considera que va a perder un bien preciado. En esta situación, el organismo entra en alerta amarilla ante la posibilidad de la existencia de una amenaza, que no es lo mismo que cuando la amenaza pasa a ser real, pues en ese caso lo que se libera es adrenalina.

Desde este punto de vista, la ansiedad se considera una señal positiva, de salud, que ayuda en la vida cotidiana, siempre que sea una reacción frente a determinadas situaciones que tengan su cadena de sucesos de forma correlativa: alerta amarilla, alerta roja y consecución del objetivo. Si la cadena se rompe en algún momento y esas situaciones se presentan con asiduidad, entonces el organismo corre el riesgo de intoxicarse por dopaminas o por otras catecolaminas. Esas situaciones ayudan al organismo a resolver peligros o problemas puntuales de la vida cotidiana.

En las sociedades avanzadas modernas, esta característica innata del hombre se ha desarrollado de forma patológica y conforma, en algunos casos, cuadros sintomáticos que constituyen el denominado trastorno de ansiedad, que tiene consecuencias negativas y muy desagradables para quienes lo padecen. Entre los trastornos de ansiedad se encuentran las fobias, el trastorno obsesivo-compulsivo, el trastorno de pánico, la agorafobia, el trastorno por estrés postraumático, el trastorno de ansiedad generalizada, etc.

En el caso del trastorno de ansiedad generalizada, la ansiedad patológica se vive como una sensación difusa de angustia o miedo y deseo de huir, sin que quien lo sufre pueda identificar claramente el peligro o la causa de este sentimiento. Esta ansiedad patológica es resultado de los problemas de diversos tipos a los que se enfrenta la persona en su vida cotidiana, y sobre todo de sus ideas interiorizadas acerca de sus problemas..

Los síntomas de ansiedad son muy diversos y tal vez los más comunes consistan en hiperactividad vegetativa, que se manifiesta con taquicardia, taquipnea, midriasis, sensación de ahogo, temblores en las extremidades, sensación de pérdida de control o del conocimiento, transpiración, rigidez muscular, debilidad muscular, insomnio, inquietud motora, dificultades para la comunicación, pensamientos negativos y obsesivos, etc.

La ansiedad se puede manifestar de tres formas diferentes: a través de síntomas fisiológicos, cognitivos y conductuales. Éstos hacen referencia a tres niveles distintos, los cuales pueden influirse unos en otros, es decir, los síntomas cognitivos pueden exacerbar los síntomas fisiológicos y éstos a su vez disparar los síntomas conductuales. Cabe notar que algunos síntomas de la ansiedad suelen parecerse a los de padecimientos no mentales, tales como la arritmia cardíaca o la hipoglucemia. Se recomienda a los pacientes someterse a un examen médico completo para descartarlos.

La ansiedad también puede convertirse en un trastorno de pánico, en el cual la persona cree que va a desmayarse, fallecer o sufrir algún otro percance fisiológico. Es común que las personas con este trastorno visiten la sala de urgencias con cierta frecuencia, y, típicamente, se sienten mejor después de ser atendidas.

En general se considera que la ansiedad es una condición que existe de por vida en cierto grado. No todos los pacientes responden de la misma manera a los tratamientos, pero un porcentaje importante de ellos pueden lograr una recuperación parcial o casi completa a largo plazo con la ayuda de la terapia psicológica (terapia cognitivo-conductual). Se cree que la prognosis de la ansiedad se ve afectada por la creencia común (posiblemente una creencia negativa e incorrecta) por parte de los pacientes de que su condición es especialmente grave, más grave que la de cualquier otra persona que se haya recuperado.

 

Florence Nightingale

Publicado: 01/12/2011 en Biografias, Enfermeria, sociedad

 

s considerada una de las pioneras en la práctica de la enfermería. Se le considera la madre de la enfermería moderna y creadora del primer modelo conceptual de enfermería. Destacó desde muy joven en la matemática, aplicando después sus conocimientos de estadística a la epidemiología y a la estadística sanitaria. Fue la primera mujer admitida en la Royal Statistical Society británica, y miembro honorario de la American Statistical Association.

Tipos de enfermería según el modelo

  • De la salud: arte que toda mujer debe aprender sobre conocimientos de higiene. La Enfermería cumple funciones independientes.
  • De la enfermedad: arte y cuerpo de conocimientos de otras disciplinas. Función dependiente totalmente o de manera parcial.

Definición de salud y enfermedad

Florence Nightingale definía enfermedad como el camino que utiliza la naturaleza para desembarazarse de los efectos o condiciones que han interferido en la salud. Y definía salud diciendo que la salud es no solamente estar bien sino ser capaz de usar bien toda la energía que poseemos. La enfermería, entonces, es tanto ayudar al paciente que sufre una enfermedad a vivir como poner o mantener el organismo del niño sano o del adulto en un estado tal que no padezca enfermedad.

Trabajo como enfermera

Florence se rebeló contra los prejuicios de su época y contra su destino de mujer que debía permanecer en el hogar y escogió la profesión de enfermera, que hasta ese momento estaba desprestigiada y se reservaba a los pobres. En 1853, tras una recomendación del secretario de Guerra Sidney Herbert, pasó a ser superintendente gracias a ciertos trabajos que realizó en contra de sus inclinaciones a determinados cargos dentro del Institute for the Care of Sick Gentlewomen.

Su mayor éxito fue su participación en la guerra de Crimea. Un informe suyo acerca de las condiciones de vida de los soldados heridos impulsó a Herbert a enviar allí a Nightingale. El 21 de octubre de 1854 Florence Nightingale y un batallón formado por 38 enfermeras voluntarias fue enviado a Crimea. En Scutari (hoy Üsküdar, Estambul), Nightingale y sus compañeras de trabajo reformaron y limpiaron el hospital, a pesar de la reacción de doctores y oficiales, e hicieron caer la tasa de mortalidad desde el 40% al 2%. Allí, Florence Nightingale contrajo la brucelosis.

Regreso a Inglaterra

Su regreso triunfal a Inglaterra se produjo el 7 de agosto de 1857. Dedicó el resto de su vida a promover su profesión. Fundó una escuela de enfermeras que lleva su nombre. Durante la guerra de Secesión en 1861 fue llamada por el gobierno de la Unión para que organizara sus hospitales de campaña durante la guerra la cual redujo del 44% de heridos al 2.2 %. También fue una experta estadística y una pionera de la epidemiología. Inventó el gráfico Diagrama de Área Polar, para exponer los resultados de sus reformas. En 1858, Florence Nightingale fue la primera mujer miembro de la Statistical Society. En 1859 publica Notas sobre hospitales y, más tarde, Notas sobre enfermería, dedicada a las amas de casa. En 1860 crea la primera escuela de enfermería en el Hospital de Santo Tomás con 15 alumnos. En 1883, la reina Victoria le otorgó la Royal Red Cross y, en 1907, fue la primera mujer condecorada con la Order of Merit.

Vida personal

Florence logró realizar su sueño de asistir a los enfermos después de enfrentarse a sus padres y familiares. Su madre Emily y su padre William se oponían a que su hija fuera enfermera ya que estaba mal visto que una mujer perteneciente a una clase alta desempeñara una tarea tan «denigrante»; la mujer debía casarse, formar y cuidar su familia. Sin embargo, Florence recibió ayuda de su abuelo materno, quien entendió su interés por esta profesión, aunque no quería eso para ella, y por otro lado ella misma buscó el apoyo de un amigo de la familia Nightingale, Samuel, médico de profesión, quien estaba secretamente enamorado. Florence tenía una hermana menor, llamada Clarise. Nunca se casó; dedicó su vida al servicio del prójimo y de aquellos que más lo necesitaban, buscando la forma de mejorar su salud y en otros casos de hacer más llevaderos sus últimos días.

Florence Nightingale es recordada sobre todo por su trabajo como enfermera durante la guerra de Crimea y por su contribución a la reforma de las condiciones sanitarias en los hospitales militares de campo. Sin embargo, lo que no se conoce tan bien sobre esta increíble mujer es su amor por las matemáticas, especialmente por la estadística, y cómo este amor jugó un papel importante en las labores que realizó durante su vida.

Nightingale lleva el nombre de la ciudad donde nació, la Villa Colombia en Florencia, Italia, el 12 de mayo de 1820. Sus padres, William Edward Nightingale y su esposa Frances Smith, viajaron por Europa durante los primeros dos años de su matrimonio. La hermana mayor de Nightingale había nacido un año antes en Nápoles. Los Nightingale llamaron a su primogénita el nombre griego de la ciudad, Parthenope.

William Nightingale se apellidaba Shore pero lo cambió a Nightingale después de heredar de un pariente rico, Peter Nightingale de Lea, cerca de Matlock, Derbyshire. La niñas crecieron en el campo y pasaban mucho tiempo en Lea Hurst en Derbyshire. Cuando Nightingale tenía unos cinco años su padre compró una casa llamada Embley cerca de Romsey en Hampshire. Con esto la familia pasaba los veranos en Derbyshire y el resto del año en Embley. Al viajar entre estos lugares visitaban Londres, la Isla de Wight y a parientes.

En un principio, la educación de Parthenope y Florence estuvo en manos de una institutriz, después su padre, educado en Cambridge, asumió esa responsabilidad. A Nightingale le encantaban sus lecciones y tenía una habilidad natural para estudiar. Bajo la influencia de su padre Nightingale se familiarizó con los clásicos, Euclides, Aristóteles, la Biblia y temas políticos.

En 1840 Nightingale suplicó a sus padres que la dejaran estudiar matemáticas en vez de trabajo de estambre y practicar las cuadrillas, pero su madre no aprobaba esta idea. Aunque William Nightingale amaba las matemáticas y había legado este amor a su hija, la exhortó a que siguiera estudiando temas más apropiados para una mujer. Después de muchas batallas emocionales, los padres de Nightingale finalmente le dieron permiso para que se le enseñara matemáticas. Entre sus tutores estuvo Sylvester, quien desarrolló la teoría de invariantes junto con Cayley. Se dice que Nightingale fue la alumna más destacada de Sylvester. Las lecciones incluían aritmética, geometría y álgebra y, antes de que Nightingale empezara con la enfermería, pasó tiempo enseñando estos temas a niños.

El interés de Nightingale en las matemáticas iba más allá de la materia en sí. Una de las personas que también influyeron en ella fue el científico belga Quetelet. Él había aplicado métodos estadísticos a datos de varios campos, incluyendo las estadísticas morales o ciencias sociales.

La religión jugó un papel importante en la vida de Nightingale. Su visión imparcial de la religión, inusual en su época, se debía a la actitud liberal que encontró en su hogar. Aunque sus padres crecieron en la Iglesia Unitaria, Frances Nightingale prefirió una denominación más convencional y a las niñas las criaron en la fe anglicana. El 7 de febrero de 1837, Nightingale creyó escuchar el llamado de Dios, mientras caminaba por el jardín de Embley, aunque en ese momento no sabía cuál era ese llamado.

Nightingale desarrolló un interés en los temas sociales de su épocas pero en 1845 su familia se oponía firmemente a la sugerencia de Nightingale de adquirir experiencia en un hospital. Hasta ese entonces, el único trabajo de enfermería que había hecho había sido cuidar de parientes y amigos enfermos. A mediados del siglo XIX la enfermería no era considerada una profesión adecuada para una mujer educada. A las enfermeras de la época les faltaba entrenamiento y tenían fama de ser mujeres burdas e ignorantes, dadas a la promiscuidad y a las borracheras.

Mientras Nightingale estaba en un viaje por Europa y Egipto iniciado en 1849, con los amigos de la familia Charles y Selina Bracebridge, tuvo la oportunidad de estudiar los distintos sistemas hospitalarios. A principios de 1850, Nightingale empezó su entrenamiento como enfermera en el Instituto de San Vicente de Paul en Alejandría, Egipto, que era un hospital de la Iglesia Católica. Nightingale visitó el hospital del Pastor Theodor Fliedner en Kaiserwerth, cerca de Dusseldorf en julio de 1850. Nightingale regresó a esa ciudad en 1851 para entrenar como enfermera durante tres meses en el Instituto para Diaconisas Protestantes y después de Alemania se mudó a un hospital en St. Germain, cerca de París, dirigido por las Hermanas de la Caridad. A su regreso a Londres en 1853, Nightingale tomó el puesto sin paga de Superintendente en el Establecimiento para damas durante enfermedades el número 1 de la calle Harley.

Marzo de 1854 trajo consigo el inicio de la Guerra de Crimea en la que la Gran Bretaña, Francia y Turquía le declararon la guerra a Rusia. Aunque los rusos fueron derrotados en la batalla del río Alma el 20 de septiembre de 1854, el periódico The Times criticó las instalaciones médicas británicas. En respuesta a ello, Sidney Herbert, Secretario de Guerra británico, le pidió a Nightingale en una carta a su amiga que se convirtiera en enfermera-administradora para supervisar la introducción de enfermeras en los hospitales militares. Su título oficial era Superintendente del Sistema de Enfermeras de los Hospitales Generales Ingleses en Turquía. Nightingale llegó a Escutari, un suburbio asiático de Constantinopla (hoy Estambul) con 38 enfermeras el 4 de noviembre de 1854 [2]:

su entusiasmo, su devoción y su perseverancia no cederían ante ningún rechazo o dificultad. Firme e infatigablemente se ocupaba de su trabajo con tal criterio, autosacrificio, valor, ternura y todo ello con una actitud tranquila y sin ostentación que se ganaba los corazones de todos aquellos a quienes sus prejuicios de oficiales no les impedían apreciar la nobleza de su trabajo y de su carácter.

Aunque ser mujer implicaba que Nightingale tenía que luchar contra las autoridades militares a cada paso, fue reformando el sistema hospitalario. Bajo condiciones que resultaban en soldados tirados sobre el suelo rodeados de alimañas y en operaciones nada higiénicas, no debe sorprendernos que cuando Nightingale llegó a Escutari las enfermedades como el cólera y el tifus cundieran en los hospitales. Esto implicaba que los soldados heridos tuvieran una probabilidad siete veces mayor de morir en el hospital de una enfermedad que de morir en el campo de batalla. Mientras estuvo en Turquía, Nightingale recolectó datos y organizó un sistema para llevar un registro; esta información fue usada después como herramienta para mejor los hospitales militares y de la ciudad. Los conocimientos matemáticos de Nightingale se volvieron evidentes cuando usó los datos que había recolectado para calcular la tasa de mortalidad en el hospital. Estos cálculos demostraron que una mejora en los métodos sanitarios empleados, produciría una disminución en el número de muertes. Para febrero de 1855 la tasa de mortalidad había caído de 60% al 42.7%. Mediante el establecimiento de una fuente de agua potable así como usando su propio dinero para comprar fruta, vegetales y equipamiento hospitalario, para la primavera siguiente la tasa había decrecido otro 2.2%.
Nighingale usó esta información estadística para crear su Diagrama de Área Polar, o ‘coxcombs’ como los llamó ella. Éstos fueron usados para dar un representación gráfica de las cifras de mortalidad durante la Guerra de Crimea (1854-1856). El área de cada cuña coloreada, medida desde el centro es proporcional a la estadística que representa. La parte exterior azul representa muertes debidas a enfermedades infecciosas prevenibles o mitigables

o, en otras palabras, enfermedades contagiosas como el cólera y el tifus. Los pedazos centrales rojos muestran las muertes por todas las demás causas. Las muertes en los hospitales de campo británicos alcanzaron su máximo en enero de 1855 cuando 2 761 soldados murieron por enfermedades contagiosas, 83 por heridas y 324 por otras causas, con un total de 3 168 muertes. El promedio de hombres en la armada ese mes fue de 32 393. Usando esta información, Nightingale calculó una tasa de mortalidad de 1 174 por cada 10 000, de los cuales 1 023 de cada 10 000 se debían a enfermedades infecciosas. De haber continuado así y sin la sustitución frecuente de tropas, entonces las enfermedades por sí mismas habrían acabado totalmente con el ejército británico en Crimea.

Sin embargo, estas condiciones insalubres no se limitaban a los hospitales militares de campo. Al volver a Londres en agosto de 1856, cuatro meses después de la firma del tratado de paz, Nightingale descubrió que en época de paz, los soldados de entre 20 y 35 años de edad tenían una tasa de mortalidad del doble de la de los civiles. Usando sus estadísticas, ilustró la necesidad de una reforma sanitaria en todos los hospitales militares. Al impulsar su causa, Nightingale consiguió llamar la atención de la Reina Victoria y el Príncipe Alberto así como la del Primer Ministro, Lord Palmeston. Sus deseos de llevar a cabo investigación formal le fueron concedidos en mayo de 1857 y llevaron al establecimiento de la Comisión Real para la Salud del Ejército. Nightingale se escondió de la atención pública y empezó a preocuparse por las tropas apostadas en la India. En 1858 se convirtió en la primera mujer electa socia de la Royal Statistical Society por sus contribuciones a las estadísticas del ejército y hospitalarias.\

En 1860 abrió la Escuela de Entrenamiento y Hogar Nightingale para Enfermeras en el hospital de St. Thomas en Londres, con 10 estudiantes. Era financiada por medio del Fondo Nightingale, un fondo de contribuciones públicas establecido en la época en que Nightingale estuvo en Crimea y que contaba con £50 000. La escuela se basaba en dos principios. El primero, que las enfermeras debían adquirir experiencia práctica en hospitales organizados especialmente con ese propósito. El otro era que las enfermeras debían vivir en un hogar adecuado para formar una vida moral y disciplinada. Con la fundación de esta escuela Nightingal había logrado transformar la mala fama de la enfermería en el pasado en una carrera responsable y respetable para las mujeres. Nightingale respondió a la petición de la oficina de guerra británica de consejo sobre los cuidados médicos para el ejército en Canadá y también fue consultora del gobierno de los Estados Unidos sobre salud del ejército durante la Guerra Civil estadounidense.

Casi durante el resto de su vida Nightingale estuvo postrada en cama debido a una enfermedad contraída en Crimea, lo que le impidió continuar con su trabajo como enfermera. No obstante, la enfermedad no la detuvo de hacer campaña para mejorar los estándares de salud; publicó 200 libros, reportes y panfletos. Una de esas publicaciones fue un libro titulado Notas sobre enfermería (1860). Este fue el primer libro para uso específico en la enseñanza de la enfermería y fue traducido a muchos idiomas. Las otras obras publicadas de Nightingale incluyen Notas sobre los hospitales (1859) y Notas sobre la enfermería para las clases trabajadoras (1861). Florence Nightingale creía firmemente que su trabajo había sido su llamado de Dios. En 1874 se convirtió en miembro honorífico de la American Statistical Association y en 1883 la Reina Victoria le otorgó la Cruz Roja Real por su labor. También fue la primera mujer en recibir la Orden al Mérito de mano de Eduardo VII en 1907.

Nightingale murió el 13 de agosto de 1910 a los 90 años. Está enterrada en la Iglesia de St. Margaret, en East Wellow, cerca de Embley Park. Nightingale nunca se casó, aunque no por falta de oportunidades.

El Monumento de Crimea, fue erigido en 1915 en Waterloo Place, Londres, para honrar la contribución que hizo Florence Nightingale a esa guerra y a la salud del ejército.

Es un avión cisterna para reabastecimiento en vuelo fabricado por la compañía Airbus Military basado en el modelo civil Airbus A310.

Características generales

  • Longitud: 46,66 m
  • Envergadura: 43,9 m
  • Altura: 15,81 m
  • Planta motriz: 2× turbofán Pratt & Whitney PW4152/6
    • Empuje normal: 233,5 kN de empuje cada uno.

Rendimiento

  • Velocidad nunca excedida (Vne): 851 km/h (Mach 0,81)
  • Alcance: 12.970 km

Nota: también puede ir equipado con motores Pratt & Whitney PW4152/6.

A310

Publicado: 01/11/2011 en Airbus, Aviación, aviación civil

E s un avión de pasajeros bimotor de medio a largo alcance y fuselaje ancho. Fue presentado en julio de 1978 por Airbus, el consorcio europeo de fabricación de aeronaves. El A310 se desarrolló como un derivado del A300, diferenciándose de este por ser un modelo con menor longitud y mayor alcance. Este modelo ha sido usado intensivamente en las rutas trasatlánticas.

La producción del A310 cesó de modo oficial en julio de 2007 (al igual que el A300). A pesar de esto, la última entrega de un avión A310 se hizo en junio de 1998. A fecha de agosto de 2010, un total de 255 A310 fueron entregados, de los cuales 208, estaban todavía operativos.

El proyecto fue lanzado en julio de 1978 por petición de Lufthansa y Swissair. Inicialmente fue llamado A300 B10. Las principales diferencias entre éste y el A300 eran:

  • Fuselaje acortado, pero con la misma sección, lo que reduce la capacidad hasta los 200 pasajeros.
  • Ala rediseñada, por British Aerospace, que se unió de nuevo al consorcio Airbus.
  • Deriva reducida

El avión estaba pensado para aerolíneas en fase de expansión que deseasen probar los aviones de fuselaje ancho, pero debido al éxito del A330, no se esperan nuevos pedidos de A310. Era el avión ideal para rutas intercontinentales con una demanda media-baja, ya que se puede decir que el A310 es una versión reducida del A300. En total Airbus ha construido 255 aviones de este modelo.

Modelos

-A310-2oo: El primer A310 fue el 162º avión que salió de la línea de producción de Airbus, volando por primera vez en 1982. Entró en servicio un año después con Air Algérie, Lufthansa y Swissair. Está propulsado por 2 motores JT9D.

A 310-300: Voló por primera vez en julio de 1985. En esta versión se ha incrementado el peso máximo al despegue y el alcance con tanques de combustible adicionales. Este modelo introducía los winglets para mejorar la eficiencia aerodinámica. Entró en servicio en 1986 con Swissair.

A310-C: Este modelo convertible puede producirse a partir de los modelos anteriores, denominándose respectivamente A310-200C y A310-300C.

A310-F: Versión de carga. Como no se construyó ningún carguero de este modelo, algunos modelos de pasajeros fueron adaptados bajo esta denominación, como los que opera FedEx.

 

 

A 300

Publicado: 01/09/2011 en Airbus, Aviación, aviación civil

Es un avión de pasajeros de medio-largo alcance, de fuselaje ancho, fabricado por Airbus, el consorcio europeo desarrollado para la fabricación de aeronaves. Fue el primer avión de pasajeros de fuselaje ancho bimotor del mundo.

Airbus empleó la última tecnología disponible, de las cuales algunas provenientes del Concorde. Cuando entró en servicio en 1974 el A300 era técnicamente muy avanzado, y tuvo gran influencia en los diseños posteriores de aviones subsónicos. Las novedades tecnológicas eran:

  • Alas mejoradas diseñadas por De Havilland (posteriormente BAe Systems) con:
    • Sección supercrítica de las superficies de control para una eficiencia económica excelente.
    • Controles de vuelo aerodinámicamente eficientes mejorados.
  • Fuselaje circular de 5,64 m de diámetro mejorado, que permite 8 pasajeros por fila.
  • Estructuras de fibra metálicas, por lo que se reduce el peso.
  • Alto grado de automatización, por lo que se requiere la intervención del ingeniero de vuelo sólo en caso de emergencia.
  • Piloto automático avanzado, que puede dirigir la aeronave desde el ascenso hasta el aterrizaje.
  • Sistema de vuelo gestionado de forma electrónica fly-by-wire.

Más tarde se introdujeron las siguientes mejoras:

  • Reducción de la tripulación a 2 personas gracias a la automatización de las labores del ingeniero de vuelo (desarrollado a petición de Garuda Indonesia).
  • Uso intensivo de los materiales compuestos.
  • Intrumentos de navegación electrónicos.
  • Control del centro de gravedad mediante el trasvase de combustible entre los depósitos.
  • Primer avión en usar Wingtip para mejorar la aerodinámica.
  • Controles de vuelo sensibles para facilitar el control (Causa del Vuelo 587 de American Airlines)

Todo esto convirtió al A300 en el perfecto sustituto de los antiguos aviones de fuselaje ancho trirreactores, como el McDonnell Douglas DC10 o el Lockheed Tristar para rutas de medio alcance. En las primeras versiones del avión, Airbus incluso usó los mismos motores que el DC10. Las aerolíneas asiáticas usaron el A300 como complemento de sus trimotores en estas rutas.

Después del lanzamiento, las ventas del A300 fueron pocas durante algunos años, siendo la mayor parte de los pedidos provenientes de aerolíneas que tenían la obligación de comprar productos locales (especialmente Air France y Lufthansa). En cierto momento, debido a la crisis del petróleo, Airbus tuvo 16 ejemplares sin vender aparcados con el fuselaje todo blanco esperando comprador.

En 1977 Eastern Airlines se interesó por el modelo y alquiló cuatro A300 para probar como se adaptarían a sus rutas y a su flota, hasta ese momento compuesta exclusivamente por modelos americanos. Posteriormente compró 23, y desde entonces el A300 se vendió en gran cantidad, hasta alcanzar la cifra actual de 843 ejemplares fabricados.

El 15 de diciembre de 1977 AeroCóndor Colombia fue la primera aerolínea en Latinoamérica en recibir el A300, con número de construcción 029 matriculado como HK-2057 y bautizado “Ciudad de Barranquilla” el cual fue operado por más de una año por esta aerolínea, en las rutas hacia Miami que se originaban desde: Bogotá, Barranquilla y Medellín.

Fue muy usado por las compañías asiáticas. Lo usaron Japan Air System, Thai Airlines International, Singapore Airlines, Malaysia Airlines, Garuda Indonesia, China Airlines, PIA, Indian Airlines, Trans Australia Airlines y otras. Como en Asia no rige la normativa ETOPS para los aviones bimotores, estas aerolíneas los usaron para rutas a través del golfo de Bengala y el mar de China meridional. Los australianos lo usaban en rutas domésticas y transcontinentales.

El A300 dio a Airbus la experiencia de fabricar y vender aviones de forma competitiva. El fuselaje del A300 fue posteriormente acortado (A310), alargado (A330 y A340) o modificado (Airbus Beluga). Boeing respondió a este modelo con el B767.

La versión actual es el A300-600R, que está ratificado ETOPS para 180 minutos, siendo esta la mejor versión de la serie, y la última, pues se paró la producción del A300 en julio de 2007.

Modelos

A300B1

Sólo se construyeron 2: el primer prototipo y otro ejemplar que fue vendido a una aerolínea. Puede llevar 259 pasajeros con un peso máximo en despegue de 132 toneladas. Está impulsado por 2 motores General Electric CF6-50.

A300B4

Similar al B2, pero el peso máximo al despegue se ha incrementado hasta las 157 toneladas. La producción del B2 y el B4 juntos fue de 248 ejemplares.

A300FFCC

El primer avión que solo necesita 2 tripulantes. Entró en servicio con Garuda Indonesia y Varig.

A300-600

La versión actual entró en servicio en 1988, tiene la misma longitud que la B2 y la B4, pero con más espacio interior porque usa la cola y el fuselaje trasero del A310. Posee turbinas más potentes (General Electric CF6-80 o Pratt & Whitney PW4000), y está disponible en versión de pasajeros y de carga, y es el modelo base para el Airbus Beluga o Airbus A300-600ST. Se han fabricado 300 ejemplares.

Boeing 747

Publicado: 01/09/2011 en Aviación, aviación civil, Boeing

es un avión comercial transcontinental de fuselaje ancho fabricado por Boeing. Conocido por su impresionante tamaño, está entre los aviones más reconocibles del mundo. Realizó su primer vuelo comercial en 1970, siendo el primer avión con fuselaje ancho. Su rival más directo es el aún mayor Airbus A380.

Los cuatro motores turbofán del 747 son producidos por Pratt & Whitney, cuya referencia JT-9D fue inaugurada con el avión y han sido usados por otros aviones de fuselaje ancho como el Douglas DC-10. Su segundo piso en la parte anterior de la cabina ha hecho de los 747 un icono altamente reconocible del transporte aéreo. Una disposición típica en 3 clases acomoda a 416 pasajeros, mientras que una disposición de 2 clases acomoda un máximo de 524 pasajeros. El 747-400, la versión más reciente en servicio, vuela a velocidades subsónicas de Mach 0,85 (unos 913 kilómetros por hora), y ofrece un radio de acción intercontinental de 7.260 millas náuticas (13.446 kilómetros).

Se esperaba que los 747 estuviesen obsoletos después de unas ventas de 400 unidades, pero han sobrevivido a todas las expectativas, y, pasadas las críticas, la producción llegó a 1.000 unidades en 1993. En junio de 2007 se habían construido 1.387 aviones, con otros 120 en diversas configuraciones bajo pedido. El desarrollo más reciente de este avión, el 747-8, se planea incorporar al servicio en 2010, siendo Lufthansa el cliente de lanzamiento.

El 747 es uno de los aviones más seguidos por el público, ya que la así llamada «Reina de los cielos» (Queen of the Skies) permitió a millones de personas realizar vuelos internacionales. Además fue el primer avión civil de fuselaje ancho, el más largo y el más pesado, y pionero en la utilización de motores turbofán de alta relación de derivación, menos contaminantes y ruidosos que los turborreactores convencionales.

El príncipe saudí Al Waleed bin Talal Abdulaziz Al Saud ha sido el único propietario particular de uno de estos aviones.

En 1963, la Fuerza Aérea de los Estados Unidos (USAF) comenzó una serie de estudios de proyectos para una gran aeronave «estratégica» de transporte. Como el Lockheed C-141 Starlifter se encontraba en el proceso de ser introducido, los militares sentían que se necesitaba una aeronave mucho más larga y de mayor capacidad, especialmente capaz de llevar carga superior a la que podían llevar aviones existentes. Estos estudios resultaron en el requerimiento «CX-X» (Cargo, Experimental, sin número) diseñado para responder a una capacidad de carga de 180,000 libras (81,600 kg) y una velocidad de Mach 0.75 (500 mph / 805 km/h), y un alcance sin repostaje de 5.000 millas náuticas (9.260 km) con una carga útil de 115.000 libras (52.200 kg). La unidad de carga debía tener 17 pies (5.18 m) de ancho y 13.5 pies (4.11 m) de alto, con 100 pies (30,5 m) de largo, con accesos que incluyeran portones en el frontal y en la trasera del fuselaje.

Los diseños iniciales se hicieron con muchas variantes que incluían seis motores. Sin embargo todos los diseños considerados no sobrepasaban significativamente el avance del C-141 para que valiera la pena someterlos a desarrollo. Se finalizó una nueva lista de criterios para un «Sistema Pesado de Logística» (Heavy Logistics System o CX-HLS) y se envió una Solicitud de Participación oficial el 27 de abril de 1964 . Esto incluía sólo cuatro motores, el diseño también requería el diseño de nuevos motores con un incremento de potencia significativo y mejor economía de combustible. El 18 de mayo de 1964 se recibieron propuestas de aviones de Boeing, Douglas, General Dynamics, Lockheed y Martin Marietta; mientras que las propuestas de motores provenían de General Electric, Curtiss-Wright y Pratt & Whitney. Tras una selección, Boeing, Douglas y Lockheed fueron avalados con contratos de estudio para el cuerpo del avión, al tiempo que General Electric y Pratt & Whitney lo eran para las plantas motrices.

Las tres propuestas de los fabricantes de aviones compartían un gran número de características, pero una en particular se hizo icónica en el 747. Como el CX-HLS necesitaba ser cargado desde el frente, una puerta debía colocarse donde usualmente se encontraba la cabina. Todas las compañías resolvieron este problema al mover la cabina sobre el área de carga; Douglas tenía un pequeño cubículo justo delante y encima del ala, Lockheed usaba una larga «espina» que recorría todo el fuselaje con la unión de las alas pasando por ella, mientras que Boeing juntaba las dos, con un espacio más largo que iba desde justo atrás de la nariz, hasta donde terminaba la junta de las alas.

En 1965 el diseño de Lockheed y la motorización de General-Electric fueron seleccionados para el nuevo transporte, el también destacable Lockheed C-5 Galaxy.

El 747 fue concebido cuando los viajes se estaban incrementando en los años sesenta, década a la que se refiere comúnmente como la era dorada de la aviación. Esta nueva era de transporte comercial en jet, fue posible gracias a la enorme popularidad del Boeing 707 y el Douglas DC-8, que revolucionaron el viaje de largas distancias. Tras perder el contrato del CX-HLS, Boeing fue presionada por Juan Trippe, el presidente de Pan Am (Pan American World Airways), una de sus aerolíneas-clientes más importantes, para que construyeran un avión de pasajeros que duplicara la capacidad del Boeing 707. Durante este período, la congestión aeroportuaria, empeorada por el ascendente número de pasajeros que debían ser transportados en aviones relativamente pequeños, se convirtió en el problema que Trippe pensaba que podía resolver un avión mucho más grande.

En 1965, Joe Sutter fue transferido del equipo de desarrollo del Boeing 737 para que controlara los estudios de un nuevo avión de pasajeros, cuyo número ya se había asignado: 747. Sutter comenzó un estudio de diseño con Pan Am y otras aerolíneas, para comprender mejor los requerimientos de los clientes. Por ese entonces, se pensaba que de poder realizarse el transporte de pasajeros supersónico un avión como el 747 sería fácilmente superado o se convertiría en una pieza obsoleta. Boeing respondió a esto diseñando el 747 de tal forma que se pudiera adaptar fácilmente como avión de carga y su producción fuera justificable si su venta como avión de pasajeros decaía. Como carguero, la necesidad clara era la de poder transportar contenedores que usaran las metodologías del embarque marítimo, que fueron introducidos una década atrás y que se convertían claramente en la nueva solución al transporte de carga. Los contenedores estándar eran de 8 X 8 pies (2.4 X 2.4 m) en el frente (un poco más altos si se consideran los puntos de sujeción) y un largo que variaba entre los 20 o los 40 pies de largo (de 6 a 12 m). Esto significaba que era posible introducir dos contenedores a lo ancho y a lo alto con dos o tres de ellos hacia el fondo si se tienen en cuenta los requerimientos del proyecto del primer CX-HLS.

En abril de 1966, Pan Am encargó veinticinco 747-100, por un valor de 525 millones de dólares estadounidenses. Durante el banquete de ceremonia de celebración del contrato del 747 en Seattle en el 50mo Aniversario de Boeing, Juan Trippe predijo que el 747 iba a ser «una gran arma para la paz, que competirá con los misiles intercontinentales en su papel por el destino de la humanidad«, de acuerdo a Malcolm T. Stamper, uno de los directores en jefe del programa del 747 de la época. Como cliente de lanzamiento, y debido a su influencia antes de sentar la orden formal, Pan Am tenía facultades para influir el diseño y el desarrollo del 747 más allá que cualquier aerolínea de antes o ahora.

Al final, el diseño de plano alto del CX-HLS no fue usado por Boeing en el 747, ya que tecnologías desarrolladas por la compañía le suplantarían. El diseño original incluía un fuselaje de dos pisos del mismo tamaño, con filas de ocho asientos y dos pasillos en la cabina de abajo, y filas de 7 asientos y dos pasillos en la cabina de arriba. Sin embargo preocupados por trazar rutas de evacuación efectivas y no limitar las capacidades de carga abandonaron esta idea a comienzos de 1966 en favor de un fuselaje más ancho. La cabina de mando estaba, por lo tanto, situada en un reducto del pasillo superior de manera que una compuerta frontal de carga que se instalara pudiera incluir el cono de la nariz; esta característica de diseño produjo esta «joroba» distintiva del 747. En los primeros modelos no estaba claro qué hacer con el pequeño espacio detrás de la cabina, ya que al suprimir el pasillo superior esta joroba subsistió como parte de la aerodinámica del fuselaje y no le fue destinada a la colocación de asientos permanentes.

Una de las tecnologías principales establecidas en una avión tan grande como el 747 fue la concepción de motores turbofán de alto flujo. La tecnología de los motores se hizo para duplicar la potencia de los primeros turbojet mientras consumían un tercio menos de combustible. General Electric era pionera en el concepto pero estaba comisionada para producir las plantas motrices del C-5 Galaxy y entró en el mercado comercial un tiempo después. Pratt & Whitney sin embargo trabajaba en el mismo concepto y, a finales de 1966, Boeing, Pan Am y Pratt & Whitney acordaron el desarrollo de un nuevo motor, denominado JT-9D para el 747

El proyecto fue diseñado con la nueva metodología denominada análisis del árbol de fallos, que permitía calcular los efectos de un fallo en una parte sencilla y determinar su impacto en otros sistemas. Para dirigir enfoques de seguridad y fiabilidad, el diseño del 747 incluyó redundancia estructural, sistemas hidráulicos de respaldo, cuadruplicar el tren de aterrizaje principal y duplicar los controles de superficies. Adicionalmente, algunos de los más avanzados dispositivos de alta elevación fueron añadidos en el nuevo diseño para que pudiera operar en los aeropuertos existentes. Estos incluían slats en el borde de ataque de las alas que la recorrían completamente, y un complejo sistema de flaps de tres capas en el borde anterior de las mismas. Este montaje bajo el ala permite a los flaps capturar más flujo de aire bajo ellos, por lo cual incrementa el “efecto suelo” (este sucede cuando el volumen de aire bajo el avión a bajas altitudes le permite «flotar» con mayor facilidad, y casi siempre es proporcional al área de las alas de un avión).

Boeing acordó entregar el primer 747 a Pan Am a finales de 1969. La fecha de entrega dejaba solamente 28 meses, dos terceras partes del tiempo normal. El horario estaba tan apretado que las personas que trabajaban para el proyecto fueron apodadas como «The Incredibles» o, Los Increíbles. Desarrollar el avión fue un reto técnico y financiero tan arduo, que en la administración del mismo dijeron que tuvieron que «apostar la compañía» cuando lo iniciaron.

Debido a que Boeing no tenía una planta lo suficientemente grande para ensamblar este avión, hubo que construir una. La compañía consideró posibles ubicaciones en más de 50 ciudades, y eventualmente se inclinó por hacer una nueva planta a unas 30 millas (48 km) al norte de la ciudad de Seattle en un sitio adjunto a la base militar Paine Field cerca de Everett (Washington). Compraron un área de 780 acres (316 hectáreas) en junio de 1966.

Desarrollar el 747 fue un reto mayor, y construir una planta para producirlo también fue una gran labor. El presidente de Boeing, William M. Allen llamó a Malcom T. Stamper, por entonces a la cabeza de la división de turbinas de la compañía, para que inspeccionara la construcción de la fábrica en Everett y empezara la construcción del 747. Para nivelar el suelo, se tuvieron que mover más de 3,1 millones de metros cúbicos de tierra. Se disponía de tan poco tiempo que el modelo de comprobaciones a escala real del 747 fue construido antes que el techo de la fábrica que iba sobre él. La planta es el edificio con el mayor volumen interno jamás construido hasta ahora.

Antes de que el primer 747 fuera ensamblado, las pruebas comenzaron con muchos componentes y sistemas. Una prueba importante tenía que ver con la evacuación de 560 voluntarios dentro del fuselaje del modelo de pruebas, usando las escotillas de escape de emergencia del avión. La primera evacuación a escala real tomó dos minutos y medio, excediendo los 90 segundos que determinaba la FAA (Federal Aviation Administration, Administración Federal de Aviación), y muchos voluntarios resultaron heridos. Evacuaciones de prueba posteriores lograron el tiempo estimado de los 90 segundos pero causaban muchos perjudicados. La parte más complicada era la evacuación de la división superior; los pasajeros voluntarios, en vez de usar la resbaladera convencional, escapaban usando arneses enganchados a una cuerda.

Boeing construyó un dispositivo de entrenamiento inusual conocido como el “Waddell’s Wagon” (en mención a un piloto de pruebas de 747, Jack Waddell) ó la «Mantis Religiosa» que consistía en un modelo de cabina montado en el techo de un camión que albergaba andamios y otras estructuras. Mientras el primer 747 se seguía construyendo, el dispositivo permitía a los pilotos la práctica de maniobras de rodaje desde la altura real a la que iría montada la cabina del avión, que por entonces era (y aún hoy en día lo es) bastante inusual.

El 30 de septiembre de 1968, el primer 747 salió del edificio de ensamblaje en la planta de Everett, precediendo las ruedas de prensa y las auxiliares de tripulación uniformadas que representaban a cada una de las 26 aerolíneas que encargaron el avión.

Durante los meses siguientes, se realizaron los preparativos para el primer vuelo, que tuvo lugar el 9 de febrero de 1969, con los pilotos de pruebas Jack Waddel y Brien Wygle en los controles, y Jess Wallick como ingeniero de vuelo. A pesar de algunos pormenores con uno de los flaps, el vuelo comprobó que el 747 se maniobraba estupendamente. El avión resultó ser sumamente inmune al “balanceo del holandés” (Dutch roll), un fenómeno en el que ocurren dos movimientos alternativos simultáneamente (por ejemplo se mueve la nariz a un lado al mismo tiempo que el avión alabea en dirección opuesta), y al cual eran muy vulnerables los primeros jets de alas grandes.

Luego de varias etapas del programa de vuelos de prueba, las pruebas de vibración de superficies (flutter testing) mostraron que las alas oscilaban bajo ciertas condiciones. El inconveniente se resolvió parcialmente reduciendo la rigidez de algunos componentes del ala. Sin embargo, una vibración severa de alta velocidad fue resuelta usando contrapesos de uranio enriquecido (DU) como lastres en el exterior de las barcazas de los motores en los primeros 747s. Aunque esta medida era medianamente común, causaba preocupaciones cuando uno de estos aviones se estrellaba, como en el caso del vuelo 358 de China Airlines en Wanli en 1991, y el vuelo 1862 de El Al en Ámsterdam en 1992.

El programa de vuelos de prueba estuvo obstaculizado por problemas con los motores Prat & Whitney JT9D del avión. Las dificultades incluían pérdidas en los motores causadas por movimientos rápidos en las palancas de control y distorsión de las cubiertas de las turbinas después de un corto período de servicio. Los problemas retrasaron la entrega de los 747 por varios meses y dejaron varados a cerca de 20 aviones en la planta de Everett mientras esperaban su instalación. El programa sufrió un grave retraso cuando uno de los cinco aviones de prueba sufrió serios daños durante un intento de aterrizaje en el aeropuerto de Renton Municipal, lugar en donde se encuentra la planta de Boeing de Renton. El avión de prueba se encontraba durante su prueba de vuelo con equipo renovado y cabina recién instalada cuando el piloto Ralph C. Cokely se salió de la corta pista y rompió el tren de aterrizaje. Sin embargo estas dificultades no detuvieron a Boeing para llevar uno de sus aviones de prueba a la 28mo Espectáculo Aéreo de París a mediados de 1969, donde fue mostrado por primera vez al público general. El 747 obtuvo su certificado de aeronavegabilidad de la FAA en diciembre de 1969, quedando listo para su entrada en servicio.

El alto costo de desarrollo del 747 y del edificio en la planta de Everett significaron que Boeing se endeudó seriamente con un sindicato bancario. Durante los meses finales de la entrega del primer avión, la compañía tuvo que solicitar repetidamente fondos adicionales para completar el proyecto. De ser rechazados, la supervivencia de Boeing habría durado muy poco. Finalmente la apuesta resultó y Boeing se puso al frente de un monopolio de producción de grandes aviones de pasajeros durante muchos años.

El 15 de enero de 1970, la Primera Dama de los Estados Unidos Pat Nixon bautizó el primer 747 de Pan Am en el Aeropuerto Internacional Dulles (luego renombrado Washington Dulles International Airport) en presencia del presidente de Pan Am Najeeb Halaby. En vez de champán, el avión fue rociado con agua roja azul y blanca. El 747 entró en servicio el 22 de enero de 1970, en una ruta de Pan Am desde Nueva York hasta Londres; el vuelo fue planeado para la noche del 21 de enero, pero un recalentamiento de los motores hizo que el avión destinado para esta labor no pudiera usarse. Encontraron un sustituto que hizo el histórico vuelo con más de seis horas de retraso el día siguiente.

El 747 tuvo una entrada en servicio bastante cómoda, en contraposición a las preocupaciones de quienes opinaban que muchos aeropuertos no iban a poder acomodar un avión tan grande. Se presentaron algunos problemas técnicos, pero eran relativamente pequeños y pudieron resolverse fácilmente. Después de la introducción del avión con Pan Am, otras aerolíneas que habían comprado el 747 comenzaron a usarlo con el fin de mantenerse competitivas ante el cliente inaugural. Boeing estimó que la mitad de las primeras ventas de 747 fueron a aerolíneas que requerían el largo alcance del avión en vez de su mayor carga útil. Como el 747 tenía como potencial el menor costo operativo por asiento solamente si era llenado en su totalidad, los costos por asiento se incrementaban rápidamente si la ocupación bajaba. Esto se debía a que el consumo de combustible de un 747 moderadamente cargado, que tuviera el 70 por ciento de sus asientos ocupados, usaba más del 95 por ciento del combustible requerido por un 747 completamente fletado.

Los problemas económicos en los Estados Unidos y otros países después de la crisis del petróleo de 1973 hicieron que el tráfico de pasajeros disminuyera considerablemente, y muchas aerolíneas encontraron que no tenían pasajeros suficientes para emplear el 747 de forma económica, y los reemplazaron con los más pequeños y recientemente introducidos Douglas DC-10 y Lockheed L-1011 TriStar, que también son aviones de fuselaje ancho (y luego el bimotor Boeing 767 y el Airbus A300). American Airlines trató de atraer más clientes quitando algunos asientos para poner una barra con piano, y eventualmente relegaron sus 747s al servicio de carga hasta que en 1983 cambiaron sus 747s con Pan Am por aviones más pequeños; Delta Air Lines también sustituyó sus 747s luego de varios años de servicio.

Los vuelos internacionales que sobrepasaban los aeropuertos tradicionales y aterrizaban en ciudades más pequeñas se volvieron más comunes durante los años ochenta, devolviendo a los 747s al mercado para el que originalmente estaban hechos. Sin embargo, muchas aerolíneas de carga siguieron usando el 747 en rutas sobre el Pacífico. En Japón, las rutas domésticas de 747 se configuraron para llevar cerca de la máxima capacidad de pasajeros.

El 747 rápidamente alcanzó un estatus de icono, apareciendo en varias producciones cinematográficas como la serie de películas de Airport, Air Force One y Executive Decision (Decisión Crítica).

Luego del modelo inicial 747-100, Boeing desarrolló la variante -100B con mayor peso de despegue y la versión -100SR (Short Range o Alcance Corto) con mayor capacidad de pasajeros. Incrementar el peso máximo de despegue permitía a un avión el poder llevar más combustible y tener mayor alcance. El modelo -200 que siguió, entró en servicio en 1971. Éste incorporaba motores más potentes y mayor peso de despegue. Se produjeron versiones de pasajeros, carga y uso combinado. A mediados de los años setenta apareció el 747SP (Special Performance) una versión de alcance máximo alargado que se caracterizaba por su fuselaje corto.

La línea del 747 tuvo un desarrollo más notable con la aparición del 747-300 en 1980. El -300 resultó de estudios de Boeing en orden de incrementar la capacidad de pasajeros para el 747. Soluciones como tanques de punta de ala y un segundo piso que se extendiera a lo largo de todo el fuselaje fueron rechazadas. La primera designación para la versión -300 fue 747SUD (“stretched upper deck” o compartimiento superior alargado) y luego 747-200 SUD, seguida por 747EUD,a ntes de que la designación 747-300 fuera usada. El modelo -300 se produjo por primera vez en 1983. Incluía un alargamiento de la parte superior del fuselaje (SUD), una velocidad de crucero mayor y más acomodación para pasajeros. Se produjeron las versiones de pasajeros, Short Range (alcance corto) y varias combinaciones de pasajeros-carga.

En 1985 comenzó el desarrollo del 747-400. La nueva variante tendría una cabina con un novedoso tablero de vidrio (glass cockpit) que permitía que al tripulación de la cabina fuera de dos personas en vez de tres. Los costos de desarrollo se elevaron, y los retrasos en la entrega de la producción se daban en la medida en que las aerolíneas ordenaban las nuevas tecnologías. Una mano de obra de insuficiente experiencia y poco confiable durante este tiempo contribuyó a los primeros problemas en la producción del 747-400, que finalmente entró en servicio en 1989.

Desde la llegada del 747-400, se han propuesto varios tipos de alargamiento para el 747. Boeing anunció los diseños de las versiones alargadas 747-500X y -600X en 1996. Sin embargo el desarrollo de estas nuevas variantes costaría más de 5.000 millones de dólares, y no hubo demasiado interés en lanzar el programa. Boeing ofertó también el más modesto 747X y 747X Stretched que llegarían el año 2000 para contrarrestar la competencia del Airbus A3XX. Sin embargo la familia 747X tampoco atrajo mucho interés en ser desarrollada. Boeing pasó del 747X a realizar estudios que permitieran desarrollar el Sonic Cruiser en 2001 (un transporte de pasajeros supersónico) y, luego de ponerlo en espera, lanzó el 787. Varias ideas del estudio de desarrollo del 747X fueron usadas en el 747-400ER. Luego de tantas variantes propuestas y abandonadas, muchos analistas de la industria se volvieron escépticos de nuevos desarrollos de Boeing. Sin embargo, a comienzos de 2004, Boeing anunció planes sólidos de hacer un 747 Advanced que finalmente se concretaron. Similar a lo planeado con el 747X, el 747 Advanced usaría tecnología del 787 para modernizar el diseño y sus sistemas.

El 14 de noviembre de 2005, Boeing anunció que lanzaría su programa de 747 Advanced como el Boeing 747-8.

El 747 se mantuvo como el avión de pasajeros más grande hasta la entrada en servicio del Airbus A380 que comenzó a operar en 2007. En 1991, se batió la marca de 1.087 pasajeros que fueron transportados en 747 como parte de la Operación Solomón. El 747F (Freighter) fue el avión de carga de servicio regular más pesado antes de la puesta en servicio del Antonov An-124 soviético en 1984. El 747-400ER retomó este título en el año 2000. El avión carguero Antonov An-225 Myria (basado en el An-124 y con dos motores más que éste) se mantiene aún como el avión más grande del mundo por varios factores (incluyendo las más altas medidas de peso máximo de despegue y largo total). El Hughes H-4 Hercules continúa siendo el avión de mayor envergadura alar, pero voló solamente una vez. Sólo se han producido dos Antonov An-225 y sólo uno de ellos continuó volando hasta 2007, mientras que el 747 y el Airbus A380 se hicieron para una producción masiva seria.

Algunos aviones 747 se han adaptado a usos especiales. Un 747-100 de propiedad de General Electric es usado como modelo de pruebas para sus motores como el General Electric GEnx. Un prototipo de aeronave de bomberos fue construida por Evergreen International. Eventualmente el 747 fue reemplazado por el nuevo diseño de la “Y3” (la última etapa del proyecto a largo plazo Yellowstone de renovación tecnológica que prevé el reemplazo de aviones actuales de la familia Boeing).

Curiosidades

* El 747-400 tiene seis millones de piezas diferentes, la mitad de ellas de sujeción
* El 747-400 cuenta con 274 Km. de cableado y 8 Km. de tuberías
* El 747-400 está compuesto por 66.150 Kg. de aluminio de alta resistencia
* El 747-400 tiene 16 ruedas en su tren de aterrizaje principal y 2 ruedas en el tren de aterrizaje delantero
* La altura de la cola del 747-400 (19,4 m.) equivale a un edificio de seis pisos
* El ala del 747-400 pesa 43.090 Kg., tres veces más que el primer avión de Boeing, el B&W de 1916.
* El ala del 747-400 mide 524,9 m2, una superficie lo suficientemente grande para albergar 45 automóviles de tamaño medio
* ¿Cuanto peso adicional supone la extensión de la punta del ala y la aleta (winglet) de 1,8 m.? Ninguno! Se ha conseguido un ahorro de 2.270 Kg. en las alas al utilizar nuevas aleaciones de aluminio, neutralizando de esta forma el incremento de peso derivado de la extensión de la punta alar y “winglet”
* Se utilizaron 75.000 dibujos de ingeniería para construir el primer 747
* El primer 747 realizó pruebas de 15.000 horas en túnel de viento
* El programa de pruebas de vuelo del 747 original, que condujo a la certificación del avión para uso comercial en diciembre de 1969, utilizó cinco aviones, duró 10 meses y requirió más de 1.500 horas de vuelo.
* La flota de aviones 747 ha registrado más de 56.000 millones de Km., suficiente para hacer 74.000 viajes de ida y vuelta a la luna.
* La flota de aviones 747 ha transportado 3.500 millones de personas, lo que equivale a más de la mitad de la población del planeta
* La autonomía de vuelo del 747-400ER es de 14.297 Km.
* En un vuelo típico, un 747-400 despega a 290 Km. /h, vuela a una velocidad de 910 Km. /h y aterriza a 260 Km. /h
* En un vuelo internacional habitual, un operador de 747 suele utilizar 5,5 toneladas de comida y más de 50.000 objetos para el servicio a bordo

El Airbus A300-600ST (Super Transporter) o Beluga es un avión de carga, especializado en cargas voluminosas, diseñado por Airbus a partir del A300, con grandes modificaciones para poder llevar cargas de gran tamaño.

Debido a su historia y estructura, Airbus tiene diferentes centros de producción repartidos por toda Europa, cada uno de los cuales produce una parte del avión, que tiene que ser trasladada para ser unida a otras partes en la cadena final de montaje. Aunque la carga de trabajo de cada centro varía según el modelo, por lo general se distribuyen de la siguiente forma: las alas se fabrican en Gran Bretaña, el estabilizador horizontal y las puertas en España, el fuselaje en Alemania y la sección central y la parte delantera en Francia, las cuales son unidas en Toulouse, Hamburgo, Filton o Sevilla según el modelo y versión.

Al principio los componentes se llevaban por tierra o por barco, pero el incremento de la producción hizo necesario transportarlas por aire. Para ello Airbus compró en 1972 cuatro Super Guppy (conversiones del Boeing 377 ), que habían pertenecido al programa espacial Apolo de la NASA. Pero los Super Guppy no dieron el resultado que se esperaba, debido a su antigüedad tenían un alto coste de mantenimiento, además su capacidad no era suficiente para satisfacer la velocidad de producción de las factorías de Airbus. Para solucionar estos problemas se creó el Beluga.

Existen otros cargueros que pueden transportar cargas mucho más pesadas (como el Antonov An-225, el Boeing B747 o el Lockheed C-5 Galaxy), pero ninguno puede transportar cargas tan grandes y voluminosas como el Beluga. El compartimento de carga del Beluga mide 7,4 m de diámetro y 37,7 m de largo. En total, lleva hasta 47 tn de carga.

El montaje del avión empezó en septiembre de 1992, siendo el vuelo inaugural en septiembre de 1994. El modelo obtuvo la certificación de aeronavegabilidad un año después. En total se construyeron cinco Belugas. Su tarea principal es llevar los componentes de los aviones Airbus desde los lugares de producción hasta las cadenas finales de montaje, pero además están disponibles para trabajos especiales de carga.

Airbus A380

Publicado: 01/08/2011 en Airbus, Aviación, aviación civil

es un avión cuatrimotor o tetrarreactor fabricado por el consorcio europeo Airbus, subsidiaria del grupo EADS. Se trata de la primera aeronave con dos cubiertas (en inglés double-deck) a lo largo de todo su fuselaje (a diferencia del Boeing 747). Con una capacidad máxima del orden de los 800-850 pasajeros (en una hipotética configuración de alta densidad de clase turista), es el avión comercial de pasajeros más grande del mundo, superando al clásico Jumbo, al brindar un área útil de un 49% más que este último (según el propio fabricante), sólo siendo superado por el avión comercial de carga Antonov An-225. Tiene una longitud de 80 metros de largo y 24 metros de altura, estando su estructura formada en un 40 % de fibra de carbono y otros nuevos materiales metálicos. El primer vuelo de esta aeronave fue realizado en Toulouse , Francia, el 27 de abril de 2005 y realizó su primer vuelo comercial el 25 de octubre de 2007 con la aerolínea Singapore Airlines.

Dado que el A380 cuenta con una cubierta doble que se extiende a lo largo de todo el fuselaje, la superficie de cabina alcanza los 478,1 m², casi un 50% más que la de su principal competidor, el Boeing 747-400 , que dispone de una superficie de cabina de 320,8 m². En una configuración clásica de tres clases (turista, negocios y primera) el A380 puede albergar entre 500 y 550 pasajeros. La versión de carga, pospuesta actualmente, disfrutaría de una capacidad de 150 toneladas y una autonomía de 10.400 kilómetros, sólo superada por el Antonov An-225. El A380 (en su versión comecial) tiene un alcance de vuelo de 15.200 kilómetros, suficiente para cubrir rutas como por ejemplo: Barcelona-Perth (Australia) sin escalas, con una velocidad de crucero de Mach 0,85 (900 km/h).

La presentación oficial del Airbus A380 se realizó a las 11:01 del 18 de enero de 2005, en el hangar de ensamblaje. El acto, al que asistieron más de 5.000 invitados, contó con la presencia de Jacques Chirac, Gerhard Schröder, Tony Blair y José Luis Rodríguez Zapatero, en representación de los cuatro países socios de la empresa Airbus y co-financiadores del proyecto.

El primer vuelo se realizó el día 27 de abril de 2005 desde el aeropuerto de Toulouse (Francia). El vuelo tuvo una duración de 3 h y 53 minutos y retornó al mismo aeropuerto. Los únicos pasajeros fueron los integrantes de la tripulación; dos pilotos y cuatro ingenieros acompañados por más de 20 toneladas de instrumentos y lastre. El peso total en el despegue fue de 421 toneladas, aproximadamente un 75% de su peso máximo para despegues comerciales. Este fue el despegue más pesado de la historia de un avión comercial destinado al transporte de personas.

El 29 de octubre siguiente el A380 aterrizó por primera vez en un aeropuerto internacional, el de la región Rin-Meno (Fráncfort del Meno), con el fin de cumplir una serie de ensayos indispensables para obtener su permiso de vuelo.

El 4 de septiembre de 2006 el A380 realizó un vuelo de prueba con 474 pasajeros, trabajadores de Airbus elegidos por sorteo y a quienes se pidió su opinión sobre el vuelo, a pesar de que este tipo de vuelos no forman parte de las condiciones necesarias a la certificación técnica del avión.

El 12 de diciembre de 2006 obtiene el Certificado Tipo de las autoridades EASA y FAA.

El 15 de octubre de 2007 se hizo entrega a Singapore Airlines del primer modelo del avión preparado para ser utilizado comercialmente.

El primer vuelo comercial, Singapur – Sídney, tuvo lugar el 25 de octubre de 2007. Los billetes de este vuelo (y el de regreso) fueron vendidos en su integridad en eBay. Los más de dos millones de euros recaudados fueron entregados por Singapore Airlines a causas benéficas.

El Airbus A380 se encontró en su fase de desarrollo con una gran serie de escollos que salvar, parcialmente solventados ya. Podemos dividir esta serie de dificultades en tres grandes puntos.

Comparación del embalaje del airbus A380 y el Boeing 747

-Problemas de sobrepeso: En julio de 2004, aproximadamente un año antes del primer vuelo del avión, se conoció el desalentador dato del sobrepeso de la estructura del avión, particularmente en el soporte de las alas. Este ascendía a 4 toneladas, tipico en estos grandes proyectos. Un caso similar al que le ocurrio a Boeing en el desarrollo del Boeing 747 en 1968, que olvidaron calcular el peso de los asientos y mobiliario del avión..

Según las promesas del fabricante, el A380 en su configuración de 555 asientos (posteriormente rebajada a 525), será entre un 15 y 20 % más económico de operar que su principal competidor, el Boeing 747, transportando un 35% de pasajeros más que éste y a una distancia un 10% superior. Si estas promesas no se cumplieran, cifradas en un peso total del avión de 240 toneladas, Airbus incurría en penalizaciones económicas, de ahí la preocupación suscitada.

Se ha calculado que cada tonelada extra de peso en la estructura del avión redunda en una reducción de 12 pasajeros transportados. Las 4 toneladas, por lo tanto, harían que en el A380 viajasen 48 personas menos. Igualmente, es directamente proporcional el peso del avión al consumo de combustible, a los costes operativos en concepto de tasas aeroportuarias y costes de mantenimiento, especialmente en elementos consumibles del tren de aterrizaje (neumáticos, frenos y llantas).

Para solucionar estos problemas, Airbus decidió emplear compuestos de fibra de carbono. Estos compuestos, formados a partir de una base de capas de fibra de carbono compactada con una resina epoxídica, son cuatro veces más resistentes y un 40% más ligeros que el aluminio. Se utilizan en la estructura central que conecta las dos alas a través del fuselaje; el compartimento trasero presurizado; superficies de control como flaps, timón, alerones y gran parte de la cola. Mediante esta técnica, el problema quedó resuelto.

Otro elemento empleado es el GLARE (del inglés glass-reinforced “vidrio reforzado”), una aleación de aluminio y fibra de vidrio que ha permitido reducir el peso en vacío del avión en una tonelada adicional.

Evacuación del avión: uno de los ensayos que tuvieron que superar fue el de evacuar a todos los pasajeros y tripulación en menos de 90 segundos, y con la mitad de las salidas de emergencia inutilizadas.

Como en los procedimientos generales de la mayoría de las aerolíneas, el primero en abandonar la aeronave es el Primer Oficial, coordinando así la evacuación desde tierra; el último en realizar la evacuación es el comandante de la nave.

El 26 de marzo de 2006 en Hamburgo, Alemania, por 8 de las 16 salidas de emergencia se evacuaron 853 personas más 20 de tripulación en 77 segundos. La evacuación se realizó casi a oscuras, solo con las luces de emergencia encendidas. Tanto la tripulación como los «pasajeros» ignoraban cuáles serían las salidas de emergencia que funcionarían. Las regulaciones para cumplir la certificación eran: – 35% de los pasajeros con más de 50 años, – 40% como mínimo deben ser mujeres, – 15% mujeres con más de 50 años.

Esto ha sido conseguido, y hay un vídeo en el cual se puede ver la realización del simulacro.

Impedimentos operacionales: El Airbus A380 está englobado en la denominada categoría DG VI (Design Group VI) de aeronaves, la de mayor tamaño de cuantos operan en los aeropuertos de los Estados Unidos. Precisamente en este país es donde el A380 está encontrando un mayor número de impedimentos a la hora de poder realizar sus operaciones.

La Federal Aviation Administration (FAA) sólo ha autorizado de momento los aterrizajes y despegues del A380 en pistas de 60 metros de ancho, cuando la gran mayoría de las pistas en aeropuertos norteamericanos tiene un ancho de 45. En cuanto a las pistas de rodadura o carreteo (taxi ways), los aviones de la clase DG VI han de hacerlo por pistas de 30,5 metros de anchura (100 pies), pero Airbus ha comunicado que equipará sus aviones con una cámara para la rodadura (TCS) que permitirá ayudar a la tripulación en esta fase y reducir a 22,9 metros (75 pies) la anchura de pista necesaria.

En cuanto a la velocidad de carreteo, el avión no podrá sobrepasar los 24 km/h por hora (unas 15 millas).

De igual manera, la FAA ha propuesto que cuando un A380 esté rodando en una pista paralela a otra pista, ésta se cierre mientras dure su paso. Esto ocasionaría grandes problemas a la hora de gestionar el ya sobrecongestionado espacio aéreo estadounidense. De manera similar, cuando un A380 despegue o aterrice, no podrá haber ningún otro avión realizando su rodadura en una pista adyacente.

Por último, en condiciones de baja visibilidad, durante el aterrizaje y despegue del avión, no podrá haber otro avión a menos de 915 metros (3.000 pies) de la cabecera de pista y en condiciones de Categoría II y III, a 1.220 m (4.000 pies).

No son pocos quienes opinan que buena parte de estos impedimentos no obedecen a razones técnicas sino políticas, encaminadas a dificultar la comercialización del producto de Airbus (europeo) frente a los de su rival Boeing (estadounidense).

Incidentes: El 04 de noviembre de 2010, a las 3:45 a.m. (GMT) un A380 de la línea aérea australiana Qantas realizó un aterrizaje de emergencia en el aeropuerto de Singapur tras sufrir una fallo del motor 2 en el ala izquierda mientras sobrevolaba Indonesia (vuelo QF32 Londres – Sídney con escala en Singapur).

Aqui os dejo un documental (NOTA: los derechos de este documental son de discovery chanel):

Episodio 1 parte 1

Episodio 1 parte 2

Episodio 1 parte 3

Episodio 1 parte 4

Episodio 1 Parte 5

Episodio 2 Parte 1

Episodio 2 Parte 2

Episodio 2 parte 3

Episodio 2 Parte 4

Episodio 2 Parte 5

Episodio 3 Parte 1

Episodio 3 Parte 2

Episodio 3 Parte 3

Episodio 3 Parte 4

Episodio 3 Parte 5

 

 

 

 

 

Alexander Fleming

Publicado: 01/07/2011 en Biografias, Salud, sociedad

fue un científico escocés famoso por descubrir la enzima antimicrobiana llamada lisozima y del antibiótico penicilina obtenido a partir del hongo Penicillium chrysogenum.

Fleming nació en Ayrshire, Escocia y murió en Londres, Inglaterra, a los 74 años. Trabajó como médico microbiólogo en el Hospital St. Mary de Londres hasta el comienzo de la Primera Guerra Mundial. En este hospital trabajó en el Departamento de Inoculaciones dedicado a la mejora y fabricación de vacunas y sueros. Almorth Edward Wright, secretario del Departamento, despertó el interés de Fleming por nuevos tratamientos para las infecciones.

Durante la guerra fue médico militar en los frentes de Francia y quedó impresionado por la gran mortalidad causada por las heridas de metralla infectadas (ej.: gangrena gaseosa) en los hospitales de campaña. Finalizada la guerra, regresó al Hospital St. Mary donde buscó intensamente un nuevo antiséptico que evitase la dura agonía provocada por las heridas infectadas.

Los dos descubrimientos de Fleming ocurrieron en los años veinte y aunque fueron accidentales demuestran la gran capacidad de observación e intuición de este médico escocés. Descubrió la lisozima durante sus investigaciones de un tratamiento a la gangrena gaseosa que diezmaba a los combatientes en las guerras; el descubrimiento ocurrió después de que mucosidades, procedentes de un estornudo, cayesen sobre una placa de Petri en la que crecía un cultivo bacteriano. Unos días más tarde notó que las bacterias habían sido destruidas en el lugar donde se había depositado el fluido nasal.

El laboratorio de Fleming estaba habitualmente desordenado, lo que resultó una ventaja para su siguiente descubrimiento. En septiembre de 1928, estaba realizando varios experimentos en su laboratorio y el día 22, al inspeccionar sus cultivos antes de destruirlos notó que la colonia de un hongo había crecido espontáneamente, como un contaminante, en una de las placa de Petri sembradas con Staphylococcus aureus. Fleming observó más tarde las placas y comprobó que las colonias bacterianas que se encontraban alrededor del hongo (más tarde identificado como Penicillium notatum) eran transparentes debido a una lisis bacteriana. Para ser más exactos, la Penicillium es un moho que produce una sustancia natural con efectos antibacterianos: la penicilina. La lisis significaba la muerte de las bacterias, y en su caso, la de las bacterias patógenas (Staphylococcus aureus) crecidas en la placa. Aunque él reconoció inmediatamente la trascendencia de este hallazgo sus colegas lo subestimaron. Fleming comunicó su descubrimiento sobre la penicilina en el British Journal of Experimental Pathology en 1929.

Fleming trabajó con el hongo durante un tiempo pero la obtención y purificación de la penicilina a partir de los cultivos de Ponolum notalum resultaron difíciles y más apropiados para los químicos. La comunidad científica creyó que la penicilina sólo sería útil para tratar infecciones banales y por ello no le prestó atención.

Sin embargo, el antibiótico despertó el interés de los investigadores estadounidenses durante la Segunda Guerra Mundial, quienes intentaban emular a la medicina militar alemana la cual disponía de las sulfamidas. Los químicos Ernst Boris Chain y Howard Walter Florey desarrollaron un método de purificación de la penicilina que permitió su síntesis y distribución comercial para el resto de la población.
Fleming no patentó su descubrimiento creyendo que así sería más fácil la difusión de un antibiótico necesario para el tratamiento de las numerosas infecciones que azotaban a la población. Por sus descubrimientos, Fleming compartió el Premio Nobel de Medicina en 1945 junto a Ernst Boris Chain y Howard Walter Florey.

Fleming fue miembro del Chelsea Arts Club, un club privado para artistas fundado en 1891 por sugerencia del pintor James McNeil Whistler. Se cuenta como anécdota que Fleming fue admitido en el club después de realizar «pinturas con gérmenes», estas pinturas consistían en pincelar el lienzo con bacterias pigmentadas, las cuales eran invisibles mientras pintaba pero surgían con intensos colores una vez crecidas después de incubar el lienzo. Las especies bacterianas que utilizaba eran:

  • Serratia marcescens – rojo
  • Chromobacterium violaceum – púrpura
  • Micrococcus luteus – amarillo
  • Micrococcus varians – blanco
  • Micrococcus roseus – rosa
  • Bacillus sp. – naranja

Estando de gira por España, en 1948, enferma su esposa del mal que truncaría su vida meses después. Con todo, continúa su trabajo en el Instituto del St. Mary (Saint Mary’s College) que dirige desde 1946. Allí colabora una joven griega, la Dra. Voureka, por la que Fleming siente gran estima; cuando ésta regresa a su país, el Dr. Fleming, ya solo, se ve arrastrado por su recuerdo e irá por ella para hacerla su esposa en 1953. Poco disfrutaría de su recobrada felicidad conyugal.

Alexander Fleming murió en 1955 de un ataque cardíaco. Fue enterrado como héroe nacional en la cripta de la Catedral de San Pablo de Londres.

Su descubrimiento de la penicilina significó un cambio drástico para la medicina moderna iniciando la llamada «Era de los antibióticos», otros investigadores posteriores aportaron nuevos antibióticos, como la estreptomicina utilizada para el tratamiento de la tuberculosis, salvando millones de vidas. La aportación científica de Fleming es doble pues además de descubrir una molécula química (penicilina) también encontró una molécula enzimática (lisozima) con actividad antibiótica. Las enzimas (ejem. lisozima) y los péptidos antibióticos son componentes naturales de la inmunidad innata de los animales que podrían ser utilizados con fines terapéuticos similares a la penicilina. Por esta razón Fleming puede ser considerado como el primero en descubrir una enzima antimicrobiana.

 

Louis Pasteur

Publicado: 01/04/2011 en Biografias, Salud, sociedad

Louis Pasteur fue un químico francés cuyos descubrimientos tuvieron enorme importancia en diversos campos de las ciencias naturales, sobre todo en la química y microbiología. A él se debe la técnica conocida como pasteurización.

Nació el 27 de diciembre de 1822 en Dole, Francia, donde transcurrió la infancia del pequeño Louis. De joven, no fue un estudiante prometedor en ciencias naturales; de hecho, si demostraba alguna aptitud especial, era en área artística de la pintura. Su primera ambición fue la de ser profesor de arte. En 1842, tras ser maestro en la Escuela Real de Viejancòn, obtuvo su título de bachillerato, con calificación «mediocre» en química. Su padre lo mandó a la Escuela Normal Superior de París, pero allí no duró mucho tiempo ya que regresó a su tierra natal. Pero al año siguiente retornó a París. tras pasar por la École Normale Supérieure, se convirtió en profesor de Física en el Liceo de Dijon, aunque su verdadero interés era ya la química.

Realizó grandes estudios sobre la microbiologia y ayudó a refutar definitivamente la teoría de la generación espontánea.

En 1849 Pasteur resolvió el “misterio” del ácido tartárico (C4H6O6). Esta sustancia parecía existir en dos formas de idéntica composición química pero con propiedades diferentes, dependiendo de su origen: el ácido tartárico proveniente de seres vivos (por ejemplo, el que existe en el vino) era capaz de polarizar la luz, mientras que el producido sintéticamente no lo hacía a pesar de contar con la misma fórmula química.

Pasteur examinó al microscopio cristales diminutos de sales formadas a partir de ácido tartárico sintetizado en el laboratorio, y observó algo muy curioso: había cristales de dos tipos distintos, ambos casi exactamente iguales pero con simetría especular, como nuestras manos. La composición era la misma, pero la forma en la que los átomos se asociaban podía tomar dos formas diferentes y simétricas, mientras una forma polarizaba la luz a la derecha, la otra la polarizaba a la izquierda.

Más curioso aún fue que, cuando examinó cristales formados a partir de ácido tartárico natural sólo eran de uno de los dos tipos — los seres vivos producían el ácido de una manera en la que sólo se creaba uno de ellos, aquel que polarizaba la luz a la derecha. Este hallazgo le valió al joven químico la concesión de la Legión de Honor Francesa, con sólo 26 años de edad. En 1854 fue nombrado decano de la Facultad de Ciencias en la Universidad de Lille. Sólo siete años más tarde, con 33 años, se convirtió en director y administrador de estudios científicos en la misma École Normale Supérieure en la que había estudiado.

Algunos de sus contemporáneos, incluido el eminente químico alemán Justus von Liebig, insistían en que la fermentación era un proceso químico y que no requería la intervención de ningún organismo. Con la ayuda de un microscopio, Pasteur descubrió que, en realidad, intervenían dos organismos -dos variedades de levaduras- que eran la clave del proceso. Uno producía alcohol y el otro, ácido láctico, que agriaba el vino.

Utilizó un nuevo método para eliminar los microorganismos que pueden degradar al vino, la cerveza o la leche, después de encerrar el líquido en cubas bien selladas y elevando su temperatura hasta los 44 grados centígrados durante un tiempo corto. A pesar del rechazo inicial de la industria ante la idea de calentar vino, un experimento controlado con lotes de vino calentado y sin calentar demostró la efectividad del procedimiento. Había nacido la «pasteurización», el proceso que actualmente garantiza la seguridad de numerosos productos alimenticios del mundo.

Demostró que todo proceso de fermentación y descomposición orgánica se debe a la acción de organismos vivos y que el crecimiento de los microorganismos en caldos nutritivos no era debido a la generación espontánea. Para demostrarlo, expuso caldos hervidos en matraces provistos de un filtro que evitaba el paso de partículas de polvo hasta el caldo de cultivo, simultáneamente expuso otros matraces que carecían de ese filtro, pero que poseían un cuello muy alargado y curvado que dificultaba el paso del aire, y por ello de las partículas de polvo, hasta el caldo de cultivo. Al cabo de un tiempo observó que nada crecía en los caldos demostrando así que los organismos vivos que aparecían en los matraces sin filtro o sin cuellos largos provenían del exterior, probablemente del polvo o en forma de esporas. De esta manera Louis Pasteur mostró que los microorganismos no se formaban espontáneamente en el interior del caldo, refutando así la teoría de la generación espontánea y demostrando que todo ser vivo procede de otro ser vivo anterior (Omne vivum ex vivo), un principio científico que fue la base de la teoría germinal de las enfermedades y que significa un cambio conceptual sobre los seres vivos y el inicio de la Bacteriología moderna. Anunció sus resultados en una gala de la Sorbona en 1864 y obtuvo todo un triunfo.

Habiendo resuelto el problema de la industria vinícola de forma tan brillante, fue lógico que cuando una enfermedad en los gusano de seda empezó a arruinar esa industria en el sur de Francia, llamaran de nuevo, a Louis Pasteur. Éste no sabía nada de gusanos de seda, pero cuando apuntó su microscopio, identificó un parásito que infestaba a los gusanos y a las hojas de las cuales se alimentaban. Su diagnóstico fue drástico: los gusanos y hojas infectadas tenían que ser destruidos y reemplazados por otros nuevos.

Su trabajo con la enfermedad de los gusanos de seda, atrajo su atención hacia el resto de enfermedades contagiosas. La idea de que las enfermedades pueden ser trasmitidas entre criaturas vivientes era un anatema. Se trataba de otro de esos puntos débiles que ahora se consideran inexplicables. No obstante, no había nada «obvio» en la idea de una enfermedad contagiosa.

El propio Pasteur, en 1871 sugirió a los médicos de los hospitales militares a hervir el instrumental y los vendajes. Describió un horno, llamado «horno Pasteur», útil para esterilizar instrumental quirúrgico y material de laboratorio y en el tuvieron entero apoyo.

En 1880, Pasteur se encontraba realizando experimentos con pollos para determinar los mecanismos de transmisión de la bacteria responsable del Cólera aviar que acababa con muchos de ellos. Junto con su ayudante, Charles Chamberland, inoculaban la bacteria (Pasteurella multocida) a pollos y evaluaban el proceso de la enfermedad.

La historia cuenta que Pasteur iba a tomarse unas vacaciones, y encargó a Chamberland que inoculase a un grupo de pollos con un cultivo de la bacteria, antes de irse el propio ayudante de vacaciones. Pero Chamberland olvidó hacerlo, y se fue de vacaciones. Cuando ambos volvieron al cabo de un mes, los pollos estaban sin infectar y el cultivo de bacterias continuaba donde lo dejaron, pero muy debilitado. Chamberland inoculó a los pollos de todos modos y los animales no murieron. Desarrollaron algunos síntomas, y una versión leve de la enfermedad, pero sobrevivieron.

El ayudante, abochornado, iba a matar a los animales y empezar de nuevo, cuando Pasteur lo detuvo: la idea de la vacunación era conocida desde 1796 y Pasteur la conocía. Expuso a los pollos una vez más al cólera y nuevamente sobrevivieron pues habían desarrollado respuesta inmune. Pasteur no desarrolló por lo tanto la primera vacuna, pero sí la primera vacuna de bacterias artificialmente debilitadas — a partir de ese momento no hacía falta encontrar bacterias adecuadas para las vacunas, las propias bacterias debilitadas de la enfermedad a derrotar servían.

Pasteur puso este descubrimiento en práctica casi inmediatamente en el caso de otras enfermedades causadas por agentes bacterianos . En 1881, hizo una demostración dramática de la eficacia de su vacuna contra el ántrax, inoculando la mitad de un rebaño de ovejas mientras inyectaba la enfermedad (Bacillus anthracis) a la otra mitad. Las inoculadas con la vacuna sobrevivieron, el resto, murió.

En sus estudios contra la rabia, utilizaba conejos infectados con la enfermedad, y cuando éstos morían secaba su tejido nervioso para debilitar la bacteria. En 1885 un niño, Joseph Meister, fue mordido por un perro rabioso cuando la vacuna de Pasteur sólo se había probado con unos cuántos perros. El niño iba a morir sin ninguna duda cuando desarrollase la enfermedad, pero Pasteur no era médico, de modo que si lo trataba con una vacuna sin probar suficientemente podía acarrear en un lío legal.

Sin embargo, tras consultar con otros colegas, el químico se decidió a inocular la vacuna al muchacho. El tratamiento tuvo un éxito absoluto, el niño se recuperó de sus heridas y nunca desarrolló la rabia y Pasteur, lejos de acabar en un banquillo, fue alabado una vez más como un héroe.

Freud, fue un médico y neurólogo austriaco, creador del psicoanálisis y una de las mayores figuras intelectuales del s. XX.

Su interés científico inicial como investigador se centró en el campo de la neurología, derivando progresivamente sus investigaciones hacia la vertiente psicológica de las afecciones mentales, de la que daría cuenta en su práctica privada. Estudió en París con el neurólogo francés Jean-Martin Charcot las aplicaciones de la hipnosis en el tratamiento de la histeria. De vuelta en Viena y en colaboración con Joseph Breuer desarrolló el método catártico. Paulatinamente, reemplazó tanto la sugestión hipnótica como el método catártico por la asociación libre y la interpretación de los sueños. De igual modo, la búsqueda inicial centrada en la rememoración de los traumas psicógenos como productores de síntomas, fue abriendo paso al desarrollo de una teoría etiológica de las neurosis más diferenciada. Todo esto se convirtió en el punto de partida del psicoanálisis, al que se dedicó ininterrumpidamente el resto de su vida.

Freud postuló la existencia de una sexualidad infantil perversa polimorfa, tesis que causó una intensa polémica en la sociedad puritana de la Viena de principios del siglo XX y por la cual fue acusado de pansexualista. A pesar de la hostilidad que tuvieron que afrontar sus revolucionarias teorías e hipótesis, Freud acabaría por convertirse en una de las figuras más influyentes del siglo XX.

El 28 de agosto de 1930 Freud fue galardonado con el Premio Goethe de la ciudad de Fráncfort del Meno en honor de su actividad creativa. También en honor de Freud, al que frecuentemente se le denomina el padre del psicoanálisis, se dio la denominación «Freud» a un pequeño cráter de impacto lunar que se encuentra en una meseta dentro de Oceanus Procellarum, en la parte noroeste del lado visible de la luna.

Sigmund Freud nació el 6 de mayo de 1856 en Freiberg, Moravia (en la actualidad, Příbor en la República Checa) en el seno de una familia judía. Fue el mayor de seis hermanos (cinco niñas y un niño). Tenía además dos hermanastros de un matrimonio anterior de su padre. En 1860, cuando contaba con tres años de edad, su familia se trasladó a Viena esperando el padre recobrar la prosperidad perdida de su negocio de lanas.

A pesar de que su familia atravesó grandes dificultades económicas, sus padres se esforzaron para que obtuviera una buena educación y en 1873, cuando contaba con 17 años, Freud ingresó en la Universidad de Viena como estudiante de medicina en un ambiente de antisemitismo creciente. En 1877, abrevió su nombre de Sigismund Schlomo Freud a Sigmund Freud. Estudiante poco convencional pero brillante, fue asistente del profesor E. Brücke en el Instituto de Fisiología de Viena entre 1876 y 1882. En 1880 conoció al que sería su colaborador Joseph Breuer.

En 1881 se graduó como médico. Freud trabajó bajo la dirección de Theodor Meynert en el Hospital General de Viena entre los años 1883 y 1885. Como investigador médico, Freud fue un pionero al proponer el uso terapéutico de la cocaína como estimulante y analgésico. Entre 1884 y 1887 escribió muchos artículos sobre las propiedades de dicha droga. En base a las experimentaciones que él mismo realizaba en el laboratorio de neuroanatomía del notable patólogo austríaco y especialista en histología Salomon Stricker, logró demostrar las propiedades de la cocaína como anestésico local.

En 1884 Freud publicó su trabajo Über Coca («Sobre coca»), al que sucedieron varios artículos más sobre el tema. Aplicando los resultados de Freud, pero sin citarlo, Carl Koller utilizó con gran éxito la cocaína en cirugía e intervenciones oftalmológicas publicando al respecto y obteniendo por ello un gran reconocimiento científico. Se ha podido determinar – tras la publicación de las cartas a su entonces prometida y luego esposa, Martha Bernays – que Freud hizo un intento frustrado de curar con cocaína a su amigo Ernst von Fleischl-Marxow, quien era adicto a la morfina, pero el tratamiento sólo agregó una nueva adicción y finalmente falleció. Se le critica a Freud no haber admitido públicamente este fracaso, así como el hecho de que su biógrafo y amigo Ernest Jones tampoco lo haya reportado. Es también conocido que el propio Freud consumió cocaína por algún período de su vida, según se puede leer en la versión completa de su correspondencia con Wilhelm Fliess.

En 1886, Freud se casó con Martha Bernays y abrió una clínica privada especializada en desórdenes nerviosos. Comenzó su práctica para tratar la histeria y la neurosis utilizando la hipnosis y el método catártico que su colaborador Josef Breuer había aplicado con Bertha Pappenheim (Anna O.) obteniendo resultados que en aquel momento parecían sorprendentes, para posteriormente abandonar ambas técnicas en favor de la asociación libre, desarrollada por él entre los años 1895 y 1900 impulsado por las experiencias con sus pacientes histéricas. Freud notó que podía aliviar sus síntomas animándolas a que verbalizaran sin censura cualquier ocurrencia que pasara por su mente.

En 1899 se publicó la que es considerada su obra más importante e influyente, La Interpretación de los Sueños, inaugurando una nueva disciplina y modo de entender al hombre, el psicoanálisis. Tras algunos años de aislamiento personal y profesional debido a la incomprensión e indignación que en general sus teorías e ideas provocaron, comenzó a formarse un grupo de adeptos en torno a él, el germen del futuro movimiento psicoanalítico. Sus ideas empezaron a interesar cada vez más al gran público y se fueron divulgando pese a la gran resistencia que suscitaban.

El primer reconocimiento oficial como creador del psicoanálisis fue en 1902 al recibir el nombramiento imperial como Profesor extraordinario, hecho que Freud comentaría en una carta a Wilhelm Fliess fechada en Viena el 11 de marzo de 1902, señalando sarcástimente que esto era «…como si de pronto el papel de la sexualidad fuera reconocido oficialmente por su Majestad…»

Freud experimentó la primera disensión interna a su doctrina en octubre de 1911 cuando Alfred Adler y seis de sus partidarios se dieron de baja de la Asociación Psicoanalítica Vienesa. Por esta época ya estaba en gestación la que en 1914, y con más graves consecuencias, protagonizaría Carl Gustav Jung, que amenazaría con desestabilizar todo el edificio psicoanalítico.

En 1923 le fue diagnosticado un cáncer de paladar, probablemente a consecuencia de su intensa adicción a los puros, por el cual fue operado hasta 33 veces. Su enfermedad, aparte de provocarle un gran sufrimiento, una gran incapacidad y una eventual sordera del oído derecho, lo obligó a usar una serie de incómodas prótesis de paladar que le dificultaron grandemente la capacidad del habla. Nunca dejó de fumar, no obstante las consecuencias que esto le acarreó. A pesar de su enfermedad, Freud continuó trabajando como psicoanalista y, hasta el fin de su vida, no cesó de escribir y publicar un gran número de artículos, ensayos y libros.

Toda la vida de Freud, con la excepción de sus tres primeros años, transcurrió en la ciudad de Viena. Sin embargo, en 1938, tras la anexión de Austria por parte de la Alemania nazi, Freud, en su condición de judío y fundador de la escuela psicoanalítica, fue considerado enemigo del Tercer Reich. Sus libros fueron quemados públicamente y tanto él como su familia sufrieron un intenso acoso. Reacio a abandonar Viena, se vio obligado a escapar del país al quedar claro que el peligro que corría su vida era inminente. En un allanamiento de la casa donde operaba la editorial psicoanalítica y de su vivienda, su hijo Martin fue detenido durante todo un día. Una semana más tarde su hija Anna fue interrogada en el cuartel general de la Gestapo. Estos hechos lo llevaron a convencerse de la necesidad de partir. El hecho de que sus hermanas (cuatro de ellas permanecieron en Viena) fueran apresadas más tarde y murieran en campos de concentración confirma a posteriori que el riesgo vital era completamente real. Gracias a la intervención in extremis de Marie Bonaparte y Ernest Jones consiguió salir del país y refugiarse en Londres, Inglaterra. En el momento de partir se le exigió que firmara una declaración donde se aseguraba que había sido tratado con respeto por el régimen nazi. Freud consintió en firmarla pero añadió el siguiente comentario sarcástico: Recomiendo calurosamente la Gestapo a cualquiera.

En 1939, muy deteriorado físicamente e incapaz de soportar el dolor que le producía la propagación del cáncer de paladar, pidió a su médico personal, Max Shur, que acabara con su sufrimiento. Freud murió después de serle suministradas tres inyecciones de morfina.

A pesar de los implacables y a menudo apremiantes desafíos a los que virtualmente todas sus ideas tuvieron que enfrentarse, tanto en vida como una vez desaparecido, Freud se convirtió y sigue siendo una de las figuras más influyentes del pensamiento contemporáneo.

Pantalla táctil

Publicado: 01/04/2011 en Tecnologia

Una pantalla táctil (touchscreen en inglés) es una pantalla que mediante un toque directo sobre su superficie permite la entrada de datos y órdenes al dispositivo. A su vez, actúa como periférico de salida, mostrándo los resultados introducidos previamente. Este contacto también se puede realizar con lápiz u otras herramientas similares. Actualmente hay pantallas táctiles que pueden instalarse sobre una pantalla normal. Así pues, la pantalla táctil puede actuar como periférico de entrada y periférico de salida de datos, así como emulador de datos interinos erróneos al no tocarse efectivamente

Las pantallas tactiles se han ido haciendo populares desde la invención de la interfaz electrónica táctil en 1971 por el Dr. Samuel C. Hurst. Han llegado a ser comunes en TPVs, en cajeros automáticos y en PDAs donde se suele emplear un estilete para manipular la interfaz gráfica de usuario y para introducir datos. La popularidad de los teléfonos inteligentes, PDAs, de las vídeo consolas portátiles o de los navegadores de automóviles está generando la demanda y la aceptación de las pantallas táctiles.

Las pantallas táctiles de última generación consisten en un cristal transparente donde se sitúa una lámina que permite al usuario interactuar directamente sobre esta superficie, utilizando un proyector para lanzar la imagen sobre la pantalla de cristal. Se sale de lo que hasta hoy día se entendía por pantalla táctil que era básicamente un monitor táctil.

Hay diferentes tecnologías de implementación de las pantallas táctiles:

Resistiva: Una pantalla táctil resistiva está formada por varias capas. Las más importantes son dos finas capas de material conductor entre las cuales hay una pequeña separación. Cuando algún objeto toca la superficie de la capa exterior, las dos capas conductoras entran en contacto en un punto concreto. De esta forma se produce un cambio en la corriente eléctrica que permite a un controlador calcular la posición del punto en el que se ha tocado la pantalla midiendo la resistencia. Algunas pantallas pueden medir, aparte de las coordenadas del contacto, la presión que se ha ejercido sobre la misma.

Las pantallas táctiles resistivas son por norma general más accesibles pero tienen una pérdida de aproximadamente el 25% del brillo debido a las múltiples capas necesarias. Otro inconveniente que tienen es que pueden ser dañadas por objetos afilados. Por el contrario no se ven afectadas por elementos externos como polvo o agua, razón por la que son el tipo de pantallas táctiles más usado en la actualidad.

capacitivas: Una pantalla táctil capacitiva está cubierta con un material, habitualmente óxido de indio y estaño que conduce una corriente eléctrica continua a través del sensor. El sensor por tanto muestra un campo de electrones controlado con precisión tanto en el eje vertical como en el horizontal, es decir, adquiere capacitancia. El cuerpo humano también se puede considerar un dispositivo eléctrico en cuyo interior hay electrones, por lo que también dispone de capacitancia. Cuando el campo de capacitancia normal del sensor (su estado de referencia) es alterado por otro campo de capacitancia, como puede ser el dedo de una persona, los circuitos electrónicos situados en cada esquina de la pantalla miden la ‘distorsión’ resultante en la onda senoidal característica del campo de referencia y envía la información acerca de este evento al controlador para su procesamiento matemático. Los sensores capacitivos deben ser tocados con un dispositivo conductivo en contacto directo con la mano o con un dedo, al contrario que las pantallas resistivas o de onda superficial en las que se puede utilizar cualquier objeto. Las pantallas táctiles capacitivas no se ven afectadas por elementos externos y tienen una alta claridad, pero su complejo procesado de la señal hace que su coste sea elevado. La mayor ventaja que presentan sobre las pantallas resistivas es su alta sensibilidad y calidad.

Onda acústica superficial: La tecnología de onda acústica superficial (denotada a menudo por las siglas SAW, del inglés Surface Acoustic Wave) utiliza ondas de ultrasonidos que se transmiten sobre la pantalla táctil. Cuando la pantalla es tocada, una parte de la onda es absorbida. Este cambio en las ondas de ultrasonidos permite registrar la posición en la que se ha tocado la pantalla y enviarla al controlador para que pueda procesarla.

El funcionamiento de estas pantallas puede verse afectado por elementos externos. La presencia de contaminantes sobre la superficie también puede interferir con el funcionamiento de la pantalla táctil.

inflarrojos: Las pantallas táctiles por infrarrojos consisten en una matriz de sensores y emisores infrarrojos horizontales y verticales. En cada eje los receptores están en el lado opuesto a los emisores de forma que al tocar con un objeto la pantalla se interrumpe en un haz infrarrojo vertical y otro horizontal, permitiendo de esta forma localizar la posición exacta en que se realizó el contacto. Este tipo de pantallas son muy resistentes por lo que son utilizadas en muchas de las aplicaciones militares que exigen una pantalla táctil.

Galga Extensiométrica: Cuando se utilizan galgas extensiométricas la pantalla tiene una estructura elástica de forma que se pueden utilizar galgas extensiométricas para determinar la posición en que ha sido tocada a partir de las deformaciones producidas en la misma. Esta tecnología también puede medir el eje Z o la presión ejercida sobre la pantalla. Se usan habitualmente en sistemas que se encuentran expuestos al público como máquinas de venta de entradas, debido sobre todo a su resistencia al vandalismo.

Imagen óptica: Es un desarrollo relativamente moderno en la tecnología de pantallas táctiles, dos o más sensores son situados alrededor de la pantalla, habitualmente en las esquinas. Emisores de infrarrojos son situados en el campo de vista de la cámara en los otros lados de la pantalla. Un toque en la pantalla muestra una sombra de forma que cada par de cámaras puede triangularizarla para localizar el punto de contacto. Esta tecnología está ganando popularidad debido a su escalabilidad, versatilidad y asequibilidad, especialmente para pantallas de gran tamaño.

Tecnología de senal dispersiva:  Introducida en el año 2002, este sistema utiliza sensores para detectar la energía mecánica producida en el cristal debido a un toque. Unos algoritmos complejos se encargan de interpretar esta información para obtener el punto exacto del contacto. Esta tecnología es muy resistente al polvo y otros elementos externos, incluidos arañazos. Como no hay necesidad de elementos adicionales en la pantalla también proporciona unos excelentes niveles de claridad. Por otro lado, como el contacto es detectado a través de vibraciones mecánicas, cualquier objeto puede ser utilizado para detectar estos eventos, incluyendo el dedo o uñas. Un efecto lateral negativo de esta tecnología es que tras el contacto inicial el sistema no es capaz de detectar un dedo u objeto que se encuentre parado tocando la pantalla.

Reconocimiento del pulso acústico:  Introducida en el año 2006, estos sistemas utilizan cuatro transductores piezoeléctricos situados en cada lado de la pantalla para convertir la energía mecánica del contacto en una señal electrónica. Esta señal es posteriormente convertida en una onda de sonido, la cual es comparada con el perfil de sonido preexistente para cada posición en la pantalla. Este sistema tiene la ventaja de que no necesita ninguna malla de cables sobre la pantalla y que la pantalla táctil es de hecho de cristal, proporcionando la óptica y la durabilidad del cristal con el que está fabricada. También presenta las ventajas de funcionar con arañazos y polvo sobre la pantalla, de tener unos altos niveles de precisión y de que no necesita ningún objeto especial para su utilización.

 

El día de los santos inocentes

Publicado: 12/30/2010 en Cúltura

En el Nuevo Testamento, San Mateo relata cómo, cuando nació Jesús, el rey Herodes ordenó una matanza en Belén para acabar con todos los niños menores de dos años y asegurarse así de que el anunciado Mesías, futuro Rey de Israel, era asesinado. Desde entonces, la Iglesia Católica conmemora cada 28 de diciembre la fiesta de los Santos Inocentes, para recordar esas crueles muertes infantiles.

La iglesia católica recuerda este acontecimiento el 28 de diciembre, aunque de acuerdo con los Evangelios, la matanza debió haber sucedido después de la visita de los Reyes Magos al rey Herodes (uno o dos días después del 6 de enero), aunque también la fecha de la adoración de los Reyes Magos a Jesús no tiene una fecha dada exactamente en las escrituras.

Es muy corriente la explicación de la Navidad y demás fechas alrededor de ella como fechas arbitrarias, pues estas no figuran en los evangelios. Según el evangelio (Lucas 1.13-60); Zacarias supo que Santa Isabel estaba encinta de Juan el Bautista mientras cumplía con la obligación de quemar incienso en el Templo, que debía hacer cada grupo sacerdotal dos veces por año (1 Crónicas 24). Zacarías pertenecía al octavo grupo, el de Abías, lo cual nos da dos posibles fechas para la concepción de Juan el Bautista, una a mediados de mayo y otra a mediados de noviembre, ninguna de las cuales coincide con la tradición.

El evangelista Lucas nos cuenta que había pastores que estaban pasando aquella importante noche a cielo raso, con sus rebaños. Esto nos lleva a la conclusión de que Jesús no pudo haber nacido en diciembre ya que es improbable que los pastores estuvieran acampando a cielo abierto en una época del año donde las temperaturas pueden llegar a bajo cero en la región de Belén.

 

 

Jakie Chan

Publicado: 12/30/2010 en Biografias, sociedad
Etiquetas:

Su nombre real es Chan Kong Sang es un artista marcial, cantante, actor, acróbata, doble de acción, coordinador de dobles de acción, director, guionista y productor cinematográfico chino. En China existe una tradición que consiste en dar a una misma persona varios nombres, con Jackie Chan no se hizo ninguna excepción; hijo de Charles y Lee-Lee Chan nació en Hong Kong el 7 de abril de 1954, y le pusieron por nombre «Kwong Sang», el cual significa «Nacido en Hong Kong», aunque en China se le conoce mucho más por su nombre cantonés: «Sing Lung». Su familia es de Yintai, una ciudad que pertenece a la Provincia de Shangtung, que se caracteriza por haber sido cuna de grandes luchadores. Como curiosidad, Jackie Chan estuvo viviendo 9 meses en España durante su juventud.

En su biografía, Jackie Chan cuenta que creó su personaje como rechazo a los de Bruce Lee y de los numerosos imitadores que surgieron tras la muerte de éste. Mientras que los personajes de Lee eran héroes severos con gran sentido de la moral, Chan interpreta a hombres comunes, de buenas intenciones y algo despistados, a menudo a merced de sus novias o familiares. Sin embargo, los personajes de Chan siempre triunfan al final de la película.

Chan Kwong-sang nació en Hong Kong el siete de abril de 1954, en el seno de una familia muy pobre, tanto que tuvieron que pedir dinero a sus amigos para pagar la cuenta del hospital tras el nacimiento de su hijo. Trabajaban en la embajada Francesa, su padre como cocinero y su madre como ama de llaves. Desde pequeño, le fue enseñado el Kung Fu, ya que consideraban que el aprendizaje de las artes marciales ayudaría a fortalecer el carácter de Jackie Chan. Cuando Jackie Chan tenía siete años, Charles, su padre, pasó a trabajar como jefe de cocina en la embajada de Estados Unidos en Australia, estimó que sería mejor para Jackie Chan el quedarse en Hong Kong y aprender una profesión, así lo matriculó en la Ópera de Pekín donde vivió durante los siguientes 10 años de su vida. Allí se formó con una férrea disciplina que no tenía principio ni fin, se instruyó en las artes del baile, interpretación, música y Kung Fu, donde fue capaz de aguantar hasta 19 horas diarias de ejercicio en esta rigurosa disciplina y debido a ello puede lograr sus acrobacias en sus múltiples películas.

Su paso de la Ópera al cine fue más bien discreto: alguien le ofreció un breve trabajo como especialista en un film, que fue seguido después por otras apariciones cada vez más importantes. Antes de cumplir los 20 años, Chan había participado ya en 25 producciones, y con el tiempo pasó a ser coordinador de especialistas. A los 17 años trabajó como doble en dos películas de Bruce Lee (Fist of Fury en 1972, y Enter de Dragon, 1973) utilizando en los créditos el nombre de Chen Yuen Long. Su gran oportunidad llegó con la muerte de Bruce Lee, el maestro de las artes marciales. A Jackie Chan no le costó erigirse en sustituto de Lee a los ojos del público, aunque a él no le convencía eso de vivir para siempre bajo la sombra de una leyenda. Así que decididó dejar a un lado la imagen de tipo duro y serio que le identificaba con Bruce Lee y adoptar un estilo cómico más en la línea de Buster Keaton. Fue entonces cuando empezó a triunfar de verdad.

Sus primeros papeles fueron de doble de otros actores. A finales de los años 70, Chan se atrevió a ejercer también como guionista, director y productor, con lo que pasó a tener un mayor control sobre el resultado final de muchas de sus películas. «El chino», dirigida por él mismo en 1980, marcó el tono de su filmografía posterior: una mezcla eficaz de comedia, acción y artes marciales.

Desde Hong Kong, Jackie Chan fue conquistando poco a poco al público asiático y europeo con títulos como «Piratas en los mares de China», «Armas invencibles» o «Los supercamorristas». Hasta que en 1996 reventó las taquillas de Estados Unidos con «Duro de matar», una aventura que le enfrentaba a una banda de matones del Bronx. El éxito se repitió dos años más tarde con el film policial «Rush Hour», y Chan pasó a convertirse en el actor asiático que más triunfaba en Hollywood.

En los últimos tiempos ha intervenido en otros títulos populares como «Impacto inminente», un film de acción con armamento nuclear incluido; el western en clave de comedia «Shanghai Kid» y su secuela «Los rebeldes de Shangai»; y «Rush Hour 2», en la que volvía a coincidir con Chris Tucker.

Sin duda, éste maestro de las artes marciales ha tenido una larga carrera profesional y lleva ya 96 películas a sus espaldas. En 2003, hizo «Los rebeldes de Shangai» y «El poder del talismán», dos films de aventuras que tuvieron un tremendo éxito de taquilla. En el 2004, protagonizó la adaptación de la novela «La vuelta al mundo en 80 días» y en el 2010, participó en la película «Karate Kid», otro enorme éxito de taquilla en todo el mundo.

Jackie Chan es el único actor que hace películas de artes marciales sin ningún doble que le sirva como ayuda: hace sus propias escenas de riesgo y ha acumulado una impresionante lista de heridas para probarlo. Su momento más cercano a la muerte fue durante la filmación de «Armour of God» en 1985, cuando cayó de un árbol fracturándose el cráneo. También ha realizado otras escenas de riesgo tan impactantes como saltar desde una montaña de 1300 metros a un globo aerostático, saltar de un autobús en marcha dentro de un almacén atravesando una pared de cristal o saltar un coche (que iba a 30km/h) que le iba a atropellar Esto  le ha acarreado romperse la cabeza en innumerables ocasiones, la mandíbula, los huesos de la mejilla, un hombro, la mayoría de los dedos de su mano, un tobillo y la nariz tres veces.

En 1978, con el rodaje de El mono borracho en el ojo del tigre, Chan tuvo que diseñar el arte marcial llamado Kung Fu del mono borracho o Kung Fu estilo borracho.

En sus películas es muy común que durante los créditos finales se intercalen tomas falsas de los cortes acrobáticos que Jackie Chan realizó mal durante la producción de la película.

Jackie Chan está considerado hoy en día como un maestro de las artes marciales y sus más fervientes fans le conocen como el rey del Kung Fu. Es embajador de la UNICEF, y además cuenta con su propia organización caritativa; ayudado por gente de todo el mundo, y por supuesto de sus fans, le envían comida, ropa y dinero (el propio Jackie Chan guarda ropa que le regalan las agencias de viajes) para que todos los años cuando llegue la Navidad, dar grandes cantidades de donaciones y caridad.

En 2003 Jackie Chan se enamoró de los osos de Berlín al visitar la ciudad durante varias semanas para el rodaje de la película «La vuelta al mundo en ochenta días». Aquí se dejo fotografiar con cientos de Osos Buddy e hicieron un póster. En un taller visitó a artistas de todo el mundo que estaban trabajando en el proyecto United Buddy Bears. En el año 2004 se ocupó de que el círculo de los United Buddy Bears visitara Hong Kong. En la inauguración hizo entrega de tres cheques por un importe total de 1,43 millones de dólares de Hong Kong a UNICEF y a otras dos organizaciones para niños. Desde entonces, Chan celebra cada año concursos de dibujo en todo el mundo (no sólo para niños y jóvenes) sobre los osos. Su deseo es que el proyecto de los United Buddy Bears, el cual une a las naciones y en el que participan más de 150 artistas procedentes de distintos países, llegue también a Taipéi para ayudar a Taiwán a salir de la actual situación de aislamiento político.

Filmografia

Año Título original Título en España Título en Hispanoamérica Personaje
2010 Kung Fu Panda 2 Kung Fu Panda 2 Kung Fu Panda 2 Mono
2010 Kung Fu master Maestro del Kung Fu Maestro del Kung Fu Jackie Chan
2010 The Karate Kid The Karate Kid Karate Kid Sr. Han
2010 Little Big Soldier Pequeño Gran Soldado
2010 The Spy Next Door El super canguro Mi vecino es un espía Bob Ho
2009 wushu wushu wushu er
2008 Shinjuku Incident Incidente en Shinjuku Steelhead
2008 Kung Fu Panda Kung Fu Panda Kung Fu Panda Mono
2008 The Forbidden Kingdom El Reino Prohibido El Reino Prohibido Lu Yan
2007 Rush Hour 3 Hora punta 3 Una Pareja Explosiva 3 inspector Lee
2006 Rob-B-Hood Dos Ladrones y medio
2005 The Myth El mito El Dragon inmortal Jack/Meng Yi
2004 The Huadu Chronicles: Blade of the Rose las cronicas de huadu
2004 New Police Story Nueva historia de policia Máxima Traición Jackie Chan – (CHAN Kwok-Wing)
2004 Enter the Phoenix / Hong Kong (EE.UU.) Una Mafia De Locos Cameo
2004 Around the World in 80 Days La vuelta al mundo en 80 dias La vuelta al mundo en 80 dias Passepartout
2003 The Twins Effect (Hong Kong) / Vampire Effect(EE.UU.) the twins effect Efecto Vampiro Paramédico
2003 The Medallion El poder del talismán El poder del talismán Eddie Yang
2003 Shanghai Knights Los Rebeldes de Shangai Shanghai Kid en Londres Chon Wang
2002 The Tuxedo El Esmoquin El Smoking Jimmy Tong
2001 Rush Hour 2 Hora punta 2 Una Pareja Explosiva 2 Inspector Lee
2001 Accidental Spy Espia Accidental Espía por Accidente Buck Yuen
2000 Shanghai Noon shanghai kid Shanghai Kid: del Este al Oeste Chon Wang
1999 Gorgeous maximo rival Amor Inesperado C.N Chan
1999 Rush Hour Hora punta Una Pareja Explosiva Inspector Lee
1998 Who Am I? Quien soy?? ¿Quién soy? Agente sin nombre
1997 Jackie Chan, My Story Jackie Chan: Mi Historia jackie chan
1997 An Alan Smithee Film: Burn Hollywood Burn Cameo
1997 Mr. Nice Guy / A Nice Guy El Superchef El Invencible – jackie
1996 Police Story IV: First Strike Impacto Inminente
1995 Thunderbolt / Dead Heat operacion trueno
1994 Rumble in the Bronx Duro de matar Masacre en New York Jackie
1994 Drunken Master II / Drunken Monkey II la leyenda del luchador borracho
1993 Crime Story Historia de Crimen
1993 City Hunter city hunter cazador urbano – cazador
1992 Police Story III: Supercop supercop Chan Ka-Kui
1991 Twin Dragons / Double Dragons / twin`s dragon`s Dragones Gemelos –
1991 Island of Fire / When Dragons Meet / The Prisoner isla del fuego
1990 Armour of God II: Operation Cóndor Operación Cóndor Operación Cóndor Jackie (Halcón)
1989 Miracles: Mr. Canton and Lady Rose ganster para un pequeño milagro
1988 Police Story II / superpolicia en apuros superpolicia en apuros Historia Policiaca Parte II Chan Ka-Kui
1987 Dragons Forever / Three Brothers los tres dragones
1987 Project A II / Project B Los tesoros del mar de china Proyecto A II Dragon Ma
1986 Armour of God / Thunderarm la armadura de dios La armadura de Dios Jackie (Halcón)
1985 Police Story armas invencibles Historia Policiaca Chan Ka-Kui
1985 Heart of Dragon / First Mission heart of dragon Corazón de dragón Tat Fung
1985 The Protector El protector
1985 Twinkle, Twinkle, Lucky Stars
1985 My Lucky Stars Mi estrella de la suerte Mi estrella de la suerte Muscules
1984 Wheels on Meals Los Supercamorristas, Comidas a domicilio Thomas
1984 Project A / Pirate Patrol Los piratas del mar de China Proyecto A Dragon Ma
1983 Cannonball Run II Los locos del Cannonball II
1983 Winners and Sinners / Five Lucky Stars Ganadores y pecadores
1982 Dragon Lord lord dragon
1980 Cannonball Run Los locos del Cannonball
1980 Battle Creek Brawl / The Big Brawl la furia de chicago
1980 The Young Master el chino
1980 Fearless Hyena II Hiena Salvaje 2 Shing Lung
1979 Fearless Hyena Hiena Salvaje Shing Lung
1978 Drunken Master / Drunk Monkey El Mono Borracho en el ojo del Tigre Won Fei Hung
1978 Snake in Eagle’s Shadow / Snaky Monkey La serpiente a la sombra del aguila Sien Fu
1978 Dragon Fist El Puño del Dragon
1978 Spiritual Kung Fu / Karate Ghost Buster espiritual kung fu
1978 Magnificent Bodyguards el superguardaespaldas
1978 Half a Loaf of Kung Fu el aprendiz de kung fu
1978 Snake and Crane Arts of Shaolin El Estilo De La Serpiente Y La Grulla Shaolin
1977 To Kill with Intrigue / Jackie Chan Connection
1977 Killer Meteors / Jackie Chan vs. Wang Yu Meteoro Inmortal
1976 Shaolin Wooden Men Matar a Traición
1976 New Fist of Fury Furia Oriental II
1976 Hand of Death / Countdown in Kung Fu la mano de la muerte
1975 All in the Family
1973 Operación Dragón operacion dragon
1973 Not Scared to Die / Eagle’s Shadow Fist
1971 The Heroine / Kung Fu Girl
1971 The Little Tiger of Canton / Master with Cracked fingers la furia de jackie

Guanábana o Graviola

Publicado: 12/25/2010 en Curiosidades, Salud

Es un árbol de hoja perenne endémico del Caribe, México, Centro y Sudamérica, estrechamente relacionado con la chirimoya. Se cultiva, como esta, por su fruto, de cáscara verde y sabor muy dulce.

Descripción

El árbol alcanza entre 8 y 12 m de altura y su corona es poco ramificada. Las hojas tienen forma de laurel. Las flores son oblongas y tienen tres sépalos y pétalos de color verde y amarillo.

La fruta es muy delicada de color verde oscuro cubierta de espinas suaves. Es relativamente grande y de cáscara muy delgada. Se debe cosechar antes de estar madura. La pulpa es blanca, cremosa, carnosa, jugosa y ligeramente ácida, mide 2-3 dm de largo, pudiendo pesar 2,5 kg.

Beneficios y riesgos para la salud

En los últimos años, el extracto de guanábana ha llegado a ser ampliamente aclamado por tener supuestas propiedades altamente potentes para combatir el cáncer. Desde 1999, e-mails circulan por Internet afirmando que el té de guanábana cura el cáncer. De forma errónea se llegó a creer que esto era cierto, sin embargo, no existen pruebas de que la guanábana, o algún compuesto de esta sea efectivo contra algún tipo de cáncer.

Existen diversos estudios sobre la anonacina, el compuesto de la guanábana que tendría efectos anticancerosos, sin embargo, esos estudios fueron solamente realizados in vitro o in vivo en animales, no existiendo aún ningún estudio clínico, en humanos. Un motivo citado para la falta de estudios clínicos en humanos es el hecho de que no se puede patentar una planta, lo que lleva a los laboratorios, que patrocinan los estudios a concentrar las investigaciones en los principios activos, acetogeninas anonáceas, en vez de la planta.

Estudios en el Caribe sugieren una conexión entre consumo de esta fruta y formas atípicas de la enfermedad de Parkinson debido a la muy alta concentración de annonacina. La concentración de annonacina en la fruta (15 mg/fruta) o en el néctar comercial (36 mg/lata) es cien veces mayor que en el té elaborado a partir de sus hojas (140 μg/taza).

Sistema linfatico

Publicado: 12/18/2010 en Anatomia, cuerpo humano

El sistema linfático es uno de los más importantes del cuerpo, por todas las funciones que realiza a favor de la limpieza y la defensa del cuerpo.

Está considerado como parte del sistema circulatorio porque está formado por conductos parecidos a los vasos capilares, que transportan un líquido llamado linfa, que proviene de la sangre y regresa a ella. Este sistema constituye por tanto la segunda red de transporte de líquidos corporales.
El sistema linfático está constituido por los troncos y conductos linfáticos de los órganos linfoideos primarios y secundarios. Cumple cuatro funciones básicas:

  • El mantenimiento del equilibrio osmolar en el «tercer espacio»(Se llama tercer espacio al espacio intercelular, es decir, que se encuentra entre las células, para distinguirlo del intracelular, que está dentro de las células y del espacio intravascular que corresponde al interior de los vasos sanguíneos y linfáticos).
  • Contribuye de manera principal a formar y activar el sistema inmunitario (las defensas del organismo).
  • Recolecta el quilo a partir del contenido intestinal, un producto que tiene un elevado contenido en grasas.
  • Controla la concentración de proteínas en el intersticio, el volumen del líquido intersticial y su presión.

Ganglios linfáticos

Los ganglios o nodos linfáticos son unas estructuras nodulares que forman parte del sistema linfático y forman agrupaciones en forma de racimos. Son una parte importante del sistema inmunitario, ayudando al cuerpo a reconocer y combatir gérmenes, infecciones y otras sustancias extrañas.

Su presencia se pone de manifiesto fácilmente en partes accesibles al examen físico directo en zonas como axilas, ingle, cuello, cara, huecos supraclaviculares y huecos poplíteo.

Tejidos y órganos linfáticos

Los tejidos linfáticos del sistema linfático son el bazo, las placas de peyer, los ganglios linfáticos y la médula ósea.

El bazo tiene la función de filtrar la sangre y limpiarla de formas celulares alteradas y, junto con el timo y la médula ósea, cumplen la función de madurar a los linfocitos, que son un tipo de leucocito.

Cuando la presión sanguínea aumenta dentro de los vasos capilares, el plasma sanguíneo tiende a difundirse a través de las paredes de los capilares, debido a la gran presión que se ejerce sobre estas paredes. Durante este proceso se pierde gran cantidad de nutrientes y biomoléculas que son transportados por medio de la sangre, creando con esto una descompensación en la homeostasis; es en este instante en donde toma una importancia radical el sistema linfático, ya que se encarga de recolectar todo el plasma perdido durante la presión sanguínea y hacer que retorne a los vasos sanguíneos manteniendo, de esta forma, la homeostasis corporal.

Flex Flix

Publicado: 12/18/2010 en Tecnologia

Flex flix es un sistema creado por Opel para llevar las bicicletas en el coche de forma segura. Esta integrado en el parachoques trasero del coche, pudiendo esconderse cuando no se utiliza.

Se tratara de una especie de cajón, Para utilizarlo basta con extenderlo, sin necesidad de colocarle una placa de matrícula adicional, luces extra,ni ninguna señal de exceso de carga, además de resultar mucho más ergonómico que otros sistemas.

Esta innovadora solución para el transporte de bicis tiene un avisador sonoro que advierte al conductor si el sistema está extendido para evitar colisiones al circular marcha atrás. FlexFix puede cargar con dos bicicletas con ruedas de entre 18 y 28 pulgadas (las bicicletas de montaña suelen tener un diámetro de 26 pulgadas y las de carretera suelen ser de 28) y un peso de hasta 40 kilos.

Ondas electromagnéticas

Publicado: 12/18/2010 en Tecnologia

Algunos os preguntareis como podemos  escuchar la radio o ver la TV. Esta Entrada aclarada tus dudas. Aqui unos conceptos.

-Una onda electromagnética es la forma de propagación de la radiación electromagnética a través del espacio. y sus aspectos teóricos están relacionados con la solución en forma de onda que admiten las ecuaciones de Maxwell. A diferencia de las ondas mecánicas, las ondas electromagnéticas no necesitan de un medio material para propagarse; es decir, pueden desplazarse por el vacío.

-Las ondas luminosas son ondas electromagnéticas cuya frecuencia está dentro del rango de la luz visible.

-La radiación electromagnética es una combinación de campos eléctricos y magnéticos oscilantes, que se propagan a través del espacio transportando energía de un lugar a otro. [1] A diferencia de otros tipos de onda, como el sonido, que necesitan un medio material para propagarse, la radiación electromagnética se puede propagar en el vacío. En el siglo XIX se pensaba que existía una sustancia indetectable, llamada éter, que ocupaba el vacío y servía de medio de propagación de las ondas electromagnéticas. El estudio teórico de la radiación electromagnética se denomina electrodinámica y es un subcampo del electromagnetismo.

-Las ecuaciones de Maxwell son un conjunto de cuatro ecuaciones (originalmente 20 ecuaciones) que describen por completo los fenómenos electromagnéticos. La gran contribución de James Clerk Maxwell fue reunir en estas ecuaciones largos años de resultados experimentales, debidos a Coulomb, Gauss, Ampere, Faraday y otros, introduciendo los conceptos de campo y corriente de desplazamiento, y unificando los campos eléctricos y magnéticos en un solo concepto: el campo electromagnético.

Espectro electromagnético

Atendiendo a su longitud de onda, la radiación electromagnética recibe diferentes nombres, y varía desde los energéticos rayos gamma (con una longitud de onda del orden de picómetros) hasta las ondas de radio (longitudes de onda del orden de kilómetros), pasando por el espectro visible (cuya longitud de onda está en el rango de las décimas de micrómetro). El rango completo de longitudes de onda es lo que se denomina el espectro electromagnético.

El espectro visible es un minúsculo intervalo que va desde la longitud de onda correspondiente al color violeta (aproximadamente 400 nanómetros) hasta la longitud de onda correspondiente al color rojo (aproximadamente 700 nm).

Radiofrecuencia

En radiocomunicaciones, los rangos se abrevian con sus siglas en inglés. Los rangos son:

  • Frecuencias extremadamente bajas: Llamadas ELF (Extremely Low Frequencies), son aquellas que se encuentran en el intervalo de 3 a 30 Hz. Este rango es equivalente a aquellas frecuencias del sonido en la parte más baja (grave) del intervalo de percepción del oído humano. Cabe destacar aquí que el oído humano percibe ondas sonoras, no electromagnéticas, sin embargo se establece la analogía para poder hacer una mejor comparación.
  • Frecuencias super bajas: SLF (Super Low Frequencies), son aquellas que se encuentran en el intervalo de 30 a 300 Hz. En este rango se incluyen las ondas electromagnéticas de frecuencia equivalente a los sonidos graves que percibe el oído humano típico.
  • Frecuencias ultra bajas: ULF (Ultra Low Frequencies), son aquellas en el intervalo de 300 a 3000 Hz. Este es el intervalo equivalente a la frecuencia sonora normal para la mayor parte de la voz humana.
  • Frecuencias muy bajas: VLF, Very Low Frequencies. Se pueden incluir aquí las frecuencias de 3 a 30 kHz. El intervalo de VLF es usado típicamente en comunicaciones gubernamentales y militares.
  • Frecuencias bajas: LF, (Low Frequencies), son aquellas en el intervalo de 30 a 300 kHz. Los principales servicios de comunicaciones que trabajan en este rango están la navegación aeronáutica y marina.
  • Frecuencias medias: MF, Medium Frequencies, están en el intervalo de 300 a 3000 kHz. Las ondas más importantes en este rango son las de radiodifusión de AM (530 a 1605 kHz).
  • Frecuencias altas: HF, High Frequencies, son aquellas contenidas en el rango de 3 a 30 MHz. A estas se les conoce también como «onda corta». Es en este intervalo que se tiene una amplia gama de tipos de radiocomunicaciones como radiodifusión, comunicaciones gubernamentales y militares. Las comunicaciones en banda de radioaficionados y banda civil también ocurren en esta parte del espectro.
  • Frecuencias muy altas: VHF, Very High Frequencies, van de 30 a 300 MHz. Es un rango popular usado para muchos servicios, como la radio móvil, comunicaciones marinas y aeronáuticas, transmisión de radio en FM (88 a 108 MHz) y los canales de televisión del 2 al 12 [según norma CCIR (Estándar B+G Europa)]. También hay varias bandas de radioaficionados en este rango.
  • Frecuencias ultra altas: UHF, Ultra High Frequencies, abarcan de 300 a 3000 MHz, incluye los canales de televisión de UHF, es decir, del 21 al 69 [según norma CCIR (Estándar B+G Europa)] y se usan también en servicios móviles de comunicación en tierra, en servicios de telefonía celular y en comunicaciones militares.
  • Frecuencias super altas: SHF, Super High Frequencies, son aquellas entre 3 y 30 GHz y son ampliamente utilizadas para comunicaciones vía satélite y radioenlaces terrestres. Además, pretenden utilizarse en comunicaciones de alta tasa de transmisión de datos a muy corto alcance mediante UWB. También son utilizadas con fines militares, por ejemplo en radares basados en UWB.
  • Frecuencias extremadamente altas: EHF, Extrematedly High Frequencies, se extienden de 30 a 300 GHz. Los equipos usados para transmitir y recibir estas señales son más complejos y costosos, por lo que no están muy difundidos aún.

Microondas

Cabe destacar que las frecuencias entre 1 GHz y 300 GHz, son llamadas microondas. Estas frecuencias abarcan parte del rango de UHF y todo el rango de SHF y EHF. Estas ondas se utilizan en numerosos sistemas, como múltiples dispositivos de transmisión de datos, radares y hornos microondas.

Infrarrojo

La radiación infrarroja se asocia generalmente con el calor. Éstas son producidas por cuerpos que generan calor, aunque a veces pueden ser generadas por algunos diodos emisores de luz y algunos láseres.

Las señales son usadas para algunos sistemas especiales de comunicaciones, como en astronomía para detectar estrellas y otros cuerpos y para guías en armas, en los que se usan detectores de calor para descubrir cuerpos móviles en la oscuridad. También se usan en los mandos a distancia de los televisores y otros aparatos, en los que un transmisor de estas ondas envía una señal codificada al receptor del televisor. En últimas fechas se ha estado implementando conexiones de área local LAN por medio de dispositivos que trabajan con infrarrojos, pero debido a los nuevos estándares de comunicación estas conexiones han perdido su versatilidad.

Por encima de la frecuencia de las radiaciones infrarrojas se encuentra lo que comúnmente es llamado luz.

Ultravioleta

Se denomina. radiación ultravioleta o radiación UV a la radiación electromagnética cuya longitud de onda está comprendida aproximadamente entre los 400 nm (4×10-7 m) y los 15 nm (1,5×10-8 m). Su nombre proviene de que su rango empieza desde longitudes de onda más cortas de lo que los humanos identificamos como el color violeta. Esta radiación puede ser producida por los rayos solares y produce varios efectos en la salud.

Rayos X

La denominación rayos X designa a una radiación electromagnética, invisible, capaz de atravesar cuerpos opacos y de imprimir las películas fotográficas. La longitud de onda está entre 10 a 0,1 nanómetros, correspondiendo a frecuencias en el rango de 30 a 3.000 PHz (de 50 a 5.000 veces la frecuencia de la luz visible).

Rayos gamma

La radiación gamma es un tipo de radiación electromagnética producida generalmente por elementos radioactivos o procesos subatómicos como la aniquilación de un par positrón-electrón. Este tipo de radiación de tal magnitud también es producida en fenómenos astrofísicos de gran violencia.

Debido a las altas energías que poseen, los rayos gamma constituyen un tipo de radiación ionizante capaz de penetrar en la materia más profundamente que la radiación alfa o beta. Dada su alta energía pueden causar grave daño al núcleo de las células, por lo que son usados para esterilizar equipos médicos y alimentos.

Tecnologia RFID

Publicado: 12/18/2010 en Tecnologia

RFID (siglas de Radio Frequency IDentification, en español identificación por radiofrecuencia) es un sistema de almacenamiento y recuperación de datos remoto que usa dispositivos denominados etiquetas, tarjetas, transpondedores o tags RFID. El propósito fundamental de la tecnología RFID es transmitir la identidad de un objeto (similar a un número de serie único) mediante ondas de radio. Las tecnologías RFID se agrupan dentro de las denominadas Auto ID (automatic identification, o identificación automática).
Las etiquetas RFID son unos dispositivos pequeños, similares a una pegatina, que pueden ser adheridas o incorporadas a un producto, un animal o una persona. Contienen antenas para permitirles recibir y responder a peticiones por radiofrecuencia desde un emisor-receptor RFID. Las etiquetas pasivas no necesitan alimentación eléctrica interna, mientras que las activas sí lo requieren. Una de las ventajas del uso de radiofrecuencia (en lugar, por ejemplo, de infrarrojos) es que no se requiere visión directa entre emisor y receptor.

Antecedentes

En la actualidad, la tecnología más extendida para la identificación de objetos es la de los códigos de barras. Sin embargo, éstos presentan algunas desventajas, como la escasa cantidad de datos que pueden almacenar y la imposibilidad de ser reprogramados. La mejora ideada constituyó el origen de la tecnología RFID; consistía en usar chips de silicio que pudieran transferir los datos que almacenaban al lector sin contacto físico, de forma equivalente a los lectores de infrarrojos utilizados para leer los códigos de barras.

Indudablemente para el usuario el eliminar la descarga y vuelta a cargar del carro ante la cajera, así como tener la seguridad que no hay errores humanos en la confección del ticket, supone una mejora. También lo es para el establecimiento eliminar de la nómina un buen número de empleados de caja, así como poder tener funcionando la totalidad de las cajas disponibles, tanto en horas punta, como en horas valle, sin que ello suponga mayor gasto de personal.

Uso actual

las de baja frecuencia se utilizan comúnmente para la identificación de animales, seguimiento de barricas de cerveza, o como llave de automóviles con sistema antirrobo. En ocasiones se insertan en pequeños chips en mascotas, para que puedan ser devueltas a su dueño en caso de pérdida. En los Estados Unidos se utilizan dos frecuencias para RFID: 125 kHz (el estándar original) y 134,5 kHz (el estándar internacional). Las etiquetas RFID de alta frecuencia se utilizan en bibliotecas y seguimiento de libros, seguimiento de palés, control de acceso en edificios, seguimiento de equipaje en aerolíneas, seguimiento de artículos de ropa y ahora último en pacientes de centros hospitalarios para hacer un seguimiento de su historia clínica. Un uso extendido de las etiquetas de alta frecuencia como identificación de acreditaciones, substituyendo a las anteriores tarjetas de banda magnética. Sólo es necesario acercar estas insignias a un lector para autenticar al portador.

Las etiquetas RFID de UHF se utilizan comúnmente de forma comercial en seguimiento de palé y envases, y seguimiento de camiones y remolques en envíos o en sistemas de distribución de uniformidad en Hospitales HF(Asturias – España) o incluso en la ropa plana, siempre y cuando el tag sea encapsulado en resina de epoxi, para mayor resistencia al proceso de calandrado y prenda de extracción de agua. Sector textil-sanitario

 

La katana

Publicado: 12/11/2010 en Cúltura

La katana es un sable japonés (daitō), aunque en Occidente esta palabra es usada genéricamente para englobar a todos los sables japoneses.

El origen de la katana japonesa se remonta a los siglos X-XII, cuando los chinos de la dinastía Song introdujeron en el país una espada curva llamada «El destripador de caballos», nombre dado por ser un arma utilizada en combate contra la caballería pesada para destripar el vientre o atacar los cuartos delanteros del caballo. Esta espada, más adelante conocida como sable, simplemente evolucionó hasta la posterior katana Japonesa.

Debido al carácter curvo de su hoja y a su único filo, la katana debe ser considerada realmente un sable. Como tal, está fundamentalmente orientada al corte más que a la estocada. Su curvatura surge de la necesidad de obtener un corte eficaz cuando se maneja desde la montura del caballo; la hoja recta tiende a «empotrarse» en el momento del corte, mientras que la curva obtiene siempre un corte tangencial a la trayectoria del arma y con ello evita que la katana se quede bloqueada.

La katana era utilizada principalmente para cortar y debido a su capacidad de producir heridas muy severas, era considerada una especie de «guillotina de mano». Se la desenvaina con un movimiento axial de rotación, llevando el filo hacia arriba y se la puede blandir con una o dos manos (siendo esta última modalidad la tradicional).

Aunque el arte del manejo del sable japonés, según su propósito original, ha quedado en la actualidad casi obsoleto, el kenjutsu (conjunto de técnicas de sable) dio origen al gendai budō, un arte marcial moderno. Muchas técnicas de seis escuelas samurái tradicionales, siguen practicándose hoy en el Ninjutsu. Mientras, la esencia de su manejo persiste en el iaidō (antiguamente iai jutsu), que es el arte de «desenvainar cortando» y en el kendō (camino del sable) que es el arte de manejar una espada de bambú llamada shinai y utilizando como protección una máscara (men) y una armadura (bogu). Las escuelas originales del kenjutsu koryū aún existen y siguen siendo practicadas, como Niten Ichi Ryu.

Partes de la katana

  • Hamon: línea diferencial del temple de la hoja. Por ejemplo ondulada en el estilo Notare.
  • Hi: Surco longitudinal en la hoja, utilizado para aligerar la pieza. Otra de sus funciones es absorber y repartir la tensión de los golpes, evitando el deterioro o la torsión de la hoja.
  • Iori-Muné: tipo de nervio de la hoja sin rebaje.
  • Kissaki: punta.
  • Mei: firma del armero, normalmente en el Nakago.
  • Mekugis: pasadores que sujetan la Tsuka (mango) al Nakago (espiga), solían ser de madera de bambú.
  • Mekugi-Ana: agujeros para los pasadores.
  • Menuki: aplicaciones metálicas ornamentales en los laterales del mango.
  • Moto-Haba: ancho de la hoja.
  • Moto-Kasane: espesor de la hoja en el Habaki.
  • Mune: contrafilo.
  • Nagasa: longitud.
  • Nakago: espiga, parte de la hoja que entra en la empuñadura.
  • Niké: rebaje del nervio.
  • Saki-Haba: anchura de la hoja al comienzo del Kissaki.
  • Samé: forro de la Tsuka. Solía ser de piel de tiburón o raya para evitar el deslizamiento del Tsuka-Ito.
  • Sori: curvatura.
  • Sugata: tipo de hoja.
  • Tsuba: guarda, rodela. Solía decorarse con motivos naturales.
  • Tsuka: mango.
  • Tsuka-Ito: encordadura del mango.
  • Yokote: línea que separa la punta del resto de la hoja.

Mantenimiento

La katana debe mantenerse limpia y lubricada para prevenir que el acero se altere o quiebre. Tanto el sudor como el polvo o la sangre afectan la hoja; por eso debe hacerse un mantenimiento periódico. Actualmente se consiguen en el mercado los elementos necesarios para conformar el Kit de limpieza, los cuales deben o pueden contener:

  • Martillo de metal sólido, denominado Mekugi.
  • Aceite vegetal lubricante Koji.
  • Papel de arroz, Harai Gami.
  • Bola de polvo no abrasivo, conocido como Uchiko.
  • Paño suave para mantenimiento y un envase de plástico para guardarlo, conocido como Erufu.

Algunos kit traen un pequeño envase de plástico para resguardar papel de arroz con aceite. Estos elementos deben guardarse juntos y algunos kits vienen en una caja de madera labrada o sencilla pero con escrituras en kanji alusivas a las artes de guerra.

Otras espadas japonesas

-El Tanto
Es una especie de puñal fino con un solo filo y se llevaba escondido. Solamente se usaba en caso de emergencia.
– Tachi
El Tachi es un sable que ha sido creado para ceremonias y celebraciones cortesanas.
Está decorado profusamente y su hoja está grabada con bellos dibujos.
El Tachi es una especie de sable de gala y raramente se usaba en combate.

– Daisho: Katana y Wakizashi
Este tipo de sable tenía menos decoración y era el arma que el Samurai realmente usaba.
El sable Daisho se sujetaba con una cinta que se pasaba por un ojal de madera que estaba adosado a la vaina.
Hay dos tamaños para éste tipo de sable, katana, que es el mayor y wakizashi, el menor.
El más conocido es el katana y se usa con las dos manos, aunque también se puede usar con una.
El wakizashi se maneja solo con una mano y se usaba en espacios cerrados como castillos y bosques.
Los sables se guardan en unas cajas de madera decoradas que se llaman katana zutsu y los soportes katana kake.

– Iaito
El sable Iaito está hecho con aleación de zinc aluminio y se asemeja a una auténtica katana por su forma, tamaño, peso y balance.
Su principal característica es que está poco afilado, a veces sin filo.
El Iaito está diseñado para entrenar iaido, además de otras artes marciales.

Orochimaru es uno de los tres legendarios sannin de la aldea de Konoha junto a  Tsunade y Jiraiya.

Orochimaru es hombre, pero habla con un tono agudo y un poco femenino en japonés para darle un tono más siniestro. Debido a que esto no podía reproducirse, en el doblaje en inglés y en español se le dio una voz masculina baja y rasposa.

Sus padres murieron cuando él era joven, mientras que, el tercer hokage reconoció rápidamente el talento natural de Orochimaru, diciendo a menudo a Jiraiya «¿por qué no te pareces más a Orochimaru?«. El Tercero estaba al tanto de la maldad dentro de Orochimaru, pero eligió fingir no notarlo porque esperaba que podría calmarse esta parte de la personalidad de Orochimaru. Mientras pasaban los años, éste formó una gran amistad con Jiraiya, aunque no carente de rivalidad.

Después de pasar muchos años de aprendizaje con el Tercero, Orochimaru comenzó a estudiar sobre sus deseos internos de obtener inmortalidad con la esperanza de poder aprender todos los jutsu existentes. Para lograr esta meta, Orochimaru comenzó a secuestrar a aldeanos y a experimentar con ellos, intentando entender mejor cómo trabaja el cuerpo y qué modificaciones podría realizar.

En un experimento, Orochimaru puso a diez niños su propio sello maldito en un esfuerzo de ver cuál era su tasa de éxito. Uno de los diez sería su propio estudiante, Anko Mitarashi, ya que ella fue la única en sobrevivir. En otro experimento, él inyectó los genes del Primer Hokage en sesenta niños con la esperanza de que consiguieran y dominara la técnica Mokuton, y la capacidad de controlar a los Bijū. Orochimaru creyó que todos los niños de prueba habían muerto pero en realidad, uno de ellos, Yamato, sobrevivió, y conservó las capacidades que Orochimaru había deseado.

Orochimaru comenzó a ser menos discreto con sus experimentos, permitiendo que el Tercero descubriera lo que hacía. Al ser descubierto, el alumno dio a su maestro anterior la ocasión de matarle, pero el Tercero no quiso hacerlo, así que permitió que se escapase. Cuando huyó de la aldea, Jiraiya, pensando en Orochimaru como un gran amigo, intentó pararlo y persuadirlo para que volviera a Konoha, aunque Orochimaru lo rechazó y se fue deKonoha para siempre, adquiriendo un gran odio por su antiguo hogar.

Después de dejar Konoha, Orochimaru entró en conflicto con Konoha y fundo la Villa del Sonido. Despues de esto no se sabe con exactitud como orochimaru ingreso a la asociacion akatsuki y también se sabe que intentó tomar el control del cuerpo de Itachi Uchiha para conseguir su Sharingan. Debido a sus capacidades, Itachi pudo prever las intenciones de Orochimaru, y cortarle la mano en que llevaba su anillo de Akatsuki tras revertir la técnica. Al no poder tomar el cuerpo de Itachi, Orochimaru dejó la organización, se llevó su anillo con él, y Akatsuki está, quizás consecuentemente, preocupada por capturarlo desde entonces. El encargado de hacerlo era el miembro Deidara.

Al ser uno de los legendarios Sannin así como un miembro anterior de la Organización Akatsuki, Orochimaru es un ninja calificado de «genio». Sin embargo ha exhibido solamente una cantidad limitada de jutsu. Desde que se fue de Konoha ha hecho muchas modificaciones a su cuerpo, dando por resultado su forma natural actual, que es la de una serpiente blanca gigante integrada por muchas serpientes más pequeñas. Esta forma tiene las ventajas de permitir que estire cualquier parte de su cuerpo a grandes longitudes, regenerar cualquier herida infligida sobre él y utilizar de varias maneras las serpientes que lo componen para el ataque. La culminación de su investigación en inmortalidad se puede también encontrar en esta forma, pues le permite que transfiera a un nuevo cuerpo su alma una vez cada tres años y que escape con esto de los efectos de la vejez. Al principio de la serie, Orochimaru dice haber utilizado la capacidad dos veces, aunque una mirada dentro de su subconsciente sugiere que lo haya utilizado más.

Es maestro de Sasuke.

Tanto su nombre como los de Jiraiya y de Tsunade vienen de la novela japonesa Jiraiya Goketsu Monogatari.

Tecnicas

– Fushi Tensei: Ninjutsu prohibido que conserva el alma del usuario en el mundo por siempre, es una técnica de reencarnación donde tras encontrar un nuevo cuerpo el alma es transferida apoderándose de este. La transferencia se debe realizar cada tres años, al parecer porque los cuerpos no resisten el poder de Orochimaru. Esta técnica fue creada por Orochimaru para poder vivir eternamente y así dominar todas las técnicas.Esta es la técnica existente que más reglas rompe, ya que se introduce en un cuerpo para siempre, eliminando definitivamente el alma del cuerpo. Orochimaru la utiliza para ser inmortal, si la personalidad del absorbido es lo suficientemente poderosa, puede influír en la de Orochimaru, esta técnica posee un gran punto débil y es que puede ser anulada e incluso revertida por un usuario del Sharingan.

-Kuchiyose no jutsu (técnica de invocación). Ninjutsu de tipo espacio-temporal, diseñado para invocar distintos tipos de seres vivos u objetos utilizados para el combate, los cuales están en otro tiempo o espacio, en base a esto tenemos varios tipos de kuchiyose no jutsu. En este caso serpientes.

invocación de Orochimaru

– Sen’ei Tajashu: en esta técnica el usuario aumenta notablemente el número de serpientes invocadas a partir de su cuerpo.

 

El sida consiste en la incapacidad del sistema inmunitario para hacer frente a las infecciones y otros procesos patológicos, y se desarrolla cuando el nivel de Linfocitos T CD4 desciende por debajo de 200 células por mililitro de sangre.

Normalmente, los glóbulos blancos y anticuerpos atacan y destruyen a cualquier organismo extraño que entra al cuerpo humano. Esta respuesta es coordinada por un tipo de células llamados linfocitos CD4. Desafortunadamente, el VIH ataca específicamente a las células que expresan el receptor CD4, una de las más importantes son los linfocitos T CD4+ y entra en ellos. Una vez dentro, el virus transforma su material genético de cadena simple (ARN) a uno de cadena doble (ADN) para incorporarlo al material genético propio del huésped (persona infectada) y lo utiliza para replicarse o hacer copias de sí mismo. Cuando las nuevas copias del virus salen de las células a la sangre, buscan a otras células para atacar. Mientras, las células de donde salieron mueren. Este ciclo se repite una y otra vez.

Para defenderse de esta producción de virus, el sistema inmune de una persona produce muchas células CD4 diariamente. Paulatinamente el número de células CD4 disminuye, por lo que la persona sufre de inmunodeficiencia, lo cual significa que la persona no puede defenderse de otros virus, bacterias, hongos y parásitos que causan enfermedades, lo que deja a la persona susceptible de sufrir enfermedades que una persona sana sería capaz de enfrentar, como la neumonía atípica y la meningitis atípica. Estas enfermedades son principalmente infecciones oportunistas. Dado que el organismo posee mecanismos de control de crecimiento celular dependiente de células CD4, la destrucción progresiva de éstas células ocasionará que estos mecanismos no sean adecuadamente regulados, lo que origina en consecuencia la presencia de algunas neoplasias (cáncer) que no ocurrirían en personas «sanas». El VIH, además, es capaz de infectar células cerebrales, causando algunas afecciones neurológicas.

Como en los demás retrovirus, la información genética del virus está en forma de ARN, que contiene las «instrucciones» para la síntesis de proteínas estructurales, las cuales al unirse conformarán al nuevo virus (virión); es decir sus características hereditarias, que le son necesarias para replicarse. Habitualmente, en la naturaleza el ADN o ácido desoxirribonucleico es una fuente de material genético desde la que se producirá una copia simple de ARN, pero en el caso del VIH, éste logra invertir el sentido de la información, produciendo ADN a partir de su simple copia de ARN, operación que se denomina transcripción inversa, característica de los retrovirus. El virus inserta su información genética en el mecanismo de reproducción de la célula (núcleo celular), gracias a la acción de la transcriptasa reversa.

El VIH se transmite a través de los siguientes fluidos corporales: sangre, semen, secreciones vaginales y leche materna.

Historia

La era del sida empezó oficialmente el 5 de junio de 1981, cuando los CDC (Centers for Disease Control and Prevention (Centros para el Control y Prevención de Enfermedades) de Estados Unidos convocó una conferencia de prensa donde describió cinco casos de neumonía por Pneumocystis carinii en Los Ángeles[4] Al mes siguiente se constataron varios casos de sarcoma de Kaposi, un tipo de cáncer de piel. Las primeras constataciones de estos casos fueron realizadas por el Dr. Michael Gottlieb de San Francisco.

Pese a que los médicos conocían tanto la neumonía por Pneumocystis carinii como el sarcoma de Kaposi, la aparición conjunta de ambos en varios pacientes les llamó la atención. La mayoría de estos pacientes eran hombres homosexuales sexualmente activos, muchos de los cuales también sufrían de otras enfermedades crónicas que más tarde se identificaron como infecciones oportunistas. Las pruebas sanguíneas que se les hicieron a estos pacientes mostraron que carecían del número adecuado de un tipo de células sanguíneas llamadas T CD4+. La mayoría de estos pacientes murieron en pocos meses.

Por la aparición de unas manchas de color rosáceo en el cuerpo del infectado, la prensa comenzó a llamar al sida, la «peste rosa», causando una confusión, atribuyéndola a los homosexuales, aunque pronto se hizo notar que también la padecían los inmigrantes haitianos en Estados Unidos, los usuarios de drogas inyectables y los receptores de transfusiones sanguíneas, lo que llevó a hablar de un club de las cuatro haches que incluía a todos estos grupos considerados de riesgo para adquirir la enfermedad. En 1982, la nueva enfermedad fue bautizada oficialmente con el nombre de Acquired Immune Deficiency Syndrome (AIDS), nombre que sustituyó a otros propuestos como Gay-related immune deficiency (GRID).

Hasta 1984 se sostuvieron distintas teorías sobre la posible causa del sida. La teoría con más apoyo planteaba que el sida era una enfermedad básicamente, epidemiológica. En 1983 un grupo de nueve hombres homosexuales con sida de Los Ángeles, que habían tenido parejas sexuales en común, incluyendo a otro hombre en Nueva York que mantuvo relaciones sexuales con tres de ellos, sirvieron como base para establecer un patrón de contagio típico de las enfermedades infecciosas.

Otras teorías sugieren que el sida surgió a causa del excesivo uso de drogas y de la alta actividad sexual con diferentes parejas. También se planteó que la inoculación de semen en el recto durante la práctica de sexo anal, combinado con el uso de inhalantes con nitrito llamados poppers, producía supresión del sistema inmune. Pocos especialistas tomaron en serio estas teorías, aunque algunas personas todavía las promueven y niegan que el sida sea producto de la infección del VIH.

La teoría más reconocida actualmente, sostiene que el VIH proviene de un virus llamado «virus de inmunodeficiencia en simios» (SIV, en inglés), el cual es idéntico al VIH y causa síntomas similares al sida en otros primates.

En 1984, dos científicos franceses, Françoise Barré-Sinoussi y Luc Montagnier del Instituto Pasteur, aislaron el virus de sida y lo purificaron. El dr. Robert Gallo, estadounidense, pidió muestras al laboratorio francés, y adelantándose a los franceses lanzó la noticia de que había descubierto el virus y que había realizado la primera prueba de deteccíón y los primeros anticuerpos para combatir a la enfermedad. Después de diversas controversias legales, se decidió compartir patentes, pero el descubrimiento se le atribuyó a los dos investigadores originales que aislaron el virus, y solo a ellos dos se les concedió el Premio Nobel conjunto, junto a otro investigador en el 2008, reconociéndolos como auténticos descubridores del virus, aceptándose que Robert Gallo se aprovechó del material de otros investigadores para realizar todas sus observaciones. En 1986 el virus fue denominado VIH (virus de inmunodeficiencia humana). El descubrimiento del virus permitió el desarrollo de un anticuerpo, el cual se comenzó a utilizar para identificar dentro de los grupos de riesgo a los infectados. También permitió empezar investigaciones sobre posibles tratamientos y una vacuna.

En esos tiempos las víctimas del sida eran aisladas por la comunidad, los amigos e incluso la familia. Los niños que tenían sida no eran aceptados por las escuelas debido a las protestas de los padres de otros niños; éste fue el caso del joven estadounidense Ryan White. La gente temía acercarse a los infectados ya que pensaban que el VIH podía contagiarse por un contacto casual como dar la mano, abrazar, besar o compartir utensilios con un infectado.

En un principio la comunidad homosexual fue culpada de la aparición y posterior expansión del sida en Occidente. Incluso algunos grupos religiosos llegaron a decir que el sida era un castigo de Dios a los homosexuales (esta creencia aún es popular entre ciertas minorías de creyentes cristianos y musulmanes). Otros señalan que el estilo de vida «depravado» de los homosexuales era responsable de la enfermedad. Aunque en un principio el sida se expandió más de prisa a través de las comunidades homosexuales, y que la mayoría de los que padecían la enfermedad en Occidente eran homosexuales, esto se debía, en parte, a que en esos tiempos no era común el uso del condón entre homosexuales, por considerarse que éste era sólo un método anticonceptivo. Por otro lado, la difusión del mismo en África fue principalmente por vía heterosexual.

El sida pudo expandirse rápidamente al concentrarse la atención sólo en los homosexuales, esto contribuyó a que la enfermedad se extendiera sin control entre heterosexuales, particularmente en África, el Caribe y luego en Asia.

Gracias a la disponibilidad de tratamiento antirretrovirales, las personas con VIH pueden llevar una vida normal, la correspondiente a una enfermedad crónica, sin las infecciones oportunistas características del sida no tratado. Los antirretrovirales están disponibles mayormente en los países desarrollados. Su disponibilidad en los países en desarrollo está creciendo, sobre todo en América Latina; pero en África, Asia y Europa Oriental muchas personas todavía no tienen acceso a esos medicamentos, por lo cual desarrollan las infecciones oportunistas y mueren algunos años después de la seroconversión.

origen del virus

De acuerdo con un estudio realizado en 2009, las raíces del virus que causa el SIDA podrían encontrarse en un tigre que vivió hace miles o incluso millones de años. Según averiguaron Robert Bambara y sus colegas de la Universidad de Rochester (EE UU) el virus se apropió de un poco del material genético del tigre, y una porción del felino permanece en el virus hasta hoy día. Es probable que uno de estos animales mordiera a un mono y transfiriera el virus a los simios, aunque podría haber existido otra vía de transmisión, apuntó Bambara. Para confirmar su hipótesis, será preciso determinar si un primo del virus humano del SIDA (VIH) en los monos, conocido como virus de inmunodeficiencia simia (SIV), tiene el gen del tigre.

Si existe una relación entre la presencia del gen y la potencia del virus, podría resultar útil para que los científicos descubran maneras de tratar mejor a los humanos. El estudio fue publicado en la revista Nature Structural & Molecular Biology.

Papá Noel

Publicado: 11/26/2010 en Curiosidades, Navidad

Papá Noel, Santa Claus, Viejito Pascuero, Colacho o San Nicolás son algunos nombres con los cuales se conoce universalmente al personaje legendario que según la cultura occidental trae regalos a los niños por Navidad. Es un personaje inspirado en un obispo cristiano de origen griego llamado Nicolás, que vivió en el siglo IV en Anatolia, en los valles de Licia (en la actual Turquía). Era una de las personas más veneradas por los cristianos de la Edad Media, del que aún hoy se conservan sus reliquias en la basílica de Bari (Italia).

Historia de Nicolás de Bari

Se estima que Nicolás de Bari nació cerca del año 280 en Patara, una ciudad del distrito de Licia, en la actual Turquía.

Era hijo de una familia acomodada y creció bajo los tirantes deseos de sus padres. Su padre deseaba que siguiera sus pasos comerciales en el Mar Adriático, mientras su madre pretendía que fuera sacerdote como su tío, el obispo de Mira (antigua ciudad griega de la Anatolia Egea, actualmente Turquía).

Lamentablemente, la peste solucionó su dilema, al llevarse a sus padres, mientras trataban de ayudar a los enfermos de su ciudad. El muchacho, conmovido con la desgraciada situación de su gente ante semejante enfermedad, repartió sus bienes entre los necesitados y partió hacia Mira para vivir con su tío y ordenarse como sacerdote, cosa que logró a los 19 años. Más tarde, al morir su tío fue elegido para reemplazarlo.

De él, se cuentan cientos de historias, especialmente narrando sus milagros y sus bondades para con la gente pobre. Tal fue la admiración que sintieron por él que se convirtió en santo patrón de Grecia, Turquía, Rusia y la Lorena.

Leyenda

Su relación con los niños nace en una de las historias que indica que alguien acuchilló a varios niños, entonces el santo rezó por ellos y obtuvo su curación casi inmediata. Pero además, Nicolás tenía especial inclinación por los niños.

Su mítica fama de repartidor de obsequios se basa en otra historia, que cuenta que un empobrecido hombre padre de tres hijas, no podía casarlas por no tener la dote necesaria, al carecer las muchachas de la dote parecían condenadas a ser «solteronas». Enterado de esto, Nicolás le entregó, al obtener la edad de casarse, una bolsa llena de monedas de oro a cada una de ellas. Se cuenta que todo esto fue hecho en secreto por el sacerdote quien entraba por una ventana y ponía la bolsa de oro dentro de los calcetines de las niñas, que colgaban sobre la chimenea para secarlos.

También fue nombrado Patrono de los marineros, porque, cuenta otra historia, que estando algunos de ellos en medio de una terrible tempestad en alta mar y viéndose perdidos comenzaron a rezar y a pedir a Dios con oraciones tales como Oh Dios, por las oraciones de nuestro buen Obispo Nicolás, sálvanos. En ese momento la figura de San Nicolás se hizo presente y calmó las aguas. En oriente se lo conoce como San Nicolás de Mira, pero en occidente como San Nicolás de Bari, ya que, cuando los musulmanes invadieron Turquía, los cristianos lograron sacar en secreto sus reliquias (1087) y las llevaron a la ciudad de Bari en Italia. En esta ciudad se obtuvieron tantos milagros al rezarle al santo que rápidamente su popularidad se extendió por toda Europa. Hay cientos de templos en todo el mundo dedicados a su figura. Ya en el año 550, en Roma se erigió uno en su honor.

Papá Noel y la Navidad

En los países europeos este personaje recibe el nombre de Papá Navidad, traducido a su lengua (Father Christmas, Père Noël, Babbo Natale), excepto en España, en que no se ha traducido la palabra francesa Noël, sino que se ha castellanizado: Noel.

Pero ¿cómo se relaciona con los regalos de Navidad? En la antigüedad, en Roma, se realizaban fiestas – a mediados de diciembre- en honor a Saturno (Cronos para los griegos), al final de las cuales los niños recibían obsequios de todos los mayores.

En otra época posterior, cuando el mito de San Nicolás aún no se había corporizado, igualmente existían otras tradiciones, como la de los niños italianos que recibían regalos de un «hada» llamada Befana. En Cataluña y algunas zonas de Aragón es un tronco «mágico», llamado Tió o Tió de Nadal o a veces Cagatió, aunque esta última es más bien la forma de denominarlo los castellanos, al no conocer bien la tradición y la cultura catalana y tener como referencia la canción con la que se hace cagar al Tió (Caga Tió, Tió de Nadal, no caguis arengades, que son salades, caga torrons, que son més bons!!!),esta canción, y otras, se entonan mientras se golpea al Tió con una vara para hacerlo cagar, no antes de haberlo estado alimentando durante los días previos con diferentes alimentos, como: pelas de fruta, galletas, turrones, restos de la comida, etc. Entonces, el día 25 por la tarde, después de la comida tradicional de navidad, es cuando se le hace cagar de la forma anteriormente expuesta. Al golpearlo expulsa los regalos y dulces. Mientras que los pueblos de algunos valles vascos y navarros, los regalos los traía el carbonero Olentzero y también duendes de barba blanca, botas altas y gorro de armiño. En ciertas zonas del centro de Galicia se oye la leyenda del Apalpador, que llegaba el día de Navidad a palpar las barrigas de los niños, dejando castañas a los niños más delgados (para que engordaran) y carbón a los mejor alimentados (para que calentaran la casa). Con el tiempo y con los prodigios conocidos de San Nicolás, éste fue remplazando a algunos de estos personajes paganos.

Leyenda actual

Así, el mito actual cuenta que Santa Claus viviría en las proximidades del Polo Norte junto a la Señora Claus y una gran cantidad de Duendes navideños, que le ayudan en la fabricación de los juguetes y otros regalos que le piden los niños a través de cartas.

Para poder transportar los regalos, Santa Claus los guardaría en un saco mágico de Santa Claus y los repartiría a las 00:00h del día 25 de diciembre, en un trineo mágico volador, tirado por «renos navideños», liderados por Rodolfo (Rudolph); un reno que ilumina el camino con su nariz roja y brillante, siendo el último en agregarse a la historia.

Santa Claus podría entrar a los hogares de los niños, al transformarse en una especie de humo mágico; y así entrar por la chimenea u otro orificio de las casas; si éstas no disponen de una.

Para saber qué niños merecen regalos, Santa Claus dispondría de un telescopio capaz de ver a todos los niños del mundo; además de la ayuda de otros seres mágicos que vigilarían el comportamiento de los niños. Así, si un niño se ha comportado mal, se dice que quien lo vendría a visitar sería la carbonilla, y no Santa Claus; y como castigo carbonilla le regalaría a los niños solo carbón.

 

Black Friday

Publicado: 11/26/2010 en Curiosidades, Navidad

En Estados Unidos se conoce como Viernes Negro (en inglés Black Friday) al día que inaugura la temporada de compras navideñas. Es un día después del día de acción de gracias, el cual se celebra el cuarto jueves del mes de noviembre.

El origen del término viernes negro genera controversias: para algunos, el epíteto negro es de origen contable, el superávit en negro. La gran cantidad de ventas del día convierte el rojo de las cuentas de los comercios en negro. Otros, en cambio, consideran que se dice negro por el caos que se genera en las grandes ciudades por el abarrotamiento en las tiendas.