Archivo de la etiqueta: historia

Personas destacadas que fallecieron en 2016 | Parte I

Todos los años fallecen personalidades destacadas en distintas actividades profesionales, pero sólo algunos de ellos son iconos, en el sentido de representantes históricos que de alguna manera transformaron la sociedad y generaron una influencia cultural como para quedar en la memoria colectiva. El año 2016 será posiblemente recordado como uno de los años donde fallecieron más iconos culturales en el deporte, la política, la música, el cine, la literatura o la ciencia.

Científicos fallecidos en 2016

Ann Zeilinger Caracristi, nacida en Bronxville, Nueva York, el 1 de febrero de 1921, fallecida en Washington, el 10 de enero de 2016, fue una analista estadounidense de códigos encriptados, que comenzó a identificar comunicaciones enemigas durante la Segunda Guerra Mundial, desde 1942. Además de descifrar códigos, debía colaborar en que las comunicaciones aliadas llegaran impolutas a sus destinatarios. Sirvió durante 40 años de carrera profesional en la National Security Agency (Agencia Nacional de Seguridad) donde llegó a ser directora adjunta. Trabajó también en otros puestos de contraespionaje como miembro de la Secretaría de Defensa y Comisión de Seguridad, así como en el Consejo de Inteligencia Extranjera y fue jefa en Investigación y Operaciones, fundamentalmente en el Grupo A dedicado al espionaje soviético. Se convirtió en la primera mujer de la NSA en alcanzar el rango GS-18 en 1975 y se retiró en 1982.

Ann Caracristi
Retrato de Ann Caracristi en la página de la NSA.

Ann Caracristi
El vicealmirante Bobby Ray Inman y Ann Caracristi escuchan al criptólogo Frank B. Rowlett mientras describe la máquina ENIGMA. Fotografía en la página de Vice: Historia de la NSA desde sus propios archivos secretos.

Marvin Minsky, nacido en Nueva York, el 9 de agosto de 1927, fallecido en Boston, el 24 de enero de 2016 fue un científico estadounidense, considerado uno de los padres de las ciencias de la computación, precursor de la robótica y cofundador del laboratorio de inteligencia artificial del Instituto Tecnológico de Massachusetts. En el año 1951 creó SNARC, el primer simulador de redes neuronales. Inventó las patentes del casco de realidad virtual en 1963 y del microscopio confocal en 1957, antecesor de los modernos microscopios confocales de barrido por láser. En el Museo de Historia de la Computación, con sede en California, Estados Unidos, se conserva el modelo PDP-1 del Minskytron o «Pantalla de tres posiciones» operado por la minicomputadora de la compañía ya desaparecida Digital Equipment Corporation (DEC), mismo monitor que se utilizó en el primer videojuego Spacewar!

Marvin Minsky

En la conocida página y revista Wired, se publicó en la noticia necrológica un obituario como si estuviese escrito por un robot, en memoria de Marvin Minsky. Como curiosidad, Minsky fue consejero de Stanley Kubrick en la película 2001: Una odisea del espacio; durante la filmación Minsky casi murió en un accidente. Minsky sugirió la trama de «Jurassic Park» al director de cine Michael Crichton durante un paseo por la playa de Malibú, aunque su sugerencia era que los dinosaurios fueran concebidos como autómatas. Crichton concibió finalmente los dinosaurios como clones a partir de material genético fosilizado en ámbar.

Suzanne Corkin, nacida el 18 de mayo de 1937 en Hartford, Connecticut, y fallecida el 24 de mayo de 2016 en Danvers, Massachusetts, Estados Unidos, pionera en el campo de la neurociencia cognitiva, profesora emérita del departamento de Ciencias Cognitivas en el Instituto Tecnológico de Massachusetts, donde hizo su tesis doctoral en 1964, conocida por su investigación del famoso paciente amnésico Henry Molaison, a quien conoció en 1962. La relación de Corkin con Molaison, que perdió la capacidad de generar nuevos recuerdos acumulativos después de los 27 años de edad -incluso consideraba que su aspecto físico no había envejecido desde entonces como si el tiempo se hubiese detenido para él, viviendo en presente continuo-, así padecía también trastornos a nivel de la memoria declarativa, debido a que en 1953 se le practicó una chapucera cirugía cerebral extirpando bilateralmente los hipocampos para controlar sus crisis epilépticas, comenzó durante su investigación doctoral en el MIT, bajo la dirección de la neuropsicóloga Brenda Milner. Su trabajo con H.M., a quien estudió incluso después de su muerte en 2008, llevó al descubrimiento de que el hipocampo del cerebro es un sitio clave para la consolidación de la memoria a largo plazo. Corkin fue directora del Behavioral Neuroscience Laboratory, donde también investigó las consecuencias a largo plazo de lesiones cerebrales en veteranos de guerra y la biología detrás de enfermedades neurodegenerativas como Alzheimer y Parkinson.

Suzanne Corkin | Henry Molaison

Ursula Franklin, nacida en Munich, Alemania, el 16 de septiembre de 1921; fallecida en Toronto, Canadá, el 22 de julio de 2016, física investigadora especialista en metalurgia y resistencia de los materiales, pacifista, feminista y experta en el impacto social de la tecnología. Franklin sobrevivió al Holocausto y obtuvo un doctorado en física experimental en la Universidad de Berlín antes de emigrar a Canadá para estudiar ciencias de los materiales e ingeniería, con una especialidad en metalurgia. Trabajó de 1952 a 1967 como científica senior de la Fundación de Investigación de Ontario. Utilizaría sus conocimientos en este campo para convertirse en co-desarrolladora del campo de la arqueometría, o la aplicación de métodos científicos en el análisis de materiales arqueológicos. Uno de sus esfuerzos de investigación más conocidos fue el Baby Tooth Survey, en el cual ella y su equipo de trabajo estudiaron cómo las consecuencias de las pruebas nucleares afectaron el nivel de estroncio-90 radioactivo en los dientes de los niños.

Ursula Franklin

Como activista social, feminista y antimilitarista, a menudo Franklin utilizó su formación científica en causas sociales. En 1969, Franklin y Duckworth, presidenta de Voice of Women, convocaron un comité con el Senado canadiense para recomendar que Canadá descontinuara su guerra química y el uso de armas biológicas y en su lugar se destinara el presupuesto en investigación ambiental y medicina preventiva. Abogaron por la salida de Canadá de la OTAN y el desarme nuclear, así como la objeción de conciencia para no pagar impuestos si se destinaban a gasto militar. «La paz no es la ausencia de guerra sino la ausencia de miedo». Después de jubilarse, Ursula Franklin y otras profesoras presentaron una demanda colectiva contra la Universidad de Toronto alegando que habían sido injustamente retribuidas puesto que se pagaba a las docentes unos salarios inferiores que los percibidos por profesores varones con calificaciones similares.

Roger Tsien, nacido en Nueva York el 1 de febrero de 1952, fallecido en Eugene, Oregón, el 24 de agosto de 2016, fue un bioquímico estadounidense, de origen chino, profesor en el Departamento de Química y Bioquímica de la Universidad de San Diego. En el año 2008 fue galardonado con el Premio Nobel de Química compartido ex-aequo con los investigadores Martin Chalfie y Osamu Shimomura, por el descubrimiento de la proteína verde fluorescente, una proteína producida por la medusa Aequorea victoria, que emite fluorescencia en la zona verde del espectro visible, desarrollada posteriormente como identificador cromático para estudiar procesos de biología molecular.

Roger Tsien

Roger Tsien
El uso de una paleta de colores más amplia como marcadores cromáticos permite observar de forma diferenciada procesos bioquímicos como el desarrollo de neuronas, la diseminación de células cancerosas, o la contaminación de agua con arsénico.

Katherine Blodgett Gebbie, nacida el 4 de julio de 1932, en Cambridge, Massachusetts, fallecida el 17 de agosto de 2016 en Bethesda, Maryland, Estados Unidos, perteneciente a una familia con precedentes meritorios, pues su tía fue la física Katharine Burr Blodgett, primera mujer en obtener un doctorado en Física en la Universidad de Cambridge. Katherine Blodgett Gebbie fue astrofísica de formación, comenzó su carrera como investigadora en el Instituto Adjunto de Astrofísica de Laboratorio, en Boulder, Colorado, y desempeñó funciones ejecutivas en la Oficina Nacional de Estándares (NBS) y el Instituto Nacional de Estándares y Tecnología (NIST). Experta en espectroscopia estelar, sismología estelar y heliosismología, disciplina que estudia las oscilaciones del Sol, que al igual que otras estrellas, vibra con turbulencias que permiten conocer cómo es su interior, inaccesible por la propia luz solar a la observación directa; de la misma forma que las ondas sísmicas generadas por los terremotos permiten conocer la estructura interna de la Tierra.

Katherine Blodgett Gebbie

En el Laboratorio de Investigación de la Marina de Estados Unidos, la Dra. Gebbie hizo una presentación sobre su tía, la física Katharine Burr Blodgett (1898-1979), pionera en la tecnología de la película molecular, inventora del cristal no reflexivo y, sobre todo, la inspiración de la Dra. Gebbie. En el Laboratorio de Investigación de General Electric, la Dra. Blodgett trabajó con el Dr. Langmuir en proyectos como la investigación sobre soportes de film. El Dr. Langmuir había realizado un trabajo cuantitativo sobre monocapas flotantes de ácidos grasos sobre el agua y mostró que estas monocapas se podían transferir a sustratos sólidos. Blodgett y Langmuir descubrieron una forma de depositar los revestimientos capa por capa sobre vidrio y metal a cualquier espesor deseado. Estos ensamblajes monocapa construidos se denominan en la actualidad películas Langmuir-Blodgett. El Dr. Blodgett publicó este trabajo en el diario de la Sociedad Química Americana entre 1934 y 1935; más tarde desarrolló y patentó un calibrador del color para medir el grosor de estas películas monomoleculares.

Katharine Burr Blodgett

Katharine Burr Blodgett

En sus experimentos, la Dra. Blodgett encontró el grosor adecuado de las monocapas de estearato de bario para anular los reflejos de la superficie del vidrio, descubrimiento que fue presentado en 1939 con el titular «Woman Scientist Invents Wonder Glass / Mujer científica inventa el cristal maravilla». Las características sobre el cristal «invisible» aparecieron en artículos de las revistas Time y Life, mientras que ella publicó sus métodos en la publicación científica Physical Review and Science. Su invención del vidrio no reflectante se considera el prototipo de los recubrimientos usados ​​hoy en las lentes de cámara y otros dispositivos ópticos.

Katherine Blodgett GebbieA principios de los años 80, después de trabajar como física en NBS, Gebbie hizo su transición hacia la industria. Se unió al National Measurement Laboratory de la NBS, donde pronto se convirtió en gerente y, en pocos años, jefa de la división de física cuántica. Cuando el NBS fue renombrado a las siglas NIST, Gebbie fue nombrada directora del Laboratorio de Física. Bajo su liderazgo, hasta cuatro científicos de la institución resultaron ganadores del Premio Nobel: William Daniel Phillips (1997), «por su desarrollo de métodos para refrigerar y atrapar átomos en luz de láser», Eric Allin Cornell (2001), «por su logro de la condensación Bose-Einstein en gases diluidos de átomos alcali, y por sus estudios fundamentales sobre las propiedades de los condensados», John L. Hall (2005), «por sus contribuciones en el desarrollo de la espectroscopía de precisión basada en láser», David J. Wineland (2012), «por métodos experimentales innovadores que permiten la medición y manipulación de sistemas cuánticos individuales», científicos a quienes promovió y orientó activamente. En 2010, Gebbie fue nombrada directora del Laboratorio de Medición Física (PML), y desde 2013 hasta su muerte, fue consejera principal de los directores del NIST y PML.

Deborah Jin, nacida el 15 de noviembre de 1968 en Stanford, California, fallecida de cáncer el 15 de septiembre de 2016 en Boulder, Colorado, Estados Unidos, fue una física cuántica e investigadora en JILA y NIST, profesora adjunta en el departamento de física de la Universidad de Colorado, realizó estudios de los condensados ​​de Bose-Einstein relativos a fenómenos cuánticos en gases, no observables salvo en condiciones de frío extremo a una fracción de 10^-11 de grado Celsius por encima del cero absoluto (- 273 ºC). El desarrollo del primer condensado de Bose-Einstein, utilizando materia bosónica, condujo a un premio Nobel en 2001 para los científicos Eric Cornell y Carl Weiman, y Wolfgang Ketterle del MIT. Dos años más tarde, Deborah Jin logró producir junto a su equipo el primer condensado fermiónico, un estado de materia que involucra fermiones, otro tipo de partícula elemental diferente del bosón.

Deborah Jin

Ruth Hoffmann «Hubbard» fue su apellido de casada por su primer marido, nacida el 3 de marzo de 1924 en Viena, Austria; fallecida el 1 de septiembre de 2016 en Cambridge, Massachusetts, Estados Unidos; bióloga de larga trayectoria y primera mujer docente titular de biología en la Universidad de Harvard y reconocida crítica feminista de la ciencia. Como científica, Hubbard fue mejor conocida por su investigación en la bioquímica de la visión: junto a su director de tesis doctoral -George Wald, posteriormente se convertiría en su segundo marido-, ayudó a dilucidar cómo los ojos transforman la luz en información en especies de vertebrados e invertebrados, investigando la bioquímica del retinol. En particular, Ruth Hoffmann desempeñó un papel clave en la identificación de cómo el pigmento del ojo denominado rhodopsin ayuda a absorber la luz. Después de terminar su doctorado en la Universidad de Radcliffe, pasó a ser investigadora a tiempo completo en Harvard. Pero a finales de los años sesenta, ella cambió su atención hacia el proceso de investigación científica y las instituciones de enseñanza, investigación y desarrollo. Comenzó a estudiar las desigualdades en las ciencias y enseñó una clase única sobre el impacto de la ausencia de mujeres en puestos de responsabilidad en ciencia, tecnología, ingeniería, bioquímica y medicina.

Ruth Hoffmann

Scientific American publicó obituarios por mujeres científicas estadounidenses fallecidas en 2016.

Raymond Samuel Tomlinson, nacido en Nueva York, el 2 de octubre de 1941, fallecido en Lincoln, Estados Unidos, el 5 de marzo de 2016, fue un programador informático estadounidense, que implementó en 1971 el primer sistema de correo electrónico en ARPANET, red precursora del Internet, se le considera el padre del email y las direcciones de correo con arrobas. En 1967 empieza a trabajar en la empresa BBN (Bolt, Beranek and Newman), para la red de computadoras ARPANET (Advanced Research Projects Agency Network) con un sistema de inter-comunicación militar. Dentro de su equipo de trabajo, desarrollan un programa llamado SNDMSG para enviar mensajes entre las distintas terminales de una misma computadora.

Ray Tomlinson

En septiembre de 1971, Tomlinson adaptó el programa SNDMSG de forma tal que sirviera para enviar mensajes entre diferentes usuarios conectados a una red más amplia de ordenadores. Entonces decide utilizar un símbolo, @ (arroba), como separador entre el nombre del usuario y del servidor. Su primera dirección de correo electrónico fue tomlinson@bbn-tenexa. La idea era utilizar un símbolo que estuviese en todos los teclados pero que no apareciera en los nombres propios de las personas o empresas ni de los dominios de servidores. La @ estaba en los teclados pero no tenía utilidad alguna, por lo que no entraba en conflicto con protocolos estipulados anteriormente.

Vera Cooper Applebaum, conocida como Vera Rubin, nacida en Filadelfia, Pensilvania, el 23 de julio de 1928, fallecida en Princeton, Nueva Jersey, el 25 de diciembre de 2016, fue una astrofísica estadounidense, pionera en la medición de la rotación de las estrellas dentro de una galaxia. Durante sus estudios de Física en la Universidad de Cornell en 1951 hizo las primeras observaciones de desviaciones de flujo Hubble en los movimientos de las galaxias. Después de doctorarse en la Universidad de Georgetown y unirse como investigadora en el Instituto Carnegie conoció a con Kent Ford, con quien inició estudios sobre la rotación de las estrellas, tomando la Vía Láctea como ejemplo de las distancias de las galaxias entre 150 y 300 millones años luz y la galaxia de Andrómeda como caso de estudio.

Vera Rubin
Si dependiera de mí, me gustaría descubrir como las leyes de Newton deben ser modificadas para describir correctamente las interacciones gravitacionales a grandes distancias. Eso es más atractivo que un universo lleno de un nuevo tipo de partícula subnuclear -refiriéndose a la materia oscura-.

John Glenn, nacido en Cambridge, Ohio, el 18 de julio de 1921 – fallecido en Columbus, Ohio, el 8 de diciembre de 2016, fue un piloto militar durante la Segunda Guerra Mundial y la Guerra de Corea, astronauta seleccionado por la NASA, y senador estadounidense. Fue uno de los «Mercury Seven», un grupo de pilotos militares seleccionados en 1959 por la NASA para encontrar a los primeros astronautas estadounidenses. El 22 de febrero de 1962, Glenn voló en la misión Friendship 7, fue el primer estadounidense en moverse en la órbita del planeta Tierra y la quinta persona en llegar al espacio. Glenn se retiró de la NASA en 1964; con el tirón popular de los héroes nacionales, anunció su candidatura como senador por el Estado de Ohio. Miembro del partido demócrata, ganó su primera elección al Senado en 1974 donde permaneció hasta el 3 de enero de 1999. Un año antes de dejar la política profesional, en 1998, volvió al espacio a la edad de 77 años, añadiendo a su apabullante trayectoria ser la persona más mayor en viajar al espacio exterior como astronauta.

John Glenn

Edgar Mitchell, nacido en Hereford, Texas, Estados Unidos, el 17 de septiembre de 1930, fallecido en West Palm Beach, Florida, el 4 de febrero de 2016, fue un astronauta estadounidense de la NASA. Doctorado en aeronáutica en 1964, fue elegido dentro del proyecto Apolo en abril de 1966. Sirvió como astronauta de apoyo en la misión Apolo 9 y como sustituto del piloto del módulo lunar de la misión Apolo 10. En 1971, es elegido para la misión Apolo 14 como piloto del módulo lunar. Lo acompañaron como comandante de la misión el astronauta Alan Shepard y como piloto del módulo de mando Stuart Roosa. Durante la misión recogieron rocas en la superficie lunar, estableciendo récords como la estancia más larga en la superficie lunar (33 horas) y el paseo lunar de mayor duración (9 horas y 17 minutos).

Edgar Mitchell

En 1972, Mitchell se retiró de la NASA y de la Marina de los Estados Unidos. En sus últimas décadas de vida mantuvo posturas extravagantes y pseudocientíficas, expuestas públicamente en conferencias, entrevistas y libros donde aseguraba que extraterrestres de avanzada inteligencia y tecnología pero antibelicistas y pacíficos, habían contactado con la Tierra para evitar una guerra entre las principales potencias mundiales.

Deportistas fallecidos en 2016

Johan Cruyff, nacido Hendrik Johannes Cruijff en Ámsterdam, el 25 de abril de 1947 y fallecido en Barcelona, el 24 de marzo de 2016, considerado uno de los tres mejores jugadores de fútbol del siglo XX. Como entrenador en la selección neerlandesa y el Barcelona continuó el estilo de juego denominado Fútbol total, desarrollado por otros técnicos como Rinus Michels en el Ajax de Ámsterdam, o Gusztáv Sebes, en la selección húngara en los años 50, un tipo de esquema táctico que conjugaba el control de la posesión del balón, triangulando pases en continua movilidad de las posiciones siempre que cada compañero cubriera el lugar del otro, de modo que el equipo no se desordenara al atacar o defender.

Johan Cruyff

Muhammad Ali, nacido Cassius Marcellus Clay, Jr. en Louisville, Kentucky, Estados Unidos, el 17 de enero de 1942 y fallecido en Scottsdale, Arizona, el 3 de junio de 2016, está considerado como el mejor boxeador de toda la historia. Activista de los derechos de los afroamericanos en Estados Unidos, convertido al Islam, se negó a ser reclutado en la guerra de Vietnam en 1966 y por dicha insumisión como objetor de conciencia se le retiró la licencia para boxear. Medalla de oro en los Juegos Olímpicos de Roma de 1960 y campeón de la categoría de los pesos pesados en 1964 a la edad de veintidós años; cambió los estereotipos sobre los boxeadores afroamericanos al enfrentarse a la administración estatal estadounidense y recobraría el cinturón diez años después con peleas memorables contra otros púgiles de la época como Sonny Liston, Joe Frazier, George Foreman y Ken Norton, a los cuales dedicaba burlas mordaces que también quedaron en la historia. En 1978 volvió a ser campeón, lo que le convirtió en el primer boxeador en ostentar en tres ocasiones un título mundial en la categoría de los pesos pesados.

Muhammad Ali
«Pregunten todo lo quieran sobre la guerra de Vietnam, siempre tendré esta canción: No tengo problemas con los Viet Cong… porque ningún Viet Cong me ha llamado nigger»

Ferdinand «Ferdi» Kübler, nacido en Marthalen, el 24 de julio de 1919, fallecido en Zúrich, el 29 de diciembre de 2016, apodado Le Fou pédalant y L’Homme cheval, fue un ciclista suizo, profesional entre los años 1940 y 1957, durante los cuales consiguió 135 victorias, campeón de ciclismo en Suiza hasta en once ocasiones en distintas categorías, ganó el Tour de Francia en 1950 y la medalla de oro en el Campeonato del Mundo de 1951. Entre sus puestos de honor, también cuentan un segundo puesto en el Tour, dos terceros puestos en el Giro de Italia, una medalla de plata y otra de bronce en el Campeonato del Mundo.

Ferdi Kübler

Vera Caslavska nacida el 3 de mayo de 1942, fallecida el 31 de agosto de 2016 en Praga, República Checa, fue una gimnasta checa, ganadora de varias medallas olímpicas, campeonatos europeos y mundiales, representando a la antigua Checoslovaquia. Es la gimnasta que más títulos individuales y medallas olímpicas ha ganado, consiguiendo el oro en todas las pruebas individuales: prueba general, barra de equilibrio, salto de potro, barras asimétricas y suelo. La hazaña de ganar en todas las pruebas, no se ha logrado aún en la gimnasia masculina. Posee el récord de ganar la medalla de oro en prueba general en dos juegos olímpicos consecutivos (Tokio 1964 y México 1968), récord que comparte con la soviética Larissa Latynina. Fue partidaria de la democratización de Checoslovaquia, con las subsecuentes represalias del régimen comunista por su rechazo a la intervención soviética. La situación de Čáslavská mejoró a nivel institucional durante los años ochenta por la intervención del Comité Olímpico Internacional (COI) y en especial debido a la caída del comunismo. En los años noventa ocupó cargos públicos relacionados con el deporte y recibió varios reconocimientos por su labor al deporte.

Vera Caslavska

Junko Tabei, 23 de mayo de 1939 – 20 de octubre de 2016 fue una alpinista japonesa que se convirtió en la primera mujer que alcanzó la cima del monte Everest en 1975. En 1992, Tabei fue la primera mujer que completó las Siete Cumbres, que engloba las montañas más altas de los siete continentes. Se graduó en la Universidad para Mujeres Showa en Literatura Inglesa donde se unió al Club de Montaña y fundó el Club de Montaña para Mujeres en Japón en el año 1969. En 1972, Tabei era conocida como una de las mejores escaladoras de Japón. El periódico japonés Yomiuri Shimbun y la Televisión Japonesa organizaron un reto para enviar un equipo compuesto sólo por mujeres a Nepal a intentar escalar el monte Everest. Quince mujeres incluida Junko fueron seleccionadas para la expedición.

Junko Tabei

A principios de 1975 viajaron a Katmandú donde contrataron nueve sherpas locales. Junko utilizó la misma ruta de la cresta noreste que siguieron Edmund Hillary y Tenzing Norgay en 1953 para alcanzar la cima a donde llegó con el sherpa Ang Tsering el 16 de mayo de 1975, convirtiéndose en la primera mujer que escalaba el Everest. Cuando el equipo estableció su campamento a 6300 metros de altitud, una avalancha golpeó a las montañistas, incluida Junko, quedaron sepultadas bajo la nieve pero fueron rescatadas por los sherpas. Como otros alpinistas, Junko Tabei destacó que la técnica y las habilidades junto con la experiencia no eran lo más determinante en el montañismo sino la fuerza de voluntad.

Arnold Palmer, Latrobe, Pensilvania, 10 de septiembre de 1929- Pittsburgh, 25 de septiembre de 2016) fue un golfista estadounidense, considerado uno de los grandes jugadores de la historia por sus numerosas victorias en grandes torneos a nivel mundial entre 1955 y 1980, el PGA Tour, Masters de Augusta, Abierto de Estados Unidos, Ryder Cup etc. Junto con Jack Nicklaus y Gary Player, contribuyeron a popularizar el golf en todo el mundo. Su generación sería continuada por golfistas de la talla de Severiano Ballesteros, antes de que otra generación más mediática tomara el testigo, como Tiger Woods o Sergio García.

Arnold Palmer

Mark Taimánov nacido en Járkov, Ucrania, el 7 de febrero de 1926; fallecido en San Petersburgo, Rusia, el 28 de noviembre de 2016, fue un ajedrecista y pianista ruso que representó a la desaparecida Unión Soviética. Aunque nació en la ciudad ucraniana de Járkov, su familia se mudó a los seis meses a San Petersburgo. A los ocho años, comenzó sus estudios en una academia de música que compaginaba con los torneos escolares de ajedrez. Fue admitido en el Palacio de los Jóvenes Pioneros de Leningrado y actuó como protagonista infantil en la película Beethoven Concerto, cine soviético de 1937.

En 1945 consiguió el título de «Maestro de Deportes Soviético» del ajedrez. En 1950 es reconocido como Maestro Internacional, en 1952 consiguió el título de Gran Maestro y en 1953 jugó el torneo de candidatos celebrado en Zúrich, donde acabó octavo. Durante los años 1946 a 1956 se mantuvo entre los diez mejores jugadores del mundo. Llegó a disputar 23 campeonatos de la Unión Soviética, un récord sólo igualado por Yefim Géler. En 1952 cayó derrotado ante Mijaíl Botvínnik, mientras que en 1956 venció a Yuri Averbaj y a Borís Spaski por el título de campeón soviético de ajedrez. Formó parte de los equipos olímpicos soviéticos en las Olimpiadas de 1956 y 1960. Como pianista ofreció conciertos a dúo con la primera de sus cuatro esposas, Ljubov Bruk, incluidos por Philips Classics en su colección Los mejores pianistas del siglo XX.

Mark Taimánov y Bobby Fischer en 1971

Tras un ascenso fulgurante que le reportó un gran prestigio social, Taimánov es recordado por el contundente 6-0 que le endosó el estadounidense Bobby Fischer en 1971 en el torneo de Candidatos de Vancouver, Canadá. El maestro americano ganó por idéntico resultado al danés Bent Larsen en semifinales, venciendo de forma apabullante a Tigran Petrosian en la final del torneo de Candidatos y un año después se proclamó campeón del mundo, contra Boris Spassky. Dado que Estados Unidos y la Unión Soviética estaban en el periodo conocido como Guerra Fría, se consideró que Taimánov se había dejado ganar o no se había preparado con suficiente esfuerzo, responsabilizándolo de la humillación al régimen soviético, que comenzó sus represalias: fue censurado en los medios de comunicación, se le prohibió escribir artículos o dar conferencias, se le embargó el salario -por lo que tuvo que vivir de la caridad de sus allegados- y no se le permitió viajar al extranjero. Estas sanciones fueron retiradas por el Comité Central del Partido Comunista de la Unión Soviética, con motivo de su clasificación para el Torneo Interzonal de 1973 y su victoria en el Campeonato ajedrecístico de Leningrado. Escribió la obra autobiográfica sobre su etapa más dura como jugador de ajedrez How I became Fischer’s victim, y tras la caída de la URSS pudo ser campeón de maestros veteranos en 1993 y 1994.

Miruts Yifter, nacido en Adigrat, región de Tigray, Etiopía, el 15 de mayo de 1944, fallecido en Toronto, Ontario, Canadá, el 23 de diciembre de 2016, conocido corredor de fondo precursor de otras generaciones de campeones etíopes, fue bronce en 10.000 metros en Munich 1972 y ganó en las categorías de 10.000 y 5.000 metros en los juegos olímpicos de Moscú 1980. Fue el quinto corredor en la historia en ganar los 5.000 y los 10.000 metros en unos Juegos Olímpicos, tras Hannes Kolehmainen en 1912, Emil Zátopek en 1952, Vladímir Kuts en 1956, y Lasse Virén en 1972 y 1976. Dado que nació en una región de tal pobreza que carecía de registros civiles fiables, su verdadera edad siempre estuvo en duda, considerando que podía haber nacido en 1938 dado su envejecido aspecto y alopecia antes de retirarse del atletismo.

Miruts Yifter
Interrogado por los periodistas aceca de su verdadera edad, dejó una frase inquietante para la posteridad: Men may steal my chickens; men may steal my sheep. But no man can steal my age.

Wikipedia reúne una sección anual de humanos y animales notables que dejaron el mundo desde antes incluso de la existencia de la enciclopedia gratuita de internet. Notable deaths in 2016.

HaciendoMemoria, web para localizar vestigios franquistas

El equipo de Memoria Democrática de Izquierda Unida ha puesto en marcha la web Haciendo Memoria, donde los ciudadanos pueden localizar a través de Google Maps los nombres de calles, monumentos y otros vestigios de la dictadura franquista que deberían haber sido retirados en aplicación de la Ley de Memoria Histórica de diciembre de 2007 y que, sin embargo, siguen estando presentes en muchas ciudades del territorio español. Cualquier internauta puede añadir un elemento franquista al mapa rellenando un formulario con el nombre del elemento franquista, la dirección física donde se encuentra, una fotografía, e información que describa dicho vestigio de la dictadura.

Haciendo Memoria

En apenas unos días ya hay 140 referencias colocadas mediante iconos de chinchetas en el mapa que indican símbolos franquistas sin retirar, con mayor concentración en la zona del levante mediterráneo, en la comunidad valenciana. Algunos que ya están localizados son: el monumento a los Caídos en Villarrobledo, Toledo, Llanos del Caudillo, pueblo de la provincia de Ciudad Real, Calle del Generalísimo en Loranca de Tajuña, Calle del General Yagüe en Madrid, escudo franquista en la fachada del ayuntamiento de Chañe, Segovia, Yugo y flechas en una placa pintada en el muro de unas viviendas en Camino Barranco de los Ríos, La Herradura, Canarias, Cruz de los Caídos en Villanueva de Alcardete, Toledo, monumento a Franco en San Isidro, Tenerife, medallón de Franco en la plaza mayor de Salamanca, escudo franquista en el Instituto Botánico de Cabanilles, Vall d’Uixó, la Avenida de Francisco Franco en Santiago de la Ribera en Murcia, la cristalera con escudo franquista del edificio del Banco de España de Alicante o el Águila Imperial en el Cerro de la Virgen de la Cabeza en Andújar.

Desde IU entendemos que los nombres de las calles, monumentos e hitos que conforman el paisaje público de nuestros municipios han de fundamentarse en valores democráticos, ya que son elementos de potente fuerza simbólica en la construcción de nuestra identidad como pueblo. Lamentablemente, la situación que vivimos en nuestro país es una situación anómala en el contexto europeo, ya que sería inimaginable que en Alemania o Francia permitieran la existencia de calles dedicadas a Hitler, a Vichy o a las SS. Sin embargo, en nuestro país no hubo ruptura democrática con el franquismo sino que la transición se cerró con un pacto de silencio y una ley de amnistía, a partir de lo que se construyó un relato del franquismo desde una posición equidistante que permitió la cimentación de nuestro sistema democrático sobre miles de fosas comunes.

Somos el segundo país en número de desaparecidos forzosos y, a pesar de el escalofriante dato, nuestro gobierno no coopera en su identificación y recuperación, ni tampoco en la extradición de torturadores franquistas para que sean juzgados por la jueza Servini en virtud de la célebre Querella Argentina. Vivimos pues, en una sociedad que ha banalizado el franquismo de tal forma que se incumplen recomendaciones de la Organización de las Naciones Unidas en materia de investigación de crímenes de lesa humanidad sin que ello provoque una crisis ministerial. Todo lo contrario. La pervivencia y exaltación del franquismo continúa vigente y, por tanto, entendemos como una obligación democrática denunciar todos aquellos incumplimientos que constatemos en virtud de la Ley de Memoria Histórica de 2007. A pesar de que desde IU consideramos esta norma como insuficiente, ya que entre otras deficiencias no declara la nulidad de las sentencias dictadas durante el franquismo, sí que nos otorga la capacidad de actuar para garantizar el cumplimiento de su artículo número 15 que dice así:

Artículo 15. Símbolos y monumentos públicos.

– Las Administraciones públicas, en el ejercicio de sus competencias, tomarán las medidas oportunas para la retirada de escudos, insignias, placas y otros objetos o menciones conmemorativas de exaltación, personal o colectiva, de la sublevación militar, de la Guerra Civil y de la represión de la Dictadura. Entre estas medidas podrá incluirse la retirada de subvenciones o ayudas públicas.

– Lo previsto en el apartado anterior no será de aplicación cuando las menciones sean de estricto recuerdo privado, sin exaltación de los enfrentados, o cuando concurran razones artísticas, arquitectónicas o artístico-religiosas protegidas por la ley.

– El Gobierno colaborará con las Comunidades Autónomas y las Entidades Locales en la elaboración de un catálogo de vestigios relativos a la Guerra Civil y la Dictadura a los efectos previstos en el apartado anterior.

– Las Administraciones públicas podrán retirar subvenciones o ayudas a los propietarios privados que no actúen del modo previsto en el apartado 1 de este artículo.

Sirva este espacio virtual para poner en común el mapa de la vergüenza para que, más pronto que tarde, podamos ir restituyendo la normalidad democrática.

Equipo de Memoria Democrática y Proceso Constituyente de IU

Según señala el diario Público, no todos son heredados de la dictadura, pues algunos han sido erigidos en plena democracia y no en el periodo de transición (1975-1986) sino en el último lustro. Es el caso de la Avenida del Alcalde Vicente Quiles, en Elche, que fue inaugurada por Mercedes Alonso, exalcaldesa del Partido Popular de la localidad ilicitana, durante la pasada legislatura municipal.

«Queremos que esta herramienta supere la militancia de Izquierda Unida y de aquellos ciudadanos progresistas para convertirse en un instrumento más de todos los ciudadanos indignados con la impunidad del franquismo en España», expone López Barceló, que espera que en pocas semanas el mapa consiga un impacto visual que refleje la mayor parte de vestigios franquistas en España.

Con anterioridad a la Ley de Memoria Histórica, que comenzó con la propuesta del gobierno de Zapatero de retirar los símbolos franquistas de edificios de tituralidad pública, había páginas y foros de internet con aportaciones ciudadanas a falta de un catálogo oficial de los símbolos franquistas. La caza del monumento fascista es un apartado del Foro por la Memoria de la web del PCE (http://nodo50.org/foroporlamemoria/simbolos_franquistas.htm) en el que se pide a los ciudadanos que aporten datos y fotografías de la simbología del franquismo. Las informaciones facilitadas por los ciudadanos en esas páginas de internet aportan imágenes que transportan de inmediato al pasado. El escudo español durante el régimen franquista, el águila imperial con el yugo y las flechas falangistas, puebla muchas fachadas de edificios públicos, especialmente oficinas de Correos o sucursales del Banco de España. Las avenidas de Francisco Franco, del Caudillo o del Generalísimo están presentes en muchos municipios. Le sigue en presencia en el nomenclátor el fundador de la Falange Española, José Antonio Primo de Rivera. En menor medida, el callejero de pueblos y ciudades españolas registra los nombres de numerosos militares como los generales Mola, Yagüe y Sanjurjo.

La asociación Amigos de los Caídos por la Libertad (1939-1945) (galeon.com/murcia1939/index.html) recoge un catálogo de símbolos franquistas que persisten en la Comunidad de Murcia. Al listado de monumentos y símbolos del franquismo se añade el callejero franquista existente en pueblos y ciudades murcianas y un listado de siete colegios públicos con nombres del franquismo. Uno de ellos, en San Pedro del Pinatar, según recoge la página de internet de la asociación, mantiene el nombre de Francisco Franco.

En Salamanca se elabora una web (http://es.geocities.com/residuosfranquistas) que recoge de forma detallada las calles, escudos, placas y diferentes monumentos franquistas presentes en esa capital castellana. Destaca la existencia de un medallón con un perfil esculpido de Franco que, según se muestra en una de las fotografías, ha sido pintado por alguien con los colores de la bandera republicana. Como en las otras páginas de internet, se reclama la colaboración de los visitantes para aportar datos sobre los símbolos franquistas que hayan podido detectar y que no figuren en esta página de internet.

Todavía existen en España, según el Instituto Nacional de Estadística, ocho poblaciones que se llaman del Caudillo: Llanos del Caudillo, en la provincia de Ciudad Real, mientras que las otras siete pertenecen a los municipios de Badajoz (Gévora del Caudillo y Guadiana del Caudillo), Jerez de la Frontera (Guadalcacín del Caudillo), Hornachuelos (Bembézar del Caudillo), Ciudad Rodrigo (Águeda del Caudillo), Calera y Chozas (Alberche del Caudillo) y Ejea de los Caballeros (Bárdena del Caudillo).

El hecho de que muchos ayuntamientos se nieguen a cumplir la Ley de Memoria Histórica demuestra, según Izquierda Unida, que la sociedad española «ha banalizado el franquismo» y prueba de ello es que el Gobierno se permite incumplir «recomendaciones de la Organización de las Naciones Unidas en materia de investigación de crímenes a la humanidad sin que ello provoque una crisis ministerial», mientras otros países han realizado mayores esfuerzos para eliminar los vestigios del fascismo, nazismo y otros regímenes totalitarios del periodo de entreguerras. Pese a que la Ley de Memoria Histórica fue aprobada en el año 2007 durante la primera legislatura de Zapatero, la retirada de los símbolos del franquismo quedó incompleta, así como el reconocimiento de restos mortales en las fosas comunes, y tras el cambio de gobierno en las elecciones del año 2012, no se ha tomado como prioridad en la agenda política.

Doodle de Eiji Tsuburaya

El pasado día 7 de julio de 2015 pudimos encontrar encabezando el buscador de Google una de las ilustraciones denominadas doodles, en este caso una imagen animada creada por Jennifer Hom, donde los internautas podían ver sets de rodaje con figuras de robots, naves y monstruos, dedicada al 117 aniversario del nacimiento del director de cine japonés y especialista en efectos especiales Eiji Tsuburaya (Sugasawa, 7 de julio de 1901 – Itō, 25 de enero de 1970). Jennifer Hom visitó el estudio de Tsuburaya Productions y subraya la influencia del director japonés en películas de Guillermo del Toro como Pacific Rim, la serie Evangelion, e incluso Power Rangers. En la página de este doodle se puede ver todo el proceso de dibujo para la efeméride.

Doodle de Eiji Tsuburaya

Doodle de Eiji Tsuburaya

Durante la Segunda guerra sino-japonesa y la Segunda Guerra Mundial (7 de julio de 1937 al 9 de septiembre de 1945) dirigió películas de propaganda nacionalista y fue el encargado de los efectos especiales para la oficina propagandística, que había sido creada por el Gobierno imperial japonés, en filmes de estética de Estado, similares a la estetización de la política que impusieron los regímenes totalitarios en Europa, como The Imperial Way of Japan, Naval Bomber Squadron y The War at Sea from Hawaii to Malaya. Según se cuenta en una biografía, Eiji Tsuburaya: Master of Monsters: Defending the Earth with Ultraman and Godzilla, realizó un metraje de ficción del ataque de la aviación japonesa a Pearl Harbor de manera tan convincente que fue utilizado posteriormente por los estadounidenses. La unidad del general MacArthur pasó supuestamente el metraje al director Frank Capra, durante su etapa como documentalista de guerra entre 1942-1948, para su uso en la propaganda patriótica americana, en películas hechizantes como Know Your Enemy Japan (1945) y que influenciaron el paradigma de Tora! Tora! Tora! (1970).

En el periodo de ocupación norteamericana de Japón, Tsuburaya tuvo pocas oportunidades laborales por su vinculación con la propaganda del anterior régimen, por lo que las sospechas de espionaje le hicieron mantener un perfil bajo. Trabajó en Toho Studio llegando a participar en 250 películas, como jefe del departamento de efectos especiales y fundó su empresa, Tsuburaya Visual Effects, en 1963. Conjuntamente con el director Ishiro Honda y el productor Tomouki Tanaka, crearon el monstruo de Godzilla en 1954. Tras la década de 1950 desarrolla su producción artística en el género tokosatsu. Entre sus trabajos como técnico de efectos especiales destacan Godzilla vs. the Sea Monster (1966), King Kong Escapes (1967), Son of Godzilla (1967). Como productor participó en películas de robots del género Mecha, como Ultra Q (1965), Ultraman (1966), Ultra Seven (1967). Tsuburaya reconoció que cuando trabajaba en Nikkatsu Studios, se proyectó la película King Kong en Kyoto y que le sirvió de acicate para inspirarse en las películas de monstruos, además de la experiencia de la segunda guerra mundial, por el impacto de las bombas de hidrógeno empleadas por los Estados Unidos.

Eiji Tsuburuya fue pionero en el uso de la técnica suitmation/Sūtsumēshon, empleada en las películas japonesas del género tokosatsu para representar un monstruo gigante, daikaiju, en realidad un disfraz empleado por un actor sobre un decorado en miniatura, diferenciándose de la técnica de stop-motion y maquetas, denominada dynamation, de Ray Harryhausen, quien fuera asistente de Frank Capra en la unidad de entretenimiento Special Services del ejército de Estados Unidos, creada el 22 de julio de 1940 e integrada durante la Segunda Guerra Mundial, otro genio creador de monstruos en películas de aventuras y ciencia ficción como El gran gorila (1949), Simbad y la princesa (1958), Jasón y los argonautas (1963), Furia de titanes (1981). Al crear monstruos con la técnica suitmation los actores estaban metidos en un traje de unos 100 kilos de peso, mientras les entraba polvo y humo de queroseno por los destrozos en el escenario que representaba Tokio en miniatura.

Godzilla 1955

suitmation
Haruo Nakajima metido en las patas del monstruo ShodaiGoji.

El actor Haruo Nakajima manifestó que había perdido casi una decena de kilos durante los rodajes debido a que estar dentro del traje era físicamente extenuante. La técnica de suitmation se sigue empleando en series de televisión, con mucho más detalle en los diseños y maquetaciones, además de otros tejidos posteriores al látex.

Diez años desde los atentados terroristas del 11 de septiembre, cultura del miedo, repercusión económica y política de defensa en los Estados Unidos

Atentados terroristas 11 de septiembre del 2001 en el World Trade CenterCumpliéndose diez años desde los atentados terroristas en Estados Unidos del 11 de septiembre, 11/09/2001, 11-S en los países hispanohablantes, 9/11 en los países de tradición anglosajona, donde fallecieron cerca de tres mil personas y fue derrumbado el World Trade Center por los aviones secuestrados que los terroristas islámicos colisionaron contra las Torres Gemelas, posteriormente Zona Cero en New York, numerosos medios han hecho balance más allá del meme en Twitter sobre qué estabamos haciendo ese día cuando nos enteramos de la noticia. Desde finales del año 2001 y antes de que la recesión y la crisis hipotecaria empezasen a estar en los medios de comunicación de masas, la economía estadounidense se resintió primero por los daños en el volumen de negocio de las compañias aéreas, los daños en los grupos financieros con oficinas en el WTC así como la bolsa en el índice Dow-Jones.

Tras recibir el respaldo de la mayoría de la población debido al pavor por la incógnita sobre nuevos atentados, la administración de George W. Bush comenzó una política interior de investigación sobre posibles terroristas relacionados con Al-Qaeda y de células independientes, con intervenciones de líneas telefónicas y conexiones online, identificación e interrogatorio de decenas de miles de ciudadanos de origen árabe, respaldando jurídicamente los procedimientos con la aprobación el 26 de octubre del 2001 la USA PATRIOT Act, eliminando derechos civiles, rebajando la libertad y la igualdad para aumentar la seguridad como valor último, influyendo en la desconfianza histérica de los ciudadanos contra cualquier indicio de que algún individuo pudiese ser originario de algún país de Oriente Medio. A través de la National Security Agency, desde el año 2002 se ha «normalizado» la práctica de vigilancia doméstica de los ciudadanos estadounidenses, acumulando información de conversaciones telefónicas de millones de personas.

Memorial Tribute in Light, en homenaje a las víctimas de los ataques al World Trade Center, en 2004

La invasión de Afganistán comenzó el 7 de octubre de 2001, por Estados Unidos, fuerzas de la OTAN y la Alianza del Norte con apoyo de las Naciones Unidas, ante la negativa del gobernante régimen talibán de entregar a Osama bin Laden, que supuestamente permanecía refugiado, teniendo los talibanes el apoyo de Pakistán y Arabia Saudí. Dentro de la Guerra contra el Terrorismo, emprendida por los Estados Unidos, poco tiempo después de comenzar la guerra de Afganistán, el 13 de noviembre de 2001, la capital Kabul fue tomada por la Alianza del Norte y el gobierno quedó en manos de Estados Unidos, OTAN y la Alianza del Norte. Desde entonces Al Qaeda y los talibanes se reorganizaron como guerrilla insurgente, en la zona sur de Afganistán, tras perder el control del país que mantenían desde 1996. El 2 de mayo de 2011, el presidente de Estados Unidos Barack Obama anunció de manera oficial la muerte del líder de Al-Qaeda, Osama Bin Laden, considerando en su discurso que se había hecho justicia hacia las familias de las personas asesinadas en los atentados del 11 de septiembre del 2001, tras un operativo militar realizado por comandos estadounidenses en una residencia en las afueras de Abbottabad, Pakistán. Desde el año 2001, las cifras de bajas han crecido cada año, con más de diez mil militares muertos entre la coalición de naciones encabezada por Estados Unidos junto a las Fuerzas de Seguridad Afganas, más de 38 000 talibanes e insurgentes abatidos y un número apenas acotado pero superior a los 15 000 civiles fallecidos.

Después de la invasión de Afganistán, Irak se consideró un objetivo geoestratégico, una alianza encabezada por Estados Unidos, Reino Unido y España promovió una guerra contra Irak para ampliar posiciones en política internacional, pese a las manifestaciones de rechazo por la entrada en guerra mediante una invasión ilegal, además del miedo ciudadano a convertirse en un objetivo del terrorismo islámico. En el Consejo de Seguridad de las Naciones Unidas, la delegación estadounidense liderada por Colin Powell defendió que el régimen de Saddam Hussein mantenía armas químicas de destrucción masiva, junto con la existencia de laboratorios móviles ubicados en camiones difícilmente detectables, dicha información fue proporcionada por la CIA, basándose en las afirmaciones de disidentes y desertores iraquíes. Saddam Husein fue derrocado, capturado en diciembre de 2003 y ejecutado tres años después, pese a que nunca se encontraron pruebas de que Irak mantuviese armamento de destrucción masiva. La opinión pública contraria a la guerra en la segunda legislatura de José María Aznar, además de los atentados del 11 de marzo del año 2004 en los trenes de cercanías de Madrid, hechos unidos a la manipulación mediática realizada desde el partido popular para engañar a la población sobre la autoría de los atentados, haciendo creer que no se trataba de un atentado por venganza yihadista, sino de la banda ETA, motivó un cambio de gobierno en España. Tras las elecciones del 14 de marzo el partido socialista obtuvo mayoría, tomando la medida de ordenar la retirada de las tropas de Irak. No se han encontrado pruebas de la existencia de armas de destrucción masiva. Durante la guerra murieron más cuatro mil soldados estadounidenses y la economía lejos de beneficiarse por el supuesto monopolio petrolífero empeoró por los gastos bélicos. Al parecer, un informe del año 2004 de la CIA ya había investigado que el gobierno de Irak decidió destruir el armamento químico que poseía en el año 1991, sin que se hayan encontrado evidencias de una producción posterior.

Tal y cómo ha desglosado Wired en unas tablas sobre el impacto económico de la política militar de los Estados Unidos desde el año 2001 hasta el año 2011, aún posteriormente a la elección presidencial de Barack Obama, han aumentado los gastos, que ascienden a decenas de billones de dólares, en seguridad interna y en las campañas militares en las guerras de Irak y Afganistán, tropas, vehículos armados, además del gasto en el fondo para los veteranos de guerra. En la web de RAWA, Revolutionary Association of the Women of Afghanistan, una asociación política independiente de mujeres que defienden el cambio democrático, los derechos humanos y la igualdad hacia las mujeres en Afganistán; en su página destacan que aunque la coalición liderada por Estados Unidos expulsó a los señores de la guerra del poder, los talibanes, el gobierno posterior de Karzai no ha mejorado mucho más las condiciones sociales, aunque las mujeres no tienen el mismo trato extremadamente vejatorio. Además, la situación de reconstrucción en Kabul en cuanto a servicios públicos y trabajo de las organizaciones no gubernamentales es muy desigual, sobretodo por las irregularidades en los contratos de construcción de infraestructuras y edificios públicos, junto con la corrupción institucional.

En RAWA destacan en un artículo publicado el pasado día 7 de septiembre, 10 Big Lies in the US War on Terror, esto es, 10 grandes mentiras en la Guerra contra el Terror emprendida por los Estados Unidos, donde listan: la afirmación de Dick Cheney en agosto del año 2002 donde aseguraba que había armas de destrucción masiva en Irak, la promesa de Barack Obama en el año 2007 de retirar las tropas estadounidenses y terminar la guerra cuando llegase a ser presidente, las declaraciones de George W. Bush en una entrevista para Fox News cuando afirmaba que la protección de las mujeres y la educación debían ser bases para la paz en Afganistán, el caso de Jessica Lynch, soldado estadounidense herida en circunstancias manipuladas por la propaganda para controlar la moral de las tropas, las torturas que tanto George W. Bush, en New York Times, 28 de enero del 2005 y Barack Obama en una conferencia de enero del año 2009, negaron pese a que se seguían practicando en la base de Guantánamo, en Abu Ghraib, Irak, y en la base aérea Bagram, al igual que en otros países bajo la dirección de oficiales estadounidenses, otro caso de manipulación de propaganda fue el de Pat Tillman, jugador profesional de fútbol americano que dejó su carrera para entrar en el ejército estadounidense tras los atentados terroristas del 11 de septiembre, fue abatido por disparos de militares estadounidenses, lo que se denomina fuego amigo, en circunstancias que se demoraron en explicar muchos años después de abril del año 2004, cuando murió. Se considera que Bush y Rumsfeld usaron la imagen de Tillman para la propaganda, manipulando datos sobre las creencias del soldado.

Otro de los engaños al pueblo estadounidense es la bajada en los métodos de vigilancia nacional que comenzó Bush en el año 2002, a través de la National Security Agency, pues se ha mantenido el espionaje con la administración de Obama, restringiendo la privacidad de los hogares. La garantía jurídica del habeas corpus, por la cual un detenido debe ser presentado ante un juez para determinar si debe ser arrestado o liberado, fue suprimida por los tribunales militares de Bush y posteriormente continuada por Obama en la Guerra contra el Terror. John Brennan, consejero de la administración de Obama en las campañas militares contra el terrorismo, declaró que las naves aéreas dirigidas sin piloto, conocidas como «drone» no habían causado daños colaterales debido a su excepcional precisión, en cambio, según el Bureau of Investigative Journalism más de 2000 personas han muerto en Paquistán por los ataques de naves drone.

Memorial en el décimo aniversario de los atentados en el World Trade Center
La edición digital del New York Times ha publicado una galería de fotos del memorial por las víctimas de los atentados terroristas del 11 de septiembre, celebrado en New York, en la Zona Cero al cumplirse el décimo aniversario.

Memorial en el décimo aniversario de los atentados en el World Trade Center
En los dos estanques por donde caen cortinas de agua, los marcos de bronce tienen grabados los nombres de las 2983 personas que fallecieron en la zona donde se levantó el World Trade Center de New York, de los fallecidos en Pensilvania y Washington.

El pasado día 4 de abril del 2011, CBS News publicó una amplia noticia sobre el proceso de Khalid Sheikh Mohammad, uno de los cerebros de los atentados del 11 de septiembre, junto con cuatro acusados más, que iban a ser juzgados por una comisión militar en la base de la bahía de Guantánamo y no en una corte federal. El secretario de Defensa, Robert Gates, pese a las posiciones enfrentadas en el congreso estadounidense, habría considerado, dentro de la política de interior de la administración de Obama, quitar la prohibición que se mantenía desde enero del año 2009 de no llevar nuevos casos de terroristas a Guantánamo, aunque actualmente Robert Gates ya ha sido sustituido en el cargo por el director de la CIA Leon Panetta. Barack Obama recibió el premio Nobel de la Paz en octubre del año 2009, como es de sobra conocido. De las promesas para moderar la política del miedo que comenzaron en el año 2008, a la política de la decepción.

Computer History Museum, recorre la historia de la computación

La historia de la computación comienza con los sistemas de numeración posicional, las herramientas de cálculo en las civilizaciones antiguas, el ábaco romano, tomando vuelo con el desarrollo de la lógica formal y ramas de las matemáticas como el álgebra y los algoritmos, hasta llegar a las primeras máquinas de computación en el siglo veinte. Computer History Museum se encuentra en Mountain View, California, Estados Unidos, su misión tal y como se indica en la página ComputerHistory.org es preservar, sin ser un mausoleo sino un lugar retrospectivo, los procesos tecnológicos que nos han llevado a la era de la información digital, cambiando la experiencia humana.

Computer History Museum

Computer History Museum

El museo de la historia de la computación en Estados Unidos fue establecido como una sociedad sin ánimo de lucro 501(c)(3) en el año 1999. Se estableció en Silicon Valley y en octubre del año 2002, se trasladó al edificio que se encuentra en 1401 N. Shoreline Boulevard Mountain View, California abriéndose al público en el año 2003. En su página online tienen un excelente timeline o línea del tiempo con los grandes hitos de la historia de la computación, aunque evidentemente la zona más llena está a partir de 1940, tras siglos de acumulación. Otra manera de seguir los artículos con imágenes muy buenas, incluso mejores que las de libros y enciclopedias que se pueden consultar, es la sección Computer History Topics.

Computer History Museum

La palabra cálculo viene de la palabra latina calx, esto es piedra, con diminutivo calculus, piedrecilla, que sigue apareciendo actualmente en los manuales de cálculo infinitesimal para estudiantes de bachillerato y universidad. Las tablas de cálculo romanas que servían como ábaco prosaico eran tableros con surcos donde se colocaban piedras pequeñas para denotar los números, las cifras por cada surco que correspondía a una línea, cada línea en orden ascendente eran unidades, decenas, centenas, unidades de millar, etc. En realidad, se considera historicamente que los romanos tanto en la república como en el periodo imperial hasta el fin del imperio romano de occidente (476 d.C.) no desarrollaron demasiado las matemáticas, heredando de los griegos y éstos de las culturas fluviales, egipcios a los que admiraban, como también babilonios y sumerios. En cambio, Roma destacó por las medidas y el cálculo en su aplicación técnica, para la arquitectura, heredando para el periodo imperial la obra de Vitruvio, y las construcciones de infraestructuras como los puentes y acueductos.

Como sucede en otros casos de aportes al conocimiento patrimonio de la humanidad, notablemente la agricultura, diferentes sociedades humanas han desarrollado por inventiva técnica soluciones similares a los mismos problemas, de manera independiente, así en la sociedad China desde el siglo IV a.C. ya se usaba un sistema de cálculo mediante barritas que se difundió posteriormente en Corea y Japón, aunque fue sustituido por el ábaco o suanpan, desde el siglo II a.C. en China, que tenía dos partes, la superior estaba dedicada a líneas de decenas, centenas, millares, etc. mientras que la inferior era para unidades, para comenzar a calcular, el ábaco suanpan tiene que tener las piedras de la zona superior subidas y las de la zona inferior bajadas, así tenemos el cero.

Suanpan
Ábaco suanpan del Museum of Chinese en Estados Unidos, cortesías de la familia de Louie Shee Wong y Gok Jum Wong. Fotografía de Mark Richards en Computer History Museum.

Quienes han estudiado informática y programación saben que los principales sistemas de numeración que deben dominar son decimal (base 10 como los dedos de las manos), binario (base 2, unos y ceros), octal (base 8) y hexadecimal (base 16), así como las transformaciones de números entre ellos. En las matemáticas babilonias existía un sistema de numeración de base 60, aunque era mezcla de diferentes formas de numeración, aditiva y posicional, mientras que se considera que el sistema posicional de numeración (los números no se suman según símbolos uno tras otro, sino que dependen de la posición, el coeficiente que es el número multiplica la base y esta tiene como potencia la posición de derecha a izquierda), viene de India, desde el siglo séptimo. Sí hay evidencias de que el uso del ábaco posteriormente al periodo clásico llevó a adoptar un sistema de numeración posicional para conjugar el uso práctico de las matemáticas con ese método de cálculo, hasta su introducción en Europa occidental, conocido por el nombre ábaco de Aurillac por el papa Silvestre II.

Como muchos nombres que comienzan por al- los algoritmos y el álgebra tienen su origen en Oriente Medio, tomando el nombre convencional por Muhammad ibn Musa al-Khwarizmi que llegó a estudiar en Bagdad durante el siglo IX, de ahí algoritmo, igual que el título de la obra Hisab al-yabr wa’l muqabala, dio lugar al álgebra. Al-Khwarizmi conocía el sistema de numeración posicional en base 10 de origen indio y lo utilizó para la aritmética. En la Baja Edad Media, antes de la secularización del pensamiento medieval hacia el Renacimiento, se introdujo el uso de los número arábigos y los algoritmos, no sin disputas entre los partidarios del ábaco con numeración romana y los partidarios de los números arábigos, destacando el papel del cero, y el algoritmo con cálculo en soporte e instrumento de escritura, mucho más sencillo para cuestiones prácticas del desarrollo matemático, con aplicación comercial. Fibonacci (Leonardo de Pisa pero conocido como Figlio di Bonacci, por ser hijo de Guglielmo Bonacci), desarrolló el sistema de numeración arábigo, llevando la transición desde la aritmética con ábacos en Italia, además de otros trabajos en matemáticas como las series de números. Algunos sectores de comerciantes también utilizaban la forma de contar explicada por Luca Pacioli en los problemas de Summa de arithmetica, geometria, proportioni et proportionalita.

Instrumentos mecánicos de cálculo

Los primeros instrumentos mecánicos posteriores a las reglas de cálculo y precursores de las calculadoras, se desarrollan desde inicios de la Edad Moderna, a partir de la primera revolución científica y junto con los aportes de Newton, Blaise Pascal, Leibniz y los ideales de la mathesis universalis y la demostración more geometrico. La tabla de multiplicación de John Napier, de quién vienen los logaritmos neperianos y sus propiedades aritméticas, muestra los números desde 1 a 9 y los resultados de las operaciones, aunque al contrario que las tablas para menores de edad antes de la educación secundaria, se usaba para calcular grandes números, teniendo en cuenta el acarreo mentalmente, como puede leerse en la entrada de Wikipedia sobre el ábaco neperiano. La primera calculadora realmente mecánica se atribuye a Wilhelm Schickard, una máquina o reloj calculador del año 1623 que realizaba el acarreo (tomar unidades para llevarlas a la siguiente posición o lo que mentalmente hacemos al decir «y me llevo una») mediante un sistema de ruedas que movían los números mostrados.

Tabla John Napier

Reloj calculador Wilhelm Schickard

La automatización computacional sirvió de instrumento también en los telares, con unas tarjetas perforadas que serían posteriormente recordadas en el lenguaje FORTRAN, desde 1725 se pensó en usar una cinta perforada con patrones para realizar un tejido. Herman Hollerith que llegó a dar uso informático a las tarjetas perforadas en la máquina tabular en el año 1887 para realizar el censo estadounidense, esperando éxito comercial, fundó la empresa Computing Tabulating Recording Corporation (CTR), que daría lugar a principios del siglo XX a la conocida IBM.

Tarjetas perforadas

Tarjetas perforadas IBM

A partir del siglo XIX se comercializan las primeras calculadoras mecánicas, con mecanismos de ruedas similares a relojes, para realizar operaciones aritméticas, como el aparato aritmómetro de Charles-Xavier Thomas de Colmar, la calculadora Arithmaurel de Timoleón Maurel, la calculadora de rueda dentada de Frank Baldwin en Estados Unidos en 1872, y el modelo con impresora o máquina de escribir calculadora de 1891 creado por William S. Burroughs, fundando una empresa de máquinas de contabilidad y produciendo muchas otras máquinas, con modelos más desarrollados en 1912. Las calculadoras mecánicas se fabricaron con tamaños de escritorio hasta 1940 sirviendo en empresas para la contabilidad, cuando comenzaron a desarrollarse las electrónicas, más ligeras y potentes, como el modelo Anita, un año más tarde fue conocido el modelo de estado sólido William Kahn Mathatronics Marathon y en 1965 se desarrolló el modelo italiano Olivetti Programma 101, muy similar a las cajas registradoras de comercios, con impresión en tickets y programas en bandas magnéticas. Las calculadoras electrónicas que conocemos actualmente de bolsillo e incluso con muchas opciones para asignaturas científicas y representación gráfica de funciones en marcas como Casio o Texas Instruments, son muy posteriores, desde 1980 y precedidas por modelos transicionales como Busicom LE-120A, Tandy Pocket Computer PC-8, Sharp EL-805 calculator, HP-35.

Burroughs Calculator

Baldwin Calculator

Burroughs Adding Machine

Anita electronic calculator

Anita electronic calculator

Olivetti Programma 101

Charles Babbage, junto con otros autores como John Herschel, George Peacock y Robert Woodhouse, fundaron en 1812 una sociedad de tradición analítica, siguiendo a Leibniz y la corriente racionalista, antes del nacimiento de Gottlob Frege. Tras estudiar cálculo diferencial y las técnicas de resolución de las raíces de polinomios, Babbage trató de construir una primera máquina, con complejas columnas de engranajes, llamada diferencial capaz de resolver los valores de un polinomio según tablas de diferencias, aunque no llegó a tener éxito pese a funcionar hasta con polinomios de grado 7 (cuando en bachillerato rara vez se ven las técnicas más allá de polinomios de segundo grado, como mucho la de cambio de variable y la fórmula de raices).

Máquina de Babbage

Otros autores como Georg Scheutz crearon máquinas distintas para el cálculo diferencial pero con menor precisión y capacidad de cálculo. El segundo intento de Babbage fue una máquina llamada analítica, aún más aparatosa que la primera en la que se basó, pero más potente, con motor, introducción de datos por tarjetas y memoria, tuvo problemas económicos en el desarrollo de los engranajes pero los fundamentos teóricos sirvieron para computadoras tanto teóricas como reales, El Ajedrecista de Leonardo Torres y Quevedo en 1911, el ordenador Harvard Mark I, o la máquina de Turing.

Lógica formal y computación

Aunque la lógica se había desarrollado desde Aristóteles, con la silogística y la lógica de clases, no es aproximadamente hasta los trabajos de George Boole y Gottlob Frege cuando despega la utilidad de la lógica no sólo en el análisis formal del lenguaje y la corrección argumental, sino en los circuitos y sistemas lógicos, de ahí que las puertas lógicas de muchos circuitos electrónicos sigan las tablas de verdad de conectivas. Pero tanto en hardware como en el desarrollo de software del siglo veinte hacían falta personas que fuesen expertos multidisciplinares, tanto en lógica, matemáticas y mecánica (no mecánica clásica en física, sino electrónica, piezas de engranajes, diseño industrial, etc.). La programación del software es muy reciente, FORTRAN se desarrolló desde 1954 en IBM teniendo manual y compilador según normativas sintácticas y semánticas, años después, Cobol en 1960, posteriormente Pascal, y seguirían otros lenguajes más modernos pero basados en las operaciones lógicas básicas, disyunción, conjunción, negador, sobretodo las secuencias condicionales (si… entonces), además de las conectivas para la iteración y la recursión.

Antes de la década de 1950, aunque en el periodo de entreguerras y durante la Segunda Guerra Mundial fue muy importante la criptografía -para interceptar y descifrar comunicaciones enemigas- y la teoría de la computación, se desarrollaron los computadores analógicos ideales, cuya representación en geometría analítica tenía cantidades físicas, operando con números reales y con capacidad para resolver ecuaciones diferenciales, mientras que los computadores digitales se limitan a representación en geometría analítica binaria, con números computables y son algebraicos, sin embargo, la electrónica sobretodo en relación con la arquitectura de la computadora, el procesador, la memoria que actúa en los procesos frente al almacenamiento, estaba perfeccionada con el uso de semiconductores. Algunos modelos de computadores analógicos fueron la máquina de análisis diferencial de Arnold Nordsieck, el modelo de Vannevar Bush, Telefunken RAT 700/2, los modelos EAI que llegaron a incorporar transistores y amplificadores.

Durante el desarrollo del hardware en el siglo veinte, en el periodo inmediatamente anterior a la Segunda Guerra Mundial, hasta tres modelos de computadoras fueron estudiadas paralelamente: serie Z del alemán Konrad Zuse, cuyo modelo Z3 ya realizaba cálculos en binario con coma flotante, Colossus en Bletchley Park, Reino Unido y la corriente de los ordenadores ENIAC y el EDVAC de Eckert y Mauchly en Estados Unidos. Dentro de la arquitectura de una máquina de computación además del mecanismo de lectura/escritura como la antigua cinta perforada y la memoria que distingue los archivos guardados de los resultados de procesos, la velocidad y la disminución del tamaño de los ordenadores -salvo en los supercomputadores de investigación- hasta finales del siglo XX se ha logrado con mejores componentes electrónicos, cambiando los tubos de vacío por transistores en electrónica digital. La máquina ENIAC funcionaba en 1945 y ocupaba 63 metros cuadrados, con un peso total de 30 toneladas, como otros modelos, estaba dentro de una sala y tenía un alto consumo de energía eléctrica. Lo bueno de este modelo y del posterior EDVAC fue la separación del hardware y la preprogramación, de un principio de software que se tenía que incluir de forma externa, antes de que existiesen aplicaciones con lenguajes de programación.

ENIAC Computer 1947

La denominada Arquitectura von Neumann, ha establecido las bases para la arquitectura en el hardware de cualquier ordenador, desde 1950, con el CPU separado de la memoria RAM y de las entradas/salidas de datos. Debido a que en la mayor parte de libros de historia de la ciencia o publicaciones de divulgación apenas salen dos o tres nombres, casi todos varones, entre los muchos trabajadores de estas máquinas de cómputo, hay páginas dedicadas a conservar en la memoria colectiva la labor de programadoras que trabajaban en las salas donde estaban las máquinas como ENIAC, además de las mujeres que trabajaban en las oficinas de contabilidad con las máquinas que llevaban la información en las tarjetas perforadas.

Aunque considerada como una de las innovaciones de Apple, igual que la interfaz gráfica de usuario en Macintosh, la computadora personal ya existía antes del ordenador Apple I y Apple II, aunque sin desarrollar aún una interfaz gráfica y con menor éxito comercial, algunos ejemplos son el modelo de John Blankenbaker, Kenbak-1 diseñado en 1971 con 256 bytes de memoria, EPA Micro-68 que funcionaba con el microprocesador de Motorola, Commodore PET. El ordenador personal de Apple tuvo más repercusión en los hogares, de hecho lo buscó en sus anuncios, mientras que el ordenador personal comercializado por IBM desde 1981 con el sistema MS DOS, tuvo más éxito en el plano empresarial, de hecho fue copiado por Eagle PC que incluía el mismo BIOS, aunque posteriormente fue modificado para evitar disputas legales.

Wozniak Apple I

Los ordenadores portátiles también se pensaron inicialmente para el mundo empresarial, con publicidades de ejecutivos en ruta, algunos modelos pioneros fueron Radio Shack TRS-80 Model 100, IBM 5100 portable computer y Xerox Notetaker. En telefonía móvil, antes de que todos los preadolescentes tuviesen su móvil o celular, actualmente smartphones, los modelos iniciales eran para profesionales, con antena extensible y dimensiones ladrillo, como Nokia 9000 Communicator, Motorola Timeport, Ericsson P800, entre otros. Palm Pilot fue un híbrido transicional en 1996, como computador móvil y PDA.

Internet

En networking, se desarrollaron primero los protocolos para conectar máquinas, tanto de manera inalámbrica para teléfonos, como en internet, ordenadores en red desde 1962, mientras que la world wide web es posterior, pues la diferencia esencial es la interacción de las personas, no sólo la conexión entre máquinas. Se considera que el primer spam en Arpanet fue enviado en 1978 por Gary Thuerk para anunciar un modelo de ordenador, y que la primera empresa en tener un sitio web fue una floristería estadounidense de New York: 1-800-Flowers.

Aniversario del nacimiento de Gregor Mendel, el padre de la genética

Las disciplinas científicas y especialidades actuales son ramificaciones inflacionarias de muy reciente aparición, la historia de la ciencia nos muestra que las principales disciplinas científicas y también muchas ramas definidas de las disciplinas sociales y en humanidades se han estructurado decisivamente en la modernidad, avanzada la Ilustración y a partir del siglo XIX. Antes incluso de que la biología se constituyese como disciplina científica autónoma, los naturalistas modernos enfocaban su investigación en las taxonomías de los reinos minerales, vegetales y animales, clasificando la vida en la Tierra a la par que la aparición de la geología en la historia natural esclarecía una datación realista del planeta, avances en el conocimiento patrimonio de la humanidad que el infantilismo crónico por la lectura del libro del Génesis no podía proporcionar. Antes de llegar a las conclusiones obtenidas por Charles Lyell, Alfred Russell Wallace y Charles Darwin, una figura clave entre los naturalistas de este periodo histórico es Alexander von Humbolt, naturalista ilustrado que realizó viajes transatlánticos antes de la salida de Darwin en el conocido H.M.S. Beagle.

Las conclusiones sobre la teoría de la evolución de las especies eran bastante claras y movieron cimientos sociológicos que por escrúpulos ante el rechazo social, no se habían publicado con anterioridad. En la obra de 1859, ‘Sobre el origen de las especies por medio de selección natural, o la preservación de especies favorecidas en la lucha por la vida’, Darwin definió el principio de selección natural o la supervivencia de los más adaptados al estudiar cómo en la enorme variabilidad de la vida en la naturaleza, en constante lucha por la existencia, con condiciones naturales cambiantes y modificaciones de influencia humana, los seres vivientes con ligeras ventajas en diferentes generaciones tenían más probabilidades de sobrevivir y procrear, transmitiendo esos caracteres ventajosos seleccionados naturalmente a favor, mientras que los individuos con variaciones perjudiciales no lograban sobrevivir sin mecanismos de influencia proteccionista humana. La conservación de las diferencias y variaciones individualmente favorables y la eliminación de las perjudiciales es la selección natural, con la consecuente desaparición de millones de especies en diferentes momentos de la historia del planeta. La teoría de la evolución con variaciones biológicas de cambio extremadamente gradual en la continuidad de la vida igual que en la actividad geológica y en la formación de rocas, refutó la interpretación fijista, catastrofista, creacionista y esencialista ajenas al conocimiento científico, también explicó el origen común de la vida en la Tierra, de todos los organismos vivos sin establecer escisiones ónticas para vanidad de la especie humana.

Sin embargo, el mecanismo explicativo en el que se basó Darwin no incluía aclaraciones de temas clave en biología como la localización de la transmisión de los caracteres hereditarios y en antropología, como la aparición de la conciencia en el hombre desde las especies del género Homo y los antecesores prehumanos, que sí fueron investigados a partir de la segunda mitad del siglo XIX y de manera accelerada en el siglo XX. Gregor Mendel, reconocido como padre de la genética décadas después de su obra clave, ‘Experimentos sobre la hibridación de plantas’ publicada en 1865 en Brno, no fue valorado en las décadas de 1870-1880 debido a la atención centrada en los debates sociológicos surgidos de las ideas evolucionistas: el programa político conservador llamado darwinismo social que desenbocó en la eugenesia, aunque en el pensamiento griego clásico ya existieron ideas políticas sobre eugenesia, controlando los nacimientos en la población.

Gregor MendelGregor Johann Mendel (20 de julio de 1822 – 6 de enero de 1884) fue un monje agustino católico y naturalista nacido en Heinzendorf, Austria (actual Hynčice, distrito Nový Jičín, en República Checa) que describió, por medio de los trabajos que llevó a cabo con diferentes variedades del guisante (Pisum sativum), las leyes que rigen la herencia genética. Inicialmente realizó cruces de semillas, estudiando de forma analítica caracteres hereditarios observables a nivel macroscópico como el color de las semillas, el tipo de flor, la longitud del tallo, el aspecto de las vainas de legumbres. En sus resultados encontró caracteres dominantes que se caracterizan por determinar el efecto de un gen y los recesivos por no tener efecto genético, expresión sobre un caracter determinado, sobre un fenotipo heterocigótico. Su trabajo no fue valorado aunque sí que fue difundido en bibliotecas institucionales y citado en otros estudios botánicos pero no tuvo reconocimiento hasta que autores como Hugo de Vries, botánico neerlandés, el alemán Carl Correns y también Erich von Tschermak redescubrieron por separado las leyes de Mendel en el año 1900. Hoy día 20 de julio de 2011 puede verse en el buscador Google un logotipo diseñado para conmemorar los trabajos experimentales de Mendel en el 189 aniversario de su nacimiento.

Diseño Google por el 189 aniversario del nacimiento de Gregor Mendel

Para poder estudiar en un nivel académico superior a la enseñanza obligatoria, Johann Mendel, que perteneció a una familia de campesinos donde su padre le enseñó a cultivar árboles frutales, ingresó como sacerdote en 1843 en el monasterio agustino de San Pablo en Brno, tomando el nombre de Gregor. Otros religiosos del monasterio eran estudiosos de ciencias naturales y profesores en Brno en colaboración con instituciones de Moravia para la mejora de la agricultura. El clima intelectual del monasterio fue muy favorable a Mendel: un compañero entre los monjes agustinos, Matthew Klácel, tenía un jardín experimental donde se trabajaba con plantas pero no como agricultura de subsistencia, sino como investigación sobre botánica, caracteres variables y protección de las plantaciones frente a sus agresores naturales. Además de beneficiarse de esta ayuda en el monasterio donde cursó Teología hasta 1851, Mendel estudió ciencias naturales en Viena siendo admitido en la Sociedad de Zoología y Botánica de Viena, hasta que regresó a Brno como profesor en 1856. Además de impartir clases en la Escuela Técnica empezó sus famosos experimentos con guisantes en el jardín experimental, donde trabajó con los caracteres heredados por la descendencia híbrida de varias cepas, sobre treinta y cuatro variedades. Según la preponderencia de los caracteres en la progenie, Mendel concluyó que los caracteres dominantes o recesivos dependían de dos conjuntos de determinantes hereditarios cada uno de un progenitor, que aportaba la mitad de la información genética, aunque Mendel no sabía nada de la localización a nivel microscópico de la información, que llamamos genes por ser de transmisión biológica, frente a memes de transmisión en la experiencia social ya que los estudios genéticos de secuenciación del ADN a partir de los cromosomas son posteriores, avanzada la segunda mitad del siglo XX.

Hay una controversia epistemológica sobre el método científico empleado por Mendel para obtener las leyes de herencia de factores o caracteres, tradicionalmente se ha mantenido que su trabajo fue empírico inductivista, al observar de forma general sin excepciones los fenotipos obtenidos a nivel macrocópico de siete caracteres. Pero muy posteriormente en el siglo XX y XXI se ha pensado más en un contexto hipotético-deductivo de planteamiento de hipótesis en el contexto heurístico y la planificación de experimentos en el contexto de justificación. Pisum sativum es una planta autógama, es decir, se autofecunda. Mendel lo evitó emasculándo la planta (eliminando las anteras para evitar la autofertilización). Así pudo cruzar exclusivamente las variedades deseadas. También embolsó las flores para proteger a los híbridos de polen no controlado durante la floración. Llevó a cabo un experimento control realizando cruzamientos durante dos generaciones sucesivas mediante autofecundación para obtener líneas puras para cada carácter.

caracteres experimentos guisantes Gregor Mendel

Mendel llevó a cabo la misma serie de cruzamientos en todos sus experimentos. Cruzó dos variedades o líneas puras diferentes respecto de uno o más caracteres. Como resultado obtenía la primera generación filial (F1), en la cuál observó la uniformidad fenotípica de los híbridos. Posteriormente, la autofecundación de los híbridos de F1 dio lugar a la segunda generación filial (F2), y así sucesivamente. También realizó cruzamientos recíprocos, es decir, alternaba los fenotipos de las plantas parentales.

Las leyes de Mendel explican y predicen cómo van a ser los caracteres físicos (fenotipo) de un nuevo individuo. Frecuentemente se han descrito como «leyes para explicar la transmisión de caracteres» (herencia genética) a la descendencia. Desde este punto de vista, de transmisión de caracteres, estrictamente hablando no correspondería considerar la primera ley de Mendel (Ley de la uniformidad). La uniformidad de los híbridos que Mendel observó en sus experimentos es consecuencia de la dominancia de determinados alelos sobre los recesivos, no se considera una ley de transmisión sino de la expresión del genotipo. Hay tres leyes de Mendel que explican los caracteres de la descendencia de dos individuos, pero solo son dos las leyes mendelianas de transmisión: la Ley de segregación de caracteres independientes y la Ley de la herencia independiente de caracteres.

La ley de la uniformidad establece que si se cruzan dos razas puras para un determinado carácter, los descendientes de la primera generación serán todos iguales entre sí (igual fenotipo e igual genotipo) a uno de los progenitores.

La ley de la segregación equitativa o disyunción de los alelos establece que durante la formación de los gametos cada alelo de un par se separa del otro miembro para determinar la constitución genética del gameto filial. Mendel obtuvo esta ley al cruzar diferentes variedades de individuos heterocigotos (diploides con dos variantes alélicas del mismo gen: Aa), y pudo observar en sus experimentos que obtenía muchos guisantes con características de piel amarilla y otros (menos) con características de piel verde, comprobó que la proporción era de 3:4 de color amarilla y 1:4 de color verde (3:1).

diagrama de la Ley de Mendel para la transmisión de un caracter

diagrama de la Ley de Mendel para la transmisión de un caracter

Explicación en diagrama de la Ley de Mendel para la transmisión de un caracter, en la página de la Universidad Pontificia de Chile.

Según la interpretación actual, los dos alelos, que codifican para cada caracter hereditario, son segregados durante la producción de gametos mediante una división celular meiótica. Esto significa que cada gameto va a contener un solo alelo para cada gen. Lo cual permite que los alelos materno y paterno se combinen en el descendiente, asegurando la variación. Para cada característica, un organismo hereda dos alelos, uno de cada pariente. Esto significa que en las células somáticas, un alelo proviene de la madre y otro del padre. Éstos pueden ser homocigotos o heterocigotos.

«Resulta ahora claro que los híbridos forman semillas que tienen el uno o el otro de los dos caracteres diferenciales, y de éstos la mitad vuelven a desarrollar la forma híbrida, mientras que la otra mitad produce plantas que permanecen constantes y reciben el carácter dominante o el recesivo en igual número.»

Gregor Mendel

diagrama de la Ley de Mendel para la transmisión de doble caracter

diagrama de la Ley de Mendel para la transmisión de doble caracter

Explicación en diagrama de la Ley de Mendel para la transmisión de un caracter, en la página de la Universidad Pontificia de Chile.

La ley de la segregación independiente concluye que diferentes rasgos son heredados independientemente unos de otros, no existe relación entre ellos, por tanto el patrón de herencia de un rasgo no afectará al patrón de herencia de otro. Sólo se cumple en aquellos genes que no están ligados (en diferentes cromosomas) o que están en regiones muy separadas del mismo cromosoma.

«Por tanto, no hay duda de que a todos los caracteres que intervinieron en los experimentos se aplica el principio de que la descendencia de los híbridos en que se combinan varios caracteres esenciales diferentes, presenta los términos de una serie de combinaciones, que resulta de la reunión de las series de desarrollo de cada pareja de caracteres diferenciales.»

Gregor Mendel

– Historia de la genética.
– Biografía y experimentos de Mendel.
Leyes de Mendel.
Traducción al inglés de la obra publicada en 1865 con los experimentos sobre hibridación de plantas en Mendelweb.
– En Youtube se pueden ver episodios animados de la serie ‘Érase una vez…’ donde aparecen los experimentos con guisantes de Mendel.

Retomando el vuelo en un aeroplano Bleriot XI de principios del siglo XX

La historia de la aviación tuvo su punto de inflexión a partir de los desarrollos de aeroplanos de los hermanos Wright, quienes a finales de la década de 1890, habían empleado sus esfuerzos en mecánica y termodinámica para diseñar un aeroplano que pudiese despegar y volar por medios propios, con motor y no meramente planear según las corrientes de viento. El avión que fabricaron los hermanos Wright era un biplano al que denominaron Flyer; en la plaza del piloto, éste permanecía echado sobre el ala inferior del avión, mientras que el motor se situaba a la derecha, y hacía girar dos hélices localizadas entre las alas. La técnica del alabeo consistía en cuerdas atadas a las puntas de las alas, de las que el piloto podía tirar o soltar, permitiendo al avión girar a través del eje longitudinal y vertical, lo que permitía que el piloto tuviera el control del avión. El aeroplano Flyer estaba dotado de maniobrabilidad longitudinal y vertical, donde el control era realizado a través de la fuerza del propio tripulante, realizando su primer vuelo público documentado como exitoso el 17 de diciembre de 1903 con Orville Wright como piloto. Los hermanos Wright utilizaron raíles para mantener el aparato en su trayecto, y una catapulta para impulsarlo. El avión ganó altitud al acabar el recorrido sobre los raíles, alcanzando una altura máxima de 37 metros, y una velocidad media de 48 km/h durante los 12 segundos que duró el vuelo, aterrizando aparatosamente sin un deslizamiento amortiguado.

En el año 1909, Louis Bleriot, un ingeniero y aviador francés completó un vuelo con un aeroplano que se desplazaba con un motor de 24 caballos, durante el cual atravesó el canal de la Mancha hasta Gran Bretaña entre las ciudades de Calais y Dover, cuando los aviones ya lograban mantener vuelos de entre 35 y 45 minutos a velocidades superiores a 70km/h, todo un salto cualitativo y cuantitativo antes de completar la primera década del siglo XX. La hazaña le permitió ganar el concurso de mil libras propuesto por London Daily Mail para espolear a los mecánicos empleados en un momento histórico clave de los procesos tecnológicos y de la imagen con el advenimiento del cine. Un aeroplano modelo Bleriot XI con motor tricilíndrico Anzani de 25 HP volvió a despegar el pasado día 5 de junio con el trabajo de los mecánicos voluntarios de la Experimental Aviation Association en un aeropuerto de pruebas situado en Oshkosh, Wisconsin, Estados Unidos. La réplica del modelo utilizado a principios del siglo XX antes de que se desarrollasen vuelos comerciales funcionó manteniendo las condiciones más veraces posibles con el motor de la época. El encargado de conmemorar los inicios de la aviación fue el piloto Tom Hegy que en imágenes aparece en la plaza de un Bleriot XI expulsando humo por el motor delantero en el momento del despegue.

Tom Hegy delante del aeroplano Bleriot XI.

aeroplano Bleriot XI

aeroplano Bleriot XI

aeroplano Bleriot XI

Noticia publicada originalmente en EAA Aviation Center y leida en Wired. Más información sobre Blériot en Centraliens y en la página del musée de l’air et de l’espace.

El sitio de la Tierra en el Universo

Al considerarse la propia especie humana a sí misma como excepción entre la vida en la Tierra, taxonomizando, haciendo discreto algo continuo y gradual, el hombre ha creído a través del delirio vanidoso que son las creencias religiosas, que era un ser especial, no un mamífero epígono en la evolución de las especies, diferente no sólo en su capacidad mental, lingüística, matemática, técnica y mimética, sino un ser con un destino superior al de cualquier otra especie. Habría por tanto una escisión en las taxonomías biológicas que separase al ser humano de cualquier otra especie, siendo los animales y organismos vivos clasificados e instrumentalizados en la medida en que fuesen útiles a las actividades humanas, alimenticias, energéticas y en un plano más sofisticado y esencialmente humano, simbólicas, transfiriendo las pasiones y los vicios humanos en otros vivientes, esto es, especeísmo.

Tras una hegemonía de varios milenios con cultos politeístas que hicieron creer al hombre que era descendiente por generación de dioses, los fenómenos naturales con figuras antropomórficas, los ritos sepulcrales y la inexplicable producción de estados mentales en la vigilia pero sobre todo en el sueño, donde los fallecidos queridos aparecían en la consciencia de aquel que había tenido vínculos afectivos con ellos, dio acicate a los misterios sobre la transmigración del alma, al separarse del cuerpo en la muerte. Como si el hombre y solamente la especie humana tuviesen el derecho exclusivo -¿de dónde vendría?, ¿quién se lo daría?- a una existencia post-mortem y a conocer a su creador, un padre exaltado, fijado simbólicamente a imagen y semejanza con atributos antropológicos loables infinitos, mientras que ningún otro organismo viviente podría aspirar a semejante cosa. La imposición sangrienta posterior de un periodo histórico de hegemonía que transita desde el politeísmo hacia el monoteísmo, con un Dios que es padre y creador de todas las cosas, que mantiene en su ser la creación, sería otra forma exacerbada de vanidad específica, manteniendo el dogma post-mortem de una existencia escindida, posterior a la muerte, que juzga la conducta moral de su antesala para decidir la recompensa o el castigo de cada sujeto, quién sin poder conducirse autónomamente, recibiría el deber moral de una instancia trascendente para tratar de lograr «su trozito de cielo».

La vanidad de la especie humana, que se había considerado a sí misma como la excepción de la vida en la Tierra, en un plano óntico superior al resto de los seres y con un destino diferente, ha recibido varios duros golpes desde los inicios de la Edad Moderna, tal como destacó Sigmund Freud en Una dificultad del psicoanálisis, mencionando literalmente que el narcisismo universal, el amor propio de la humanidad ha recibido hasta el siglo XX, tres graves afrentas por parte de la investigación científica:

1- La primera es el desvanecimiento cosmológico de la creencia de que la Tierra es el centro del Universo -el modelo geocéntrico del sistema solar-, algo que iba en armonía con la falta de percepción sensorial del movimiento del planeta por el hombre y con la idea de ser producto de un artífice divino.

2- La segunda es la enajenación animal, partiendo del totemismo en los cultos sagrados «primitivos», las poblaciones humanas se relacionan con su entorno natural, considerando a determinados animales protectores de la tribu, las figuras de sus divinidades tienen cabeza o elementos corporales de los animales, que son objeto de las manifestaciones estéticas figurativas. El mito muestra a los dioses cambiando su forma por la de animales, muestra como los dioses son fenómenos naturales surgidos del sobrecogimiento por la falta de explicación causal del mundo físico y el miedo a la muerte. Para un infante, no hay nada extraño en que los animales piensen y actúen como humanos en los cuentos y fábulas, sólo el hombre que ha desarrollado pensamiento teológico les quita la razón y proyecta en ellos los vicios humanos. Son los estudios en geología y biología posteriormente las ramas de paleontología, anatomía comparada, embrionología, secularizaciones de la teología y la historia naturales, quienes ponen término a esa arrogancia humana que se escinde de la animalidad.

Aunque habitualmente es citado sólo Charles Darwin en relación al Origen de las especies y la obra el Origen del hombre, su trabajo es deudor de investigaciones décadas anteriores, la variabilidad de la vida, la lucha por los recursos naturales, la selección a favor o en contra de caracteres hereditarios y el gradualismo y continuidad de las especies en su generación, son las claves para postular el origen del hombre a partir de un ancestro común con diferentes especies de primates, simios como el chimpancé y el bonobo. La primatología y la etología, el estudio de la conducta animal y de las formas de organización de otras especies, han mostrado cómo las normas morales son necesarias para dar cohesión y estructurar grupos. Y definitivamente las normas morales y las intuiciones más básicas sobre cómo debemos comportarnos para vivir bien son anteriores cronológicamente a la aparición de las religiones dominantes y de las sagradas escrituras que contienen los mandamientos.

3- La tercera afrenta es -evidentemente más sentida- la psicológica, la investigación que le ha demostrado al ser humano que no sólo no domina el Universo, ni es una especie escindida del origen de la vida frente a los demás organismos, sino que además no es el dueño de su propia mente, la razón no es la cualidad esencial del hombre y la mente depende de determinaciones biológicas, instintos y pulsiones, que no son conscientes y se encuentra soterrados, sedimentados en la conciencia humana, como parte de nuestros traumas, deseos, miedos, esperanzas y frustraciones.

El conocimiento que se tiene actualmente sobre el espacio ocupado por el planeta Tierra en el espacio, viene esencialmente de las observaciones mediante instrumental técnico en los últimos cuatro siglos, aunque la astronomía era uno de los saberes más antiguos transmitidos desde las culturas fluviales de Mesopotamia, sobre todo Babilonia y después Egipto, hasta los pueblos del Mediterráneo oriental. Muchos siglos antes del establecimiento científico de la teoría heliocéntrica, a inicios de la Modernidad, lo que se conoce como primera revolución científica, en la astronomía de Alejandría durante el periodo helenístico hubo alternativas que cuestionaron la tradición heredada de Aristóteles. Ptolomeo aceptó la tradición de los maestros griegos, pero no todos los astrónomos propusieron lo mismo: Aristarco de Samos, un astrónomo de la primera mitad del siglo III antes de la era cristiana pensó que el centro del mundo estaba ocupado por el Sol, que la Tierra y todos los planetas giraban en torno a él y que sólo la Luna giraba en torno a la Tierra. El modelo aristotélico-ptolemaico permaneció hasta finales de la Baja Edad Media, atenuándose al igual que la escolástica tomista y pereciendo a inicios de la Modernidad bajo los estudios asociados a Copérnico con la obra De Revolutionibus de 1543, Galileo y Kepler en mecánica, instrumental astronómico y perfeccionamiento de los cálculos de las órbitas planetarias en la teoría heliocéntrica, los cuerpos celestes de la zona supralunar no son perfectos y acabadamente esféricos, el Sol tiene manchas en su superficie y las órbitas no son circulares.

Tras la aceptación de la teoría heliocéntrica, ya en el siglo XVIII, el astrónomo y compositor William Herschel observó la existencia de otros planetas además de satélites o lunas, que debía existir un tipo de luz invisible para nosotros dentro del espectro en el que se descompone la luz al refractarse en un prisma, y que el sistema solar formaba parte de un espacio muy superior con forma de disco, donde estaban otras estrellas similares al Sol. En el siglo XX, los trabajos de Hubble sobre el estudio de cometas y nebulosas llamaron la atención sobre la posible estructura general del universo, mucho más grande de lo que se creía en siglos anteriores, en expansión, donde la galaxia donde se encuentra el sistema solar sólo es una entre billones. En 1990, se hizo conocida una fotografía tomada por la sonda Voyager 1, dentro de los objetivos solicitados por Carl Sagan y otros científicos de la agencia aeroespacial NASA a 6,1 billones de kilómetros de distancia de la Tierra, lejos del Sistema Solar, el título Pale Blue Dot, se refiere al aspecto del planeta Tierra en el espacio exterior desde esa distancia, visible únicamente por los rayos solares como un diminuto punto azul.

Pale Blue Dot

El cosmos es mudo, indiferente, frente a los deseos narcisistas del hombre que se considera autosatisfecho por su carácter de excepción, elegido entre el mundo por un artífice trascendente, Dios creador, frente a los sentimientos delirantes de auto-importancia y las jerarquías sociales formadas por los seres humanos, exacerbadas en las sociedades industrializadas de consumo y planes de ocio a la carta, en la era del vacío.

La Tierra en el Universo
Se puede ver la imagen en mayor resolución.

Para lectores curiosos, más textos en los artículos Earth’s location in the universe y Pale Blue Dot.

Mount&Blade, acción RPG en la Baja Edad Media

Mount&Blade es un videojuego RPG desarrollado por Taleworlds, ambientado en la Baja Edad Media, en el periodo histórico posterior a la creación de las primeras Universidades en Occidente, con sus facultades de artes, derecho, medicina y teología. No es un juego RPG al uso ni tampoco se parece a los hack&slash con combos que encadenan decenas de golpes además de conjuros de magia ni a los videojuegos modernos en universos fantásticos, aunque la cartografía de Calradia es ficticia, igual que sus facciones y reinos, la ambientación es medieval, con cierta coherencia gráfica. Mount&Blade es un videojuego sobrio, que vale la pena probar con unas opciones de dificultad moderadas, ya que podremos observar al instalarlo que por defecto está facilitado al usuario inexperto, reduciendo el daño de los ataques y dejando en bajo nivel la IA de los oponentes. Una opción menos realista que conviene mantener es que nos permita salir sin tener que guardar partida, para recuperar partidas guardadas en caso de fracaso en una quest importante o de quiebra económica.

Mount&Blade

Mount&Blade

Mount&Blade

En un nivel medio de dificultad, con tres golpes nos dejan inconscientes en el suelo, con un sistema de combate sencillo pero efectivo, cubrirse con el botón derecho del ratón y atacar con el izquierdo, los ángulos y trayectorias los determinamos con el movimiento del periférico, aunque hay que reconocer que tenemos una cierta variedad de armas (arcos, ballestas, lanzas, dagas, espadas cortas, espadas largas, hachas, picas, alabardas, etc.) y protecciones con las que equipar al personaje principal y a las tropas (guantes, botas, casco, armadura de torso con zona mullida hasta cota de malla y placas). También es importante acudir al mercado de alguna fortaleza importante para comprar alimentos variados y un caballo, ya que aquellos son imprescindibles para mantener la moral de las tropas y la montura es muy útil en las batallas, con escenarios en campo abierto donde es importante marear a los oponentes mientras los arqueros hacen sombra con la lluvia de proyectiles.

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Al iniciar la aventura, tenemos que decidir ciertas opciones accidentales para nuestro personaje principal, si será varón o mujer, su aspecto físico que podemos ir delimitando en el retrato, así como la ascendencia, el entorno social que influyó en su infancia y juventud, que determinarán su vida en parte por eso que llaman moira, destino, vida guiada por algún hado o daimon, aunque finalmente el personaje será víctima sólo de sus propias decisiones. El mejor desafío es elegir a una mujer de origen humilde ya que en Mount&Blade las sociedades patriarcales están dominadas por los varones de distintas casas nobles, mientras que las mujeres están enclaustradas en las fortalezas y no salen si no es por organizaciones festivas y torneos en castillos del reino. Siendo tratadas como activos políticos, sólo pueden influir en las relaciones a partir de los deseos advenedizos entre casas de lords locales, con matrimonios concertados por convención, por permiso del padre y de los familiares. Eligiendo a un varón como aventurero, los inicios son algo más sencillos aunque se progresa lentamente, empezando como mercenario que realiza misiones básicas por una bolsa de denarios, llevando encargos a las tabernas, escoltando caravanas, llevando ganado a aldeas, hasta lograr misiones más difíciles: rescatar a un individuo raptado por bandidos, recuperar una deuda no pagada entre nobles, eliminar a un forajido huido de la justicia.

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

El mapa general de Calradia es bastante grande y aún con una buena velocidad (que varía según el héroe, las condiciones del terreno así como con las horas de luz) tardaremos mucho en algunos trayectos, por lo que es recomendable no desplazarse demasiado antes de alcanzar bastante experiencia, por facilidad al acumular tropas de alto grado y tener misiones suficientes para estar ocupado antes de atreverse con empresas mayores.

Mount&Blade

Mount&Blade

Mount&Blade

Al desplazarnos por el mapa, podremos ver en la barra inferior hasta seis pestañas de izquierda a derecha con las funciones de acampar, ver reportes de estadísticas, manejar notas, inventorio, las puntuaciones del personaje principal y la ventana del grupo, con las habilidades útiles para el grupo (rastreo, sanación, construcción y comercio) y las tropas que acompañan al heroe. En la función log de mensajes podemos ver todos los avisos pertinentes que van apareciendo en la esquina izquierda de la pantalla, sobretodo son útiles para saber qué está ocurriendo en los enfrentamientos entre facciones o cómo van variando los datos políticos y económicos.

Mount&Blade

En algunas misiones donde se pide expulsar a los bandidos de su base, ya sea en la costa como aparece en imagen o en alguna otra zona donde patrullan como la tundra o los bosques, hay que seleccionar en las filas superiores de la party a nuestras mejores tropas, sobretodo porque la entrada al escondite de los bandidos no permite caballería ni más de seis soldados, por lo que será importante enfrentarse con cuidado antes de que se escapen, si el líder es abatido, se acabó la misión.

Mount&Blade

Mount&Blade: de mercenario a vasallo

Aunque es posible hacer quests para todos los reinos de Calradia, como un aventurero libre, si progresamos acumulando bastante experiencia, un paso posterior es pedir recepción a un rey para presentarse como vasallo, se nos pedirá un juramento de lealtad y recibiremos un feudo, generalmente una aldea limítrofe con otro reino, lamentablemente expuesta en caso de iniciarse una guerra, pero los comienzos siempre son complicados. Lo mejor es que nos seducirán con el poder del símbolo: al convertirnos en vasallos de un rey llevaremos una bandera, el estandarte que portará el caballero, aunque hay motivos como leones, osos, hachas y espadas cruzadas, yo me decanté por algo menos megalómano. Los estandartes también informan en los avisos de las facciones que están en guerra, que han acordado una tregua o que han decidido tener un nuevo periodo de paz armada.

Mount&Blade

Mount&Blade

Según vamos logrando experiencia, además de mejorar las estadísticas de nuestro personaje principal, sus habilidades y el manejo de armas (proficiencies), las relaciones con las diferentes facciones y con otros individuos van cambiando, ayudar a otro lord en una batalla mejorará las relaciones, igual que seguir la campaña del marshal participando en el asedio de un castillo. Si una guerra tiene balance favorable, se pueden obtener entre uno y dos nuevos castillos con sus respectivas aldeas, aunque también se puede retroceder en los avances imperialistas o de ilusoria unificación de Calradia. Cada cierto tiempo el rey o algún noble del reino organizan fastos en alguna capital, incluyendo un torneo en el que podemos participar o quedarnos en el hall charlando con la alta sociedad.

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Ocasionalmente, podemos recibir avisos tanto de una reunión de nobles en un castillo, como de la llamada del comandante principal o marshal para que nos presentemos en un lugar donde se está reuniendo el ejército del reino, aparecerá en forma de carta de un mensajero a caballo, a diferencia de las peticiones de matute por parte de una dama a quién estamos cortejando que son enviadas por su criada.

Mount&Blade

Mount&Blade

En las tabernas de los castillos principales de Calradia hay muchos personajes importantes con los que hablar además de algún borracho beligerante, quien regenta el negocio nos puede avisar de individuos que buscan aventureros que se brinden para realizar quests, podemos encontrar vendedores de libros, muy caros pero útiles para mejorar las habilidades del héroe, hay cobradores de rescates para las tropas prisioneras, podemos encontrar mercenarios y personajes con habilidades importantes para incorporarlos al grupo (médicos, rastreadores, comerciantes, constructores de maquinaria de asedio y de edificaciones, etc.), además de los trovadores, poetas provenzales que manejan la lengua de oc, que enseñan diferentes composiciones (por 300 denarios el poema) para usarlas después en la seducción a escondidas de las damas encerradas en las fortalezas, quienes según su educación preferirán las composiciones místicas, alegóricas, trágicas, cómicas así como apreciarán o rechazarán los temas de misoginia cortés, la celebración goliarda, las mujeres aventureras y las disputas entre caballeros y clérigos. También están en las tabernas los viajeros que informan sobre otros aspectos políticos además del juego del amor en Calradia, dando la localización de los demandantes que aspiran a recuperar un trono que consideran que les pertenece legítimamente.

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Si miramos las estadísticas del personaje desde la pestaña de misiones (tecla «Q» de «quests»), veremos también tanto la relación con facciones, el cálculo de la moral o estado de ánimo del ejército, así como las estadísticas de prestigio y las relaciones cortesanas, el renombre nos lo dan las batallas ganadas, sobretodo cuando la situación es desigual por el grado de las tropas enemigas o por su número, mientras que el honor lo da la conducta tanto con los lords del reino y señores feudales del mismo rey como con los enemigos y los lords de otros reinos en periodos de paz. Se progresa lentamente en el prestigio además de la economía, ya que los demás señores feudales tienen un renombre de entre 300 y 800 puntos, frente a cualquier advenedizo que pueda tener pretensiones en el reino o que desee conquistar a alguna dama.

Mount&Blade

Mount&Blade

Para subir niveles y asegurar el pago semanal de las tropas, nada mejor que recorrer la costa, la tundra y los bosques, zonas donde hay muchos grupos de bandidos que atracan caravanas y aventureros inexpertos, obteniendo experiencia para subir de nivel y su equipo para mejorar las armas, protecciones y vender el resto en el mercado de algún castillo. Otra forma de entrenar el combate, aunque a nivel cuerpo a cuerpo, son las arenas, donde aparecemos sin protecciones y con algún arma, mientras otros luchadores salen para resistir hasta el último golpe, la táctica principal es hacerse con una espada y al menos dos escudos (equipando desde el suelo con la tecla «F»), ya que esquivar el alcance de las armas no siempre será fácil.

Mount&Blade

Mount&Blade

Relaciones cortesanas en Mount&Blade

La micropolítica de Calradia se decide en los apoyos entre varones de la nobleza, además del soporte de las aldeas y los castillos hacia un comandante, mientras que las mujeres son el activo para cerrar las relaciones entre casas y pueden reconciliar a dos nobles haciendo de mensajeras. Los varones controlan los territorios desde sus feudos, apoyándose para evitar a un advenedizo y también hablando en privado para conspirar contra otro noble. En cada uno de los reinos, los lords locales tienen el mismo prefijo (Jarl, Boyar, Count, Emir, etc.) y si no sabemos donde se encuentra alguno basta con preguntarlo ya que con exactitud telepática tanto los varones como las mujeres saben donde está cada lord del reino, indicando el castillo o la zona del mapa donde están en ese momento.

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Alcanzar verdadera influencia política lleva tiempo, muchas horas de juego, para hacer algún amigo entre los nobles o recibir soporte de alguna fortaleza, aunque una vez logrado se puede influenciar a los lords para que acudan a un determinado lugar o vayan junto al personaje que controlamos para asediar entre varios un castillo. La mejor manera de aumentar las relaciones es ayudar en batallas, salvar aldeas de bandidos, cumplir quests para algunos lords, apoyarles en batallas, sobretodo cuando tienen casi segura la derrota si no llegan más efectivos, aunque también se pueden perder las amistades por pretender a la mujer equivocada, por hacer caso de una conspiración y enfadar a otro noble o el mismo monarca.

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

En las reuniones dentro del hall del lord y en los grandes fastos que se celebran ocasionalmente es un buen momento para conocer y charlar brevemente con los nobles y con las damas, aunque si elegimos mal en las opciones de diálogo se pueden empeorar las relaciones, como al decir piropos o declararnos admiradores de algunas mujeres. Con los varones no suele ser complicado tratar aún recibiendo rechazos, ya que muchos harán comentarios simpáticos sobre batallas pasadas o sobre el carácter memorable de un asedio donde se juntaron varios ejércitos (generalmente de unas decenas de efectivos, salvo el monarca que puede llevar doscientos). Además del renombre, el rey tiene en cuenta el derecho a gobernar, cuando piensa en quién debería obtener un nuevo feudo tras conquistar una fortaleza durante un periodo de guerra con otra facción, muchos nobles se apoyan según relaciones familiares entre casas, aunque sorprendentemente el monarca puede pasar de todos y entregarse a sí mismo el nuevo castillo.

Con la habilidad para manejar prisioneros en el grupo se pueden tomar tropas vencidas, cobrando por su rescate, mientras que los prisioneros liberados se pueden incorporar al ejército. En caso de vencer a un lord enemigo, éste puede escapar o ser tomado como prisionero, lo cual reduce el honor en caso de no liberarlo ni siquiera con las ofertas de rescate de varios miles de denarios, más de diez mil si el que está retenido como prisionero es el rey, como puede verse en imágenes.

Mount&Blade

Mount&Blade

Mount&Blade

De vasallo a comandante militar de una rebelión

En algunas cortes de lords de varios reinos de Calradia, hay algunos personajes particulares que demandan el apoyo de algún comandante militar experimentado para liderar su causa en la reclamación de un trono usurpado. Si ya somos vasallos de algún rey tenemos que pedir la supresión de los deberes retirando el juramento de lealtad, perdiendo las relaciones salvo con las aldeas y otros miembros de las casas nobles, además de nuestro feudo, antes de llevar la causa del demandante, quién se protege en una corte rival al reino que aspira recuperar. Llevar una rebelión es muy costoso, porque además de economía, experiencia y liderazgo, hay que avanzar en la tediosa tarea de asediar castillos periféricos, convencer a nobles para que cambien su lealtad hacia el advenedizo y llegar a tomar las grandes capitales que suelen ser entre tres y cuatro por reino. La mayor parte de los lords como es comprensible no ven favorable un cambio de alianza ni militarmente ni políticamente, por lo que no es recomendable encabezar una rebelión antes de tener mucha experiencia, pese a la atracción que pueda dar asignarse castillos conquistados.

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Asedios a los castillos en Mount&Blade

Los asedios a castillos son uno de los grandes atractivos del juego, de ambos lados de los muros, defender un castillo no es difícil aún cuando el enemigo duplica en número las tropas defensoras, pero al atacar igual que en las batallas hace falta buena táctica para no salir diezmado o peor aún, capturado prisionero en las mazmorras. La puntería es muy importante para abrir el paso a las tropas que ascenderán por la pasarela hasta uno de los muros, evitando que los arqueros y ballesteros quiten de enmedio a muchos soldados de infantería, además los defensores pueden tirar de una patada a los miembros del pelotón que se queden en el borde de la rampa de asedio. Una vez rota la defensa inicial, no es complicado moverse por los muros eliminando a los defensores y llegar a la plaza, donde se libra la última fase del combate. En un asedio es mucho más importante la labor del líder a nivel individual, mientras que en las batallas de campo abierto, teniendo las tres categorías principales de tropas (infantería, arqueros, caballería) se pueden manejar las órdenes tácticas de otra manera (con las teclas 1, 2, 3 ó de manera general F1, F2, F3). Los castillos son diferentes según el reino y la localización, como puede comprobarse en imágenes los detalles son más o menos coherentes, aunque muchos castillos son fortalezas pequeñas.

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Aspectos RPG de Mount&Blade

Frente a los videojuegos clásicos de RPG que en algunas ocasiones han supuesto un modelo insuperable y a los modernos con mucho efectismo y facilidad en un argumento lineal, Mount&Blade es una alternativa en esta querella, con un sistema de combate sencillo, aspecto visual medio y mucho juego en las relaciones políticas. Los aspectos de juego de rol que podemos identificar están en la interacción con el resto de individuos, desde el grupo de aventureros hasta los lords de las casas de nobles advenedizos. En el grupo de tropas podemos tener disputas donde los personajes cuestionan nuestras acciones, por exceso de crueldad (robar en una aldea, explotar con impuestos a los campesinos) o por cobardía (abandonar una batalla dejando tropas amigas a su suerte), además de que muchos personajes con nombre propio se pelearán si su origen está desnivelado en las jerarquías de clase social. También puede ocurrir que los compañeros mencionen al héroe algún dato de su vida pasada al atravesar una zona del mapa importante en su biografía o tener algún desertor por falta de apoyo en el grupo o por tener la moral muy baja.

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

Mount&Blade

La opción multijugador da la posibilidad de que compitan hasta 32 jugadores en batallas dentro de los mapas generados por Mount&Blade en su expansión Warband, sin ser partidas en redes locales cerradas, además de poder incluir otros mapas que los territorios de Calradia en la campaña individual. Si quereis investigar diferentes aspectos del juego organizados por categorías en una estupenda guía online, es recomendable la página de Mount&Blade en Wikia.

Las 20 páginas web más populares de internet en sus inicios

Una utilidad bastante entretenida para los internautas curiosos es Wayback Machine, que como su nombre indica en inglés, es una maquina del tiempo para volver al pasado, ya que este buscador de internet recopila una enorme base de datos con capturas de pantalla, cómo se veían diferentes páginas web en fechas pasadas.

La base de datos de Internet Archive Wayback Machine tiene una buena parte de la historia de internet, ocupando más de 100 terabytes y contando en su biblioteca virtual con 10 billones de sitios web archivados desde 1996 hasta la actualidad. Puedes usar el buscador y poner direcciones de webs de las que eres asiduo para mirar versiones en caché en fechas pasadas, además con esto se puede ver que los comienzos fueron duros para todo el mundo, incluso para los gigantes de internet.

Así se veían algunas de las páginas más conocidas y visitadas de internet en sus inicios:

1. google.com – lanzado en 1996

google wayback machine

2. facebook.com – lanzado en 2004

facebook wayback machine

3. myspace.com – lanzado en 2003

myspace wayback machine

4. yahoo.com – lanzado en 1994

yahoo wayback machine

5. youtube.com – lanzado en 2005

youtube wayback machine

6. wikipedia.org – lanzado en 2001

wikipedia wayback machine

7. msn.com – lanzado en 1995

msn wayback machine

8. apple.com – lanzado en 1987 aunque la primera captura de pantalla en internet es del año 1996

apple wayback machine

9. drudgereport.com – lanzado en 1997

drudge report wayback machine

10. amazon.com – lanzado en 1995

amazon wayback machine

11. twitter.com – lanzado en 2006

twitter wayback machine

12. whitehouse.gov – lanzado en 1994

whitehouse wayback machine

13. craigslist.org – lanzado en 1995

craigslist wayback machine

14. nytimes.com – lanzado en 1995

NYtimes wayback machine

15. news.bbc.co.uk – lanzado en 1997

BBC news wayback machine

16. dell.com – lanzado en 1996

Dell wayback machine

17. friendsreunited.com – lanzado en 2000

friends reunited wayback machine

18. telegraph.co.uk – lanzado en 1994

telegraph wayback machine

19. blogger.com – lanzado en 1999

blogger wayback machine

20. flickr.com – lanzado en 2004

flickr wayback machine

Como podéis ver, da una idea de cómo eran las páginas web hace años y cómo se ha ido sofisticando internet, que nadie era un genio del diseño hace una década.

40 aniversario de internet

El 2 de septiembre de 1969 se producía el primer intercambio de información entre dos ordenadores, no era nada parecido a la gran red WWW actual, pero su precursora ARPANET puede considerarse como los origenes de internet. La red de computadoras ARPANET (Advanced Research Projects Agency Network) fue creada por encargo del Departamento de Defensa de los Estados Unidos como medio de comunicación para los diferentes organismos del país. El primer nodo se creó en la Universidad de California, Los Ángeles y fue la espina dorsal de Internet hasta 1990, tras finalizar la transición al protocolo TCP/IP en 1983 y la creación del lenguaje html fue el impulso definitivo para la creación de páginas web.

El 21 de noviembre de 1969, surgía la red Arpanet, que establecía el primer enlace entre las universidades de UCLA y Stanford por medio de la línea telefónica conmutada. La red de computadoras capaz de comunicar usuarios en distintas computadoras fue un concepto formulado por J.C.R. Licklider de Bolt, Beranek and Newman (BBN) en agosto de 1962, en una serie de notas que discutían la idea de «Red Galáctica».

«una red de muchos [ordenadores], conectados mediante líneas de comunicación de banda ancha» las cuales proporcionan «las funciones hoy existentes de las bibliotecas junto con anticipados avances en el guardado y adquisición de información y [otras] funciones simbióticas»
J.C.R Licklider

En octubre del mismo año, Licklider fue convocado por ARPA (Agencia de Investigación de Proyectos Avanzados) perteneciente al Departamento de Defensa de los Estados Unidos. Convenció a Ivan Sutherland y Bob Taylor de la importancia del concepto antes de abandonar la agencia, y antes de que se iniciara trabajo alguno. Mientras tanto, Paul Baran estaba trabajando desde 1959 en la RAND Corporation en una red segura de comunicaciones capaz de sobrevivir a un ataque con armas nucleares, con fines militares.

En la misma época, Leonard Kleinrock ya trabajaba en el concepto de almacenar y reenviar mensajes en su tesis doctoral en el MIT. Esto incluía un importante análisis de la teoría de colas aplicada a las redes de comunicaciones (publicado como libro en 1964). Su trabajo aún no incluía la idea de fragmentación en paquetes.

Por último, Donal Davies, del Laboratorio Nacional de Física comenzó a relacionar todos estos conceptos en 1965, después de asistir a una conferencia en el Reino Unido sobre multiplexación en el tiempo. Su investigación tuvo lugar independientemente de los trabajos de Baran, de los que no tuvo conocimiento hasta 1966. Cuatro centros de investigación independientes (DARPA, la corporación RAND, el MIT y NPL en el Reino Unido) acabarían convirtiéndose en los primeros nodos experimentales de ARPANET.

Al final de 1966, Taylor contactó a Lawrence G. Roberts (del Laboratorio Lincoln, en el MIT) con el objeto de que liderase el proyecto de creación de la nueva red. Roberts ya conocía a Davies gracias a la mencionada conferencia sobre multiplexación en el tiempo.

El concepto original de Roberts consistía en utilizar la técnica de multiplexación en el tiempo, uniendo máquinas directamente con cables telefónicos. En una de las primeras reuniones (de 1967), muchos participantes no estaban dispuestos a que sus computadoras tuvieran que gestionar líneas telefónicas. Uno de estos participantes, Wesley A. Clark, tuvo la idea de usar pequeños ordenadores separados sólo para gestionar los enlaces de comunicaciones. Esta idea permitió descargar de trabajo a las computadoras principales, además de aislar la red de la distinta naturaleza de cada computadora.

estructura ARPANET

Sobre esta base comenzó el diseño inicial de ARPANET. Roberts presentó su primer plan en un simposio de 1967. En este mismo evento se encontraba presente Roger Scantlebury, colaborador de Davies. Gracias a este encuentro discutieron la idea de la conmutación de paquetes, y permitió a Roberts conocer el trabajo de Baran.

En el verano de 1968 ya existía un plan completo y aprobado por ARPA. De manera que se celebró un concurso con 140 potenciales proveedores. Sin embargo, solamente 12 de ellos presentaron propuestas. En 1969, el contrato se adjudicó a BBN. El 29-10-1969 se transmite el primer mensaje a través de ARPANET y el 21-11-1969 se establece el primer enlace entre las universidades de Standford y la UCLA.

La oferta de BBN seguía el plan de Roberts rapidamente. Los pequeños ordenadores se denominaron Procesadores del interfaz de mensajes (IMPs). Éstos implementaban la técnica de almacenar y reenviar y utilizaban un módem telefónico para conectarse a otros equipos (a una velocidad de 50 kbits por segundo). Los ordenadores centrales se conectaban a los IMPs mediante interfaces serie a medida.

ordenadores ARPANET

Los IMP se implementaron inicialmente con ordenadores DDP-516 de Honeywell. Contaban con 24 kilobytes de memoria principal con capacidad para conectar un máximo de cuatro ordenadores centrales, y comunicarlos con otros seis IMP remotos. BBN tuvo disponible todo el hardware y el software necesario en tan sólo nueve meses. La ARPANET inicial consistía en cuatro IMPs instalados en:

  1. UCLA, donde Kleinrock creó el Centro de medición de red. Un ordenador SDS Sigma 7 fue el primero en conectarse.
  2. El Augmentation Research Center en el Instituto de investigación de Stanford, donde Doug Engelbart creó el novedoso sistema NLS, un incipiente sistema de hipertexto. Un ordenador SDS 940 fue el primero en conectarse.
  3. La Universidad de California, con un IBM 360.
  4. El Departamento Gráfico de la Universidad de Utah, donde Ivan Sutherland se trasladó. Con un PDP-10 inicialmente conectado.

El primer enlace de ARPANET se estableció el 21 de noviembre de 1969 entre UCLA y Stanford. el 5 de diciembre del mismo año, toda la red inicial estaba lista.

En marzo de 1970 ARPANET cruzó hasta la costa Este cuando la propia BBN se unió a la red. En 1971 ya existían 23 ordenadores conectados, pertenecientes a universidades y centros de investigación. Este número creció hasta 213 ordenadores en 1981 con una nueva incorporación cada 20 días en media.

En 1972, Ray Tomlinson de la BBN inventó el correo electrónico. En 1973, el protocolo FTP ya estaba definido e implementado, facilitando el movimiento de ficheros en ARPANET. Para entonces el 75% del tráfico ya se debía al éxito del correo electrónico. También se especificó un protocolo para transmisión de voz (RFC 741), que llegó a implementarse pero fue un fracaso por motivos técnicos. Esto no vería la luz hasta varias décadas más tarde.

En la década de los 70 se crearían los correos electrónicos y los protocolos de comunicaciones TCP/IP, que facilitaron la conexión de varias redes. Sin embargo, su transformación en instrumento de la vida diaria no llegaría hasta 1989, cuando un grupo de físicos del CERN de Ginebra crea el lenguaje HTML y construye, al año siguiente, el primer cliente web, llamado WorldWideWeb (www), y el primer servidor web.

estructura ARPANET

Durante los finales de los años 80 se formaron las primeras compañías Internet Service Provider (ISP). Compañías como PSINet, UUNET, Netcom, y Portal Software se formaron para ofrecer servicios a las redes de investigación regional y dar un acceso alternativo a la red, e-mail basado en UUCP y Noticias Usenet al público. El primer ISP de marcaje telefónico, world.std.com, se inauguró en 1989.

Esto causó controversia entre los usuarios conectados a través de una universidad, que no aceptaban la idea del uso no educativo de sus redes. Los ISP comerciales fueron los que eventualmente bajaron los precios lo suficiente como para que los estudiantes y otras escuelas pudieran participar en los nuevos campos de educación e investigación.

Para el año 1990, ARPANET había sido superado y reemplazado por nuevas tecnologías de red, y el proyecto se clausuró. Tras la clausura de ARPANET, en 1994, NSFNet, actualmente ANSNET (Advanced Networks and Services, Redes y Servicios Avanzados) y tras permitir el acceso de organizaciones sin ánimo de lucro, perdió su posición como base fundamental de Internet. Ambos, el gobierno y los proveedores comerciales crearon sus propias infraestructuras e interconexiones. Los NAPs regionales se convirtieron en las interconexiones primarias entre la multitud de redes y al final terminaron las restricciones comerciales.

A finales de la década de los 90, Internet comenzaba a convertirse en un elemento más de la vida cotidiana, aunque su llegada masiva a los hogares no se produciría hasta ya entrado el nuevo siglo, en muchas zonas se comprobó que en el año 1995 pocas personas sabian todavia para que servia internet. En el año 2000 se produjo el llamado boom de los .com, numerosas personas se instalaron en internet registrando dominios para establecer negocios pero cuando las grandes empresas y negocios fisicos se instalaron en internet para aumentar su presencia a través de la red, los oportunistas se dieron cuenta de que la cosa era mucho más dificil y que no bastaba con tener ideas.

Con internet se ha ganado en comodidad y ahorro de tiempo. Muchas gestiones se hacen en clicks, como consultar cartelera, sacar entradas, buscar alojamiento, sacar billetes para viajar, realizar gestiones administrativas y tributarias, realizar operaciones bancarias, comprar todo tipo de articulos con entraga a domicilio…

La gestión de la información en lo cual se ha centrado la filosofia de Google, es una parte muy importante en el desarrollo de internet, antes del nacimiento de Google, existian los directorios y múltiples buscadores para encontrar webs e información repartida por la red. Profesionales creaban sus webs con curriculums en html, estudiantes buscaban trabajos ya hechos y apuntes en sitios como el rincon del vago… Actualmente la información está muy bien organizada en Google, que indexa millones y millones de paginas, pero tambien es común consultar la prensa online antes que leer los periodicos, buscar en internet libros, reseñas, criticas de cine, opiniones de consumidores antes de ir a un centro comercial a comprar o hacerlo directamente en tiendas online…

No obstante, a pesar de sus innumerables ventajas, internet ha traido también cosas malas, como el fraude online, el robo de datos, el spam, la Red WWW continúa despertando miedo de no pocos usuarios, algunos todavia traumatizados por antiguas estafas como los dialers que azotaron internet cuando las conexiones dialup eran bastante peores pese a que nos quejemos de las tarifas adsl tercermundista que nos dan las compañias de telefonia. El miedo al fraude hace que todavía muchos prefieran realizar físicamente sus gestiones personales o que vean peligros al realizar compras a través de Internet, utilizar sus tarjetas bancarias en la red, dar datos personales, entrar en webs por temor al spyware o abrir determinados correos electrónicos sospechosos.

Más información sobre la historia de internet en Wikipedia.

Muere el piloto que lanzó la bomba sobre Hiroshima

Muere el piloto que lanzó la bomba sobre HiroshimaPaul Tibbets fue el piloto norteamericano que lanzó la bomba atómica sobre Hiroshima abordo de su avión Enola Gay, este personaje ha fallecido el dia de hoy a sus 92 años de edad; tenia justo 30 años cuando lanzó aquel proyectil que causó el terror.

Aún en vida contaba que no se arrepentia de su acto y que sólo fue patriotico, aclaraba que descansaba en paz todas las noches despues de ese suceso y que no tenia ningún remordimiento.

Fue un 6 de Agosto de 1945 cuando Tibbets dejó caer a Little Boy sobre Hiroshima, una pequeña bomba de al menos 5 toneladas, esta explosión causo la muerte de 70.000 a 100.00 personas y miles de heridos; al segundo dia, Estados Unidos ordeno una segunda bomba nuclear sobre la ciudad de Nagasaki que dejo 40.000 heridos, dias despues Japón capituló y dio fin a la Segunda Guerra Mundial.

19 de Septiembre de 1985: 22 años

Hoy se cumplen 22 años de aquel 19 de Septiembre de 1985; donde la Ciudad de México sufrio la peor amenaza natural en toda su historia, un seismo de 8.1 grados en la escala de Richter sacudió toda la Ciudad durante 2 largos minutos, las consecuencias fueron aterradoras, y por esta parte, el Gobierno Federal no estaba preparado para un caso como este.

Una de las torres del Conjunto Pino Suárez colapsada en la Ciudad de México

Centro, sur y occidente de MéxicoEl epicentro se localizó en el Océano Pacífico, frente a las costas del estado de Michoacán, muy cerca del puerto de Lázaro Cárdenas. Un informe del Instituto de Geofísica en colaboración con el Instituto de Ingeniería de la Universidad Nacional Autónoma de México publicado el 25 de septiembre de 1985, detalla más aún que el epicentro fue localizado frente a la desembocadura del Río Balsas localizada entre los límites del estado de Michoacán y Guerrero a las 7:17:48 a.m. alcanzando la Ciudad de México a las 07:19 a.m. con una magnitud de 8.1 grados según la escala de Richter. Fue de un sismo combinado de movimiento trepidatorio y oscilatorio a la vez.

La falla que produjo el sismo se localizó en la llamada Brecha de Michoacán, que anteriormente a la tragedia sucedida en 1985, no habia dado señales de actividad sísmica. Se ha determinado que el sismo fue causado por el fenómeno de subducción de la Placa de Cocos por debajo de la Placa Norteamericana.

La ayuda internacional fue rechazada en un principio por el primer mandatario, e inclusive se sabe que en el espacio aéreo del aeropuerto internacional de la Ciudad de México un avión de ayuda humanitaria de caritas internacional sobrevolaba ya que no la daban permiso de aterrizar y fue por orden de la primera dama que el avión y la ayuda internacional logró entrar para ayudar a los cuerpos de rescate mexicanos que en ese momento no se daban abasto, al ver sobrepasada las capacidades del gobierno, éste decidió aceptar por fin la ayuda.

Obras de reconstrucción del edificio de la Secretaría de Comunicaciones y Transportes

Una de las diversas apreciaciones en cuanto a la energía que se liberó en dicho movimiento fue su equivalente a 1,114 bombas atómicas de 20 kilotones cada una.

Todos los edificios colapsados presentaban estructuras inadecuadas para terrenos arcillosos, principalmente a causa de la corrupción y la mala planeación, pues la mayoría de los edificios colapsados eran de reciente construcción. La negligencia del gobierno fue el principal culpable del enorme número de muertos. Estructuras muy antiguas y adecuadas al tipo del terreno arcilloso, tales como la Catedral Metropolitana de la Ciudad de México, el Palacio Nacional y el edificio de Nacional Monte de Piedad que datan de la época colonial, soportaron el sismo por tener gruesas paredes de piedra y ladrillo.

A pesar de que los peritajes mostraron que la mayoría de los edificios caídos tenían especificaciones inferiores a las exigidas en los contratos, nadie fue declarado culpable ni se hicieron investigaciones más extensas sobre corrupción. Particularmente grave fue el caso de la constructora estatal encargada de la construcción de escuelas, cuyos directivos quedaron impunes, pese al número elevado de escuelas primarias destruidas y escolares que resultaron muertos. Los lugares más afectados fueron escuelas y hospitales principalmente, también edificios y hoteles que recientemente se habían terminado de construir.

Plaza de la Solidaridad en honor a las víctimas del terremoto. En éste sitio se encontraba el edificio del Hotel REGIS

22 años que para aquellos mexicanos que vivieron en carne propia el suceso es imposible de olvidar, para aquellos que perdieron familiares y amigos, fue un suceso que dio un cambio en nuestro pais, donde nos damos cuenta que debemos estar preparados para todo.

Las 7 maravillas de la tecnología

CIO.com, un portal que se dedica ampliamente a transmitir información sobre tecnología, ha creado una lista con las 7 maravillas de la tecnologia en nuestros tiempos, hubo una octava maravilla, pero esa quedó a opinión personal de cada lector.

  1. Computadora más cerca al Polo Norte
  2. Sonda Voyager 1
  3. DataCenter de Google
  4. E-SciencE II
  5. IBM y la BlueGen/L
  6. Ultra Mobile PC 02 de OQO
  7. Linux

Via [El Universal]

El pionero de la programación fue mujer

Increíble, ¿no?, saber que ahora en el mundo hay más hombres programadores que mujeres… teniendo en cuenta que el pionero de la programación fue una mujer… su nombre, Ada Byron Lovelace. Tan sorprendido como Neo al seguir al conejo blanco hasta la discoteca de death metal para encontrarse con Trinity y descubrir que un afamado hacker es en realidad mujer. *Despierta Neo. La Matrix te tiene. Sigue al conejo blanco.*


– Trinity: My name is Trinity.
– Neo: Trinity. The Trinity? That cracked the IRS d-base?
– Trinity: That was a long time ago.
– Neo: I just thought it was a guy.
– Trinity: Most guys do.

Ada Augusta Byron King (10 de diciembre de 1815, Londres, Reino Unido – 27 de noviembre de 1852, Londres, Reino Unido), única hija legítima del poeta inglés Lord Byron y de Annabella Milbanke Byron. Es conocida principalmente por haber escrito una descripción de la antigua máquina analítica de Charles Babbage.

primera programadoraEs considerada como la primera programadora, desde que escribió la manipulación de los símbolos, de acuerdo a las normas para una máquina de Charles Babbage que aún no había sido construida. También preveía la capacidad de las computadoras para ir más allá de los simples cálculos de números, mientras que otros, incluido el propio Babbage, se centraron únicamente en estas capacidades.

Desarrolló instrucciones para hacer cálculos en una versión inicial del computador. Su relación con Charles Babbage comenzó cuando ambos se conocieron por medio de uno de los tutores personales de Ada cuando ella tenía 17 años. Babbage estaba muy impresionado con la manera en que ella entendía su computador para el que escribió un «plan» describiendo los pasos que permitirían calcular los valores de los números de Bernoulli. Suyos son, además, conceptos tan familiares en un lenguaje de programación como un conjunto de instrucciones que permiten que otras se repitan en un bucle o subrutina, la relación que llevaron por años hizo que Babbage reconociera el talento de Ada al grado de llamarle «La encantadora de números» (The Enchantress of Numbers).

Posteriormente, Babbage pasó a ser su tutor y más tarde trabajaron juntos. Publicó en 1843 una serie de influyentes notas sobre la computadora de Babbage, su «máquina analítica» que nunca llegó a construirse, aunque las firmó con sus iniciales por miedo a ser censurada por ser mujer. Ada Byron se llamó a sí misma una analista, un concepto realmente moderno para la época.

En sus notas, Ada Augusta dice que la «máquina analítica» sólo podía dar información disponible que ya era conocida: vio claramente que no podía originar conocimiento. Su trabajo fue olvidado por muchos años, atribuyéndole exclusivamente un papel de transcriptora de las notas de Babbage. Este mismo caracterizó su aportación al llamarla su intérprete aunque recientes investigaciones muestran la originalidad de su punto de vista sobre las instrucciones necesarias para el funcionamiento de la «máquina analítica».

En este momento se reconoce a Ada Byron como la primera persona en describir un lenguaje de programación de carácter general interpretando las ideas de Babbage, pero reconociendo la plena autoría y originalidad de sus aportaciones. Ada Byron es la madre de la programación informática.