Archivo de la etiqueta: computación

Computer History Museum, recorre la historia de la computación

La historia de la computación comienza con los sistemas de numeración posicional, las herramientas de cálculo en las civilizaciones antiguas, el ábaco romano, tomando vuelo con el desarrollo de la lógica formal y ramas de las matemáticas como el álgebra y los algoritmos, hasta llegar a las primeras máquinas de computación en el siglo veinte. Computer History Museum se encuentra en Mountain View, California, Estados Unidos, su misión tal y como se indica en la página ComputerHistory.org es preservar, sin ser un mausoleo sino un lugar retrospectivo, los procesos tecnológicos que nos han llevado a la era de la información digital, cambiando la experiencia humana.

Computer History Museum

Computer History Museum

El museo de la historia de la computación en Estados Unidos fue establecido como una sociedad sin ánimo de lucro 501(c)(3) en el año 1999. Se estableció en Silicon Valley y en octubre del año 2002, se trasladó al edificio que se encuentra en 1401 N. Shoreline Boulevard Mountain View, California abriéndose al público en el año 2003. En su página online tienen un excelente timeline o línea del tiempo con los grandes hitos de la historia de la computación, aunque evidentemente la zona más llena está a partir de 1940, tras siglos de acumulación. Otra manera de seguir los artículos con imágenes muy buenas, incluso mejores que las de libros y enciclopedias que se pueden consultar, es la sección Computer History Topics.

Computer History Museum

La palabra cálculo viene de la palabra latina calx, esto es piedra, con diminutivo calculus, piedrecilla, que sigue apareciendo actualmente en los manuales de cálculo infinitesimal para estudiantes de bachillerato y universidad. Las tablas de cálculo romanas que servían como ábaco prosaico eran tableros con surcos donde se colocaban piedras pequeñas para denotar los números, las cifras por cada surco que correspondía a una línea, cada línea en orden ascendente eran unidades, decenas, centenas, unidades de millar, etc. En realidad, se considera historicamente que los romanos tanto en la república como en el periodo imperial hasta el fin del imperio romano de occidente (476 d.C.) no desarrollaron demasiado las matemáticas, heredando de los griegos y éstos de las culturas fluviales, egipcios a los que admiraban, como también babilonios y sumerios. En cambio, Roma destacó por las medidas y el cálculo en su aplicación técnica, para la arquitectura, heredando para el periodo imperial la obra de Vitruvio, y las construcciones de infraestructuras como los puentes y acueductos.

Como sucede en otros casos de aportes al conocimiento patrimonio de la humanidad, notablemente la agricultura, diferentes sociedades humanas han desarrollado por inventiva técnica soluciones similares a los mismos problemas, de manera independiente, así en la sociedad China desde el siglo IV a.C. ya se usaba un sistema de cálculo mediante barritas que se difundió posteriormente en Corea y Japón, aunque fue sustituido por el ábaco o suanpan, desde el siglo II a.C. en China, que tenía dos partes, la superior estaba dedicada a líneas de decenas, centenas, millares, etc. mientras que la inferior era para unidades, para comenzar a calcular, el ábaco suanpan tiene que tener las piedras de la zona superior subidas y las de la zona inferior bajadas, así tenemos el cero.

Suanpan
Ábaco suanpan del Museum of Chinese en Estados Unidos, cortesías de la familia de Louie Shee Wong y Gok Jum Wong. Fotografía de Mark Richards en Computer History Museum.

Quienes han estudiado informática y programación saben que los principales sistemas de numeración que deben dominar son decimal (base 10 como los dedos de las manos), binario (base 2, unos y ceros), octal (base 8) y hexadecimal (base 16), así como las transformaciones de números entre ellos. En las matemáticas babilonias existía un sistema de numeración de base 60, aunque era mezcla de diferentes formas de numeración, aditiva y posicional, mientras que se considera que el sistema posicional de numeración (los números no se suman según símbolos uno tras otro, sino que dependen de la posición, el coeficiente que es el número multiplica la base y esta tiene como potencia la posición de derecha a izquierda), viene de India, desde el siglo séptimo. Sí hay evidencias de que el uso del ábaco posteriormente al periodo clásico llevó a adoptar un sistema de numeración posicional para conjugar el uso práctico de las matemáticas con ese método de cálculo, hasta su introducción en Europa occidental, conocido por el nombre ábaco de Aurillac por el papa Silvestre II.

Como muchos nombres que comienzan por al- los algoritmos y el álgebra tienen su origen en Oriente Medio, tomando el nombre convencional por Muhammad ibn Musa al-Khwarizmi que llegó a estudiar en Bagdad durante el siglo IX, de ahí algoritmo, igual que el título de la obra Hisab al-yabr wa’l muqabala, dio lugar al álgebra. Al-Khwarizmi conocía el sistema de numeración posicional en base 10 de origen indio y lo utilizó para la aritmética. En la Baja Edad Media, antes de la secularización del pensamiento medieval hacia el Renacimiento, se introdujo el uso de los número arábigos y los algoritmos, no sin disputas entre los partidarios del ábaco con numeración romana y los partidarios de los números arábigos, destacando el papel del cero, y el algoritmo con cálculo en soporte e instrumento de escritura, mucho más sencillo para cuestiones prácticas del desarrollo matemático, con aplicación comercial. Fibonacci (Leonardo de Pisa pero conocido como Figlio di Bonacci, por ser hijo de Guglielmo Bonacci), desarrolló el sistema de numeración arábigo, llevando la transición desde la aritmética con ábacos en Italia, además de otros trabajos en matemáticas como las series de números. Algunos sectores de comerciantes también utilizaban la forma de contar explicada por Luca Pacioli en los problemas de Summa de arithmetica, geometria, proportioni et proportionalita.

Instrumentos mecánicos de cálculo

Los primeros instrumentos mecánicos posteriores a las reglas de cálculo y precursores de las calculadoras, se desarrollan desde inicios de la Edad Moderna, a partir de la primera revolución científica y junto con los aportes de Newton, Blaise Pascal, Leibniz y los ideales de la mathesis universalis y la demostración more geometrico. La tabla de multiplicación de John Napier, de quién vienen los logaritmos neperianos y sus propiedades aritméticas, muestra los números desde 1 a 9 y los resultados de las operaciones, aunque al contrario que las tablas para menores de edad antes de la educación secundaria, se usaba para calcular grandes números, teniendo en cuenta el acarreo mentalmente, como puede leerse en la entrada de Wikipedia sobre el ábaco neperiano. La primera calculadora realmente mecánica se atribuye a Wilhelm Schickard, una máquina o reloj calculador del año 1623 que realizaba el acarreo (tomar unidades para llevarlas a la siguiente posición o lo que mentalmente hacemos al decir «y me llevo una») mediante un sistema de ruedas que movían los números mostrados.

Tabla John Napier

Reloj calculador Wilhelm Schickard

La automatización computacional sirvió de instrumento también en los telares, con unas tarjetas perforadas que serían posteriormente recordadas en el lenguaje FORTRAN, desde 1725 se pensó en usar una cinta perforada con patrones para realizar un tejido. Herman Hollerith que llegó a dar uso informático a las tarjetas perforadas en la máquina tabular en el año 1887 para realizar el censo estadounidense, esperando éxito comercial, fundó la empresa Computing Tabulating Recording Corporation (CTR), que daría lugar a principios del siglo XX a la conocida IBM.

Tarjetas perforadas

Tarjetas perforadas IBM

A partir del siglo XIX se comercializan las primeras calculadoras mecánicas, con mecanismos de ruedas similares a relojes, para realizar operaciones aritméticas, como el aparato aritmómetro de Charles-Xavier Thomas de Colmar, la calculadora Arithmaurel de Timoleón Maurel, la calculadora de rueda dentada de Frank Baldwin en Estados Unidos en 1872, y el modelo con impresora o máquina de escribir calculadora de 1891 creado por William S. Burroughs, fundando una empresa de máquinas de contabilidad y produciendo muchas otras máquinas, con modelos más desarrollados en 1912. Las calculadoras mecánicas se fabricaron con tamaños de escritorio hasta 1940 sirviendo en empresas para la contabilidad, cuando comenzaron a desarrollarse las electrónicas, más ligeras y potentes, como el modelo Anita, un año más tarde fue conocido el modelo de estado sólido William Kahn Mathatronics Marathon y en 1965 se desarrolló el modelo italiano Olivetti Programma 101, muy similar a las cajas registradoras de comercios, con impresión en tickets y programas en bandas magnéticas. Las calculadoras electrónicas que conocemos actualmente de bolsillo e incluso con muchas opciones para asignaturas científicas y representación gráfica de funciones en marcas como Casio o Texas Instruments, son muy posteriores, desde 1980 y precedidas por modelos transicionales como Busicom LE-120A, Tandy Pocket Computer PC-8, Sharp EL-805 calculator, HP-35.

Burroughs Calculator

Baldwin Calculator

Burroughs Adding Machine

Anita electronic calculator

Anita electronic calculator

Olivetti Programma 101

Charles Babbage, junto con otros autores como John Herschel, George Peacock y Robert Woodhouse, fundaron en 1812 una sociedad de tradición analítica, siguiendo a Leibniz y la corriente racionalista, antes del nacimiento de Gottlob Frege. Tras estudiar cálculo diferencial y las técnicas de resolución de las raíces de polinomios, Babbage trató de construir una primera máquina, con complejas columnas de engranajes, llamada diferencial capaz de resolver los valores de un polinomio según tablas de diferencias, aunque no llegó a tener éxito pese a funcionar hasta con polinomios de grado 7 (cuando en bachillerato rara vez se ven las técnicas más allá de polinomios de segundo grado, como mucho la de cambio de variable y la fórmula de raices).

Máquina de Babbage

Otros autores como Georg Scheutz crearon máquinas distintas para el cálculo diferencial pero con menor precisión y capacidad de cálculo. El segundo intento de Babbage fue una máquina llamada analítica, aún más aparatosa que la primera en la que se basó, pero más potente, con motor, introducción de datos por tarjetas y memoria, tuvo problemas económicos en el desarrollo de los engranajes pero los fundamentos teóricos sirvieron para computadoras tanto teóricas como reales, El Ajedrecista de Leonardo Torres y Quevedo en 1911, el ordenador Harvard Mark I, o la máquina de Turing.

Lógica formal y computación

Aunque la lógica se había desarrollado desde Aristóteles, con la silogística y la lógica de clases, no es aproximadamente hasta los trabajos de George Boole y Gottlob Frege cuando despega la utilidad de la lógica no sólo en el análisis formal del lenguaje y la corrección argumental, sino en los circuitos y sistemas lógicos, de ahí que las puertas lógicas de muchos circuitos electrónicos sigan las tablas de verdad de conectivas. Pero tanto en hardware como en el desarrollo de software del siglo veinte hacían falta personas que fuesen expertos multidisciplinares, tanto en lógica, matemáticas y mecánica (no mecánica clásica en física, sino electrónica, piezas de engranajes, diseño industrial, etc.). La programación del software es muy reciente, FORTRAN se desarrolló desde 1954 en IBM teniendo manual y compilador según normativas sintácticas y semánticas, años después, Cobol en 1960, posteriormente Pascal, y seguirían otros lenguajes más modernos pero basados en las operaciones lógicas básicas, disyunción, conjunción, negador, sobretodo las secuencias condicionales (si… entonces), además de las conectivas para la iteración y la recursión.

Antes de la década de 1950, aunque en el periodo de entreguerras y durante la Segunda Guerra Mundial fue muy importante la criptografía -para interceptar y descifrar comunicaciones enemigas- y la teoría de la computación, se desarrollaron los computadores analógicos ideales, cuya representación en geometría analítica tenía cantidades físicas, operando con números reales y con capacidad para resolver ecuaciones diferenciales, mientras que los computadores digitales se limitan a representación en geometría analítica binaria, con números computables y son algebraicos, sin embargo, la electrónica sobretodo en relación con la arquitectura de la computadora, el procesador, la memoria que actúa en los procesos frente al almacenamiento, estaba perfeccionada con el uso de semiconductores. Algunos modelos de computadores analógicos fueron la máquina de análisis diferencial de Arnold Nordsieck, el modelo de Vannevar Bush, Telefunken RAT 700/2, los modelos EAI que llegaron a incorporar transistores y amplificadores.

Durante el desarrollo del hardware en el siglo veinte, en el periodo inmediatamente anterior a la Segunda Guerra Mundial, hasta tres modelos de computadoras fueron estudiadas paralelamente: serie Z del alemán Konrad Zuse, cuyo modelo Z3 ya realizaba cálculos en binario con coma flotante, Colossus en Bletchley Park, Reino Unido y la corriente de los ordenadores ENIAC y el EDVAC de Eckert y Mauchly en Estados Unidos. Dentro de la arquitectura de una máquina de computación además del mecanismo de lectura/escritura como la antigua cinta perforada y la memoria que distingue los archivos guardados de los resultados de procesos, la velocidad y la disminución del tamaño de los ordenadores -salvo en los supercomputadores de investigación- hasta finales del siglo XX se ha logrado con mejores componentes electrónicos, cambiando los tubos de vacío por transistores en electrónica digital. La máquina ENIAC funcionaba en 1945 y ocupaba 63 metros cuadrados, con un peso total de 30 toneladas, como otros modelos, estaba dentro de una sala y tenía un alto consumo de energía eléctrica. Lo bueno de este modelo y del posterior EDVAC fue la separación del hardware y la preprogramación, de un principio de software que se tenía que incluir de forma externa, antes de que existiesen aplicaciones con lenguajes de programación.

ENIAC Computer 1947

La denominada Arquitectura von Neumann, ha establecido las bases para la arquitectura en el hardware de cualquier ordenador, desde 1950, con el CPU separado de la memoria RAM y de las entradas/salidas de datos. Debido a que en la mayor parte de libros de historia de la ciencia o publicaciones de divulgación apenas salen dos o tres nombres, casi todos varones, entre los muchos trabajadores de estas máquinas de cómputo, hay páginas dedicadas a conservar en la memoria colectiva la labor de programadoras que trabajaban en las salas donde estaban las máquinas como ENIAC, además de las mujeres que trabajaban en las oficinas de contabilidad con las máquinas que llevaban la información en las tarjetas perforadas.

Aunque considerada como una de las innovaciones de Apple, igual que la interfaz gráfica de usuario en Macintosh, la computadora personal ya existía antes del ordenador Apple I y Apple II, aunque sin desarrollar aún una interfaz gráfica y con menor éxito comercial, algunos ejemplos son el modelo de John Blankenbaker, Kenbak-1 diseñado en 1971 con 256 bytes de memoria, EPA Micro-68 que funcionaba con el microprocesador de Motorola, Commodore PET. El ordenador personal de Apple tuvo más repercusión en los hogares, de hecho lo buscó en sus anuncios, mientras que el ordenador personal comercializado por IBM desde 1981 con el sistema MS DOS, tuvo más éxito en el plano empresarial, de hecho fue copiado por Eagle PC que incluía el mismo BIOS, aunque posteriormente fue modificado para evitar disputas legales.

Wozniak Apple I

Los ordenadores portátiles también se pensaron inicialmente para el mundo empresarial, con publicidades de ejecutivos en ruta, algunos modelos pioneros fueron Radio Shack TRS-80 Model 100, IBM 5100 portable computer y Xerox Notetaker. En telefonía móvil, antes de que todos los preadolescentes tuviesen su móvil o celular, actualmente smartphones, los modelos iniciales eran para profesionales, con antena extensible y dimensiones ladrillo, como Nokia 9000 Communicator, Motorola Timeport, Ericsson P800, entre otros. Palm Pilot fue un híbrido transicional en 1996, como computador móvil y PDA.

Internet

En networking, se desarrollaron primero los protocolos para conectar máquinas, tanto de manera inalámbrica para teléfonos, como en internet, ordenadores en red desde 1962, mientras que la world wide web es posterior, pues la diferencia esencial es la interacción de las personas, no sólo la conexión entre máquinas. Se considera que el primer spam en Arpanet fue enviado en 1978 por Gary Thuerk para anunciar un modelo de ordenador, y que la primera empresa en tener un sitio web fue una floristería estadounidense de New York: 1-800-Flowers.

Atocatl, supercomputadora en el Instituto de Astronomía de la Universidad Nacional Autónoma de México

El Instituto de Astronomía de la Universidad Nacional Autónoma de México presentó el pasado miércoles 29 de junio de 2011 en el Auditorio Paris Pishmish del Instituto de Astronomía, el equipo de cómputo de alto rendimiento “Atocatl”, que en lengua náhuatl significa pulpo o cefalópodo. Atocatl es un cluster que paralelará 216 procesadores y será utilizado para conocer más del Universo, sirviendo a los investigadores en astronomía en materia de cálculo sobre modelos de astrofísica, posterior a la parte de recepción de datos en los telescopios como desde el Observatorio Astronómico Nacional de San Pedro Mártir.

Atocatl, supercomputación en el Instituto de Astronomía de la UNAM

Los clusters computacionales son conjuntos de equipos informáticos en centros de datos que coordinan su hardware en unidad, los procesadores trabajan de forma coordinada multiplicando así la capacidad de cálculo computacional. La base formal de la ingeniería informática para cómputos paralelos fue desarrollada por Gene Amdahl de IBM, en 1967 publicó lo que ha llegado a ser considerado como el papel inicial de procesamiento paralelo: la Ley de Amdahl que describe matemáticamente el aceleramiento que se puede esperar paralelizando cualquier otra serie de tareas realizadas en una arquitectura paralela, dicho de forma accesible: un algoritmo matemático decide sobre la velocidad de los procesadores, qué tareas divididas se priorizan en el cálculo según la optimización en el resultado final, según la mayor mejora alcanzable en cada segmento.

Este tipo de ensambles de ordenadores se ha desarrollado entorno a la supercomputación, donde la actual reina de estas supercomputadoras está en el Laboratorio para Ciencia Computacional RIKEN en Kobe, Japón, K-Computer como puede verse en la página del proyecto Top500, que paraleliza desde este mes de junio más de 68.500 procesadores y su potencia de cálculo equivale a 8200 billones de operaciones por segundo: como si todos los habitantes de un millón de planetas como el nuestro hicieran un cálculo matemático cada segundo, haciendo operaciones de aritmética sin parar que en informática se definen en unidades de cálculo de coma flotante por segundo. La UNAM alberga en la actualidad diversos equipos de alto desempeño, el más grande de ellos Kan Balam en la Dirección General de Cómputo y de Tecnologías de Información y Comunicación (DGTIC). En funcionamiento desde el año 2007, Kan Balam cuenta con 1368 procesadores, y en el momento de su inauguración figuraba entre las 30 más poderosas a nivel mundial operando en instituciones de educación superior.

Atocatl destaca en el manejo eficaz de grandes bases de datos con un almacenamiento que en su primera fase será de 40 Terabytes pero que se espera quintuplicará para antes del año 2012. Atocatl ha sido concebido como otros centros de supercomputación con vistas a futuras ampliaciones antes de que termine el año, contará con un total de 8 GPU, 288 procesadores CPU y 200 Terabytes para almacenamiento de datos. El centro de supercomputación ha sido financiado por Conacyt y la Universidad Nacional Autónoma de México y ha tenido un costo total de 2,4 millones de pesos. Los investigadores del Instituto de Astronomía, Magdalena González, Octavio Valenzuela y Bárbara Pichardo, también Secretaria Académica del Instituto de Astronomía de la UNAM, responsables de coordinar las operaciones del proyecto reafirman la filosofía cooperativa del proyecto que aúna el esfuerzo de un nutrido número de instituciones, con la destacada participación de la Coordinación de la Investigación Científica y el Posgrado en Ciencias de la UNAM. De hecho, Atocatl será usado para capacitar estudiantes de posgrado en el uso y desarrollo de proyectos de supercómputo dentro del departamento de astronomía.

Atocatl, supercomputación en el Instituto de Astronomía de la UNAM

– Página oficial de astronomía en la Universidad Nacional Autónoma de México.
– Leer más sobre la lengua Náhuatl, con más de un millón de hablantes en México y con comunidades lingüísticas también en El Salvador.

MareNostrum, super computación en Barcelona, España

Marenostrum, de Mare Nostrum (‘mar nuestro’ en latín), nombre que los romanos usaban para nombrar al mar Mediterráneo, es el nombre dado al superordenador más potente de España, desarrollado por un acuerdo entre la empresa IBM e instituciones españolas y está situado en Barcelona. Si nos fijamos en el ranking establecido por Top500 sobre los mayores supercomputadores, MareNostrum ha ido cayendo desde noviembre del año 2006, aunque esto es comprensible teniendo en cuenta el aumento casi lineal de potencia en informática cada año. Se puso en marcha el 12 de abril de 2004 presentado por la empresa IBM y por la ministra española de Educación y Ciencia María Jesús San Segundo, su función está en la medicina, en la investigación del genoma humano, la estructura de las proteínas y desarrollo de fármacos. Su uso está disponible para la comunidad científica nacional e internacional, controlado por un comité de asignación que entrega tiempo de cómputo en función de la valía de los proyectos a realizar, en última instancia depende de sus normativas según prioridades de investigación.

MareNostrum utiliza nodos BladeCenter JS21 con procesadores duales IBM PowerPC 970FX de 64 bits a una velocidad de reloj de 2,2 GHz. El superordenador cuenta con una capacidad de cálculo de 62,63 teraflops con picos de 94,208 teraflops. El sistema operativo que se ha montado sobre esta computadora es el SUSE Linux versión 10. Para evitar la confusión habitual a la que nos someten los acrónimos de la jerga informática, intentemos aclarar a nivel divulgación de qué estamos hablando: el rendimiento de los procesadores se prueba en estas comparativas o benchmarking con cálculos aritméticos y de matrices en álgebra lineal, teniendo en cuenta la cantidad de operaciones por segundo que se pueden llegar a realizar en los ordenadores. FLOPS es un acrónimo que se refiere a floating point operations per second, al número de operaciones que un computador puede hacer por segundo usando la notación numérica de coma flotante para números reales. Cuando una persona realiza operaciones aritméticas con números reales, suele complicarse poco con sumas, restas, multiplicaciones y divisiones de números enteros de mismo signo, aunque empieza a necesitar papel para desarrollar operaciones de números con muchos dígitos y se pierde sin retener resultados parciales además de hacerlo lentamente si los números reales tienen decimales. Cada segundo hacemos entorno a 0,01 operaciones aritméticas para dificultad media, una calculadora funciona generalmente a partir de 10 FLOPS y supercomputadores como MareNostrum están en rangos de 63830 GFLOPS, esto es 63830 mil millones de operaciones por segundo.

superordenador MareNostrum
Fotografía en el álbum de Flickr de Dolors Nadal en su visita a Barcelona Supercomputing Center.

El sistema cuenta con 20 terabytes de memoria central y 400 terabytes de disco. Los nodos del ordenador se comunican entre sí a través de una red Myrinet de baja latencia. MareNostrum, sobre el cual se aplicó el test de comparativa Linpack fue trasladado al Campus Nord de la Universidad Politécnica de Cataluña durante la realización de las pruebas de rendimiento computacional para incluirlo en el ranking Top500. El ordenador está físicamente instalado en el interior de una antigua capilla irónicamente secularizada, construida a principios del siglo XX en el campus de la universidad. Se encuentra en el interior de un cubo de cristal de 9 x 18 x 5 metros construido con más de 19 toneladas de cristal y 26 de hierro. El supercomputador ocupa una instalación de 180 m² y pesa 40.000 kg.

El supercomputador fue puesto en marcha con 2.406 nodos de computación JS20. En noviembre de 2006, se había ampliado hasta los 10.240 de dichos procesadores, proporcionando 27,91 teraflops de potencia con picos de 42,144. Las otras especificaciones técnicas sublimes son 9 terabytes de memoria RAM4 y 140 de disco duro. En el año 2006, el supercomputador fue ampliado, doblando su capacidad de cálculo original, los 4.812 procesadores fueron reemplazados por otros 10.240 nodos JS21 y la memoria y disco disponibles crecieron igualmente. Los procesadores antiguos han sido utilizados para ampliar el supercomputador Magerit del CeSViMa y crear una red de supercomputadores distribuidos por toda España, convirtiéndose el MareNostrum en el mayor nodo de la Red Española de Supercomputación.

El proyecto MareIncognito es una ampliación del supercomputador, firmado entre el BSC e IBM. A cambio de la compra de la nueva máquina, IBM financiaría diversos proyectos de investigación del BSC para mejorar la actual arquitectura del procesador Cell para que sean aplicable en computación de altas prestaciones ya que no parece la más adecuada para ello. La ampliación de la máquina parece que consistirá en sustituir los actuales procesadores PowerPC por procesadores Cell aunque se han barajado otras alternativas como el uso de procesadores Power6 o arquitecturas similares a Blue Gene.

Más información en la página oficial de Barcelona Supercomputing Center. Otros artículos de interés son los dedicados a supercomputadoras y al rendimiento medido por las operaciones matemáticas que realizan los computadores en FLOPS.