investigación de Supercomputadoras Doc-1

32
Instituto Tecnológico De Tijuana Ingeniería En Sistemas Computacionales Agosto- Diciembre 2012 Fundamentos De Investigación Serie: 6SC1A M.C. Claudia Negrete Sánchez Unidad IV Supercomputadoras Equipo: Muñoz García Isaí Romero Del Toro Pedro Luis Varela Santos Sergio Vázquez Pérez Jennifer Itzel

Transcript of investigación de Supercomputadoras Doc-1

Page 1: investigación de Supercomputadoras Doc-1

Instituto Tecnológico De Tijuana

Ingeniería En Sistemas Computacionales

Agosto- Diciembre 2012

Fundamentos De Investigación

Serie: 6SC1A

M.C. Claudia Negrete Sánchez

Unidad IV

Supercomputadoras

Equipo:Muñoz García Isaí

Romero Del Toro Pedro LuisVarela Santos Sergio

Vázquez Pérez Jennifer Itzel

Tijuana, B.C. 26 de Noviembre de 2012

Page 2: investigación de Supercomputadoras Doc-1

ContenidoIntroducción...................................................................................................................................................3

Planteamiento del Problema..........................................................................................................................3

Justificación...................................................................................................................................................3

Objetivos........................................................................................................................................................3

Objetivos específicos.....................................................................................................................................3

Hipótesis........................................................................................................................................................3

Marco Teórico................................................................................................................................................3

Definición de Supercomputadora..............................................................................................................3

Introducción al procesamiento de datos.....................................................................................................4

Funcionamiento de los bloques..................................................................................................................6

Sistema de Enfriamiento............................................................................................................................6

Historia de las supercomputadoras............................................................................................................7

Usos de las supercomputadora.................................................................................................................10

Relación con otras ciencias..........................................................................................................................15

Resultados Obtenidos...................................................................................................................................16

Conclusiones................................................................................................................................................16

Recomendaciones........................................................................................................................................16

Bibliografía..................................................................................................................................................16

2 | P a g e

Page 3: investigación de Supercomputadoras Doc-1

Supercomputadoras

Introducción:Primero que nada y para comenzar debemos aclarar que las supercomputadoras fueron creadas en el año de 1964 por Seymour Cray con la finalidad de la investigacion y que ahora son de gran ayuda para los cientificos y que estas se encuentran solamente en centros de investigación ya que son creadas para el cumplimiento de alguna experimentacion que se deba hacer. Existen por ejemplo supercomputadoras que son especificamente diseñadas para controlar cierta situacion, logrando asi desarrollar su funcion, haciendo calculos en tan pocos segundos.

Al mismo tiempo las supercomputadoras nos permiten crear simulaciones de las situaciones a estudiar, esto hace más facil el descubrimiento de nuevas cosas para los cientificos. Cabe destacar su velocidad de procesamiento de datos, estas son reducidas a milesimas de segundos ya que su capacidad es enorme, al mismo tiempo, al ser computadoras tan grandes consumen demasiada energia y con esto tienden a calentarse demasiado por lo que se requiere de un sistema de enfriamiento el cual se encarga de disipar el calor de la computadora mediante agua que llega directamente al CPU mediante unos tubos capilares, esto con la finalidad de que no se sobrecaliente y se descomponga.

Gracias a la existencia de las supercomputadoras, los cientificos, pueden llegar a calculos y simulaciones mas precisas que nos los llevan a recopilar datos mas cercanos y sin muchas fallas, al mismo tiempo, las simulaciones les dan mas formas de probar lo que se realiza; como por ejemplo, la cura para alguna enfermadad o la manipulacion genetica por medio de lo que es el ADN.

Esto en si es un tema muy amplio para tratar pero que a la vez no se cuenta con mucha información por lo cual lo aqui descrito, es solo una muestra de lo que una supercomputadora tiende a realizar y el trabajo que a lo largo de los años nos a servido para precisar y facilitar las investigaciones.

Planteamiento del Problema¿Cuál es el uso de los supercomputadores en la sociedad actual?

JustificaciónDecidimos realizar la investigación ya que poco se sabe de las supercomputadoras, en ocasiones se menciona en los medios de la creación de estos, su utilización en algunos fines específicos de las ciencias, en general su manera de procesamiento.

ObjetivosDescubrir o indagar en el como ayudan a la sociedad las supercomputadoras, así como el funcionamiento de estas y el que las hace ser más rápidas que otras.

3 | P a g e

Page 4: investigación de Supercomputadoras Doc-1

Objetivos específicosIndagar en la utilización actual de las supercomputadoras en la ciencia, y en como promueven el desarrollo de esta.

HipótesisLas supercomputadoras ayudan al desarrollo de modelos para explicar sucesos y teorías científicas que requieren un mayor número de procesos y cálculos que los que una computadora normal haría.

Marco TeóricoMarco de referencia (Antecedentes)

Definición de Supercomputadora

¿Qué hace una computadora?

Básicamente cualquier tipo de computadora realiza operaciones de procesamiento de datos, exponiéndolos luego como información. Precisamente, la función primordial de una computadora es llevar a cabo procesos de datos en forma automática, a gran velocidad y sin la intervención humana.

Cuando los datos ingresados son ordenados de acuerdo a un esquema lógico, se transforman en información disponible para el usuario. La adquisición de información a partir de datos es la función relevante de una computadora siendo la Informática la ciencia que estudia la obtención de información a través de sistemas automáticos.

Los datos que ingresan a la computadora se procesan por medio de rutinas contenidas en los "programas de aplicación".

Fundamentalmente los distintos tipos y modelos de computadoras, principalmente difieren en el volumen de datos que pueden procesar, así como la velocidad con que se efectúa esta operación.

El principio de la caja negra

Cuando se tiene un dispositivo o módulo dispuesto para una función, es muy importante considerarlo como una "caja negra", es decir no se sabe que dispositivos o componentes hay dentro de él, sino que procesos lleva a cabo. Este método es muy utilizado pedagógicamente para permitir una rápida comprensión global de la función del dispositivo estudiado. Para elaborar la función descrita anteriormente (ingresar datos, elaborar los mismos y luego dar salida a la información obtenida), se necesitan tres módulos principales en los que podemos agrupar a todos los dispositivos que intervienen en los procesos mencionados. Estos son:

• Módulo de entrada/salida• Memoria de trabajo• Unidad procesadora

4 | P a g e

Page 5: investigación de Supercomputadoras Doc-1

Introducción al procesamiento de datos

Una computadora está constituida por centenares o miles de complejos dispositivos y circuitos electrónicos adecuadamente integrados, tanto en sus componentes físicos, como en la función de los mismos. Debido a esto para comprender su funcionamiento, dividiremos a la computadora en bloques sin tener en cuenta en esta etapa, los pormenores de la parte electrónica que integra cada uno (método de explicación denominado "caja negra").

El primer módulo de "entrada - salida", identificado con la sigla E/S, es usualmente más conocido por las palabras en ingles Input- Output (I/O).

Este módulo que en realidad tiene dos funciones, cuenta en algunos casos con dispositivos que individualmente sólo pueden ser considerados como de entrada (input), o de salida (output), mientras que otros dispositivos permiten ejecutar ambas operaciones (input-output).

A través de las unidades de entrada, se introducen los datos que se van a procesar, además de las instrucciones (programas de aplicación) que se utilizan para tratar los mismos. Por otra parte, la información obtenida (datos procesados) es emitida a través de las unidades de salida que son las que permiten "ver el resultado".

El segundo módulo es "la memoria". Cuando se ingresan datos, estos son almacenados en espera de su proceso en una "memoria de trabajo" o también denominada "memoria principal" que es temporaria (técnicamente conocida como "memoria RAM"). También en la RAM se cargan las instrucciones del programa de aplicación, que indicará a qué operación serán sometidos los datos ingresados. Del mismo modo los datos ya procesados son almacenados hasta su salida, en la memoria RAM.

La memoria de trabajo (RAM) almacena

Los datos ingresados Las instrucciones para procesar datos Los datos procesados hasta su salida o borrado

El tercer módulo que pasamos a describir, es el "Procesador". Este puede ser asimilado como el "cerebro" de la computadora porque es el encargado de procesar los datos que la memoria recibe. En el procesador se encuentra la unidad lógico aritmética, conocida como ALU (de Aritmetic Logic Unit). Esta unidad es la que efectúa los procesos de cálculo (rutinas matemáticas aplicables a los datos ingresados) y elabora finalmente un resultado.

El procesador, procesa los datos integrados en la memoria de acuerdo con:

Algoritmos matemáticos propios

Instrucciones del programa de aplicación

5 | P a g e

Page 6: investigación de Supercomputadoras Doc-1

El orden utilizado para la explicación de los bloques, responde al más conveniente para el proceso descriptivo de su funcionamiento y no al de jerarquía de los mismos. Vistos en función de la importancia en los procesos que llevan a cabo, el cuadro siguiente indica el orden de jerarquía de cada uno de los bloques:

• Procesador• Memoria• Dispositivos de Entrada/Salida (Periféricos)

Es evidente que estos bloques no trabajarán como unidades aisladas, sino que necesariamente van a estar conectados entre sí para permitir el flujo de datos e información de uno a otro. Las vías o circuitos que se encargan de comunicarlos mutuamente se denominan en su conjunto "Buses", existiendo como veremos en detalle más adelante, distintos tipos de buses de acuerdo al tipo de señal que transportan o a la función que cumplen.

¿Que es un algoritmo?

Es la denominación que recibe una secuencia de operaciones matemáticas contenidas en una instrucción, a la que se someterán los datos numéricos ingresados.

Funcionamiento de los bloquesPara aclarar el funcionamiento de los bloques mencionados, podemos pensar en una analogía con una operación de todos los días como es la de cruzar la calle. Un peatón se detiene en la esquina y lo primero que hace es mirar el semáforo para ver que luz está encendida, así sabe si puede cruzar o no. Si la luz que ve es de color verde, cruza y da por finalizada esta sencilla operación.

En general el funcionamiento de una computadora se aplica a una supercomputador excepto por la utilización de

Una supercomputadora o superordenador es aquella con capacidades de cálculo muy superiores a las computadoras corrientes y de escritorio. Estas son un conjunto de poderosos ordenadores unidos entre si para aumentar su potencia de trabajo y desempeño. Al año 2011, los supercomputadores más rápidos funcionaban con más de 200 teraflops (que realiza aproximadamente trillones de operaciones por segundo).

Estas se caracterizan por su velocidad, suman cientos de millones de números en un segundo, de 10 a 20 millones de palabras en memoria principal, 20 veces mas en memoria, ocupan por completo un salón grande.

¿Qué es un Flop?

En las ciencias computacionales un FLOP (o flops o flop/s) es un acrónimo que significa:

"FLoating point Operations Per Second" u Operaciones de punto(o coma) flotante por segundo.

Los FLOPS son una medida de rendimiento de una computadora, especialmente en el campo científico, en donde se utiliza mucho las operaciones con datos de tipo flotante, para realizar simulaciones precisas y obtener resultados fidedignos. Podemos equiparar esta medida de rendimiento con los conocidos MIPS (Millones de instrucciones por segundo), que es la medida de rendimiento mas usual en las computadoras de escritorio.

6 | P a g e

Page 7: investigación de Supercomputadoras Doc-1

Bien, sabemos que un flop es una medida de rendimiento, y "peta" significa 10^15 , asi que ahora sabemos que un petaflop simplemente significa que una computadora puede realizar 1,000,000,000,000,000 operaciones de punto flotante. ¿Bastantes verdad?

Lo importante de conocer este tipo de medidas, es que nos ayuda a tener un indicador del progreso de la capacidad de procesamiento en las ciencias computacionales. De manera que ahora, las supercomputadoras que logran romper la barrera de velocidad del petaflop, se encargaran de llevarnos a nuevos reinos de profundidad conocimiento y cambios muy profundos en la ciencia. Recientemente (lunes 17) un par de computadoras de IBM y Cray lograron romper la barrera que mencione, llegando a velocidades exorbitantes de 1.105 y 1.059 petaflops.

"Plegamiento de Proteínas"

"Si, si, que bueno que sean rápidas" - dirían algunos, pero esto no se trata solo de velocidad, se trata de una capacidad de computo que permite:

• Simulaciones de fenómenos naturales altamente precisas (huracanes, terremotos, maremotos, impactos de asteroides)

• Desdoblamiento de cadenas de ADN• Plegamiento de proteínas• Simulación de explosiones nucleares• etc...

7 | P a g e

Page 8: investigación de Supercomputadoras Doc-1

"Simulación de fenómenos naturales: Huracanes"

Basta con leer las especificaciones de una de las supercomputadoras de las que les estoy hablando, la Oak Ridge's Jaguar: con 182,000 procesadores AMD quad-core Opterons de 2.3 gigahertz y 362 terabytes de memoria RAM (eso es 362,000 GB de memoria RAM). Es necesario aclarar que la Jaguar esta formada por una agrupación de varias computadoras con recursos compartidos, que ejecuta un "sabor" de Unix llamado: UNICOS/lc.

FLOPS

En informática, acrónimo de Floating point Operations Per Second (operaciones de punto flotante por segundo).

Unidad utilizada para medir el rendimiento de una computadora. No debe usarse en singular (FLOP) pues la última S se refiere a segundos.

Otras unidades en FLOPS: megaFLOPS (MFLOPS, 10 a la 6 FLOPS), gigaFLOPS (GFLOPS, 10 a la 9 FLOPS), teraFLOPS (TFLOPS, 10 a la 12 FLOPS), y petaFLOPS (PFLOPS, 10 a la 15 FLOPS).

Los FLOPS son una medida de rendimiento de una computadora, especialmente en el campo científico, en donde se utiliza mucho las operaciones con datos de tipo flotante, para realizar simulaciones precisas y obtener resultados fidedignos. Podemos equiparar esta medida de rendimiento con los conocidos MIPS (Millones de instrucciones por segundo), que es la medida de rendimiento mas usual en las computadoras de escritorio.

Bien, sabemos que un flop es una medida de rendimiento, y "peta" significa 10^15 , asi que ahora sabemos que un petaflop simplemente significa que una computadora puede realizar 1,000,000,000,000,000 operaciones de punto flotante.

Lo importante de conocer este tipo de medidas, es que nos ayuda a tener un indicador del progreso de la capacidad de procesamiento en las ciencias computacionales. De manera que ahora, las

8 | P a g e

Page 9: investigación de Supercomputadoras Doc-1

supercomputadoras que logran romper la barrera de velocidad del petaflop, se encargaran de llevarnos a nuevos reinos de profundidad conocimiento y cambios muy profundos en la ciencia.

FLOPS, GPU y consolas de videojuegos

Frecuentemente se publican cifras astronómicas en FLOPS para tarjetas de video y consolas de videojuegos. En comparación, un computador de propósito general tendrá un rendimiento de unos cuantos GFLOPS si se considera únicamente su CPU.

Sin embargo, estas cifras deben ser tratadas con precaución, ya que no son comparables «uno a uno» con FLOPS de un computador totalmente programable de propósito general. Estas cifras se basan en el rendimiento total del sistema (CPU + GPU).

La mayor parte del rendimiento en FLOPS de una consola de videojuegos proviene de su GPU, que es un procesador de vectores altamente ductilizado o segmentado («pipelined» en inglés) optimizado para operaciones gráficas, con muy limitada programabilidad. Esto es posible porque las gráficas en 3D son un ejemplo clásico de un problema altamente paralelizable. Esto significa que el problema puede ser fácilmente dividido entre diferentes unidades de ejecución y «ductos», permitiendo una alta ganancia en velocidad que será obtenida de «escalar» el número de compuertas lógicas en vez de únicamente la velocidad de reloj.

Esta capacidad de cómputo en un computador permite por ejemplo:

Simulaciones de fenómenos naturales altamente precisas (huracanes, terremotos, maremotos, impacto de asteroides)

Desdoblamiento de cadenas de ADN

Plegamiento de proteínas

Simulación de explosiones nucleares

Sistema de Enfriamiento

Muchas de las CPUs usadas en los supercomputadores de hoy disipan 10 veces más calor que un disco de estufa común. Algunos diseños necesitan enfriar los múltiples CPUs a -85 °C (-185 °F).

Para poder enfriar múltiples CPUs a tales temperaturas requiere de un gran consumo de energía. Por ejemplo, un nuevo supercomputador llamado Aquasar tendrá una velocidad tope de 10 Teraflops. Mientras tanto el consumo de energía de un solo rack de este supercomputador consume cerca de 10 kW. Como comparación, un rack del supercomputador Blue Gene L/P consume alrededor de 40 kW.

El consumo promedio de un supercomputador dentro de la lista de los 500 supercomputadores más rápidos del mundo es de alrededor de 257kW.

9 | P a g e

Page 10: investigación de Supercomputadoras Doc-1

Para el supercomputador Aquasar, que será instalado en el Instituto Tecnológico Federal Suizo (ETH), se utilizará un nuevo diseño de enfriamiento líquido. Se necesitarán 10 litros de agua que fluirán a una tasa de 29,5 Litros por minuto.

Una de las innovaciones en este diseño es que normalmente los sistemas de enfriamiento aíslan el líquido de la CPU y la transmisión de calor se da a través de convección desde la cubierta metálica de la CPU a través de un adaptador generalmente de cobre u otro material térmicamente conductivo. La innovación consiste en un nuevo diseño en el cual llega el agua directamente a la CPU mediante tubos capilares de manera que la transmisión de calor es más eficiente.

En el caso del ETH en Suiza, el calor extraído del supercomputador será reciclado para calentar habitaciones dentro de la misma universidad.

Historia de las supercomputadorasYa sabemos qué es una supercomputadora y cuáles son los requisitos que debe de tener para entrar a esta categoría. Sus orígenes se remontan a la década de los 60’s, precisamente en el año de 1964 cuando Seymour Cray lanzó la CDC 6600, la primera computadora considerada como supercomputadora.

Más adelante a partir de 1970, Cray fundó una compañía que dominaría el campo con computadoras de una arquitectura insuperable, por lo menos eso parecía hasta la década siguiente. Es en ese periodo de los 1980’scuando surgen las computadoras con cientos de procesadores en países como Estados Unidos o Japón, imponiendo nuevos records en el desempeño computacional.

Cray-2

En 1976 se lanzó la Cray-2 poseedora de un procesador de 4 núcleos (toda una novedad para la época) con un sistema de enfriamiento líquido, precisamente el denominado Fluorinert un líquido patentado y distribuido por la compañía 3M.

El modelo Cray-2 pronto se estableció como un diseño con grandes placas llenas de CIs. Esto hacía que fueran muy difíciles de soldar, y la densidad todavía no era suficiente para alcanzar las prestaciones deseadas. Los equipos trabajaron en el diseño por alrededor de dos años antes que el propio Cray "renunciara" y decidiera si no era mejor que simplemente cancelaran el proyecto y despedir a todos los que trabajaron en él. Les Davis, antiguo colaborador de diseño de quien permanecía en la sede de Cray, decidió continuar con prioridad baja. Después de algunos movimientos menores en el personal, el equipo continuó casi como antes.

Un típico módulo de lógica, mostrando el apretado armado. Los conectores "Pogo" que interconectan las placas son las barritas doradas ubicadas entre los CIs.

Seis meses después Cray tuvo su momento eureka. Llamó a los principales ingenieros a una reunión y les presentó una nueva solución al problema. En lugar de hacer una placa de circuito grande, cada "tarjeta" estaría formada por una pila "3D" de ocho placas, conectadas entre sí por medio de pines entre las superficies. Las tarjetas fueron acomodadas en la parte superior derecha de cada una, dando como

10 | P a g e

Page 11: investigación de Supercomputadoras Doc-1

resultado que la pila tenía sólo unos 7,5 cm de alto. Esta densidad no permitía un sistema de refrigeración por aire convencional; habñia poco lugar para que circule aire entre los CIs. En su lugar, el sistema podía ser sumergido en el Fluorinert. El líquido refrigerante era forzado por los costados a través de los módulos a presión. El líquido caliente era enfriado usando intercambiadores de calor de agua y regresaba al tanque principal. El trabajo sobre el nuevo diseño se inició formalmente en 1982, varios años después de la fecha de inicio original.

Mientras esto sucedía, el Cray X-MP estaba siendo desarrollado bajo la dirección de Steve Chen en la sede central de Cray, y parecía que iba a dar al Cray-2 una seria carrera por el dinero. Para dar frente a esta amenaza interna, así como también a una nueva serie de máquinas japonesas del tipo Cray-1, la memoria del Cray-2 fue ampliamente mejorada, tanto en tamaño como en cantidad de líneas de conexión con los procesadores. Cuando la máquina fue finalmente entregada en 1985, los retrasos habían tan largos que gran parte de las prestaciones se debían a la memoria rápida, y sólo tenía sentido que sea comprada por usuarios con enormes cantidades de datos para procesar.

El primer Cray-2 entregado poseía más memoria física (256 millones de palabras) que todas las máquinas entregadas por Cray combinadas. La simulación se movió del campo 2-D o un 3-D burdo, al campo 3-D fino, debido a que no tiene que depender de una lenta memoria virtual. Esta capacidad para manejar espacio (memoria) por tiempo (velocidad) es lo que define la supercomputación (extrema, computación de alto nivel).

Usos y sucesores

El Cray-2 fue primordialmente desarrollado para los Departamentos de Estados Unidos de Defensa y Energía. Se utilizaron para el desarrollo de armas nucleares o investigación oceanográfica. Sin embargo, el Cray-2 también fue usado en aplicaciones civiles (como el NASA Ames Research Center), universidades y corporaciones alrededor del mundo.

El Cray-2 debería haber sido reemplazado por el Cray-3, pero debido a problemas en el desarrollo sólo se construyo un ejemplar de éste, que nunca fue vendido. El sucesor espiritual del Cray-2 fue el Cray X1, ofrecido por Cray.

Después del Cray-2

El Cray-2 marcó los límites da la computación en su periodo como la más poderosa, sin embargo como lo mencionamos anteriormente, sería desplazado abrumadoramente frente a esos modelos que contaban con procesamiento superior debido a sus cientos de procesadores.

En este periodo se empezó a acortar la distancia entre lo que conocemos hoy como una supercomputadora, debido a las velocidades de reloj independientes de cada procesador dentro de la supercomputadora.

11 | P a g e

Page 12: investigación de Supercomputadoras Doc-1

De principio a mediados de los años ochenta se vieron máquinas con un modesto número de procesadores vectoriales trabajando en paralelo, lo cual se convirtió en un estándar. El número típico de procesadores estaba en el rango de 4 a 16. En la última parte de los años ochenta y principios de los noventa, la atención cambió de procesadores vectoriales a sistemas de procesadores masivamente paralelos con miles de CPU «ordinarios». En la actualidad, diseños paralelos están basados en microprocesadores de clase servidor que están disponibles actualmente (2011). Ejemplos de tales procesadores son PowerPC, Opteron o Xeon, y la mayoría de los superordenadores modernos son hoy en día clústeres de computadores altamente afinadas usando procesadores comunes combinados con interconexiones especiales.

Hasta ahora el uso y generación de las mismas se ha limitado a organismos militares, gubernamentales, académicos o empresariales.

Estas se usan para tareas de cálculos intensivos, tales como problemas que involucran física cuántica, predicción del clima, investigación de cambio climático, modelado de moléculas, simulaciones físicas tal como la simulación de aviones o automóviles en el viento (también conocido como Computational Fluid Dinamics), simulación de la detonación de armas nucleares e investigación en la fusión nuclear.

Como ejemplo, se encuentra la supercomputadora IBM Roadrunner; científicos de IBM y del laboratorio de Los Álamos trabajaron seis años en la tecnología de la computadora. Algunos elementos de Roadrunner tienen como antecedentes videojuegos populares, de acuerdo con David Turek, vicepresidente del programa de supercomputadoras de IBM. «En cierta forma, se trata de una versión superior de Sony PlayStation 3», indicó. «Tomamos el diseño básico del chip (de PlayStation) y mejoramos su capacidad», informó Turek.

Sin embargo, Roadrunner difícilmente pueda asemejarse a un videojuego. El sistema de interconexión ocupa 557 m² de espacio. Cuenta con 91,7 km de fibra óptica y pesa 226,8 t . La supercomputadora está en el laboratorio de investigaciones de IBM en Poughkeepsie, Nueva York y fue trasladada en julio del 2008 al Laboratorio Nacional Los Álamos, en Nuevo México.

Japón creó la primera supercomputadora petaflops la MDGrape-3, pero solo de propósitos particulares, luego IBM de USA creo la correcaminos, también de 1 petaflops, China la Milky Way One de 1,2 petaflops y Cray de EE.UU. la Jaguar de 1,7 petaflop, que es al final del año 2009 la más rápida. La supercomputadora más rápida a fines del 2010 era la china Tianhe 1A con picos de velocidad de 2,5 petaflops.

12 | P a g e

Page 13: investigación de Supercomputadoras Doc-1

Usos de las supercomputadoraSupercomputadoras de hoy se utilizan principalmente para la navegación. Cada vez más realista simulación de relaciones complejas, la capacidad de procesamiento que se necesita en general. Una ventaja de la computadora, es que a través de su extremadamente rápido y por lo tanto la potencia de cálculo puede considerar crecientes interdependencias. Esto permite la inclusión de más amplio, lado a menudo poco visible o condiciones de contorno para la simulación real, asegurando así un resultado global cada vez más significativa.

Las aplicaciones principales de los superordenadores actuales comprenden las áreas de la biología, la química, la geología, la aeronáutica, la medicina, la previsión meteorológica, la investigación del clima, los militares y la física.

En el campo militar tienen supercomputadoras como lo permitiendo nuevos desarrollos nucleares por simulación sin datos de apoyo que debe realizar más pruebas nucleares subterráneas. Las zonas se caracterizan por el hecho de que estos son sistemas muy complejos o subsistemas que están unidos entre sí en medidas de gran alcance. Así que los cambios en un subsistema tendrán más o menos fuerte impacto en los sistemas adyacentes o conectados. A través del uso de supercomputadoras, siempre es más fácil que tener en cuenta que muchas de estas consecuencias, o incluso predecir, que bien podría delante de cualquier contra-medidas se toman. Este ejemplo se aplica en las simulaciones del cambio climático, las predicciones de terremotos o erupciones volcánicas, y en medicina en la simulación de nuevos medicamentos en el cuerpo. Estas simulaciones son lógicamente, independientemente de la potencia de cálculo, tan preciso como los parámetros programados y los modelos permiten el cálculo. Las enormes cantidades de inversión en el aumento constante de FLOPS y por lo tanto el desarrollo de cada vez más rápidos superordenadores están especialmente justificados con los beneficios y ventajas de la "ventaja" conocimiento posible para la humanidad, no de la del progreso técnico en general.

Más específicamente:

Recreando el Big Bang

El Big Bang ó la expansión inicial de toda la energía y materia del universo, ocurrió hace mas de 13 billones de

13 | P a g e

Page 14: investigación de Supercomputadoras Doc-1

años en temperaturas de trillones de Grados Celsius, pero las simulaciones manejadas en Supercomputadoras hacen posible el observar que paso durante el nacimiento del Universo. Investigadores en el Centro De Computación Avanzada (TACC, por sus siglas en ingles), En la Universidad De Austin Texas. Han hecho posible la simulación por medio de Supercomputadores de la primera galaxia.

Las simulaciones de Supercomputadoras además han hecho posible para los físicos el responder preguntas sobre el universo invisible de la actualidad. La invisible materia oscura representa alrededor del 25 % de nuestro universo, y la energía oscura constituye alrededor de 70%. Usando supercomputadoras como la IBM’s Roadrunner que se encuentra en Los Alamos National Laboratory, investigadores pueden correr modelos que requieren mas de mil trillones de cálculos por segundo, permitiendo crear los modelos mas realísticos hasta la actualidad.

Comprendiendo los terremotos

Otra de las simulaciones de las supercomputadoras ha sido un modelo tridimensional de la estructura de la tierra, los investigadores pueden predecir como las ondas de los terremotos pueden viajar localmente y globalmente. Usando las supercomputadoras, los científicos pueden resolver ecuaciones muy complejas.

Comparando las diferencias entre los datos reales y la simulación, el equipo encargado de investigar este fenómeno está creando una imagen perfecta del interior de la tierra.

El resultado de las técnicas pueden ser usadas para comprender los procesos que ocurren dentro del manto de la tierra.

Plegando proteínas

La supercomputadora "Blue Gene", es la única que puede resolver el problema para esto. En solo microsegundos puede simular como se pliega una proteína. En el 2009 la blue gene de alemania fue rankeada como la 4ta supercomputadora más poderosa del mundo con un máximo de procesamiento de mil trillones de cálculos por segundo.

Recorriendo el torrente sanguíneo

Gracias a las supercomputadoras se pudo realizar la investigación que consistía en describir el flujo sanguíneo en el cerebro comparado con el flojo sanguíneo en el cerebro de una persona con hidrocefalia, una condición en la cual los fluidos craneales fluyen hacia el cráneo.

Modelando la gripe

Pandemias potenciales como el H1N1 requieren de una respuesta rápida: 1ero los investigadores deben de saber cómo es que el virus se expande, y 2do tienen que encontrar la medicina que lo pare.

14 | P a g e

Page 15: investigación de Supercomputadoras Doc-1

Las supercomputadoras pueden ayudar con ambas cosas. Durante los brotes del reciente H1N1 , los investigadores del instituto politécnico de virginia utilizaron un avanzado modelo llamado EPISIMDEMIC para predecir la trasmisión del flu.

Mientras tanto, investigadores de la universidad de Illinois y utah, usaron las supercomputadoras para descifrar la estructura del virus. Al mismo tiempo se simularon la mutaciones que podría hacer el virus con distintos tipos de medicamentos. Se descubrió que el virus no era resistente al medicamento, pero de acuerdo a los estudios en un poco tiempo lo seria.

Probando armas nucleares

El programa stockpile stewardship hacen pruebas de laboratorio sin las armas, ya que las supercomputadoras hacen la simulación para asegurarse de que funcionan y son seguras.

Siguiendo huracanes

Gracias a las supercomputadoras se puede describir el camino que el huracán tomara para poder tomas las decisiones de evacuación.

Prediciendo el cambio climático

Se hicieron simulaciones para obtener predicciones del cambio climático de los próximos años. Los modelos de la antigüedad se pueden combinar con los datos fósiles para comprobar la fiabilidad, hacer predicciones futuras. Las nuevas variables, tales como el efecto de la cobertura de nubes sobre el clima, se pueden explorar. Un modelo, creado en 2008 en el Laboratorio Nacional de Brookhaven, en Nueva York, un mapa de las partículas de aerosol y la turbulencia de nubes a una resolución de 30 metros cuadrados. Estos mapas tienen que ser mucho más detallada antes de investigadores realmente entender cómo las nubes afectan al clima a través del tiempo.

Construyendo cerebros

Dawn, una supercomputadora en el Lawrence Livermore National Laboratory, puede simular el poder del cerebro de un gato - pero de 100 a 1.000 veces más lento que un cerebro de gato real.

No obstante, las supercomputadoras son útiles para modelar el sistema nervioso. En 2006, investigadores de la École Polytechnique Fédérale de Lausanne en Suiza simulado con éxito un trozo de 10.000 neuronas del cerebro de una rata llamada unidad neocortical. Con suficiente cantidad de estas unidades, los científicos de esta llamada "Blue Brain" proyecto esperan construir finalmente un modelo completo del cerebro humano.

El cerebro no sería un sistema de inteligencia artificial, sino más bien un circuito neural de trabajo que los investigadores podrían utilizar para comprender la función cerebral y probar virtuales tratamientos psiquiátricos. Pero Blue Brain podría ser incluso mejor que la inteligencia artificial, el investigador Henry Markram dijo al periódico The Guardian en 2007: "Si lo construyes derecho, se debe hablar".

En una simulación neuronal sin precedentes, IBM ha logrado simular 500 mil millones de neuronas y 100 billones de sinapsis. Para ello ha utilizado Sequoia, el segundo superordenador más grande del

15 | P a g e

Page 16: investigación de Supercomputadoras Doc-1

mundo con millón y medio de núcleos. Esto es una proeza computacional, pero tiene poco que ver con la neurociencia. Veamos por qué.

El departamento de Cognitive Computing de IBM en Almaden dirigido por Dharmendra S. Modha lleva unos años realizando asombrosas simulaciones en el contexto del proyecto DARPA SyNAPSE. Como

parte de este proyecto, anunció la simulación a la escala del córtex de un ratón, luego de una rata y más tarde de un gato.

El objetivo de este programa es crear un chip neurosináptico que supone una ruptura con la arquitectura tradicional de los ordenadores. Esta arquitectura es la llamada Von Neumann que usan la totalidad de los ordenadores en la actualidad, incluidos móviles y tarjetas. En la arquitectura Von Neumann la memoria está separada del procesador, el hardware del software y los programas están separados de los datos. Ha sido muy exitosa mientras se cumplía la miniaturización de componentes expresada en la ley de Moore: cada dos años se duplica el número de transistores en un espacio dado. El problema es que estamos llegando a los límites del átomo y que la ley dejará de cumplirse.

El chip neurosináptico es una ruptura total con la arquitectura Von Neumann. Se basa en el diseño de las neuronas en las que no hay distinción entre hw y sw, programas y datos, memoria y procesador. El chip consiste en una matriz de neuronas y entre sus cruces se realizan las sinapsis. De este modo, cada sinapsis del chip es hw y sw, proceso y memoria, programa y datos. Dado que todo está distribuido, no es necesaria un miniaturización tan extrema y sobre todo, un reloj tan rápido. Frente a los actuales gigahercios de frecuencia, las neuronas se disparan a un hercio, y en el caso del chip a 8 hercios. Además, los procesadores son clock driven, es decir, actúan bajo la batuta del reloj mientras que las neuronas son event driven, actúan solo si hay actividad que realizar.

Uno de los objetivos es reducir el consumo eléctrico. Un cerebro consume lo que una bombilla pequeña, 20 vatios. Un superordenador consume cientos de megavatios. El nuevo chip tiene un consumo muy reducido. Estos chips están construidos con tecnología de silicio clásica CMOS.

La arquitectura de muchos chips neurosinápticos unidos se ha llamado TrueNorth. Ya existe en desarrollo un chip de 256 neuronas, 1024 axones, y 256×1024 sinapsis.

El chip sin embargo no está en producción masiva. Para seguir trabajando en paralelo al desarrollo, se ha realizado la prueba actual. Para ello se ha usado un simulador llamado Compass. Compass traduce el comportamiento de un chip neurosináptico (no Von Neumann) a un ordenador clásico (Von Neumann). Usando Compass se ha simulado (pdf) el comportamiento de 2.000.000.000 chips. Esto supone 500 mil millones de neuronas y 100 billones de sinapsis, cifras por completo astronómicas. El resultado de la simulación se ha ejecutado 1.542 veces más lento que en tiempo real.

16 | P a g e

Page 17: investigación de Supercomputadoras Doc-1

Para realizar la simulación se ha usado el segundo superordenador más grande del mundo, Sequoia un Blue Gene/Q de 96 armarios con 1 millón y medio de núcleos y 1,5 petabytes de memoria. Uno de los objetivos de la simulación es ver el escalado. Un problema habitual es que que cuando añadimos más cores, el sistema no funciona proporcionalmente más rápido. En el extremo, añadir más cores no aumenta el rendimiento: el sistema escala mal. Imagina un camarero atendiendo detrás de la barra. Si hay un segundo camarero, irán más rápido, pero no el doble. Si sigues añadiendo camareros, llegará un momento en que no aumente la eficiencia, incluso se verá reducida. El sistema escala mal. Pues bien, en la simulación realizada el escalado ha sido casi perfecto lo que es muy satisfactorio computacionalmente.

¿Qué tiene esto que ver con la neurociencia y el cerebro? Bien poco. La simulación no imita ningún comportamiento animal ni cognitivo ni humano. Para simular el comportamiento del cerebro, necesitamos saber cómo funciona y eso está lejos de lograrse. Para cuando llegue ese conocimiento debemos tener preparados ordenadores que sean capaces de simularlo y en este contexto se enmarca la presente investigación. Aunque no solo; la idea de diseñar estos nuevos chips es ponerlos en producción en aplicaciones comerciales tradicionales dando una gran potencia con un bajo consumo. La simulación del cerebro deberá esperar aún alguna década.

Supercomputadora de AMD ofrecerá los juegos y las aplicaciones del futuro a través de la "nube" de internet

Las tecnologías de procesamiento de gráficos y de CPU líderes de la industria están presentes en el diseño de la "AMD Fusion Render Cloud" para generar una revolución en el logro y desarrollo de contenidos

17 | P a g e

Page 18: investigación de Supercomputadoras Doc-1

Se espera que el dispositivo petaFLOPS sea la supercomputadora de procesamiento de gráficos más rápida del mundo

La CES, (NYSE: AMD) el presidente y director ejecutivo de AMD, Dirk Meyer, y el director ejecutivo de OTOY, Jules Urbach, revelaron un plan que revolucionará la implementación, el desarrollo y el logro de contenidos de alta

definición a través de la "AMD Fusion Render Cloud", una computadora paralela masiva. El anuncio se efectuó durante el discurso de apertura de las conferencias Industry Insider Series de AMD en el Teatro Las Vegas Hilton, en el

que AMD estuvo acompañada por líderes de la industria como Lucasfilm, Dell, HP y Electronic Arts.

"AMD tiene un historial de larga data en el mundo de las supercomputadoras. Siete de cada diez de las computadoras más rápidas del mundo, incluidas las dos computadoras más rápidas del planeta, utilizan hardware de AMD", explicó Meyer. "Hoy, AMD se complace en anunciar el lanzamiento de un nuevo tipo de

supercomputadora, diferente a cualquier otra antes construida. Está diseñada para romper la barrera petaFLOPS y procesar un millón de hilos de ejecución a través de más de 1.000 procesadores gráficos. Esperamos que sea la supercomputadora de gráficos más rápida que haya existido jamás. Además, contará

con software de OTOY para lograr un objetivo particular: hacer realidad la informática de alta definición a través de la `nube` de internet. Contamos con que el sistema estará listo para la segunda mitad de 2009".

El diseño del sistema permitirá a los proveedores de contenidos ofrecer videojuegos, aplicaciones para computadoras y otras aplicaciones gráficamente intensivas a través de la "nube" de internet a prácticamente cualquier tipo de dispositivo móvil que cuente con un navegador sin que se gaste rápidamente la batería del dispositivo o que este tenga problemas para procesar el contenido. AMD Fusion Render Cloud transformará la visualización de películas y la utilización de juegos a través de la tecnología server-side rendering, que almacena contenido rico en imágenes en una nube informática, lo comprime, y lo transmite por streaming en tiempo real a través una conexión inalámbrica o de banda ancha a un gran número de dispositivos tales como teléfonos inteligentes, decodificadores de TV digital y computadoras portátiles ultra finas. Al ofrecer contenidos remotos a dispositivos que no pueden almacenar y procesar contenidos de alta definición debido a limitaciones como el tamaño del equipo, la capacidad de la batería y la

18 | P a g e

Page 19: investigación de Supercomputadoras Doc-1

potencia de procesamiento, esta "nube" de internet de alta definición brinda la posibilidad de visualizar aplicaciones de entretenimiento

de alta definición a los usuarios móviles que se encuentran virtualmente en cualquier lugar.

La AMD Fusion Render Cloud también permitirá la transmisión remota en tiempo real de imágenes de películas y efectos visuales de una forma sin precedentes. Las compañías de videojuegos pueden utilizar la AMD Fusion Render Cloud para

desarrollar e implementar contenidos de juegos de avanzada, dar a los juegos virtuales detalles fotográficos realistas sin límite y aprovechar nuevos canales de transmisión tan abiertos y diversos como la web misma.

"Alojado en la nueva y poderosa plataforma de la AMD Fusion Render de AMD, el revolucionario software de OTOY ha generado la primera supercomputadora gráfica práctica y escalable del mundo capaz de transmitir contenidos de alta definición a través de la `nube` de internet mediante la tecnología server-side rendering. La AMD Fusion Render Cloud permitirá que directores como Robert Rodriguez de Troublemaker Studios pueda superar los actuales obstáculos de transmisión a través de los sistemas exclusivos de procesamiento de gráficos y sistemas exclusivos de CPU existentes, que han imposibilitado la creación de aplicaciones con definición auténtica", comentó Charlie Boswell, director del departamento de entretenimiento y medios digitales de AMD.

"Yo utilizo tecnología de última generación para estar a la vanguardia del ámbito artístico y esa tecnología siempre ha sido y es la de AMD. Tener los medios para crear juegos y películas interactivos de definición auténtica con la AMD Fusion Render Cloud y luego poder acercarlas a un público más amplio a través de nuevos métodos de distribución hará renacer la creación y el consumo de contenidos", sostuvo Robert Rodríguez, director de Troublemaker Studios. "Imagine estar mirando una película en su teléfono celular mientras viaja a su casa en autobús y, luego de entrar a casa o al apartamento, pasar a su televisión de alta definición y continuar viendo la misma película desde donde la dejó, sin interrupciones, y con resolución de pantalla completa", continuó Boswell. "Imagine jugar con el juego de disparos en primera persona (Person Shooter, FPS) con las visualizaciones más intensas y la calidad de imagen más alta en su celular sin tener que descargarlo e instalar el software, sin utilizar su valiosa capacidad de almacenamiento o gastar la batería con estas tareas intensivas. Estas son algunas de las experiencias que AMD y OTOY haránrealidad con la tecnología informática de alta definición a través de la `nube` de internet y sus posibilidades de entretenimiento ricas en contenido visual".

19 | P a g e

Page 20: investigación de Supercomputadoras Doc-1

"Al fusionar la tecnología de CPU líder de la industria con procesadores gráficos masivos paralelos con sistemas informáticos complejos, la AMD Fusion Render Cloud puede competir con los dispositivos informáticos industriales más poderosos del mundo por su reducido costo y, además, porque solamente necesita una fracción del espacio físico y de la potencia máxima en comparación con muchas de las computadoras líderes de hoy en día", afirmó Jules Urbach, director ejecutivo de OTOY. "La combinación de la potencia de la plataforma de software flexible y revolucionaria de OTOY con la AMD Fusion Render Cloud puede transformar la industria del entretenimiento y romper las barreras técnicas entre los consumidores y los contenidos de primera línea".

La AMD Fusion Render Cloud utiliza hardware optimizado por AMD, entre ellos, los procesadores AMD Phenom II, los circuitos integrados auxiliares AMD 790 y los procesadores gráficos ATI Radeon HD 4870 para lograr complejidad informática y potencia efectiva sin precedentes. La AMD Fusion Render Cloud es un excelente ejemplo de la estrategia de fusión de AMD, que combina los sueños de sus socios con las posibilidades de innovación de AMD para introducir tecnologías poderosas a los mercados principales mediante el poder combinado de los procesadores gráficos y los CPU en una plataforma única.

"En Electronic Arts, tenemos la suerte de ser parte de numerosos cambios en el mundo de los juegos de las computadoras personales. Desde las primeras computadoras a los juegos en CD, pasando por la llegada de los juegos en internet, hemos adoptado cada nueva evolución en la tecnología como una oportunidad para brindar nuevas experiencias a nuestros clientes", comentó Richard Hilleman, director ejecutivo de Electronic Arts. "OTOY y AMD están a la vanguardia de los juegos para clientes livianos, y esperamos ansiosamente a los nuevos clientes a quienes podremos llegar y a las nuevas expresiones interactivas que surjan de la tecnología revolucionaria como es el caso de la AMD Fusion Render Cloud".

AMD planea proporcionar el sistema de hardware y los recursos de ingeniería para la AMD Fusion Render Cloud, y OTOY planea proporcionar el desarrollo del software técnico y una capa de middleware.

Acerca de OTOY

OTOY es una compañía líder en el desarrollo de software y contenidos, y proveedor de tecnologías de convergencia y efectos especiales para la industria cinematográfica y de los videojuegos. OTOY colabora con una gran cantidad de estudios, compañías de videojuegos y de visualización para crear contenidos de entretenimiento y visuales de última generación. En 2008,

20 | P a g e

Page 21: investigación de Supercomputadoras Doc-1

la revista Variety calificó al director ejecutivo de OTOY, Jules Urbach, como uno de los 10 mejores innovadores a tener en cuenta en los próximos 12 meses.

Acerca de AMD

Advanced Micro Devices (NYSE: AMD) es una compañía de tecnologías innovadoras dedicada a colaborar con clientes y socios para lanzar la nueva generación de soluciones de informática y gráficos para el trabajo, el hogar y la diversión. Para obtener más información, visite http://www.amd.com.

21 | P a g e

Page 22: investigación de Supercomputadoras Doc-1

Relación con otras ciencias

22 | P a g e

FísicaCreación de modelos para explicar la expansión del universo o El Big Bang.

GeologíaCreación de simulaciones para analizar catástrofes causadas por

Creación de simulaciones de tormentas y terremotos

Fenómenos Naturales

Supercomputadoras

Y prevenir su posible nivel de daño en el mundo.

Ciencias Computacionales Electrónica

Se utiliza en la creación de software para utilizar y génerar aplicaciones y simulaciones.

Se utiliza para la creación de los componentes que forman el hardware de la supercomputadora.

NeurocienciaAl realizar simulaciones sobre la forma en que funciona la sinapsis en el cerebro

PsicologíaEn el experimentar virtualmente con procedimientos para la posterior aplicación en los seres humanos

Page 23: investigación de Supercomputadoras Doc-1

Resultados ObtenidosEntre los resultados obtenidos se encontraron que muchas de las aplicaciones de las supercomputadoras están relacionadas con las ciencias y con proyectos de las misma a gran escala parte de estos sirven para simular situaciones hipotéticas en las cuales se pueden prevenir desastres como lo es el comprender los terremotos, expansión inicial del universo, en general se obtuvo que era para el estudio de casos específicos a gran escala de problemáticas relacionadas con diferentes ciencias.

Conclusiones (individuales):

Sergio: Como Conclusión llegue que las supercomputadoras en la actualidad se han enfocado en aplicaciones cientificas, en la creacion de simulaciones que son basicamente una manera de experimentar "virtualmente" con diferentes situaciones a escalas muy grandes o muy pequeñas que no podrian calcularse con un computador comun o con el cerebro de una persona cualquiera y que es necesario sistematizar estos procesos para ahorrar tiempo, y/o esfuerzo. Ademas otros de los temas a investigar por estos supercomputadores son las simulaciones de catastrofes que nos sirven para la prevención de los mismos en un futuro dado.

Pedro: Mi conclusion referente a las supercomputadoras es que han sido de gran importancia en el estudio con relacion a fenomenos en el espacio tal como el origen de universo (Big Bang) , asi como tambien estudios sobre el clima espacial. Tambien sirven para hacer simulaciones del clima en la tierra , para poder hacer pronostico del clima , tambien simulaciondes de explosiones de supernovas, explosiones nucleares, Tsunamis etc. En sí las supercomputadoras se utilizan para abordar problemas muy complejos o que no pueden realizarse en el mundo físico bien, ya sea porque son peligrosos, involucran cosas increíblemente pequeñas o increíblemente grandes.

Jennifer:

El tema de las supercomputadoras es muy amplio, es un gran desarrollo de la ultimas decadas y esto ha ayudado a la investigacion en si. Muchas de las cosas descubiertas se la debemos a este gran mecanismo que contiene una gran capacidad de procesamiento lo que facilita en si la prueba de lo que se tiende a investigar. Al mismo tiempo reduce el trabajo de los cientificos ya que la simulacion que la supercomputadora logra realizar lanza datos que en si son precisos y eficacez, de los cuales se puede tener

23 | P a g e

Industria ArmamentistaEn la simulación de misiles nucleares y su posible radio de destrucción

Page 24: investigación de Supercomputadoras Doc-1

mas confianza de lo que se esta realizando. La supercomputadora es y será un monstruo informatico en todos los sentido

RecomendacionesAsí como las aplicaciones que vimos son bastas y prácticas, las recomendaciones que tenemos para iniciar y proseguir con investigaciones como esta; también lo son.

Si hubo algo con lo que encontramos dificultades fue con las explicaciones técnicas del proceso de cómputo dentro de la infrestructura de una supercomputadora, en ocaciones refiriéndose a sus similitudes con un mainframe, cosa que desconocíamos un poco.

Algo que es muy útil antes y durante el proceso de investigación es estar informado sobre los modelos computacionales actuales y posibles dentro de un futuro a mediano-largo plazo. Ya que con esta información de referencia se podrían comparar los datos que uno recolecte.

Bibliografía

http://www.technewsdaily.com/408-9-super-cool-uses-for-supercomputers.html

http://en.wikipedia.org/wiki/History_of_supercomputing

http://de.wikipedia.org/wiki/Supercomputer

http://alt1040.com/2012/11/ibm-neuronas-sinapsis

http://www.monografias.com/trabajos58/funcionamiento-computadora/funcionamiento-computadora.shtml

http://en.wikipedia.org/wiki/Fluorinert

http://www.top500.org/featured/systems/cm-5-los-alamos-national-lab/

http://www.srbyte.com/2008/11/qu-es-un-flop-y-un-petaflop.html

http://www.eluniversal.com.mx/graficos/graficosanimados12/EU_Supercomputadora/cerebros.html

http://es.wikipedia.org/wiki/Cray-2

http://www.reuters.com/article/2009/01/10/idUS28279+10-Jan-2009+BW20090110

24 | P a g e