Universidad Nacional Autónoma de México
Dirección General de Servicios de Cómputo Académico
Año 7 Núm. 74, Publicación Mensual, 27 de Noviembre de 2008

ARTÍCULOS

 

 
Año 1, Número 14, Noviembre de 2002
Supercómputo en la UNAM

Enrique Cruz Martínez
ecm@super.unam.mx
José Luis Gordillo Ruiz
jlgr@super.unam.mx

 

El supercómputo es la tecnología informática más avanzada de cálculo numérico que existe actualmente para desarrollar investigaciones complejas de alto nivel de especialización; es la única herramienta que le permite al investigador llevar a cabo, con certeza y velocidad, billones de cálculos matemáticos para estudiar problemas de gran magnitud; su altísima capacidad para procesar simultáneamente grandes volúmenes de información facilita el estudio de fenómenos y condiciones que tan sólo hace menos 30 años eran imposible; sus aplicaciones abrieron en todo el mundo, nuevas líneas de investigación científica en áreas como ingeniería, medicina, geofísica, geografía, astronomía, química, ciencias de la atmósfera y ciencias nucleares, entre otras.

Este recurso es el más poderoso del cómputo científico, en tanto es una de las principales herramientas auxiliares para el desarrollo científico y tecnológico, esto es, permite la realización de complejas investigaciones en todas las áreas del conocimiento humano.
Los últimos años han sido cruciales pues el avance de cada día ofrece nuevos equipos y aplicaciones, y las tecnologías diversifican sustancialmente la forma de trabajo e imponen nuevos retos por alcanzar.

La UNAM, a través de la Dirección General de Servicios de Cómputo Académico (DGSCA), busca mantenerse al día y responder a estos importantes retos para ofrecer a la comunidad científica universitaria y nacional, equipos, tecnologías, métodos y aplicaciones que den el servicio de cómputo de alto rendimiento necesario en nuestros días, entre los que se encuentran la construcción de superclusters, el fomento al cómputo masivamente paralelo y de teraescala y el desarrollo de grids computacionales, así como la consecuente consolidación de recursos humanos altamente especializados.

Alcanzar estos retos significa beneficios inmediatos a las comunidades de científicos que tradicionalmente han usado estos recursos. Las metas que, en menos de cinco años, serán cruciales, también incluyen la construcción de la infraestructura del GRID local y nacional, así como la integración de grupos de trabajo dedicados al cómputo de alto rendimiento, que preferentemente se encuentre organizado en entidades como un Centro de Cómputo Paralelo, una División de Cómputo Científico y un Centro Nacional de Supercómputo.

La UNAM da soporte a más de 600 proyectos de investigación, cada uno de ellos con un mínimo de tres estudiantes de posgrado asociados, lo que representa alrededor de 1,800 investigadores mexicanos ligados al supercómputo.

Superclusters

Una alternativa importante para atender soluciones a ciertas demandas de cómputo científico se deriva del hardware del mercado masivo y de componentes de software libre, como el sistema operativo Linux; el proyecto que originó todos los derivados actuales de clusters y se conoce mundialmente como Beowulf.

La creación de superclusters ofrece a los investigadores otras opciones de trabajo para la obtención de resultados óptimos en tiempos razonables y representa menores costos de adquisición, operación y mantenimiento. Construir y mantener un cluster para uso restringido es relativamente sencillo, sin embargo no lo es para un cluster de servicio general, y en este último caso surgen dificultades adicionales a las de construir una máquina más potente mediante la integración de computadoras personales, que consisten en revisar, configurar y aprender a usar diversos componentes de software hasta administrar, monitorear y actualizar equipos en configuraciones diversas que crecen más rápido que sus contrapartes paralelas comerciales.

Un servicio basado en clusters es tan confiable como un equipo comercial (existe la posibilidad de crecer hasta contar con un supercluster de 512 procesadores o más). Es importante comentar que una parte importante de los servicios de supercómputo en los próximos años, será sustentada por superclusters para cómputo paralelo escalable o masivo.

Mayor capacidad de procesamiento de datos

En nuestros días, el cómputo paralelo es una opción adicional para que la comunidad científica internacional pueda trabajar sus investigaciones con mayores capacidades de procesamiento y con el uso de computadoras paralelas. Se logran reducir los tiempos, obtener resultados óptimos de un programa y realizar simulaciones de mucho mayor tamaño y volumen. Si bien es cierto que se pueden construir computadoras con cientos o miles de procesadores, el hecho de construir una aplicación que use eficientemente estos recursos, necesariamente requiere especialistas en programación del más alto nivel, con amplios conocimientos en algoritmos, programación paralela y sistemas de comunicación para superar los retos que representa la escalabilidad al usar la integración de procesadores y computadoras.

Equipos de alto rendimiento integrados en constelaciones

Otra forma de trabajar con cómputo de alto rendimiento, es a través del cómputo de “Teraescala”, representado por el uso de equipos capaces de realizar billones de operaciones por segundo o teraflops y de generar miles de billones de bytes de información o petabytes, particularmente útil en investigaciones biomédicas y astronómicas.

Para integrar equipos de esta magnitud, se requieren tecnologías que permitan interconectar equipos paralelos en constelaciones, lo que se conoce como clusters de clusters y medios de almacenamiento masivos. Más allá del procesamiento de información, para que realmente sean útiles, estos equipos deben permitir que los usuarios cuenten con métodos de acceso fáciles y cómodos, tanto a las unidades de procesamiento como a las de almacenamiento.

GRID

Un GRID es la integración de equipos de trabajo ubicados físicamente en forma remota que comparten recursos, instrumentos, dispositivos y tecnologías como las asociadas a redes de alta velocidad o dedicadas, equipos disponibles para el cálculo numérico como computadoras vectoriales, paralelas, clusters, redes de estaciones de trabajo, dispositivos de almacenamiento e instrumentos como telescopios, microscopios o controladores, y sistemas de software que interacccionan entre el usuario final y los dispositivos para recibir y ejecutar sus solicitudes.

Las tecnologías de GRID buscan cambiar la forma en que se usan los recursos computacionales, de manera que los investigadores tengan la oportunidad de usar cierta cantidad de recursos, sin importar su ubicación geográfica ni su pertenencia a una organización. En México, los GRIDS tendrían la consecuencia positiva de cohesionar a las diversas comunidades de cómputo de alto rendimiento, lo que produciría colaboraciones más estrechas.

División de Cómputo Científico

Gran parte de la comunidad de investigadores de la UNAM recurre a la modelación y al uso intensivo de las computadoras para llevar a cabo sus investigaciones. Sin embargo, casi no existe investigación cuya finalidad en sí misma sea resolver los problemas del cómputo científico, debido a que esta área de especialización aún no existe en la UNAM, siendo el Plan de Becarios de Supercómputo uno de los pocos programas de estudio dedicado a esta rama. La formación de grupos multidisciplinarios que dominen los métodos numéricos, los lenguajes y paradigmas modernos de programación, que cuenten con amplios conocimientos sobre los equipos y sobre la teoría de ciencias y tecnologías específicas, será cada vez más imperativa en los próximos años.

Centro de Cómputo Paralelo

La computación paralela ha tenido un desarrollo considerable en los últimos años; de hecho, debido a las tendencias en el desarrollo de la infraestructura de cómputo, es muy probable que en un futuro cercano sea el método de programación más generalizado, por lo que será necesario contar con recursos humanos altamente capacitados a tal grado que, sería conveniente concentrar los recursos de docencia y experimentación en un centro dedicado a su formación.

Centro Nacional de Supercómputo

El supercómputo en la UNAM siempre ha encabezado el liderazgo en el país; otras universidades y centros de investigación toman de modelo a la UNAM en la toma de decisiones sobre nuevos equipos. Debido a que, los nexos entre estos grupos suelen ser muy cercanos, se pueden establecer convenios de colaboración para compartir infraestructura. Una estrategia viable para crecer en recursos es la creación de un Centro Nacional de Supercómputo, cuyo soporte esté dado por las universidades que contribuyen más a la investigación, organismos de gobierno y empresas. Para saber más sobre supercómputo en la UNAM consultar:
http://www.super.unam.mx http://www.cluster.unam.mx

¿Qué es una supercomputadora?
En términos generales, una supercomputadora se puede describir como la computadora más potente y veloz para realizar operaciones aritméticas, con gran capacidad de memoria, de almacenamiento y rápido acceso entre procesadores, memoria y discos. Puede atender más de un trabajo a la vez que demanda el uso de todos los recursos descritos anteriormente sin degradación para el usuario.
¿Para que sirve el supercómputo?
El supercómputo es un término genérico que engloba equipos para cálculo numérico a grandes velocidades (estas máquinas también son conocidas como “trituradoras de números”), compiladores altamente desarrollados, bibliotecas numéricas, herramientas auxiliares para optimizar códigos y sistemas para balance y calendarización de los trabajos enviados para su procesamiento. La finalidad de esta tecnología es servir como una herramienta de propósito general para apoyar la investigación científica básica y aplicada.
¿Qué es el cómputo científico?
El cómputo científico es el desarrollo y traducción en términos de tecnología de cómputo de modelos computacionales, cuya finalidad es resolver problemas complejos del mundo real de ciencia e ingeniería.
El cómputo científico usa como parte principal la modelación matemática y/o computacional. Cuando se resuelve un problema complejo, mediante el uso de la computadora, también se le denomina experimentación numérica, la cual se considera otra rama para aprender y obtener información nueva, que se suma a las otras metodologías tradicionales: teoría y experimentación.
¿Qué es el paralelismo?
En términos prácticos, el paralelismo consiste en agrupar un conjunto de recursos de cómputo de modo tal, que pueden ser utilizados como una UNIDAD. Así, un programa paralelo puede aprovechar la disponibilidad de varios procesadores para aumentar la capacidad de procesamiento y reducir los tiempos de ejecución.

Inicio | Contacto |