Universidad Nacional Autónoma de México
Dirección General de Servicios de Cómputo Académico
Año 7 Núm. 74, Publicación Mensual, 27 de Noviembre de 2008

ARTÍCULOS

 

Año 7, Número 67, Marzo de 2008

Clientes delgados la nueva cara de las redes centralizadas
José Fabián Romo Zamudio

En los albores del cómputo digital, por las dimensiones de los equipos y su costo, la única manera de ingresar datos y recuperar los resultados de los procesos era por medio de la consola, esto es, con la ayuda de un dispositivo de entrada y salida directamente asociado a la unidad central de proceso. Conforme el hardware evolucionó hasta tener como equipo modelo de entrada y salida un monitor y un teclado, las terminales se convirtieron en el equipo estándar para usar los grandes sistemas de cómputo. A esta combinación de monitor y teclado se le conoció popularmente como “terminal tonta” (dumb terminal).

Terminales y anfitriones

En el modelo de operación anfi+trión–terminal (host–terminal) cada dumb terminal se conectaba directamente al equipo anfitrión o central (host). Las terminales no realizaban por sí mismas ninguna tarea de procesamiento de información: simplemente servían como interfaz para que el usuario pudiera ingresar datos y comandos desde el teclado, y visualizar los resultados y actividad del procesador central en el monitor.

Este esquema era muy práctico en centros de cómputo de universidades y bancos, pues el costo de un procesador central era considerable, y colocar capacidad de procesamiento de datos en cada escritorio no era una alternativa económica. La interfaz al usuario en las terminales era muy escueta: sólo texto y con monitores monocromáticos en verde, ámbar o, blanco y negro.

Conforme las tecnologías de telecomunicaciones se desarrollaron, algunas organizaciones pudieron extender la ubicación de las terminales a puntos apartados del centro de cómputo. Los principales medios de transmisión eran líneas telefónicas e instalaciones especiales de radiofrecuencia. Pero más que una red distribuida de cómputo, esta infraestructura seguía conservando el concepto de cómputo centralizado, pues las terminales, por más alejadas que se encontraran geográficamente del sistema principal, seguían sin poder procesar datos por cuenta propia.

En esta época era famoso el concepto de “no hay sistema”, especialmente en los bancos, situación que se asociaba con la pérdida de comunicación con el equipo anfitrión de la central bancaria, ya sea por fallas en el medio de transmisión o mantenimientos a la computadora principal. Todo era un efecto de la centralización para el procesamiento de la información.

Clientes y servidores

Con la aparición de las computadoras personales a finales de la década de los 70, donde ya el equipo de escritorio podía procesar información por si mismo sin depender de un sistema maestro, se sentaron las bases para el cambio en el modelo de las redes de datos y la manipulación de información en diversos sitios. Así da inicio el esquema cliente-servidor, más desarrollado aún a inicios de la década de los 90 por la estandarización de los protocolos de comunicación en las redes locales (LAN), el mejoramiento de las capacidades de telecomunicaciones a nivel regional, nacional y mundial, así como la expansión de la Internet.

Fueron múltiples las ventajas de los ambientes cliente–servidor. Por un lado, el cliente –ya un sistema de cómputo con memoria, almacenamiento y procesador propios– fue transformándose en una interfaz mucho más amigable con el usuario, con ventanas, multiproceso, millones de colores, manipulación con el ratón, navegadores Web y conexión independiente a Internet.

Todo esto fue posible gracias a la reducción en los costos de producción de procesadores centrales y a todos los dispositivos que conforman una computadora de escritorio o portátil, además de un auge en el desarrollo de software y sistemas operativos que se instalaron en el disco duro de cada equipo.

Sin embargo la independencia tiene un precio. Iniciando por el sistema operativo en disco (DOS) hasta los modernos sistemas multitarea y totalmente gráficos, los clientes requieren de una constante actualización, tanto en hardware como en software. Un nuevo sistema operativo implica, la mayoría de las veces, que el usuario modernice su computadora agregando memoria RAM.

Ciertos programas necesitan de mayor capacidad del procesador central; la propia actividad del usuario, su constante generación de datos, archivos, aplicaciones e información en lo general, involucran que en poco tiempo deba incrementar la capacidad de almacenamiento en el disco duro, comprar discos externos o unidades USB, etc. Todo esto combinado obliga a que en pocos años se deba cambiar todo el equipo porque una simple actualización de partes no es suficiente.

En función de los requerimientos del usuario y de cómo esas necesidades se transforman por su desarrollo profesional e inmersión en la sociedad de la información, el cambio de computadora puede ser obligado en unos cinco años en promedio o a veces en unos cuantos meses.

Mientras que esta constante modernización de por si tiene un impacto económico importante en el usuario individual, es mucho mayor en los institucionales, esto es, en empresas, universidades y sector gubernamental, por mencionar algunos. El que una secretaría de estado o una universidad deban cambiar 500 o cinco mil sistemas de cómputo requiere de un amplio presupuesto, un esfuerzo tecnológico considerable y un grupo técnico que le dé soporte.

El regreso de las terminales

Cuando se actualizan los clientes en una red de cómputo distribuida no todos los elementos de cada equipo son inoperantes. Monitor, teclado, ratón, e incluso fuente de poder y chasis, casi siempre siguen siendo útiles. Sin embargo, al comprar un nuevo equipo también vienen incluidos esos componentes, lo que implica que se está haciendo una inversión innecesaria.
Diversas empresas desarrolladoras de sistemas operativos implementaron hace algunos años lo que se denomina “servicios de terminal”. Un programa de terminales permite la conexión desde un sistema remoto, vía la red local o Internet, a un servidor. Todo el procesamiento de la información se realiza en el servidor, donde el usuario accede con su cuenta y contraseña a aplicaciones, archivos y recursos que residen en el servidor.

Debido a las mejoras en los entornos de trabajo y a la velocidad de transferencia de datos de las redes, las terminales que se asocian al servidor no son ya aquellas limitadas a sólo texto en verde monocromático, sino que el usuario tiene en la pantalla todo un ambiente gráfico, como si esa interfaz la estuviera generando y procesando su equipo local, con ventanas, iconos, navegador Web y demás programas que se hayan instalado en el servidor.

El equipo necesario para crear una red centralizada consta del servidor –que deberá ejecutar los servicios de terminal (Linux Terminal Services Project, Windows Terminal Services o SunRay System Software) apoyándose en un sistema operativo multiusuario (como Linux o Windows Server)–; la red, que preferentemente deberá ser de 10 Mbps o superior; y los clientes.

Clientes delgados

Una computadora personal con tarjeta de red puede conectarse a un servidor de terminales y convertirse en “esclava” de ese servidor. Sólo se necesita que al arranque del equipo se ejecute un programa de inicio en red o net boot loader –residente en la tarjeta de red, en el disco duro local, en un CD o en una unidad de memoria USB– que en lugar de cargar un sistema operativo instalado en el disco duro local, busque las instrucciones de inicio en la red a partir del servidor de terminales que se tenga instalado en el equipo principal. Si el servidor está activo lo localizará el programa cargador de la terminal.

Al establecerse la comunicación entre el servidor y el sistema personal, el primero enviará todas las instrucciones necesarias para construir el ambiente gráfico a la memoria RAM y procesador del segundo sistema. Todo lo que haga el usuario con su equipo, en realidad, lo estará haciendo y procesando en el servidor de terminales.

Existen, sin embargo, terminales gráficas per se, también conocidas como clientes delgados (thin clients). Una terminal gráfica no posee procesador central ni disco duro, sólo cierta cantidad de memoria RAM (entre 128 y 512 MB), suficiente para usarse como memoria de video y como búffer o memoria temporal de las acciones del usuario, tales como movimiento del ratón y presiones en el teclado.

Las terminales gráficas tienen un monitor CRT (cinescopio) o más comúnmente un monitor LCD, lo que hace que ocupen menos espacio en el escritorio de los usuarios, con resolución SVGA o superior (arriba de 1024 x 768 pixeles). Algunos modelos de clientes delgados disponen de entrada y salida de audio, además de puertos USB adicionales para facilitar la carga de archivos hacia el servidor.

¿Distribuido o centralizado?

Mientras que para un usuario en solitario puede resultar ocioso el depender de un servidor de terminales, ocurre todo lo contrario en centros de negocios, escuelas y ambientes donde el trabajo colaborativo, la presencia de decenas de equipos y los requerimientos de control y actualización son más exigentes.

Un modelo tradicional cliente-servidor es adecuado para aquellas circunstancias donde no existe una absoluta dependencia de los equipos de los usuarios con relación a los servicios a los que acceden. Por ello es el esquema más empleado en Internet y la distribución de contenidos en páginas Web desde servidores remotos.

Un usuario que desea tan sólo consultar una página web no necesita depender desde su arranque, del servidor que le proporcione la información. Basta con ejecutar un programa cliente, como un navegador, para acceder a la información. En estas circunstancias es donde conviene el esquema distribuido.

Pero los modelos centralizados, apoyados en terminales gráficas y servidores de terminales, se recomiendan en laboratorios de cómputo, aulas de capacitación y entornos de trabajo con un intenso flujo de información entre los miembros del grupo. De esta manera se hace una inversión inicial mínima en los clientes de acceso, o se reutilizan las computadoras ya existentes, a la vez que se instala un servidor de mayor capacidad que soporte la operación concurrente de los usuarios.

Cuando se requiera instalar un nuevo programa o aplicación, se hará sólo en el servidor. Si se necesita actualizar el sistema operativo también será sólo el del servidor. Si las actualizaciones demandan mejor procesador, más memoria o mayor capacidad de disco duro, todos estos cambios se hacen sólo en un equipo: el servidor. El resto de la infraestructura permanece igual, lo que deriva en considerables ahorros y un mejor control de los accesos de los usuarios y la manera en la que se distribuyen los recursos.

Aunado a lo anterior, el surgimiento de aplicaciones en la red (Webapps), como la redacción de documentos, hojas de cálculo, presentaciones y bases de datos, que algunas empresas y portales de búsqueda ofrecen, proporciona una guía sobre el futuro inmediato de la colaboración en línea, donde el mayor volumen de información generada por los usuarios estará, de nuevo, en la red y en un servidor central más concretamente, no en su equipo personal.

Los blogs, wikis, cuentas de correo electrónico con gran capacidad de almacenamiento y herramientas de oficina disponibles en línea, combinados con redes locales equipadas con clientes delgados y servidores de terminales constituyen una nueva tendencia del cómputo: regresar a los orígenes, pero combinando toda la experiencia de los modelos centrales y distribuidos de redes colaborativas.

Para mayor información:

http://www.sun.com/sunray
http://www.ltsp.org
http://www.microsoft.com/
windowsserver2003/technologies/terminalservices

 

 

 

Inicio | Contacto |