Universidad Nacional Autónoma de México
Dirección General de Servicios de Cómputo Académico
Año 7 Núm. 74, Publicación Mensual, 27 de Noviembre de 2008

ARTÍCULOS

 

Año 7, Número 70, Junio de 2008

Tendencias del cómputo. El cerebro planetario

José Fabián Romo Zamudio

En nuestro país se celebra este año el 50 aniversario de la puesta en marcha de la primera computadora en América Latina. En medio siglo, hemos sido testigos de trascendentales cambios, tal vez en un inicio, a un ritmo no tan vertiginoso como el de la reciente década, derivado de un incremento exponencial no sólo en la capacidad de procesamiento de datos por hardware con mayor densidad en su composición y en el almacenamiento de información, donde hablar de gigabytes es tan común como un microcircuito insertado en nuestro teléfono celular. Pero, más allá de la revolución en los componentes físicos, la creciente presencia de los dispositivos digitales de información radica en una revolución en cómo esas computadoras, asistentes personales y aparatos en lo general operan, y eso parte del software, de la forma en la que realizan las cosas.

Si nos remontamos diez o veinte, o mejor aún, cincuenta años atrás en el tiempo y alguien nos hubiera preguntado cómo sería el cómputo hacia el final de la primera década del siglo XXI difícilmente hubiéramos acertado, con un pequeño factor de error, a lo que las tecnologías de la información y la comunicación (TIC) nos ofrecen hoy en día.

Para un programador de la IBM 650 que se instaló en la UNAM en 1958 decir que en el 2008 habría dispositivos portátiles conectados a redes inalámbricas transfiriendo millones de bits por segundo, con interfases intuitivas de “toque y arrastre”, teléfonos móviles presentes en millones de bolsillos, computadoras personales diez mil veces más capaces que el aparato que tenía enfrente, reconocimiento de voz, imágenes, rostros, huellas digitales y caracteres mientras él perforaba tarjetas, todo ello, habría sido un indiscutible triunfo de la intuición y la premonición, difícil de explicar por métodos convencionales.

El apasionante desarrollo de las TIC nos da una primera enseñanza: somos parte de la evolución tecnológica. Como usuarios, desarrolladores, administradores de tecnología, etcétera, nunca podemos asumir que estamos en el pináculo de estos avances. La combinación e interacción de diversas disciplinas, no sólo de ciencias exactas sino también de las humanidades ha propiciado, como en otros ámbitos, la creación de nuevos programas y recursos físicos para el procesamiento de información, así como su alta disponibilidad, quedando atrás los años en los que sólo grandes corporaciones, entidades gubernamentales o instituciones educativas podían acceder a tales recursos.

Y aunque hoy también resultaría complicado establecer qué sucederá en diez, veinte o cincuenta años en el futuro, qué tipo de computadoras habrá en nuestros escritorios, qué aparato estará en los bolsillos, cómo accederemos a la información propia y a la del resto del mundo, las mismas disciplinas que han dado origen a todas estas innovaciones (matemáticas, física, lógica, entre otras) nos asisten en atisbar qué es lo que pasará.

Hardware

Si usamos como analogía el cuerpo humano, el hardware es el “músculo” de la computadora. Consiste en esa “fuerza bruta” para procesar y comunicar datos. Pero si analizamos su esencia, es la capacidad de conmutar señales eléctricas. Un procesador central con cien millones de transistores o más, presentes en las computadoras personales que empleamos todos los días no es otra cosa que un muy denso conmutador de señales por donde pasan millones de millones de bits por segundo. Y aunque hay una marcada tendencia a cada vez mayores integraciones de dispositivos a menor escala con menos consumo de energía, y por tanto mejor eficiencia, su naturaleza no cambia.

Podremos ver en los siguientes años elevadas capacidades de conmutación de información en procesadores interconectados en todo el mundo, desde el teléfono celular hasta los centros de supercómputo pero, precisamente, una mayor capacidad de transferencia de datos hará que desaparezca gradualmente el concepto del cómputo personal y aislado para transformarse en la operación y procesamiento compartido en la red (grid o malla de cómputo) a costos menores. Ese “músculo” para conmutar dígitos binarios abarcará todo el planeta mediante redes más veloces, expandiendo la rapidez con la que hoy en día un procesador central se comunica con la memoria RAM que reside en la misma tarjeta madre hacia el otro lado del mundo.

Todo lo anterior se traduce en lo siguiente: la computadora personal y la World Wide Web desaparecerán para ceder su lugar a la computadora global, la red misma transformada en procesador, un cerebro electrónico de escala planetaria con miles de millones de interfases o puntos de contacto computadora-humano cada vez más intuitivos y fáciles de emplear, donde será difícil establecer la barrera entre almacenamiento local y en la red puesto que todos los datos estarán en la computadora global, incluso los del dispositivo asistente personal que se porte en el bolsillo o ya haya sido implantado en el cerebro biológico humano, lo que posibilitará ya no sólo la transferencia de textos, imágenes, audio o video, sino también de emociones y sensaciones, la invasión de todos los sentidos por la comunicación electrónica, innegable consecuencia de la tendencia del humano hacia el ser social, a reunirse y compartir experiencias con los demás, agudizada por la globalización económica y cultural.

Software

En sí es código, o dicho de otra manera, las instrucciones de qué es lo que debe hacer el hardware y cómo hacerlo. En los últimos 50 años, el software ha evolucionado a niveles de sofisticación impensables en la era de los primeros dispositivos digitales cuando buena parte de la programación se hacía “por destornillador”, modificando las conexiones de hardware.
Lenguajes de programación más robustos, algoritmos más complejos y códigos proeficientes han permitido que experimentemos una de las etapas más trascendentales en la era de la información: la conversión del software local en uno como servicio en primera instancia, disponible en la red como aplicaciones especializadas en múltiples ámbitos: desde agendas personales hasta sistemas para control remoto de dispositivos.

El software sustituye, día con día, más funciones del hardware, lo que requiere de un número mayor de desarrolladores y modelos diferentes de licenciamiento y distribución, cada vez más lejanos del concepto de computadora aislada.

Por ello, la tendencia del software es la de estar disponible en el cerebro mundial antes mencionado, y acoplarse a las necesidades específicas del usuario con las actuales páginas web personalizadas que, en un futuro cercano, incorporarán esquemas de adaptabilidad que exploten la capacidad de conmutación del hardware para evolucionar en inteligencia artificial y la ubicuidad del cómputo, modelo donde el usuario dispondrá de su escritorio e información personal desde cualquier dispositivo, al modificar la idea de propiedad de la computadora, pues la computadora será omnipresente.

El siguiente gran paso en el software será, paralelamente, la auto programación, la generación y regeneración automática de nuevo código en el cerebro planetario a partir de variables en constante cambio, lo mismo para modificar las condiciones de manejo y control de un vehículo en las calles que para establecer políticas de seguridad ante riesgos informáticos o ataques.

El siglo XXI, sin lugar a dudas, será el siglo del software, elaborado por grandes compañías más que por un volumen importante de programadores e incluso, de manera imperceptible, a partir del propio comportamiento de la raza humana, de sus necesidades de comunicación, preferencias, tipo de inteligencia y redes sociales a las que pertenezca cada individuo, creando instantáneamente realidades alternas a las del espacio físico, con simulaciones de mundos paralelos donde el humano desarrolle potenciales hoy insospechados en materia de colaboración y presencia remota, hasta un grado en el cual se deje en el ayer el término “realidad virtual” para formar parte de toda la realidad social, ya sea tangible o electrónica, lo que impactará la manera en la que se enseña y aprende, se trabaje y se discutan las ideas, obligándonos a establecer nuevas reglas de operación de la sociedad en su conjunto.

Más importante aún: el humano

En su afán por extender sus capacidades, por la innata necesidad de comunicarse con los demás y construir lo que conocemos como sociedad, conocimiento y cultura; el ser humano continúa el desarrollo de todas estas nuevas tecnologías. Pero más allá de bits y bytes, de los almacenamientos masivos y procesadores, de la electrónica y robótica, la humanidad está en el umbral de decidir qué hacer con toda esa tecnología, cuál es el objetivo de todo ello.

Los especialistas en cómputo y telecomunicaciones de las décadas por venir tendrán roles distintos a los actuales. Por las tendencias en la construcción de esta inmensa computadora de escala mundial, serán necesarias las especializaciones en microprogramación estandarizada que permitan la recomposición en códigos de mayor volumen y alta eficiencia, así como el control y vigilancia de la seguridad e integridad de los datos, lo que propiciará el surgimiento de nuevas profesiones, como la gestión de servicios en la red global y la consultoría en la selección y aprovechamiento de las capacidades de software y hardware compartido en cada empresa, universidad o entidad gubernamental.

Así, también, se requerirá tanto de profesionales multidisciplinarios, es decir, tanto abogados con capacidad de ejercer el derecho en la hoy llamada “realidad virtual”, como de ingenieros e informáticos que no olviden la importancia de la ética. Será una combinación de todas las disciplinas del conocimiento a las que cualquier ser humano tendrá acceso, lo que derivará incluso en la transformación de las entidades educativas que tendrán el reto de modificar sus métodos de enseñanza, evaluación y conformación de la currícula, acrecentar el concepto de campus, manejar volúmenes cada vez mayores de información y, por supuesto, preparar a profesionales para un mundo con una economía y leyes nuevas.

Gigas, teras, petas o exabytes disponibles en circuitos del tamaño de una uña, miles de millones de millones de bits viajando alrededor del globo terráqueo, comunicación entre las personas de forma instantánea y en directo a sus neuronas no son garantía para construir una sociedad que garantice el bienestar y desarrollo de cada ser humano.

Existen retos adicionales que van desde la energía hasta el medio ambiente, de la justicia a la seguridad de cada individuo, capas superiores de todo este andamiaje tecnológico, niveles hacia donde deben incidir las TIC. Si hemos aceptado los productos de la ciencia y la tecnología para extender las capacidades del ser humano, convirtiéndonos sin darnos cuenta en los primeros “cyborgs” de la historia, conviene no olvidar que el uso y conformación del cerebro electrónico o digital planetario debe ser sólo un apoyo más en la evolución social.

Visto en teoría de juegos: evitar resultados de suma cero donde existen vencedores y vencidos hacia una mejora de la sociedad como una suma no nula, donde el resultado sea positivo para quienes participen en ese proceso, siendo cada vez más los involucrados.

 

Inicio | Contacto |

tml>