COLUMNA

¿Quién inventó los ordenadores?

Manuel Pimentel explica los avances tecnológicos de siglos pasados que permitieron la creación del primer ordenador. Subraya que se trata de un aparato creado gracias a la interacción de descubrimientos individuales

Resulta sorprendente que conozcamos perfectamente quién inventó la imprenta, el teléfono o la radio, pero no sepamos quién fue el inventor del ordenador. ¿Y cómo es posible ese desconocimiento? Pues que a nadie puede atribuírsele en exclusiva. Estamos ante una tecnología desarrollada por la suma e interacción de un amplio conjunto de descubrimientos parciales. Lejos quedan los tiempos del Renacimiento, en los que un sólo hombre podía contribuir con descubrimientos en varios campos al conocimiento humano. Hoy en día la especialización suele ser muy alta. Aunque en la ciencia aún caben intuiciones geniales, en el desarrollo tecnológico los equipos y las redes multidisciplinares son del todo imprescindibles.

La informática es el cimiento de la actual sociedad de la información y el conocimiento. Y esas tecnologías son fruto del talento humano. ¿Y dónde se desarrollaron? Pues en el país que apostó con mayor firmeza por concentrar y estimular el talento, EE UU. Sus generosos programas de captación de la inteligencia mundial y la excelente dotación de sus grandes instituciones de investigación le permitieron convertirse en pionero de las nuevas tecnologías. Invirtió en talento y acertó.

Desde tiempos remotos, el hombre fabuló con la posibilidad de construir muñecos o artilugios con inteligencia. El propio Descartes planteó la posibilidad de crear autómatas que simularan algunas funciones del cuerpo, aunque nunca creyó que la mente pudiese ser recreada por máquina alguna. Si al principio el interés se centró en conseguir autómatas, a partir del XIX la prioridad fue el conseguir máquinas inteligentes. Y lo primero que se les pidió fueron cálculos matemáticos. El británico Charles Babbge propuso una mesa calculadora con base mecánica. Su elevado costo no le permitió construirla, aunque hubiera sido viable. George Boole, todavía en el XIX, afirmó que cualquier enunciado lógico podría ser reducido a un juego binario entre el uno y el cero. Esta idea tan elemental sería fundamental para el desarrollo de la ciencia del siglo XX.

Descartes planteó la posibilidad de crear autómatas que simularan funciones del cuerpo, pero nunca pensó que la mente humana pudiera ser recreada

En 1936, el matemático británico Alan Turing afirmó que una máquina simple sería capaz de realizar cualquier cálculo si se le proporcionaban las instrucciones a través de unas cintas perforadas mediante código binario. Programando estas cintas, la máquina cumpliría sus instrucciones. Turing se suicidó a la prematura edad de 40 años, pero en 1950, poco antes de su muerte, enunció que una máquina adecuadamente programada sería capaz de responder con tal precisión, que un tercer interlocutor no diferenciaría entre la respuesta de la máquina o del hombre. De ahí viene la expresión: 'La prueba de la máquina de Turing'.

El matemático Howard Aiken desarrolló entre 1937 y 1943 un gigantesco y primitivo ordenador, bautizado Mark I, que podía sumar hasta tres sumas por segundo, restar, multiplicar y dividir. Utilizaron cientos de kilómetros de cable y miles de interruptores. Medía 15 metros de longitud por dos y medio de anchura y pesaba varias toneladas.

Casi simultáneamente, en la Universidad de Iowa, John Atanasoff utilizó interruptores electrónicos para gobernar series binarias de números. Construyó un primer prototipo de ordenador posteriormente desarrollado por los matemáticos Mauchly y Eckert, que crearon una máquina más rápida que la Mark I, con el fin de acelerar los cálculos de la trayectoria de tiro de los disparos de artillería, tal y como les pedía el Ejército americano en la II Guerra Mundial.

Fruto de ese encargo nació el Eniac, el primer ordenador capaz de ser programado. Tenía unas dimensiones monstruosas y pesaba más de 30 toneladas. Su operación era muy compleja; los operarios tenían que manipular más de 6.000 interruptores manuales. Todavía era un dinosaurio con menos capacidad que la más pobre de las calculadoras actuales. Fue entonces cuando John von Neumann planteó que todas esas costosísimas operaciones manuales se podrían evitar si se almacenaban las instrucciones en una memoria. El ordenador moderno nació cuando se logra poner en práctica esa arquitectura Von Neumann.

La compañía IBM, que entonces no era ningún gigante, decidió construir sus propias máquinas. En 1959 apareció el primer circuito integrado, que permitió incrementar la capacidad de las máquinas reduciendo su volumen. IBM aprovechó su ventaja inicial en las grandes máquinas de cálculo y comenzó la fabricación en serie de su famosa serie 360, destinada a la administración y a la gran empresa, que pagaban verdaderas fortunas por poseerlo. IBM creció de forma extraordinaria en los años sesenta con la fabricación e instalación de sus mainframe. Pero no supo intuir el potencial mercado de pequeños ordenadores y del software. Apple, Microsoft e Intel supieron anticiparse al futuro.

El matemático del MIT Nobert Wiener creó el concepto de cibernética en su libro Cybernetics (1948), en el que abordaba las relaciones entre el control y la comunicación tanto en máquinas como en animales. 'La información es información, no es materia ni energía. Ningún materialismo que pretenda rechazar esto puede vivir en la actualidad'.

Al mismo tiempo que avanzaban las computadoras se forjaba el concepto de inteligencia artificial. Dicha expresión nació de una reunión celebraba por unos jóvenes investigadores en 1953 en el Dartmouth College. Discutieron la posibilidad de producir programas que fuesen capaces de comportarse tan inteligentemente como la mente humana, pero con mayor capacidad y velocidad. Desde ahí hasta nuestros días se ha recorrido un fabuloso camino que todos conocemos. Le debemos agradecimiento a toda esta saga de estudiosos e investigadores. Sin ellos no habría sido posible la actual sociedad del conocimiento.