Claude E. Shannon

Claude Elwood Shannon nació el 30 de abril de 1916 en Petoskey, Michigan. Tras asistir a la escuela primaria y secundaria en su vecina ciudad natal de Gaylord, se licenció en ingeniería eléctrica y matemáticas en la Universidad de Michigan. Tras su graduación, Shannon se trasladó al Instituto Tecnológico de Massachusetts (MIT) para realizar sus estudios de posgrado. Mientras estaba en el M.I.T., trabajó con el Dr. Vannevar Bush en una de las primeras máquinas de cálculo, el «analizador diferencial», que utilizaba un sistema preciso de ejes, engranajes, ruedas y discos para resolver ecuaciones de cálculo. Aunque los ordenadores analógicos como éste resultaron ser poco más que notas a pie de página en la historia del ordenador, el Dr. Shannon no tardó en dejar huella con la electrónica digital, una idea considerablemente más influyente. En una premiada tesis de máster realizada en el Departamento de Matemáticas, Shannon propuso un método para aplicar una forma matemática de lógica llamada álgebra de Boole al diseño de circuitos de conmutación de relés. Esta innovación, a la que se atribuye el avance que transformó el diseño de circuitos «de un arte a una ciencia», sigue siendo la base del diseño de circuitos y chips hasta nuestros días. Shannon se licenció en ingeniería eléctrica y se doctoró en matemáticas en el M.I.T. en 1940.

En 1941, Shannon aceptó un puesto en los laboratorios Bell, donde había pasado varios veranos. Su trabajo sobre sistemas de comunicación secretos en tiempos de guerra se utilizó para construir el sistema a través del cual Roosevelt y Churchill se comunicaron durante la guerra. Cuando sus resultados fueron finalmente desclasificados y publicados en 1949, revolucionaron el campo de la criptografía. Al comprender, antes que casi nadie, el poder que surge de la codificación de la información en un lenguaje simple de 1 y 0, el Dr. Shannon, siendo un joven científico de los Laboratorios Bell, escribió dos artículos que siguen siendo monumentos en los campos de la informática y la teoría de la información. «Shannon fue la persona que vio que el dígito binario era el elemento fundamental de toda la comunicación», dijo el Dr. Robert G. Gallager, profesor de ingeniería eléctrica que trabajó con el Dr. Shannon en el Instituto Tecnológico de Massachusetts. «Ese fue realmente su descubrimiento, y de él surgió toda la revolución de las comunicaciones».

El artículo más importante de Shannon, ‘A mathematical theory of communication’, se publicó en 1948. Este tratado fundamental definía una noción matemática que permitía cuantificar la información y demostraba que ésta podía transmitirse de forma fiable a través de canales de comunicación imperfectos como las líneas telefónicas o las conexiones inalámbricas. Estas innovaciones revolucionarias proporcionaron las herramientas que inauguraron la era de la información. Como señala Ioan James, biógrafo de Shannon para la Royal Society, «sus repercusiones fueron tan amplias que la teoría fue descrita como una de las creaciones más orgullosas y raras de la humanidad, una teoría científica general que podría alterar profunda y rápidamente la visión del mundo de la humanidad». Shannon siguió desarrollando muchas otras ideas importantes cuyo impacto se extendió mucho más allá del campo de la «teoría de la información» engendrado por su artículo de 1948.

Shannon abordó la investigación con un sentido de la curiosidad, el humor y la diversión. Un consumado monociclista, era famoso por recorrer los pasillos de los Laboratorios Bell por la noche, haciendo malabares mientras avanzaba. Su trabajo posterior sobre máquinas de ajedrez y un ratón electrónico que podía recorrer un laberinto ayudó a crear el campo de la inteligencia artificial, el esfuerzo por hacer máquinas que piensen. Y su capacidad para combinar el pensamiento abstracto con un enfoque práctico -tenía predilección por construir máquinas- inspiró a una generación de informáticos. El Dr. Marvin Minsky del M.I.T., que como joven teórico trabajó estrechamente con el Dr. Shannon, quedó impresionado por su entusiasmo y su espíritu emprendedor. «Cualquier cosa que surgiera, la abordaba con alegría y la atacaba con algún recurso sorprendente, que podía ser algún nuevo tipo de concepto técnico o un martillo y una sierra con algunos trozos de madera», dijo el Dr. Minsky. «Para él, cuanto más difícil podía parecer un problema, mayor era la posibilidad de encontrar algo nuevo».

Aunque Shannon trabajó en un campo para el que no se ofrece ningún premio Nobel, su trabajo fue ricamente recompensado con honores que incluyen la Medalla Nacional de la Ciencia (1966) y títulos honoríficos de Yale (1954), Michigan (1961), Princeton (1962), Edimburgo (1964), Pittsburgh (1964), Northwestern (1970), Oxford (1978), East Anglia (1982), Carnegie-Mellon (1984), Tufts (1987) y la Universidad de Pensilvania (1991). También fue el primer galardonado con el Premio Harvey (1972), el Premio Kyoto (1985) y el Premio Shannon (1973). El último de estos premios, llamado así en su honor, lo concede la Sociedad de Teoría de la Información del Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) y sigue siendo el mayor honor posible en la comunidad de investigadores dedicados al campo que él inventó. Su Collected Papers, publicado en 1993, contiene 127 publicaciones sobre temas que van desde las comunicaciones a la informática, y desde los malabares a las máquinas «lectoras de mentes».

Shannon murió el sábado 24 de febrero de 2001 en Medford, Massachusetts, tras una larga lucha contra la enfermedad de Alzheimer. Tenía 84 años.