Claude Shannon: padre renuente de la era digital

Elija un CD favorito. Ahora déjelo caer al suelo. Frótelo con sus huellas dactilares. Luego, deslícelo en la ranura del reproductor y escuche mientras la música sale tan clara como el día en que abrió la caja de plástico por primera vez. Antes de continuar con el resto de su día, piense un momento en el hombre cuyas ideas revolucionarias hicieron posible este milagro: Claude Elwood Shannon.



Shannon, que murió en febrero tras una larga enfermedad, fue uno de los gigantes más grandes que crearon la era de la información. John von Neumann, Alan Turing y muchos otros visionarios nos dieron computadoras que podían procesar información. Pero fue Claude Shannon quien nos dio el concepto moderno de información, un salto intelectual que le valió un lugar en cualquier equivalente de alta tecnología del Monte Rushmore que algún día se establezca.

Una red eléctrica más inteligente

Esta historia fue parte de nuestro número de julio de 2001





  • Ver el resto del número
  • Suscribir

Toda la ciencia de la teoría de la información surgió de un artículo electrizante que Shannon publicó en 1948, cuando era un investigador de 32 años en Bell Laboratories. Shannon mostró cómo la noción de información, que alguna vez fue vaga, podía definirse y cuantificarse con absoluta precisión. Demostró la unidad esencial de todos los medios de información, señalando que el texto, las señales telefónicas, las ondas de radio, las imágenes, las películas y cualquier otro modo de comunicación pueden codificarse en el lenguaje universal de los dígitos binarios, o bits, un término que utiliza su artículo. el primero en usar en forma impresa. Shannon planteó la idea de que una vez que la información se vuelve digital, se puede transmitir sin errores. Este fue un salto conceptual impresionante que condujo directamente a objetos tan familiares y robustos como los CD. Shannon había escrito un plan para la era digital, dice el teórico de la información del MIT Robert Gallager, quien todavía está asombrado por el artículo de 1948.

Y eso sin contar la tesis de maestría que Shannon había escrito diez años antes, aquella en la que articuló los principios detrás de todas las computadoras modernas. Claude hizo tanto para habilitar la tecnología moderna que es difícil saber por dónde empezar y dónde terminar, dice Gallager, quien trabajó con Shannon en la década de 1960. Tenía esta asombrosa claridad de visión. Einstein también la tenía: esta capacidad para abordar un problema complicado y encontrar la manera correcta de abordarlo, de modo que las cosas se vuelvan muy simples.

Jugando hacia el mañana



Para Shannon, todo fue solo otra forma de divertirse. A Claude le encantaba reír y soñar con cosas poco convencionales, dice el matemático retirado de Bell Labs, David Slepian, quien fue colaborador de Shannon en la década de 1950. Shannon fue a las matemáticas como un mago de teatro que practica su prestidigitación: da la vuelta y ataca el problema desde una dirección en la que nunca habrías pensado, dice Slepian, solo para sorprenderte con una respuesta que había estado justo frente a ti. cara todo el tiempo. Pero claro, Shannon también tenía un gran repertorio de trucos de cartas reales. Aprendió a montar en monociclo y se hizo famoso por andar en él por los pasillos de los Bell Labs por la noche, mientras hacía malabares. (Había sido gimnasta en la universidad, así que era mejor en eso de lo que pensabas, dice su esposa Betty, quien le dio el ciclo como regalo de Navidad en 1949).

En casa, Shannon pasaba su tiempo libre construyendo todo tipo de máquinas extrañas. Estaba la Throbac (Thrifty ROman-numérico BAckward-looking Computer), una calculadora que hacía aritmética con números romanos. Allí estaba Teseo, un ratón mecánico de tamaño natural que podía abrirse camino a través de un laberinto. Y quizás lo más famoso, estaba la Ultimate Machine, una caja con un interruptor grande en el costado. Encienda el interruptor y la tapa se levantaría lentamente, revelando una mano mecánica que se agacharía, apagaría el interruptor y se retiraría, dejando la caja tal como estaba.

Siempre estuve interesado en construir cosas con movimientos divertidos, explicó Shannon en una entrevista de 1987 con la revista Omni (una de las pocas veces que habló públicamente sobre su vida). En su ciudad natal de Gaylord, en el norte de Michigan, recordó, pasó sus primeros años armando modelos de aviones, circuitos de radio, un modelo de barco controlado por radio e incluso un sistema de telégrafo. Y cuando ingresó a la Universidad de Michigan en 1932, no dudó en especializarse en ingeniería eléctrica.

Después de graduarse en 1936, Shannon fue directamente al MIT para ocupar un puesto de trabajo y estudio que había visto anunciado en una postal pegada a un tablero de anuncios del campus. Dedicaría la mitad de su tiempo a obtener una maestría en ingeniería eléctrica y la otra mitad a trabajar como asistente de laboratorio para el pionero de la computación Vannevar Bush, vicepresidente y decano de ingeniería del MIT. Bush le dio a Shannon la responsabilidad del analizador diferencial, un elaborado sistema de engranajes, poleas y varillas que ocupaba la mayor parte de una gran habitación, y que posiblemente era la máquina de computación más poderosa del planeta en ese momento ( ver Computación después del silicio , TR mayo / junio de 2000 ).



Concebido por Bush y sus estudiantes a fines de la década de 1920, y completado en 1931, el Analizador diferencial era una computadora analógica. No representaba variables matemáticas con unos y ceros, como hacen las computadoras digitales, sino mediante un rango continuo de valores: la rotación física de las varillas. El trabajo de Shannon consistía en ayudar a los científicos visitantes a programar sus problemas en el analizador reorganizando los enlaces mecánicos entre las varillas para que sus movimientos correspondieran a las ecuaciones matemáticas apropiadas.

Shannon no podría haber pedido un trabajo más adecuado a su amor por los movimientos divertidos. Se sintió especialmente atraído por el circuito de control maravillosamente complicado del analizador, que constaba de unos cien relés-interruptores que podían abrirse y cerrarse automáticamente mediante un electroimán. Pero lo que le intrigó especialmente fue lo mucho que se parecía el funcionamiento de los relés al funcionamiento de la lógica simbólica, un tema que acababa de estudiar durante su último año en Michigan. Cada interruptor estaba cerrado o abierto, una elección que correspondía
exactamente a la opción binaria en lógica, donde una declaración era verdadera o falsa. Además, Shannon rápidamente se dio cuenta de que los interruptores combinados en circuitos podían realizar operaciones estándar de lógica simbólica. Aparentemente, la analogía nunca se había reconocido antes. Así que Shannon lo convirtió en el tema de su tesis de maestría y pasó la mayor parte de 1937 trabajando en las implicaciones. Más tarde le dijo a un entrevistador que se divertía más haciendo eso que cualquier otra cosa en mi vida.

¿Verdadero o falso?

Ciertamente, su disertación, Un análisis simbólico de circuitos de conmutación y relés, es una lectura convincente, especialmente dado lo que sucedió en los más de 60 años desde que fue escrita. Como un aparte hacia el final, por ejemplo, Shannon señaló que los valores lógicos verdadero y falso podrían igualmente ser denotados por los dígitos numéricos 1 y 0. Esta realización significó que los relés podrían realizar las operaciones arcanas de la aritmética binaria. . Por lo tanto, escribió Shannon, es posible realizar operaciones matemáticas complejas por medio de circuitos de relé. Como ilustración, Shannon mostró el diseño de un circuito que podría sumar números binarios.

Aún más importante, Shannon se dio cuenta de que ese circuito también podría hacer comparaciones. Vio la posibilidad de un dispositivo que pudiera tomar cursos de acción alternativos de acuerdo con las circunstancias, como en, si el número X es igual al número Y, entonces realice la operación A. Shannon dio una ilustración simple de esta posibilidad en su tesis mostrando cómo el relé los interruptores se pueden arreglar para producir una cerradura que se abre si y solo si se presiona una serie de botones en el orden correcto.

Las implicaciones eran profundas: un circuito de conmutación podía decidir, una habilidad que alguna vez pareció única a los seres vivos. En los años venideros, la perspectiva de las máquinas de toma de decisiones inspiraría todo el campo de la inteligencia artificial, el intento de modelar el pensamiento humano a través de la computadora. Y quizás no por casualidad, ese campo fascinaría a Claude Shannon por el resto de su vida.

Sin embargo, desde un punto de vista más inmediato, la capacidad de un circuito de conmutación para decidir era lo que haría que las computadoras digitales que surgieron después de la Segunda Guerra Mundial fueran algo fundamentalmente nuevo. No eran sus habilidades matemáticas per se lo que los contemporáneos encontraban tan sorprendentes (aunque las máquinas eran ciertamente muy rápidas); Incluso en la década de 1940, el mundo estaba lleno de calculadoras de escritorio electromecánicas que podían hacer sumas y restas simples. La parte asombrosa fue la capacidad de las nuevas computadoras para operar bajo el control de un programa interno, decidiendo entre varias alternativas y ejecutando secuencias complejas de comandos por sí mismas.

Por todo ello, Un análisis simbólico de circuitos de conmutación y relés, publicado en 1938, ha sido calificado como la tesis de maestría más importante del siglo XX. Cuando tenía poco más de 20 años, Claude Shannon había tenido el conocimiento crucial para organizar las operaciones internas de una computadora moderna, casi una década antes de que existieran tales computadoras. En los años intermedios, la tecnología de conmutación ha progresado desde relés electromecánicos hasta transistores microscópicos grabados en silicio. Pero hasta el día de hoy, los diseñadores de microchips todavía hablan y piensan en términos de la lógica interna de sus chips, un concepto que nace en gran parte del trabajo de Shannon.

Información perfecta

que tan lejos esta la estrella mas cercana

Con el apoyo de Vannevar Bush, Shannon decidió continuar su maestría con un doctorado en matemáticas, una tarea que completó en apenas un año y medio. Poco después de recibir este título en la primavera de 1940, se unió a Bell Labs. Dado que la entrada de Estados Unidos en la Segunda Guerra Mundial era claramente solo una cuestión de tiempo, Shannon inmediatamente se puso a trabajar en proyectos militares como el control de incendios antiaéreos y la criptografía (creación y descifrado de códigos).

No obstante, Shannon siempre encontraba tiempo para trabajar en la teoría fundamental de las comunicaciones, un tema que había despertado su interés varios años antes. De vez en cuando, Shannon le había escrito a Bush en febrero de 1939, en una carta que ahora se conserva en los archivos de la Biblioteca del Congreso, he estado trabajando en un análisis de algunas de las propiedades fundamentales de los sistemas generales para la transmisión de inteligencia, incluida la telefonía, radio, televisión, telegrafía, etc. Para avanzar hacia ese objetivo, necesitaba una forma de especificar lo que se estaba transmitiendo durante el acto de comunicación.

Basándose en el trabajo del ingeniero de Bell Labs Ralph Hartley, Shannon formuló una expresión matemática rigurosa para el concepto de información. Al menos en los casos más simples, dijo Shannon, el contenido de información de un mensaje era el número de unos y ceros binarios necesarios para codificarlo. Si supiera de antemano que un mensaje transmitiría una elección simple, sí o no, verdadero o falso, entonces un dígito binario sería suficiente: un solo uno o un solo cero le dijo todo lo que necesitaba saber. Por tanto, el mensaje se definiría para tener una unidad de información. Un mensaje más complicado, por otro lado, requeriría más dígitos para codificar y contendría mucha más información; piense en los miles o millones de unos y ceros que componen un archivo de procesamiento de texto.

Como Shannon se dio cuenta, esta definición tenía sus aspectos perversos. Un mensaje puede llevar sólo una unidad binaria de información, sí, pero un mundo de significado, como en Sí, me casaré contigo. Pero el trabajo de los ingenieros consistía en llevar los datos de aquí para allá con un mínimo de distorsión, independientemente de su contenido. Y para ello, la definición digital de información era ideal, porque permitía un análisis matemático preciso. ¿Cuáles son los límites de la capacidad de un canal de comunicación? ¿Qué cantidad de esa capacidad puede utilizar en la práctica? ¿Cuáles son las formas más eficientes de codificar información para su transmisión en la inevitable presencia de ruido?

A juzgar por sus comentarios muchos años después, Shannon ya había esbozado sus respuestas a tales preguntas en 1943. Sin embargo, curiosamente, parece que no sintió la urgencia de compartir esas ideas; algunos de sus asociados más cercanos en ese momento juran que no tenían ni idea de que estaba trabajando en la teoría de la información. Tampoco tenía prisa por publicar y así asegurarse el crédito por el trabajo. Estaba más motivado por la curiosidad, explicó en su entrevista de 1987, y agregó que el proceso de escribir para su publicación fue doloroso. Al final, sin embargo, Shannon superó su desgana. El resultado: el innovador artículo A Mathematical Theory of Communication, que apareció en los números de julio y octubre de 1948 de la Revista técnica de Bell System .

Las ideas de Shannon explotaron con la fuerza de una bomba. Fue como un rayo de la nada, recuerda John Pierce, quien era uno de los mejores amigos de Shannon en Bell Labs y, sin embargo, estaba tan sorprendido por el periódico de Shannon como cualquiera. No conozco ninguna otra teoría que viniera en una forma completa como esa, con muy pocos antecedentes o historia. De hecho, había algo en esta noción de cuantificar la información que encendió la imaginación de la gente. Fue una revelación, dice Oliver Selfridge, que entonces era un estudiante de posgrado en el MIT. En el MIT, la reacción fue: ¡Brillante! ¿Por qué no pensé en eso?

Gran parte del poder de la idea de Shannon residía en la unificación de lo que había sido un grupo diverso de tecnologías. Hasta entonces, la comunicación no era una ciencia unificada, dice Gallager del MIT. Había un medio para la transmisión de voz, otro medio para la radio, otros más para los datos. Claude demostró que todas las comunicaciones eran fundamentalmente iguales y, además, que se podía tomar cualquier fuente y representarla mediante datos digitales.

Esa idea por sí sola habría convertido el artículo de Shannon en uno de los grandes logros analíticos del siglo XX. Pero hubo más. Suponga que intenta enviar, digamos, un saludo de cumpleaños a través de una línea de telégrafo, a través de un enlace inalámbrico, o incluso en el correo de los EE. UU. Shannon pudo demostrar que cualquier canal de comunicación de este tipo tenía un límite de velocidad, medido en dígitos binarios por segundo. La mala noticia era que por encima de ese límite de velocidad, la fidelidad perfecta era imposible: no importa qué tan hábilmente codificara y comprimiera su mensaje, simplemente no podía hacerlo ir más rápido sin tirar algo de información.

Sin embargo, la buena noticia alucinante fue que por debajo de este límite de velocidad, la transmisión era potencialmente perfecta. No solo muy bueno: perfecto. Shannon dio una prueba matemática de que tenía que existir códigos que te permitieran llegar al límite sin perder ninguna información. Además, demostró que la transmisión perfecta sería posible sin importar cuánta estática y distorsión pueda haber en el canal de comunicación, y sin importar cuán débil sea la señal. Por supuesto, es posible que deba codificar cada letra o píxel con una gran cantidad de bits para garantizar que se transmitan suficientes. Y es posible que deba idear todo tipo de esquemas sofisticados de corrección de errores para que las partes dañadas del mensaje puedan reconstruirse en el otro extremo. Y sí, en la práctica, los códigos eventualmente se volverían tan largos y la comunicación tan lenta que tendrías que rendirte y dejar que el ruido ganara. Pero, en principio, puede hacer que la probabilidad de error sea tan cercana a cero como desee.

Este teorema fundamental de la teoría de la información, como lo llamó Shannon, lo había sorprendido incluso a él cuando lo descubrió. La conquista del ruido parecía violar todo sentido común. Pero para sus contemporáneos en 1948, al ver el teorema por primera vez, el efecto fue electrizante. ¿Hacer que la posibilidad de error sea tan pequeña como desee? Nadie había pensado nunca en eso, se maravilla Robert Fano del MIT, quien se convirtió en un destacado teórico de la información en la década de 1950, y que todavía tiene una fotografía reverencial de Shannon colgada en su oficina. Cómo consiguió esa idea, cómo llegó a creer tal cosa, no lo sé. Pero casi toda la ingeniería de comunicaciones moderna se basa en ese trabajo.

El trabajo de Shannon pende sobre todo lo que hacemos, concuerda Robert Lucky, vicepresidente corporativo de investigación aplicada en Telcordia, la escisión de Bell Labs anteriormente conocida como Bellcore. De hecho, señala, el teorema fundamental de Shannon ha servido como un ideal y un desafío para las generaciones venideras. Durante 50 años, la gente ha trabajado para llegar a la capacidad del canal que él dijo que era posible. Solo recientemente nos hemos acercado. Su influencia fue profunda.

Y, añade Lucky, el trabajo de Shannon inspiró el desarrollo de todos nuestros códigos modernos de corrección de errores y algoritmos de compresión de datos. En otras palabras: sin Shannon, sin Napster.

El teorema de Shannon explica cómo podemos lanzar discos compactos casualmente de una manera que nadie se habría atrevido con discos de vinilo de larga duración: esos códigos de corrección de errores permiten que el reproductor de CD prácticamente elimine el ruido debido a los arañazos y las huellas digitales antes de que lo escuchemos. . El teorema de Shannon también explica cómo los módems de computadora pueden transmitir datos comprimidos a decenas de miles de bits por segundo a través de líneas telefónicas ordinarias plagadas de ruido. Explica cómo los científicos de la NASA pudieron obtener imágenes del planeta Neptuno de regreso a la Tierra a través de tres mil millones de kilómetros de espacio interplanetario. Y explica en gran medida por qué la palabra digital se ha convertido en sinónimo del estándar más alto posible en calidad de datos.

Apagando

Los elogios por el trabajo de Shannon no tardaron en llegar. Warren Weaver, director de la División de Ciencias Naturales de la Fundación Rockefeller, declaró que la teoría de la información abarca todos los procedimientos por los cuales una mente puede afectar a otra, incluyendo no solo el habla oral y escrita, sino también la música, las artes pictóricas, el teatro, el ballet. , y de hecho todo el comportamiento humano. La revista Fortune apenas pudo contener su entusiasmo, calificando la teoría de la información como una de las creaciones más orgullosas y raras del hombre, una gran teoría científica que podría alterar profunda y rápidamente la visión del mundo del hombre. El propio Shannon pronto tuvo que reservar una habitación entera en su casa solo para guardar todas sus citas, placas y testimonios.

Sin embargo, al cabo de uno o dos años de la publicación de su artículo, Shannon se horrorizó al descubrir que la teoría de la información se estaba volviendo ... bueno, popular. La gente decía cosas ridículas sobre la cantidad de información que sale del sol, o incluso el contenido de información del ruido. Los científicos presentaban solicitudes de subvenciones que se referían a la teoría de la información, independientemente de que sus propuestas tuvieran algo que ver con ella o no. La teoría de la información se estaba convirtiendo en una palabra de moda, al igual que la inteligencia artificial, el caos y la complejidad en las décadas de 1980 y 1990. Y Shannon lo odiaba. En un artículo de 1956 titulado The Bandwagon, en la revista Transacciones sobre la teoría de la información , declaró que la teoría de la información estaba siendo sobrevendida en gran medida. Quizás se haya disparado a una importancia más allá de sus logros reales, escribió.

En lugar de continuar luchando en lo que sabía que era una batalla perdida, Shannon se retiró. Aunque continuó, durante un tiempo, su investigación sobre la teoría de la información, rechazó casi todas las invitaciones interminables para dar conferencias o dar entrevistas en los periódicos; no quería ser una celebridad. Asimismo, dejó de responder a gran parte de su correo. La correspondencia de las principales figuras de la ciencia y el gobierno terminó olvidada y sin respuesta en una carpeta de archivo que denominó Cartas que procrastiné demasiado. Con el paso de los años, de hecho, Shannon comenzó a alejarse no solo del ojo público sino también de la comunidad de investigadores, una actitud que preocupó a sus colegas del MIT, que lo habían contratado en Bell Labs en 1958. Escribió hermosos artículos. cuando escribió, dice Fano del MIT. Y dio hermosas charlas, cuando dio una charla. Pero odiaba hacerlo.

De vez en cuando, Shannon continuó publicando. Un ejemplo notable, antes de que se horrorizara demasiado por su celebridad y se retirara más completamente, fue un artículo fundamental de 1950 para Científico americano describir cómo se puede programar una computadora para jugar al ajedrez. Pero poco a poco se fue desvaneciendo de la escena académica, recuerda Peter Elias, otro líder del grupo de teoría de la información del MIT. La visión de la enseñanza de Claude era dar una serie de charlas sobre investigación que nadie más conocía. Pero ese ritmo fue muy exigente; en efecto, se le ocurría un trabajo de investigación cada semana. A mediados de la década de 1960, recuerda Elias, Shannon había dejado de enseñar.

Después de su retiro oficial en 1978, a los 62 años, Shannon se retiró felizmente a su casa en el suburbio de Winchester, MA en Boston. El dinero no era una preocupación; gracias a su conocimiento de las industrias de alta tecnología que surgían alrededor de la Ruta 128 de Boston, había realizado algunas inversiones astutas en el mercado de valores. Tampoco pareció haber disminuido su ingenio. ¡Todavía construía cosas! recuerda a Betty Shannon riendo. Uno era una ... figura de W. C. Fields que hacía rebotar tres bolas en un parche. Hizo un gran ruido, ¡déjame decirte!
No obstante, llegó un momento alrededor de 1985 cuando él y Betty comenzaron a notar ciertos lapsos. Iría a dar una vuelta y se olvidaría de cómo llegar a casa. En 1992, cuando el Instituto de Ingenieros Eléctricos y Electrónicos se estaba preparando para publicar sus artículos recopilados, Shannon se molestó al darse cuenta de que no recordaba haber escrito muchos de ellos. Y a mediados de 1993, cuando su condición se hizo evidente para todos, la familia confirmó lo que muchos habían comenzado a sospechar: Claude Shannon tenía la enfermedad de Alzheimer. Más tarde, ese mismo año, su familia lo colocó a regañadientes en un hogar de ancianos.

En 1998, cuando su ciudad natal de Gaylord, MI, conmemoró el 50 aniversario de la teoría de la información al revelar un busto de su creador en un parque de la ciudad, Betty Shannon agradeció a la ciudad en su lugar. Físicamente, dice ella, estuvo bien casi hasta el final, cuando todo pareció derrumbarse a la vez. Pero el 24 de febrero, apenas dos meses antes del 85 cumpleaños de Shannon, llegó el final. La respuesta a su muerte ha sido abrumadora, dice ella. Creo que lo habría asombrado.

esconder

Tecnologías Reales

Categoría

Sin Categorizar

Tecnología

Biotecnología

Política De Tecnología

Cambio Climático

Humanos Y Tecnología

Silicon Valley

Informática

Revista Mit News

Inteligencia Artificial

Espacio

Ciudades Inteligentes

Blockchain

Artículo De Fondo

Perfil De Exalumnos

Conexión De Exalumnos

Característica De Noticias Del Mit

1865

Mi Vista

77 Mass Ave

Conoce Al Autor

Perfiles De Generosidad

Visto En El Campus

Cartas De Exalumnos

Función De Noticias Del Mit

Cadena De Bloques

Perfil De Ex Alumnos

77 Avenida De Masas

Política Tecnológica

Perfiles En Generosidad

Noticias

Revista De Noticias Del Mit

Elecciones 2020

Con Índice

Bajo La Cúpula

Manguera

Historias Infinitas

Proyecto De Tecnología Pandémica

Del Presidente

Artículo De Portada

Galería De Fotos

Recomendado