¿El fin de la ley de Moore?

Desde la perspectiva de hoy, parece claro que Gordon Moore tuvo suerte. Allá por 1965, Electrónica La revista le pidió a Moore, entonces director de investigación del pionero de la electrónica Fairchild Semiconductor, que pronosticara el futuro de la industria de los microchips. En ese momento, la industria estaba en su infancia; Intel, ahora el mayor fabricante de chips del mundo, no sería fundado (por Moore, entre otros) hasta dentro de tres años. Debido a que se habían fabricado y vendido pocos chips, Moore tenía pocos datos para continuar. No obstante, argumentó con confianza que los ingenieros podrían meter un número cada vez mayor de dispositivos electrónicos en microchips. De hecho, supuso que el número se duplicaría aproximadamente cada año, un aumento exponencial que se conoce como Ley de Moore.



Al principio, pocos prestaron atención a la predicción de Moore. El propio Moore admitió que no le dio mucha importancia; solo había estado tratando de transmitir la idea [de que] se trataba de una tecnología que tenía futuro. Pero los acontecimientos le dieron la razón. En 1965, cuando Moore escribió su artículo, el chip más complejo del mundo estaba en su laboratorio de Fairchild: tenía 64 transistores. El nuevo modelo Pentium III de Intel, presentado en octubre pasado, contiene 28 millones de transistores. Lillian Hoddeson y Michael Riordan escriben en Crystal Fire, la explosión sostenida de la complejidad del microchip, que duplica año tras año, década tras década, su historia del transistor, no tiene un paralelo o análogo conveniente en la experiencia humana normal.

El efecto de la ley de Moore en la vida diaria es obvio. Es por eso que la computadora personal de hoy de $ 3,000 costará $ 1,500 el próximo año y quedará obsoleta el año siguiente. Es por eso que los niños que crecieron jugando al Pong en las salas de juegos tienen niños que crecieron jugando a Quake en Internet. Es por eso que el programa de procesamiento de texto que cabía en dos disquetes hace una década ahora llena la mitad de un CD-ROM; de hecho, explica por qué los disquetes casi han sido reemplazados por CD-ROM, CD-R y CD- RWs.





Pero estos ejemplos, por sorprendentes que sean, pueden subestimar la importancia de la Ley de Moore. Estados Unidos está experimentando el auge económico más largo desde la década de 1850, cuando el gobierno federal comenzó a recopilar estadísticas económicas de manera sistemática. La combinación actual de crecimiento constante y baja inflación es tan inusualmente favorable que muchos economistas creen que la nación está experimentando un cambio fundamental. Y el factor más importante que impulsa el cambio, dicen estos economistas, es el implacable aumento de la potencia de los chips. Lo que a veces se llama el 'boom económico de Clinton', dice Robert Gordon, economista de la Universidad Northwestern, es en gran medida un reflejo de la Ley de Moore. De hecho, dice, la reciente aceleración de la productividad es al menos la mitad debido a las mejoras en la productividad de las computadoras.

Si Gordon tiene razón, es lamentable que justo cuando los economistas comienzan a comprender la importancia de la Ley de Moore, los ingenieros comienzan a decir que está en peligro de desaparecer.

Se suele decir que la era de la electrónica digital comenzó en 1947, cuando un equipo de investigación de Bell Laboratories diseñó el primer transistor. Pero la Ley de Moore, la fuerza impulsora de la era digital, está vinculada a otro hito menos conocido: la invención del circuito integrado. John Bardeen, Walter Brattain y William Shockley ganaron el Premio Nobel por el transistor. Jack Kilby, el ingeniero de Texas Instruments que ideó el circuito integrado, no ganó nada. Pero en muchos sentidos fue su creación, no el transistor, lo que más sacudió al mundo.



En mayo de 1958, Texas Instruments, la empresa pionera en el transistor de silicio, contrató a Kilby. La empresa tenía una política de vacaciones masivas; casi todo el mundo fue expulsado de la oficina durante las primeras semanas de julio. Kilby, recién contratado, no tenía tiempo libre. Se encontró casi solo en la planta desierta.

Se acababan de inventar transistores, diodos, condensadores y otros dispositivos electrónicos ahora familiares, pero algunas personas con visión de futuro, muchas de ellas en el Pentágono, estaban pensando en unir estos componentes individuales en circuitos más complejos. Texas Instruments estaba tratando de conectarse con el programa Micro-Module del Ejército, en el que los componentes individuales se construían en pequeñas obleas y se apilaban como fichas de póquer. Kilby pensó que este enfoque era ridículo, un torpe, en la jerga de los ingenieros. Para cuando un módulo fuera lo suficientemente grande como para hacer algo interesante, la pila de obleas sería ridículamente grande y engorrosa.

El 24 de julio, exactamente un mes después de que Bell Labs celebrara el décimo aniversario de la presentación pública del transistor inspirado, visitó Kilby en la fábrica vacía. En lugar de conectar los componentes en módulos, escribió en su cuaderno de laboratorio, los ingenieros deberían dispersar resistencias, condensadores y transistores y diodos en una sola rebanada de silicio. Las historias clásicas de los inventores suelen incluir un capítulo sobre cómo la dirección ignora la nueva y brillante idea del inventor. En Texas Instruments, el jefe de Kilby le pidió inmediatamente que construyera un prototipo. En septiembre, Kilby había reunido uno. Fue simple y tosco, pero funcionó. La compañía solicitó una patente para su revolucionario circuito sólido en febrero de 1959.

Dos semanas antes de la presentación, se le ocurrió una idea similar a Robert Noyce, un ingeniero de Fairchild Semiconductor, una de las primeras firmas de tecnología de nueva creación en Silicon Valley. (Noyce y Moore dejarían más tarde a Fairchild para fundar Intel.) Mientras que Kilby había enlazado los componentes de su circuito integrado con cables de oro y soldadura, Noyce se dio cuenta de que las conexiones se podían pintar en el silicio con una especie de plantilla, una fotomicrolitografía, para ser preciso. Los jefes de Noyce, como Kilby, estaban entusiasmados. Y en julio, Fairchild también solicitó una patente.



El litigio se produjo inevitablemente. Duró 10 años y terminó con las empresas peleando por un empate. Pero mientras los abogados argumentaban, ambas empresas se apresuraron a crear chips de circuitos integrados cada vez más sofisticados, como se les llegó a llamar. El primer chip apareció en el mercado en 1961, con un reconocimiento menos que universal; Los ingenieros, acostumbrados a diseñar sus propios circuitos, inicialmente consideraron estos artilugios prefabricados como una molestia. Pero las empresas siguieron adelante. En 1964, algunos chips tenían hasta 32 transistores; cuando Moore escribió su artículo en 1965, un chip en su laboratorio de I + D tenía el doble.

Un componente (1959), 32 (1964), 64 (1965) -Moore puso estos números en un gráfico y conectó los puntos con una línea. La complejidad [de los circuitos integrados baratos] ha aumentado a una tasa de aproximadamente un factor de dos por año, escribió. Luego sacó una regla y extendió la línea hacia el futuro. Salió de la parte superior de su gráfico y entró en la estratosfera. A más largo plazo ..., argumentó Moore, no hay razón para creer que [la tasa de aumento] no se mantendrá constante durante al menos 10 años. En otras palabras, las empresas que estaban trabajando para crear microchips con 64 componentes en una década estarían fabricando microchips con más de 65.000 componentes, un salto de más de tres órdenes de magnitud.

La ley de Moore no era, por supuesto, una ley de la naturaleza. Era más como una regla de oro de un ingeniero, capturando el patrón que Moore había discernido en los primeros datos sobre la producción de microchips. Pero con o sin ley, en 1975 los ingenieros diseñaban y fabricaban chips mil veces más complejos de lo que había sido posible tan solo diez años antes, tal como había predicho Moore. Ese año, Moore revisó su predicción en la Reunión Internacional Anual de Dispositivos Electrónicos del Instituto de Ingenieros Eléctricos y Electrónicos, la asociación profesional de ingenieros eléctricos. Reconociendo la creciente dificultad del proceso de fabricación de chips, Moore revisó ligeramente su ley. A partir de ese momento, dijo, la cantidad de dispositivos en un chip se duplicaría cada dos años. Esta predicción también resultó correcta. Hoy en día, algunas personas dividen la diferencia y dicen que la complejidad del microchip se duplicará cada 18 meses; otras personas aplican libremente el término Ley de Moore a cualquier aspecto de la informática que mejore rápidamente, como el almacenamiento de memoria o el ancho de banda.

A pesar de la imprecisión sobre lo que dice exactamente la Ley de Moore, su esencia es indiscutible: los precios de las computadoras han caído incluso cuando las capacidades de las computadoras han aumentado. A primera vista, esto no es sorprendente. Aunque los gurús digitales a menudo anuncian la llegada de mejores productos a menores costos como una bendición sin precedentes, de hecho es un lugar económico común. Un automóvil de 1906, que según los estándares actuales apenas funciona, costaba entonces el equivalente a 52.640 dólares, según un estudio de Daniel Raff de la Wharton School of Business y Manuel Trajtenberg de la Universidad de Tel Aviv. No obstante, los gurús digitales tienen razón. Las mejoras en los chips de computadora han sido un maná del cielo sin precedentes, en la frase de Erik Brynjolfson, economista de la Sloan School of Management del MIT. Es esta afortunada combinación de geometría, física e ingeniería, dice. La innovación técnica es normal, pero la velocidad a la que se produce es muy inusual.

Atraído por productos que mejoran rápidamente a precios que caen rápidamente, el gasto estadounidense en computadoras ha aumentado durante los últimos veinte años a un promedio anual del 24 por ciento, una ley de Moore propia. En 1999, las empresas estadounidenses gastaron 220.000 millones de dólares en hardware y periféricos informáticos, más de lo que invirtieron en fábricas, vehículos o cualquier otro tipo de equipo duradero. Las computadoras se volvieron tan omnipresentes y poderosas que se convirtió en un lugar común escuchar la afirmación de que la nación estaba en medio de una revolución digital. La Ley de Moore, afirman los expertos, ha creado una nueva economía.

Tal vez sea así, pero durante varios años la evidencia no pareció estar allí. Como todo el mundo, los economistas habían estado descubriendo las maravillas de las económicas cajas beige que ahora tenían en sus escritorios. Siguieron esperando ver las recompensas de la informática aparecer en las estadísticas del gobierno sobre ingresos, ganancias y productividad. Pero no sucedió. A lo largo de la década de los ochenta y la primera parte de la de los noventa, la enorme inversión nacional en tecnología digital pareció no dar resultados; La Ley de Moore terminó aumentando las ganancias de los fabricantes de chips, pero casi nadie más. Vemos la era de las computadoras en todas partes, excepto en las estadísticas de productividad, comentó el economista del MIT ganador del Premio Nobel Robert M. Solow en 1987.

El rompecabezas, enormes gastos con pocos beneficios aparentes, se conoció como la paradoja de la productividad. Algunos investigadores argumentaron que estas nuevas maravillas técnicas no solo no eran útiles, sino que en realidad podrían ser perjudiciales. Desde 1980, las industrias de servicios por sí solas han gastado más de un billón de dólares en hardware y software de computadoras. Sin embargo, Stephen S. Roach, economista jefe de Morgan Stanley, sugirió en 1991 que esto simplemente había transformado el sector de servicios de una industria caracterizada por costos laborales variables a una que estaba cada vez más dominada por costos fijos de hardware. La parte menos productiva de la economía, argumentó Roach, [es] la más dotada de capital de alta tecnología: cuantas más computadoras, en otras palabras, menos valor.

Mire las cajas del hotel, dice Lester Thurow, uno de los colegas de Brynjolfson en Sloan. Ahora están completamente informatizados, pero nadie parece estar haciendo nada más rápido. Lo mismo en el supermercado: esperas en la fila tanto tiempo como antes. Para Thurow, el sector de servicios, que representa casi las tres cuartas partes de la economía, parece a primera vista haber absorbido grandes cantidades de potencia informática sin dejar rastro.

Nadie podría entenderlo, dice Hal Varian, economista de la Escuela de Sistemas de Gestión de la Información de la Universidad de California, Berkeley (ver ¿Cuáles son las reglas, de todos modos? TR marzo / abril de 1999). A primera vista, las estadísticas que salían del gobierno decían que esta inversión masiva no tenía sentido. En el pasado, la innovación tecnológica ha aumentado casi invariablemente los niveles de vida: mire la electricidad, los ferrocarriles, los teléfonos, los antibióticos. Y aquí estaba la Ley de Moore, una innovación de una rapidez sin precedentes, que parecía no crear nada para el bienestar humano. Pero si las computadoras tenían tan poca recompensa, ¿por qué todos se apresuraban a comprar esas malditas cosas?

Para personas como Varian, lo que sucedió en la Comisión Federal de Comercio es un ejemplo de lo que debería haber estado sucediendo en todo el país. A mediados de la década de 1980, la FTC entregó una computadora personal a cada miembro del personal de la Oficina de Economía, su consejo asesor económico interno. Las computadoras tuvieron dos efectos, recuerda un ex economista de la FTC. Durante los primeros tres meses, los economistas pasaron muchas horas preocupándose por sus fuentes, es decir, por hacer que sus cartas y memorandos se vieran bonitos. Seis meses después, se deshicieron del grupo de taquigrafía.

Para los economistas, este es un ejemplo de libro de texto de aumento de la productividad. La agencia produjo la misma cantidad de informes con menos personas, lo que significa que la producción per cápita de economía fue mayor. (Más precisamente, este es un ejemplo de aumento de la productividad laboral; los economistas también usan otra medida más compleja, la productividad multifactorial, pero para la mayoría de los propósitos, los dos pueden tratarse juntos).

Distribuida por toda la economía, una mayor productividad significa salarios más altos, mayores ganancias, precios más bajos. Los aumentos de productividad no son necesariamente indoloros, como descubrieron los taquígrafos despedidos de la FTC. Pero la historia muestra que los trabajadores desplazados por la tecnología que mejora la productividad suelen encontrar otros trabajos mejores. A largo plazo, aumentar la productividad es fundamental para mejorar el nivel de vida nacional. En cierto sentido, dice Thurow, si solo pudiera conocer un número sobre una economía, le gustaría conocer el nivel y la tasa de crecimiento de la productividad, porque es la base de todo lo demás.

Después de la Segunda Guerra Mundial, Estados Unidos pasó décadas con un crecimiento de la productividad a una tasa promedio de casi un 3 por ciento al año, lo suficiente, en términos generales, para duplicar el nivel de vida en cada generación. En 1973, sin embargo, el crecimiento de la productividad se desaceleró repentinamente al 1,1 por ciento, muy por debajo de su nivel anterior. Nadie sabe por qué. La desaceleración de la productividad posterior a 1973, dice Jack Triplett del Brookings Institute, es un rompecabezas que hasta ahora ha resistido todos los intentos de solución.

Los efectos de la desaceleración, lamentablemente, son bien conocidos. A ese ritmo más lento, el nivel de vida se duplica en tres generaciones, no en una. El resultado fue el estancamiento. Los asalariados todavía ganaban aumentos, pero los empleadores, incapaces de absorber los costos adicionales con una mayor productividad, simplemente pasaron el aumento a precios más altos, lo que canceló el beneficio de salarios más altos. Como era de esperar, dicen los economistas, las improductivas décadas de 1970 y 1980 fueron años de inflación, recesión, desempleo, conflicto social y enormes déficits presupuestarios.

En 1995, la productividad volvió a cambiar de dirección. Sin ninguna fanfarria, comenzó a subir abruptamente a un ritmo promedio anual de casi el 2,2 por ciento, una gran mejora con respecto a los años ochenta, aunque todavía menos que en los sesenta. Al principio, la mayoría de los investigadores consideraron el aumento como un problema temporal. Pero gradualmente muchos se convencieron de que era duradero. Ciertamente fue algo que discutimos mucho en las reuniones [de la Junta de la Reserva Federal], dice Alice Rivlin, economista de Brookings que recientemente dejó la junta. ¿Sabes, 'este aumento es real?' A estas alturas, creo que la mayoría de los economistas creen que lo es. Las implicaciones, en su opinión, son enormes: el crecimiento renovado de la productividad significa que más personas tienen más probabilidades de lograr sus sueños.

Aunque Rivlin codirige un estudio de Brookings para determinar la causa del nuevo auge de la productividad, ella y muchos otros economistas creen que probablemente se deba a la informatización. La Ley de Moore, dice riendo, finalmente puede estar dando sus frutos.

Hay dos razones para esta creencia, dice Alan S. Blinder, economista de la Universidad de Princeton. En primer lugar, la aceleración de la productividad se produjo al mismo tiempo que una caída adicional repentina en los costos de las computadoras. En segundo lugar, la coincidencia de que la productividad aumentó justo cuando las empresas adoptaron Internet es demasiado grande para ignorarla.

A mediados de la década de los noventa, dice Blinder, la tasa de deflación de las computadoras pasó de menos 10 por ciento a menos 25 por ciento anual. Y aunque la industria de la computación es una pequeña fracción del PNB (menos del 2 por ciento), la caída de los costos ha sido tan severa que, como cuestión de aritmética, rebaja una parte notable del índice general de precios. De hecho, las recientes caídas en el precio de las computadoras son tan grandes que Gordon, el economista de Northwestern, sostiene que explican en gran medida el aumento en la productividad; excepto en la fabricación de bienes duraderos, la economía está estancada.

El argumento de Gordon es demasiado extremo, en opinión de Chris Varvares, presidente de Macroeconomic Advisers, una firma de modelos económicos en St. Louis. ¿Por qué las empresas invertirían en todo este equipo si no tuvieran la expectativa de un retorno? Y dado que ha durado tanto tiempo, ¿por qué no iban a tener la realidad? En cambio, dice, las computadoras e Internet finalmente están dando sus frutos en formas que las estadísticas pueden medir. Cuando los bancos introducen los cajeros automáticos, los beneficios no aparecen en las estadísticas gubernamentales. Los clientes bancarios están en mejor situación porque pueden retirar y depositar dinero en cualquier momento y en muchos más lugares. Pero el propio banco sigue haciendo lo que hacía antes. Los beneficios son capturados por los consumidores y no aparecen en el resultado final como resultado, dice Varvares. Sólo recientemente, argumenta, las computadoras alcanzaron una especie de masa crítica; los trabajadores tenían tanto poder digital en sus escritorios que se abrió camino en las estadísticas.

parches diabéticos en la piel

No todos los economistas están de acuerdo. Te gustaría poder contarte una historia sobre cómo algo podría ser verdad, dice Thurow. En este caso, ¿estamos diciendo que la gente de repente descubrió cómo usar las computadoras en 1996? No, dicen otros economistas, pero las empresas necesitan tiempo para adaptarse a las nuevas tecnologías. La electricidad tardó más de dos décadas en ejercer un impacto en la productividad, según el historiador económico de la Universidad de Stanford Paul A. David. Las computadoras simplemente encontraron el mismo retraso. Pero ahora, dice Brynjolfson, las computadoras son la tecnología individual más importante para mejorar los niveles de vida. Mientras continúe la Ley de Moore, deberíamos seguir mejorando. Mejorará la vida de nuestros hijos.

La explosión en el poder de las computadoras se ha vuelto tan importante para el futuro, dicen estos economistas, que todos deberían estar preocupados por los informes recientes de que la Ley de Moore podría detenerse por completo.

El fin de la Ley de Moore se ha predicho tantas veces que los rumores de su desaparición se han convertido en una broma de la industria. Sin embargo, las alarmas actuales pueden ser diferentes. Exprimir más y más dispositivos en un chip significa fabricar características que son cada vez más pequeñas. Los chips más nuevos de la industria tienen pasos de hasta 180 nanómetros (mil millonésimas de metro). Para adaptarse a la Ley de Moore, de acuerdo con la hoja de ruta bienal preparada el año pasado para la Asociación de la Industria de Semiconductores, los campos deben reducirse a 150 nanómetros para 2001 y a 100 nanómetros para 2005. Por desgracia, admitía la hoja de ruta, para llegar allí, la industria tienen que superar problemas fundamentales para los que no se conocen soluciones. Si las soluciones no se descubren rápidamente, Paul A. Packan, un investigador respetado de Intel, argumentó en septiembre pasado en la revista Science, la Ley de Moore estará en grave peligro.

Packan identificó tres desafíos principales. El primero implicó el uso de dopantes, impurezas que se mezclan con el silicio para aumentar su capacidad para retener áreas de carga eléctrica localizada. Aunque los transistores pueden encogerse de tamaño, los dispositivos más pequeños aún necesitan mantener la misma carga. Para hacer eso, el silicio debe tener una mayor concentración de átomos dopantes. Desafortunadamente, por encima de cierto límite, los átomos dopantes comienzan a agruparse, formando grupos que no son eléctricamente activos. No se puede aumentar la concentración de dopante, dice Packan, porque todos los extras simplemente van a los grupos. Las fichas de hoy, en su opinión, están muy cerca del máximo.

En segundo lugar, las puertas que controlan el flujo de electrones en los chips se han vuelto tan pequeñas que son presa de efectos cuánticos extraños e indeseables. Los físicos saben desde la década de 1920 que los electrones pueden atravesar barreras extremadamente pequeñas, apareciendo mágicamente en el otro lado. Las puertas de los chips son ahora más pequeñas que dos nanómetros, lo suficientemente pequeñas como para permitir que los electrones hagan un túnel a través de ellas incluso cuando están cerradas. Debido a que se supone que las puertas bloquean los electrones, la mecánica cuántica podría inutilizar los dispositivos de silicio más pequeños. Como dice Packan, la mecánica cuántica no es como una dificultad de fabricación ordinaria; nos encontramos con un obstáculo en el nivel más fundamental.

Los fabricantes de semiconductores también están entrando en conflicto con las estadísticas básicas. Los fabricantes de chips mezclan pequeñas cantidades de dopante en silicio de una manera análoga a la forma en que los fabricantes de pinturas mezclan unas gotas de beige con pintura blanca para crear un blanquecino cremoso. Cuando los propietarios pintan las paredes, el color parece uniforme. Pero si pudieran examinar una pequeña parte de la pared, verían ligeras variaciones de color causadas por fluctuaciones estadísticas en la concentración de pigmento beige. Cuando los componentes del microchip eran más grandes, las fluctuaciones similares en la concentración de dopante tenían poco efecto. Pero ahora los transistores son tan pequeños que pueden terminar en áreas ricas en dopantes o pobres en dopantes, afectando su comportamiento. También aquí, dice Packan, los ingenieros no tienen soluciones conocidas.

En última instancia, cree Packan, se pueden encontrar soluciones de ingeniería y procesamiento para salvar el día. Pero la Ley de Moore todavía tendrá que enfrentar lo que puede ser su desafío más abrumador: la Segunda Ley de Moore. En 1995, Moore revisó el progreso de los microchips en una conferencia de la Sociedad Internacional de Ingeniería Óptica. Aunque él, como Packan, vio obstáculos técnicos cada vez más difíciles para mantenerse en el camino predicho por su ley, estaba más preocupado por otra cosa: el costo creciente de fabricación de chips.

Cuando se fundó Intel en 1968, recordó Moore, el equipo necesario costaba aproximadamente 12.000 dólares. Hoy cuesta alrededor de $ 12 millones, pero todavía tiende a no procesar más obleas por hora que en 1968. Para producir chips, Intel ahora debe gastar miles de millones de dólares en la construcción de cada una de sus instalaciones de fabricación, y el gasto aumentará. sigue subiendo a medida que las fichas se vuelven más complejas. Los costos de capital están aumentando mucho más rápido que los ingresos, señaló Moore. En su opinión, el ritmo del progreso tecnológico va a estar controlado [por] las realidades financieras. Algunas innovaciones técnicas, es decir, pueden no ser económicamente viables, sin importar cuán deseables sean.

Rápidamente apodado Segunda Ley de Moore, este reconocimiento resultaría dolorosamente familiar para cualquier persona asociada con aviones supersónicos, trenes de levitación magnética, tránsito masivo de alta velocidad, aceleradores de partículas a gran escala y la multitud de otras maravillas tecnológicas que fueron estranguladas por los altos costos. Si se aplica a la Ley de Moore, la perspectiva es desalentadora. En los últimos 100 años, ingenieros y científicos han demostrado repetidamente cómo el ingenio humano puede acabar con las dificultades que plantean las leyes de la naturaleza. Pero han tenido mucho menos éxito a la hora de engañar a las leyes de la economía. (Lo imposible es fácil; es lo inviable lo que plantea el problema). Si la Ley de Moore se vuelve demasiado cara de mantener, dijo Moore, no hay un remedio fácil a la vista.

En realidad, eso no es todo lo que dijo. Moore también argumentó que la única industria remotamente comparable en su tasa de crecimiento a la industria de los microchips es la industria de la impresión. Alguna vez, los personajes individuales fueron esculpidos minuciosamente en piedra; ahora son aplastados por miles de millones casi sin costo alguno. La impresión, señaló Moore, transformó por completo la sociedad, creando y resolviendo problemas en escenarios que Gutenberg nunca podría haber imaginado. Impulsada por la Ley de Moore, sugirió, la tecnología de la información puede tener un impacto igualmente enorme. Si ese fuera el caso, la solución definitiva a los límites de la Ley de Moore puede provenir de la explosión misma del poder de la computadora predicha por la propia Ley de Moore, del torbellino de nuevos conocimientos, métodos y procesos creados por las computadoras de esta y las generaciones futuras.

La idea suena descabellada. Pero entonces la propia Ley de Moore sonaba descabellada en 1965.

esconder

Tecnologías Reales

Categoría

Sin Categorizar

Tecnología

Biotecnología

Política De Tecnología

Cambio Climático

Humanos Y Tecnología

Silicon Valley

Informática

Revista Mit News

Inteligencia Artificial

Espacio

Ciudades Inteligentes

Blockchain

Artículo De Fondo

Perfil De Exalumnos

Conexión De Exalumnos

Característica De Noticias Del Mit

1865

Mi Vista

77 Mass Ave

Conoce Al Autor

Perfiles De Generosidad

Visto En El Campus

Cartas De Exalumnos

Función De Noticias Del Mit

Cadena De Bloques

Perfil De Ex Alumnos

77 Avenida De Masas

Política Tecnológica

Perfiles En Generosidad

Noticias

Revista De Noticias Del Mit

Elecciones 2020

Con Índice

Bajo La Cúpula

Manguera

Historias Infinitas

Proyecto De Tecnología Pandémica

Del Presidente

Artículo De Portada

Galería De Fotos

Recomendado