Blogia
Nuevas Tecnologías

Documentos Unidad 1

Castells, Manuel: La era de la información -Cap.1

La revolución de la tecnología de la información

Manuel Castells


¿Cuál revolución?

"El gradualismo", escribió el paleontólogo Stephen J. Gould, "la idea de que todo cambio debe ser suave, lento y estable, no brotó de las rocas. Representaba un sesgo cultural común, en parte una respuesta del liberalismo del siglo diecinueve para un mundo en revolución. Pero continúa coloreando nuestra supuestamente objetiva lectura de la historia… …La historia de la vida, como yo la leo, es una serie de estadios estables, matizado por raros intervalos con grandes eventos que suceden con mucha rapidez y ayudan a establecer la siguiente era estable." Mi punto de partida, y no soy el único que tiene este supuesto,es que, al final del siglo veinte, estamos atravesando uno de esos raros intervalos en la historia. Un intervalo caracterizado por la transformación de nuestra "cultura material" por obra de un nuevo paradigma tecnológico organizado en torno a las tecnologías de la información.

Por tecnología entiendo exactamente lo que Harvey Brooks y Daniel Bell, "el uso de un conocimiento científico para especificar modos de hacer cosas de un modo reproducible" Entre las tecnologías de la información yo incluyo, como todos, el conjunto convergente de tecnologías en microelectrónica, computación (máquinas y software), telecomunicaciones/transmisiones, y la optoelectrónica. En suma, contrariamente a otros analistas, también incluyo en el reino de las tecnologías de la información a la ingeniería genética y su creciente conjunto de descubrimientos y aplicaciones. Esto es, primero, porque la ingeniería genética se ha concentrado en la decodificación, manipulación, y eventual reprogramación de los códigos de información de la materia viviente. Pero también porque, en los 90s, la biología, la electrónica, y la informática parecían estar convergiendo e interactuando en sus aplicaciones y en sus materiales, y , fundamentalmente, en su aproximación conceptual, un tema que merece más que una mención en este capítulo. Alrededor de este núcleo de tecnologías de la información, en el sentido amplio que fue definido, una constelación de importantes rupturas tecnológicas han tenido lugar en las dos últimas décadas del siglo veinte en materiales avanzados, en fuentes de energía, en aplicaciones médicas, en técnicas de manufactura (existentes o potenciales, como la nanotecnología), y en la tecnología de la transportación, entre otras. Por otra parte, el actual proceso de transformación tecnológica se expande exponencialmente por su habilidad para crear una interfaz entre los campos tecnológicos a través de un lenguaje digital común en el que la información es generada, almacenada, recuperada, procesada y retransmitida. Vivimos en un mundo que, siguiendo la expresión de Nicolás Negroponte, se ha vuelto digital.

La profética optimista y la manipulación ideológica que caracteriza la mayor parte de los discursos sobre la revolución de la tecnología de la información no debe llevarnos equivocadamente a desestimar su verdadera significación. Es un evento histórico tan importante, como este libro tratará de mostrar, como lo fue la Revolución Industrial en el siglo dieciocho, induciendo un patrón de discontinuidad en la base material de la economía, la sociedad, y la cultura. El registro histórico de las revoluciones tecnológicas, tal como fuera compilado por Melvin Kranzberg y Carroll Pursell, muestra que todos se caracterizan por su penetración en todos los dominios de la actividad humana, no como una fuente exógena de impacto, sino como el género con el que esta actividad está tejida. En otras palabras, están orientadas según procesos, además de inducir nuevos productos. Por otra parte, y a diferencia de cualquier revolución, el núcleo de la transformación que estamos experimentando en la revolución actual refiere a las tecnologías del procesamiento y comunicación de la información. La tecnología de la información es para esta revolución lo que las nuevas fuentes de energía fueron para las sucesivas Revoluciones Industriales, desde la máquina al vapor a la electricidad, combustibles fósiles, e incluso la energía nuclear, desde que la generación y distribución de la energía fue el elemento clave subyacente a la sociedad industrial. Sin embargo, este planteo acerca del rol preeminente de la tecnología de la información es frecuentemente confundido con la caracterización de la revolución en curso como esencialmente dependiente de nuevos conocimientos e información. Esto es cierto en el actual proceso de cambio tecnológico, pero también lo es para las revoluciones tecnológicas precedentes, como es demostrado por los principales historiadores de la tecnología, como Melvin Kranzberg y Joel Mokyr. La primer Revolución Industrial, si bien no tuvo bases científicas, se apoyó en el uso extendido de la información, aplicando y desarrollando conocimientos preexistentes. Y la segunda Revolución Industrial, después de 1850, estuvo caracterizada por el rol decisivo de la ciencia en incentivar la innovación. Por cierto, los laboratorios de investigación y desarrollo surgieron por primera vez en la industria química alemana en las últimas décadas del siglo diecinueve.

Lo que caracteriza la revolución tecnológica actual no es la centralidad del conocimiento y la información, sino la aplicación de ese conocimiento e información a la generación de conocimiento y los dispositivos de procesamiento/ comunicación de la información, en un circuito de retroalimentación acumulativa que se da entre la innovación y los usos de la innovación. Un ejemplo quizá pueda esclarecer este análisis. Los usos de nuevas tecnologías de telecomunicación en las dos últimas décadas han atravesado tres etapas diferentes: la automatización de tareas, la experimentación de usos, la reconfiguración de las aplicaciones. En las dos primeras etapas, la innovación tecnológica progresó en función del aprendizaje por uso, según la terminología de Rosemberg. En la tercer etapa, los usuarios aprendieron la tecnología haciendo, y terminaron reconfigurando las redes, y encontrando nuevas aplicaciones. El proceso de retroalimentación generado entre la introducción de nueva tecnología, su uso y su desarrollo hacia nuevos territorios se produce mucho más rápidamente bajo el nuevo paradigma tecnológico. Como resultado, la difusión de la tecnología amplía sin límites el poder de la tecnología, al ser apropiada y redefinida por sus usuarios. Las nuevas tecnologías de la información no son simples herramientas para ser aplicadas, sino que son procesos para ser desarrollados. Usuarios y hacedores pueden llegar a ser la misma cosa. Por tanto los usuarios pueden tomar el control de la tecnología, como en el caso de Internet (ver capítulo 5). Luego sigue una estrecha relación entre los procesos sociales de creación y manipulación de símbolos (la cultura de la sociedad) y la capacidad para producir y distribuir bienes y servicios (las fuerzas productivas). Por primera vez en la historia, la mente humana es una fuerza productiva directa, no solo un elemento decisivo del sistema de producción.

Por lo tanto, las computadoras, los sistemas de comunicación, y la decodificación y programación genética son todos amplificadores y extensiones de la mente humana. Lo que pensamos, y cómo lo pensamos, es expresado en bienes, servicios, output material e intelectual, ya sea comida, refugio, sistema de transporte y de comunicación, computadoras, misiles, salud, educación o imágenes. La creciente integración entre mentes y máquinas, incluyendo la máquina ADN, está cancelando lo que Bruce Mazlish llama la "cuarta discontinuidad" (entre humanos y máquinas), alterando fundamentalmente el modo en que nacemos, vivimos, aprendemos, trabajamos, producimos, consumimos, soñamos, peleamos, o morimos. Por supuesto los contextos culturales/institucionales y la acción social intencionada interactúan decisivamente con el nuevo sistema tecnológico, pero este sistema tiene su propia lógica enclavada, caracterizada por la capacidad de trasladar todos los inputs en un sistema común de información, y de procesar esa información a una velocidad creciente, con poder creciente, a costo decreciente, en una red de recuperación y distribución potencialmente ubicua.

Hay un elemento más caracterizando la revolución de la tecnología de la información en comparación con sus predecesoras históricas. Mokyr ha mostrado que las revoluciones tecnológicas tuvieron lugar solo en unas pocas sociedades, y se difundieron en un área geográfica relativamente limitada, frecuentemente aislando espacial y temporalmente otras regiones del planeta. Así, mientras los europeos tomaban prestado algunos de los descubrimientos ocurridos en China, por muchos siglos China y Japón adoptaron tecnología europea sólo con fundamentos muy limitados, principalmente restringidos a aplicaciones militares. El contacto entre civilizaciones con distintos niveles tecnológicos a menudo termina con la destrucción del menos desarrollado, o de aquellos que aplicaron su conocimiento predominantemente en tecnología no militar, como es el caso de las civilizaciones americanas aniquiladas por los conquistadores españoles, a veces a través de una guerra biológica accidental. La Revolución Industrial se extendió por casi todo el mundo desde sus originarias costas del occidente europeo durante los siguientes dos siglos. Pero su expansión fue altamente selectiva, y su paso lento para los estándares usuales de difusión de tecnología. En verdad, incluso en Inglaterra para mediados del siglo diecinueve, los sectores que habían dado cuenta de la mayoría de la fuerza de trabajo, y al menos la mitad del producto bruto nacional, no estaban afectados por las nuevas tecnologías industriales. Además, su alcance planetario en las décadas siguientes adoptó la forma de dominación colonial, ya fuera en India bajo el imperio británico; en Latinoamérica bajo la dependencia industrial/comercial en Inglaterra y los Estados Unidos; en el desmembramiento de África con el Tratado de Berlín; o con la apertura al comercio extranjero de Japón y China por las armas de los barcos de occidente. En contraste, las nuevas tecnologías de información se han expandido por todo el mundo a la velocidad del relámpago en menos de dos décadas, entre mediados de los 70 y mediados de los 90, desplegando una lógica que yo propongo como característica de esta revolución tecnológica: la aplicación inmediata para su propio desarrollo de las tecnologías que genera, conectando al mundo a través de tecnología de la información. Seguramente hay grandes áreas en el mundo, y considerables segmentos de la población desenchufados del nuevo sistema tecnológico: este es precisamente uno de los argumentos centrales de este libro. Además, la velocidad de la difusión de la tecnología es selectiva, tanto social como funcionalmente. Los tiempos diferenciales para el acceso al poder de la tecnología por parte de las personas, los países y las regiones son una fuente crítica de desigualdad en nuestra sociedad. Las áreas que están desconectadas son cultural y espacialmente discontinuas: están en las ciudades del interior de Estados Unidos o en los banlieues franceses, tanto como en los pueblos de chozas de África o en las paupérrimas áreas rurales de China o India. Sin embargo, las funciones dominantes, los grupos sociales y los territorios a lo largo del mundo están conectados desde mediados de los 90 a un nuevo sistema tecnológico, que como tal, comenzó a tomar forma sólo en los 70.

¿Cómo es que esta transformación fundamental sucedió en lo que sería un instante histórico? Por qué la difusión a través del mundo va a un paso tan acelerado? Por qué es una "revolución"? Desde que nuestra experiencia de lo nuevo está moldeada por nuestro pasado reciente, pienso que las respuestas a estas preguntas básicas podría ser más sencilla con una breve reseña histórica de la Revolución Industrial, todavía presente en nuestras instituciones, y por lo tanto en nuestra mente.



Lecciones de la Revolución Industrial

Los historiadores han mostrado que hubo por lo menos dos Revoluciones Industriales: la primera comenzó en el último tercio del siglo dieciocho, caracterizada por nuevas tecnologías como la máquina a vapor, la máquina de hilar, el proceso Cort en metalúrgica, y más ampliamente, el reemplazo de las herramientas manuales por máquinas; la segunda, unos 100 años después, se caracterizó por el desarrollo de la electricidad, el motor de combustión interna, los químicos producidos por la ciencia, la efectiva fundición de acero, y el comienzo de las tecnologías de la comunicación, con la difusión del telégrafo y la invención del teléfono. Entre las dos hubo continuidades fundamentales, así como algunas diferencias críticas, siendo la principal de ellas la importancia decisiva del conocimiento científico para sostener y guiar el desarrollo tecnológico después de 1850.

Es precisamente por sus diferencias que los aspectos que tienen ambas en común pueden ofrecer importantes reflexiones en la comprensión de la lógica de las revoluciones tecnológicas.

En primer lugar, en ambos casos, somos testigos de lo que Mokyr describe como un periodo de "cambio tecnológico acelerado y sin precedentes". Un conjunto de macro invenciones preparó el terreno para el florecimiento de las micro invenciones en los reinos de la agricultura, la industria y las comunicaciones. La discontinuidad histórica fundamental, de carácter irreversible, fue introducida en el fundamento material de la especie humana, en un proceso dependiente cuya lógica interna y secuencial ha sido investigada por Paul David y teorizada por Brian Arthur. Fueron de hecho "revoluciones", en el sentido de que el súbito, inesperado surgimiento de una aplicación tecnológica transformaba el proceso de producción y distribución, creaba un torrente de nuevos productos, y elevaba decisivamente la ubicación de la riqueza y el poder en un planeta que de pronto se ponía bajo el alcance de aquellos países y elites capaces de dominar el nuevo sistema tecnológico. El lado oscuro de esta aventura tecnológica es que está intrincadamente atada a las ambiciones imperialistas y a los conflictos anti imperialistas.

Esta es precisamente una confirmación del carácter revolucionario de las nuevas tecnologías industriales. El ascenso histórico del así llamado Occidente, de hecho limitado a Inglaterra y a un puñado de naciones de Europa Occidental así como a sus vertientes norteamericana y australiana, está fundamentalmente vinculado con la superioridad tecnológica acumulada en las dos Revoluciones Industriales. Nada en la historia cultural, científica, política o militar del mundo previas a la Revolución Industrial podrían explicar la indisputable supremacía "Occidental"(Anglosajona/Germana, con un toque francés) entre 1750 y 1940. China era por mucho una cultura superior por gran parte de su historia pre Renacentista; la civilización Musulmana (tomando la libertad para usar esta expresión) dominaba gran parte del Mediterráneo y ejerció una influencia significativa en África a lo largo de la modernidad; Asia y África permanecieron y se organizaron en torno a centros políticos y culturales autónomos; Rusia reinaba en un espléndido aislamiento una vasta expansión a través de Europa oriental y Asia; y el imperio español, la cultura europea más rezagada de la Revolución Industrial, fue la mayor potencia mundial por más de dos siglos después de 1492. La tecnología, expresando condiciones sociales específicas, introdujo un nuevo camino histórico en la segunda mitad del siglo dieciocho.

Este camino se originó en Inglaterra, aunque sus raíces intelectuales se remontan por toda Europa y al espíritu renacentista del descubrimiento. De hecho, algunos historiadores insisten en que el conocimiento científico necesario subyacente a la primer Revolución Industrial estaba disponible 100 años antes, listo para ser usado bajo condiciones sociales maduras; o como otros argumentan, esperando la ingenuidad tecnológica de inventores auto entrenados, como Newcomen, Watts, Crompton o Arkwright, capaces de transferir el conocimiento disponible, combinado con la experiencia de quien se da maña, a las decididamente nuevas tecnologías industriales. Sin embargo, la segunda Revolución Industrial, más dependiente del nuevo conocimiento científico, elevó su centro de gravedad hacia Alemania y los Estados Unidos, donde tuvieron lugar los principales desarrollos en química, electricidad y telefonía. Los historiadores han disectado penosamente las condiciones sociales de la ascendente geografía de la innovación tecnológica, frecuentemente centrándose en las características de la educación y los sistemas científicos, o en la institucionalización de los derechos de propiedad. Sin embargo, la explicación contextual de la despareja trayectoria de la innovación tecnológica parece ser excesivamente amplia y abierta a interpretaciones alternativas. Hall y Preston, en su análisis de los cambios geográficos de la innovación tecnológica entre 1846 y 2003, muestra la importancia de los semilleros locales de innovación, de los que Berlín, Nueva York y Boston son coronados como los "centros de alta tecnología industrial del mundo" entre 1880 y 1914, mientras "Londres en ese periodo era una pálida sombra de Berlín". La razón radica en la base territorial de la interacción de los sistemas de descubrimiento tecnológico y las aplicaciones, a saber, en las propiedades sinérgicas de lo que se conoce en la literatura como "milieux de innovación."

Ciertamente, las innovaciones tecnológicas se dieron en grupos, interactuando entre sí en un proceso de retornos incrementados. Cualquiera fuera la condición que determinara tal agrupación, la lección clave a ser retenida es que la innovación tecnológica no es una instancia aislada. Refleja un estado dado del conocimiento, un ambiente institucional e industrial particular, una cierta disponibilidad de habilidades para definir el problema técnico y para resolverlo, una mentalidad económica para hacer que esa aplicación sea eficiente en términos de costos, y una red de productores y usuarios que puedan comunicar sus experiencias acumuladas, aprendiendo por el uso y por el hacer: las elites aprenden haciendo, o sea modificando las aplicaciones de la tecnología, mientras que la mayor parte de la gente aprende usando, o sea manteniéndose dentro de los constreñimientos del packaging de la tecnología. La interacción de los sistemas de innovación tecnológica y su dependencia a ciertas "milieux" de intercambio de ideas, problemas y soluciones son elementos críticos que pueden ser generalizados de la experiencia de revoluciones pasadas a la actual.

Los efectos positivos de las nuevas tecnologías industriales sobre el crecimiento económico, el nivel de vida y el dominio del hombre sobre la Naturaleza hostil (reflejado en la dramática prolongación de la expectativa de vida, que no había mejorado antes del siglo dieciocho) a largo plazo son indisputables en el registro histórico. Sin embargo, no llegaron temprano, a pesar de la difusión de la máquina a vapor y la nueva maquinaria. Mokyr nos recuerda que "el consumo per capita y los estándares de vida mejoraron poco al principio {al fin del siglo dieciocho} pero las tecnologías de producción cambiaron dramáticamente en muchas industrias y sectores, preparando el paso al crecimiento sostenido schumpeteriano en la segunda mitad del siglo diecinueve cuando el progreso tecnológico se expandió a industrias que previamente no habían estado afectadas. Esta es una imposición crítica que nos obliga a evaluar los efectos actuales a la mayor parte de los cambios tecnológicos a la luz de un retraso temporal altamente dependiente de las condiciones específicas de cada sociedad. A pesar de todo, el registro histórico parece indicar que, en términos generales, cuanto más estrecha sea la relación entre los lugares de la innovación, producción y uso de las nuevas tecnologías, cuanto más rápido se da la transformación de las sociedades, y cuanto más positivo sea el feedback de las condiciones sociales sobre las condiciones generales mas innovaciones pueden ocurrir. Así, en España, la Revolución Industrial se difundió rápidamente en Cataluña, en el siglo dieciocho, pero tuvo un ritmo mucho menor en el resto de España, particularmente en Madrid que en el sur; solo el País Vasco y Asturias se habían unido al proceso de industrialización para finales del siglo diecinueve. Las fronteras de la innovación industrial eran en gran medida linderas a áreas en las que estuvo prohibido el comercio con las colonias americanas españolas por casi dos siglos: mientras que las elites andaluza y castellana, así como la Corona, podían vivir de sus rentas americanas, los catalanes tenían que proveerse a sí mismos a través del comercio y la ingenuidad, mientras eran sometidos a la presión de un estado centralizado. En parte como resultado de esta trayectoria histórica, Cataluña y el País Vasco fueron las únicas regiones completamente industrializadas hasta los 50 y los semilleros principales del emprendimiento y la innovación, en agudo contraste con las tendencias en el resto de España. Así, las condiciones sociales específicas guían la innovación tecnológica que se dirige a sí misma hacia el camino del desarrollo económico y la innovación. Aun así, la reproducción de esas condiciones es cultural e institucional, tanto como económica y tecnológica. La transformación del ambiente social e institucional puede alterar el paso y la geografía del desarrollo tecnológico (por ejemplo, Japón luego de la Restauración Meiji, o Rusia después de un breve período bajo Stolypin), aunque la historia pasada tolera una inercia considerable.

Una última y esencial lección de las Revoluciones Industriales, que considero relevante para este análisis, es controvertida: aunque ambos trajeron todo un orden de nuevas tecnologías que de hecho formó y transformó el sistema industrial en etapas sucesivas, en su núcleo hubo una innovación fundamental en la generación y distribución de la energía. R. J. Forbes, un historiador clásico de la tecnología, afirma que "la invención de la máquina a vapor es el factor central en la revolución industrial", seguido de la introducción de nuevos móviles principales y por el principal móvil removible, bajo el que "el poder de la máquina de vapor podía ser creada donde fuera necesario y con la extensión deseada." Y aunque Mokyr insiste en el carácter multifacético de la Revolución Industrial, también cree que "las protestas de algunos historiadores económicos no tiene lugar, la máquina a vapor es todavía ampliamente vista como la quintaesencia de la invención de la Revolución Industrial". La electricidad era la fuerza central en la segunda revolución, a pesar de otros extraordinarios descubrimientos en química, acero, la máquina de combustión interna, telegrafía y telefonía. Esto es porque sólo a través de la generación y distribución eléctrica todos los otros campos podían desarrollar sus aplicaciones y conectarse entre sí. Un caso puntual es el del telégrafo eléctrico, que primero fue usado experimentalmente en los 1790 y difundido desde 1837, pudiendo convertirse en una red de comunicación conectando al mundo en gran escala, solo cuando pudo confiar en la difusión de la electricidad. El uso difundido de la electricidad desde los 1870 en adelante cambió el transporte, la telegrafía, la iluminación y el trabajo en las fábricas al difundirse el poder en la forma de la máquina eléctrica. De hecho, mientras las fábricas habían sido asociadas con la primer Revolución Industrial, por casi un siglo no fueron concomitantes con el uso de la máquina de vapor que fue ampliamente utilizada en los talleres, mientras que las grandes fábricas seguían usando las mejoradas fuentes hidráulicas. Fue la máquina eléctrica que hizo posible e indujo la organización a gran escala del trabajo en la fábrica industrial. Como R. J. Forbes escribió (en 1958):

Durante los últimos 250 años los nuevos móviles principales han producido lo que frecuentemente se denomina la Era de la Máquina. El siglo dieciocho trajo la máquina a vapor; el siglo diecinueve la turbina de agua, la máquina de combustión interna y la turbina al vapor; y el siglo veinte la turbina a gas. Los historiadores han inventado frases llamativas para denotar movimientos o corrientes en la historia. Como "la Revolución Industrial", el título para un desarrollo frecuentemente descripto como un comienzo al principio del siglo dieciocho y que se extiende por casi todo el siglo diecinueve. Fue un movimiento lento, pero trajo cambios tan profundos en su combinación de progreso material y disloque social que colectivamente puede bien ser descripto como revolucionario si consideramos esas fechas extremas.

De esta forma, al actuar en el proceso en el corazón de todos los procesos -esto es, el poder necesario para producir, distribuir y comunicar- las dos Revoluciones Industriales se difundieron a través de todo el sistema económico y permearon la materia social. Fuentes de energía económicas, accesibles, y móviles se extendieron y aumentaron el poder del cuerpo humano, creando la base material para la continuación histórica de un movimiento similar hacia la expansión de la mente humana.



La secuencia histórica de la Revolución de la Tecnología de la Información

La breve, aunque intensa historia de la Revolución de la Tecnología de la Información ha sido contada tantas veces en años recientes que se hace innecesario proveer al lector con otra reseña detallada. Además, dada la rapidez de su paso, cualquier relato de este tipo sería instantáneamente obsoleto, tanto que entre la escritura de este libro y su lectura (digamos, 18 meses), los microchips habrán duplicado su rendimiento por un precio dado, de acuerdo con la bien conocida "ley de Moore". Sin embargo, encuentro analíticamente útil recordar los ejes principales de la transformación tecnológica en la generación/ procesamiento/ transmisión de información, y situarlos en la secuencia que fue llevando hacia la formación de un nuevo paradigma socio-técnico. Este breve resumen me permitió, mas adelante, saltar las referencias sobre rasgos tecnológicos cuando discutía su interacción específica con la economía, la cultura y la sociedad a través del itinerario intelectual de este libro, excepto cuando se requieren nuevos elementos de información.



Macro cambios en micro-ingeniería: electrónica e información

Aunque los predecesores científicos e industriales de las tecnologías de información basadas en la electrónica pueden encontrarse décadas antes de los 40(por ejemplo la invención del teléfono por Bell en 1876, la radio por Marconi en 1898, y la válvula de De Forest en 1906), fue durante la Segunda Guerra Mundial, y en los años posteriores, que tuvieron lugar las mayores innovaciones en tecnología electrónica: la primera computadora programable, y el transistor, fuente de la microelectrónica, el verdadero corazón de la Revolución de la Tecnología de la Información en el siglo veinte. Aun así sostengo que las nuevas tecnologías de información solo se difundieron ampliamente en los 70, acelerando su desarrollo sinérgico y convergiendo en un nuevo paradigma. Volvamos a trazar las etapas de innovación en tres campos tecnológicos principales que, aunque estrechamente interrelacionados, constituyeron la historia de las tecnologías basadas en la electrónica: la microelectrónica, las computadoras, y las telecomunicaciones.

El transistor, inventado en 1947 en los Laboratorios Bell en Murray Hill, Nueva Jersey, por tres físicos, Bardeen, Brattain y Shockley (que recibieron el Premio Nobel por este descubrimiento), hicieron posible el procesamiento de impulsos eléctricos a alta velocidad en el modo binario de interrupción y amplificación, permitiendo de esta forma la codificación de la lógica y de la comunicación con y entre máquinas: llamamos a estos dispositivos de procesamiento semiconductores, y la gente comúnmente los llama chips (actualmente conformados por millones de transistores). El primer paso en la difusión del transistor fue a través del invento de Shockley del junction transistor en 1951. De todas formas su fabricación y difusión requirieron de nuevas tecnologías y el uso de material apropiado. El salto a la silicona, literalmente construyendo una nueva revolución sobre la arena, fue logrado primero por Texas Instruments (en Dallas) en 1954 (una movida facilitada por la contratación en 1953 de Gordon Teal, otro científico líder de los Bell Labs). La invención del proceso planar en 1959 por Fairchild Semiconductors (en Silicon Valley) abrió la posibilidad de la integración de componentes miniaturizados con la manufactura de precisión.

Sin embargo el paso decisivo en microelectrónica tuvo lugar en 1957: el circuito integrado fue inventado por Jack Kilby, un ingeniero de Texas Instruments (que lo patentó), y Bob Noyce, uno de los fundadores de Fairchild. Pero fue Noyce quien primero fabricó circuitos integrados usando el proceso planar. Desató una explosión tecnológica: en sólo tres años, entre 1959 y 1962, los precios de los semiconductores cayeron un 85%, y en los siguientes diez años la producción se incrementó unas 20 veces, 50% de la cual se destinó a usos militares. Como punto de comparación histórica, tomó 70 años (1780-1850) para que el precio de la tela de algodón cayera 85% en Inglaterra durante la Revolución Industrial. Después, el movimiento se aceleró durante los 60: a medida que la tecnología para la fabricación mejoraba y la ayuda de las computadoras permitía diseñar un chip mejor usando recursos microelectrónicos más poderosos y rápidos, el precio promedio de un circuito integrado cayó de $50 en 1962 a $1 en 1971.

El gigantesco salto adelante en la difusión de la microelectrónica en todas las máquinas fue en 1971 con la invención de un ingeniero de Intel, Ted Hoff (también en Silicon Valley), del microprocesador, eso es la computadora en un chip. De esta forma, el poder de procesamiento de la información podía ser instalado en cualquier parte. La carrera para lograr una mayor integración de la capacidad de los circuitos de un solo chip comenzaba; la tecnología del diseño y la fabricación excedía constantemente los límites de integración que previamente se consideraba físicamente imposible superar sin abandonar el uso de silicio. A mediados de los 90, las evaluaciones técnicas todavía dan entre 10 a 20 años de buena vida a los circuitos con base de silicio, aunque la investigación sobre materiales alternativos ha sido acelerada. El nivel de integración ha progresado de a saltos en las últimas dos décadas. Si bien los detalles técnicos no tienen lugar en este libro, es analíticamente relevante indicar la velocidad y alcance del cambio tecnológico.

Como es sabido, el poder de los chips puede ser evaluado por una combinación de tres características: su capacidad de integración, indicada por la línea de menor grosor en el chip medida en micrones (1 micrón = 1 millonésima parte de una pulgada); su capacidad de memoria, medida en bits: miles (k), y millones (megabits); y la velocidad del microprocesador medida en megahertz. De esta forma, el primer procesador de 1971 tenía líneas de 6.5 micrones aproximadamente; en 1980, llegaba a 4 micrones; en 1987, 1 micrón; en 1995, el chip de la Pentium de Intel tenía 0.35 micrones; y según proyecciones llegará a 0.25 micrones en 1999. Así, mientras que en 1971 se ponían 2.300 transistores en un chip del tamaño de una chinche, en 1993 cabían 35 millones de transistores. La capacidad de memoria, indicada por DRAM (dynamic random access memory; memoria de acceso dinámico al azar) era en 1971 de 1.024 bits; en 1980, 64.000; en 1987, 1.024.000; en 1993, 16.384.000, y proyectada para 1999, 256.000.000. En cuanto a la velocidad, los microprocesadores de 64 bits son 550 veces más rápidos que el primer chip de Intel de 1972; y los MPU están duplicándose cada 18 meses. Las proyecciones para el 2002 pronostican una aceleración de la tecnología microelectrónica en integración (chips de 0.18 micrones), en capacidad DRAM (1024 megabits), y en la velocidad del microprocesador (500+ megahertz comparado a 150 en 1993). Combinado con los dramáticos desarrollos en procesamiento paralelo usando microprocesadores múltiples (incluyendo, en el futuro, vinculaciones de múltiples microprocesadores en un solo chip), parecería que el poder de la microelectrónica todavía está siendo descubierto, mientras continua ampliando la capacidad de las computadoras. Además, la mayor miniaturización, la mayor especialización, y el precio decreciente de los cada vez más poderosos chips ha hecho posible ubicarlos en cada máquina de nuestra vida cotidiana, desde máquinas lavaplatos y hornos micro-ondas hasta automóviles, cuya electrónica, en los modelos standard de los 90, era más valiosa que su acero.

Las computadoras también fueron concebidas de la madre de todas las tecnologías, la Segunda Guerra Mundial, pero sólo nacieron en 1946 en Filadelfia, si exceptuamos las herramientas relacionadas con la guerra del British Colossus de 1943, aplicadas al desciframiento de códigos enemigos, y el Z-3 alemán producido en 1941 para ayudar con los cálculos de aviación. Sin embargo la mayor parte de los esfuerzos de los aliados en electrónica se concentraron en hacer programas de investigación en el MIT, y la actual experimentación del poder de las calculadoras, bajo el auspicio de la Armada norteamericana, tuvo lugar en la Universidad de Pennsylvania, donde Mauchly y Eckert produjeron en 1946 la primera computadora de propósitos generales, la ENIAC (Electronic Numerical Integrator and Calculator; Integradora y Calculadora Numérica Electrónica). Los historiadores recordarán que la primera computadora pesaba 30 toneladas, que estaba construida sobre módulos de metal de nueve pies de alto, que tenía 70.000 resistencias y 18.000 válvulas, y que ocupaba el área de un gimnasio. Cuando era encendida, su consumo de electricidad era tan alto que la iluminación de toda Filadelfia titilaba.

La primera versión comercial de esta máquina primitiva, la UNIVAC-1, producida en 1951 por el mismo equipo, entonces bajo la marca Remington Rand, fue extremadamente exitosa en el procesamiento del censo norteamericano de 1950. IBM, que también estaba sustentada por contratos militares y confiando parcialmente en las investigaciones del MIT, superó sus reservas sobre la era de la computación, e ingresó a la carrera en 1953 con su máquina de 701 válvulas. En 1958, cuando Sperry Rand introdujo una mainframe de segunda generación, IBM inmediatamente la siguió con su modelo 7090. Pero fue recién en 1964 que IBM, con su mainframe 360/ 370, llegó a dominar la industria de la computación, popularizada por nuevas (Control Data, Digital) y viejas (Sperry, Honeywell, Burroughs, NCR) compañías de máquinas para empresas. La mayoría de estas firmas estaban expirando o se habían esfumado para los 90: esto es lo rápido que la "destrucción creativa" schumpeteriana ha procedido en la industria electrónica. En esa era antigua, unos 30 años antes de que esto fuera escrito, la industria se organizaba a sí misma en una pulcramente definida jerarquía de mainframes, minicomputadoras (de hecho, máquinas bastante voluminosas), y terminales, con alguna especialización informática librada al esotérico mundo de las supercomputadoras (una cruza fértil de pronóstico del tiempo y juegos de guerra), en la que la extraordinaria ingenuidad de Seymour Cray, a pesar de su falta de visión tecnológica, reinó por algún tiempo.

La microelectrónica cambió todo esto, introduciendo una "revolución dentro de la revolución". La llegada del microprocesador en 1971, con la capacidad de poner una computadora en un chip, dio vuelta el mundo de la electrónica, de hecho el mundo en sí. En 1975, De Roberts, un ingeniero que había creado una pequeña compañía de calculadoras, MITS, en Alburquerque, Nuevo México, construyó una caja computadora con el improbable nombre de Altair, inspirado en un personaje de la serie de TV Star Trek, que era objeto de devoción de su joven hija. La máquina era un objeto primitivo, pero fue construido como una computadora a pequeña escala alrededor de un microprocesador. Fue la base para el diseño de Apple I, luego Apple II, la primera microcomputadora comercialmente exitosa, construida en el garaje de la casa de los padres de dos jóvenes estudiantes rateados, Steve Wozniak y Steve Jobs, en Menlo Park, Silicon Valley, en una verdaderamente extraordinaria saga que se ha convertido hoy en la leyenda fundadora de la Era de la Información. Lanzada en 1976, con tres socios y $91.000 de capital inicial, Apple Computers había alcanzado los $583 millones en ventas en 1982, conduciendo la era de la difusión de las computadoras. IBM reaccionó rápidamente: en 1981 introdujo su propia versión de la microcomputadora, con un nombre brillante: la Computadora Personal (PC), que se convirtió de hecho en el nombre genérico para las microcomputadoras. Pero como no estaba basada en la propia tecnología de IBM, sino en tecnología desarrollada para IBM de otras fuentes, se hizo vulnerable a la clonación, que pronto se practicó en escala masiva, particularmente en Asia. Aunque este hecho eventualmente condenó la predominancia de IBM en el negocio de las PCs, también desplegó el uso de los clones por todo el mundo, difundiendo un estandar común, a pesar de la superioridad de las máquinas Apple. La Macintosh de Apple, lanzada en 1984, fue el primer paso hacia la computadora amigable, con la introducción del uso de íconos, originalmente desarrollado por el Palo Alto Research Center (PARC) de Xerox.

Una condición fundamental para la difusión de las microcomputadoras fue subsanada con el desarrollo de nuevo software adaptado a su operación. El software para PC también surgió a mediados de los 70 del entusiasmo generado por Altair: dos jóvenes ex estudiantes de Harvard, Bill Gates y Paul Allen, adaptaron el BASIC para operar la Altair en 1976. Al darse cuenta de su potencial, fundaron Microsoft (primero en Albuquerque, dos años después se mudaron a Seattle, ciudad natal de los padres de Bill Gates), que es hoy la empresa gigante de software, que disputó el dominio de software para sistemas operativos para luego lograr el dominio del software en todo el creciente mercado de las microcomputadoras.

En los últimos 15 años, la creciente potencia del chip ha resultado en una dramática ampliación del poder de la microcomputadora, limitando la función de las máquinas grandes. A principios de los 90, las microcomputadoras de un solo chip tenían el poder de procesamiento de IBM de unos 5 años atrás. Los sistemas de red basados en microprocesadores, conformados por máquinas de escritorio más pequeñas (clientes), servidas por una más poderosa (servidor), podían eventualmente reemplazar máquinas especializadas en procesamiento de información, como las mainframes tradicionales y las supercomputadoras. De hecho, a los avances en microelectrónica y software hay que agregar los grandes saltos en las capacidades de las redes. Desde mediados de los 80, las microcomputadoras no pueden ser concebidas aisladamente: trabajan en redes, con movilidad creciente, basadas en computadoras portátiles. Esta extraordinaria versatilidad, y la capacidad de agregar memoria y capacidad de procesamiento al compartir el poder de la computadora con una red electrónica, decisivamente llevaron a dar un salto en la era de la computación de los 90 del almacenamiento y procesamiento centralizado de datos a la computadora compartida y en red. No solo ha cambiado todo el sistema tecnológico, sino también sus interacciones sociales y organizacionales. De esta forma, el costo promedio para procesar información cayó de alrededor de $75 por millón de operaciones en 1960 a menos de una centésima parte de un centavo en 1990.

Esta capacidad de trabajar en red solo fue posible, naturalmente, por los importantísimos desarrollos alcanzados en telecomunicaciones y redes durante los 70. Pero, al mismo tiempo, estos cambios solo fueron posibles por los nuevos inventos en microelectrónica y los avances en la capacidad de la computación, en una impactante muestra de las relaciones sinérgicas que se dan en la Revolución de la Tecnología de la Información.

Las telecomunicaciones también han sido revolucionadas con la combinación de tecnologías "nodales" (llaves switch electrónicas y routers) y nuevos vínculos (tecnologías de transmisión). La primera llave electrónica producida industrialmente, la ESS-1, fue introducida por Bell Labs en 1969. Para mediados de los 70 los progresos en las tecnologías de circuitos integrados hicieron posible la llave digital, incrementando la velocidad, el poder y la flexibilidad, mientras ahorraba espacio, energía y trabajo, vis-à-vis aplicaciones análogas. Aunque ATT, pariente de Bell Labs, era inicialmente reticente a su introducción, ya que necesitaba amortizar la inversión ya realizada en equipo analógico, cuando en 1977 Northen Telecom de Canadá capturó una parte del mercado norteamericano con las llaves digitales, las compañías Bell se unieron a la carrera y dispararon un movimiento similar en el mundo.

Importantes avances en optoelectrónica (fibra óptica y transmisión láser) y en tecnología de transmisión digital de paquetes amplió dramáticamente la capacidad de las líneas de transmisión. La Integrated Bradband Networks (IBN) vio que en los 90 podía sobrepasar sustancialmente las propuestas revolucionarias de los 70 para una Integrated Services Digital Network (ISDN; Red Digital de Servicios Integrados): mientras la capacidad de transferencia de ISDN en cables de cobre estaba estimada en 144.000 bits, en 1990 IBN podría, aunque a un alto costo, transferir un cuatrillón de bits por fibra óptica. Para medir el cambio, recordemos que en 1956 el primer cable transatlántico de teléfono llevaba 50 circuitos comprimidos de voz; en 1995, la fibra óptica podría llevar 85.000 de esos circuitos. La capacidad de transmisión basada en la optoelectrónica, junto con las llaves de avanzada y las arquitecturas de routeo, como la Asynchronous Transmission Mode (ATM; Modo de Transmisión Asincrónica) y el Transmission Control Protocol/ Interconnection Protocol (TCP/ IP; Protocolo de Control de Transmisión/ Protocolo de Interconexión), son la base de la llamada Supercarretera de la Información, cuyas características se discuten en el capítulo 5.

Diferentes formas de usar el espectro radial (transmisión tradicional, transmisión satelital, micro-ondas, telefonía celular digital) así como el cable coaxil y la fibra óptica, ofrecen una diversidad y versatilidad de tecnologías de transmisión que están siendo adaptadas a una gran gama de usos, y hacen posible la comunicación ubicua entre usuarios móviles. Así, la telefonía celular se difundió con fuerza en todo el mundo en los 90, literalmente apuntando a Asia con pagers poco sofisticados y a Latinoamérica con teléfonos celulares como símbolo de status social, confiando en la promesa (de Motorola por ejemplo) de un producto de comunicación personal que proporcionaría una cobertura universal antes del 2000. Cada salto en el campo tecnológico amplía los efectos de las tecnologías de información que están relacionadas. Así, la telefonía móvil, confiando en el poder de la computación para routear los mensajes, provee al mismo tiempo la base para una computación generalizada y para la comunicación electrónica interactiva en tiempo real.



La división tecnológica de los 70

Este sistema tecnológico en el que nos hemos sumergido completamente en los 90 se conformó en los 70. Por lo significativo que son los contextos históricos específicos para las trayectorias tecnológicas, y por la forma particular de interacción entre tecnología y sociedad, es importante recordar algunos datos asociados a descubrimientos fundamentales en las tecnologías de información. Todos ellos tienen algo esencial en común: mientras que estaban basados en el conocimiento previamente existente, y se desarrollaban como prolongación de las tecnologías clave, representaban un salto cualitativo hacia adelante en la difusión masiva de tecnología en aplicaciones comerciales y civiles debido a su accesibilidad y su costo decreciente junto con una calidad creciente. Así, el microprocesador, elemento clave en la difusión de la microelectrónica, fue inventado en 1971 y comenzó a difundirse a mediados de los 70. La microcomputadora fue inventada en 1975 y el primer producto comercialmente exitoso , Apple II, fue introducido en abril de 1977, más o menos en la misma época en que Microsoft comenzó a producir sistemas operativos para microcomputadoras. La Xerox Alto, matriz de muchas tecnologías de software para las PC de los 90, fue desarrollado en los laboratorios PARC en Palo Alto en 1973. La primera llave electrónica industrial apareció en 1969, y las llaves digitales se desarrollaron a mediados de los 70 y tuvieron difusión comercial en 1977. La fibra óptica fue producida industrialmente por primera vez por Corning Glass a principios de los 70. También a mediados de los 70, Sony comenzó a producir comercialmente máquinas de VCR, con base en los descubrimientos realizados en Estados Unidos e Inglaterra en los 60, que jamás habían llegado a la producción masiva. Y por último, fue en 1969 que la Agencia de Proyectos de Investigación del Departamento de Defensa de Estados Unidos (ARPA) estableció una nueva, revolucionaria, red electrónica de comunicación, que crecería durante los 70 para convertirse en la Internet. Fue muy ayudada por la invención de Cerf y Kahn en 1974 del TCP/ IP, el protocolo de interconexión de redes que permitió que varias redes pudieran conectarse. Creo que podemos decir, sin exagerar, que la Revolución de la Tecnología de la Información, como revolución, nació en los 70, particularmente si incluimos en ella la emergencia y difusión paralela de la ingeniería genética que se dio por las mismas fechas y lugares, un desarrollo que merece, al menos, unas pocas lineas de atención.

Tecnologías de la vida

Aunque la biotecnología puede ser rastreada a una tabla de arcilla de Babilonia del 6000 BC, y la revolución en microbiología a los descubrimientos científicos de la estructura básica de la vida, la doble hélice del ADN, por Francis Crick y James Watson en la Cambridge University en 1955, fue solo a comienzos de los 70 que la separación y recombinación genética del ADN, la fundación tecnológica de la ingeniería genética, hizo posible la aplicación del conocimiento acumulado. Stanley Cohen de Stanford y Herbert Boyer en la Universidad de California, San Francisco son generalmente acreditados con el descubrimiento de los procedimientos para la clonación de genes en 1973, aunque su trabajo está basado en la investigación del Premio Nobel Paul Berg, de Stanford. En 1975 los investigadores de Harvard aislaron el primer gen mamario, de la hemoglobina de un conejo; y en 1977 se clonó el primer gen humano.

Lo que siguió a continuación fue una carrera para establecer firmas comerciales, muchas de ellas desprendimientos de las grandes universidades y de los centros de investigación de los hospitales, que emergieron en California del Norte, Nueva Inglaterra y Maryland. Periodistas, inversionistas y activistas sociales fueron igualmente impactados por las posibilidades que se abrían con la potencial habilidad de diseñar vida, incluyendo vida humana. Genentech al Sur de San Francisco, Cetus en Berkeley y Biogen en Cambridge, Massachusetts, estaban entre estas primeras compañías, organizadas en torno a ganadores de premios Nobel, para usar las nuevas tecnologías genéticas para aplicaciones médicas. Le siguió el negocio del agro; y los microorganismos, algunos de ellos genéticamente alterados, tuvieron cada vez más asignaciones, por ejemplo limpiar la polución, muchas veces generada por las mismas compañías y agencias que estaban vendiendo los superorganismos. Sin embargo las dificultades científicas, de los problemas técnicos, y los obstáculos legales motivados por intereses éticos y de seguridad desaceleraron la revolución de la biotecnología durante los 80. Una considerable cantidad de capitales invertidos se perdieron y algunas de las compañías más innovadoras, incluyendo Genentech, fueron absorbidas por las farmacéuticas gigantes (Hoffman-La Roche, Merck) que mejor que nadie, entendieron que no podían reproducir la costosa arrogancia que las firmas de computación establecidas habían desplegado frente a las pequeñas empresas innovadoras: comprarlas, junto con los servicios de sus científicos, era una mejor póliza de seguro para las multinacionales farmacéuticas y químicas, para internalizar los beneficios comerciales de la revolución tecnológica y controlar su paso. Siguió una desaceleración de su paso, por lo menos en cuanto a la difusión de sus aplicaciones.

Sin embargo, a fines de los 80 y en los 90 un gran impulso de la ciencia, y una nueva generación de científicos emprendedores revitalizaron la biotecnología, con un enfoque decisivo sobre la ingeniería genética, la verdadera tecnología revolucionaria en el terreno. La clonación genética ingresó a una nueva etapa cuando, en 1988, Harvard formalmente patentó un ratón genéticamente diseñado, quitándole de esta forma los derechos de autor a Dios y a la Naturaleza. En los siguientes 7 años, otros siete ratones también fueron patentados como nuevas formas de vida creadas, identificadas como propiedad de sus ingenieros. En agosto de 1989 los investigadores de la Universidad de Michigan y Toronto descubrieron el gen responsable de la fibrosis cística, abriendo el camino a la terapia genética.

Con el despertar de las expectativas generadas por este descubrimiento, el gobierno norteamericano decidió en 1990 auspiciar y fundar un programa de colaboración de $3 billones durante 15 años, coordinado por James Watson, uniendo a los equipos de investigación en microbiología más avanzados para mapear el genoma humano, esto es, para identificar y localizar los 60.000 a 80.000 genes que componen el alfabeto de la especie humana. A través de este y otros esfuerzos, un continuo río de genes humanos relacionados con varias enfermedades están siendo identificados, por lo que para mediados de los 90, alrededor del 7% de los genes han sido localizados, con una correcta comprensión de su funcionamiento. Esto por supuesto crea la posibilidad de actuar sobre estos genes, y en aquellos que sean identificados en el futuro, posibilitando que la especie humana pueda no solo controlar las enfermedades, sino también identificar predisposiciones biológicas e intervenir en ellas, potencialmente alterando el destino genético. Lyon y Gorner concluyen su investigación sobre la ingeniería genética humana, con una predicción y una advertencia:

En unas pocas generaciones podremos acabar con ciertas enfermedades mentales, quizás, o la diabetes, o la presión alta, o casi con cualquier aflicción que seleccionemos. Lo que no debemos olvidar es que la calidad de la toma de decisión dictamina si las elecciones que hagamos serán sabias y justas...La poco gloriosa forma en que la elite científica y administrativa está manejando los primeros frutos de la terapia genética es ominosa...Los humanos hemos evolucionado intelectualmente para puntualizar que, relativamente pronto, podremos comprender la composición, función, y dinámica del genoma mucho mas allá de su intimidante complejidad. En términos emocionales, sin embargo, somos todavía simios, con toda la carga de comportamiento que implica. Quizás la forma esencial de terapia genética sea para que nuestra especie pueda elevarse por sobre su herencia básica y aprenda a aplicar este nuevo conocimiento sabia y benignamente.



Aun así, mientras los científicos, reguladores y éticos debaten las implicancias humanísticas de la ingeniería genética, los investigadores que se han convertido en empresarios toman el atajo, estableciendo mecanismos para tener control legal y financiero sobre el genoma humano. El intento más osado en este sentido fue de un proyecto iniciado en 1990 en Rockville, Maryland, por dos científicos, J. Craig Venter, luego con el Instituto Nacional de Salud, y William Haseltine, luego en Harvard. Usando el poder de supercomputadoras, secuenciaron en solo 5 años partes de casi el 85% de todos los genes humanos, creando una gigantesca base de datos genética. El problema es que no sabemos, ni sabremos por un largo tiempo, cuál pieza de gen es qué y dónde está localizada: su base de datos comprende cientos de miles de fragmentos genéticos con funciones desconocidas. ¿Cuál es entonces el interés? Por un lado, la investigación focalizada sobre genes específico puede (y de hecho así es) utilizar para sí la información contenida en esas secuencias. Pero, lo que es más importante y la principal razón para todo el proyecto, Craig y Haseltine han estado ocupados patentando su base de datos, entonces, literalmente, algún día podrían ser los dueños de los derechos legales de una gran parte del conocimiento para manipular el genoma humano. La amenaza que se cierno por este desarrollo es tan seria que, mientras por un lado han atraído decenas de millones de dólares de inversionistas, por otro lado, una de las más grandes empresas farmacéuticas, Merck, dio en 1994 un financiamiento sustantivo a la Universidad de Washington para proceder con el mismo secuenciamiento ciego y para hacer pública la información, para que no haya control privado de trozos y partes de conocimiento que podrían bloquear el desarrollo de productos basados en una comprensión sistemática futura del genoma humano.

La lección para el sociólogo de estas batallas de negocios no es sólo otra instancia de la avaricia humana. Señala un tiempo que se acelera con la expansión y profundización de la revolución genética. Debido a su especificidad, tanto científica como social, la difusión de la ingeniería genética fue más lenta entre los 70 y los 90 que en el caso de la revolución en electrónica. Pero en los 90, la revolución de la biotecnología se ha visto acelerada en todo el mundo por la existencia de mercados más abiertos, y por las mayores posibilidades educativas y de investigación. Todos los indicadores apuntan hacia la explosión de sus aplicaciones con el cambio de milenio, disparando de esta forma un debate mucho más fundamental a la hoy borrosa frontera entre naturaleza y sociedad.



Contexto social y la dinámica del cambio tecnológico

Por qué los descubrimientos de las nuevas tecnologías de la información ocurrieron en los 70, y casi todos en Estados Unidos? Y cuáles son las consecuencias de esto en su desarrollo futuro y en su interacción con las sociedades? Sería tentador relacionar directamente la formación de este paradigma tecnológico con las características de su contexto social; particularmente si recordamos que a mediados de los 70 Estados Unidos y el mundo capitalista estaban siendo sacudidos por una gran crisis económica, lanzada (pero no causada) por el shock del petróleo en 1973-4: una crisis que precipitó la dramática reestructuración del sistema capitalista a escala global, actualmente induciendo un nuevo modelo de acumulación en discontinuidad histórica con el capitalismo de posguerra, como propuse en el prólogo de este libro. ¿Fue el nuevo paradigma tecnológico una respuesta del sistema capitalista para recuperarse de sus contradicciones internas? ¿O fue un modo de asegurarse la superioridad militar sobre el enemigo Soviético, en respuesta a su desafío tecnológico en la carrera espacial y de armamentos nucleares? Ninguna explicación parece ser convincente. Mientras que hay una coincidencia histórica entre la aparición de las nuevas tecnologías y la crisis económica de los 70, su sincronización fue demasiado cercana, el "arreglo tecnológico" habría sido demasiado rápido, y demasiado mecánico cuando sabemos de las lecciones de la Revolución Industrial y de otros procesos históricos de cambio tecnológico que las sendas económica, industrial y tecnológica, que están relacionados, se mueven con lentitud y calzan imperfectamente en esta interacción. Y con respecto al argumento militar, el shock del Sputnik de 1957-60 fue respondido mediante una construcción tecnológica masiva en los 60, no en los 70; y el nuevo empuje de la tecnología militar norteamericana fue impulsado en 1983 en torno al programa "Star Wars", de hecho usando las tecnologías desarrolladas en la prodigiosa década precedente. De hecho, parece que la emergencia de un nuevo sistema tecnológico en los 70 debe rastrearse a la dinámica autónoma del descubrimiento y difusión tecnológica, incluyendo los efectos sinérgicos entre varias tecnologías clave. Así, el microprocesador hizo posible la microcomputadora; los avances en telecomunicaciones, como mencionáramos arriba, permitieron que las microcomputadoras funcionaran en redes, incrementando así su poder y flexibilidad. Las aplicaciones de estas tecnologías a la electrónica y a la fabricación aumentaron el potencial para nuevos diseños y tecnologías de fabricación en la producción de semiconductores. El nuevo software fue estimulado por el mercado de las microcomputadoras y su rápido crecimiento que, a su vez, explotó sobre la base de nuevas aplicaciones y tecnologías amigables que brotaban de las mentes de los escritores de software. Y así sucesivamente.

El fuerte impulso militar de los 60 a la tecnología preparó a la tecnología norteamericana para dar el salto adelante. Pero el invento del microprocesador de Ted Hoff mientras intentaba completar una orden para una compañía japonesa de calculadoras manuales en 1971 provino del conocimiento y la ingenuidad acumulados en Intel, una estrecha interacción con el milieu de innovación creado desde 1950 en Silicon Valley. En otras palabras, la primera Revolución de la Tecnología de la Información se produjo en Estado Unidos, básicamente en California, en los 70, construyéndose sobre los descubrimientos de las dos décadas precedentes, y bajo la influencia de varios factores institucionales, económicos y culturales. Pero no salieron de una necesidad preestablecida: estaba tecnológicamente inducido más que socialmente determinado. Sin embrago, una vez que existió como sistema, en la base de la emergencia que he descripto, su desarrollo y aplicaciones, y en esencia su contenido, fueron decisivamente configurados por el contexto histórico en el que se expandieron. De hecho, el capitalismo de los 80 (específicamente: las grandes corporaciones y gobiernos de los países del club de los 7) encararon un proceso de reestructuración económica y organizacional, en el que la nueva tecnología de información jugaba un rol fundamental y era moldeado decisivamente por el rol que jugaba. Por ejemplo, el movimiento organizado por los negocios hacia la desregulación y liberalización en los 80 fue decisivo en la reorganización y crecimiento de las telecomunicaciones, más notorio luego del despojo de ATT en 1984. En contraposición, la habilidad de las nuevas redes de telecomunicaciones y de los sistemas de información prepararon el terreno para la integración global de los mercados financieros y la articulación segmentada de la producción y el comercio a través del mundo, como examinaré en el próximo capítulo.

Así, la disponibilidad de las nuevas tecnologías constituía un sistema en los 70 y era base fundamental para el proceso socio-económico que se estaba reestructurando en los 80. Y los usos de esas tecnologías en los 80 condicionaron mucho los usos y las trayectorias en los 90. El surgimiento de la sociedad "enredada", que trataré de analizar en los siguientes capítulos de este volumen, no pueden ser entendidos sin la interacción entre estas dos tendencias relativamente autónomas: el desarrollo de nuevas tecnologías de información y el intento de la vieja sociedad de reinstrumentarse a sí misma utilizando el poder de la tecnología para servir a la tecnología del poder. Sin embargo, la salida histórica de esta estrategia parcialmente consciente no está determinada, desde que la interacción entre tecnología y sociedad depende de las relaciones estocásticas entre un número excesivo de variables cuasi independientes. Sin tener que rendirnos necesariamente al relativismo histórico, puede decirse que la Revolución de la Tecnología de la Información fue cultural, histórica y espacialmente contingente en un conjunto de circunstancias muy específico cuyas características marcaron su evolución futura.