Blogia

Nuevas Tecnologías

Las nuevas tecnologías de la información aplicadas en la publicidad en agencias de San Juan

Alumna: Ivana Moya

I. INTRODUCCIÓN

Hablar de nuevas tecnologías de la información no es solo hablar de Internet. Hay dentro de las primeras otros elementos que a menudo son dejados de lado y opacados por la exponencial difusión de la red de redes.
Por otro lado, hablar de publicidad tampoco es limitarse solo a un aviso comercial televisivo o radial. Hay, además, otras maneras de comunicar el mensaje publicitario.
Referirme a estos dos polos no es una casualidad, sino una consecuencia de la convergencia de ambos: “Las nuevas tecnologías de la información aplicadas en la publicidad.”
Este trabajo busca introducirse en el mundo de la publicidad local y conocer cuál es el verdadero uso y apropiación que hacen de las nuevas tecnologías de la información dos empresas publicitarias de San Juan.

II. MARCO REFERENCIAL

a) FUNDAMENTACIÓN

Para la realización de este trabajo se dividió el tema en dos grandes polos de análisis.
Por un lado se abordó el uso que hacen de las tecnologías de la información dos publicistas locales en el tratamiento digital de imágenes y sonido para la elaboración de avisos para distintos soportes de destino.
Y por el otro, se estudió de manera separada la elaboración de contenidos publicitarios para la web, ya sea en forma de sitios o bien avisos que se publican en páginas ajenas.
Con respecto a este último punto, el análisis de la relación entre la publicidad e Internet surgió a partir de otro aspecto distinto, novedoso y en vías de un desarrollo exponencial: “el comercio en la web”. Esta es una característica especial que ofrece la red casi de manera exclusiva, ya que la televisión también ofrece las compras telefónicas.
Pero, según Juan Luis Cebrián, en su libro “Publicidad, marketing y desarrollo” “... estamos en los comienzos de un nuevo comercio que en un futuro breve será un auténtico mercado electrónico.”
De acuerdo con este autor, las compras desde casa a través de la computadora se van incrementando, y a pesar que ahora los valores que se mueven son pequeños, en un par de años se tratará de miles de millones de dólares.
“En la actualidad son 200.000 los hogares que utilizan este sistema de compras en Estados Unidos, pero se prevé que en el año 2007 sean cerca de 20 millones de familias las que utilizarán Internet para comprar la mayoría de sus artículos. En el país todavía el porcentaje de la población de internautas es muy bajo, algo más del 0,5 del total de la población. Pero a nivel mundial, los valores son mucho más interesantes.”
Personalmente creo que la publicidad a través de Internet es muy importante para todas las empresas, porque si el comercio que viene es el “e-commers”, publicitar sus productos en el mismo medio resulta imprescindible.
Además, su análisis resulta fundamental ahora, porque es una práctica que va creciendo, y en un futuro no muy lejano su utilización será fundamental y determinante para cualquier empresa.
Barry Salzman, presidente de DoubleClick Media, afirma que las virtudes principales de la publicidad online son la segmentación, la optimización de la ecuación, el alcance, la frecuencia, la posibilidad de variar y modificar la creatividad y la capacidad de medir la eficacia de las campañas. Además dice que Internet contribuye a reforzar los atributos de la marca.
Por supuesto que, al hablar de Internet como medio publicitario hay que considerarlo como uno más dentro de los demás, ya que, según la naturaleza del producto que se desea promocionar, habrá que pensar en el medio más adecuado para usar, o en la combinación de ellos que resulte más efectiva. Además, las empresas utilizan otros canales tradicionales, como la radio y la televisión, para publicitar los sitios webs propios, o aquellos en los que están “colgados” sus avisos.
No hay que olvidar que “hay algo fundamental que trae aparejada esta revolución: las nociones de tiempo y espacio en la era digital desaparecen. Ya no habrá horarios en el comercio ni tampoco importará dónde está ubicada la tienda.”
Cebrián se refiere a este cambio como una revolución, pero no es el único autor que así lo destaca.
Por su parte, Manuel Castells, autor del libro “La Era de la Información: Economía, sociedad y cultura” dice que “el núcleo de la transformación que estamos experimentando en la revolución en curso remite a las tecnologías del procesamiento de la información y de la comunicación. Las tecnologías de la información son el motor de cambio de esta revolución.”
Pero, a pesar de las amplias ventajas que se generan al comprar desde casa, hay que señalar algunas limitaciones. Todavía no hay regulación de la publicidad en la red y hay una marcada invasión hacia los consumidores en los buzones de sus correos electrónicos. También debemos considerar que el contenido social de las compras tradicionales se pierde en el comercio virtual.
A pesar de estas desventajas, Cebrián aporta el motivo principal que dio origen a ese trabajo, ya que “El crecimiento de este medio es visible, pero sus niveles son enormes. Cuanto antes se lo considere y se lo use, mejor posicionados estarán nuestros productos o servicios.”
En función de esta afirmación decidí analizar cuál es la importancia, el lugar y el uso que le dan las empresas de publicidad locales a Internet en primer lugar y consecuentemente a las nuevas tecnologías.

b) DEFINICIONES OPERATIVAS

Manuel Castells, siguiendo en las afirmaciones a Harvey Brooks y Daniel Bell, entiende la Tecnología como “el uso del conocimiento científico para especificar nuevos modos de hacer cosas de una manera reproducible.”
Para el uso específico de este trabajo, se entenderá como “tecnologías de la información” a: “el conjunto convergente de tecnologías de la microelectrónica, la informática (máquinas y software), las telecomunicaciones (televisión y radio) y la optoelectrónica.”
Esta definición se remite a que “el proceso actual de transformación tecnológica se expande de manera exponencial por su capacidad para crear una interfaz entre los campos tecnológicos mediante un lenguaje digital común en el que la información se genera, se almacena, se recobra, se procesa y se transmite.”
Por otro lado, cuando me refiero al “acceso, uso o apropiación” de las tecnologías de la información por parte de las agencias publicitarias, lo hago en función de la efectiva utilización de herramientas para el tratamiento digital de imágenes y sonido en la construcción de avisos publicitarios.
Además, también se tendrá en cuenta para este aspecto la utilización de Internet como un medio de comunicación más, ya sea en su acotado uso para el transporte de información y mensajes publicitarios, o como soporte de páginas webs comerciales de las empresas clientas de la agencia de publicidad analizada, y avisos publicitarios creados por la agencia en cuestión y colocados en páginas con contenidos de otra índole.

III. PLANTEOS METODOLÓGICOS

A) HIPÓTESIS Y OBJETIVOS

Antes de realizar la investigación parto de la premisa que las empresas de publicidad locales no tienen un real acceso a las nuevas tecnologías de la información y no se aprovechan de los beneficios que éstas pueden aportar.

Para poder demostrar o refutar esta hipótesis me planteé dos objetivos:
- Conocer cuál es el real acceso y uso de las nuevas tecnologías de la información que tienen dos empresas locales de publicidad; y
- Conocer si los empresarios de la publicidad local son conscientes de los beneficios que les aporta Internet a sus trabajos.

b) METODOLOGÍA

Para poder cumplir con mis objetivos y demostrar la hipótesis es necesario cumplir con un programa de trabajo desarrollado a tal efecto.
Para poder realizar esta investigación utilicé la técnica de las entrevistas en profundidad con los propietarios de dos empresas locales de publicidad.
Ambos propietarios serán entrevistados de manera individual y sin conocimiento de las respuestas de su colega.
A los mismos se los interrogará, en primer lugar, sobre los procesos desarrollados para la producción de mensajes y avisos publicitarios, teniendo especial interés en las tecnologías de la información utilizadas en los mismos.
A este respecto, se le preguntará a cada empresario como se trabaja para cada medio en particular. Es decir, que se identificará como es el proceso de producción del mensaje publicitario cuando el aviso es para televisión, como es el proceso cuando el aviso es para radio y finalmente como se trabaja para los medios gráficos tradicionales y en las presentaciones para los clientes.
También es fundamental conocer como se transfieren estos datos o archivos entre las agencias de publicidad y los medios difusores, para por último dilucidar cual es la relación existente entre los medios difusores de los mensajes publicitarios y las tecnologías de la información que tienen las empresas.
El segundo lugar se les preguntará por la utilización que hacen de Internet. Respecto a este punto es de sumo interés conocer como trabajan ambas agencias con los avisos online y con la realización de páginas webs para sus clientes, en función de los trabajos que éstos últimos le solicitan a los publicitarios.
Es decir, que no solo se intentará conocer cuáles son los pedidos de trabajo que hacen los clientes de las agencias publicitarias (si son los clientes los que solicitan las páginas web o los publicitarios las ofrecen como un servicio más), sino también que es lo que se ofrece al mundo desde el mercado sanjuanino.
Este segundo aspecto del análisis será diferente y tendrá otro tratamiento. Acá los datos estarán subdivididos en dos grandes categorías: los avisos a publicar y las páginas web.
A su vez cuando nos refiramos a los avisos que arman las agencias para publicar en sitios webs ajenos nos detendremos en el proceso de producción del banner, y en la contratación de la página que lo contendrá. A ese respecto también será necesario averiguar el proceso que lleva a los clientes a la elección de esta forma de publicidad.
Sobre la producción de páginas webs se investigará todo el proceso de producción, los costos y quienes son los encargados de realizar el trabajo. Además será necesario investigar cuales son las características que requieren las empresas o productos para que la agencia les recomiende la creación de una página.
Con los datos obtenidos de las mismas pretendo analizar los datos vertidos por los publicistas, y a partir de ellos inducir conclusiones generales acerca del uso de las nuevas tecnología de la información en la publicidad sanjuanina.

c) EMPRESAS ELEGIDAS Y FUNDAMENTACIÓN

A los efectos de la realización del este trabajo, elegí trabajar con las empresas “Soler Jamed Comunicaciones” e “Idemi – Rosi Producciones”.
Estas empresas no fueron seleccionadas al azar, sino en función de que puedan resultar representativas de la realidad publicitaria sanjuanina.
Ambas empresas cuentan con una amplia trayectoria en el medio publicitario sanjuanino y abarcan las cuentas más importantes de la provincia.
Además cuentan con niveles tecnológicos muy altos en cuanto a equipamiento se refiere, y me permiten realizar el mejor análisis posible de la situación en general.

III. BREVE HISTORIA DE LAS AGENCIAS

a) SOLER JAMED COMUNICACIONES

Su propietario es Daniel Soler, empresario sanjuanino que comenzó su tarea profesional hace más de 15 años. Inicialmente fundó la productora de televisión Fax TV, quien fuera la encargada de distintos programas televisivos transmitidos por el canal de cable local 2 de TVO.
Posteriormente, junto a Gustavo Idemi fundó la agencia de publicidad SI Publicity Group. Con esta empresa integró Intrawork, una red que nucleaba las agencias de publicidad del interior del país. A partir de aquí comenzaría su trabajo dedicado al ámbito publicitario.
Después de la separación de ambos empresarios, Daniel Soler abre la empresa Soler Jamed Comunicaciones hace cinco años. Esta nueva agencia está dedicada no solo a la publicidad, sino también a otros aspectos comunicacionales.
Desde estas empresas, Soler se ha dedicado a la consultoría comunicacional, a la realización de campañas y estrategias de comunicación política y comercial, campañas institucionales de gobierno provincial y municipal, campañas de lanzamientos para diversas categorías de producto, desarrollos estratégicos de negocios, estrategias de marketing, coaching, contenidos televisivos, producción de programas y cortos publicitarios.
Pero solo en el ámbito publicitario que es el que nos importa a los efectos de la realización de este análisis, sus trabajos han sido bastante importantes y destacados.
Como antecedentes más importantes puede mencionarse la realización de la campaña propagandística para la Alianza en las elecciones de 1999. De esta campaña se obtuvo el éxito electoral, al resultar electo el doctor Alfredo Avelín como Gobernador de San Juan.
También fue el encargado de la propaganda de Roberto Basualdo en las elecciones para Diputados Nacionales, donde también se obtuvo el éxito electoral.
Como ya mencionamos, de los productos comerciales con los que trabaja, Soler es el encargado de todos los aspectos publicitarios de importantes empresas locales. Entre estas firmas comerciales se encuentran Rafael Moreno, Energía San Juan y El Nuevo Diario entre otras.
Pero en la actualidad, su trabajo ya trascendió las barreras provinciales, realizando trabajos para empresas de Mendoza y Buenos Aires.
Para Mendoza realizó la campaña publicitaria de CMS Energy, empresa distribuidora de energía eléctrica, con motivo de cumplir 10 años prestando el servicio.
En Buenos Aires trabaja en conjunto con la agencia, y es la encargada de distribuir los cortos comerciales de los supermercados Norte en nuestra provincia.
Además, esta agencia es la encargada de la realización de toda la campaña publicitaria de la empresa minera canadiense Barrick Gold Corporations en la provincia de San Juan.

b) IDEMI – ROSI PRODUCCIONES

Gustavo Idemi es el gran propietario de esta empresa que comenzó su trabajo profesional como creativo en el año 1983.
Al comenzar fundó la empresa Creative, pero solo estuvo en ella dos años porque, decidió irse a trabajar a Buenos Aires.
Desde sus comienzos su fuerte fue la producción gráfica, labor que lo llevó a convertirse en la actualidad en el único dibujante dedicado a la animación, totalmente artesanal.
Al comenzar la década del ´90 fundó su propia productora gráfica y agencia de publicidad. Junto a Daniel Soler en Si Publicity Group lograron el mayor éxito local. En ella alcanzó a tener el 90% del negocio de packaging de las bodegas sanjuaninas.
Con este trabajo Idemi progresó mucho, por lo que decidió especializarse en las bodegas y el etiquetado.
Él apostaba más a la gráfica, por lo que paralelamente realizaba trabajos de boutique creativa para otras agencias.
De la mano del éxito de las bodegas, vinieron las primeras campañas políticas, y tras los triunfos electorales se adhirieron a su trabajo muchas empresas comerciales sanjuaninas.
Según Gustavo Idemi ellos fueron los primeros trabajadores gráficos que hacían animación, y todos los que están trabajando en esto actualmente pasaron hace muchos años atrás por su agencia para aprender.
Luego de la separación de Soler, Gustavo inició su propio emprendimiento queriendo retomar el éxito conseguido.
Entre las firmas comerciales que actualmente tiene su agencia se encuentran:
- “Las Artesanías de la Abuela”, Polidoro Pollos.
- Martinazzo Deportes, Almar, Bodegas Bórbore y Vinos Nesman.
- Cadena América, Il Duomo y muchas otras más.
También es importante destacar que la empresa publicitaria de Idemi fue la primera que recibió la autorización para trabajar los tetrapack. Desde Buenos Aires llegó una comisión al solo efecto de certificar su trabajo.
Y no solo en este aspecto, Gustavo fue pionero. Hoy se encuentra abocado al desarrollo de las publicidades en los ómnibus y en la vía pública. Pero, a pesar que estos rubros no son nuevos en el país, en la provincia nadie se había encargado de explotarlos hasta ahora.

IV. ANÁLISIS DE LAS EMPRESAS

A) Uso de las tecnologías de la Información

El uso y acceso que ambas empresas hacen de las tecnologías de la información es bastante similar. Debido a esta característica hablaremos de ambas al mismo tiempo sin hacer distinción, pero cuando haya alguna característica especial que solo tenga una de ellas, se especificará de cual de las dos agencias se trata.
El trabajo de agencia está íntimamente relacionado con las tecnologías de la información, a tal punto que su evolución marca el ritmo de la tarea comunicacional.
Ya no se concibe el trabajo diario sin el teléfono, Internet y los medios convencionales de comunicación, como radios y televisión satelital. Además el uso de computadoras es totalmente imprescindible.
Si debiéramos hablar en líneas generales, y de acuerdo a una primera impresión, ambas agencias tienen un nivel bastante alto en cuanto al uso de tecnologías de la información.
Sin embargo, según Gustavo Idemi, en San Juan se trabaja con la tecnología que ya se dejó de usar en grandes urbes, como Buenos Aires. Además, los aparatos tecnológicos progresan muy rápidamente, y nunca se puede tener lo último o lo más nuevo si no se está en una constante actualización cada seis meses como máximo.
Para Daniel Soler, no puede haber un buen trabajo sin la tecnología de la información adecuada. Pero no dejó de resaltar que esa tecnología de la información debe adecuarse al mercado en la que se utiliza.
En este aspecto económico ambos publicistas coincidieron, ya que ningún empresario, de ninguna área, invertirá en nuevas tecnologías de la información de última generación (que tendrán un elevado costo) sin calcular antes cuánto tiempo demorará en recuperar esa inversión.
Una frase constante entre ambos entrevistados fue que “... en San Juan no hay mercado para las tecnologías de la información”.
Con esto se refieren, por ejemplo, a que tener una gran máquina que hará los trabajos de mejor calidad en menos tiempo cuesta 100.000 dólares. Entonces, a sus clientes les deben cobrar 1000 dólares por los trabajos realizados con ella. En cuanto dicen el precio a sus clientes, estos no piensan en los beneficios que les traerá este oneroso trabajo, sino en lo que les costará, y por ende deciden no realizarlo. Entonces la agencia de publicidad se queda sin trabajo y con una inversión en una máquina de última generación que le resultará imposible de recuperar.
En esos casos, tener una tecnología de la información de avanzada no le sirvió de nada a la agencia. Y esto es una realidad en San Juan, porque acá no se invierte en tecnologías por las limitaciones del mercado.
Sin embargo, y pese a los condicionamientos que pone el mercado sanjuanino, es interesante conocer como trabajan las agencias de publicidad analizadas en la producción de avisos en este nuevo lenguaje digital.

1. Procesos desarrollados en la producción de mensajes publicitarios

Pese a las limitaciones en la inversión, las agencias analizadas trabajan de diferentes maneras en la producción de los mensajes publicitarios. Cada trabajo varía en función del medio en el que se publicitará el aviso publicitario.
Inicialmente, todo el trabajo de producción pasa primero por una computadora.
Posteriormente, según cual sea su destino, es derivado a una impresora o un soporte que ahora puede adaptarse a las necesidades de cada uno de los medios donde se utilizará. Otra posibilidad es la inmediata colocación en la red para ser transmitido inmediatamente al punto deseado.
Luego de todo el proceso de producción viene la difusión. Aquí los contenidos publicitarios son transmitidos en los medios de comunicación según sean las necesidades de los clientes.

- TELEVISIÓN
Para la grabación de las publicidades en las que están involucrados actores se trabaja con una DVCam. La misma es una cámara filmadora y fotográfica digital, de excelente resolución y pequeño tamaño.
En la misma sesión de trabajo y con los mismos instrumentos se toman las imágenes necesarias para el aviso publicitario televisivo y las fotografías para ser usadas en la campaña gráfica.
Luego de este proceso, que puede realizarse en exteriores, o en estudio para luego colocarse en otro fondo, las imágenes pasan directamente a una computadora. En la misma se reproducen los archivos obtenidos anteriormente y se modifican de acuerdo a la necesidad del cliente y del aviso.
A través de distintos programas como Adobe Ilustraitor, Adobe Premier, Sound Fourd y 3D Estudio se realizan todos los arreglos que correspondieran en cada caso. Lógicamente estos arreglos nos ofrecen una gran variedad de opciones. Se puede arreglar las imperfecciones de los actores, agregar fondos distintos a la acción, colocar y sacar objetos, cambiar los colores, etc.
Posteriormente se realiza la edición del trabajo y se agrega el sonido paralelamente. Todo este proceso también es computarizado.
El trabajo final es un archivo de computadora que puede ser usado y transformado cuantas veces se desee, sin que se pierda la calidad original. El mismo archivo se puede adaptar a través de los programas de computadora que existen para tal efecto para ser usado en los distintos medios.
En el caso de las agencias analizadas en esta investigación, ambas productoras trabajan el material en formato AVI. Este archivo a su vez debe convertirse a otros formatos. Así, grabado originalmente en este formato estándar, se puede bajar a los distintos soportes y adaptarse a los requerimientos de los canales.
En San Juan hay actualmente tres canales de aire y uno de cable. Cada uno de estos medios o empresas dedicadas a la comunicación recibe el material en distintos formatos y soportes:

- Canal 8:
Canal 8 trabaja con DVC. Estos son soportes digitales de excelente definición. La reproducción se logra con la misma fidelidad digital con la que se tomaron las imágenes de la realidad.

- Canal 5:
Telesol recibe el material en CD, logrando mantener la calidad del archivo.

- Canal 4:
También recibe el material en CD.

- Canal 2 de TVO:
La empresa Supercanal acepta VHS en su casa central y luego ellos se encargan de pasarlos por microonda hasta la planta de transmisión. En este caso, al pasar el archivo obtenido a un casette de video se pierde un poco la definición.
Posteriormente, cuando esta empresa lo manda a la planta de transmisión por microonda la calidad disminuye considerablemente, debiendo presentar un trabajo poco satisfactorio en cuanto a la calidad de imagen.
Por eso las agencias prefieren mandar sus trabajos directamente a la planta, donde reciben el material en un CD común, y el trabajo final sigue siendo solo un archivo. Así logran mantener medianamente la definición lograda en las computadoras.

- RADIO
Por otro lado, las radios reciben todos los materiales en formato MP3 o WAV y en soporte CD. En este caso todas las emisoras de la provincia trabajan de manera similar, pues la utilización de estos procesos se ha vuelto común.

- MEDIOS GRÁFICOS
Los distintos medios gráficos de la provincia reciben los materiales con extensión JPG en CD.
Para diseñar se utilizan programas como Corel Draw y Photoshop y siempre en PC. Existen pocos medios en la provincia que utilizan Mac y sus programas de diseño.

- PRESENTACIONES A LOS CLIENTES
Cuando es necesario presentar los trabajos a los clientes para obtener su aprobación antes de la difusión masiva del comercial, se utilizan cañones de proyección que, a través de una notebook, se digitaliza la imagen y la proyectan en una pantalla. El formato de programación es MPG.

2. Transporte de los avisos publicitarios digitalizados

Con la digitalización de los trabajos, la comunicación y la transferencia de los mismos resulta mucho más fácil. Aquí es donde Internet juega un papel crucial para ambas agencias de publicidad.
En los casos de las radios y los medios gráficos es posible transmitir los archivos que contienen las publicidades a través del correo electrónico e Internet, sin necesidad de dirigirse personalmente a entregar los trabajos en CD.
Además, gracias a la red de redes, logran recibir también muchos archivos de sus clientes que se encuentran en otras provincias.
En el caso de la agencia Soler Jamed Comunicaciones, Internet le permite mantenerse en contacto permanente (y a bajo costo) con sus clientes que se encuentran en distintos lugares del mundo. A través de Internet logran video conferencias y teleconferencias, que contactan varios países al mismo tiempo, y logran la comunicación en directo con los más altos directivos de Barrik en Canadá, EE.UU. y Chile al mismo tiempo.

3. Medios difusores de los mensajes y tecnologías de la información

Hasta el momento la simple descripción de los procesos de digitalización y tratamiento de los archivos en cada medio no nos permiten visualizar correctamente cual es la relación que existe entre estos medios difusores del mensaje publicitario y las tecnologías de la información con la que cuentan las empresas.
Gustavo Idemi afirma que son los medios transmisores de los que condicionan a las agencias de publicidad en las tecnologías de la información con la que deben contar. Son los medios de comunicación los que marcan el tope.
En San Juan, los medios de comunicación están desactualizados en tecnologías de la información. Por ende, las empresas de publicidad no pueden progresar más allá de lo que lo han hecho los medios de comunicación en los cuales transmitirán sus mensajes. Las agencias de publicidad deben adaptarse a las tecnologías de la información que imponen los distintos medios de comunicación.
Si Canal 8 tiene la tecnología más avanzada de la provincia y utiliza el formato DVD, las agencias de publicidad locales están condicionadas a tener la tecnología de la información necesaria para lograr ese formato. No necesitan ir más allá porque no habrá donde publicitar. Si las agencias deciden seguir avanzando en las tecnologías de la información deberán soportar las pérdidas monetarias que les resultarán al no tener donde colocar sus productos. La inversión sería innecesaria.
Según Daniel Soler esa realidad es innegable. Pero el estar condicionados a las tecnologías de la información que le imponen los medios de comunicación locales, los hace perder terreno en otras provincias. De acuerdo a este publicista que actualmente realiza trabajos para empresas de Mendoza y Buenos Aires, se pierde constantemente en la competencia con empresas de afuera de la provincia debido a una cuestión de tecnologías de la información. Pero él afirma que la creatividad de cada agencia es fundamental para poder realizar trabajos de similares características en cuento a la calidad final del producto, pero ofrecida a costos mucho menores.

b) LA PUBLICIDAD EN INTERNET

Como se había explicitado al principio de la investigación, el segundo polo de interés está dado por la utilización de Internet como un medio difusor más de los avisos publicitarios.
Como los demás medios de comunicación, Internet se presenta como un medio con características propias y diferentes a las presentadas por los demás.
Como es lógico, antes de usar un medio es necesario conocer sus alcances, beneficios y limitaciones.
La principal característica que presenta este medio es la globalidad, y eso no debe perderse de vista a la hora de publicitar un producto. Por esto se infiere que no todos los productos o empresas son adecuados para publicitarse en la red.
Daniel Soler reconoció la importancia de Internet como “el” medio para publicitar, pero no desconoció los fracasos que tuvo como agencia en las campañas lanzadas a través de banners.
Gustavo Idemi, por su parte, tiene más presente la idea de que hay productos para la red y otros que no son tan aptos, y a partir de allí recomienda o no la creación de páginas o banners. Este empresario, al igual que en el ítem anterior, remitió todas las decisiones a una cuestión económica.
Ambos empresarios se manifestaron muy conscientes de lo importante que resulta Internet como un medio de comunicación más y el que presenta mayores expectativas con respecto al futuro. Sin embargo ninguna de las dos agencias tiene su propia página web. Al respecto ambos empresarios manifestaron que las estaban creando.
Idemi confesó sentir vergüenza en algunas ocasiones ante colegas y clientes al no tener su propia página web.
Soler, en cambio, afirmó no sentir la necesidad aún de “colgar” su empresa en la red de redes.
A veces, en agencias que están haciendo escuela de Internet como medio de comunicación y apto para publicitar ante sus clientes, que no comiencen por casa con la tarea resulta incomprensible.
Para los análisis metodológicos de este trabajo es necesario considerar una subdivisión más en el tema y tener en cuenta con respecto a la publicidad en la red: por un lado la producción de banners que realiza la agencia publicitaria, y por otro lado creación de páginas webs.

1. Producción de banners por parte de las agencias publicitarias

Ambas empresas tiene tarifados correctamente este servicio, pero no los prestan con asiduidad. Esto no se debe por motivos propios, sino por la negativa de los clientes.
En el caso de Daniel Soler, si debe realizar algún banner contrata a un diseñador solo para ese caso y le paga específicamente por el trabajo realizado. Por su parte, Gustavo Idemi se encarga personalmente de realizar ese trabajo.
Daniel Soler afirmó que en San Juan todavía no hay mercado para este tipo de publicidad, porque la población es muy conservadora y el producto no tendría el éxito esperado.
Este empresario tuvo una mala experiencia con un banner, ya que no rindió lo esperado. Pero con el tiempo el empresario supo darse cuenta que el error fue en perder de vista la globalidad de este medio. En este aspecto ambos empresarios coincidieron, ya que no todos los productos son aptos para Internet.

- ¿Porqué publicitar en la web y qué productos?
Gustavo Idemi dijo que lo ideal para publicitar en la red son los servicios, es decir aquellos productos que generen algún contacto o interactividad con el público, y los productos globales. Para un supermercado no es fundamental publicitar en un lugar donde lo vea todo el planeta. Sin embargo, para un productor exportador de ajo llegar desde San Juan a todo el mundo a través de la publicidad resulta fundamental.
Al tanto de esta realidad, ambos empresarios ofrecen este servicio a aquellos clientes que realmente podrán beneficiarse con él en el corto plazo.
El cliente al invertir en publicidad quiere resultados a la vista, y si está pagando por algo que no vende no resulta beneficioso para él. Por eso, tanto Soler como Idemi son cautelosos con respecto al ofrecimiento de este servicio, y como parte fuerte de una campaña siguen ofreciendo en primer lugar a la televisión principalmente, en segundo lugar a la radio y al medio gráfico por último.
Por otra parte, las empresas sanjuaninas son tradicionales y no apuestan a la publicidad en Internet, a pesar de ser este un mercado en gran expansión.
En algunas páginas locales como medios digitales de información hay algunos banners de empresas de la provincia. Sin embargo, ninguno de ellos tiene los hipervículos necesarios para trasladarse a las páginas propias al hacer clic sobre ellos.
Diario de Cuyo ofreció a la agencia de Gustavo Idemi la venta de los espacios de los banners de la publicación digital de este diario. Sin embargo, el empresario de la publicidad no aceptó ya que esta modalidad no es económicamente rentable tanto para la agencia como para los clientes.

2. Producción de páginas webs

En este otro aspecto de la publicidad en Internet se puede observar otra predisposición de los clientes.
Gustavo Idemi afirmó que en la actualidad sus clientes le están pidiendo mucho la realización de páginas webs de sus empresas.
Sin embargo, esto en San Juan sigue siendo un mercado en desarrollo, porque erróneamente los comerciantes locales siguen sin considerar a las páginas webs como un canal más de venta, por ende no le dan la importancia que deberían.
Una vez que logran tener su página web la dejan ahí colgada, a la deriva sin prestarle la atención constante y la actualización de los contenidos que se necesitan.

- Costos de realización y encargados de la confección
Daniel Soler fue uno de los primeros publicistas en recomendar a sus clientes la confección de sus propias páginas webs.
Sin embargo, con el correr de los meses se cansó de hacer escuela en este sentido para que se beneficiaran otros.
Según este empresario, para la agencia de publicidad no es mucha ganancia la realización de una página web. Pero para el informático que la confecciona representa un gran ingreso, así como para el cliente una gran erogación.
Entonces, en el proceso económico actual se vuelve a caer en la relación costo – beneficio para analizar el aspecto, que queda condicionado por él.
Gustavo Idemi también coincidió en este aspecto. Él le atribuye a esta relación costo - beneficio la escasa promoción que ellos le dan a este tipo de publicidad.

- Características del producto o empresa que debe tener su página web
Idemi volvió a insistir que los productos que se publiciten por este medio deben ser globales o de proyección mundial. Como en el caso de todos los medios, es el producto el que debe adecuarse a los requerimientos del medio, e Internet no resulta una excepción a la regla.
Pero para aquellos productos que cumplen con las características del medio, contar con su página web resulta fundamental.
Las posibilidades de comunicación que se logran con Internet no se pueden alcanzar con los otros medios.
Consecuentemente mientras más temprano se considere las ventajas que ofrece Internet como medio publicitario, mejor posicionados estarán los productos ofrecidos.

V. Conclusiones

Luego de la investigación realizada y del análisis de los datos recabados es posible confirmar la hipótesis planteada al inicio del trabajo: que las empresas de publicidad locales no tienen un real acceso a las nuevas tecnologías de la información y no se aprovechan de los beneficios que éstas pueden aportar.
El acceso que las empresas locales tienen a las nuevas tecnologías de la información es regular y se encuentra subordinado a las tecnologías que decidan implementar los medios tradicionales difusores de los mensajes publicitarios.
Esta subordinación a las tecnologías de la información implementada por los medios (televisión, radio y gráfica) lleva a las agencias de publicidad a una dependencia que les impide el libre desarrollo tecnológico sustentable.
Además, pudo observarse que ambos empresarios son conscientes de los grandes beneficios que podría aportar Internet a sus trabajos, pero debido a una relación costo – beneficio no satisfactoria para ellos no logran hacer que este negocio despegue en San Juan.
Tanto Soler como Idemi reconocieron sus falencias como agencias al no pensar ellos primero en Internet, y los servicios que podrían prestar a todo el país desde casa.
Como ejemplo de ello está el fragmento de una página web de una agencia de publicidad de Mar del Plata donde ofrece todos sus servicios al país y al mundo dirigido absolutamente desde la red.

La navegabilidad de los sitios web de los diarios La Nación y Clarín

Alumna: Analia Belén Arancibia

Objetivos:
· Con este trabajo se pretende dar a conocer si el diseño Web de las páginas de La Nación y Clarín permite al lector realizar una navegación rápida y sencilla.
· Inferir si el diseño Web de ambas páginas presenta los elementos gráficos que aseguran la navegabilidad.
· Interpretar y diferenciar cuál de ambas páginas presenta un mejor diseño Web para navegar.

Para cumplir estos objetivos se realizará:
· Exploración de los sitios web de los diarios La Nación y Clarín.
· Observación de como se presenta el contenido informativo al lector.
· Análisis de las páginas analizando su diseño Web.
· Comparación del diseño Web para interpretar cual de ambas páginas permite una navegabilidad óptima al internauta.

Introducción:

En los últimos años Internet ha pasado a formar parte de la vida cotidiana de las personas. Hoy, se sabe que no hace falta salir de la casa para ir a comprar el diario al puesto de revistas o esperar al diariero (llamado también canillita) porque a través de la “compu” se puede leer noticias, informaciones, entrevistas, etc.
Es así que se tiene la posibilidad de elegir: hojear el diario impreso o navegar por la web en su versión digital.
Al hablar de los diarios digitales se debe destacar que la navegación puede determinar que el lector se informe o no a través de un determinado diario digital. Esto se debe, según Roxana Bassi , a que el visitante busca obtener las noticias al instante realizando un recorrido corto a través de la web.
Como se ha mencionado con anterioridad, el objetivo de este trabajo es demostrar si el diseño de las páginas de los diarios on line Clarín y la Nación permite que el lector realice una navegación rápida e intuitiva para acceder a la información.
Para comprender el tema de la navegación de los diario digitales se definirá diario on line y navegabilidad.
Se conoce desde la década del ´90 bajo el nombre de “diarios digitales: “aquellos conjuntos de páginas en formato web que reproducen día a día las noticias publicadas por empresas de periódicos en su versión papel. Las noticias impresas en hojas se convierten en texto electrónico para posibilitar su transmisión vía red informática, rápidamente y a cualquier punto del planeta.
Las más importantes empresas dedicadas a la prensa en el mundo entero editan, además de su producto tradicional en papel, una versión digital que se publica en la red de Internet, reproduciendo textos, fotos e informaciones para difundir y ampliar el alcance de sus publicaciones hacia un público heterogéneo y esparcido”.
Se debe aclarar que esta definición tan bien enunciada ha sido superada porque los diarios on line ya no reproducen solamente las noticias publicadas por su versión papel. Día a día las publicaciones digitales publican sus propios contenidos informativos. Esto se debe a que la versión on line posee la cualidad de actualizar continuamente sus notas ya que no es necesario imprimir en papel. Lo único que se debe hacer es: escribir y tipear los textos para que el lector los lea a través de la pantalla.

La Historia de los diarios on line:

Se puede decir que las primeras versiones (primitivas por así decirlo) de los periódicos digitales aparecieron a fines de los ´70 con la tecnología denominada viewdata que abría el camino a la interactividad.
Al comenzar el servicio viewdata aparecía un menú similar al de una página de diario, aunque no incluía imágenes. Desde esa pantalla el usuario elegía que noticias quería leer y cuales descartaba. La British Post Office de Gran Bretaña fue la pionera en este sistema porque llegó a tener 35.000 suscriptores en 1983.
Si bien han existido otras prácticas antecesoras de los periódicos electrónicos como el audiotex (diario por teléfono) , y el videotex ( diario por video), el nacimiento de la prensa on line se produce a fines de los ´80 en Estados Unidos.
El Chicago Tribune fue el primero que se ofreció a través de la red América On Line (hasta pasar a Internet en enero de 1995), junto al San José Mercury Center.
Hacia 1994 muchos periódicos estadounidenses brindaban servicios informativos on line: New York Times, The Washintong Post, Los Angeles Time, Newsday, Usa Today, entre otros.
Por otra parte, entre el ´95 y ´96 se consolidó el proyecto de crear el personal journal que se hizo posible con el servicio del San José Mercury Center y el Wall Street Journal. Para tener como dato, este último ofrecía un servicio pago de “personal journal” con las informaciones elegidas y un menú de opciones. Se incluía, además, el envío de la edición papel del Wall Street Journal.
En 1995 en EE. UU. se creó una alianza entre 8 de las 20 compañías editoras de diario papel para contribuir al desarrollo de los servicios en línea. Así se evidencia la preocupación prematura para otorgarle profesionalidad y seriedad a lo que se emprendía a través de la red.

Diarios digitales en Argentina:

A fines de 1995, principios de 1996,en Internet fue haciendo furor en el mundo con su nuevo juguete, el web . Las empresas de comunicación lo comienzan a utilizar , en especial, las dedicadas a la prensa porque sus publicaciones utilizan el lenguaje predominantemente escrito, el textual.
Los diarios son los elegidos para enfrentar el nuevo desafío ya que en los últimos años por el avance de la tecnología en los procesos de pre-impresión se cambia las máquinas de escribir por las computadoras en las redacciones. Por ello, los diseñadores gráficos pasan a formar parte del staff , y hasta los últimos retoques fotográficos se realizan vía digital.
La prensa de Argentina no es ajena a publicar en la Web. El 15 de octubre de 1995 el diario Los Andes de Mendoza llega a la red. Tiene por objetivo que los mendocinos radicados en el extranjero se informen aunque sea con días de atraso.
A la publicación en red del diario mendocino le sigue la aparición del La Nación On Line en diciembre de 1995. Se convierte en el primer periódico argentino de circulación nacional en ingresar a Internet.
Al principio La Nación On Line consistía en un resumen de las diez noticias más importantes del día (que significaban 64 KB de espacio).En la actualidad, como ha ido evolucionando y modificando su formato publica más de 200 notas diarias, incluyendo la edición completa del cuerpo principal del diario papel (Home), la mayoría de los suplementos semanales, ediciones especiales y exclusivas para la página, una amplia prestación de avisos clasificados y numerosos servicios en línea.
El segundo periódico que hace su entrada triunfal en Internet es Clarín Digital el 10 de marzo de 1996. Este fue creado para informar a los lectores argentinos radicados en el exterior pero también se destino a los lectores del interior del país, de ciudades donde el diario llega tarde.
Clarín Digital no sólo reprodujo la información que la empresa imprimía en papel, sino que además agrego videos, imágenes satelitales, fotos urbanas, audios, canales de chat , entre otras cosas. En el presente, su página es modificada continuamente ya que sus editores, gerentes y periodistas analizan y calculan sus alcances entre los argentinos y el mundo ciberespacial.

La evolución en los contenidos que han manifestado los periódicos digitales de la Argentina se ha producido en la prensa on line a nivel mundial. Es por eso, que John Pavlik sostiene que se aprecian tres tendencias en esta evolución:
a- En un primer momento los periodistas on line se limitan a reproducir la información de la versión impresa.
b- La segunda etapa, surgida a finales de 1996, se caracteriza por la presencia de webs informativos de mucha mayor calidad. Los periodistas crean contenidos originales e incluso los mejoran con hiperlinks, máquinas de búsqueda y cierto grado de personalización.
c- La fase actual presenta un tipo de contenido que únicamente se encuentra en determinados websites: artículos noticiosos originales diseñados específicamente para la web como nuevo medio de comunicación. Este estadio se destaca por la voluntad de replantearse la naturaleza de la comunidad on line y por experimentar con las nuevas formas de narrar.

A estas etapas se le debe añadir un cuarto estadio en el cual los servicios informativos online ofrecen un tipo de contenido que se aleja de lo puramente noticioso: informaciones sobre la ciudad de la que es originario el medio (restaurantes, cines, espectáculos, carreteras, etc.). Y en todos los casos manteniendo las posibilidades de interactividad de Internet, es decir, el poder comprar o reservar desde el propio ordenador.

¿Qué es la navegabilidad?

Con el paso de los años los sitios web de los diarios digitales han evolucionado, poseen un diseño propio que incluye índices o menús, secciones y ventanas de búsqueda para que rápidamente el lector acceda a la información que llama su interés. La aparición de estos elementos en las páginas de la prensa on line ha originado que los especialistas en diseño web determinen cuales son las premisas que aseguran la navegabilidad.
Sin embargo, antes de hablar de las características que debe poseer un sitio para que su navegación sea rápida es necesario definir este término para entrar de lleno en el tema.
Juan Carlos Jiménez define a navegabilidad como “todas las propiedades interactivas presentes en la estructura del contenido de un website, que les permite a los usuarios, con un determinado grado de eficiencia, identificar las distintas secciones de los contenidos y desplazarse entre ellas, manteniendo el sentido de la ubicación”.
Es por ello que para que una página web asegure su navegabilidad y, el visitante se convierta en un usuario asiduo necesita incluir, según Juan Carlos Jiménez, en su diseño cinco cualidades interactivas: estructura, ubicación, desplazamiento, contexto y resalte.

1-Estructura:
Es la forma y el estilo en que está organizado y expuesto todo el contenido del website,y debe reflejar los distintos niveles de importancia que tiene cada una de las partes del contenido.
Una estructura bien definida muestra, de la manera más clara, directa y amigable, una clasificación tal del contenido que permite a los usuarios identificar rápidamente y exactamente lo que quieren

2-Ubicación:
La página web debe tener una consistente estructura informativa que le indique a los usuarios en todo momento en que lugar del website ellos están. No importa en que nivel del contenido el internauta se encuentre en un momento determinado. Si tiene problemas para identificar donde está, la estructura de navegación del website tiene problemas y debe modificarse.
El sentido de la ubicación es el primer generador de comodidad y seguridad en la experiencia interactiva de los usuarios con las interfaces que constituyen una página web.

3-Desplazamiento:
Una clara estructura de desplazamiento, además de reforzar el sentido de ubicación en los usuarios, les permite moverse lo más rápidamente posible y con una lógica simple a través de todo el contenido de un website.
Cuando el desplazamiento no está correctamente resuelto, el internauta se suele perder en un website y necesita regresar a secciones ya revisadas para poder llegar hasta otras. Y a aunque una de las grandes dificultades es determinar el grado de redundancia necesaria en la estructura de desplazamiento en un website, una de las medidas de navegabilidad consiste en la posibilidad de moverse de un contenido a otro, con la menor cantidad de clicks.
La cualidad de desplazamiento en un website determina el alcance y la profundidad de las visitas al mismo. En otras palabras, una simple estructura de desplazamiento le permite a los usuarios conocer la mayor cantidad de contenidos en una página web.

4-Contexto:
Las interfaces deben proveer a los internautas de suficientes referencias explícitas que ayuden diferenciar una sección de otra, al mismo tiempo que evidencian la familiaridad entre las mismas.
Sean muchas o pocas, todas las secciones de una página web deben ofrecer un contexto específico de la sección y uno común al website, y la claridad de cada uno de estos contextos es lo que determina que el website sea percibido como una sola entidad.
Además, el contexto es la cualidad de la navegación donde principalmente se apoya la imagen de un website, contribuyendo a proporcionar personalidad y estilo.

5-Resalte:
La navegabilidad también depende de la claridad y la consistencia con la que se destacan unos contenidos de otros. No sólo se necesita diferenciar una sección de otra. Es indispensable transmitir con claridad los distintos niveles de importancia en un contenido determinado y resaltar los contenidos que se desean promocionar.
Cuando se le indica a los internautas la relevancia de un contenido sobre otro:
· Se induce la lógica de navegación que más conviene.
· Se da un soporte más seguro a la decisión final del click
· Se alerta acerca de lo más o menos importante.
· Y se comunica los niveles de subordinación en la estructura de la información.

Por otra parte, Antonio Herrera Bustamante menciona que para conseguir una buena navegabilidad en las páginas web es necesario:

1-La Navegación Recursiva:
Se llama al menú que tiene que estar presente en todas las páginas web, es decir el link que va a la página principal, o también llamada “Home” y todo aquello que es relevante en la web que deba tener visible el lector, tal como la dirección de mail o cualquier medio de contacto.

2-Mapa del Web:
Se debe incluir un link, en la navegación recursiva, que enseñe el mapa web. Esto permite a los surfeos del site, encontrarse a si mismos y a la información que buscan.

3-Directorio Dinámico:
Se trata de una pequeña línea en la parte superior de la página que va indicando el lugar donde se encuentra el usuario y por el que va navegando. Enseña los directorios y subdirectorios por los que ha pasado, hasta llegar a la página actual. Además, debe tener un link que permita volver hacia atrás en la navegación con solo un click en cualquier momento.

4-Distribución de la información de manera lógica:
La finalidad de esto es conseguir un mejor acceso a la información de forma rápida y clara, con los menores toques de ratón posibles.

El ínternauta debe navegar una página a través de un recorrido que lo conduzca directamente a la información que desea obtener. Por este motivo, la web requiere un diseño que haga la navegación dinámica y clara.¿Qué es el diseño Web?
Se define al diseño web como “una actividad, enmarcada dentro del universo del diseño gráfico, tendiente a concebir, programar , proyectar y realizar comunicaciones visuales , producidas por medios digitales destinados a Internet con el fin de transmitir mensajes específicos a un segmento de receptores e interactuar con ellos”.

Hablar de diseño web es importante porque esta actividad posee ,como uno de sus objetivos, determinar la composición de los elementos gráficos que caracterizan a una página y guían la navegación que realiza el usuario.


Composición de una Página Web:

La composición de una página web, según Roberto Sergio Fonseca , está basada en una serie de objetos, algunos de los cuales son análogos a los que se encuentran en una publicación impresa, por ejemplo el diseño editorial. Sin embrago, existen otros tipos de objetos propios de los programas de diseño web y otras aplicaciones multimedia.
Fonseca dice que “los elementos que componen una web son todos aquellos objetos propios de una web, cada uno con características y funciones particulares dentro del funcionamiento de un sitio web. Los objetos gráficos que componen un sitio son: menús desplegables, botones, barras de exploración, ayudas, imágenes, animaciones, etc”.
A continuación se dará una clasificación y definición de los elementos gráficos de la web que sirven para navegar y obtener de forma inmediata la información:
1- Menú: Este es el sistema de navegación estándar .Comúnmente se ubica en la columna izquierda de la página principal, y se asemeja a un índice con el título de las diferentes secciones del sitio Web a las que se puede acceder a través de enlaces o hipervínculos.
En algunos casos, se presenta al usuario utilizando aplicaciones en las que despliegan un menú mostrando sub-secciones de cada nodo, de manera que el usuario pueda acceder a cada una de ellas.
2- Menús desplegables: Permiten seleccionar la sub sección a la que se quiere llegar de una manera rápida.
3- Botones: El botón como concepto, es un elemento estratégicamente ubicado en una página Web, el cual al pulsarlo ejecuta una acción determinada.
Los mismos pueden trabajar independientemente del contenido o como parte de un formulario para enviar o restablecer datos del mismo.
Casi cualquier objeto en una página Web puede cumplir la función de botón, lo importante es considerar que un botón puede tener una forma analógica, o bien ser un texto o una imagen que funcione como tal. Tipos de botones:
1-Botones de opción: Re presentan opciones exclusivas de elección. Al seleccionar un botón en un grupo, se anula la selección de todos los demás botones del grupo.
2-Botones enviar y restablecer: Envían o borran el contenido de un formulario, cuando se pulsa enviar, recopila y manda la información del formulario, a la base de datos del servidor que se halla seleccionado.
3- Imágenes de sustitución: Son botones con dos imágenes, las cuales actúan como una unidad.
La imagen de sustitución tiene dos estados: cuando el mouse está fuera del área de acción de la imagen y cuando el mouse se posiciona sobre la misma, además permite asignarles un destino (vínculo) al hacer click sobre ella.
4- Botones de Flash: Tienen cuatro estados posibles cuando el mouse: está fuera del área de acción del botón, cuando está sobre, cuando presionamos sobre él y el área de acción en
la cual el objeto es sensible.
Estos botones permiten transparencia y animación.*
5- Barra de Exploración: Se compone de una imagen o un conjunto de imágenes cuya visualizaciones cambia según las acciones que realice el usuario. Puede tener cuatro estados:
· Arriba: la imagen que aparece cuando la página se carga inicialmente.
· Sobre: la imagen que aparece cuando el cursor pasa sobre una imagen.
· Abajo: la imagen que aparece cuando se hace click en una imagen.
· Abajo: y Sobre. La imagen que aparece cuando el cursor pasa sobre una imagen después de haber hecho click en ella.
6- Buscador Interno: Son sofwares permiten al usuario navegar o recorre la web. La aplicación de este concepto es el mismo que el de los motores de búsqueda tradicionales. La diferencia radica en el hecho de que la búsqueda se hace exclusivamente al interior del sitio.
7- Mapa del Sitio: Esta función, muestra las estructura en la que está organizado el sitio web. El usuario podrá identificar la ruta más corta que deberá seguir para acceder a la información requerida.

Todos los objetos mencionados ofrecen al usuario diferentes maneras de llegar a un mismo sitio. El incluirlos asegura un buen diseño de navegación porque :
· Minimizara el viaje: Creará el camino más corto entre dos puntos cualquiera.
· Minimizara la profundidad: Creará jerarquía con el menor número posible de niveles.
· Minimizara la redundancia: Evitará crear caminos múltiples al mismo lugar desde la misma pantalla, ya que esto crea confusión.

Análisis de los sitios web de La Nación y Clarín:

Una vez definidas las cualidades y los elementos que componen una página se procederá a analizar los sitios web de los diarios La Nación y Clarín. A través de esto se pretende determinar cual de ambos le da al lector una mejor navegabilidad para obtener información.

La Nación:

A través de la exploración del sitio del diario La Nación se observa que este incluye en su diseño: menú, botones, navegador interno y mapa del sitio.
Al comienzo de la página, es decir debajo del logotipo de La Nación ,el lector visualiza una barra de color azul que está compuesta por cuatro botones: Noticias, Deportiva, Entretenimiento y Opinión. A través de ellos se accede a las noticias que tiene la portada, las secciones de deportes, entretenimiento y editorial.
Estos son botones de opción porque al seleccionar uno de ellos se anulan los demás botones del grupo. Es decir, que al hacer click aparece la información que contiene solamente la página que el botón indica.
Al acceder a la sección elegida se observa que la composición de los objetos se mantiene. Los cuatros botones permanecen ubicados en la parte superior de la página. También, se ve que el menú estándar permanece a lo largo de toda la navegación del sitio.
Se dice que la página de La Nación posee un menú estándar porque es una columna que se ubica a la izquierda de la página principal. A través de este el navegante accede a todas las secciones que componen al diario.
El menú está dividido en cinco partes: Noticias, Multimedia, Avisos, Clasificados, Otros Formatos y Especiales. Las secciones se dividen su vez en las sub-secciones que componen al diario.
Las sub-secciones son botones de opción porque que el lector al clickear en algún botón de la secciones puede acceder a otras páginas. Es así que a través de los botones de Noticias se ingresa a: Portada, Últimas Noticias, Ranking de Notas, Política, Economía, Deportiva, Información General, Exterior.
Por otro lado, mediante Multimedia se accede a: Fotos, Audios, Vídeos e Infografìas.
La sección Avisos posee dos botones: Fúnebres y Sociales.
Cuatro botones componen a la sección de Clasificados: Inmuebles, Autos, Empleos, Ver Todos.
Se debe destacar que al acceder a una de las páginas de Clasificados, por ejemplo Inmuebles, se observa que la información está organizada en un menú estándar. Se puede clickear sobre distintos botones como Departamentos; Casas; Barrios Cerrados, countries y quintas, etc.
Por otra parte, en la portada de La Nación y en las demás páginas se observa un botón de opción que conduce al Mapa del Sitio. Este objeto está identificado con el nombre Mapa del Sitio; se ubica en la parte inferior izquierda de las páginas.
El Mapa del Sitio muestra la estructura en la que se organiza las secciones del periódico. Al acceder a su página el navegante se encuentra con un esquema en el que aparecen identificadas las secciones y sub-secciones.

El mapa se ubica en el centro de la página, y que al igual como se ve en todo el sitio el menú estándar está presente a la izquierda.
El navegante al dirigirse al Mapa del Sitio, y al clickear en sus botones accede de forma directa a la información sin tener que navegar por el menú estándar o los botones de opción que se encuentran en la parte superior de las páginas. (A este tipo de mapa del sitio se lo conoce también como mapa sensible).
Concluida la descripción de los objetos que permiten navegar el sitio web de la Nación, se destaca que en el centro de la portada se presentan las notas más importantes. Los principales titulares se ubican al comienzo de la portada. Estos son botones de opción porque el lector clickeando accede a las páginas de las notas.
Otra característica es que cada sección posee un Ranking de notas para que el navegante tenga acceso directo a las demás notas de la sección. Se ubica en la parte inferior de las páginas.
También, las páginas de las notas presentan el Ranking de todas las notas. Con este el navegante puede salir de una sección determinada para leer el contenido informativo de otra sin clickear en el menú estándar ni al mapa del sitio o a la portada. Por ejemplo: al hacer click en el titular ,del domingo 5 de diciembre de 2004, Los subtes pararán mañana “entre tres o cuatro horas”, lee directamente la nota . Esta posee en su parte inferior el
Ranking de Notas de Información General que han sido publicadas a lo largo del día. A través del mismo el lector puede acceder a: “Maradona partió rumbo a la Argentina (publicado a las 9.35 AM), “Tras superar un problema judicial en Miami, Zulemita volvió al país” (12.32 PM),”Asaltaron un edificio del Barrio Palermo” (13.28 PM).
Este ranking está formado por botones en el que aparecen los títulos de las notas. De igual forma, en el Ranking de Todas la Notas aparecen los titulares más destacados del día como botones de opción.
Se accede a los rankings sólo a través del Mapa del Sitio, del menú estándar, de la sección Ranking de Notas o mediante la página de cada nota.
Por último, el sitio de La Nación incluye en su composición un buscador interno que le permite al lector buscar en su interior las notas de ediciones anteriores. Se ubica en la parte superior derecha de las páginas.

Con lo mencionado se evidencia que la página de La Nación incluye los elementos característicos del diseño Web. Sin embargo, para decir que su navegabilidad es rápida e intuitiva se debe observar si posee las cualidades de interacción definidas por Juan Carlos Jiménez y, Antonio Herrera Bustamante.

El sitio de La Nación posee una estructura que le permite al usuario identificar de manera rápida y exacta lo que desea leer. Al internauta el diseño de la página le brinda la posibilidad de reconocer las distintas secciones y suplementos que componen el diario. Esto se observa a través de la barra de botones de opción ubicada en la parte superior de las páginas. La barra muestra de entrada las secciones que más le interesa leer al lector común: Noticias (portada), Deportiva, Entretenimiento y Opinión.
Por otra parte, el menú estándar le muestra de forma completa todas las secciones que componen la edición.
La división del menú en Noticias, Multimedia, Medios, Avisos, Clasificados y Otros Formatos permite conocer las páginas que componen cada una de estas partes. Así, el navegante accede a toda la información de igual forma sin tener que perder tiempo buscando página por página. La organización del menú posibilita que se dirija a la sección que desea leer directamente.
Otro factor que evidencia que la estructura es definida y refleja los distintos niveles de importancia que tiene cada una de las partes del contenido es la presentación de los titulares en la portada. Su ubicación permite reconocer cuales son las notas principal
Estas están en la parte superior, es decir se ubican debajo del logotipo de Clarín. El usuario, además, reconoce que son los titulares relevantes del día porque ocupan el espacio justo para ser visualizados a través de la pantalla del ordenador.
Por otro lado, la página le indica al usuario el lugar del website en que se encuentra. El navegante sabe en que parte del recorrido está porque la página posee un directorio dinámico que se ubica en la parte superior de las páginas. Este es una pequeña línea que indica en qué lugar está el internauta; tiene un link a través del cual puede retroceder o adelantar su navegación.
También, mediante el menú estándar el navegante sabe en qué página está porque se resalta con color azul su ubicación, por ejemplo si navega la sección de Cultura en el menú el botón Cultura presenta el color azul mientras los otros botones no están destacados.
La posibilidad de que el intenauta sepa en dónde se encuentra, determina que se desplace con una lógica simple a través del contenido del sitio web. Con el directorio dinámico y la guía de ubicación que da el menú estándar él no se pierde.
Así, el website posee una estructura clara de desplazamiento porque no se requieren hacer muchos clicks para acceder los contenidos que interesa. Esto se debe a la mencionada división del menú estándar en las partes y secciones que componen al diario. El tener a la vista los botones que conducen a las distintas páginas facilita la posibilidad de moverse casi sin clickear.

El desplazamiento se da a través de la navegación recursiva. En todas las páginas se encuentran la barra con los botones de Noticias, Deportiva, Entretenimiento y Opiniones; el Mapa del Sitio y el Directorio Dinámico.
Se evidencia que las interfaces del sitio (íconos, botones) poseen referencias explícitas que ayudan a que el navegante diferencie una sección de otra. En las páginas en que se desarrollan las notas no aparece ningún menú estándar sólo la barra con los botones que conducen a la portada y las secciones de Deportiva, Entretenimiento y Opinión., el directorio dinámico, y el botón de opción del Mapa del Sitio.
Sin embargo, las páginas tienen características comunes que producen que el sitio sea percibido como una sola entidad. Un ejemplo de esto es que tanto la portada como las páginas de las secciones poseen un diseño web compuesto por los mismos elementos: barra formada por cuatro botones de opción que se ubica en la parte superior izquierda; menú estándar ; directorio dinámico; botón de opción del mapa del sitio .
También, se agrega que en todas las páginas en la parte superior se observa el logotipo de La Nación, a su lado está el buscador interno.
Otra característica común a la portada y las páginas de las secciones es que el centro de las páginas está destinado para la presentación de notas ,informaciones, entrevistas o noticias, y la columna de la derecha está destinada a publicidades; encuestas; foros, datos sobre el estado metereológico; y enlaces a otros medios de comunicación como BBC MUNDO.com .Por ejemplo: mientras en la portada del día 10 de diciembre de 2004 en la parte central de a página se lee el titular El salario no es solo un costo laboral”, en otra página esta nota es desarrollada sin presentar menú estándar.
Continuando con la descripción, en la columna derecha de la portada se observa la publicidad de la Copa Argentina de Tenis Peugeot, datos sobre la temperatura en Bs. AS. , un botón de opción que conduce a la publicidad de la película Bridget Jones, un botón de opción de Foros . Se ve , también, datos sobre las cotizaciones e índices de mercado, un botón publicitario de Mercado Libre, una encuesta.
Para terminar se observa un botón de opción que conduce a la página de Delta Air Lines; otro link por el cual se accede a la página de BBC MUNDO.com y a la web de su Radio, y un botón de opción que conduce a Pricewaterhousecoopers.com.
En cambio, en la página en donde se desarrolla la nota “El salario no es solo un costo laboral”,no se observa el menú estándar y en la columna derecha solo se observa las herramientas para imprimir, enviar por mail y enviar a mi carpeta.

Para concluir el análisis de la página de La Nación se hablará de la cualidad de resalte.
El resalte se da porque el diseño del sitio determina que unos contenidos se destaquen sobre otros. Ejemplo de esto es la aparición de la barra compuesta por los botones de opción que conducen a la portada y a las secciones Deportiva, Entretenimiento y Opinión. Así, se resaltan los contenidos de estas páginas sobre los de las otras.
El resalte, también, se da a través de la ubicación de los titulares en la portada porque se ubican por orden de importancia. Las notas principales se ubican en la parte superior .
Los recursos mencionados le indican al internauta hacia dónde dirigirse para leer las principales notas, informaciones, entrevistas, noticias, etc. Esto sirve para ahorrarle tiempo en la búsqueda de los contenidos informativos, si él desea leer alguna nota relacionada con un tema relacionado con Cultura, por ejemplo, debe dirigirse al menú estándar o al mapa del sitio para navegar dicha sección.
Otro recurso para resaltar es la presencia del Ranking de todas las notas que aparecen en las páginas de las notas. Así, se le indica al lector cuáles son las notas principales del día. Por ejemplo: tanto en la portada como en el ranking de todas las notas del día 10 de diciembre de 2004 aparece el titular: “El salario no es sólo un costo laboral”. La aparición del titular a lo largo del sitio induce donde debe hacer clic, y hacia donde debe navegar. La aparición recursiva de la nota durante la navegación significa que se la está resaltando para destacar su importancia ante el lector.

Clarín:

Al navegar el sitio Web de Clarín se observa que no presenta en su diseño menú estándar y mapa del sitio. No obstante, la página principal incluye menús desplegables, directorio dinámico y botones de opción.
En la parte superior de la home se visualiza una barra dividida en cinco partes: Inicio, Títulos, Secciones, Suplementos, Clasificados y Servicios.
Cada una de estas partes es un menú desplegable porque se despliegan mostrando las sub-secciones de cada nodo para que el usuario pueda acceder de forma rápida a las páginas.
Es así que:
· Títulos se divide en Último Momento, Edición Impresa y Tapa de Edición Impresa.
· Secciones: El País, Opinión, El Mundo, Sociedad, La Ciudad, Policiales, Deportes, Espectáculos, Especiales, Humor, Claringrilla.
· Suplementos: Arquitectura, Mujer, Informática 2.0, Autos, Ollas & Sartenes, Si!,Revista Ñ, Countries, Rural, Zona, Económico, Viajes.
· Clasificados: Inmuebles; Automotores; Empleos; Oportunidades; Más Oportunidades; Legales; Receptorìa on-line; Guía de Industria, comercio y servicios; Guía de Viajes, Guía de Restaurantes, Guía de Farmacias.
· Servicios: Ayuda, Escríbanos, Carta de Lectores, Ediciones Anteriores, Clarín Edición Electrónica, Newsletters, Webmail,Foros, El Tiempo, Tránsito y subtes, Versión Palm, Noticias RSS, Cartelera de Espectáculos.

Las sub-secciones en que se divide los menús son botones de opción porque al seleccionar uno se accede el contenido que posee la página.
Al clickear en cada una de las sub-secciones se accede a la página principal de estas. Por ejemplo: al hacer click ,en el menú de Suplementos, en la sub-sección Económico el lector accede a la página en donde se presentan los titulares de ese suplemento. Conducen a la página en la cual se desarrolla la nota.
En todas las páginas aparece el directorio dinámico. Es una línea que se ubica en la parte superior de la página .Indica el lugar donde se encuentra el internauta. Por ejemplo: si se pincha el botón de opción Mujer del menú Suplementos se observa en el directorio www.clarin.com/suplementos/mujer/ultimo/index.html.
Por el contrario, si el lector está navegando la página principal el directorio dinámico indica www.clarin.com/diario/2004/12/12/index_diario.html.
La navegación del sitio de Clarín ésta organizado a través de los menús desplegables. Estos se encuentran en la mayoría de las pàginas propias del sitio. En las páginas de Clasificados no se observa la presencia de la barra de menús.
Otra característica del diseño que se observa en las páginas es que están divididas en dos partes: un espacio a la derecha donde se ubican los titulares y el desarrollo de las notas, y a la izquierda una columna.
En la columna se observan datos sobre el estado del tiempo en Bs. As. y otras ciudades, información sobre el tránsito, notas, publicidades, weblogs, suplementos.com, etc.
Por ejemplo: en la edición del 12 de diciembre de 2004, la columna de la portada incluye en la parte superior botones de opción sobre: la temperatura en Bs. As. y otras
ciudades; tránsito; notas de la revista Viva; encuesta; foro. También, contiene publicidades de Boehringer Ingelheim, Fundación OSDE y Mercado Libre.
El lector a través de esta columna tiene acceso a las páginas de: suplementos, guías, weblogs, canal de televisión TN, Radio Mitre, especiales.com y Claringrilla.
Un elemento de diseño web que incluye la página de Clarín es un buscador que permite buscar afuera y adentro el sitio, es decir que el navegante puede obtener información propia de las ediciones de Clarín como de Internet.
El buscador se ubica en la parte inicial de las pàginas al costado derecho.

A nivel general tanto en la portada como en las demás páginas propias del sitio ( excluidas el menú de Clasificados) se observa la presencia de la barra compuesta por los menús desplegables. A su lado se encuentra el buscador .
El logotipo de Clarín se visualiza en la mayoría de la páginas, exceptuando las que integran Clasificados.
Por otra parte, todas las páginas incluyen en su diseño la barra de menú que posee el botón de Inicio que le permite al navegante volver siempre a la página inicial. Así, se ahorra el tiempo de tener que navegar el sitio para llegar hasta ella.

Por otra parte, para profundizar si el diseño web de Clarín permite que el lector obtenga los contenidos de forma rápida y organizada, se analizará el sitio según las cualidades interactivas enunciadas por Juan Carlos Jiménez y Antonio Herrera Bustamante.
El sitio web de Clarín posee una estructura que le permite al usuario acceder a la presentación del contenido informativo de forma clara y directa. Como él ingresa al sitio para informarse, en la página inicial los contenidos informativos están organizados de dos maneras: en primer lugar, la barra compuesta por inicio y los menús desplegables (Títulos, Secciones, Suplementos, Clasificados y Servicios) le permite tener a su alcance todas las páginas que componen al diario. Esta organización determina que identifique rápidamente donde debe clickear para leer la notas, informaciones, entrevistas, noticias, o anuncios que le interesan.
Por otro lado, la estructura que presenta la portada de Clarín produce que el usuario reconozca cuales notas son las principales del día. En esta página los títulos más importantes se ubican al principio, en el espacio que visualiza el lector debajo de la barra.
Estas dos maneras de organización del contenido produce que el usuario: pueda acceder rápidamente a la información que brinda el sitio como así también le permite reconocer cuales son las notas destacadas al ubicarlas en la portada.

Al hablar de la cualidad de ubicación se dirá que el sitio le indica al usuario a través del directorio dinámico en que parte de la navegación se encuentra. Este es una línea que se ubica en la parte superior de las páginas del website.
Esta cualidad de ubicación le permite recordar en donde está para decidir si continúa o cambia de página para informarse.

Otra cualidad que posee el sitio de Clarín es la estructura clara de desplazamiento porque los menús desplegables le permiten navegar de forma simple y rápida a través de todo el contenido informativo.

Las páginas del website al incluir la barra de menús desplegables facilitan que el usuario navegue clickeando sólo en los botones de opción.
Esta posibilidad de desplazarse le permite al usuario conocer la mayor cantidad de
contenidos informativos ya que se ahorra el tiempo de navegar por todas las páginas de Clarín.com. Por ejemplo: el navegante puede elegir acceder a una nota de la portada y después leer otra de la sección Deportes sin tener que navegar por las notas que aparecen con anterioridad. Esto se debe a que él elige el recorrido que hace para obtener información.
A su vez, el desplazamiento es simple porque el internauta no se pierde, sabe en que página se encuentra al observar el directorio dinámico. Por ejemplo: al observar la portada del martes 14 de diciembre de 2004 clickea en el titular “Las tarifas de taxi aumentan un 11%” , el directorio dinámico indica que esta nota que ha sido publicada durante el día ya que en el directorio se lee www.clarin.com/diario/2004/12/14/um/m-887117.htm. No se indica que pertenece a ninguna sección o suplemento ya que detrás de la fecha no se lee a que página pertenece.
El lector sabe cuando una página pertenece a la sección de El País , por ejemplo, porque en el directorio se www.clarin.com/diario/12/14/elpais/index.htm.
Por otra parte, el logotipo de Clarín y las interfaces (menús desplegables, botones) que componen la portada se encuentra también en las demás páginas. Con esto las páginas que forman el sitio web de Clarín componen una sola entidad porque evidencian los mismos elementos de diseño web.
Las páginas se diferencian unas de otras porque el directorio dinámico indica en cual de ella se está navegando.
Otra característica que evidencia que todo el sitio web ofrece un mismo contexto es que tanto la portada como las demás páginas se dividen en dos partes: a la izquierda se presentan los titulares o se desarrolla las notas, y a la derecha se ve una columna. Por ejemplo: esta columna en la portada incluye la temperatura en Bs. As. y otras ciudades; tránsito; notas de la revista Viva; encuesta; foro. También, contiene publicidades de Boehringer Ingelheim, Fundación OSDE y Mercado Libre.
El lector a través de columna tiene acceso a las páginas de: suplementos, guías, weblogs, canal de televisión TN, Radio Mitre, especiales.com y Claringrilla.
Por otro lado, en la página de la nota “Las tarifas de taxi aumentan un 11%”( del martes 14 de diciembre de 2004), la columna contiene publicidades de www.braziltour.com, www.CTI.com, www.medioambiente.gov.ar, www.mercadolibre.com y www.masoprtunidades.com.
También, se observan enlaces con las páginas del canal de televisión TN y Radio Mitre.
Así, se manifiesta que el contenido que aparece en la columna de la portada difiere del de las otras páginas.

Para finalizar el análisis del sitio de Clarín se tratara la cualidad de resalte.
El resalte en el sitio de Clarín se da a través de la ubicación de los titulares. El lector reconoce que contenidos informativos son los principales de la edición mediante la ubicación de estos en la portada y, en las páginas de las secciones y suplementos.
A través de la navegación se observa que el sitio posee dos formas de resaltar el contenido periodístico:
· La ubicación de los titulares en la parte superior de la portada es un recurso que se utiliza para destacar su importancia. El internauta visualiza al ingresar a la portada los cuatro primeros títulos de la edición. Estos ocupan el espacio justo para ser vistos a través de la pantalla de la computadora. El resto de los títulos se ubican en forma descendente en la portada, para conocerlos el usuario debe mover la barra que se encuentra a la izquierda de la home. Es por eso que el espacio en donde se ubican los titulares determina cuales son las informaciones principales.
Se debe destacar que los títulos además son destacados a través de su ubicación en columnas.
Se sabe que la portada se divide en un espacio destinado a la presentación de las notas y una columna ubicada a la derecha destinada a publicidades, foros, encuestas, etc.
Ese espacio destinado a la presentación de las informaciones se divide en dos columnas : una que se ubica a la izquierda y otra a la derecha. La primera es más ancha que la segunda.
El tamaño de estas determina que en la columna de la izquierda se ubiquen los dos principales títulos del día, mientras que en la derecha se ven los otros titulares destacados. Por ejemplo: en la portada del miércoles 15 de diciembre de 2004 el principal titular de la edición es “El rey Juan Carlos prometió que España “no va a abandonar a la Argentina” porque se ubica en la columna de la izquierda, debajo de este se lee “Argentina y Brasil muestran gestos de reconciliación”.
En la columna de la derecha se ubica : “Un colectivo choco en pleno centro: 6 heridos” y “Una protesta en el senado demora el inicio de la sesión”pleno.

· La segunda forma de destacar las notas es a través de la presentación de los titulares en las páginas de las secciones y suplementos.
Al acceder a la páginas en donde se presentan los títulos que incluye las secciones y los suplementos, el navegante sabe que los primeros títulos son los destacados. Por el orden de importancia reconoce cuales son los títulares relevantes del día..
También, su importancia se destaca a través de que se ubican justo en el espacio de la pantalla de la computadora sin la necesidad de mover el cursor. Por ejemplo: en la página de la sección El País los tres principales títulos que se destacan tanto por su orden como por su aparición en la pantalla son: “Brasil amenaza con frenar las ventas argentinas de trigo y vino”, “Brasil apuntó a cinco sectores sensibles del comercio bilateral” y “Cupos para los lavarropas” (Otra medida que analiza la Argentina).

Con la cualidad de resalte el lector diferencia la importancia de los contenidos periodísticos. La claridad con que se destacan unos títulos sobre otros induce al internauta a navegar por las páginas resaltadas para informarse sobre los hechos que Clarín digital considera relevantes.

A través de la estructura de subordinación de la información el sitio resalta los contenidos al internauta.

Conclusión:

A través del análisis de los sitios web de La Nación y Clarín se ha inferido que ambos poseen una navegabilidad que cumple con las cualidades interactivas definidas por Juan Carlos Jiménez . El diseño de estos diarios le permite acceder a las páginas de forma rápida y simple.
Es así que el usuario navega el sitio sin perderse, realiza el recorrido según su propio criterio y accede a los contenidos informativos casi sin clickear. Brevemente se ha enunciado el porque se considera que la navegación de estos sitios es óptima.
No obstante, como el objetivo de este trabajo es analizar si la navegación de La Nación y Clarín le permite al lector realizar una navegación óptima para informarse ,se ampliará la conclusión diciendo que uno de los sitios presenta la información de una mejor forma al usuario a través de su navegación.
El internauta de La Nación y Clarín ingresa a estos sitios para informarse acerca de la realidad. Por ende, su navegación le debe permitir reconocer cuales son las notas principales para acceder a ellas de forma rápida.
Al analizar los sitios de La Nación y Clarín desde el planteo:¿ como el diseño web presenta y destaca el contenido informativo al usuario?, se ha llegado a la conclusión de que Clarín On line ofrece una navegación óptima para acceder a la información.
A lo largo de todo el sitio el diseño web de Clarín permite que el lector acceda a la información relevante sin divagar. A través de la ubicación de los titulares en la portada se le induce a que reconozca cuales son las notas relevantes.
El diseño web de la portada determina que los cuatro títulos principales no pasen desapercibidos. Su ubicación debajo del logotipo de Clarín ocupando el espacio justo para ser visualizados a través de la pantalla del ordenador hace que el usuario los vea primero que al resto de los títulos. Él no necesita hacer scroll (bajar el cursor más allá de lo que está viendo en pantalla) para ver todos los titulares e inferir cuales son los más importantes. La ubicación en la home de estos induce a que reconozca su relevancia.
A su vez, se destaca que entre los titulares resaltados por su ubicación, existe un criterio para indicar que título es el más importante de todos. En la portada de Clarín el espacio destinado a las presentación de los titulares se divide en una columna izquierda y una derecha. Como la de la izquierda es la más ancha se ubica en ella el título de la nota más importante e interesante del día. Es así que se le induce al navegante a clickear en ese titular (que es un botón de opción) para que comience su navegación informándose con la nota principal de la edición.

Por otro lado, el sitio de La Nación, también, destaca cuales son los títulos principales a través de su ubicación en la portada en el espacio justo para ser visualizado por medio de la pantalla del ordenador. Además, destaca las notas relevantes mediante la aparición de el Ranking de todas la notas en las páginas de las secciones y suplementos y , en las de las notas.
Sin embargo, la presentación de los contenidos informativos de La Nación no es tan eficiente porque no induce de forma directa al lector para que lea las notas importantes. Es
decir, no destaca unas notas sobre otras de forma clara porque en la portada el navegante se
encuentra con: una barra que se ubica debajo del logotipo de La Nación que le permite acceder a las páginas de Inicio (Portada), Entretenimiento Deporte y Opinión; un menú estándar que le permite ingresar a las distintas sub-secciones del diario, y los titulares de la portada.
Si bien estos elementos le permiten realizar una navegación para acceder rápidamente a la nota que a él le interesa, obstaculizan que el clickee en los titulares relevantes del día. Ve cuales son los títulos del día pero no se lo induce a acceder a las páginas donde son desarrollados porque el menú estándar y la barra le permite elegir otras opciones para navegar.
Es así, el sitio no guía al lector de forma clara para que lea las notas, informaciones, entrevistas, etc que poseen relevancia. La gran cantidad de botones de opción que se observan en la portada ya sean los titulares, los botones de la barra o del menú estándar determina que el internauta navegue según sus intereses y no según la jerarquización de contenidos que La Nación elabora para que él se informe de forma adecuada.
Con lo mencionado, se evidencia que el diseño web de La Nación no permite que el navegante realice una navegación óptima ya que no reconoce claramente que contenidos periodísticos son los más importantes e interesantes de la edición.

En síntesis, desde el punto de vista periodístico el diseño web del sitio de Clarín refleja los distintos niveles de importancia que tiene cada una de las partes del contenido. Gracias a esto el lector realiza una navegación que le permite informarse de forma rápida y simple de la realidad en la que está inmerso.

Bibliografía:

1. Roxana Bassi.“Consejos para desarrollar contenidos en la web”. Año: 2000. www.roxanabassi@hotmail.com
2. Unidad N° 1 “La visión del diseñador web”. Apunte de la cátedra Computación Gráfica 3 de la Carrera Diseñador Gráfico de la Facultad de Arquitectura, Urbanismo y Diseño de la Universidad Nacional de San Juan. Profesor Titular: Roberto Sergio Fonseca . Año:2004. wwww.robertofonseca.com.ar.
3. Unidad N°6 “La Tecnología” . Apunte de la cátedra Computación Gráfica 3 de la Carrera Diseñador Gráfico de la Facultad de Arquitectura, Urbanismo y Diseño de la Universidad Nacional de San Juan. Profesor Titular: Roberto Sergio Fonseca.. Año.:2004. wwww.robertofonseca.com.ar
4. Juan Carlos Jiménez .“En búsqueda de la navegabilidad”. Año:2000.
5. Antonio Herrera Bustamante “Usabilidad”. Año: 2000. www.master-net.net
6. María José Pérez Luque. Maider Perea Fonda “El reto de crear noticias on line. Análisis de la comunicación on line actual y perspectivas de futuro”. Año: 2001.
7. “Diarios Digitales”. Apunte de cátedra del Seminario de Nuevas Tecnologías de la Carrera Licenciatura en Comunicación Social de la Facultad de Ciencias Sociales de la Universidad Nacional de San Juan.
8. “Navegabilidad”. Página web del sitio Informática 1. Cátedra de la Escuela de Derecho de la Universidad Sergio Arboleda. Año: 2004. www.universidadsegioarboleda.edu.com.ar

¡Hola Weblogs! ¿Chau periodismo?

¿Desplazarán los weblogs a los medios tradicionales en su función de interpretes de la realidad social?

Alumna: Celia Argentina Quiroz

Introducción

Quien entra a un weblog entra a un mundo nuevo. Un mundo con códigos propios que hacen que el recién llegado se sienta inmediatamente “en casa”. Es un mundo gigantesco compuesto por miles y miles de “weblogers” (usuarios de weblogs) que interactúan entre sí: “hablan”, “escuchan”, comentan, preguntan, se ríen, etc. Y también dan la oportunidad a quien quiera aprovecharla de decirle a los demás lo que quiera expresar. Más o menos de esta forma es como han nacido los weblogs autodenominados periodísticos, sirviéndose de la accesibilidad del espacio, de su facilidad para su actualización y mantenimiento; para expresar opiniones y pareceres acerca de diferentes temas. Tanto se han difundido las bitácoras como espacios “periodísticos” que algunos autores han llegado a afirmar que “los weblogs dedicados a noticias de actualidad están transformando la forma de hacer periodismo cibernético” (Cecilia Cecconi, en www.3puntos.com/seccion.php3?numero=246&seccion=cibercultura&anc=1). Por eso nos preguntamos si llegarán los weblogs a desplazar al periodismo en su función de intérprete de la realidad social, si ocuparán el rol de mediadores entre el enorme y heterogéneo universo que llamamos realidad y la comunidad a la que se dirigen.

Marco Referencial:

Un weblog, (también llamado blog o bitácora) es un sitio web que se actualiza regularmente mediante anotaciones (llamadas “posts”), que se organizan a través de una cronología inversa (los últimos van primero). Los weblogs son muy dinámicos debido a que permiten a los visitantes dejar un comentario sobre alguno de los posts publicados y también porque incluyen hipervínculos para “acceder” a otras bitácoras o sitios web de otro carácter. Algunos disponen también de un listado temático para tener la posibilidad de leer las anotaciones de acuerdo con los intereses del lector. Los “weblogers” constituyen verdaderamente una comunidad virtual ya que no sólo escriben en sus sitios, sino también leen y comentan los posts de otros sitios. Esto constituye a la vez un fuerte sistema de monitoreo por parte de los pares que evalúan y revisan constantemente lo publicado.
Las bitácoras han revolucionado el modo de generar contenidos en la Red, han impulsado un nuevo tipo de comunidades virtuales basadas en el conocimiento, y contribuyen a la tarea de dar de sentido y relevancia a la información disponible en la web. El crecimiento desmesurado de los weblogs ha necesitado de un ordenamiento. Es lo que intentan los directorios y agrupaciones de bitácoras llamados “webrings” como Bitácoras.net, Weblogs.com.ar, dentro de la “blogosfera” hispana. También contamos con “blogroll” (bitácoras leídas a diario) y “blogtracking” (seguimiento de actualizaciones y enlaces cruzados, y seguimiento a las estadísticas de visita) como Technocrati.com (en inglés) y Blogómetro.com (en español). Los formatos son también diversos: Hay weblogs de texto, pero también de audio (audioblogs), de fotos (photoblogs) y hasta de videos (videoblogs). Las bitácoras que hablan de bitácoras se llaman “metablogs” (por ej eCuaderno.com).
La primera página con formato de weblog (aunque todavía no se la conocía con ese nombre) apareció en 1993 y fue creada por Tim Berners Lee, uno de los creadores de Internet y era una bitácora que conducía a cada nuevo link que aparecía. En la lista, cada dirección figuraba acompañada por un comentario breve, similar a los que a menudo publican los buscadores. Desde allí, Berners-Lee lideró el movimiento hasta que el navegador Netscape lanzó su sección “What’s new?” que se convirtió en la primera verdadera guía de sitios de Internet desde 1993 hasta 1995. Por aquel tiempo aparecieron los primeros weblogs personales, que abandonaron el modelo de “colección de links” para optar por los “recortes” y “registros específicos”, más al estilo de los diarios personales, formato con el que generalmente se asocia a las bitácoras. En 1994, debutó Links.net, aún activo. Y, en 1996, Dave Winer, implementó un weblog para el maratón “24 horas para la Democracia”, un encuentro online celebrado para apoyar el “libre-discurso en Internet”. Luego, el mismo Winer fundó una empresa especialmente dedicada a la creación y desarrollo de un programa que facilitara la creación de weblogs. En 1997, Robotwidsom.com, le puso el nombre de weblogs al creciente fenómeno.
Las bitácoras se diferencian de las páginas personales por su fácil organización y mantenimiento, y por la posibilidad de generar un contacto fluido con los visitantes. Para poder tener un weblog no es necesario pagar “alojamiento” en un portal, ni “bajar” algún programa de la red en particular, sólo es necesario ingresar a algún sitio generador de weblogs (Bloger, Blogalia, Blogia), crear una cuenta (para lo que se nos solicitará datos personales), elegir un nombre para la bitácora y finalmente elegir una interfaz (ni siquiera hay que tener conocimiento sobre diseño digital, ¡el webmaster ha diseñado por nosotros!)
Si bien, el uso más extendido que se les ha dado ha sido el de diarios personales, en los que una persona cuenta los acontecimientos de su vida y los visitantes comentan y opinan sobre ello, hay weblogs dedicados a algún área específica: tecnología, educación, arte, humor, economía, medios de comunicación, política, etc. También los hay de carácter periodístico, sobre los cuales una periodista de la revista Tres Puntos, (http://www.3puntos.com /seccion.php), Cecilia Cecconi, anota que “se considera que los weblogs dedicados a noticias de actualidad están transformando la forma de hacer periodismo cibernético. Es que el weblogging está visto como la gran tendencia del futuro, la nueva forma de informar en Internet. Esta semejanza a una columna periodística se da porque la bitácora es subjetiva, introduce elementos de análisis y reflexión sobre ciertos temas y, a través de enlaces, relaciona esa información con otras, presentes también en la red. Son noticias amateur en Internet. Sitios creados sin fines de lucro, que incluyen novedades de actualidad, reflexiones o comentarios personales”.
José Luis Orihuela, profesor de la Universidad de Navarra y especialista en el fenómeno de los weblogs, entiende que Internet ha trastocado los paradigmas que hasta ahora nos ayudaban a comprender los procesos de comunicación en los medios masivos. Uno de ellos es el de la mediación, pues sostiene que las funciones que antes eran tarea del periodismo, hoy han pasado a ser parte de las funciones de un portal de Internet. Según Orihuela “la Red, por una parte, permite el acceso directo del público a las fuentes de información sin la mediación de los comunicadores profesionales; y por otra parte permite el acceso universal a un sistema mundial de publicación que funciona, igualmente, al margen de los editores de los medios tradicionales”. En los weblogs, esta característica adquiere particular importancia pues a partir de esta herramienta fácil y accesible, los usuarios de internet se han convertido también en productores de contenidos; y junto a los medios tradicionales y otros medios on line, se convierten en relevantes para la definición de la agenda pública.
Este paradigma de la mediación puede haber quedado trastocado a partir de la aparición de nuevos medios on line, sin embargo algunos autores, creen que es justamente la mediación la función distintiva del periodismo. Lorenzo Gomis, llama a la mediación periodística “intérpretación de la realidad social”. Es decir que el periodismo realiza una tarea fundamental para la sociedad para que la gente pueda entenderla, adaptarse a ella y modificarla. Interpretación que tiene dos aspectos: comprender y expresar. Las redacciones de los diarios “procesan” la información que les llega de las agencias o de sus propios periodistas y expresan de acuerdo con su interpretación. La función principal de la interpretación es impedir que las personas lleguen a un estado de inmovilización o de cerramiento a la realidad por la comunicación masiva de noticias: no porque una persona lea más sobre un tema significa que esté mejor informado. Para ello los periodistas leen los largos textos que llegan de las agencias de noticias, procesan la información y escriben una síntesis bastante completa de la noticia que debe caber en un espacio determinado.
Ese método de interpretación debe estar sustentados en unos supuestos fundamentales: La realidad puede fragmentarse en períodos y en unidades completas e independientes (hechos); debe ser susceptible de asimilarse por cualquier persona en cualquier lugar, y debe encajar en un espacio y tiempo dados. Es necesario que llegue al público de un modo completo a través de una gama de filtros y formas convencionales (géneros periodísticos).

Hipótesis

Los weblogs autodenominados periodísticos ocuparán el lugar de los medios periodísticos en su rol de intérpretes de la realidad social.

Objetivos
Objetivo General:
·Conocer si los weblogs denominados periodísticos cumplen la función de intérpretes de la realidad social.

Objetivos Particulares:
·Caracterizar a los weblogs denominados periodísticos.
·Conocer si los weblogs periodísticos cumplen con los supuestos periodísticos de periodicidad, división de la realidad en “hechos”, que la información llegue a cualquier persona y en cualquier lugar, y que se entregue según unas pautas convencionales llamadas géneros periodísticos.

Aspectos Metodológicos

Interrogantes de investigación
Los weblogs llamados periodísticos ¿cumplen con la función de intérpretes de la realidad social? Es decir, observaremos si segmentan la realidad en períodos, si hay periodicidad en las publicaciones, si los relatos se dividen en “hechos”, si están escritos para llegar a cualquier persona y en cualquier lugar y si se respetan las pautas convencionales que conocemos como géneros periodísticos. No analizaremos el supuesto que establece que la interpretación de la realidad debe ocupar un espacio determinado, porque creemos que a partir de la expansión de Internet, los medios periodísticos digitales no trabajan con tantas limitaciones de espacio como en los medios impresos, a pesar de que igualmente deben elaborar productos fácilmente asimilables por una persona en un tiempo prudencial.

Unidades de análisis
Se tendrán en cuenta para este trabajo los weblogs autodenominados periodísticos. Tomaremos las bitácoras enlistadas en la sección Noticias/Opinión correspondiente al metablog Weblogs.com.ar. y analizaremos aquellos que en su título o subtítulo revelan algún rasgo periodístico, por ejemplo: columna de opinión, noticias y opiniones, periodismo y algo más, mi versión del periodismo, etc.

Método de investigación
El método de investigación que utilizaremos para este trabajo será cualitativo debido a que las técnicas utilizadas estarán basadas en observaciones.
Técnicas de investigación
Las técnicas de investigación que utilizaremos en este trabajo consisten en observaciones asistemáticas y sistemáticas, registro de las fuentes documentales, registro de artículos periodísticos.
Las observaciones asistemáticas se realizarán con el fin de conocer el campo. Las observaciones sistemáticas se realizarán posteriormente a fin de responder los interrogantes planteados

Análisis.

Cualquier persona puede tener un espacio en la red bajo la formato de weblog. El usuario es quien decide el uso de ese “espacio”. Debe colocarle un nombre y especificar el área que abarcara el blog. No se asemeja a una carta del lector (en el caso de los diarios) ni a un foro de discusión (en el caso de los medios on line), pues en estos sistemas de publicación, generalmente debe someterse el escrito a una supervisión por parte del medio; en las bitácoras, desde el principio, el webloger se instala en el campo de la emisión.

Periodicidad y la realidad dividida en períodos.

Si bien, en general, la “blogosfera”, es muy sensible a los temas de actualidad (por ejemplo hay cientos de bitácoras en castellano referidas al atentado del 11 de marzo de 2004 ocurrido en Madrid, España), no cumplen con los supuestos formulados por Gomis. No hay periodicidad fija. El webloger es el que decide cuándo postear. No se establece explícitamente el momento en que habrá una nueva publicación. Incluso hay muchos weblogs en los que no hay continuidad: se han publicado dos o tres posts y durante mucho tiempo hasta la actualidad, no ha habido novedades en el sitio.

Los hechos, unidades completas e independientes.

Cada anotación relata un hecho o acontecimiento que el escritor juzga relevante para sí, pero esa relevancia no es una relevancia social. En palabras de Gomis, no es el relato de una “interpretación popular y estimulante que incite a la participación de todos en lo que pasa”. Se acercan más a una manifestación de la interioridad del autor con miras a responder a una satisfacción personal que a una necesidad de estar al servicio público. Esta característica se manifiesta en la forma de escritura: personal, informal, vocabulario coloquial, e incluso, en algunos casos, sin respeto por las normas ortográficas ni sintácticas. Así, nos encontramos a veces con sitios personalísimos entendibles únicamente por su propio autor, en los que los comentarios son igualmente ininteligibles (redactados en su mayoría por los conocidos del escritor).
Las “noticias” publicadas en estos weblogs generalmente tienen que ver con curiosidades que suceden en el mundo de carácter tecnológico, científico, social e incluso barrial, pero no constituyen hechos con trascendencia, que van más allá de si mismos.

Al servicio público.

La mayoría de los weblogs denominados periodísticos están escritos por personas que no son periodistas, que aprovechan la accesibilidad de esta nueva forma de expresión para comunicar su opinión personal con respecto a algunos temas que resultan interesantes para ellos. La escritura no denota un estilo periodístico, incluso en muchos de ellos no hay ni siquiera corrección ortográfica. Así se hace evidente que no se proponen entre sus objetivos conseguir que cualquier persona en cualquier lugar pueda ponerse al corriente de lo que pasa, si no que escriben para un público que mayoritariamente está constituido por conocidos del autor (lo que puede inferirse de los comentarios que se realizan a cada post).
Los medios periodísticos interpretan una realidad social que atañe directamente a una comunidad ubicada en un lugar específico. En los weblogs, como en todo Internet, ese tipo de comunidad geográficamente situada, no existe. Las comunidades son puramente virtuales. Las personas no se encuentran físicamente cerca, no comparten preocupaciones ni inquietudes que nacen de la convivencia. Por eso el tema que se trata es primordialmente interesante para el autor, pero este no se interesa por conocer si es relevante para los demás.

Géneros Periodísticos.

El resto de los weblogs analizados, aquellos escritos por personas que no son periodistas no respetan los formatos periodísticos. En algunos casos pretenden asemejarse al periodismo de opinión, pero fallan en la primer condición: constituyen una opinión personal y no una opinión basada en un conocimiento de la realidad social propia de un profesional como son los periodistas.

Conclusiones

Los weblogs llamados periodísticos son sitios web en los que el autor expresa su opinión sobre los temas que son de su interés, pero, de acuerdo con los criterios establecidos, creemos que los weblogs no desplazarán a los medios tradicionales en lo que respecta a su rol de intérpretes de la realidad social. Esto constituye sólo un rasgo diferenciador de estos sitios web y no una valoración negativa al respecto. Su objetivo principalmente es el de ser un espacio de expresión subjetivo y personal en el que una persona manifiesta sus opiniones, polemiza con los visitantes de su bitácora y manifiesta su interioridad de acuerdo con un estilo personal e informal. Tiene esta libertad porque no existe una institución más amplia (medio periodístico) en la que se enmarcan sus opiniones. El webloger responde sólo a sí mismo y debe ser fiel sólo a sus propios intereses e ideales. Esa libertad es la que le permite tocar cualquier tema, sea o no de actualidad, con el formato que le parezca más apropiado sin que sea necesariamente periodístico, incluso permitiéndose errores de ortografía que en algunos casos son descuidos y en otros son intencionales. El periodismo renuncia a estas “libertades” a cambio de llegar a la comunidad con una interpretación profunda de los hechos que el lector vive en carne y hueso o que lo afectan directamente, mediante una redacción clara y susceptible de ser entendida por cualquier persona de la comunidad a la que se dirige, en forma periódica. Una interpretación que sólo puede estar en manos de profesionales: Los periodistas.

Bibliografía:
·Cecconi, Paola: Revista Tres Puntos, “Querido Diario”. Disponible en http://www.3puntos.com/seccion.php
·Diario Clarín : “Breve Historia de los weblogs, la ola que le cambió la carta a Internet”. Publicado el 11 de febrero de 2003. Disponible en www.clarin.com.ar
·Gomis, Lorenzo: “Teoría del Periodismo”.
·Orihuela, José Luis: “Los weblogs: de la revolución a la consolidación” Disponible en www.comunica.org/chasqui/85/orihuela85.htm
·Orihuela José Luis: “¿Qué son los Weblogs y porqué deberían importarnos?” Disponible en www.infonomia.com
·Orihuela, José Luis: “Weblogs: el medio y el mensaje” Disponible en www.ideasapiens.com
·Orihuela José Luis: Entrevista para el Batíscafo. Disponible en www.ecuaderno.com
·Picitelli, Alejandro: “¿Qué es un weblog?”. Disponible en www.ilnh.com.datos.instrucciones.php
Weblogs periodísticos consultados:
periodismoar
Riesgopaís
Weblog Patagonia
Caspa.tv
Chez Georgina
Buenosayres
El opinador
El weblog crítico
Elija, es decir invente
Editoriales
Barrica
A cara de perro

Manuel Castells: La Era de la Información

Capítulo 5: La cultura de la virtualidad real: la integración de la comunicación electrónica, el fin de la audiencia masiva y la emergencia de las redes interactivas

Introducción

Alrededor del año 700 A. C. en Grecia se inventó algo muy importante: el alfabeto. Según reconocidos académicos especializados en los clásicos como Havelock, esta tecnología conceptual fue la base del desarrollo de la filosofía occidental y la ciencia como la conocemos hoy en día. El alfabeto permitió cerrar la brecha entre una lengua hablada y el lenguaje, separando así lo dicho de quien lo dice y haciendo posible el discurso conceptual. Este giro histórico fue preparado por unos 3.000 años de evolución de la tradición oral y la comunicación no alfabética, hasta que los griegos alcanzaron lo que Havelock llama un nuevo estado mental, "la mente alfabética", que impulsó la transformación cualitativa de la comunicación humana. La alfabetización generalizada fue un fenómeno que tardó varios siglos en aparecer, luego de la invención y difusión de la imprenta y la manufactura del papel. Sin embargo, fue el alfabeto el que, en Occidente, proveyó la infraestructura mental necesaria para una comunicación acumulativa, basada en el conocimiento.

De todos modos, el nuevo orden alfabético, mientras que permitió el discurso racional también separó la comunicación escrita del sistema audiovisual de símbolos y percepciones, tan importante para la expresión completa de la mente humana. Al establecerse implícita y explícitamente una jerarquía social entre cultura escrita y expresión audiovisual, el precio de fundar la práctica humana en el discurso escrito fue relegar al mundo de sonidos e imágenes al escenario secundario de las artes, ocupado con el dominio privado de las emociones y el mundo público de la liturgia. Por supuesto, la cultura audiovisual se tomó una revancha histórica en el siglo XX, primero con el cine y la radio y luego con la televisión, sobrepasando la influencia de la comunicación escrita sobre los corazones y los espíritus de la mayoría de la gente. En efecto, esta tensión entre una comunicación alfabética noble y otra sensorial e irreflexiva subyace a la frustración de los intelectuales respecto a la influencia de la televisión, un elemento que todavía domina la crítica social de los medios masivos.

Una transformación tecnológica de dimensiones históricas semejantes está teniendo lugar unos 2.700 años después, encarnada en la integración de diferentes modos de comunicación en una red interactiva. En otras palabras, se trata de la formación de un supertexto y un metalenguaje que, por primera vez en la historia, integra en el mismo sistema las modalidades de comunicación humana escrita, oral y audiovisual. El espíritu humano reúne sus dimensiones en una nueva interacción entre los dos hemisferios del cerebro, las máquinas y los contextos sociales. Pese a toda la ideología de la ciencia ficción y el entusiasmo comercial que rodea la emergencia de la llamada superautopista de la información, difícilmente podamos subestimar su significación. La potencial integración de texto, imágenes y sonidos en el mismo sistema, interactuando desde múltiples puntos de una red mundial, en el tiempo elegido (real o diferido), en condiciones de acceso libre y accesible, cambia fundamentalmente el carácter de la comunicación. Y la comunicación es decisiva a la hora de dar forma a la cultura, porque como Postman escribe "no vemos...la realidad...como 'es', sino como nuestros lenguajes son. Y nuestros lenguajes son nuestros medios de comunicación. Nuestros medios de comunicación son nuestras metáforas. Nuestras metáforas crean el contenido de nuestra cultura". Como la cultura es mediada y se realiza a través de la comunicación, las culturas -es decir, nuestros sistemas de creencias y códigos históricamente producidos- son transformadas sustancialmente, y lo serán aún más con el correr del tiempo, por el nuevo sistema tecnológico. Al momento de escribir esto, ese nuevo sistema no está instalado por completo, y su desarrollo en los próximos años tendrá lugar a un ritmo desigual y en forma despareja geográficamente. Sin embargo, es una certeza el hecho de que se desarrollará y abarcará al menos las actividades dominantes y los segmentos centrales de la población de todo el planeta. Incluso ya existe en forma fragmentada, en el nuevo sistema de medios de comunicación, en los cambiantes sistemas de telecomunicaciones, en las redes de interacción constituidas en torno a Internet, en la imaginación de la gente, en las políticas de los gobiernos y en los pizarrones de las corporaciones. La emergencia de un nuevo sistema de comunicación electrónica caracterizado por su alcance mundial, su integración de todos los medios de comunicación y su interactividad potencial está cambiando y cambiará para siempre nuestra cultura. Sin embargo, se impone tratar el tema de las condiciones reales, las características y efectos de ese cambio. Dado el todavía embrionario desarrollo de una tendencia por otra parte evidente, ¿cómo podemos evaluar el impacto potencial sin caer en los excesos de la futurología, de los que este libro trata de alejarse totalmente? Por otra parte, sin un análisis de la transformación de las culturas bajo el nuevo sistema de comunicación electrónica, el análisis general de la sociedad de la información quedaría fundamentalmente incompleto. Por fortuna, aunque existe la discontinuidad tecnológica, en la historia hay una gran dosis de continuidad social que permite un análisis prospectivo sobre la base de la observación de las tendencias que prepararon la formación del nuevo sistema en las dos décadas precedentes. En efecto, uno de los principales componentes del nuevo sistema de comunicaciones, los medios masivos de comunicación, estructurados en torno a la televisión, han sido estudiados al más mínimo detalle. Su evolución hacia la globalización y descentralización fue anticipada a principios de los '60 por McLuhan, el gran visionario que, pese a su irrestricto uso de la hipérbole, revolucionó el pensamiento sobre las comunicaciones. En este capítulo primero rastrearé la formación de los medios masivos de comunicación y su interacción con la cultura y las conductas sociales. Luego describiré su transformación durante los '80, con la emergencia de los "nuevos medios" descentralizados y diversificados que prepararon la formación de un sistema multimedia en los '90. A continuación, me ocuparé de un sistema de comunicación distinto, organizado en torno a la computadora conectada a una red, con la emergencia de Internet y el sorprendente y espontáneo desarrollo de nuevos tipos de comunidades virtuales. Si bien este es un fenómeno relativamente nuevo, tenemos suficientes observaciones empíricas, tanto de Francia como de Estados Unidos, como para formular algunas hipótesis sobre bases razonablemente sólidas. Por último, trataré de relacionar lo que sabemos de ambos sistemas para reflexionar acerca de la dimensión social de su cercana fusión y el impacto de esa fusión en los procesos de comunicación y expresión cultural. Es mi opinión que a través de la poderosa influencia del nuevo sistema de comunicación, mediada por los intereses sociales, las políticas gubernamentales y las estrategias empresariales, está emergiendo una nueva cultura: la cultura de la virtualidad real, cuyos contenidos, dinámica y significación serán presentados y analizados en las páginas siguientes.



De la Galaxia Gutenberg a la Galaxia McLuhan: el surgimiento de la cultura de los medios masivos de comunicación



La difusión de la televisión en las tres décadas posteriores a la Segunda Guerra Mundial (a ritmos diferentes y con intensidad variable según los países) crearon una nueva galaxia de comunicación, si se me permite usar la terminología mcluhaniana. No es que los demás medios hayan desaparecido, sino que se reestructuraron y reorganizaron en un sistema cuyo corazón estaba hecho de válvulas y su atractiva cara era una pantalla de televisión. La radio perdió su centralidad aunque ganó en penetración y flexibilidad, adaptado sus modos y temas al ritmo de la vida diaria de las personas. Las películas se transformaron para adaptarse a las audiencias televisivas, con excepción del arte subsidiado por el gobierno y los shows de efectos especiales en pantallas gigantes. Los diarios y las revistas se especializaron profundizando su contenido o segmentando su público, mientras permanecían dispuestas a proveer información estratégica a la dominante TV. En cuanto a los libros, siguieron siendo libros, pese a que el deseo inconsciente de muchos libros fue convertirse en guiones de TV; las listas de best-sellers pronto se llenaron con títulos referidos a personajes de TV o a temas popularizados por la televisión.

El por qué la televisión se convirtió en una forma de comunicación tan predominante es todavía objeto de ferviente debate entre académicos y críticos de los medios. La hipótesis de W. Russell Neuman, que yo reformularía diciendo que ese hecho puede atribuirse al instinto animal de una audiencia perezosa, parece ser una explicación plausible considerando la evidencia disponible. En sus propias palabras: "El descubrimiento clave en el terreno de la investigación sobre los efectos educacionales y publicitarios, que hay que abordar con inocencia si queremos entender la naturaleza del poco prominente aprendizaje en materia de política y cultura, es simplemente que las personas son atraídas hacia el camino que ofrece menos resistencia". Neuman funda su interpretación en las teorías psicológicas de Herbert Simon y Anthony Downs, enfatizando los costos psicológicos de obtener y procesar información. Yo me inclinaría a colocar las raíces de esta lógica no en la naturaleza humana, sino en las condiciones de la vida hogareña luego de cansadores días de trabajo y en la falta de alternativas para el involucramiento personal/cultural. Siendo las condiciones sociales de nuestras sociedades las que son, el síndrome del menor esfuerzo que parece estar asociado con la comunicación mediada por la TV podría explicar la velocidad y penetración de su dominio como medio de comunicación apenas apareció en la escena histórica. Por ejemplo, de acuerdo a estudios de los medios de comunicación, sólo una pequeña proporción de las personas elige por anticipado el programa que van a ver. En general, la primera decisión es ver televisión, luego se pasa por los programas hasta que el más atractivo es seleccionado o, con más frecuencia, el menos aburrido.

El sistema dominado por la TV podría ser fácilmente caracterizado como el de los medios masivos. Un mensaje similar era emitido desde unos pocos y centralizados emisores a una audiencia de millones de receptores. Así, el contenido y formato de los mensajes era adaptado al más bajo común denominador. En el caso de la TV privada, predominante en el primer país televisivo, los Estados Unidos, se trataba del más bajo común denominador según los expertos de márketing. Para la mayoría del mundo, donde predominó la televisión estatal al menos hasta los '80, el estándar era el más bajo común denominador en las mentes de los burócratas que controlaban la emisión, aunque cada vez más las mediciones de la audiencia empezaron a influir. En ambos casos, la audiencia era vista como básicamente homogénea, o susceptible de ser homogeneizada. La noción de cultura de masas, surgida de la sociedad de masas, fue una expresión directa del sistema de medios resultante del control de la nueva tecnología de comunicación electrónica por los gobiernos y oligopolios empresarios.

¿Qué era radicalmente nuevo en la televisión? La novedad era no tanto su poder centralizador y su potencial como instrumento de propaganda. Después de todo, Hitler mostró cómo la radio podía ser un formidable instrumento de resonancia para mensajes de un sólo sentido y un único propósito. La TV representó, en primer lugar, el fin de la Galaxia Gutenberg, es decir de un sistema de comunicación esencialmente dominado por la mente tipográfica y el orden del alfabético fonético. Pese a todos sus críticos (en general ahuyentados por la oscuridad de su lenguaje semejante a un mosaico), Marshall McLuhan tocó una cuerda universal cuando, con toda simplicidad, declaró que "el medio es el mensaje":



"El estilo de la imagen de TV no tiene nada en común con el cine o la fotografía, excepto que también ofrece una gestalt no verbal o postura de formas. Con la TV, el vidente es la pantalla. El es bombardeado con impulsos de luz que James Joyce llamó 'la carga de la caballería de la luz' (en inglés The Charge of the Light Brigade, un juego de palabras que se refiere a la famosa carga de la caballería pesada ....)... La imagen de TV no es un disparo fijo. No es una foto en ningún sentido, sino un contorno de cosas permanentemente en formación delineado por el dedo explorador. El resultante contorno plástico aparece al ser atravesado por la luz, no porque la luz lo ilumine, y la imagen así formada tiene la calidad de las esculturas y los íconos, antes que de los cuadros. La imagen de TV ofrece al receptor cerca de tres millones de puntos por segundo. De éstos, él acepta sólo unas pocas docenas a cada momento, a partir de los cuales forma una imagen.



Según McLuhan, a raíz de la baja definición de la TV los televidentes tienen que llenar los vacíos de la imagen, lo que los llevaría a involucrarse emocionalmente más con lo que ven (que para él, paradójicamente, es un "medio frío" -cool medium-). Ese involucramiento no contradice la hipótesis del menor esfuerzo, porque la TV apela a la mente asociativa/lírica, sin implicar el esfuerzo psicológico de buscar información y analizarla al que se refiere la teoría de Herbert Simon. Esta es la razón por la que Neil Postman, un destacado académico de los medios de comunicación, considera que la televisión representa una ruptura histórica con la mente tipográfica. Mientras que la imprenta favorece la exposición sistemática, la TV es más adecuada para la conversación informal. Para hacer la distinción más marcada, en sus propias palabras:



"La tipografía tiene el sesgo más fuerte posible hacia la exposición: una habilidad sofisticada para pensar conceptualmente, deductiva y secuencialmente; valoración elevada de la razón y el orden; aborrecimiento de la contradicción; gran capacidad para el distanciamiento y la objetividad; y tolerancia para la respuesta diferida".



En cuanto a la televisión, "el entretenimiento es la supra-ideología para todo discurso televisivo. No importa lo que se muestra o el punto de vista, la presunción abarcadora es que está ahí para nuestro entretenimiento y placer". Más allá de las discrepancias sobre las implicancias socio-políticas de este análisis, desde la creencia de McLuhan sobre el potencial comunitarista universal de la televisión hasta las actitudes luddistas de Jerry Mander y algunos de los críticos de la cultura de masas, los diagnósticos convergen hacia dos puntos fundamentales: algunos años después de su desarrollo la televisión se convirtió en el epicentro cultural de nuestras sociedades, y la modalidad televisiva de comunicación es un medio fundamentalmente nuevo, caracterizado por su poder de seducción, su estimulación sensorial de la realidad y su simple comunicabilidad, en línea con el menor esfuerzo psicológico.

Liderada por la televisión, en las últimas tres décadas hubo una explosión comunicativa en todo el mundo. En el país más orientado a la televisión, Estados Unidos, a fines de los 80 la TV presentaba 3.600 imágenes por minuto por canal. Según el Informe Nielsen, el hogar estadounidense promedio tenía el aparato de TV encendido unas siete horas al día, y la visión real se estimaba en 4,5 horas diarias por día para los adultos. A esto había que agregar la radio, que ofrecía 100 palabras por minuto y era escuchada unas dos horas promedio al día, principalmente en el auto. El diario promedio ofrecía 150.000 palabras, y se estimaba que tomaba entre 18 y 49 minutos de tiempo de lectura diario, mientras que las revistas s se ojeaban en unos 6 a 30 minutos, y la lectura de libros, incluyendo los relacionados con las tareas escolares, ocupaba unos 18 minutos por día. La exposición a los medios es acumulativa. De acuerdo a algunos estudios, en los hogares estadounidenses con cable se mira más televisión de aire que en los que no tienen cable. . En total, el adulto estadounidense dedica 6,43 horas por día a los medios de comunicación. Este número se puede compara (aunque en rigor no sea comparable) con otro dato que contabiliza 14 minutos por día por persona dedicado a la interacción interpersonal en el hogar. En Japón en 1992 el tiempo promedio semanal por hogar era de 8 horas 17 minutos al día, unos 25 minutos más que en 1980. Otros países parecen ser consumidores de medios menos intensivos: por ejemplo, a fines de los 80 los adultos franceses miraban TV sólo unas tres horas por día. Sin embargo, el patrón de comportamiento predominante en todo el mundo parece ser que en las sociedades urbanas el consumo de medios es la segunda categoría de actividad en orden de importancia después del trabajo, y por cierto la actividad predominante en el hogar. De todas formas, esta observación debe ser calificada para entender verdaderamente el rol de los medios en nuestra cultura: escuchar/ver medios de comunicación no es de ninguna manera una actividad excluyente. En general está combinada con el desarrollo de tareas hogareñas, comidas compartidas, interacción social. Es la casi constante presencia de fondo, el telón de nuestras vidas. Vivimos con los medios y junto a los medios. McLuhan caracterizó a los medios de comunicación tecnológicos como materias primas o recursos naturales. En realidad, los medios, en particular la radio y la televisión, se convirtieron en el medio ambiente audiovisual con el que interactuamos todo el tiempo y de forma automática. Muchas veces la televisión, sobre todo, es una presencia en el hogar. Un elemento vital en una sociedad en la cual cada vez más personas viven solas: en los 90, el 25 por ciento de los hogares estadounidenses estaba constituido por una sola persona. Aunque la situación no es tan extrema en otras sociedades, la tendencia hacia la disminución del tamaño de los hogares es similar en Europa.

Podría suponerse que esta presencia penetrante, poderosa de mensajes en imágenes o sonidos subliminalmente provocadores produce un impacto de peso en el comportamiento social. Pero la mayoría de la investigación disponible apunta en sentido contrario. Luego de revisar la literatura disponible, Russell Neuman concluye que



"los hallazgos acumulados en cinco décadas de investigación sistemática de las ciencias sociales revelan que la audiencia de los medios masivos de comunicación, joven o no, no está desprotegida, y los medios no son todopoderosos. La teoría en desarrollo de efectos modestos y condicionados de los medios ayuda a poner en perspectiva el ciclo histórico del pánico moral respecto a los nuevos medios".



Incluso la andanada de mensajes publicitarios recibida a través de los medios parece tener un efecto limitado. Según Draper, pese a que en Estados Unidos el individuo promedio está expuesto a 1.600 mensajes de publicidad al día, las personas responden (y no necesariamente de forma positiva) a sólo unos 12 de ellos. En efecto, McGuire, luego de revisar la evidencia acumulada sobre los efectos de la publicidad en medios de comunicación, concluyó que no hay evidencia sustancial de impactos específicos de ésta en los comportamientos reales, una conclusión irónica para una industria que gastaba en ese momento unos 50.000 millones de dólares al año. ¿Por qué, entonces, las empresas continúan insistiendo con la publicidad? En primer lugar, las empresas trasladan el costo de la publicidad a los consumidores: según The Economist en 1993 "la televisión gratuita" en Estados Unidos costaba unos 30 dólares por mes a cada hogar del país. Pero una respuesta sustancial a tan importante pregunta requiere que primero analicemos los mecanismos a través de los cuales la televisión y otros medios influyen sobre el comportamiento.

El punto clave es que mientras que los medios masivos son un sistema de comunicación de una sola vía, el proceso real de comunicación no lo es, sino que depende de la interacción entre el emisor y el receptor en la interpretación del mensaje. Umberto Eco brindó una perspectiva aguda para interpretar los efectos de los medios en su trabajo seminal de 1977 titulado "¿Tiene la audiencia malos efectos sobre la televisión?" (Chequear tit en castellano). Como Eco escribió:



"Dependiendo de las circunstancias socioculturales, existe una variedad de códigos, o más bien reglas de competencia e interpretación. El mensaje tiene una forma significante que puede ser llenada con diferentes significados...Así creció la sospecha de que el emisor organizaba la imagen televisual en base a sus propios códigos, que coincidían con los de la ideología dominante, mientras que los destinatarios llenaban esas imágenes de significados 'aberrantes' de acuerdo a sus códigos culturales particulares".



La consecuencia de este análisis es que



"Una cosa que sí sabemos es que no existe una Cultura Masiva en el sentido imaginado por los críticos apocalípticos de la comunicación de masas porque este modelo compite con otros (constituidos por vestigios históricos, cultura de clases, aspectos de la alta cultura transmitidos a través de la educación, etc.).



Mientras que los historiadores e investigadores empíricos de los medios encontrarán esta afirmación puro sentido común, de hecho, al tomarla seriamente, como yo hago, se mina decisivamente uno de los aspectos fundamentales de la teoría social crítica desde Marcuse a Habermas. Es una de las ironías de la historia intelectual que precisamente los pensadores que trataban el cambio social fuesen quienes frecuentemente veían a la gente como receptáculos pasivos objetos de manipulación ideológica, dejando de lado de hecho las nociones de movimientos sociales y cambio social salvo bajo la forma de eventos singulares y excepcionales generados fuera del sistema social. Si las personas tienen algún nivel de autonomía para organizar y decidir su comportamiento, los mensajes enviados a través de los medios deben interactuar con sus receptores, y entonces la noción de medios masivos se refiere a un sistema tecnológico y no a una forma de cultura, la cultura de masas. En efecto, algunos experimentos de psicología hallaron que aunque la TV presenta 3.600 imágenes por minuto por canal, el cerebro responde conscientemente a sólo un estímulo sensorial por cada millón de estímulos enviados.

No obstante, enfatizar la autonomía de la mente humana y de los sistemas culturales individuales al completar el significado real de los mensajes recibidos no implica que los medios son instituciones neutrales, o que sus efectos pueden ser soslayados. Lo que muestran los estudios empíricos es que los medios no son variables independientes que inducen el comportamiento. Sus mensajes, explícitos o subliminales, son procesados por individuos ubicados en contextos sociales específicos, que por lo tanto modifican el efecto buscado del mensaje. Pero los medios, y en particular los medios audiovisuales en nuestra cultura, son en efecto el material básico de los procesos de comunicación. Vivimos en un ambiente mediático y la mayor parte de nuestros estímulos simbólicos provienen de los medios. Incluso, como Cecilia Tichi mostró en su maravilloso libro The Electronic Hearth, la difusión de la televisión tuvo lugar en un entorno televisivo, es decir una cultura en la cual los objetos y símbolos refieren a la televisión, desde las formas de los muebles domésticos hasta los estilos actorales y los temas de conversación. El verdadero poder de la televisión, como Eco y Postman también sostienen, es que se convierte en el escenario de todos los procesos que pretenden ser comunicados a la sociedad en general, desde la política hasta los negocios, incluyendo el deporte y el arte. La televisión enmarca el lenguaje de la comunicación societal. Si los anunciantes continúan gastando miles de millones de dólares aún a la luz de las razonables dudas respecto al verdadero impacto directo de la publicidad sobre sus ventas, la razón puede ser porque una ausencia de la televisión por lo común equivale a conceder reconocimiento de marca a aquellos competidores que si publicitan. Mientras que los efectos de la televisión en las elecciones políticas son muy diversos, en sociedades avanzadas la política y los políticos que no están en la televisión simplemente no tienen oportunidad de obtener el apoyo de la gente, en tanto las mentes de las personas son informadas fundamentalmente por los medios, con la televisión como el más sobresaliente entre éstos. El impacto social de la televisión trabaja de un modo binario: ser o no ser. Una vez que un mensaje está en la televisión puede ser cambiado, transformado o hasta subvertido. Pero en una sociedad organizada en torno a los medios masivos, la existencia de los mensajes que están fuera de los medios está restringida a las redes interpersonales, por lo que desaparece de la conciencia colectiva. No obstante, el precio que debe pagar un mensaje para estar en televisión no es sólo dinero o poder. Es aceptar ser mezclado en un texto multisemántico cuya sintaxis es extremadamente laxa. Así, información y entretenimiento, educación y propaganda, relax e hipnosis son todos fundidos en el lenguaje de la televisión. Como el contexto de la recepción es familiar y controlable para el receptor, todos los mensajes son absorbidos en el clima seguro de situaciones hogareñas o cuasi-hogareñas (como los bares a los que se asiste a ver deportes, una de las pocas familias extendidas que quedan...).

Esta normalización de los mensajes, en la que imágenes atroces de guerras reales pueden ser absorbidas casi como parte de películas de acción, tiene un impacto fundamental: la nivelación de todos los contenidos en el marco de imágenes de cada persona. Así, como son el tejido simbólico de nuestras vidas, los medios tienden a trabajar sobre la conciencia y el comportamiento del modo que la experiencia real actúa sobre los sueños, proveyendo la materia prima para nuestro cerebro. Es como si el mundo de los sueños visuales (la información-entretenimiento provista por la televisión) devolviera a nuestra conciencia la capacidad de seleccionar, recombinar e interpretar las imágenes y sonidos que generamos a través de nuestras prácticas colectivas o nuestras preferencias individuales. Es un sistema de retroalimentaciones entre espejos que deforman: los medios son la expresión de nuestra cultura y nuestra cultura trabaja principalmente con los materiales provistos por los medios. En este sentido fundamental, el sistema de medios masivos cumplió con la mayoría de las sugerencias de McLuhan a principios de los 60: se trataba de la Galaxia McLuhan. Sin embargo, el hecho de que la audiencia no es un objeto pasivo sino un sujeto interactivo abrió el camino a su diferenciación y a la consecuente transformación de los medios de la comunicación masiva a la segmentación, personalización e individualización a partir del momento en que la tecnología, las empresas y las instituciones permitieron ese movimiento.



Los nuevos medios y la diversificación de la audiencia masiva



Durante los años 80, las nuevas tecnologías transformaron el mundo de los medios de comunicación. Los diarios pasaron a ser escritos, editados e impresos a distancia, haciendo posibles ediciones simultáneas del mismo diario adaptadas a varias áreas importantes (por ejemplo, Le Figaro en diferentes ciudades francesas; The New York Times en ediciones paralelas para la Costa Este u Oeste; International Herald Tribune, impreso todos los días en diferentes lugares de tres continentes, y otros). Los walkmans hicieron de la música personalmente elegida un ambiente portátil, permitiendo a la gente, en especial adolescentes, levantar paredes de sonidos ante el mundo exterior. La radio se especializó en forma creciente, con estaciones temáticas y subtemáticas (como las de 24 horas de música ambiental o dedicadas durante meses exclusivamente a un cantante o grupo popular hasta que el nuevo éxito es lanzado). Programas de entrevistas radiales llenaron el tiempo de las personas en viaje hacia sus trabajos y de los trabajadores flexibles.. Las VCR explotaron por todo el mundo y en muchos países en desarrollo se convirtieron en una alternativa importante a las aburridas transmisiones de la televisión oficial. Aunque la multiplicidad de usos potenciales de las VCR fue explotada totalmente, por la falta de conocimientos técnicos de los consumidores y por la rápida comercialización de su uso por parte de los negocios de alquiler de videos, su difusión brindó una gran dosis de flexibilidad al uso de los medios audiovisuales. Las películas sobrevivieron en la forma de video-cassettes. Los videos musicales, con un 25 por ciento de la producción total de videos, se convirtieron en una nueva expresión cultural que dio forma a las imágenes de toda una generación de jóvenes y verdaderamente cambió a la industria musical. La posibilidad de grabar programas de TV y verlos en el momento elegido cambió los hábitos de las audiencias televisivas y reforzó su selectividad, contrarrestando el modelo de menor resistencia presentado más arriba. A partir de la VCR, los efectos de cualquier diversificación futura de la televisión fueron amplificados por la opción de elegir en segunda instancia de una audiencia con posibilidades de grabar, segmentándola aún más.

La gente empezó a grabar sus propios eventos, desde vacaciones a celebraciones

familiares, produciendo así sus propias imágenes más allá del álbum de fotos. Pese a todos los límites de esta auto-producción de imágenes, realmente modificó el flujo unilateral de imágenes y reintegró la experiencia de vida con la pantalla. En muchos países, desde Andalucía al sur de India, la tecnología de video de comunidades locales permitió el florecimiento de transmisiones locales rudimentarias que mezclaban la difusión de videos con eventos locales y anuncios, muchas veces al borde de las regulaciones de las comunicaciones.

Pero la jugada decisiva fue la multiplicación de los canales de televisión, que llevaron a su diversificación cada vez mayor. El desarrollo de las tecnologías de televisión por cable, que sería impulsado en los '90 por la fibra óptica y la digitalización, y de la transmisión satelital directa expandieron dramáticamente el espectro de transmisiones y presionaron a las autoridades para desregular las comunicaciones en general y la televisión en particular. A continuación sobrevino una explosión de la programación de televisión por cable en Estados Unidos y de la televisión satelital en Europa, Asia y Latinoamérica. Al poco tiempo se formaron nuevas redes que amenazaron a las establecidas, y en Europa los gobiernos perdieron gran parte de su control de la televisión. En Estados Unidos el número de estaciones de televisión pasó durante los '80 de 62 a 330. Los sistemas de cable en grandes áreas metropolitanas ofrecen hasta 60 canales, mezclando televisión abierta, estaciones independientes, redes de cable -la mayoría especializadas- y televisión paga. En los países de la Unión Europea, el número de redes de televisión aumentó de 40 en 1980 a 150 a mediados de los '90, siendo un tercio de ellas satelitales. En Japón, la televisión pública NHK tiene dos redes terrestres y dos servicios satelitales especializados; además, hay cinco emisoras comerciales. Desde 1980 hasta mediados de los '90, el número de estaciones de televisión satelital creció de cero a 300.

Según la UNESCO, en 1992 había más de 1.000 millones de aparatos de televisión en el mundo (35 por ciento de los cuales estaban en Europa, 32 por ciento en Asia, 20 por ciento en Norteamérica, 8 por ciento en Latinoamérica, 4 por ciento en el Medio Oriente y 1 por ciento en Africa). La expectativa era que la posesión de aparatos de televisión creciera al 5 por ciento anual hasta el año 2.000, con Asia liderando la tendencia. El impacto de semejante proliferación de ofertas televisivas sobre la audiencia fue profundo en cualquier contexto. En Estados Unidos, mientras que en 1980 las tres mayores redes controlaban el 90 por ciento de la audiencia de horario central, su participación cayó al 65 por ciento en 1990 y la tendencia se aceleró desde entonces: en 1995 controlan apenas más del 60 por ciento. La CNN se colocó como el principal productor de noticias del mundo, al punto que en situaciones de emergencia en países de todo el globo políticos y periodistas por igual recurren a ella en forma constante. En 1995, el embrión de un canal mundial similar en español, Telenoticias, fue lanzado por un consorcio de compañías de televisión españolas, hispano-estadounidenses y latinoamericanas. La televisión satelital directa está penetrando en forma considerable el mercado asiático, transmitiendo desde Hong Kong a toda la región del Pacífico asiático. Hubbard Communications y Hughes Corporation lanzaron en 1994 dos sistemas competitivos de transmisión satelital directa que venden a la carta casi cualquier programa de cualquier lugar y a cualquiera en Estados Unidos, el Pacífico asiático y Latinoamérica. Las comunidades chinas en Estados Unidos pueden ver a diario las noticias de Hong Kong mientras que los chinos en China pueden acceder a las telenovelas estadounidenses (Falcon Crest tuvo 450 millones de televidentes en China). Así, como Francois Sabbah escribió en 1985 en una de las mejores y más tempranas evaluaciones de las nuevas tendencias en los medios:



"En suma, los nuevos medios de comunicación determinan una audiencia segmentada, diferenciada, que, pese a ser masiva en términos de números, no es más una audiencia masiva en términos de simultaneidad y uniformidad del mensaje que reciben. Los nuevos medios no son más medios masivos en el sentido tradicional que implica enviar un número limitado de mensajes a una audiencia masiva homogénea. A raíz de la multiplicidad de mensajes y emisores, la audiencia misma se vuelve más selectiva. La audiencia buscada tiende a elegir los mensajes, profundizando así la segmentación, aumentando la relación individual entre el emisor y el receptor.



Youichi Ito, analizando la evolución de los usos de los medios en Japón, también concluyó que hay un pasaje de una sociedad de masas a una "sociedad segmentada" (Bunshu Shakai), como resultado de las nuevas tecnologías que se centran en información especializada, diversificada, de tal manera que la audiencia se torna cada vez más segmentada por ideologías, valores, gustos y estilos de vida.

Así, a partir de la diversidad de los medios y la posibilidad de enfocar la audiencia, podemos decir que en el nuevo sistema de medios el mensaje es el medio. Es decir, las características del mensaje definirán las características del medio. Por ejemplo, si el mensaje tiene que ver con alimentar el entorno musical de los adolescentes (un mensaje muy explícito), MTV se adaptará a los ritos y lenguajes de esta audiencia, no sólo en contenido sino en toda la organización de la estación y en la tecnología y el diseño de producción/transmisión de la imagen. O, por caso, para producir un servicio de noticias las 24 horas hace falta una diferente puesta en escena, programación y transmisión, como informes meteorológicos y shows de interés mundial y continental. En efecto, este es el presente y el futuro de la televisión: descentralización, diversificación y personalización. Para los amplios parámetros del lenguaje mcluhaniano, el mensaje del medio (todavía operando como tal) está dando forma a diferentes medios para diferentes mensajes.

Pese a todo, la diversificación de los mensajes y expresiones de los medios no implican pérdida de control por parte de las grandes corporaciones y gobiernos sobre la televisión. Incluso, la tendencia opuesta es la que se ha estado observando durante la última década. La inversión afluyó al terreno de las comunicaciones, a medida que se formaron mega-grupos y se establecieron alianzas estratégicas para conquistar porciones de un mercado en completa transformación.. En el período 1980-95, las tres mayores redes de televisión de Estados Unidos cambiaron de dueño, dos de ellas dos veces: la fusión de Disney con ABC en 1995 marcó un quiebre en la integración de la televisión a emergentes negocios multimedios. TFI, el canal francés líder, fue privatizado. Berlusconi pasó a controlar todas las estaciones de televisión privadas en Italia, organizándolas en tres redes privadas. La televisión privada floreció en España, con el desarrollo de tres redes privadas incluyendo a Antena-3, e hizo significativas incursiones en el Reino Unido y Alemania, siempre bajo el control de poderosos grupos financieros, tanto nacional como internacionales. La televisión rusa se diversificó, incluyendo canales privados independientes. La televisión en Latinoamérica experimentó un proceso de concentración en torno a unos pocos jugadores grandes. El Pacífico asiático fue el terreno más disputado por los nuevos magnates de la televisión, como el canal Star de Murdoch, y los viejos conocidos de la industria, como la nueva BBC mundial, envuelta en una competencia con la CNN. En Japón, redes privadas vinieron a competir con la NHK gubernamental: Fuji TV, NTV, TBS, TV Asahi y TV Tokio, así como operaciones de transmisión por cable y satelitales. Entre 1993-95, se gastaron cerca de 80.000 millones de dólares en programación televisiva en todo el mundo, y el gasto creció al 10 por ciento anual. Entre 1994 y 1997, se espera que sean puestos en órbita unos 70 nuevos satélites de comunicaciones, la mayoría destinados a transmisiones de televisión.

El resultado neto de esta competencia y concentración es que mientras que la audiencia fue segmentada y diversificada, la televisión se volvió más comercializada que nunca y cada vez más oligopólica a escala mundial. El contenido de la mayoría de la programación no difiere substancialmente de una red a la otra, si consideramos como un todo la fórmula semántica subyacente de la mayoría de los programas populares. Pero el hecho de que no todos miran lo mismo al mismo tiempo, y que cada cultura y grupo social tiene una relación específica con el sistema de medios, significa una diferencia fundamental vis-a-vis el viejo sistema de medios masivos estandarizados. Además, la difundida práctica de "surfear" (mirar varios programas a la vez) introduce la creación por parte de la audiencia de sus propios mosaicos visuales. Mientras que los medios se volvieron mundialmente interconectados, y los programas y mensajes circulan en una red mundial, no vivimos en una aldea global, sino en chozas personalizadas producidas mundialmente y distribuidas en forma local.

Sin embargo, la diversificación de los medios, por las condiciones de control empresarial e institucional, no transformó la lógica unidireccional de su mensaje ni permitió verdaderamente la respuesta de la audiencia, salvo en la primitiva forma de reacción del mercado. Mientras que la audiencia recibió una materia prima más y más diversa para construir la imagen que cada persona tiene del universo, la Galaxia McLuhan permaneció como un mundo con comunicación unilateral, no interacción. Fue, y es, la extensión de la lógica de la producción industrial masiva al campo de los signos, y estuvo lejos, pese al genio de McLuhan, de expresar la cultura de la era de la información. Esto es así porque el procesamiento de la información va mucho más allá de la comunicación unidireccional. La televisión necesitó a la computadora para liberarse de la pantalla. Pero su acoplamiento, con importantes consecuencias potenciales para la sociedad como un todo, sobrevino después de un largo desvío tomado por las computadoras, que pudieron hablar con la televisión sólo después de haber aprendido a hablar entre ellas. Sólo entonces la audiencia pudo tomar la palabra.



Comunicación mediada por computadoras, control institucional, redes sociales y comunidades virtuales



La historia recordará que los dos primeros experimentos de lo que Ithiel de Sola Pool llamó "tecnologías de la libertad" fueron inducidos por el Estado: el Minitel francés, como un aparato capaz de conducir a Francia hacia la sociedad de la información; la ARPANET estadounidense, predecesora de Internet, como una estrategia militar para posibilitar la supervivencia de las redes de comunicación en caso de ataque nuclear. Ambos muy diferentes entre sí, profundamente enraizados en la cultura e instituciones de sus respectivas sociedades. Leo Scheer resaltó sus contrastantes lógicas en una visión sintética de las características de cada sistema:

"Ambos preanunciaron las superautopistas de la información, pero sus diferencias rebosan lecciones. En primer lugar, Internet conecta computadoras mientras que el Minitel conecta, vía Transpac, centros de servidores que pueden ser interrogados por terminales con poca capacidad de memoria. Internet es una iniciativa estadounidense con proyección mundial, iniciada con apoyo militar por empresas de computación, financiada por el gobierno de Estados Unidos para crear un club mundial de usuarios de computadoras y bancos de datos. El Minitel es un sistema francés que, hasta el momento [1994], no pudo nunca superar las fronteras nacionales por limitaciones regulatorias [extranjeras]. Es el producto de la más pura imaginación de tecnócratas de Estado de alto nivel en su esfuerzo por remediar la debilidad de las industrias electrónicas locales. Del lado de Internet, la topología aleatoria de redes locales de fanáticos de la computadora. Del lado del Minitel, la disposición ordenada de la guía telefónica. Internet: un sistema tarifario anárquico de servicios incontrolables. El Minitel: un sistema de kiosco que permite tarifas homogéneas y una transparente distribución de las ganancias. Por un lado, el desarraigo y el fantasma de conexiones indiscriminadas más allá de fronteras y culturas; por el otro, la versión electrónica de las raíces comunitarias".

El análisis comparativo del desarrollo de estos dos sistemas en relación con su medio social e institucional puede ayudar a echar luz sobre las características del emergente e interactivo sistema de comunicación.



La historia del Minitel: l'état et l'amour



Teletel, la red que alimenta las terminales de Minitel, es un sistema de videotexto diseñado en 1978 por la Compañía Telefónica Francesa e introducido en el mercado en 1984, luego de años de experimentos localizados. Este sistema, el primero y más grande de su tipo en el mundo, pese a su tecnología primitiva, que casi no cambió en 15 años, tuvo una amplia aceptación en los hogares franceses y creció hasta alcanzar enormes proporciones. Para mediados de los '90 ofrecía 23.000 servicios y facturaba 7.000 millones de francos franceses a las 6,5 millones de terminales Minitel en funcionamiento, y era usado en uno de cada cuatro hogares franceses y por un tercio de la población adulta.

Este éxito sorprende más al compararlo con el generalizado fracaso de los sistemas de videotexto como el Prestel en Gran Bretaña y Alemania o el Captain en Japón, y la limitada receptividad al Minitel u otras redes de videotexto en Estados Unidos. Semejante éxito tuvo lugar a pesar de la muy limitada tecnología de video y transmisión: hasta 1990 la velocidad de transmisión era de 1.200 baudios, mientras que un típico servicio de información por computadora en Estados Unidos operaba a 9.600 baudios. En la base del éxito del Minitel hay dos factores clave: en primer lugar, el compromiso del gobierno francés con el experimento como parte del desafío presentado por el informe que Nora y Minc elaboraron sobre la "informatización de la sociedad" en 1978 a pedido del Primer Ministro. El segundo factor fue la facilidad de su uso y la sencillez de su sistema de facturación que lo hicieron accesible y confiable para el ciudadano promedio. Sin embargo, la gente necesitaba un incentivo extra para usarlo, y aquí reposa la parte más reveladora de la historia del Minitel.

El compromiso del gobierno, a través de France Telecom, se mostró de manera espectacular en el lanzamiento del programa: a cada hogar se le dio la posibilidad de recibir gratis una terminal de Minitel en lugar de la usual guía telefónica. Incluso, la compañía telefónica subsidió el sistema hasta que dejó de dar pérdidas por primera vez en 1995. Era una forma de estimular el uso de las telecomunicaciones, creando un mercado cautivo para la industria electrónica francesa, inmersa en problemas, y, sobre todo, induciendo la familiaridad con el nuevo medio tanto de las empresas como de las personas. Sin embargo, la estrategia más inteligente de la telefónica francesa fue abrir el sistema a proveedores privados de servicios, y en primer lugar a los diarios franceses, que pronto se convirtieron en defensores y difusores del Minitel.

Pero había una segunda gran razón para el uso generalizado del Minitel: la apropiación del medio por los franceses para su expresión personal. Los primeros servicios provistos por el Minitel eran los mismos que estaban disponibles por vía telefónica: guía de teléfonos, informe meteorológico, información y reservas de transportes, compra anticipada de entradas para eventos culturales y de entretenimiento, etc. A medida que el sistema y la gente se volvieron más sofisticados y que miles de proveedores de servicios se conectaron, a través del Minitel se empezó a ofrecer publicidad, telecompras, telebanca y una variedad de servicios para empresas. De todas formas, el impacto social del Minitel fue limitado durante las etapas de desarrollo iniciales. En términos de volumen, las consultas a la guía de teléfonos representaban más del 40 por ciento de las llamadas totales; en términos de valor, en 1988 el 36 por ciento de los ingresos de Minitel provenían del 2 por ciento de los usuarios, que eran empresas. El sistema explotó con la introducción de líneas de conversación o messageries, la mayoría de las cuales rápidamente se especializaron en ofertas sexuales o relacionadas con el sexo (les messageries roses), que en 1990 equivalían a más de la mitad de las llamadas. Algunos de estos servicios eran conversaciones porno-electrónicas, similares al sexo telefónico tan difundido en otras sociedades. La principal diferencia era la accesibilidad de estos servicios por medio de la red de videotexto, y su masiva promoción en lugares públicos. Pero la mayoría de los usos eróticos del Minitel fueron iniciados por las propias personas en las líneas de conversación de interés general. Sin embargo, no se trataba de un bazar de sexo indiscriminado, sino de una fantasía sexual democratizada. La mayoría de las veces (según la propia observación participante del autor), los intercambios en línea se basaban en la impersonalización de edades, géneros y características físicas, por lo que el Minitel se convirtió en vehículo de sueños sexuales y personales más que en el substituto de los "bares de ligue". Esta devoción obsesiva hacia el uso íntimo del Minitel fue clave para asegurar su rápida difusión entre los franceses, pese a las solemnes protestas de los puritanos moralistas. Para principios de los '90, cuando la moda se diluyó y el carácter rudimentario de la tecnología limitó su sex appeal, los usos eróticos del Minitel disminuyeron: las líneas de conversación pasaron a representar menos del 10 por ciento del tráfico. Una vez que el sistema estuvo totalmente instalado, los servicios de crecimiento más rápido en los '90 fueron desarrollados por empresas para su uso interno, con el máximo aumento en el segmento de elevado valor agregado como los servicios legales, que respondían por más del 30 por ciento del tráfico. De todas maneras, la conexión al sistema de una porción substancial de la población francesa necesitaba el desvío a través de su psique individual, y la satisfacción parcial de sus necesidades de comunicación, al menos por un tiempo.

Cuando en los '90 el Minitel enfatizó su rol como proveedor de servicios, también se evidenciaron sus limitaciones inherentes como medio de comunicación. Técnicamente, se apoyaba en tecnologías de video y transmisión muy antiguas, cuya actualización obligaría a terminar con el atractivo básico de un aparato electrónico gratuito. Inclusive no se basaba en la computación personal, sino en terminales "bobas", lo que limitaba substancialmente la capacidad autónoma para procesar información. Institucionalmente, la arquitectura, organizada en torno a una jerarquía de redes de servidores, con poca capacidad de comunicación horizontal, también era demasiado inflexible para una sociedad tan sofisticada culturalmente como la francesa, una vez que nuevos modos de comunicación superadores del Minitel estuvieron disponibles. La solución obvia adoptada por el sistema francés fue ofrecer la opción, pagando una tarifa extra, de conectarse con Internet. Al hacerlo, Minitel se dividió internamente en un servicio de información burocrático, un sistema en red de servicios para empresas y la puerta de acceso subsidiaria al vasto sistema de comunicaciones de la constelación Internet.



La constelación Internet



La red Internet es la médula de la comunicación mediada por computadoras (CMC) a nivel mundial en los '90, puesto que conecta la mayoría de las redes existentes. A mediados de la década del 90 Internet conectaba 44.000 redes de computadoras y cerca de 3,2 millones de computadoras host en todo el mundo, con unos 25 millones de usuarios estimados y estaba en rápida expansión. Según un estudio hecho en agosto de 1995 por Nielsen Media Research en Estados Unidos, 24 millones de personas eran usuarias de Internet y 36 millones tenían acceso a ella. Sin embargo, otra encuesta, realizada por Emerging Technologies Research Group entre noviembre y diciembre de 1995, calculó el número de estadounidenses que usaban Internet con regularidad en sólo 9,5 millones, de los cuales dos tercios se conectaban sólo una vez a la semana. Sin embargo, las proyecciones indicaban que el número de usuarios se duplicaba cada año.

De todas formas, pese a que hay bastante desacuerdo acerca de cuantos usuarios tiene Internet, hay consenso en que tiene el potencial de explotar en cientos de millones de usuarios para principios del siglo XXI. Los expertos consideran que, técnicamente, Internet podría conectar algún día 600 millones de redes de computadoras. Esto debe compararse con el tamaño de Internet en sus etapas iniciales de desarrollo: en 1973 había 25 computadoras en la red; a lo largo de la década del 70 el máximo de computadoras conectadas fue de 256; a principios de la década del 80, luego de una substancial mejora, aún estaba limitada a cerca de 25 redes con sólo unos pocos cientos de computadoras y algunos miles de usuarios. La historia del desarrollo de Internet y de la convergencia de otras redes de comunicación en "la" red proporciona un material esencial para entender las características técnicas, organizacionales y culturales de esta red, abriendo así el camino para estimar sus impactos sociales.

En efecto, se trata de una combinación única de estrategia militar, cooperación científica de alto nivel e innovación contracultural. En los orígenes de Internet está el trabajo de una de las instituciones de investigación más innovadoras del mundo: la Agencia de Proyectos de Investigación Avanzados (Advanced Research Projects Agency, ARPA) dependiente del departamento de Defensa de Estados Unidos. Cuando a fines de la década del 50 el lanzamiento del Sputnik alarmó al sector tecnológico de punta del establishment militar estadounidense, ARPA emprendió una serie de iniciativas, algunas de las cuales cambiaron la historia de la tecnología e iniciaron la era de la información en gran escala. Una de esas estrategias, que desarrollaba una idea concebida por Paul Baran en la Rand Corporation, era diseñar un sistema de comunicaciones invulnerable a los ataques nucleares. Basado en una tecnología de comunicación por conmutación de paquetes, el sistema volvió a la red independiente de los centros de dirección y control, pues los fragmentos de los mensajes encontraban su propia ruta a través de la red y eran vueltos a armar coherentemente en cualquier punto de la misma.

Luego, cuando la tecnología digital permitió dividir en paquetes toda clase de mensajes, incluyendo sonido, imágenes y datos, nació una red capaz de transmitir toda clase de símbolos sin usar centros de control. La universalidad del lenguaje digital y la misma lógica interconectiva del sistema de comunicaciones crearon las condiciones tecnológicas para una comunicación horizontal y mundial. Inclusive, la arquitectura de esta tecnología de red es tal que es muy difícil censurarla o controlarla. La única manera de controlar la red es no estando en ella, y este precio se vuelve muy alto para cualquier institución u organización una vez que la red se difunde y canaliza todo tipo de información alrededor del mundo.

Aquella primera red, llamada ARPANET en honor a su poderoso promotor, se puso en línea en 1969. Se abrió a centros de investigación que cooperaban con el departamento de Defensa, pero los científicos empezaron a usarla para todo tipo de comunicaciones. En determinado momento se volvió difícil separar la investigación orientada a lo militar de la comunicación científica y a ambas de las conversaciones personales. Entonces, se le dio acceso a la red a científicos de todas las disciplinas, y en 1983 se trazó una división entre ARPANET, dedicada a objetivos científicos, y MILNET, orientada directamente a las aplicaciones militares. La National Science Foundation (NSF) también se involucró en la década del 80, creando otra red científica, CSNET, y -en cooperación con IBM- también otra para académicos no científicos, BITNET. Pero todas las redes usaban ARPANET como su sistema de comunicación. La red de redes que se formó durante la década de los 80 fue llamada ARPA-INTERNET, luego INTERNET, aún financiada por el departamento de Defensa y operada por la National Science Foundation.

Para que la red pudiese mantener su fantástico crecimiento en el volumen de comunicaciones, la tecnología de transmisión tuvo que ser mejorada. En la década de los 70, ARPANET usaba enlaces de 56.000 bits por segundo. En 1987, las líneas de la red transmitían 1,5 millones de bits por segundo. Para 1992, NSFNET, la red que constituye la médula de Internet, operaba a velocidades de transmisión de 45 millones de bits por segundo: capacidad suficiente para enviar 5.000 páginas en un segundo. En 1995, la tecnología de transmisión de gigabits estaba en etapa de prototipo, con una capacidad equivalente a transmitir la biblioteca del Congreso de Estados Unidos en un minuto.

Sin embargo, sólo con capacidad de transmisión no alcanzaba para establecer un entramado de comunicaciones mundial. Además, las computadoras debían ser capaces de hablar entre sí. El obstáculo se superó con la creación de Unix, un sistema operativo que permite el acceso a una computadora desde otra. El sistema fue inventado por los Bell Laboratories en 1969, pero recién alcanzó un uso masivo después de 1983, cuando investigadores de Berkeley (también financiados por ARPA) adaptaron al Unix el protocolo TCP/IP que hizo posible que las computadoras no sólo se comunicasen sino también que codificaran y decodificaran los paquetes de datos que viajaban a altas velocidades por la trama de Internet. Como la nueva versión de Unix se financió con fondos públicos, el software estuvo disponible al costo de distribución. A medida que las redes locales y regionales se conectaron unas con otras nació la interconexión a gran escala, y empezó a difundirse a todas partes allí donde hubiese un teléfono y las computadoras estuviesen equipadas con un módem, una pieza poco costosa.

Detrás del desarrollo de Internet estaban las redes científicas, institucionales y personales, intersectándose con el departamento de Defensa, la National Science Foundation, universidades importantes en investigación y think-tanks especializados en tecnología como el Lincoln Laboratory del Massachusetts Institute of Techonology (MIT), el Stanford Research Institute (SRI), Palo Alto Research Corporation (financiada por Xerox), los Bell Laboratories de ATT, la Rand Corporation, Bolt, Beranek & Newman (BBN) -la compañía donde se inventó el protocolo TCP/IP- y muchos más. En el período 1950-1970, actores tecnológicos clave, como J. C. R. Licklider, Douglas Engelbart, Robert Taylor, Ivan Sutherland, Lawrence Roberts, Robert Kahn, Alan Kay, Robert Thomas y el resto, iban y venían entre estas instituciones, creando un milieu de innovación interconectado cuya dinámica y metas se autonomizaron en buena medida de los propósitos específicos de la estrategia militar o la interconexión de supercomputadoras. Eran cruzados tecnológicos, convencidos de que estaban cambiando el mundo, como eventualmente hicieron.

Pero ésta es sólo una cara de la moneda, porque paralelamente a los esfuerzos del Pentágono y las autoridades científicas por establecer una red universal de computadoras de acceso público, dentro de ciertas normas "aceptables" de uso, emergió una amplia contracultura en Estados Unidos, muy a menudo asociada en cuanto a mentalidad con las reverberaciones de los movimientos de los años '60, en su versión más utopista y libertaria. Un elemento importante del sistema, el módem, fue uno de los avances tecnológicos que surgió de los pioneros de esta contracultura, originalmente bautizados hackers antes de que el término cobrara una connotación negativa. El módem fue inventado en 1978 por dos estudiantes de Chicago, Ward Christensen y Randy Suess mientras trataban de encontrar una manera de transferir programas entre microcomputadoras por vía telefónica, para no tener que recorrer en el invierno de Chicago las largas distancias que los separaban. En 1979 los estudiantes difundieron el protocolo XModem, que permitía a las computadoras transferir archivos directamente sin pasar por un sistema de host. Esta tecnología la difundieron a costo cero, pues su intención era propagar lo más posible las capacidades de comunicación. Las redes de computadoras excluidas de ARPANET (reservada en un principio a la elite científica de las universidades) encontraron un modo de comunicarse entre sí a su propia manera. En 1979, tres estudiantes de Duke University y University of North Carolina, no incluidas en ARPANET, crearon una versión modificada del protocolo Unix que posibilitó conectar computadoras a través de las líneas telefónicas comunes. El primer uso fue iniciar un foro de discusión sobre computadoras en línea, Usenet, que pronto se convirtió en uno de los medios de conversación electrónica de gran escala. Los inventores de Usenet News también distribuyeron en forma gratuita su software en un mensaje enviado a los miembros de la conferencia de Unix.

Irónicamente, este acercamiento contracultural a la tecnología tuvo un efecto similar al de la estrategia de interconexión horizontal inspirada militarmente: poner medios tecnológicos a disposición de quien quiera que tuviese el conocimiento técnico y una herramienta, la computadora personal, que pronto empezaría un espectacular camino doble de aumento de poder y disminución de precio simultáneo. La llegada de la computación personal y la capacidad de comunicación de las redes incentivaron el desarrollo de los Bulletin Board Systems (BBS), primero en Estados Unidos, luego en todo el mundo. Las protestas electrónicas por los sucesos de la plaza Tian An Men en China en 1989, canalizadas a través de redes de computadoras por estudiantes chinos fuera de su país, fueron una de las más notorias manifestaciones del potencial de los nuevos artefactos de comunicación. Los BBS no necesitaban redes sofisticadas, sólo PCs, módems y líneas telefónicas. Así, se convirtieron en carteleras electrónicas para todo tipo de intereses y afinidades, creando lo que Howard Rheingold llama "comunidades virtuales".

Miles y miles de estas micro redes existen hoy en todo el mundo, cubriendo todo el espectro de la comunicación humana, desde política y religión hasta sexo e investigación. Para mediados de los '90, la mayoría también estaba conectada a Internet, aunque mantenían su propia identidad y reglas de comportamiento. Una de las reglas más importantes era (y es) el rechazo a la intrusión en los BBS de intereses comerciales no declarados. Mientras que se considera legítimo crear BBS comerciales o redes orientadas a los negocios, no lo es invadir ciberespacios creados para otros fines. La sanción contra los intrusos es devastadora: miles de mensajes hostiles "incendian" al mal ciudadano electrónico. Cuando la falta es especialmente grave, archivos enormes son enviados al sistema culpable, causando su paralización y, por lo general, provocando que la computadora host expulse al culpable de la red. Esta cultura electrónica marcó para siempre la evolución y uso de la red. Mientras que las facetas más heroicas y la ideología contracultural se desvanecen con la generalización del medio a escala mundial, los rasgos tecnológicos y los códigos sociales que se desarrollaron con el uso libre de la red son el marco de su utilización.

En la década del 90, las empresas advirtieron el extraordinario potencial de Internet, al tiempo que la National Science Foundation decidió privatizar parte de las operaciones más importantes y ponerlas en manos de los grandes consorcios corporativos (ATT, MCI-IBM y otros). El carácter comercial de Internet creció a una tasa acelerada: el número de dominios (o sub redes) comerciales, que era de cerca de 9.000 en 1991, había trepado a 21.700 para fines de 1994. Se crearon numerosas redes comerciales, que proveían servicios en base a una grilla estructurada con tarifas ajustables. Sin embargo, debido a la capacidad de la red, la mayor parte del proceso de comunicación era, y aún es, en buena medida espontáneo, desorganizado y diversificado en cuanto a propósitos y origen. De hecho, los intereses comerciales y gubernamentales coinciden en favorecer el uso expansivo de la red: cuanto más grande la diversidad de mensajes y participantes, tanto mayor la masa crítica en la red y, por lo tanto, su valor. La coexistencia pacífica de intereses y culturas diversas en la red tomó la forma del World Wide Web (WWW, o la Web), una red de redes flexible dentro de Internet, donde instituciones, empresas, asociaciones e individuos crean sus propios "lugares" (sites), partiendo de la base de que cualquiera con acceso puede producir su propia "página" (home page), hecha con diferentes collages de texto e imágenes. La Web -ayudada por el software desarrollado por primera vez por Mosaic (un programa para navegar la Web inventado en 1992 por estudiantes en Illinois, en el National Center for Supercomputing Applications)- abrió el camino a comunidades de intereses y proyectos en la red, superando el caótico -y costoso en términos de tiempo- navegar de Internet antes de su aparición. A partir de estos grupos, individuos y organizaciones pudieron establecer interacciones plenas de sentido en lo que se ha convertido, literalmente, en una telaraña mundial de comunicación individualizada e interactiva. El precio por una participación así de diversa y extendida implica, al mismo tiempo, dejar que florezca la comunicación espontánea, informal. El carácter comercial del ciberespacio se acercará más a la experiencia histórica de los vendedores callejeros que surgieron de la vibrante cultura urbana que a los shopping centers diseminados en el aburrimiento de los suburbios anónimos.

Pero las dos fuentes de Internet, el establishment científico-militar y la contracultura de la computadora personal tenían algo en común: el mundo universitario. El primer nodo de ARPANET fue instalado en 1969 en la UCLA, y seis nodos más se sumaron en 1970-71 en la University of California-Santa Barbara, el SRI, la University of Utah, el BBN, el MIT y Harvard. A partir de allí se esparcieron básicamente por la comunidad académica, con excepción de las redes internas de grandes corporaciones del sector electrónico. Este origen universitario de la red fue, y es, decisivo para el desarrollo y difusión de la comunicación electrónica por todo el mundo. Los principios de la CMC en Estados Unidos tuvieron lugar entre estudiantes de posgrado y profesores de universidades en los primeros años de la década del 90. Un proceso similar ocurrió unos pocos años después en el resto del planeta. En España, a mediados de los '90 el mayor contingente de "interneteros" provino de las redes de computadoras montadas en torno a la Universidad Complutense de Madrid y la Universitat Politécnica de Catalunya. La historia parece haber sido la misma alrededor del mundo. Este proceso de difusión centrado en las universidades es significativo porque tiene el más elevado potencial de difundir tanto el saber específico como los hábitos de la CMC. Contrariamente al supuesto aislamiento social derivado de la imagen de una torre de marfil, las universidades son importantes agentes de difusión de la innovación social, a causa de que una generación de jóvenes tras otra pasa por ellas, cobrando conciencia de y acostumbrándose a los nuevos modos de pensar, actuar y comunicarse. A medida que, durante la década del 90, la CMC se vuelva omnipresente en el ámbito universitario a escala internacional, los graduados que se incorporen en la dirección de empresas e instituciones en los albores del siglo XXI instalarán el mensaje de un nuevo medio en el centro de la escena social.

En el último cuarto de siglo, el proceso de formación y difusión de Internet y las redes de CMC relacionadas moldeó para siempre la estructura del nuevo medio con la arquitectura de una red, la cultura de quienes trabajan en red y las pautas de comunicación reales. La arquitectura de red es, y seguirá siendo, tecnológicamente abierta, permitiendo un amplio acceso público y limitando seriamente las restricciones gubernamentales o empresarias a ese acceso, aunque la desigualdad social se manifestará poderosamente en el campo electrónico, como analizaré más adelante. Por un lado, esta apertura es la consecuencia del diseño original concebido tanto en función de las mencionadas razones militares estratégicas como porque los científicos que dirigían los programas de investigación militar así lo querían hacer, para demostrar destrezas tecnológicas y como un intento de realización utópica. Por otro lado, la apertura del sistema derivó del constante proceso de innovación y acceso libre practicado por los hackers y los aficionados a la computación, quienes todavía pueblan la red por millares.

Este esfuerzo constante y multifacético para mejorar las posibilidades de comunicación de la red es un ejemplo notable de cómo la productividad tecnológica de la cooperación a través de Internet terminó mejorando a la propia Internet. Además, la arquitectura abierta de la red hace muy difícil garantizar la confidencialidad frente a intrusos sofisticados. En enero de 1995, Tsutomu Shimomura, un experto en seguridad informática del San Diego Supercomputer Center, reveló que sus archivos a prueba de intrusos habían sido violados y copiados a computadoras ubicadas en la Rochester University, y que archivos protegidos de diferentes lugares también habían sufrido ataques similares. Este hecho aportó pruebas de que las protecciones de seguridad en Internet era inútiles frente al ataque de software avanzado. Pero Shimomura vengó su honor profesional. Fue tras la pista del hacker y, pocas semanas después y usando medios estrictamente electrónicos, guió al FBI a la vivienda donde arrestaron a Kevin Mitnick, un legendario transgresor del espacio electrónico. De todas formas, este publicitado evento resaltó las dificultades de proteger la información en la red. Toda la cuestión se redujo a la opción entre clausurar la Internet existente o buscar otras redes de comunicación para intercambios comerciales que necesitasen transmisiones de información protegidas. Dado que sería casi imposible clausurar Internet en su forma actual (precisamente por la genialidad de los investigadores de ARPA), mi hipótesis es que, lentos pero seguros, los usos comerciales que requieran números de tarjetas de crédito y cuentas corrientes desarrollarán redes independientes, expandiéndose Internet como un agora electrónica mundial, con su inevitable pequeña dosis de desviación psicológica.

La cultura de los usuarios de la primera generación, con sus corrientes subterráneas utópicas, comunitarias y libertarias, dio forma a la red en dos direcciones opuestas. Primero, tendió a restringir el acceso a una minoría de aficionados a la computación, los únicos capaces y deseosos de dedicar tiempo y energía a vivir en el ciberespacio. De esta era queda un espíritu pionero que observa con desconfianza el avance del costado comercial de la red y mira con aprehensión cómo la concreción del sueño de una comunicación para todos trae consigo las limitaciones y miserias de la humanidad tal cual es. Pero a medida que los héroes de las primitivas tribus retroceden frente al constante flujo de newbies (novatos), lo que queda de los orígenes contraculturales de la red es la informalidad y el estilo directo de la comunicación, la idea de que muchos colaboran con muchos y sin embargo cada uno conserva su propia voz y espera una respuesta individual. En efecto, la multipersonalización de la CMC expresa en alguna medida la misma tensión que surgió en los '60 entre la cultura del individuo y los sueños comunitarios de cada persona. De hecho, entre los orígenes contraculturales de la CMC y la principal corriente de "interneteros" de los '90 hay más puentes que los que los expertos en comunicación suelen reconocer. Así lo muestra la aceptación comercial de la revista Wired, creada como un producto contracultural pero convertida en la expresión más candente de la cultura Internet y el modo de publicitar a mediados de los '90.

Entonces, pese a todos los esfuerzos por regular, privatizar y volver más comercial a Internet y sus sistemas tributarios, las redes de CMC -dentro y fuera de Internet- se caracterizan por su penetración, su descentralización multifacética y su flexibilidad. Se desparraman como colonias de micro-organismos, para seguir la metáfora biológica de Rheingold. De seguro reflejarán los intereses comerciales, en tanto expandirán la lógica controladora de las grandes organizaciones públicas y privadas a todos los dominios de la comunicación. Pero a diferencia de los medios masivos de comunicación de la Galaxia McLuhan, estas redes poseen como propiedades tecnológicas y culturales intrínsecas la interactividad y la personalización. Sin embargo, ¿acaso estas potencialidades se traducen en nuevos modos de comunicación? ¿Cuáles son los atributos culturales que surgen del proceso de interacción electrónica? Pasemos a examinar el magro material empírico en este terreno.



La sociedad interactiva



La comunicación mediada por computadoras es demasiado reciente y ha sido demasiado poco probada al momento de escribir esto (1995) como para haber sido objeto de investigación rigurosa y confiable. La mayoría de la evidencia más frecuentemente citada es anecdótica y algunas de las más agudas fuentes son en realidad reportes de periodistas. Además, los cambios en la tecnología son tan veloces y la difusión de la CMC es tan rápida que la mayoría de las investigaciones disponibles, que datan de los años '80, son casi inaplicables a las tendencias de los '90, que es justamente cuando la nueva cultura comunicativa está cobrando forma. Sin embargo, es útil metodológicamente discutir las implicancias sociales de los nuevos procesos de comunicación incluso con las restricciones del material empírico y a pesar de ciertos descubrimientos contradictorios. En mi caso, usaré una selección no exhaustiva de bibliografía de las ciencias sociales sobre CMC para sugerir algunas líneas de interpretación tentativas acerca de la relación entre comunicación y sociedad bajo las condiciones de la tecnología interactiva de raíz computacional. En primer lugar, la CMC no es un medio de comunicación generalizado y no lo será en el futuro más cercano. Aunque su uso se expande a tasas espectaculares, excluirá durante mucho tiempo a la amplia mayoría de la humanidad, a diferencia de la televisión y otros medios de comunicación. Seguramente en 1994 más de un tercio de los hogares estadounidenses estaban equipados con computadoras personales, y el gasto en PCs por primera vez igualó a las compras de televisores. Europa Occidental también experimentó una fiebre de compras de computadoras desenfrenada a mediados de los '90, pero las tasas de penetración en los hogares se mantenían en un nivel inferior (menos del 20 por ciento si excluimos las terminales de videotexto). El Japón está considerablemente retrasado en computadoras hogareñas y uso de la computadora fuera de la oficina. El resto del mundo (excluyendo Singapur), no obstante las elevadas tasas de crecimiento en la penetración informática -con excepción de Africa-, estaba claramente en una era comunicacional diferente, sin importar los beepers y pagers que suenan por toda la región del Pacífico asiático. Esto cambiará con el tiempo, no cabe duda, pero deberá pasar un lapso muy largo antes de que la tasa de difusión de la CMC interactiva alcance a la de la televisión.

Una cuestión diferente, que analizaré en la sección siguiente, es la del uso de la comunicación interactiva en la operación de sistemas multimedia. Esta probablemente se difunda, en versiones extremadamente simplificadas, a grandes porciones de la población en muchos países. Pero la CMC en sí misma seguirá siendo el campo de un segmento educado de la población de los países más avanzados, contados por decenas de millones pero sin dejar de ser una elite tomados a nivel mundial. Incluso el número de usuarios de Internet citado más arriba ha sido puesto en duda por expertos reconocidos basándose en que la conexión a Internet no necesariamente implica un uso real de la misma, y ni que hablar del multiplicador usado habitualmente en las estimaciones que asigna diez personas por cada conexión. Pero aún entre aquellos que la usan sólo una minoría es realmente activa en el medio. Una encuesta a usuarios estadounidenses de BBS, publicada en 1993, señaló que sólo el 18 por ciento era activo con una frecuencia semanal; que el número de llamadas promedio era de 50 por semana y por BBS; que el 38 por ciento de las operaciones eran cargas del sistema; y que el 66 por ciento del contenido estaba en realidad dedicado a cuestiones relacionadas con la computación. Como era de esperar, las encuestas a dueños de PCs muestran que son más adinerados que el promedio, con empleos de tiempo completo, solteros y con menos probabilidades de estar jubilados. La gran mayoría de los usuarios de computadoras, al igual que los usuarios de BBS son hombres. En cuanto a los usuarios de Internet, un relevamiento hecho a partir de una muestra nacional en Estados Unidos mostró que el 67 por ciento de quienes tienen acceso a Internet son hombres, más de la mitad con edades entre 18 y 34. El ingreso familiar mayoritario estaba entre los 50.000 y 75.000 dólares y las ocupaciones más frecuentemente mencionadas eran educación, ventas e ingeniería. Otra encuesta, de 1995 y también sobre Estados Unidos, volvió a encontrar que el 65 por ciento de los usuarios eran hombres con dinero (ingreso familiar promedio 62.000 dólares), aunque un poco más viejos que lo que mostraban otros estudios (promedio de edad 36 años). Entonces, la CMC se presenta como el medio de comunicación del segmento con más dinero y más educado de la población de los países más ricos y cultos, y las más de las veces habitantes de las más grandes y sofisticadas áreas metropolitanas.

Claramente, el uso de la CMC se expandirá en el futuro cercano, particularmente a través del sistema educativo, y alcanzará a importantes proporciones de la población en el mundo industrializado: no será un fenómeno exclusivo de una elite, aunque estará lejos de la penetración de los medios masivos de comunicación. De todas formas, el hecho de que se expandirá en oleadas sucesivas, empezando por una elite cultural, implica que los hábitos de comunicación se conformarán con la práctica de los primeros usuarios. Cada vez más la CMC será un factor clave que influirá la cultura del futuro, y cada vez más también las elites que le dieron forma tendrán ventajas estructurales en las nuevas sociedades resultantes. Así, aunque la CMC está revolucionando verdaderamente el proceso de comunicación, y por medio de éste la cultura como un todo, esta revolución se desarrolla en círculos concéntricos, que empiezan por los niveles de mayor educación y poder adquisitivo, y probablemente sea incapaz de alcanzar a grandes segmentos de las masas incultas y los países pobres.

Por otro lado, dentro del segmento de usuarios regulares de la CMC, el medio parece favorecer una comunicación desinhibida y estimular la participación de los trabajadores de menor status en redes de empresas. En la misma línea, las mujeres y otros grupos oprimidos de la sociedad parecen tener más probabilidades de expresarse abiertamente gracias a la protección del medio electrónico, aunque debemos tener en cuenta que, como un colectivo, las mujeres son una minoría dentro de los usuarios hasta el momento. Parece como si el simbolismo del poder inherente a la comunicación cara a cara no hubiese encontrado aún correlato en la CMC. A raíz de la novedad histórica del medio y un cierto mejoramiento del status de poder relativo de los grupos tradicionalmente subordinados, como las mujeres, la CMC pudo ofrecer un camino para revertir las tradicionales luchas de poder en el proceso de comunicación.

Trasladando el centro del análisis desde los usuarios a los usos, hay que enfatizar que una abrumadora proporción de la CMC tiene lugar en el trabajo o en situaciones relacionadas con éste. He discutido en los capítulos 3 y 4 la importancia crítica de la computadora en relación con la nueva forma de organización en red y las condiciones laborales específicas de quienes trabajan de esa forma. En el contexto de este análisis sobre los impactos culturales, lo que hay que considerar es el isomorfismo simbólico que existe entre los procesos de trabajo, los servicios hogareños y el entretenimiento en la nueva estructura de comunicación. ¿La relación con la computadora es lo suficientemente específica como para unificar al trabajo, los hogares y el entretenimiento en el mismo sistema de procesamiento de símbolos? ¿O, por el contrario, el contexto determina la percepción y los usos del medio? Por el momento carecemos de investigaciones confiables en la materia, pero algunas observaciones preliminares hechas por Penny Gurstein en su tesis doctoral parecen indicar que aunque la gente que usa las computadoras en su casa disfruta manejando a gusto su tiempo y espacio, echan de menos la separación entre trabajo y ocio, familia y negocios, personalidad y función. Podemos decir, como una hipótesis para tener en mente, que la convergencia de la experiencia en el mismo medio borronea en cierto sentido la separación institucional entre los dominios de la actividad y confunde los códigos de comportamiento.

Más allá de la realización de tareas profesionales, los usos de la CMC ya se filtran a todos los campos de la actividad social. Aunque al individuo promedio nunca le agradó demasiado la telebanca (hasta que sea empujado contra su voluntad hacia ella, como sucederá), y las telecompras dependen del cercano florecimiento de la realidad virtual multimedia, las comunicaciones personales por medio del correo electrónico abundan y son la actividad de CMC más frecuente fuera de la oficina. Su uso extendido no substituyó la comunicación interpersonal, sino la telefónica, puesto que los contestadores automáticos y los sistemas de operadoras electrónicas habían creado una barrera comunicacional que convirtió al e-mail en la mejor alternativa para una comunicación directa en el momento elegido. El sexo por computadora es otro uso importante de la CMC y está en rápida expansión. Pese a que el negocio de la estimulación sexual informática crece a un ritmo acelerado, cada vez más asociado con la tecnología de realidad virtual, la mayor parte del sexo por computadora ocurre en líneas de conversación, ya en BBS especializadas ya como una derivación espontánea de la interacción personal. El poder interactivo de las nuevas redes hizo que esta actividad fuera más dinámica en la California de los '90 que en la Francia del Minitel de los '80. La gente, cada vez más temerosa del contagio y la agresión personal, busca alternativas para expresar su sexualidad, y en nuestra cultura de sobre-estimulación simbólica la CMC efectivamente ofrece caminos para la fantasía sexual, en particular porque la interacción no es visual y las identidades pueden ser escondidas.

La política también es un campo de uso creciente de la CMC. De un lado, el correo electrónico está siendo usado para la difusión masiva de propaganda política con blancos precisos y la posibilidad de interacción. Grupos fundamentalistas cristianos, la milicia americana en Estados Unidos y los zapatistas en México lideran esta tecnología política. Pero, además, la democracia local está siendo mejorada a través de experiencias en participación ciudadana electrónica, como el programa PEN organizado por la Ciudad de Santa Monica, California, el cual consiste en que los ciudadanos debatan cuestiones públicas y hagan conocer sus opiniones al gobierno de la ciudad. Un rabioso debate sobre los "sin techo" (con su propia participación electrónica) fue uno de los resultados más publicitados de esta experiencia a principios de los '90.

Más allá de la interacción social casual y los usos instrumentales de la CMC, los observadores detectaron el fenómeno de la formación de comunidades virtuales. Por éstas se entiende habitualmente, en concordancia con la explicación de Rheingold, una red electrónica de comunicación interactiva auto-definida, organizada en torno a intereses u objetivos comunes, aunque en algunos casos la comunicación es la meta en sí misma. Estas comunidades pueden estar relativamente formalizadas, como en el caso de conferencias albergadas por alguien o BBS, o ser formadas espontáneamente por redes sociales que se conectan a la red para enviar y recibir mensajes con cierta frecuencia (sea en tiempo real o no). Decenas de miles de estas comunidades existían en el mundo a mediados de la década de los 90, la mayoría con sede en Estados Unidos pero cada vez más a nivel mundial. Aún no está claro cuánta sociabilidad tiene lugar en esas redes electrónicas y cuáles son los efectos culturales de esta nueva forma de sociabilidad. Pero se puede destacar algo: estas redes son efímeras desde el punto de vista de los participantes. Si bien una determinada conferencia de un BBS puede durar mucho tiempo, en torno a un núcleo de devotos usuarios de computadoras, la mayor parte de las contribuciones a la interacción son esporádicas, y la mayoría de las personas entra y sale de las redes a medida que cambian sus intereses o sus expectativas son defraudadas. Adelantaré la hipótesis de que dos poblaciones muy diferentes "viven" en estas comunidades virtuales: una pequeña minoría de residentes electrónicos "que habitan la frontera electrónica", y una multitud pasajera para quienes sus incursiones en varias redes equivale a explorar diversas vidas en una forma efímera.

¿Cuán específico es el lenguaje de la CMC como nuevo medio? Para algunos analistas, la CMC, y particularmente el correo electrónico, representa la venganza del medio escrito, el regreso de la mente tipográfica y la recuperación del discurso construido, racional. Para otros, en cambio, la informalidad, espontaneidad y anonimato del medio estimulan lo que llaman una nueva forma de "oralidad", que se expresa en un texto electrónico. Si podemos considerar a la escritura informal y desestructurada de la interacción en tiempo real como una suerte de charla sincrónica (un teléfono que escribe...), tal vez podamos prever la emergencia de un nuevo medio, que mezcle las formas de comunicación que previamente estaban separadas en diferentes partes de la mente humana.

Por sobre todas las cosas, a la hora de medir los impactos sociales y culturales de la CMC debemos tener en cuenta la investigación sociológica acumulada que trata sobre los usos sociales de la tecnología. En particular, la excelente obra de Claude Fischer sobre la historia social del teléfono en Estados Unidos hasta 1940 muestra la gran elasticidad social de cualquier tecnología. Así, las comunidades del norte de California estudiadas por él adoptaron el teléfono para mejorar sus redes sociales de comunicación y para reforzar sus arraigados hábitos sociales. El teléfono fue adaptado, no sólo adoptado. Las personas moldean la tecnología para que satisfaga sus propias necesidades, como ya sostuve más arriba -en relación a la recepción personal y contextual de los mensajes televisivos por parte de la audiencia- y como muestra claramente la adopción masiva del Minitel por los franceses para calmar sus necesidades de fantasías sexuales. El tipo de comunicación electrónica de muchos a muchos que representa la CMC ha sido usado en diferentes formas y con diferentes objetivos, tantos como las variaciones sociales y contextuales de sus usuarios. Lo que es propio de la CMC es que, de acuerdo a unos pocos estudios sobre el tema, no substituye a otros medios de comunicación ni crea nuevas redes: refuerza los patrones sociales preexistentes. La CMC se suma a la comunicación telefónica o por medios de transporte, expande el alcance de las redes sociales y posibilita que éstas interactuen más activamente y según modelos temporales elegidos. En virtud de que el acceso a la CMC está cultural, educativa y económicamente restringido -y lo seguirá estando por largo tiempo-, su impacto cultural más importante podría ser el reforzamiento de las redes sociales culturalmente dominantes, así como el aumento de su componente cosmopolita y globalizado. Esto no se debe a que la CMC per se sea más cosmopolita. Como muestra Fischer, las primeras redes telefónicas favorecieron a la comunicación local más que a la de larga distancia. En algunas comunidades virtuales, como SFNET en el área de la Bahía de San Francisco, la mayoría de los "habitués" son residentes locales, y algunos celebran periódicamente fiestas cara a cara, para nutrir su intimidad electrónica. No obstante, las redes electrónicas en general tienden a reforzar el cosmopolitismo de las nuevas clases gerenciales y profesionales que viven simbólicamente en un marco de referencia mundial, a diferencia de la mayoría de las personas en cualquier país. Así, la CMC puede ser un medio poderoso para fortalecer la cohesión social de la elite cosmopolita, brindando el soporte material a la idea de una cultura mundial, desde lo chic de una dirección de e-mail hasta la veloz circulación de mensajes de moda.

En contraste, para la mayoría de la población de todos los países, la experiencia y usos de la CMC fuera de la oficina estará cada vez más entrelazada con el nuevo mundo de la comunicación asociado con el surgimiento de los multimedios.

La gran fusión: el multimedia como entorno simbólico

En la segunda mitad de los años noventa, un nuevo sistema electrónico de comunicación comenzó a formarse de la fusión delos medios de comunicación de masas globalizados y personalizados y la comunicación a través del ordenador. Como ya he mencionado, el nuevo sistema se caracteriza por la integración de diferentes medios y por su potencial interactivo. El multimedia, como se denominó al nuevo sistema, extiende el ámbito de la comunicación electrónica a todo el dominio de la vida, de la casa al trabajo, de las escuelas a los hospitales, del entretenimiento al viaje. A mediados de los noventa, los gobiernos y las empresas de todo el mundo ya están en una frenética carrera para situarse en una posición conveniente y establecer el nuevo sistema, considerado una herramienta de poder, fuente potencial de ingentes beneficios y símbolo dela hipermodernidad. En los Estados Unidos, el vicepresidente Albert Gore lanzó el programa de Infraestructura Informacional Nacional para renovar el liderazgo estadounidense en el siglo XXI. En Japón, el Consejo de Telecomunicaciones propuso las necesarias "Reformas hacia la Sociedad Intelectualmente Creativa del Siglo XXI", y el Ministerio de Correos y Telecomunicaciones diseñó una estrategia para crear un sistema multimedia en Japón, para superar el retraso de la nación frente a los Estados Unidos. En 1994, el Primer ministro francés encargó un informe sobre las autoroutes de l¨information, que llegó a la conclusión de que Francia contaba con una ventaja potencial en el campo, forjada por la experiencia dela sociedad con Minitel y la avanzada tecnológica francesa, para fomentar el estado siguiente del multimedia, haciendo hincapié en proporcionar un contenidos menos dependiente de Hollywood. Los programas tecnológicos europeos, en particular Esprit y Eureka, aumentaron los esfuerzos para desarrollar una norma europea de televisión de alta definición, así como protocolos de comunicación que pudieran integrar diferentes sistemas de comunicación cruzando las fronteras. En febrero de 1995, el club del G-7 celebró una reunión especial en Bruselas para tratar de forma conjunta los temas que implicaba la transición a la ·"Sociedad de la información". Y a comienzos de 1995, el nuevo presidente de Brasil, el distinguido sociólogo Fernando Hernique Cardoso, decidió, como una de las medidas clave de su nuevo gobierno, renovar el sistema de comunicación brasileño para conectarlo con la autopista global que estaba surgiendo.
No obstante, eran las empresas, no los gobiernos, las que estaban dando forma al nuevo sistema multimedia. En efecto, la escala de inversión en infraestructura impedía a cualquier gobierno actuar por sí mismo: sólo para los Estados Unidos, los cálculos para la fase de lanzamiento de la denominada autopista de la información eran 400.000 millones de dólares. Las empresas de todo el mundo estaban situándose en una posición conveniente para entrar en un mercado que podía convertirse a comienzos del siglo XXI en el equivalente de lo que el complejo industrial del automóvil-petróleo-caucho-autopistas fue en la primera mitad del siglo XX. Además, puesto que la forma tecnológica real del sistema es incierta, quienquiera que controle sus primeros estadios podría influir decisivamente en su evolución futura, con lo que adquiriría una ventaja competitiva estructural. Debido a la convergencia tecnológica entre ordenadores, telecomunicaciones y medios de comunicación de masas en todas sus modalidades, se formaron y disolvieron consorcios globales/regionales a una escala gigantesca. Las compañías telefónicas, los operadores de la televisión por cable y las televisiones por satélite compitieron y se fusionaron para protegerse de los riesgos del nuevo mercado. Las empresas informáticas se estaban apresurando para proporcionar "la caja", ese aparato mágico que encarnaría el potencial para enganchar la casa electrónica a una nueva galaxia de comunicación, mientras proporcionaba a la gente una capacidad de navegación y autoprogramación de un modo "sencillo para el usuario", tal vez sólo hablándole. Las compañías de software, de Microsoft a los creadores de videojuegos japoneses como Nintendo y Sega, estaban generando los nuevos conocimientos interactivos que desencadenarían la fantasía de sumergirse en la realidad virtual del entorno electrónico. Las cadenas de televisión, las compañías musicales y los estudios cinematográficos no daban abasto para alimentar a todo un mundo supuestamente hambriento de infoentretenimiento y líneas de productos audiovisuales.
El control empresarial sobre los primeros estadios del desarrollo de los sistemas multimedia habrá tenido consecuencias duraderas sobra las características de la nueva cultura electrónica. A pesar de toda la ideología sobre el potencial de las nuevas tecnologías para mejorar la educación, la salud y la cultura, la estrategia prevaleciente apunta hacia el desarrollo de un gigantesco sistema de entretenimiento electrónico, considerado la inversión más segura desde una perspectiva empresarial. En efecto, en el país pionero, los Estados Unidos, el entretenimiento en todas sus formas era a mediados de los años noventa la industria de crecimiento más rápido, con más de 350.000 millones de gasto en consumo anuales, unos 5 millones de trabajadores y un incremento del empleo de un 12% anual. En Japón, una encuesta de mercado nacional realizada en 1992 sobre la distribución de software multimedia por categorías de producto, descubrió que el entretenimiento representaba el 85,7% del valor, mientras que la educación sólo suponía el 0,8%. Así pues, aunque los gobiernos y futurólogos habían de conectar aulas, operar a distancia y teleconsultar la Enciclopedia Británica, la construcción real del nuevo sistema se centra en su mayor parte en el "video a solicitud", los telejuegos y los parques temáticos de realidad virtual. En la vena analítica de este libro, no estoy oponiendo las nobles metas delas nuevas tecnologías a su materialización mediocre. Sólo indico que el uso real en los primeros estadios del nuevo sistema determinará considerablemente los usos, las percepciones y, en última instancia, las consecuencias sociales del multimedia.
Sin embargo, es probable que el proceso de formación del nuevo sistema sea más lento y contradictorio de lo previsto. En 1994, hubo una serie de experimentos con sistemas de multimedia interactivos en diversas zonas: en la Ciudad de la Ciencia de Kansai en Japón; un programa coordinado en ocho redes de telecomunicación europeas para probar el Circuito de Abonados Digital Asimétrico (Asymetrical Digital Subscriber Loop, ASDL); y en diversas zonas de los Estados Unidos, de Orlando a Vermont y de Brooklyn a Denver. Los resultados no se correspondieron con las expectativas. Seguían sin resolverse importantes problemas tecnológicos, sobre todo la capacidad del sistema de software para hacer posible la interacción a una escala muy grande, para miles de hogares y cientos de fuentes de comunicación. Aunque las compañías de "vídeo a solicitud" anuncian posibilidades ilimitadas, la capacidad tecnológica para satisfacer las peticiones aún no va mucho más allá de la gama de opciones proporcionada por los sistemas de cable y satélite existentes o los servidores en línea del tipo de Minitel. Sin duda, se desarrollará la tecnología adecuada, pero la inversión necesaria para agilizarla depende de la existencia de un mercado masivo, que no puede materializarse hasta que esté disponible la tecnología eficiente. Una vez más, el tema no es si se desarrollará un sistema multimedia (que lo hará), sino cuándo y cómo, y en qué condiciones en los diferentes países, porque el significado cultural del sistema será profundamente modificado por la oportunidad y la forma de la trayectoria tecnológica.
Además, las expectativas de una demanda ilimitada de entretenimiento parecen estar sobrestimadas y muy influidas por la ideología de la "sociedad del ocio". Aunque el gasto en entretenimiento parece adaptarse a la inflación, el pago de toda la gama de posibilidades propuestas en línea excede claramente la evolución esperada de la renta familiar en el futuro próximo. El tiempo también es un recurso escaso. Hay indicios de que el tiempo dedicado al ocio en los Estados Unidos disminuyó un 37% entre 1973 y 1994. Además, el tiempo dedicado a los medios de comunicación descendió en la segunda mitad de los años ochenta: entre 1985 y 1990, el tiempo total dedicado a leer y ver la televisión y películas disminuyó hasta 45 horas anuales; las horas pasadas viendo la televisión bajaron en un 4%; y las horas para ver emisiones televisivas de las cadenas principales descendió un 20%. Si bien la disminución del tiempo dedicado a los medios de comunicación parece estar más ligada a una sociedad que trabaja demasiado (familias con doble puesto de trabajo) que a la falta de interés, las empresas de multimedia apuestas por otra interpretación: la falta de un contenido suficientemente atractivo. En efecto, muchos expertos de la industria de los medios de comunicación consideran que el cuello de botella real para la expansión del multimedia es que el contenido no sigue la transformación tecnológica del sistema: el mensaje está rezagado del medio. Una expansión espectacular de la capacidad de emisión, emparejada con la selección interactivo, no llegará a cumplir su potencial si no existe una elección real en cuanto al contenido: la disponibilidad en línea de 50 películas de sexo / violencia distintas pero similares no justifica la espectacular ampliación de la capacidad de transmisión. Por ello, la adquisición de estudios de Hollywood, compañías cinematográficas y archivos documentales de la televisión es un deber para cualquier consorcio multimedia global. Los creadores emprendedores, como Steven Spielberg, parecen haber comprendido que, en el nuevo sistema, debido a la diversidad potencial de contenidos, el mensaje es el mensaje: es la capacidad de diferenciar un producto que produzca el mayor potencial competitivo. Así pues, todo conglomerado con los recursos financieros suficientes podría tener acceso a la tecnología multimedia y, en un contexto cada vez más desreglado, acceder a casi cualquier mercado. Pero quien controle las películas de Bogart o la capacidad de generar a la nueva Marilyn electrónica o el próximo episodio de Parque Jurásico, estará en posición de proporcionar el artículo tan necesitado a cualquier soporte de comunicación.
Sin embargo, no es seguro lo que la gente quiere, incluso si, contando con el tiempo y los recursos, es más entretenimiento con un formato cada vez más complicado, de los videojuegos sádicos a los innumerables acontecimientos deportivos. Aunque hay escasos datos al respecto, algunos indicios apuntan hacia una pauta de demanda más compleja. Una de las encuestas más completas sobre la demanda de los medios de comunicación, efectuada en 1994 por Charles Piller sobre una muestra nacional de 600 adultos de los Estados Unidos, reveló un interés mucho más profundo en utilizar el multimedia para obtener acceso a la información, los asuntos de la comunidad, la participación política y la educación, que en añadir televisión y películas a su elección. Sólo el 28% de los consumidores consideraron muy deseable el video a solicitud, y la falta de interés en el entretenimiento fue igualmente fuerte entre los usuarios de Internet. Por otra parte, los usos políticos se valoraron mucho: al 57% le gustaría participar en reuniones electrónicas del ayuntamiento; el 46% quería utilizar el correo electrónico para mandar mensajes a sus representantes; y en torno al 50% valoró la posibilidad de votar electrónicamente. Otros servicios adicionales de gran demanda eran: cursos educativos/instructivos; informes interactivos sobre los colegios locales; acceso a materiales de consulta; acceso a la información sobre los servicios gubernamentales. Los encuestados estaban dispuestos a respaldar su opinión con el bolsillo: el 34% estaba dispuesto a pagar diez dólares adicionales al mes por la enseñanza a distancia, mientras que sólo el 19% pagaría esa cantidad por una opción adicional de entretenimiento. Asimismo, los experimentos realizados por las compañías de multimedia sobre la demanda de videos en los mercados locales han mostrado que la gente no está dispuesta a un aumento sustancial de su dosis de entretenimiento. Así, el experimento de dieciocho meses realizado por US West/ATT vídeo en Littleton (Colorado) en 1993-1994, mostró que, en efecto, los hogares habían pasado de ver vídeos estándar a las ofertas personalizadas, pero no aumentaron el número de películas que veían: permanecieron en 2,5 películas al mes, cuyo precio era de tres dólares cada una.
Combinado con el éxito a gran escala del Minitel francés, que ofrecía servicios más que entretenimiento, y la rápida difusión de la comunicación personal en Internet, la observación tiene a sugerir que el entretenimiento diversificado y masivo a solicitud quizás no sea la elección obvia de los usuarios del multimedia, aunque es evidente que es la opción estratégica de las firmas comerciales que determinan el campo. Puede dar como resultado el aumento de la tensión entre los productos de infoentretenimiento, guiados por la ideología de lo que la gente es, según lo imaginan los gabinetes estratégicos de la mercadotecnia, y la necesidad de comunicación personal y mejora de la información que se afirman con gran determinación en las redes de comunicación a través del ordenador. Muy bien pudiera ser que esta tensión se diluyera por la estratificación social de las diferentes expresiones multimedia, un tema crucial al que volveré.
Debido a la novedad del multimedia, es difícil valorar sus implicaciones para la cultura o la sociedad, más allá de reconocer que se están produciendo cambios fundamentales. Sin embargo, los datos empíricos dispersos y los comentarios informados sobre los diferentes componentes del nuevo sistema de comunicación proporcionan la base para formular algunas hipótesis sobre las tendencias sociales y culturales emergentes. Así pues, un "informe exploratorio" de la European Foundation for the Improvement of Living and Working Conditions sobre el desarrollo del "hogar electrónico" destaca dos rasgos críticos del nuevo estilo de vida: su concentración en el hogar y su individualismo. Por otra parte, el aumento del equipo electrónico en los hogares europeos ha incrementado su comodidad y reforzado su autosuficiencia, permitiéndoles conectarse con el mundo entero desde la seguridad del hogar. Unidos el aumento del tamaño de las viviendas y el descenso del tamaño de los hogares, se dispone de mayor espacio por persona, haciendo del hogar un lugar más acogedor. En efecto, el tiempo pasado en él ascendió a comienzos de la década de 1990. Además, el nuevo hogar electrónico y los aparatos de comunicación portátiles aumentan las posibilidades de que cada miembro de la familia organice su propio tiempo y espacio. Por ejemplo, los hornos microondas, al permitir el consumo individual de alimentos precocinados, ha reducido la frecuencia de las comidas familiares colectivas. Los platos individuales para ver la televisión representan un mercado creciente. Los aparatos de vídeo y walkman, junto con el descenso del precio de los aparatos de televisión, radio y discos compactos, permiten a un gran segmento de la población conectarse de forma individual con los mundos audiovisuales seleccionados. El cuidado familiar también se ve ayudado/transformado por la electrónica: los niños son vigilados a distancia mediante control remoto; los estudios muestran un uso cada vez mayor de la televisión como canguro, mientras los padres realizan sus tareas domésticas; las personas mayores que viven solas están provistas de sistemas de alarma para situaciones de urgencia. No obstante, algunos rasgos sociales parecen perdurar más allá de la revolución tecnológica: el reparto de las tareas domésticas entre los géneros (o, más bien, su falta) no se ha visto afectado por los medios electrónicos; el uso del aparato de vídeo y el manejo de los mandos a distancia reflejan la estructura autoritaria de la familia; y la utilización de los aparatos electrónicos se diferencia a lo largo de líneas de género y edad: los hombres utilizan con mayor frecuencia los ordenadores; las mujeres manejan el mantenimiento eléctrico de la casa y los servicios telemáticos; y los niños están obsesionados con los videojuegos.
Los nuevos medios de comunicación electrónicos no se alejan de las culturas tradicionales, sino que las absorben. Un caso concreto es la invención japonesa del Karaoke, que se difundió rápidamente por toda Asia en los años noventa y es muy probable que lo haga al resto del mundo en el futuro próximo. En 1991, su extensión en Japón alcanzó el 100% de los hoteles y hostales recreativos, y en torno a un 90% de bares y clubes, a los que debe añadirse la explosión de salones especializados en Karaoke, de menos de 2.000 en 1989 a más de 107.000 en 1992. En este último año, en torno a un 52% de los japoneses participaban en él, incluido el 79% de las adolescentes. A primera vista, el karaoke extiende y amplifica la costumbre tradicional de cantar juntos en los bares, algo tan popular en Japón como lo era (y es) en España o el Reino Unido, con lo cual escapa del mundo de la comunicación electrónica. No obstante, lo que en realidad hace es integrar esta costumbre en una máquina preprogramada, cuyos ritmos y repertorio musicales ha de seguir el cantante, recitando las palabras que aparecen en la pantalla. La competición con los amigos para alcanzar una puntuación más alta cuenta con la recompensa que otorga la máquina a quien mejor siga su ritmo. La máquina no es un instrumento musical: el cantante es tragado por ella para completar sus sonidos e imágenes. En el salón de karaoke nos volvemos parte de un hipertexto musical, entramos físicamente en el sistema multimedia y separamos nuestro canto del de nuestros amigos que esperan su turno para sustituir con una secuencia lineal de actuación el coro desordenado de canciones del pub tradicional.
En general, tanto en Europa como en América o Asia, el multimedia parece estar apoyando, si bien en su primer estadio, un modelo social/cultural caracterizado por los siguientes rasgos: en primer lugar, una extendida diferenciación social y cultural, que lleva a la segmentación de los usuarios/espectadores/lectores/oyentes. Los mensajes no sólo están segmentados por los mercados que siguen las estrategias de los emisores, sino también cada vez más diversificados por los usuarios de los medios según sus intereses y aprovechando las capacidades interactivas. Como algunos expertos lo expresaron, en el nuevo sistema, "las horas de máxima audiencia son mis horas". La formación de comunidades virtuales sólo es una de las expresiones de esa diferenciación.
En segundo lugar, una estratificación social creciente entre los usuarios. No sólo se restringirá la elección del multimedia a aquellos con el tiempo y dinero necesarios para el acceso, y a los países y regiones con suficiente potencial de mercado, sino que las diferencias culturales/educativas serán decisivas para utilizar la interacción en provecho de cada usuario. La información sobre qué buscar y el conocimiento sobre cómo utilizar el mensaje serán esenciales para experimentar verdaderamente un sistema diferente de los medios de comunicación de masas estándar personalizados. Así pues, el mundo multimedia será habitado por dos poblaciones muy distintas: los interactuantes y los interactuados, es decir, aquellos capaces de seleccionar sus circuitos de comunicación multidireccionales y aquellos a los que se les proporciona un número limitado de opciones preempaquetadas. Y quién es qué será determinado en buena medida por la clase, la raza, el género y el país. El poder unificador de la televisión de masas (de la que sólo una diminuta elite cultural se escapó en el pasado) se reemplaza ahora por la diferenciación social estratificada, que lleva a la coexistencia de una cultura de medios de comunicación de masas personalizados y una red de comunicación electrónica interactiva de comunas autoseleccionadas.
En tercer lugar, la comunicación de toda clase de mensajes en el mismo sistema, incluso si es interactivo y selectivo (de hecho, precisamente debido a ello), induce a la integración de todos los mensajes en un modelo cognitivo común. El acceso a las noticias, educación y espectáculos audiovisuales del mismo medio, incluso desde fuentes diferentes, avanza un peldaño más en el desdibujamiento de los contenidos que ya se estaba dando en la televisión de masas. Desde la perspectiva del medio, los modos diferentes de comunicación tienen a tomar los códigos unos de otros: los programas educativos interactivos parecen videojuegos; las noticias se construyen como espectáculos audiovisuales; los juicios se emiten como culebrones; la música pop se compone para la televisión multimedia; las competiciones deportivas son coreografiadas para sus espectadores a distancia, de tal modo que los mensajes se vuelven cada vez menos distinguibles de las películas de acción; y otras cosas por el estilo. Desde la perspectiva del usuario (tanto como receptor cuanto como emisor, en un sistema interactivo), la elección de varios mensajes bajo el mismo modo de comunicación, con un paso fácil de uno a otro, reduce la distancia mental entre varias fuentes de participación cognitiva y sensorial. Lo que está en juego no es que el medio sea el mensaje: los mensajes son los mensajes. Y puesto que guardan su carácter distintivo como tales, aunque se mezclan en su proceso de comunicación simbólica, desdibujan sus códigos en él y crean un contexto semántico multifacético, compuesto por una mezcla aleatoria de diversos significados.
Por último, quizás el rasgo más importante del multimedia sea que captura dentro de sus dominios la mayor parte de las expresiones culturales en toda su diversidad. Su advenimiento equivale a poner fin a la separación, e incluso a la distinción, entre medios audiovisuales e impresos, cultura popular y erudita, entretenimiento e información, educación y persuasión. Toda expresión cultural, de la peor a la mejor, de la más elitista a la más popular, se reúne en este universo digital, que conecta en un supertexto histórico y gigantesco las manifestaciones pasadas, presentes y futuras de la mente comunicativa. Al hacerlo, construye un nuevo entorno simbólico. Hace de la virtualidad nuestra realidad.

La cultura de la virtualidad real

Las culturas están hechas de procesos de comunicación. Y todas las formas de comunicación, como nos enseñaron Roland Barthes y Jean Baudrillard hace muchos años, se basan en la producción y el consumo de signos. Así pues, no hay separación entre "realidad" y representación simbólica. En todas las sociedades, la humanidad ha existido y actuado a través de un entorno simbólico. Por lo tanto, lo que es específico desde el punto de vista histórico del nuevo sistema de comunicación, organizado en torno a la integración electrónica de todos los modos de comunicación, desde el tipográfico hasta el multisensorial, no es su inducción a la realidad virtual, sino la construcción de la virtualidad real. Lo explicaré con la ayuda del diccionario, según el cual "virtual: que es tal en la práctica, aunque no estrictamente o en nombre de", y "real: que tiene existencia verdadera". Así que, la realidad, tal como se experimenta, siempre ha sido virtual, porque siempre se percibe a través de símbolos que formulan la práctica con algún significado que se escapa de su estricta definición semántica. Es precisamente esta capacidad de todas las formas del lenguaje para codificar la ambigüedad y para abrir una diversidad de interpretaciones la que hace a las expresiones culturales distintas del razonamiento matemático formal/lógico. Es mediante el carácter polisémico de nuestros discursos como se manifiesta la complejidad de los mensajes de lamente humana, e incluso su cualidad contradictoria. Esta gama de variación cultural del significado de los mensajes es la que nos permite interactuar unos con otros en una gran diversidad de dimensiones, algunas explícitas y otras implícitas. Así pues, cuando los críticos del os medios de comunicación electrónicos sostienen que el nuevo entorno simbólico no representa la "realidad", hacen referencia implícita a una noción absurdamente primitiva de experiencia real "no codificada" que nunca existió. todas las realidades se comunican por medio de símbolos. Y en la comunicación humana interactiva, sin tener en cuenta el medio, todos los símbolos resultan algo desplazados en relación con su significado semántico asignado. En cierto sentido, toda la realidad se percibe virtualmente.
¿Qué sistema de comunicación es entonces el que, en contraste con la experiencia histórica previa, genera virtualidad real? Es un sistema en el que la misma realidad (esto es, la existencia material/simbólica de la gente) es captada por completo, sumergida de lleno en un escenario de imágenes virtuales, en el mundo de hacer creer, en el que las apariencias no están sólo en la pantalla a través de la cual se comunica la experiencia, sino que se convierten en la experiencia. Todos los mensajes de toda clase quedan encerrados en el medio, porque éste se ha vuelto tan abarcador, tan diversificado, tan maleable, que absorbe en el mismo texto multimedia el conjunto de la experiencia humana, pasada, presente y futura, como en ese único punto del universo que Jorge Luis Borges llamó el "Álef". Pondré un ejemplo.
En la campaña presidencial estadounidense de 1992, el entonces vicepresidente Dan Quayle quiso pronunciarse en defensa de los valores familiares tradicionales. Armado de sus convicciones morales, inició un debate inusual con Murphy Brown. Interpretada por una gran actriz, Candice Bergen, era el personaje principal de una popular serie de televisión que (re) presentaba los valores y problemas de una nueva clase de mujer: la profesional soltera que trabaja y tiene sus propios criterios sobre la vida. En las semanas de la campaña presidencial, Murphy Brown (no Candice Bergen) decidió tener un hijo fuera del matrimonio. El vicepresidente Quayle se apresuró a condenar su conducta por impropia, suscitando la cólera nacional, sobre todo entre las mujeres trabajadoras. Murphy Brown (no sólo Candice Bergen) se desquitó: en su episodio siguiente, apareció viendo la entrevista televisiva en la que el vicepresidente la censuraba y se interpuso criticando con contundencia la interferencia de los políticos en la vida de las mujeres y defendiendo su derecho a una nueva moralidad. Finalmente, Murphy Brown aumentó su cuota de audiencia y el conservadurismo anticuado de Dan Quayle contribuyó a la derrota electoral del presidente Bush, siendo ambos acontecimientos reales y, en cierta medida, socialmente importantes. No obstante, se había compuesto un nuevo texto de lo real y lo imaginario a lo largo del diálogo. La presencia no solicitada del mundo imaginario de Murphy Brown en la campaña presidencial de la vida real provocó la transformación de Quayle (o, más bien, de su imagen televisiva "real") en un personaje de la vida imaginaria de Murphy Brown: se había hecho un supertexto, mezclando en el mismo discurso mensajes sostenidos apasionadamente y emitidos desde ambos niveles de la experiencia. En este caso, la virtualidad (esto es, Murphy Brown siendo en la práctica lo que muchas mujeres eran, sin serlo en nombre de ninguna mujer) se había vuelto real, en el sentido de que interactuaba realmente, con cierto impacto significativo, en el proceso de elección del cargo político más poderoso dela tierra. Concedo que el ejemplo es extremadamente inusual, pero creo que ilustra mi análisis, ayudando a reducir la oscuridad de su abstracción. Esperando que éste sea el caso, seré más preciso.
Lo que caracteriza al nuevo sistema de comunicación, basado en la integración digitalizada e interconectada de múltiples modos de comunicación, es su capacidad de incluir y abarcar todas las expresiones culturales. Por su existencia, en el nuevo tipo de sociedad, toda clase de mensajes funcionan en un modo binario: presencia/ausencia en el sistema de comunicación multimedia. Sólo la presencia en este sistema integrado permite la comunicabilidad y socialización del mensaje. Todos los demás se reducen a la imaginación individual o a las subculturas cada a cara cada vez más marginadas. Desde la perspectiva de la sociedad, la comunicación basada en la electrónica (tipográfica, audiovisual o a través del ordenador) es comunicación. No obstante, no se deduce que haya una homogeneización de las expresiones culturales y el pleno dominio de los códigos por unos cuantos emisores centrales. Es precisamente debido a su diversificación, multimodalidad y versatilidad por lo que el nuevo sistema de comunicación es capaz de abarcar e integrar todas las formas de expresión, así como la diversidad de intereses, valores e imaginaciones, incluida la expresión de conflictos sociales. Pero el precio que se paga por la inclusión en el sistema es adaptarse a su lógica, a su lenguaje, a sus puntos de entrada, a su codificación y decodificación. Por ello es por lo que es tan crucial para los diferentes tipos de efectos sociales que se desarrolle una red de comunicación multimodal horizontal, del tipo de Internet, y no un sistema multimedia de expedición centralizada, como la configuración del vídeo a solicitud. El establecimiento de barreras para entrar en este sistema de comunicación y la creación de contraseñas para la circulación y difusión de mensajes por el sistema son batallas culturales cruciales para la nueva sociedad, cuyo resultado predetermina el destino delos conflictos interpuestos simbólicamente por los que se luchará en este nuevo entorno histórico. Quiénes son los interactuantes y quiénes los interactuados en el nuevo sistema, para utilizar la terminología cuyo significado sugerí anteriormente, formula en buena medida el sistema de dominación y los procesos de liberación en la sociedad informacional.
La inclusión de la mayoría de las expresiones culturales dentro del sistema de comunicación integrado, basado en la producción y distribución electrónica digitalizada y el intercambio de señales, tiene importantes consecuencias para las formas y procesos sociales. Por una parte, debilita de manera considerable el poder simbólico de los emisores tradicionales externos al sistema, que transmiten a través de las costumbres sociales codificadas por la historia: religión, moralidad, autoridad, valores tradicionales, ideología política. No es que desaparezcan, pero se debilitan a menos que se recodifiquen en el nuevo sistema, donde su poder se multiplica por la materialización electrónica de las costumbres transmitidas espiritualmente: en nuestras sociedades, los predicadores electrónicos y las redes fundamentalistas interactivas son una forma más eficaz y penetrante de adoctrinamiento que la transmisión cara a cara de una autoridad carismática y distante. Pero al haber concedido la coexistencia terrenal de mensajes transcendentales, pornografía a solicitud, culebrones y líneas de conversación dentro del mismo sistema, los poderes espirituales siguen conquistando almas, pero pierden su posición suprahumana. Sigue el paso final de la secularización de la sociedad, aun cuando a veces tome la forma paradójica de un consumo notable de religión, bajo toda clase de nombres genéricos y de marca. Las sociedades están por fin y verdaderamente desencantadas, porque todos los milagros están en línea y pueden combinarse en mundos de imágenes autoconstruidos.
Por otra parte, el nuevo sistema de comunicación transforma radicalmente el espacio y el tiempo, las dimensiones fundamentales de la vida humana. Las localidades se desprenden de su significado cultural, histórico y geográfico, y se reintegran en redes funcionales o en collages de imágenes, provocando un espacio de flujos que sustituye al espacio de lugares. El tiempo se borra en el nuevo sistema de comunicación, cuando pasado, presente y futuro pueden reprogramarse para interactuar mutuamente en el mismo mensaje. El espacio de los flujos y el tiempo atemporal son los cimientos materiales de una nueva cultura, que transciende e incluye la diversidad de los sistemas de representación transmitidos por la historia: la cultura de la virtualidad real, donde el hacer creer acaba creando el hacer.

Castells,

La revolución de la tecnología de la información

Manuel Castells


¿Cuál revolución?

"El gradualismo", escribió el paleontólogo Stephen J. Gould, "la idea de que todo cambio debe ser suave, lento y estable, no brotó de las rocas. Representaba un sesgo cultural común, en parte una respuesta del liberalismo del siglo diecinueve para un mundo en revolución. Pero continúa coloreando nuestra supuestamente objetiva lectura de la historia… …La historia de la vida, como yo la leo, es una serie de estadios estables, matizado por raros intervalos con grandes eventos que suceden con mucha rapidez y ayudan a establecer la siguiente era estable." Mi punto de partida, y no soy el único que tiene este supuesto,es que, al final del siglo veinte, estamos atravesando uno de esos raros intervalos en la historia. Un intervalo caracterizado por la transformación de nuestra "cultura material" por obra de un nuevo paradigma tecnológico organizado en torno a las tecnologías de la información.

Por tecnología entiendo exactamente lo que Harvey Brooks y Daniel Bell, "el uso de un conocimiento científico para especificar modos de hacer cosas de un modo reproducible" Entre las tecnologías de la información yo incluyo, como todos, el conjunto convergente de tecnologías en microelectrónica, computación (máquinas y software), telecomunicaciones/transmisiones, y la optoelectrónica. En suma, contrariamente a otros analistas, también incluyo en el reino de las tecnologías de la información a la ingeniería genética y su creciente conjunto de descubrimientos y aplicaciones. Esto es, primero, porque la ingeniería genética se ha concentrado en la decodificación, manipulación, y eventual reprogramación de los códigos de información de la materia viviente. Pero también porque, en los 90s, la biología, la electrónica, y la informática parecían estar convergiendo e interactuando en sus aplicaciones y en sus materiales, y , fundamentalmente, en su aproximación conceptual, un tema que merece más que una mención en este capítulo. Alrededor de este núcleo de tecnologías de la información, en el sentido amplio que fue definido, una constelación de importantes rupturas tecnológicas han tenido lugar en las dos últimas décadas del siglo veinte en materiales avanzados, en fuentes de energía, en aplicaciones médicas, en técnicas de manufactura (existentes o potenciales, como la nanotecnología), y en la tecnología de la transportación, entre otras. Por otra parte, el actual proceso de transformación tecnológica se expande exponencialmente por su habilidad para crear una interfaz entre los campos tecnológicos a través de un lenguaje digital común en el que la información es generada, almacenada, recuperada, procesada y retransmitida. Vivimos en un mundo que, siguiendo la expresión de Nicolás Negroponte, se ha vuelto digital.

La profética optimista y la manipulación ideológica que caracteriza la mayor parte de los discursos sobre la revolución de la tecnología de la información no debe llevarnos equivocadamente a desestimar su verdadera significación. Es un evento histórico tan importante, como este libro tratará de mostrar, como lo fue la Revolución Industrial en el siglo dieciocho, induciendo un patrón de discontinuidad en la base material de la economía, la sociedad, y la cultura. El registro histórico de las revoluciones tecnológicas, tal como fuera compilado por Melvin Kranzberg y Carroll Pursell, muestra que todos se caracterizan por su penetración en todos los dominios de la actividad humana, no como una fuente exógena de impacto, sino como el género con el que esta actividad está tejida. En otras palabras, están orientadas según procesos, además de inducir nuevos productos. Por otra parte, y a diferencia de cualquier revolución, el núcleo de la transformación que estamos experimentando en la revolución actual refiere a las tecnologías del procesamiento y comunicación de la información. La tecnología de la información es para esta revolución lo que las nuevas fuentes de energía fueron para las sucesivas Revoluciones Industriales, desde la máquina al vapor a la electricidad, combustibles fósiles, e incluso la energía nuclear, desde que la generación y distribución de la energía fue el elemento clave subyacente a la sociedad industrial. Sin embargo, este planteo acerca del rol preeminente de la tecnología de la información es frecuentemente confundido con la caracterización de la revolución en curso como esencialmente dependiente de nuevos conocimientos e información. Esto es cierto en el actual proceso de cambio tecnológico, pero también lo es para las revoluciones tecnológicas precedentes, como es demostrado por los principales historiadores de la tecnología, como Melvin Kranzberg y Joel Mokyr. La primer Revolución Industrial, si bien no tuvo bases científicas, se apoyó en el uso extendido de la información, aplicando y desarrollando conocimientos preexistentes. Y la segunda Revolución Industrial, después de 1850, estuvo caracterizada por el rol decisivo de la ciencia en incentivar la innovación. Por cierto, los laboratorios de investigación y desarrollo surgieron por primera vez en la industria química alemana en las últimas décadas del siglo diecinueve.

Lo que caracteriza la revolución tecnológica actual no es la centralidad del conocimiento y la información, sino la aplicación de ese conocimiento e información a la generación de conocimiento y los dispositivos de procesamiento/ comunicación de la información, en un circuito de retroalimentación acumulativa que se da entre la innovación y los usos de la innovación. Un ejemplo quizá pueda esclarecer este análisis. Los usos de nuevas tecnologías de telecomunicación en las dos últimas décadas han atravesado tres etapas diferentes: la automatización de tareas, la experimentación de usos, la reconfiguración de las aplicaciones. En las dos primeras etapas, la innovación tecnológica progresó en función del aprendizaje por uso, según la terminología de Rosemberg. En la tercer etapa, los usuarios aprendieron la tecnología haciendo, y terminaron reconfigurando las redes, y encontrando nuevas aplicaciones. El proceso de retroalimentación generado entre la introducción de nueva tecnología, su uso y su desarrollo hacia nuevos territorios se produce mucho más rápidamente bajo el nuevo paradigma tecnológico. Como resultado, la difusión de la tecnología amplía sin límites el poder de la tecnología, al ser apropiada y redefinida por sus usuarios. Las nuevas tecnologías de la información no son simples herramientas para ser aplicadas, sino que son procesos para ser desarrollados. Usuarios y hacedores pueden llegar a ser la misma cosa. Por tanto los usuarios pueden tomar el control de la tecnología, como en el caso de Internet (ver capítulo 5). Luego sigue una estrecha relación entre los procesos sociales de creación y manipulación de símbolos (la cultura de la sociedad) y la capacidad para producir y distribuir bienes y servicios (las fuerzas productivas). Por primera vez en la historia, la mente humana es una fuerza productiva directa, no solo un elemento decisivo del sistema de producción.

Por lo tanto, las computadoras, los sistemas de comunicación, y la decodificación y programación genética son todos amplificadores y extensiones de la mente humana. Lo que pensamos, y cómo lo pensamos, es expresado en bienes, servicios, output material e intelectual, ya sea comida, refugio, sistema de transporte y de comunicación, computadoras, misiles, salud, educación o imágenes. La creciente integración entre mentes y máquinas, incluyendo la máquina ADN, está cancelando lo que Bruce Mazlish llama la "cuarta discontinuidad" (entre humanos y máquinas), alterando fundamentalmente el modo en que nacemos, vivimos, aprendemos, trabajamos, producimos, consumimos, soñamos, peleamos, o morimos. Por supuesto los contextos culturales/institucionales y la acción social intencionada interactúan decisivamente con el nuevo sistema tecnológico, pero este sistema tiene su propia lógica enclavada, caracterizada por la capacidad de trasladar todos los inputs en un sistema común de información, y de procesar esa información a una velocidad creciente, con poder creciente, a costo decreciente, en una red de recuperación y distribución potencialmente ubicua.

Hay un elemento más caracterizando la revolución de la tecnología de la información en comparación con sus predecesoras históricas. Mokyr ha mostrado que las revoluciones tecnológicas tuvieron lugar solo en unas pocas sociedades, y se difundieron en un área geográfica relativamente limitada, frecuentemente aislando espacial y temporalmente otras regiones del planeta. Así, mientras los europeos tomaban prestado algunos de los descubrimientos ocurridos en China, por muchos siglos China y Japón adoptaron tecnología europea sólo con fundamentos muy limitados, principalmente restringidos a aplicaciones militares. El contacto entre civilizaciones con distintos niveles tecnológicos a menudo termina con la destrucción del menos desarrollado, o de aquellos que aplicaron su conocimiento predominantemente en tecnología no militar, como es el caso de las civilizaciones americanas aniquiladas por los conquistadores españoles, a veces a través de una guerra biológica accidental. La Revolución Industrial se extendió por casi todo el mundo desde sus originarias costas del occidente europeo durante los siguientes dos siglos. Pero su expansión fue altamente selectiva, y su paso lento para los estándares usuales de difusión de tecnología. En verdad, incluso en Inglaterra para mediados del siglo diecinueve, los sectores que habían dado cuenta de la mayoría de la fuerza de trabajo, y al menos la mitad del producto bruto nacional, no estaban afectados por las nuevas tecnologías industriales. Además, su alcance planetario en las décadas siguientes adoptó la forma de dominación colonial, ya fuera en India bajo el imperio británico; en Latinoamérica bajo la dependencia industrial/comercial en Inglaterra y los Estados Unidos; en el desmembramiento de África con el Tratado de Berlín; o con la apertura al comercio extranjero de Japón y China por las armas de los barcos de occidente. En contraste, las nuevas tecnologías de información se han expandido por todo el mundo a la velocidad del relámpago en menos de dos décadas, entre mediados de los 70 y mediados de los 90, desplegando una lógica que yo propongo como característica de esta revolución tecnológica: la aplicación inmediata para su propio desarrollo de las tecnologías que genera, conectando al mundo a través de tecnología de la información. Seguramente hay grandes áreas en el mundo, y considerables segmentos de la población desenchufados del nuevo sistema tecnológico: este es precisamente uno de los argumentos centrales de este libro. Además, la velocidad de la difusión de la tecnología es selectiva, tanto social como funcionalmente. Los tiempos diferenciales para el acceso al poder de la tecnología por parte de las personas, los países y las regiones son una fuente crítica de desigualdad en nuestra sociedad. Las áreas que están desconectadas son cultural y espacialmente discontinuas: están en las ciudades del interior de Estados Unidos o en los banlieues franceses, tanto como en los pueblos de chozas de África o en las paupérrimas áreas rurales de China o India. Sin embargo, las funciones dominantes, los grupos sociales y los territorios a lo largo del mundo están conectados desde mediados de los 90 a un nuevo sistema tecnológico, que como tal, comenzó a tomar forma sólo en los 70.

¿Cómo es que esta transformación fundamental sucedió en lo que sería un instante histórico? Por qué la difusión a través del mundo va a un paso tan acelerado? Por qué es una "revolución"? Desde que nuestra experiencia de lo nuevo está moldeada por nuestro pasado reciente, pienso que las respuestas a estas preguntas básicas podría ser más sencilla con una breve reseña histórica de la Revolución Industrial, todavía presente en nuestras instituciones, y por lo tanto en nuestra mente.



Lecciones de la Revolución Industrial

Los historiadores han mostrado que hubo por lo menos dos Revoluciones Industriales: la primera comenzó en el último tercio del siglo dieciocho, caracterizada por nuevas tecnologías como la máquina a vapor, la máquina de hilar, el proceso Cort en metalúrgica, y más ampliamente, el reemplazo de las herramientas manuales por máquinas; la segunda, unos 100 años después, se caracterizó por el desarrollo de la electricidad, el motor de combustión interna, los químicos producidos por la ciencia, la efectiva fundición de acero, y el comienzo de las tecnologías de la comunicación, con la difusión del telégrafo y la invención del teléfono. Entre las dos hubo continuidades fundamentales, así como algunas diferencias críticas, siendo la principal de ellas la importancia decisiva del conocimiento científico para sostener y guiar el desarrollo tecnológico después de 1850.

Es precisamente por sus diferencias que los aspectos que tienen ambas en común pueden ofrecer importantes reflexiones en la comprensión de la lógica de las revoluciones tecnológicas.

En primer lugar, en ambos casos, somos testigos de lo que Mokyr describe como un periodo de "cambio tecnológico acelerado y sin precedentes". Un conjunto de macro invenciones preparó el terreno para el florecimiento de las micro invenciones en los reinos de la agricultura, la industria y las comunicaciones. La discontinuidad histórica fundamental, de carácter irreversible, fue introducida en el fundamento material de la especie humana, en un proceso dependiente cuya lógica interna y secuencial ha sido investigada por Paul David y teorizada por Brian Arthur. Fueron de hecho "revoluciones", en el sentido de que el súbito, inesperado surgimiento de una aplicación tecnológica transformaba el proceso de producción y distribución, creaba un torrente de nuevos productos, y elevaba decisivamente la ubicación de la riqueza y el poder en un planeta que de pronto se ponía bajo el alcance de aquellos países y elites capaces de dominar el nuevo sistema tecnológico. El lado oscuro de esta aventura tecnológica es que está intrincadamente atada a las ambiciones imperialistas y a los conflictos anti imperialistas.

Esta es precisamente una confirmación del carácter revolucionario de las nuevas tecnologías industriales. El ascenso histórico del así llamado Occidente, de hecho limitado a Inglaterra y a un puñado de naciones de Europa Occidental así como a sus vertientes norteamericana y australiana, está fundamentalmente vinculado con la superioridad tecnológica acumulada en las dos Revoluciones Industriales. Nada en la historia cultural, científica, política o militar del mundo previas a la Revolución Industrial podrían explicar la indisputable supremacía "Occidental"(Anglosajona/Germana, con un toque francés) entre 1750 y 1940. China era por mucho una cultura superior por gran parte de su historia pre Renacentista; la civilización Musulmana (tomando la libertad para usar esta expresión) dominaba gran parte del Mediterráneo y ejerció una influencia significativa en África a lo largo de la modernidad; Asia y África permanecieron y se organizaron en torno a centros políticos y culturales autónomos; Rusia reinaba en un espléndido aislamiento una vasta expansión a través de Europa oriental y Asia; y el imperio español, la cultura europea más rezagada de la Revolución Industrial, fue la mayor potencia mundial por más de dos siglos después de 1492. La tecnología, expresando condiciones sociales específicas, introdujo un nuevo camino histórico en la segunda mitad del siglo dieciocho.

Este camino se originó en Inglaterra, aunque sus raíces intelectuales se remontan por toda Europa y al espíritu renacentista del descubrimiento. De hecho, algunos historiadores insisten en que el conocimiento científico necesario subyacente a la primer Revolución Industrial estaba disponible 100 años antes, listo para ser usado bajo condiciones sociales maduras; o como otros argumentan, esperando la ingenuidad tecnológica de inventores auto entrenados, como Newcomen, Watts, Crompton o Arkwright, capaces de transferir el conocimiento disponible, combinado con la experiencia de quien se da maña, a las decididamente nuevas tecnologías industriales. Sin embargo, la segunda Revolución Industrial, más dependiente del nuevo conocimiento científico, elevó su centro de gravedad hacia Alemania y los Estados Unidos, donde tuvieron lugar los principales desarrollos en química, electricidad y telefonía. Los historiadores han disectado penosamente las condiciones sociales de la ascendente geografía de la innovación tecnológica, frecuentemente centrándose en las características de la educación y los sistemas científicos, o en la institucionalización de los derechos de propiedad. Sin embargo, la explicación contextual de la despareja trayectoria de la innovación tecnológica parece ser excesivamente amplia y abierta a interpretaciones alternativas. Hall y Preston, en su análisis de los cambios geográficos de la innovación tecnológica entre 1846 y 2003, muestra la importancia de los semilleros locales de innovación, de los que Berlín, Nueva York y Boston son coronados como los "centros de alta tecnología industrial del mundo" entre 1880 y 1914, mientras "Londres en ese periodo era una pálida sombra de Berlín". La razón radica en la base territorial de la interacción de los sistemas de descubrimiento tecnológico y las aplicaciones, a saber, en las propiedades sinérgicas de lo que se conoce en la literatura como "milieux de innovación."

Ciertamente, las innovaciones tecnológicas se dieron en grupos, interactuando entre sí en un proceso de retornos incrementados. Cualquiera fuera la condición que determinara tal agrupación, la lección clave a ser retenida es que la innovación tecnológica no es una instancia aislada. Refleja un estado dado del conocimiento, un ambiente institucional e industrial particular, una cierta disponibilidad de habilidades para definir el problema técnico y para resolverlo, una mentalidad económica para hacer que esa aplicación sea eficiente en términos de costos, y una red de productores y usuarios que puedan comunicar sus experiencias acumuladas, aprendiendo por el uso y por el hacer: las elites aprenden haciendo, o sea modificando las aplicaciones de la tecnología, mientras que la mayor parte de la gente aprende usando, o sea manteniéndose dentro de los constreñimientos del packaging de la tecnología. La interacción de los sistemas de innovación tecnológica y su dependencia a ciertas "milieux" de intercambio de ideas, problemas y soluciones son elementos críticos que pueden ser generalizados de la experiencia de revoluciones pasadas a la actual.

Los efectos positivos de las nuevas tecnologías industriales sobre el crecimiento económico, el nivel de vida y el dominio del hombre sobre la Naturaleza hostil (reflejado en la dramática prolongación de la expectativa de vida, que no había mejorado antes del siglo dieciocho) a largo plazo son indisputables en el registro histórico. Sin embargo, no llegaron temprano, a pesar de la difusión de la máquina a vapor y la nueva maquinaria. Mokyr nos recuerda que "el consumo per capita y los estándares de vida mejoraron poco al principio {al fin del siglo dieciocho} pero las tecnologías de producción cambiaron dramáticamente en muchas industrias y sectores, preparando el paso al crecimiento sostenido schumpeteriano en la segunda mitad del siglo diecinueve cuando el progreso tecnológico se expandió a industrias que previamente no habían estado afectadas. Esta es una imposición crítica que nos obliga a evaluar los efectos actuales a la mayor parte de los cambios tecnológicos a la luz de un retraso temporal altamente dependiente de las condiciones específicas de cada sociedad. A pesar de todo, el registro histórico parece indicar que, en términos generales, cuanto más estrecha sea la relación entre los lugares de la innovación, producción y uso de las nuevas tecnologías, cuanto más rápido se da la transformación de las sociedades, y cuanto más positivo sea el feedback de las condiciones sociales sobre las condiciones generales mas innovaciones pueden ocurrir. Así, en España, la Revolución Industrial se difundió rápidamente en Cataluña, en el siglo dieciocho, pero tuvo un ritmo mucho menor en el resto de España, particularmente en Madrid que en el sur; solo el País Vasco y Asturias se habían unido al proceso de industrialización para finales del siglo diecinueve. Las fronteras de la innovación industrial eran en gran medida linderas a áreas en las que estuvo prohibido el comercio con las colonias americanas españolas por casi dos siglos: mientras que las elites andaluza y castellana, así como la Corona, podían vivir de sus rentas americanas, los catalanes tenían que proveerse a sí mismos a través del comercio y la ingenuidad, mientras eran sometidos a la presión de un estado centralizado. En parte como resultado de esta trayectoria histórica, Cataluña y el País Vasco fueron las únicas regiones completamente industrializadas hasta los 50 y los semilleros principales del emprendimiento y la innovación, en agudo contraste con las tendencias en el resto de España. Así, las condiciones sociales específicas guían la innovación tecnológica que se dirige a sí misma hacia el camino del desarrollo económico y la innovación. Aun así, la reproducción de esas condiciones es cultural e institucional, tanto como económica y tecnológica. La transformación del ambiente social e institucional puede alterar el paso y la geografía del desarrollo tecnológico (por ejemplo, Japón luego de la Restauración Meiji, o Rusia después de un breve período bajo Stolypin), aunque la historia pasada tolera una inercia considerable.

Una última y esencial lección de las Revoluciones Industriales, que considero relevante para este análisis, es controvertida: aunque ambos trajeron todo un orden de nuevas tecnologías que de hecho formó y transformó el sistema industrial en etapas sucesivas, en su núcleo hubo una innovación fundamental en la generación y distribución de la energía. R. J. Forbes, un historiador clásico de la tecnología, afirma que "la invención de la máquina a vapor es el factor central en la revolución industrial", seguido de la introducción de nuevos móviles principales y por el principal móvil removible, bajo el que "el poder de la máquina de vapor podía ser creada donde fuera necesario y con la extensión deseada." Y aunque Mokyr insiste en el carácter multifacético de la Revolución Industrial, también cree que "las protestas de algunos historiadores económicos no tiene lugar, la máquina a vapor es todavía ampliamente vista como la quintaesencia de la invención de la Revolución Industrial". La electricidad era la fuerza central en la segunda revolución, a pesar de otros extraordinarios descubrimientos en química, acero, la máquina de combustión interna, telegrafía y telefonía. Esto es porque sólo a través de la generación y distribución eléctrica todos los otros campos podían desarrollar sus aplicaciones y conectarse entre sí. Un caso puntual es el del telégrafo eléctrico, que primero fue usado experimentalmente en los 1790 y difundido desde 1837, pudiendo convertirse en una red de comunicación conectando al mundo en gran escala, solo cuando pudo confiar en la difusión de la electricidad. El uso difundido de la electricidad desde los 1870 en adelante cambió el transporte, la telegrafía, la iluminación y el trabajo en las fábricas al difundirse el poder en la forma de la máquina eléctrica. De hecho, mientras las fábricas habían sido asociadas con la primer Revolución Industrial, por casi un siglo no fueron concomitantes con el uso de la máquina de vapor que fue ampliamente utilizada en los talleres, mientras que las grandes fábricas seguían usando las mejoradas fuentes hidráulicas. Fue la máquina eléctrica que hizo posible e indujo la organización a gran escala del trabajo en la fábrica industrial. Como R. J. Forbes escribió (en 1958):

Durante los últimos 250 años los nuevos móviles principales han producido lo que frecuentemente se denomina la Era de la Máquina. El siglo dieciocho trajo la máquina a vapor; el siglo diecinueve la turbina de agua, la máquina de combustión interna y la turbina al vapor; y el siglo veinte la turbina a gas. Los historiadores han inventado frases llamativas para denotar movimientos o corrientes en la historia. Como "la Revolución Industrial", el título para un desarrollo frecuentemente descripto como un comienzo al principio del siglo dieciocho y que se extiende por casi todo el siglo diecinueve. Fue un movimiento lento, pero trajo cambios tan profundos en su combinación de progreso material y disloque social que colectivamente puede bien ser descripto como revolucionario si consideramos esas fechas extremas.

De esta forma, al actuar en el proceso en el corazón de todos los procesos -esto es, el poder necesario para producir, distribuir y comunicar- las dos Revoluciones Industriales se difundieron a través de todo el sistema económico y permearon la materia social. Fuentes de energía económicas, accesibles, y móviles se extendieron y aumentaron el poder del cuerpo humano, creando la base material para la continuación histórica de un movimiento similar hacia la expansión de la mente humana.



La secuencia histórica de la Revolución de la Tecnología de la Información

La breve, aunque intensa historia de la Revolución de la Tecnología de la Información ha sido contada tantas veces en años recientes que se hace innecesario proveer al lector con otra reseña detallada. Además, dada la rapidez de su paso, cualquier relato de este tipo sería instantáneamente obsoleto, tanto que entre la escritura de este libro y su lectura (digamos, 18 meses), los microchips habrán duplicado su rendimiento por un precio dado, de acuerdo con la bien conocida "ley de Moore". Sin embargo, encuentro analíticamente útil recordar los ejes principales de la transformación tecnológica en la generación/ procesamiento/ transmisión de información, y situarlos en la secuencia que fue llevando hacia la formación de un nuevo paradigma socio-técnico. Este breve resumen me permitió, mas adelante, saltar las referencias sobre rasgos tecnológicos cuando discutía su interacción específica con la economía, la cultura y la sociedad a través del itinerario intelectual de este libro, excepto cuando se requieren nuevos elementos de información.



Macro cambios en micro-ingeniería: electrónica e información

Aunque los predecesores científicos e industriales de las tecnologías de información basadas en la electrónica pueden encontrarse décadas antes de los 40(por ejemplo la invención del teléfono por Bell en 1876, la radio por Marconi en 1898, y la válvula de De Forest en 1906), fue durante la Segunda Guerra Mundial, y en los años posteriores, que tuvieron lugar las mayores innovaciones en tecnología electrónica: la primera computadora programable, y el transistor, fuente de la microelectrónica, el verdadero corazón de la Revolución de la Tecnología de la Información en el siglo veinte. Aun así sostengo que las nuevas tecnologías de información solo se difundieron ampliamente en los 70, acelerando su desarrollo sinérgico y convergiendo en un nuevo paradigma. Volvamos a trazar las etapas de innovación en tres campos tecnológicos principales que, aunque estrechamente interrelacionados, constituyeron la historia de las tecnologías basadas en la electrónica: la microelectrónica, las computadoras, y las telecomunicaciones.

El transistor, inventado en 1947 en los Laboratorios Bell en Murray Hill, Nueva Jersey, por tres físicos, Bardeen, Brattain y Shockley (que recibieron el Premio Nobel por este descubrimiento), hicieron posible el procesamiento de impulsos eléctricos a alta velocidad en el modo binario de interrupción y amplificación, permitiendo de esta forma la codificación de la lógica y de la comunicación con y entre máquinas: llamamos a estos dispositivos de procesamiento semiconductores, y la gente comúnmente los llama chips (actualmente conformados por millones de transistores). El primer paso en la difusión del transistor fue a través del invento de Shockley del junction transistor en 1951. De todas formas su fabricación y difusión requirieron de nuevas tecnologías y el uso de material apropiado. El salto a la silicona, literalmente construyendo una nueva revolución sobre la arena, fue logrado primero por Texas Instruments (en Dallas) en 1954 (una movida facilitada por la contratación en 1953 de Gordon Teal, otro científico líder de los Bell Labs). La invención del proceso planar en 1959 por Fairchild Semiconductors (en Silicon Valley) abrió la posibilidad de la integración de componentes miniaturizados con la manufactura de precisión.

Sin embargo el paso decisivo en microelectrónica tuvo lugar en 1957: el circuito integrado fue inventado por Jack Kilby, un ingeniero de Texas Instruments (que lo patentó), y Bob Noyce, uno de los fundadores de Fairchild. Pero fue Noyce quien primero fabricó circuitos integrados usando el proceso planar. Desató una explosión tecnológica: en sólo tres años, entre 1959 y 1962, los precios de los semiconductores cayeron un 85%, y en los siguientes diez años la producción se incrementó unas 20 veces, 50% de la cual se destinó a usos militares. Como punto de comparación histórica, tomó 70 años (1780-1850) para que el precio de la tela de algodón cayera 85% en Inglaterra durante la Revolución Industrial. Después, el movimiento se aceleró durante los 60: a medida que la tecnología para la fabricación mejoraba y la ayuda de las computadoras permitía diseñar un chip mejor usando recursos microelectrónicos más poderosos y rápidos, el precio promedio de un circuito integrado cayó de $50 en 1962 a $1 en 1971.

El gigantesco salto adelante en la difusión de la microelectrónica en todas las máquinas fue en 1971 con la invención de un ingeniero de Intel, Ted Hoff (también en Silicon Valley), del microprocesador, eso es la computadora en un chip. De esta forma, el poder de procesamiento de la información podía ser instalado en cualquier parte. La carrera para lograr una mayor integración de la capacidad de los circuitos de un solo chip comenzaba; la tecnología del diseño y la fabricación excedía constantemente los límites de integración que previamente se consideraba físicamente imposible superar sin abandonar el uso de silicio. A mediados de los 90, las evaluaciones técnicas todavía dan entre 10 a 20 años de buena vida a los circuitos con base de silicio, aunque la investigación sobre materiales alternativos ha sido acelerada. El nivel de integración ha progresado de a saltos en las últimas dos décadas. Si bien los detalles técnicos no tienen lugar en este libro, es analíticamente relevante indicar la velocidad y alcance del cambio tecnológico.

Como es sabido, el poder de los chips puede ser evaluado por una combinación de tres características: su capacidad de integración, indicada por la línea de menor grosor en el chip medida en micrones (1 micrón = 1 millonésima parte de una pulgada); su capacidad de memoria, medida en bits: miles (k), y millones (megabits); y la velocidad del microprocesador medida en megahertz. De esta forma, el primer procesador de 1971 tenía líneas de 6.5 micrones aproximadamente; en 1980, llegaba a 4 micrones; en 1987, 1 micrón; en 1995, el chip de la Pentium de Intel tenía 0.35 micrones; y según proyecciones llegará a 0.25 micrones en 1999. Así, mientras que en 1971 se ponían 2.300 transistores en un chip del tamaño de una chinche, en 1993 cabían 35 millones de transistores. La capacidad de memoria, indicada por DRAM (dynamic random access memory; memoria de acceso dinámico al azar) era en 1971 de 1.024 bits; en 1980, 64.000; en 1987, 1.024.000; en 1993, 16.384.000, y proyectada para 1999, 256.000.000. En cuanto a la velocidad, los microprocesadores de 64 bits son 550 veces más rápidos que el primer chip de Intel de 1972; y los MPU están duplicándose cada 18 meses. Las proyecciones para el 2002 pronostican una aceleración de la tecnología microelectrónica en integración (chips de 0.18 micrones), en capacidad DRAM (1024 megabits), y en la velocidad del microprocesador (500+ megahertz comparado a 150 en 1993). Combinado con los dramáticos desarrollos en procesamiento paralelo usando microprocesadores múltiples (incluyendo, en el futuro, vinculaciones de múltiples microprocesadores en un solo chip), parecería que el poder de la microelectrónica todavía está siendo descubierto, mientras continua ampliando la capacidad de las computadoras. Además, la mayor miniaturización, la mayor especialización, y el precio decreciente de los cada vez más poderosos chips ha hecho posible ubicarlos en cada máquina de nuestra vida cotidiana, desde máquinas lavaplatos y hornos micro-ondas hasta automóviles, cuya electrónica, en los modelos standard de los 90, era más valiosa que su acero.

Las computadoras también fueron concebidas de la madre de todas las tecnologías, la Segunda Guerra Mundial, pero sólo nacieron en 1946 en Filadelfia, si exceptuamos las herramientas relacionadas con la guerra del British Colossus de 1943, aplicadas al desciframiento de códigos enemigos, y el Z-3 alemán producido en 1941 para ayudar con los cálculos de aviación. Sin embargo la mayor parte de los esfuerzos de los aliados en electrónica se concentraron en hacer programas de investigación en el MIT, y la actual experimentación del poder de las calculadoras, bajo el auspicio de la Armada norteamericana, tuvo lugar en la Universidad de Pennsylvania, donde Mauchly y Eckert produjeron en 1946 la primera computadora de propósitos generales, la ENIAC (Electronic Numerical Integrator and Calculator; Integradora y Calculadora Numérica Electrónica). Los historiadores recordarán que la primera computadora pesaba 30 toneladas, que estaba construida sobre módulos de metal de nueve pies de alto, que tenía 70.000 resistencias y 18.000 válvulas, y que ocupaba el área de un gimnasio. Cuando era encendida, su consumo de electricidad era tan alto que la iluminación de toda Filadelfia titilaba.

La primera versión comercial de esta máquina primitiva, la UNIVAC-1, producida en 1951 por el mismo equipo, entonces bajo la marca Remington Rand, fue extremadamente exitosa en el procesamiento del censo norteamericano de 1950. IBM, que también estaba sustentada por contratos militares y confiando parcialmente en las investigaciones del MIT, superó sus reservas sobre la era de la computación, e ingresó a la carrera en 1953 con su máquina de 701 válvulas. En 1958, cuando Sperry Rand introdujo una mainframe de segunda generación, IBM inmediatamente la siguió con su modelo 7090. Pero fue recién en 1964 que IBM, con su mainframe 360/ 370, llegó a dominar la industria de la computación, popularizada por nuevas (Control Data, Digital) y viejas (Sperry, Honeywell, Burroughs, NCR) compañías de máquinas para empresas. La mayoría de estas firmas estaban expirando o se habían esfumado para los 90: esto es lo rápido que la "destrucción creativa" schumpeteriana ha procedido en la industria electrónica. En esa era antigua, unos 30 años antes de que esto fuera escrito, la industria se organizaba a sí misma en una pulcramente definida jerarquía de mainframes, minicomputadoras (de hecho, máquinas bastante voluminosas), y terminales, con alguna especialización informática librada al esotérico mundo de las supercomputadoras (una cruza fértil de pronóstico del tiempo y juegos de guerra), en la que la extraordinaria ingenuidad de Seymour Cray, a pesar de su falta de visión tecnológica, reinó por algún tiempo.

La microelectrónica cambió todo esto, introduciendo una "revolución dentro de la revolución". La llegada del microprocesador en 1971, con la capacidad de poner una computadora en un chip, dio vuelta el mundo de la electrónica, de hecho el mundo en sí. En 1975, De Roberts, un ingeniero que había creado una pequeña compañía de calculadoras, MITS, en Alburquerque, Nuevo México, construyó una caja computadora con el improbable nombre de Altair, inspirado en un personaje de la serie de TV Star Trek, que era objeto de devoción de su joven hija. La máquina era un objeto primitivo, pero fue construido como una computadora a pequeña escala alrededor de un microprocesador. Fue la base para el diseño de Apple I, luego Apple II, la primera microcomputadora comercialmente exitosa, construida en el garaje de la casa de los padres de dos jóvenes estudiantes rateados, Steve Wozniak y Steve Jobs, en Menlo Park, Silicon Valley, en una verdaderamente extraordinaria saga que se ha convertido hoy en la leyenda fundadora de la Era de la Información. Lanzada en 1976, con tres socios y $91.000 de capital inicial, Apple Computers había alcanzado los $583 millones en ventas en 1982, conduciendo la era de la difusión de las computadoras. IBM reaccionó rápidamente: en 1981 introdujo su propia versión de la microcomputadora, con un nombre brillante: la Computadora Personal (PC), que se convirtió de hecho en el nombre genérico para las microcomputadoras. Pero como no estaba basada en la propia tecnología de IBM, sino en tecnología desarrollada para IBM de otras fuentes, se hizo vulnerable a la clonación, que pronto se practicó en escala masiva, particularmente en Asia. Aunque este hecho eventualmente condenó la predominancia de IBM en el negocio de las PCs, también desplegó el uso de los clones por todo el mundo, difundiendo un estandar común, a pesar de la superioridad de las máquinas Apple. La Macintosh de Apple, lanzada en 1984, fue el primer paso hacia la computadora amigable, con la introducción del uso de íconos, originalmente desarrollado por el Palo Alto Research Center (PARC) de Xerox.

Una condición fundamental para la difusión de las microcomputadoras fue subsanada con el desarrollo de nuevo software adaptado a su operación. El software para PC también surgió a mediados de los 70 del entusiasmo generado por Altair: dos jóvenes ex estudiantes de Harvard, Bill Gates y Paul Allen, adaptaron el BASIC para operar la Altair en 1976. Al darse cuenta de su potencial, fundaron Microsoft (primero en Albuquerque, dos años después se mudaron a Seattle, ciudad natal de los padres de Bill Gates), que es hoy la empresa gigante de software, que disputó el dominio de software para sistemas operativos para luego lograr el dominio del software en todo el creciente mercado de las microcomputadoras.

En los últimos 15 años, la creciente potencia del chip ha resultado en una dramática ampliación del poder de la microcomputadora, limitando la función de las máquinas grandes. A principios de los 90, las microcomputadoras de un solo chip tenían el poder de procesamiento de IBM de unos 5 años atrás. Los sistemas de red basados en microprocesadores, conformados por máquinas de escritorio más pequeñas (clientes), servidas por una más poderosa (servidor), podían eventualmente reemplazar máquinas especializadas en procesamiento de información, como las mainframes tradicionales y las supercomputadoras. De hecho, a los avances en microelectrónica y software hay que agregar los grandes saltos en las capacidades de las redes. Desde mediados de los 80, las microcomputadoras no pueden ser concebidas aisladamente: trabajan en redes, con movilidad creciente, basadas en computadoras portátiles. Esta extraordinaria versatilidad, y la capacidad de agregar memoria y capacidad de procesamiento al compartir el poder de la computadora con una red electrónica, decisivamente llevaron a dar un salto en la era de la computación de los 90 del almacenamiento y procesamiento centralizado de datos a la computadora compartida y en red. No solo ha cambiado todo el sistema tecnológico, sino también sus interacciones sociales y organizacionales. De esta forma, el costo promedio para procesar información cayó de alrededor de $75 por millón de operaciones en 1960 a menos de una centésima parte de un centavo en 1990.

Esta capacidad de trabajar en red solo fue posible, naturalmente, por los importantísimos desarrollos alcanzados en telecomunicaciones y redes durante los 70. Pero, al mismo tiempo, estos cambios solo fueron posibles por los nuevos inventos en microelectrónica y los avances en la capacidad de la computación, en una impactante muestra de las relaciones sinérgicas que se dan en la Revolución de la Tecnología de la Información.

Las telecomunicaciones también han sido revolucionadas con la combinación de tecnologías "nodales" (llaves switch electrónicas y routers) y nuevos vínculos (tecnologías de transmisión). La primera llave electrónica producida industrialmente, la ESS-1, fue introducida por Bell Labs en 1969. Para mediados de los 70 los progresos en las tecnologías de circuitos integrados hicieron posible la llave digital, incrementando la velocidad, el poder y la flexibilidad, mientras ahorraba espacio, energía y trabajo, vis-à-vis aplicaciones análogas. Aunque ATT, pariente de Bell Labs, era inicialmente reticente a su introducción, ya que necesitaba amortizar la inversión ya realizada en equipo analógico, cuando en 1977 Northen Telecom de Canadá capturó una parte del mercado norteamericano con las llaves digitales, las compañías Bell se unieron a la carrera y dispararon un movimiento similar en el mundo.

Importantes avances en optoelectrónica (fibra óptica y transmisión láser) y en tecnología de transmisión digital de paquetes amplió dramáticamente la capacidad de las líneas de transmisión. La Integrated Bradband Networks (IBN) vio que en los 90 podía sobrepasar sustancialmente las propuestas revolucionarias de los 70 para una Integrated Services Digital Network (ISDN; Red Digital de Servicios Integrados): mientras la capacidad de transferencia de ISDN en cables de cobre estaba estimada en 144.000 bits, en 1990 IBN podría, aunque a un alto costo, transferir un cuatrillón de bits por fibra óptica. Para medir el cambio, recordemos que en 1956 el primer cable transatlántico de teléfono llevaba 50 circuitos comprimidos de voz; en 1995, la fibra óptica podría llevar 85.000 de esos circuitos. La capacidad de transmisión basada en la optoelectrónica, junto con las llaves de avanzada y las arquitecturas de routeo, como la Asynchronous Transmission Mode (ATM; Modo de Transmisión Asincrónica) y el Transmission Control Protocol/ Interconnection Protocol (TCP/ IP; Protocolo de Control de Transmisión/ Protocolo de Interconexión), son la base de la llamada Supercarretera de la Información, cuyas características se discuten en el capítulo 5.

Diferentes formas de usar el espectro radial (transmisión tradicional, transmisión satelital, micro-ondas, telefonía celular digital) así como el cable coaxil y la fibra óptica, ofrecen una diversidad y versatilidad de tecnologías de transmisión que están siendo adaptadas a una gran gama de usos, y hacen posible la comunicación ubicua entre usuarios móviles. Así, la telefonía celular se difundió con fuerza en todo el mundo en los 90, literalmente apuntando a Asia con pagers poco sofisticados y a Latinoamérica con teléfonos celulares como símbolo de status social, confiando en la promesa (de Motorola por ejemplo) de un producto de comunicación personal que proporcionaría una cobertura universal antes del 2000. Cada salto en el campo tecnológico amplía los efectos de las tecnologías de información que están relacionadas. Así, la telefonía móvil, confiando en el poder de la computación para routear los mensajes, provee al mismo tiempo la base para una computación generalizada y para la comunicación electrónica interactiva en tiempo real.



La división tecnológica de los 70

Este sistema tecnológico en el que nos hemos sumergido completamente en los 90 se conformó en los 70. Por lo significativo que son los contextos históricos específicos para las trayectorias tecnológicas, y por la forma particular de interacción entre tecnología y sociedad, es importante recordar algunos datos asociados a descubrimientos fundamentales en las tecnologías de información. Todos ellos tienen algo esencial en común: mientras que estaban basados en el conocimiento previamente existente, y se desarrollaban como prolongación de las tecnologías clave, representaban un salto cualitativo hacia adelante en la difusión masiva de tecnología en aplicaciones comerciales y civiles debido a su accesibilidad y su costo decreciente junto con una calidad creciente. Así, el microprocesador, elemento clave en la difusión de la microelectrónica, fue inventado en 1971 y comenzó a difundirse a mediados de los 70. La microcomputadora fue inventada en 1975 y el primer producto comercialmente exitoso , Apple II, fue introducido en abril de 1977, más o menos en la misma época en que Microsoft comenzó a producir sistemas operativos para microcomputadoras. La Xerox Alto, matriz de muchas tecnologías de software para las PC de los 90, fue desarrollado en los laboratorios PARC en Palo Alto en 1973. La primera llave electrónica industrial apareció en 1969, y las llaves digitales se desarrollaron a mediados de los 70 y tuvieron difusión comercial en 1977. La fibra óptica fue producida industrialmente por primera vez por Corning Glass a principios de los 70. También a mediados de los 70, Sony comenzó a producir comercialmente máquinas de VCR, con base en los descubrimientos realizados en Estados Unidos e Inglaterra en los 60, que jamás habían llegado a la producción masiva. Y por último, fue en 1969 que la Agencia de Proyectos de Investigación del Departamento de Defensa de Estados Unidos (ARPA) estableció una nueva, revolucionaria, red electrónica de comunicación, que crecería durante los 70 para convertirse en la Internet. Fue muy ayudada por la invención de Cerf y Kahn en 1974 del TCP/ IP, el protocolo de interconexión de redes que permitió que varias redes pudieran conectarse. Creo que podemos decir, sin exagerar, que la Revolución de la Tecnología de la Información, como revolución, nació en los 70, particularmente si incluimos en ella la emergencia y difusión paralela de la ingeniería genética que se dio por las mismas fechas y lugares, un desarrollo que merece, al menos, unas pocas lineas de atención.

Tecnologías de la vida

Aunque la biotecnología puede ser rastreada a una tabla de arcilla de Babilonia del 6000 BC, y la revolución en microbiología a los descubrimientos científicos de la estructura básica de la vida, la doble hélice del ADN, por Francis Crick y James Watson en la Cambridge University en 1955, fue solo a comienzos de los 70 que la separación y recombinación genética del ADN, la fundación tecnológica de la ingeniería genética, hizo posible la aplicación del conocimiento acumulado. Stanley Cohen de Stanford y Herbert Boyer en la Universidad de California, San Francisco son generalmente acreditados con el descubrimiento de los procedimientos para la clonación de genes en 1973, aunque su trabajo está basado en la investigación del Premio Nobel Paul Berg, de Stanford. En 1975 los investigadores de Harvard aislaron el primer gen mamario, de la hemoglobina de un conejo; y en 1977 se clonó el primer gen humano.

Lo que siguió a continuación fue una carrera para establecer firmas comerciales, muchas de ellas desprendimientos de las grandes universidades y de los centros de investigación de los hospitales, que emergieron en California del Norte, Nueva Inglaterra y Maryland. Periodistas, inversionistas y activistas sociales fueron igualmente impactados por las posibilidades que se abrían con la potencial habilidad de diseñar vida, incluyendo vida humana. Genentech al Sur de San Francisco, Cetus en Berkeley y Biogen en Cambridge, Massachusetts, estaban entre estas primeras compañías, organizadas en torno a ganadores de premios Nobel, para usar las nuevas tecnologías genéticas para aplicaciones médicas. Le siguió el negocio del agro; y los microorganismos, algunos de ellos genéticamente alterados, tuvieron cada vez más asignaciones, por ejemplo limpiar la polución, muchas veces generada por las mismas compañías y agencias que estaban vendiendo los superorganismos. Sin embargo las dificultades científicas, de los problemas técnicos, y los obstáculos legales motivados por intereses éticos y de seguridad desaceleraron la revolución de la biotecnología durante los 80. Una considerable cantidad de capitales invertidos se perdieron y algunas de las compañías más innovadoras, incluyendo Genentech, fueron absorbidas por las farmacéuticas gigantes (Hoffman-La Roche, Merck) que mejor que nadie, entendieron que no podían reproducir la costosa arrogancia que las firmas de computación establecidas habían desplegado frente a las pequeñas empresas innovadoras: comprarlas, junto con los servicios de sus científicos, era una mejor póliza de seguro para las multinacionales farmacéuticas y químicas, para internalizar los beneficios comerciales de la revolución tecnológica y controlar su paso. Siguió una desaceleración de su paso, por lo menos en cuanto a la difusión de sus aplicaciones.

Sin embargo, a fines de los 80 y en los 90 un gran impulso de la ciencia, y una nueva generación de científicos emprendedores revitalizaron la biotecnología, con un enfoque decisivo sobre la ingeniería genética, la verdadera tecnología revolucionaria en el terreno. La clonación genética ingresó a una nueva etapa cuando, en 1988, Harvard formalmente patentó un ratón genéticamente diseñado, quitándole de esta forma los derechos de autor a Dios y a la Naturaleza. En los siguientes 7 años, otros siete ratones también fueron patentados como nuevas formas de vida creadas, identificadas como propiedad de sus ingenieros. En agosto de 1989 los investigadores de la Universidad de Michigan y Toronto descubrieron el gen responsable de la fibrosis cística, abriendo el camino a la terapia genética.

Con el despertar de las expectativas generadas por este descubrimiento, el gobierno norteamericano decidió en 1990 auspiciar y fundar un programa de colaboración de $3 billones durante 15 años, coordinado por James Watson, uniendo a los equipos de investigación en microbiología más avanzados para mapear el genoma humano, esto es, para identificar y localizar los 60.000 a 80.000 genes que componen el alfabeto de la especie humana. A través de este y otros esfuerzos, un continuo río de genes humanos relacionados con varias enfermedades están siendo identificados, por lo que para mediados de los 90, alrededor del 7% de los genes han sido localizados, con una correcta comprensión de su funcionamiento. Esto por supuesto crea la posibilidad de actuar sobre estos genes, y en aquellos que sean identificados en el futuro, posibilitando que la especie humana pueda no solo controlar las enfermedades, sino también identificar predisposiciones biológicas e intervenir en ellas, potencialmente alterando el destino genético. Lyon y Gorner concluyen su investigación sobre la ingeniería genética humana, con una predicción y una advertencia:

En unas pocas generaciones podremos acabar con ciertas enfermedades mentales, quizás, o la diabetes, o la presión alta, o casi con cualquier aflicción que seleccionemos. Lo que no debemos olvidar es que la calidad de la toma de decisión dictamina si las elecciones que hagamos serán sabias y justas...La poco gloriosa forma en que la elite científica y administrativa está manejando los primeros frutos de la terapia genética es ominosa...Los humanos hemos evolucionado intelectualmente para puntualizar que, relativamente pronto, podremos comprender la composición, función, y dinámica del genoma mucho mas allá de su intimidante complejidad. En términos emocionales, sin embargo, somos todavía simios, con toda la carga de comportamiento que implica. Quizás la forma esencial de terapia genética sea para que nuestra especie pueda elevarse por sobre su herencia básica y aprenda a aplicar este nuevo conocimiento sabia y benignamente.



Aun así, mientras los científicos, reguladores y éticos debaten las implicancias humanísticas de la ingeniería genética, los investigadores que se han convertido en empresarios toman el atajo, estableciendo mecanismos para tener control legal y financiero sobre el genoma humano. El intento más osado en este sentido fue de un proyecto iniciado en 1990 en Rockville, Maryland, por dos científicos, J. Craig Venter, luego con el Instituto Nacional de Salud, y William Haseltine, luego en Harvard. Usando el poder de supercomputadoras, secuenciaron en solo 5 años partes de casi el 85% de todos los genes humanos, creando una gigantesca base de datos genética. El problema es que no sabemos, ni sabremos por un largo tiempo, cuál pieza de gen es qué y dónde está localizada: su base de datos comprende cientos de miles de fragmentos genéticos con funciones desconocidas. ¿Cuál es entonces el interés? Por un lado, la investigación focalizada sobre genes específico puede (y de hecho así es) utilizar para sí la información contenida en esas secuencias. Pero, lo que es más importante y la principal razón para todo el proyecto, Craig y Haseltine han estado ocupados patentando su base de datos, entonces, literalmente, algún día podrían ser los dueños de los derechos legales de una gran parte del conocimiento para manipular el genoma humano. La amenaza que se cierno por este desarrollo es tan seria que, mientras por un lado han atraído decenas de millones de dólares de inversionistas, por otro lado, una de las más grandes empresas farmacéuticas, Merck, dio en 1994 un financiamiento sustantivo a la Universidad de Washington para proceder con el mismo secuenciamiento ciego y para hacer pública la información, para que no haya control privado de trozos y partes de conocimiento que podrían bloquear el desarrollo de productos basados en una comprensión sistemática futura del genoma humano.

La lección para el sociólogo de estas batallas de negocios no es sólo otra instancia de la avaricia humana. Señala un tiempo que se acelera con la expansión y profundización de la revolución genética. Debido a su especificidad, tanto científica como social, la difusión de la ingeniería genética fue más lenta entre los 70 y los 90 que en el caso de la revolución en electrónica. Pero en los 90, la revolución de la biotecnología se ha visto acelerada en todo el mundo por la existencia de mercados más abiertos, y por las mayores posibilidades educativas y de investigación. Todos los indicadores apuntan hacia la explosión de sus aplicaciones con el cambio de milenio, disparando de esta forma un debate mucho más fundamental a la hoy borrosa frontera entre naturaleza y sociedad.



Contexto social y la dinámica del cambio tecnológico

Por qué los descubrimientos de las nuevas tecnologías de la información ocurrieron en los 70, y casi todos en Estados Unidos? Y cuáles son las consecuencias de esto en su desarrollo futuro y en su interacción con las sociedades? Sería tentador relacionar directamente la formación de este paradigma tecnológico con las características de su contexto social; particularmente si recordamos que a mediados de los 70 Estados Unidos y el mundo capitalista estaban siendo sacudidos por una gran crisis económica, lanzada (pero no causada) por el shock del petróleo en 1973-4: una crisis que precipitó la dramática reestructuración del sistema capitalista a escala global, actualmente induciendo un nuevo modelo de acumulación en discontinuidad histórica con el capitalismo de posguerra, como propuse en el prólogo de este libro. ¿Fue el nuevo paradigma tecnológico una respuesta del sistema capitalista para recuperarse de sus contradicciones internas? ¿O fue un modo de asegurarse la superioridad militar sobre el enemigo Soviético, en respuesta a su desafío tecnológico en la carrera espacial y de armamentos nucleares? Ninguna explicación parece ser convincente. Mientras que hay una coincidencia histórica entre la aparición de las nuevas tecnologías y la crisis económica de los 70, su sincronización fue demasiado cercana, el "arreglo tecnológico" habría sido demasiado rápido, y demasiado mecánico cuando sabemos de las lecciones de la Revolución Industrial y de otros procesos históricos de cambio tecnológico que las sendas económica, industrial y tecnológica, que están relacionados, se mueven con lentitud y calzan imperfectamente en esta interacción. Y con respecto al argumento militar, el shock del Sputnik de 1957-60 fue respondido mediante una construcción tecnológica masiva en los 60, no en los 70; y el nuevo empuje de la tecnología militar norteamericana fue impulsado en 1983 en torno al programa "Star Wars", de hecho usando las tecnologías desarrolladas en la prodigiosa década precedente. De hecho, parece que la emergencia de un nuevo sistema tecnológico en los 70 debe rastrearse a la dinámica autónoma del descubrimiento y difusión tecnológica, incluyendo los efectos sinérgicos entre varias tecnologías clave. Así, el microprocesador hizo posible la microcomputadora; los avances en telecomunicaciones, como mencionáramos arriba, permitieron que las microcomputadoras funcionaran en redes, incrementando así su poder y flexibilidad. Las aplicaciones de estas tecnologías a la electrónica y a la fabricación aumentaron el potencial para nuevos diseños y tecnologías de fabricación en la producción de semiconductores. El nuevo software fue estimulado por el mercado de las microcomputadoras y su rápido crecimiento que, a su vez, explotó sobre la base de nuevas aplicaciones y tecnologías amigables que brotaban de las mentes de los escritores de software. Y así sucesivamente.

El fuerte impulso militar de los 60 a la tecnología preparó a la tecnología norteamericana para dar el salto adelante. Pero el invento del microprocesador de Ted Hoff mientras intentaba completar una orden para una compañía japonesa de calculadoras manuales en 1971 provino del conocimiento y la ingenuidad acumulados en Intel, una estrecha interacción con el milieu de innovación creado desde 1950 en Silicon Valley. En otras palabras, la primera Revolución de la Tecnología de la Información se produjo en Estado Unidos, básicamente en California, en los 70, construyéndose sobre los descubrimientos de las dos décadas precedentes, y bajo la influencia de varios factores institucionales, económicos y culturales. Pero no salieron de una necesidad preestablecida: estaba tecnológicamente inducido más que socialmente determinado. Sin embrago, una vez que existió como sistema, en la base de la emergencia que he descripto, su desarrollo y aplicaciones, y en esencia su contenido, fueron decisivamente configurados por el contexto histórico en el que se expandieron. De hecho, el capitalismo de los 80 (específicamente: las grandes corporaciones y gobiernos de los países del club de los 7) encararon un proceso de reestructuración económica y organizacional, en el que la nueva tecnología de información jugaba un rol fundamental y era moldeado decisivamente por el rol que jugaba. Por ejemplo, el movimiento organizado por los negocios hacia la desregulación y liberalización en los 80 fue decisivo en la reorganización y crecimiento de las telecomunicaciones, más notorio luego del despojo de ATT en 1984. En contraposición, la habilidad de las nuevas redes de telecomunicaciones y de los sistemas de información prepararon el terreno para la integración global de los mercados financieros y la articulación segmentada de la producción y el comercio a través del mundo, como examinaré en el próximo capítulo.

Así, la disponibilidad de las nuevas tecnologías constituía un sistema en los 70 y era base fundamental para el proceso socio-económico que se estaba reestructurando en los 80. Y los usos de esas tecnologías en los 80 condicionaron mucho los usos y las trayectorias en los 90. El surgimiento de la sociedad "enredada", que trataré de analizar en los siguientes capítulos de este volumen, no pueden ser entendidos sin la interacción entre estas dos tendencias relativamente autónomas: el desarrollo de nuevas tecnologías de información y el intento de la vieja sociedad de reinstrumentarse a sí misma utilizando el poder de la tecnología para servir a la tecnología del poder. Sin embargo, la salida histórica de esta estrategia parcialmente consciente no está determinada, desde que la interacción entre tecnología y sociedad depende de las relaciones estocásticas entre un número excesivo de variables cuasi independientes. Sin tener que rendirnos necesariamente al relativismo histórico, puede decirse que la Revolución de la Tecnología de la Información fue cultural, histórica y espacialmente contingente en un conjunto de circunstancias muy específico cuyas características marcaron su evolución futura.

Castells, Manuel: La era de la información -Cap.1

La revolución de la tecnología de la información

Manuel Castells


¿Cuál revolución?

"El gradualismo", escribió el paleontólogo Stephen J. Gould, "la idea de que todo cambio debe ser suave, lento y estable, no brotó de las rocas. Representaba un sesgo cultural común, en parte una respuesta del liberalismo del siglo diecinueve para un mundo en revolución. Pero continúa coloreando nuestra supuestamente objetiva lectura de la historia… …La historia de la vida, como yo la leo, es una serie de estadios estables, matizado por raros intervalos con grandes eventos que suceden con mucha rapidez y ayudan a establecer la siguiente era estable." Mi punto de partida, y no soy el único que tiene este supuesto,es que, al final del siglo veinte, estamos atravesando uno de esos raros intervalos en la historia. Un intervalo caracterizado por la transformación de nuestra "cultura material" por obra de un nuevo paradigma tecnológico organizado en torno a las tecnologías de la información.

Por tecnología entiendo exactamente lo que Harvey Brooks y Daniel Bell, "el uso de un conocimiento científico para especificar modos de hacer cosas de un modo reproducible" Entre las tecnologías de la información yo incluyo, como todos, el conjunto convergente de tecnologías en microelectrónica, computación (máquinas y software), telecomunicaciones/transmisiones, y la optoelectrónica. En suma, contrariamente a otros analistas, también incluyo en el reino de las tecnologías de la información a la ingeniería genética y su creciente conjunto de descubrimientos y aplicaciones. Esto es, primero, porque la ingeniería genética se ha concentrado en la decodificación, manipulación, y eventual reprogramación de los códigos de información de la materia viviente. Pero también porque, en los 90s, la biología, la electrónica, y la informática parecían estar convergiendo e interactuando en sus aplicaciones y en sus materiales, y , fundamentalmente, en su aproximación conceptual, un tema que merece más que una mención en este capítulo. Alrededor de este núcleo de tecnologías de la información, en el sentido amplio que fue definido, una constelación de importantes rupturas tecnológicas han tenido lugar en las dos últimas décadas del siglo veinte en materiales avanzados, en fuentes de energía, en aplicaciones médicas, en técnicas de manufactura (existentes o potenciales, como la nanotecnología), y en la tecnología de la transportación, entre otras. Por otra parte, el actual proceso de transformación tecnológica se expande exponencialmente por su habilidad para crear una interfaz entre los campos tecnológicos a través de un lenguaje digital común en el que la información es generada, almacenada, recuperada, procesada y retransmitida. Vivimos en un mundo que, siguiendo la expresión de Nicolás Negroponte, se ha vuelto digital.

La profética optimista y la manipulación ideológica que caracteriza la mayor parte de los discursos sobre la revolución de la tecnología de la información no debe llevarnos equivocadamente a desestimar su verdadera significación. Es un evento histórico tan importante, como este libro tratará de mostrar, como lo fue la Revolución Industrial en el siglo dieciocho, induciendo un patrón de discontinuidad en la base material de la economía, la sociedad, y la cultura. El registro histórico de las revoluciones tecnológicas, tal como fuera compilado por Melvin Kranzberg y Carroll Pursell, muestra que todos se caracterizan por su penetración en todos los dominios de la actividad humana, no como una fuente exógena de impacto, sino como el género con el que esta actividad está tejida. En otras palabras, están orientadas según procesos, además de inducir nuevos productos. Por otra parte, y a diferencia de cualquier revolución, el núcleo de la transformación que estamos experimentando en la revolución actual refiere a las tecnologías del procesamiento y comunicación de la información. La tecnología de la información es para esta revolución lo que las nuevas fuentes de energía fueron para las sucesivas Revoluciones Industriales, desde la máquina al vapor a la electricidad, combustibles fósiles, e incluso la energía nuclear, desde que la generación y distribución de la energía fue el elemento clave subyacente a la sociedad industrial. Sin embargo, este planteo acerca del rol preeminente de la tecnología de la información es frecuentemente confundido con la caracterización de la revolución en curso como esencialmente dependiente de nuevos conocimientos e información. Esto es cierto en el actual proceso de cambio tecnológico, pero también lo es para las revoluciones tecnológicas precedentes, como es demostrado por los principales historiadores de la tecnología, como Melvin Kranzberg y Joel Mokyr. La primer Revolución Industrial, si bien no tuvo bases científicas, se apoyó en el uso extendido de la información, aplicando y desarrollando conocimientos preexistentes. Y la segunda Revolución Industrial, después de 1850, estuvo caracterizada por el rol decisivo de la ciencia en incentivar la innovación. Por cierto, los laboratorios de investigación y desarrollo surgieron por primera vez en la industria química alemana en las últimas décadas del siglo diecinueve.

Lo que caracteriza la revolución tecnológica actual no es la centralidad del conocimiento y la información, sino la aplicación de ese conocimiento e información a la generación de conocimiento y los dispositivos de procesamiento/ comunicación de la información, en un circuito de retroalimentación acumulativa que se da entre la innovación y los usos de la innovación. Un ejemplo quizá pueda esclarecer este análisis. Los usos de nuevas tecnologías de telecomunicación en las dos últimas décadas han atravesado tres etapas diferentes: la automatización de tareas, la experimentación de usos, la reconfiguración de las aplicaciones. En las dos primeras etapas, la innovación tecnológica progresó en función del aprendizaje por uso, según la terminología de Rosemberg. En la tercer etapa, los usuarios aprendieron la tecnología haciendo, y terminaron reconfigurando las redes, y encontrando nuevas aplicaciones. El proceso de retroalimentación generado entre la introducción de nueva tecnología, su uso y su desarrollo hacia nuevos territorios se produce mucho más rápidamente bajo el nuevo paradigma tecnológico. Como resultado, la difusión de la tecnología amplía sin límites el poder de la tecnología, al ser apropiada y redefinida por sus usuarios. Las nuevas tecnologías de la información no son simples herramientas para ser aplicadas, sino que son procesos para ser desarrollados. Usuarios y hacedores pueden llegar a ser la misma cosa. Por tanto los usuarios pueden tomar el control de la tecnología, como en el caso de Internet (ver capítulo 5). Luego sigue una estrecha relación entre los procesos sociales de creación y manipulación de símbolos (la cultura de la sociedad) y la capacidad para producir y distribuir bienes y servicios (las fuerzas productivas). Por primera vez en la historia, la mente humana es una fuerza productiva directa, no solo un elemento decisivo del sistema de producción.

Por lo tanto, las computadoras, los sistemas de comunicación, y la decodificación y programación genética son todos amplificadores y extensiones de la mente humana. Lo que pensamos, y cómo lo pensamos, es expresado en bienes, servicios, output material e intelectual, ya sea comida, refugio, sistema de transporte y de comunicación, computadoras, misiles, salud, educación o imágenes. La creciente integración entre mentes y máquinas, incluyendo la máquina ADN, está cancelando lo que Bruce Mazlish llama la "cuarta discontinuidad" (entre humanos y máquinas), alterando fundamentalmente el modo en que nacemos, vivimos, aprendemos, trabajamos, producimos, consumimos, soñamos, peleamos, o morimos. Por supuesto los contextos culturales/institucionales y la acción social intencionada interactúan decisivamente con el nuevo sistema tecnológico, pero este sistema tiene su propia lógica enclavada, caracterizada por la capacidad de trasladar todos los inputs en un sistema común de información, y de procesar esa información a una velocidad creciente, con poder creciente, a costo decreciente, en una red de recuperación y distribución potencialmente ubicua.

Hay un elemento más caracterizando la revolución de la tecnología de la información en comparación con sus predecesoras históricas. Mokyr ha mostrado que las revoluciones tecnológicas tuvieron lugar solo en unas pocas sociedades, y se difundieron en un área geográfica relativamente limitada, frecuentemente aislando espacial y temporalmente otras regiones del planeta. Así, mientras los europeos tomaban prestado algunos de los descubrimientos ocurridos en China, por muchos siglos China y Japón adoptaron tecnología europea sólo con fundamentos muy limitados, principalmente restringidos a aplicaciones militares. El contacto entre civilizaciones con distintos niveles tecnológicos a menudo termina con la destrucción del menos desarrollado, o de aquellos que aplicaron su conocimiento predominantemente en tecnología no militar, como es el caso de las civilizaciones americanas aniquiladas por los conquistadores españoles, a veces a través de una guerra biológica accidental. La Revolución Industrial se extendió por casi todo el mundo desde sus originarias costas del occidente europeo durante los siguientes dos siglos. Pero su expansión fue altamente selectiva, y su paso lento para los estándares usuales de difusión de tecnología. En verdad, incluso en Inglaterra para mediados del siglo diecinueve, los sectores que habían dado cuenta de la mayoría de la fuerza de trabajo, y al menos la mitad del producto bruto nacional, no estaban afectados por las nuevas tecnologías industriales. Además, su alcance planetario en las décadas siguientes adoptó la forma de dominación colonial, ya fuera en India bajo el imperio británico; en Latinoamérica bajo la dependencia industrial/comercial en Inglaterra y los Estados Unidos; en el desmembramiento de África con el Tratado de Berlín; o con la apertura al comercio extranjero de Japón y China por las armas de los barcos de occidente. En contraste, las nuevas tecnologías de información se han expandido por todo el mundo a la velocidad del relámpago en menos de dos décadas, entre mediados de los 70 y mediados de los 90, desplegando una lógica que yo propongo como característica de esta revolución tecnológica: la aplicación inmediata para su propio desarrollo de las tecnologías que genera, conectando al mundo a través de tecnología de la información. Seguramente hay grandes áreas en el mundo, y considerables segmentos de la población desenchufados del nuevo sistema tecnológico: este es precisamente uno de los argumentos centrales de este libro. Además, la velocidad de la difusión de la tecnología es selectiva, tanto social como funcionalmente. Los tiempos diferenciales para el acceso al poder de la tecnología por parte de las personas, los países y las regiones son una fuente crítica de desigualdad en nuestra sociedad. Las áreas que están desconectadas son cultural y espacialmente discontinuas: están en las ciudades del interior de Estados Unidos o en los banlieues franceses, tanto como en los pueblos de chozas de África o en las paupérrimas áreas rurales de China o India. Sin embargo, las funciones dominantes, los grupos sociales y los territorios a lo largo del mundo están conectados desde mediados de los 90 a un nuevo sistema tecnológico, que como tal, comenzó a tomar forma sólo en los 70.

¿Cómo es que esta transformación fundamental sucedió en lo que sería un instante histórico? Por qué la difusión a través del mundo va a un paso tan acelerado? Por qué es una "revolución"? Desde que nuestra experiencia de lo nuevo está moldeada por nuestro pasado reciente, pienso que las respuestas a estas preguntas básicas podría ser más sencilla con una breve reseña histórica de la Revolución Industrial, todavía presente en nuestras instituciones, y por lo tanto en nuestra mente.



Lecciones de la Revolución Industrial

Los historiadores han mostrado que hubo por lo menos dos Revoluciones Industriales: la primera comenzó en el último tercio del siglo dieciocho, caracterizada por nuevas tecnologías como la máquina a vapor, la máquina de hilar, el proceso Cort en metalúrgica, y más ampliamente, el reemplazo de las herramientas manuales por máquinas; la segunda, unos 100 años después, se caracterizó por el desarrollo de la electricidad, el motor de combustión interna, los químicos producidos por la ciencia, la efectiva fundición de acero, y el comienzo de las tecnologías de la comunicación, con la difusión del telégrafo y la invención del teléfono. Entre las dos hubo continuidades fundamentales, así como algunas diferencias críticas, siendo la principal de ellas la importancia decisiva del conocimiento científico para sostener y guiar el desarrollo tecnológico después de 1850.

Es precisamente por sus diferencias que los aspectos que tienen ambas en común pueden ofrecer importantes reflexiones en la comprensión de la lógica de las revoluciones tecnológicas.

En primer lugar, en ambos casos, somos testigos de lo que Mokyr describe como un periodo de "cambio tecnológico acelerado y sin precedentes". Un conjunto de macro invenciones preparó el terreno para el florecimiento de las micro invenciones en los reinos de la agricultura, la industria y las comunicaciones. La discontinuidad histórica fundamental, de carácter irreversible, fue introducida en el fundamento material de la especie humana, en un proceso dependiente cuya lógica interna y secuencial ha sido investigada por Paul David y teorizada por Brian Arthur. Fueron de hecho "revoluciones", en el sentido de que el súbito, inesperado surgimiento de una aplicación tecnológica transformaba el proceso de producción y distribución, creaba un torrente de nuevos productos, y elevaba decisivamente la ubicación de la riqueza y el poder en un planeta que de pronto se ponía bajo el alcance de aquellos países y elites capaces de dominar el nuevo sistema tecnológico. El lado oscuro de esta aventura tecnológica es que está intrincadamente atada a las ambiciones imperialistas y a los conflictos anti imperialistas.

Esta es precisamente una confirmación del carácter revolucionario de las nuevas tecnologías industriales. El ascenso histórico del así llamado Occidente, de hecho limitado a Inglaterra y a un puñado de naciones de Europa Occidental así como a sus vertientes norteamericana y australiana, está fundamentalmente vinculado con la superioridad tecnológica acumulada en las dos Revoluciones Industriales. Nada en la historia cultural, científica, política o militar del mundo previas a la Revolución Industrial podrían explicar la indisputable supremacía "Occidental"(Anglosajona/Germana, con un toque francés) entre 1750 y 1940. China era por mucho una cultura superior por gran parte de su historia pre Renacentista; la civilización Musulmana (tomando la libertad para usar esta expresión) dominaba gran parte del Mediterráneo y ejerció una influencia significativa en África a lo largo de la modernidad; Asia y África permanecieron y se organizaron en torno a centros políticos y culturales autónomos; Rusia reinaba en un espléndido aislamiento una vasta expansión a través de Europa oriental y Asia; y el imperio español, la cultura europea más rezagada de la Revolución Industrial, fue la mayor potencia mundial por más de dos siglos después de 1492. La tecnología, expresando condiciones sociales específicas, introdujo un nuevo camino histórico en la segunda mitad del siglo dieciocho.

Este camino se originó en Inglaterra, aunque sus raíces intelectuales se remontan por toda Europa y al espíritu renacentista del descubrimiento. De hecho, algunos historiadores insisten en que el conocimiento científico necesario subyacente a la primer Revolución Industrial estaba disponible 100 años antes, listo para ser usado bajo condiciones sociales maduras; o como otros argumentan, esperando la ingenuidad tecnológica de inventores auto entrenados, como Newcomen, Watts, Crompton o Arkwright, capaces de transferir el conocimiento disponible, combinado con la experiencia de quien se da maña, a las decididamente nuevas tecnologías industriales. Sin embargo, la segunda Revolución Industrial, más dependiente del nuevo conocimiento científico, elevó su centro de gravedad hacia Alemania y los Estados Unidos, donde tuvieron lugar los principales desarrollos en química, electricidad y telefonía. Los historiadores han disectado penosamente las condiciones sociales de la ascendente geografía de la innovación tecnológica, frecuentemente centrándose en las características de la educación y los sistemas científicos, o en la institucionalización de los derechos de propiedad. Sin embargo, la explicación contextual de la despareja trayectoria de la innovación tecnológica parece ser excesivamente amplia y abierta a interpretaciones alternativas. Hall y Preston, en su análisis de los cambios geográficos de la innovación tecnológica entre 1846 y 2003, muestra la importancia de los semilleros locales de innovación, de los que Berlín, Nueva York y Boston son coronados como los "centros de alta tecnología industrial del mundo" entre 1880 y 1914, mientras "Londres en ese periodo era una pálida sombra de Berlín". La razón radica en la base territorial de la interacción de los sistemas de descubrimiento tecnológico y las aplicaciones, a saber, en las propiedades sinérgicas de lo que se conoce en la literatura como "milieux de innovación."

Ciertamente, las innovaciones tecnológicas se dieron en grupos, interactuando entre sí en un proceso de retornos incrementados. Cualquiera fuera la condición que determinara tal agrupación, la lección clave a ser retenida es que la innovación tecnológica no es una instancia aislada. Refleja un estado dado del conocimiento, un ambiente institucional e industrial particular, una cierta disponibilidad de habilidades para definir el problema técnico y para resolverlo, una mentalidad económica para hacer que esa aplicación sea eficiente en términos de costos, y una red de productores y usuarios que puedan comunicar sus experiencias acumuladas, aprendiendo por el uso y por el hacer: las elites aprenden haciendo, o sea modificando las aplicaciones de la tecnología, mientras que la mayor parte de la gente aprende usando, o sea manteniéndose dentro de los constreñimientos del packaging de la tecnología. La interacción de los sistemas de innovación tecnológica y su dependencia a ciertas "milieux" de intercambio de ideas, problemas y soluciones son elementos críticos que pueden ser generalizados de la experiencia de revoluciones pasadas a la actual.

Los efectos positivos de las nuevas tecnologías industriales sobre el crecimiento económico, el nivel de vida y el dominio del hombre sobre la Naturaleza hostil (reflejado en la dramática prolongación de la expectativa de vida, que no había mejorado antes del siglo dieciocho) a largo plazo son indisputables en el registro histórico. Sin embargo, no llegaron temprano, a pesar de la difusión de la máquina a vapor y la nueva maquinaria. Mokyr nos recuerda que "el consumo per capita y los estándares de vida mejoraron poco al principio {al fin del siglo dieciocho} pero las tecnologías de producción cambiaron dramáticamente en muchas industrias y sectores, preparando el paso al crecimiento sostenido schumpeteriano en la segunda mitad del siglo diecinueve cuando el progreso tecnológico se expandió a industrias que previamente no habían estado afectadas. Esta es una imposición crítica que nos obliga a evaluar los efectos actuales a la mayor parte de los cambios tecnológicos a la luz de un retraso temporal altamente dependiente de las condiciones específicas de cada sociedad. A pesar de todo, el registro histórico parece indicar que, en términos generales, cuanto más estrecha sea la relación entre los lugares de la innovación, producción y uso de las nuevas tecnologías, cuanto más rápido se da la transformación de las sociedades, y cuanto más positivo sea el feedback de las condiciones sociales sobre las condiciones generales mas innovaciones pueden ocurrir. Así, en España, la Revolución Industrial se difundió rápidamente en Cataluña, en el siglo dieciocho, pero tuvo un ritmo mucho menor en el resto de España, particularmente en Madrid que en el sur; solo el País Vasco y Asturias se habían unido al proceso de industrialización para finales del siglo diecinueve. Las fronteras de la innovación industrial eran en gran medida linderas a áreas en las que estuvo prohibido el comercio con las colonias americanas españolas por casi dos siglos: mientras que las elites andaluza y castellana, así como la Corona, podían vivir de sus rentas americanas, los catalanes tenían que proveerse a sí mismos a través del comercio y la ingenuidad, mientras eran sometidos a la presión de un estado centralizado. En parte como resultado de esta trayectoria histórica, Cataluña y el País Vasco fueron las únicas regiones completamente industrializadas hasta los 50 y los semilleros principales del emprendimiento y la innovación, en agudo contraste con las tendencias en el resto de España. Así, las condiciones sociales específicas guían la innovación tecnológica que se dirige a sí misma hacia el camino del desarrollo económico y la innovación. Aun así, la reproducción de esas condiciones es cultural e institucional, tanto como económica y tecnológica. La transformación del ambiente social e institucional puede alterar el paso y la geografía del desarrollo tecnológico (por ejemplo, Japón luego de la Restauración Meiji, o Rusia después de un breve período bajo Stolypin), aunque la historia pasada tolera una inercia considerable.

Una última y esencial lección de las Revoluciones Industriales, que considero relevante para este análisis, es controvertida: aunque ambos trajeron todo un orden de nuevas tecnologías que de hecho formó y transformó el sistema industrial en etapas sucesivas, en su núcleo hubo una innovación fundamental en la generación y distribución de la energía. R. J. Forbes, un historiador clásico de la tecnología, afirma que "la invención de la máquina a vapor es el factor central en la revolución industrial", seguido de la introducción de nuevos móviles principales y por el principal móvil removible, bajo el que "el poder de la máquina de vapor podía ser creada donde fuera necesario y con la extensión deseada." Y aunque Mokyr insiste en el carácter multifacético de la Revolución Industrial, también cree que "las protestas de algunos historiadores económicos no tiene lugar, la máquina a vapor es todavía ampliamente vista como la quintaesencia de la invención de la Revolución Industrial". La electricidad era la fuerza central en la segunda revolución, a pesar de otros extraordinarios descubrimientos en química, acero, la máquina de combustión interna, telegrafía y telefonía. Esto es porque sólo a través de la generación y distribución eléctrica todos los otros campos podían desarrollar sus aplicaciones y conectarse entre sí. Un caso puntual es el del telégrafo eléctrico, que primero fue usado experimentalmente en los 1790 y difundido desde 1837, pudiendo convertirse en una red de comunicación conectando al mundo en gran escala, solo cuando pudo confiar en la difusión de la electricidad. El uso difundido de la electricidad desde los 1870 en adelante cambió el transporte, la telegrafía, la iluminación y el trabajo en las fábricas al difundirse el poder en la forma de la máquina eléctrica. De hecho, mientras las fábricas habían sido asociadas con la primer Revolución Industrial, por casi un siglo no fueron concomitantes con el uso de la máquina de vapor que fue ampliamente utilizada en los talleres, mientras que las grandes fábricas seguían usando las mejoradas fuentes hidráulicas. Fue la máquina eléctrica que hizo posible e indujo la organización a gran escala del trabajo en la fábrica industrial. Como R. J. Forbes escribió (en 1958):

Durante los últimos 250 años los nuevos móviles principales han producido lo que frecuentemente se denomina la Era de la Máquina. El siglo dieciocho trajo la máquina a vapor; el siglo diecinueve la turbina de agua, la máquina de combustión interna y la turbina al vapor; y el siglo veinte la turbina a gas. Los historiadores han inventado frases llamativas para denotar movimientos o corrientes en la historia. Como "la Revolución Industrial", el título para un desarrollo frecuentemente descripto como un comienzo al principio del siglo dieciocho y que se extiende por casi todo el siglo diecinueve. Fue un movimiento lento, pero trajo cambios tan profundos en su combinación de progreso material y disloque social que colectivamente puede bien ser descripto como revolucionario si consideramos esas fechas extremas.

De esta forma, al actuar en el proceso en el corazón de todos los procesos -esto es, el poder necesario para producir, distribuir y comunicar- las dos Revoluciones Industriales se difundieron a través de todo el sistema económico y permearon la materia social. Fuentes de energía económicas, accesibles, y móviles se extendieron y aumentaron el poder del cuerpo humano, creando la base material para la continuación histórica de un movimiento similar hacia la expansión de la mente humana.



La secuencia histórica de la Revolución de la Tecnología de la Información

La breve, aunque intensa historia de la Revolución de la Tecnología de la Información ha sido contada tantas veces en años recientes que se hace innecesario proveer al lector con otra reseña detallada. Además, dada la rapidez de su paso, cualquier relato de este tipo sería instantáneamente obsoleto, tanto que entre la escritura de este libro y su lectura (digamos, 18 meses), los microchips habrán duplicado su rendimiento por un precio dado, de acuerdo con la bien conocida "ley de Moore". Sin embargo, encuentro analíticamente útil recordar los ejes principales de la transformación tecnológica en la generación/ procesamiento/ transmisión de información, y situarlos en la secuencia que fue llevando hacia la formación de un nuevo paradigma socio-técnico. Este breve resumen me permitió, mas adelante, saltar las referencias sobre rasgos tecnológicos cuando discutía su interacción específica con la economía, la cultura y la sociedad a través del itinerario intelectual de este libro, excepto cuando se requieren nuevos elementos de información.



Macro cambios en micro-ingeniería: electrónica e información

Aunque los predecesores científicos e industriales de las tecnologías de información basadas en la electrónica pueden encontrarse décadas antes de los 40(por ejemplo la invención del teléfono por Bell en 1876, la radio por Marconi en 1898, y la válvula de De Forest en 1906), fue durante la Segunda Guerra Mundial, y en los años posteriores, que tuvieron lugar las mayores innovaciones en tecnología electrónica: la primera computadora programable, y el transistor, fuente de la microelectrónica, el verdadero corazón de la Revolución de la Tecnología de la Información en el siglo veinte. Aun así sostengo que las nuevas tecnologías de información solo se difundieron ampliamente en los 70, acelerando su desarrollo sinérgico y convergiendo en un nuevo paradigma. Volvamos a trazar las etapas de innovación en tres campos tecnológicos principales que, aunque estrechamente interrelacionados, constituyeron la historia de las tecnologías basadas en la electrónica: la microelectrónica, las computadoras, y las telecomunicaciones.

El transistor, inventado en 1947 en los Laboratorios Bell en Murray Hill, Nueva Jersey, por tres físicos, Bardeen, Brattain y Shockley (que recibieron el Premio Nobel por este descubrimiento), hicieron posible el procesamiento de impulsos eléctricos a alta velocidad en el modo binario de interrupción y amplificación, permitiendo de esta forma la codificación de la lógica y de la comunicación con y entre máquinas: llamamos a estos dispositivos de procesamiento semiconductores, y la gente comúnmente los llama chips (actualmente conformados por millones de transistores). El primer paso en la difusión del transistor fue a través del invento de Shockley del junction transistor en 1951. De todas formas su fabricación y difusión requirieron de nuevas tecnologías y el uso de material apropiado. El salto a la silicona, literalmente construyendo una nueva revolución sobre la arena, fue logrado primero por Texas Instruments (en Dallas) en 1954 (una movida facilitada por la contratación en 1953 de Gordon Teal, otro científico líder de los Bell Labs). La invención del proceso planar en 1959 por Fairchild Semiconductors (en Silicon Valley) abrió la posibilidad de la integración de componentes miniaturizados con la manufactura de precisión.

Sin embargo el paso decisivo en microelectrónica tuvo lugar en 1957: el circuito integrado fue inventado por Jack Kilby, un ingeniero de Texas Instruments (que lo patentó), y Bob Noyce, uno de los fundadores de Fairchild. Pero fue Noyce quien primero fabricó circuitos integrados usando el proceso planar. Desató una explosión tecnológica: en sólo tres años, entre 1959 y 1962, los precios de los semiconductores cayeron un 85%, y en los siguientes diez años la producción se incrementó unas 20 veces, 50% de la cual se destinó a usos militares. Como punto de comparación histórica, tomó 70 años (1780-1850) para que el precio de la tela de algodón cayera 85% en Inglaterra durante la Revolución Industrial. Después, el movimiento se aceleró durante los 60: a medida que la tecnología para la fabricación mejoraba y la ayuda de las computadoras permitía diseñar un chip mejor usando recursos microelectrónicos más poderosos y rápidos, el precio promedio de un circuito integrado cayó de $50 en 1962 a $1 en 1971.

El gigantesco salto adelante en la difusión de la microelectrónica en todas las máquinas fue en 1971 con la invención de un ingeniero de Intel, Ted Hoff (también en Silicon Valley), del microprocesador, eso es la computadora en un chip. De esta forma, el poder de procesamiento de la información podía ser instalado en cualquier parte. La carrera para lograr una mayor integración de la capacidad de los circuitos de un solo chip comenzaba; la tecnología del diseño y la fabricación excedía constantemente los límites de integración que previamente se consideraba físicamente imposible superar sin abandonar el uso de silicio. A mediados de los 90, las evaluaciones técnicas todavía dan entre 10 a 20 años de buena vida a los circuitos con base de silicio, aunque la investigación sobre materiales alternativos ha sido acelerada. El nivel de integración ha progresado de a saltos en las últimas dos décadas. Si bien los detalles técnicos no tienen lugar en este libro, es analíticamente relevante indicar la velocidad y alcance del cambio tecnológico.

Como es sabido, el poder de los chips puede ser evaluado por una combinación de tres características: su capacidad de integración, indicada por la línea de menor grosor en el chip medida en micrones (1 micrón = 1 millonésima parte de una pulgada); su capacidad de memoria, medida en bits: miles (k), y millones (megabits); y la velocidad del microprocesador medida en megahertz. De esta forma, el primer procesador de 1971 tenía líneas de 6.5 micrones aproximadamente; en 1980, llegaba a 4 micrones; en 1987, 1 micrón; en 1995, el chip de la Pentium de Intel tenía 0.35 micrones; y según proyecciones llegará a 0.25 micrones en 1999. Así, mientras que en 1971 se ponían 2.300 transistores en un chip del tamaño de una chinche, en 1993 cabían 35 millones de transistores. La capacidad de memoria, indicada por DRAM (dynamic random access memory; memoria de acceso dinámico al azar) era en 1971 de 1.024 bits; en 1980, 64.000; en 1987, 1.024.000; en 1993, 16.384.000, y proyectada para 1999, 256.000.000. En cuanto a la velocidad, los microprocesadores de 64 bits son 550 veces más rápidos que el primer chip de Intel de 1972; y los MPU están duplicándose cada 18 meses. Las proyecciones para el 2002 pronostican una aceleración de la tecnología microelectrónica en integración (chips de 0.18 micrones), en capacidad DRAM (1024 megabits), y en la velocidad del microprocesador (500+ megahertz comparado a 150 en 1993). Combinado con los dramáticos desarrollos en procesamiento paralelo usando microprocesadores múltiples (incluyendo, en el futuro, vinculaciones de múltiples microprocesadores en un solo chip), parecería que el poder de la microelectrónica todavía está siendo descubierto, mientras continua ampliando la capacidad de las computadoras. Además, la mayor miniaturización, la mayor especialización, y el precio decreciente de los cada vez más poderosos chips ha hecho posible ubicarlos en cada máquina de nuestra vida cotidiana, desde máquinas lavaplatos y hornos micro-ondas hasta automóviles, cuya electrónica, en los modelos standard de los 90, era más valiosa que su acero.

Las computadoras también fueron concebidas de la madre de todas las tecnologías, la Segunda Guerra Mundial, pero sólo nacieron en 1946 en Filadelfia, si exceptuamos las herramientas relacionadas con la guerra del British Colossus de 1943, aplicadas al desciframiento de códigos enemigos, y el Z-3 alemán producido en 1941 para ayudar con los cálculos de aviación. Sin embargo la mayor parte de los esfuerzos de los aliados en electrónica se concentraron en hacer programas de investigación en el MIT, y la actual experimentación del poder de las calculadoras, bajo el auspicio de la Armada norteamericana, tuvo lugar en la Universidad de Pennsylvania, donde Mauchly y Eckert produjeron en 1946 la primera computadora de propósitos generales, la ENIAC (Electronic Numerical Integrator and Calculator; Integradora y Calculadora Numérica Electrónica). Los historiadores recordarán que la primera computadora pesaba 30 toneladas, que estaba construida sobre módulos de metal de nueve pies de alto, que tenía 70.000 resistencias y 18.000 válvulas, y que ocupaba el área de un gimnasio. Cuando era encendida, su consumo de electricidad era tan alto que la iluminación de toda Filadelfia titilaba.

La primera versión comercial de esta máquina primitiva, la UNIVAC-1, producida en 1951 por el mismo equipo, entonces bajo la marca Remington Rand, fue extremadamente exitosa en el procesamiento del censo norteamericano de 1950. IBM, que también estaba sustentada por contratos militares y confiando parcialmente en las investigaciones del MIT, superó sus reservas sobre la era de la computación, e ingresó a la carrera en 1953 con su máquina de 701 válvulas. En 1958, cuando Sperry Rand introdujo una mainframe de segunda generación, IBM inmediatamente la siguió con su modelo 7090. Pero fue recién en 1964 que IBM, con su mainframe 360/ 370, llegó a dominar la industria de la computación, popularizada por nuevas (Control Data, Digital) y viejas (Sperry, Honeywell, Burroughs, NCR) compañías de máquinas para empresas. La mayoría de estas firmas estaban expirando o se habían esfumado para los 90: esto es lo rápido que la "destrucción creativa" schumpeteriana ha procedido en la industria electrónica. En esa era antigua, unos 30 años antes de que esto fuera escrito, la industria se organizaba a sí misma en una pulcramente definida jerarquía de mainframes, minicomputadoras (de hecho, máquinas bastante voluminosas), y terminales, con alguna especialización informática librada al esotérico mundo de las supercomputadoras (una cruza fértil de pronóstico del tiempo y juegos de guerra), en la que la extraordinaria ingenuidad de Seymour Cray, a pesar de su falta de visión tecnológica, reinó por algún tiempo.

La microelectrónica cambió todo esto, introduciendo una "revolución dentro de la revolución". La llegada del microprocesador en 1971, con la capacidad de poner una computadora en un chip, dio vuelta el mundo de la electrónica, de hecho el mundo en sí. En 1975, De Roberts, un ingeniero que había creado una pequeña compañía de calculadoras, MITS, en Alburquerque, Nuevo México, construyó una caja computadora con el improbable nombre de Altair, inspirado en un personaje de la serie de TV Star Trek, que era objeto de devoción de su joven hija. La máquina era un objeto primitivo, pero fue construido como una computadora a pequeña escala alrededor de un microprocesador. Fue la base para el diseño de Apple I, luego Apple II, la primera microcomputadora comercialmente exitosa, construida en el garaje de la casa de los padres de dos jóvenes estudiantes rateados, Steve Wozniak y Steve Jobs, en Menlo Park, Silicon Valley, en una verdaderamente extraordinaria saga que se ha convertido hoy en la leyenda fundadora de la Era de la Información. Lanzada en 1976, con tres socios y $91.000 de capital inicial, Apple Computers había alcanzado los $583 millones en ventas en 1982, conduciendo la era de la difusión de las computadoras. IBM reaccionó rápidamente: en 1981 introdujo su propia versión de la microcomputadora, con un nombre brillante: la Computadora Personal (PC), que se convirtió de hecho en el nombre genérico para las microcomputadoras. Pero como no estaba basada en la propia tecnología de IBM, sino en tecnología desarrollada para IBM de otras fuentes, se hizo vulnerable a la clonación, que pronto se practicó en escala masiva, particularmente en Asia. Aunque este hecho eventualmente condenó la predominancia de IBM en el negocio de las PCs, también desplegó el uso de los clones por todo el mundo, difundiendo un estandar común, a pesar de la superioridad de las máquinas Apple. La Macintosh de Apple, lanzada en 1984, fue el primer paso hacia la computadora amigable, con la introducción del uso de íconos, originalmente desarrollado por el Palo Alto Research Center (PARC) de Xerox.

Una condición fundamental para la difusión de las microcomputadoras fue subsanada con el desarrollo de nuevo software adaptado a su operación. El software para PC también surgió a mediados de los 70 del entusiasmo generado por Altair: dos jóvenes ex estudiantes de Harvard, Bill Gates y Paul Allen, adaptaron el BASIC para operar la Altair en 1976. Al darse cuenta de su potencial, fundaron Microsoft (primero en Albuquerque, dos años después se mudaron a Seattle, ciudad natal de los padres de Bill Gates), que es hoy la empresa gigante de software, que disputó el dominio de software para sistemas operativos para luego lograr el dominio del software en todo el creciente mercado de las microcomputadoras.

En los últimos 15 años, la creciente potencia del chip ha resultado en una dramática ampliación del poder de la microcomputadora, limitando la función de las máquinas grandes. A principios de los 90, las microcomputadoras de un solo chip tenían el poder de procesamiento de IBM de unos 5 años atrás. Los sistemas de red basados en microprocesadores, conformados por máquinas de escritorio más pequeñas (clientes), servidas por una más poderosa (servidor), podían eventualmente reemplazar máquinas especializadas en procesamiento de información, como las mainframes tradicionales y las supercomputadoras. De hecho, a los avances en microelectrónica y software hay que agregar los grandes saltos en las capacidades de las redes. Desde mediados de los 80, las microcomputadoras no pueden ser concebidas aisladamente: trabajan en redes, con movilidad creciente, basadas en computadoras portátiles. Esta extraordinaria versatilidad, y la capacidad de agregar memoria y capacidad de procesamiento al compartir el poder de la computadora con una red electrónica, decisivamente llevaron a dar un salto en la era de la computación de los 90 del almacenamiento y procesamiento centralizado de datos a la computadora compartida y en red. No solo ha cambiado todo el sistema tecnológico, sino también sus interacciones sociales y organizacionales. De esta forma, el costo promedio para procesar información cayó de alrededor de $75 por millón de operaciones en 1960 a menos de una centésima parte de un centavo en 1990.

Esta capacidad de trabajar en red solo fue posible, naturalmente, por los importantísimos desarrollos alcanzados en telecomunicaciones y redes durante los 70. Pero, al mismo tiempo, estos cambios solo fueron posibles por los nuevos inventos en microelectrónica y los avances en la capacidad de la computación, en una impactante muestra de las relaciones sinérgicas que se dan en la Revolución de la Tecnología de la Información.

Las telecomunicaciones también han sido revolucionadas con la combinación de tecnologías "nodales" (llaves switch electrónicas y routers) y nuevos vínculos (tecnologías de transmisión). La primera llave electrónica producida industrialmente, la ESS-1, fue introducida por Bell Labs en 1969. Para mediados de los 70 los progresos en las tecnologías de circuitos integrados hicieron posible la llave digital, incrementando la velocidad, el poder y la flexibilidad, mientras ahorraba espacio, energía y trabajo, vis-à-vis aplicaciones análogas. Aunque ATT, pariente de Bell Labs, era inicialmente reticente a su introducción, ya que necesitaba amortizar la inversión ya realizada en equipo analógico, cuando en 1977 Northen Telecom de Canadá capturó una parte del mercado norteamericano con las llaves digitales, las compañías Bell se unieron a la carrera y dispararon un movimiento similar en el mundo.

Importantes avances en optoelectrónica (fibra óptica y transmisión láser) y en tecnología de transmisión digital de paquetes amplió dramáticamente la capacidad de las líneas de transmisión. La Integrated Bradband Networks (IBN) vio que en los 90 podía sobrepasar sustancialmente las propuestas revolucionarias de los 70 para una Integrated Services Digital Network (ISDN; Red Digital de Servicios Integrados): mientras la capacidad de transferencia de ISDN en cables de cobre estaba estimada en 144.000 bits, en 1990 IBN podría, aunque a un alto costo, transferir un cuatrillón de bits por fibra óptica. Para medir el cambio, recordemos que en 1956 el primer cable transatlántico de teléfono llevaba 50 circuitos comprimidos de voz; en 1995, la fibra óptica podría llevar 85.000 de esos circuitos. La capacidad de transmisión basada en la optoelectrónica, junto con las llaves de avanzada y las arquitecturas de routeo, como la Asynchronous Transmission Mode (ATM; Modo de Transmisión Asincrónica) y el Transmission Control Protocol/ Interconnection Protocol (TCP/ IP; Protocolo de Control de Transmisión/ Protocolo de Interconexión), son la base de la llamada Supercarretera de la Información, cuyas características se discuten en el capítulo 5.

Diferentes formas de usar el espectro radial (transmisión tradicional, transmisión satelital, micro-ondas, telefonía celular digital) así como el cable coaxil y la fibra óptica, ofrecen una diversidad y versatilidad de tecnologías de transmisión que están siendo adaptadas a una gran gama de usos, y hacen posible la comunicación ubicua entre usuarios móviles. Así, la telefonía celular se difundió con fuerza en todo el mundo en los 90, literalmente apuntando a Asia con pagers poco sofisticados y a Latinoamérica con teléfonos celulares como símbolo de status social, confiando en la promesa (de Motorola por ejemplo) de un producto de comunicación personal que proporcionaría una cobertura universal antes del 2000. Cada salto en el campo tecnológico amplía los efectos de las tecnologías de información que están relacionadas. Así, la telefonía móvil, confiando en el poder de la computación para routear los mensajes, provee al mismo tiempo la base para una computación generalizada y para la comunicación electrónica interactiva en tiempo real.



La división tecnológica de los 70

Este sistema tecnológico en el que nos hemos sumergido completamente en los 90 se conformó en los 70. Por lo significativo que son los contextos históricos específicos para las trayectorias tecnológicas, y por la forma particular de interacción entre tecnología y sociedad, es importante recordar algunos datos asociados a descubrimientos fundamentales en las tecnologías de información. Todos ellos tienen algo esencial en común: mientras que estaban basados en el conocimiento previamente existente, y se desarrollaban como prolongación de las tecnologías clave, representaban un salto cualitativo hacia adelante en la difusión masiva de tecnología en aplicaciones comerciales y civiles debido a su accesibilidad y su costo decreciente junto con una calidad creciente. Así, el microprocesador, elemento clave en la difusión de la microelectrónica, fue inventado en 1971 y comenzó a difundirse a mediados de los 70. La microcomputadora fue inventada en 1975 y el primer producto comercialmente exitoso , Apple II, fue introducido en abril de 1977, más o menos en la misma época en que Microsoft comenzó a producir sistemas operativos para microcomputadoras. La Xerox Alto, matriz de muchas tecnologías de software para las PC de los 90, fue desarrollado en los laboratorios PARC en Palo Alto en 1973. La primera llave electrónica industrial apareció en 1969, y las llaves digitales se desarrollaron a mediados de los 70 y tuvieron difusión comercial en 1977. La fibra óptica fue producida industrialmente por primera vez por Corning Glass a principios de los 70. También a mediados de los 70, Sony comenzó a producir comercialmente máquinas de VCR, con base en los descubrimientos realizados en Estados Unidos e Inglaterra en los 60, que jamás habían llegado a la producción masiva. Y por último, fue en 1969 que la Agencia de Proyectos de Investigación del Departamento de Defensa de Estados Unidos (ARPA) estableció una nueva, revolucionaria, red electrónica de comunicación, que crecería durante los 70 para convertirse en la Internet. Fue muy ayudada por la invención de Cerf y Kahn en 1974 del TCP/ IP, el protocolo de interconexión de redes que permitió que varias redes pudieran conectarse. Creo que podemos decir, sin exagerar, que la Revolución de la Tecnología de la Información, como revolución, nació en los 70, particularmente si incluimos en ella la emergencia y difusión paralela de la ingeniería genética que se dio por las mismas fechas y lugares, un desarrollo que merece, al menos, unas pocas lineas de atención.

Tecnologías de la vida

Aunque la biotecnología puede ser rastreada a una tabla de arcilla de Babilonia del 6000 BC, y la revolución en microbiología a los descubrimientos científicos de la estructura básica de la vida, la doble hélice del ADN, por Francis Crick y James Watson en la Cambridge University en 1955, fue solo a comienzos de los 70 que la separación y recombinación genética del ADN, la fundación tecnológica de la ingeniería genética, hizo posible la aplicación del conocimiento acumulado. Stanley Cohen de Stanford y Herbert Boyer en la Universidad de California, San Francisco son generalmente acreditados con el descubrimiento de los procedimientos para la clonación de genes en 1973, aunque su trabajo está basado en la investigación del Premio Nobel Paul Berg, de Stanford. En 1975 los investigadores de Harvard aislaron el primer gen mamario, de la hemoglobina de un conejo; y en 1977 se clonó el primer gen humano.

Lo que siguió a continuación fue una carrera para establecer firmas comerciales, muchas de ellas desprendimientos de las grandes universidades y de los centros de investigación de los hospitales, que emergieron en California del Norte, Nueva Inglaterra y Maryland. Periodistas, inversionistas y activistas sociales fueron igualmente impactados por las posibilidades que se abrían con la potencial habilidad de diseñar vida, incluyendo vida humana. Genentech al Sur de San Francisco, Cetus en Berkeley y Biogen en Cambridge, Massachusetts, estaban entre estas primeras compañías, organizadas en torno a ganadores de premios Nobel, para usar las nuevas tecnologías genéticas para aplicaciones médicas. Le siguió el negocio del agro; y los microorganismos, algunos de ellos genéticamente alterados, tuvieron cada vez más asignaciones, por ejemplo limpiar la polución, muchas veces generada por las mismas compañías y agencias que estaban vendiendo los superorganismos. Sin embargo las dificultades científicas, de los problemas técnicos, y los obstáculos legales motivados por intereses éticos y de seguridad desaceleraron la revolución de la biotecnología durante los 80. Una considerable cantidad de capitales invertidos se perdieron y algunas de las compañías más innovadoras, incluyendo Genentech, fueron absorbidas por las farmacéuticas gigantes (Hoffman-La Roche, Merck) que mejor que nadie, entendieron que no podían reproducir la costosa arrogancia que las firmas de computación establecidas habían desplegado frente a las pequeñas empresas innovadoras: comprarlas, junto con los servicios de sus científicos, era una mejor póliza de seguro para las multinacionales farmacéuticas y químicas, para internalizar los beneficios comerciales de la revolución tecnológica y controlar su paso. Siguió una desaceleración de su paso, por lo menos en cuanto a la difusión de sus aplicaciones.

Sin embargo, a fines de los 80 y en los 90 un gran impulso de la ciencia, y una nueva generación de científicos emprendedores revitalizaron la biotecnología, con un enfoque decisivo sobre la ingeniería genética, la verdadera tecnología revolucionaria en el terreno. La clonación genética ingresó a una nueva etapa cuando, en 1988, Harvard formalmente patentó un ratón genéticamente diseñado, quitándole de esta forma los derechos de autor a Dios y a la Naturaleza. En los siguientes 7 años, otros siete ratones también fueron patentados como nuevas formas de vida creadas, identificadas como propiedad de sus ingenieros. En agosto de 1989 los investigadores de la Universidad de Michigan y Toronto descubrieron el gen responsable de la fibrosis cística, abriendo el camino a la terapia genética.

Con el despertar de las expectativas generadas por este descubrimiento, el gobierno norteamericano decidió en 1990 auspiciar y fundar un programa de colaboración de $3 billones durante 15 años, coordinado por James Watson, uniendo a los equipos de investigación en microbiología más avanzados para mapear el genoma humano, esto es, para identificar y localizar los 60.000 a 80.000 genes que componen el alfabeto de la especie humana. A través de este y otros esfuerzos, un continuo río de genes humanos relacionados con varias enfermedades están siendo identificados, por lo que para mediados de los 90, alrededor del 7% de los genes han sido localizados, con una correcta comprensión de su funcionamiento. Esto por supuesto crea la posibilidad de actuar sobre estos genes, y en aquellos que sean identificados en el futuro, posibilitando que la especie humana pueda no solo controlar las enfermedades, sino también identificar predisposiciones biológicas e intervenir en ellas, potencialmente alterando el destino genético. Lyon y Gorner concluyen su investigación sobre la ingeniería genética humana, con una predicción y una advertencia:

En unas pocas generaciones podremos acabar con ciertas enfermedades mentales, quizás, o la diabetes, o la presión alta, o casi con cualquier aflicción que seleccionemos. Lo que no debemos olvidar es que la calidad de la toma de decisión dictamina si las elecciones que hagamos serán sabias y justas...La poco gloriosa forma en que la elite científica y administrativa está manejando los primeros frutos de la terapia genética es ominosa...Los humanos hemos evolucionado intelectualmente para puntualizar que, relativamente pronto, podremos comprender la composición, función, y dinámica del genoma mucho mas allá de su intimidante complejidad. En términos emocionales, sin embargo, somos todavía simios, con toda la carga de comportamiento que implica. Quizás la forma esencial de terapia genética sea para que nuestra especie pueda elevarse por sobre su herencia básica y aprenda a aplicar este nuevo conocimiento sabia y benignamente.



Aun así, mientras los científicos, reguladores y éticos debaten las implicancias humanísticas de la ingeniería genética, los investigadores que se han convertido en empresarios toman el atajo, estableciendo mecanismos para tener control legal y financiero sobre el genoma humano. El intento más osado en este sentido fue de un proyecto iniciado en 1990 en Rockville, Maryland, por dos científicos, J. Craig Venter, luego con el Instituto Nacional de Salud, y William Haseltine, luego en Harvard. Usando el poder de supercomputadoras, secuenciaron en solo 5 años partes de casi el 85% de todos los genes humanos, creando una gigantesca base de datos genética. El problema es que no sabemos, ni sabremos por un largo tiempo, cuál pieza de gen es qué y dónde está localizada: su base de datos comprende cientos de miles de fragmentos genéticos con funciones desconocidas. ¿Cuál es entonces el interés? Por un lado, la investigación focalizada sobre genes específico puede (y de hecho así es) utilizar para sí la información contenida en esas secuencias. Pero, lo que es más importante y la principal razón para todo el proyecto, Craig y Haseltine han estado ocupados patentando su base de datos, entonces, literalmente, algún día podrían ser los dueños de los derechos legales de una gran parte del conocimiento para manipular el genoma humano. La amenaza que se cierno por este desarrollo es tan seria que, mientras por un lado han atraído decenas de millones de dólares de inversionistas, por otro lado, una de las más grandes empresas farmacéuticas, Merck, dio en 1994 un financiamiento sustantivo a la Universidad de Washington para proceder con el mismo secuenciamiento ciego y para hacer pública la información, para que no haya control privado de trozos y partes de conocimiento que podrían bloquear el desarrollo de productos basados en una comprensión sistemática futura del genoma humano.

La lección para el sociólogo de estas batallas de negocios no es sólo otra instancia de la avaricia humana. Señala un tiempo que se acelera con la expansión y profundización de la revolución genética. Debido a su especificidad, tanto científica como social, la difusión de la ingeniería genética fue más lenta entre los 70 y los 90 que en el caso de la revolución en electrónica. Pero en los 90, la revolución de la biotecnología se ha visto acelerada en todo el mundo por la existencia de mercados más abiertos, y por las mayores posibilidades educativas y de investigación. Todos los indicadores apuntan hacia la explosión de sus aplicaciones con el cambio de milenio, disparando de esta forma un debate mucho más fundamental a la hoy borrosa frontera entre naturaleza y sociedad.



Contexto social y la dinámica del cambio tecnológico

Por qué los descubrimientos de las nuevas tecnologías de la información ocurrieron en los 70, y casi todos en Estados Unidos? Y cuáles son las consecuencias de esto en su desarrollo futuro y en su interacción con las sociedades? Sería tentador relacionar directamente la formación de este paradigma tecnológico con las características de su contexto social; particularmente si recordamos que a mediados de los 70 Estados Unidos y el mundo capitalista estaban siendo sacudidos por una gran crisis económica, lanzada (pero no causada) por el shock del petróleo en 1973-4: una crisis que precipitó la dramática reestructuración del sistema capitalista a escala global, actualmente induciendo un nuevo modelo de acumulación en discontinuidad histórica con el capitalismo de posguerra, como propuse en el prólogo de este libro. ¿Fue el nuevo paradigma tecnológico una respuesta del sistema capitalista para recuperarse de sus contradicciones internas? ¿O fue un modo de asegurarse la superioridad militar sobre el enemigo Soviético, en respuesta a su desafío tecnológico en la carrera espacial y de armamentos nucleares? Ninguna explicación parece ser convincente. Mientras que hay una coincidencia histórica entre la aparición de las nuevas tecnologías y la crisis económica de los 70, su sincronización fue demasiado cercana, el "arreglo tecnológico" habría sido demasiado rápido, y demasiado mecánico cuando sabemos de las lecciones de la Revolución Industrial y de otros procesos históricos de cambio tecnológico que las sendas económica, industrial y tecnológica, que están relacionados, se mueven con lentitud y calzan imperfectamente en esta interacción. Y con respecto al argumento militar, el shock del Sputnik de 1957-60 fue respondido mediante una construcción tecnológica masiva en los 60, no en los 70; y el nuevo empuje de la tecnología militar norteamericana fue impulsado en 1983 en torno al programa "Star Wars", de hecho usando las tecnologías desarrolladas en la prodigiosa década precedente. De hecho, parece que la emergencia de un nuevo sistema tecnológico en los 70 debe rastrearse a la dinámica autónoma del descubrimiento y difusión tecnológica, incluyendo los efectos sinérgicos entre varias tecnologías clave. Así, el microprocesador hizo posible la microcomputadora; los avances en telecomunicaciones, como mencionáramos arriba, permitieron que las microcomputadoras funcionaran en redes, incrementando así su poder y flexibilidad. Las aplicaciones de estas tecnologías a la electrónica y a la fabricación aumentaron el potencial para nuevos diseños y tecnologías de fabricación en la producción de semiconductores. El nuevo software fue estimulado por el mercado de las microcomputadoras y su rápido crecimiento que, a su vez, explotó sobre la base de nuevas aplicaciones y tecnologías amigables que brotaban de las mentes de los escritores de software. Y así sucesivamente.

El fuerte impulso militar de los 60 a la tecnología preparó a la tecnología norteamericana para dar el salto adelante. Pero el invento del microprocesador de Ted Hoff mientras intentaba completar una orden para una compañía japonesa de calculadoras manuales en 1971 provino del conocimiento y la ingenuidad acumulados en Intel, una estrecha interacción con el milieu de innovación creado desde 1950 en Silicon Valley. En otras palabras, la primera Revolución de la Tecnología de la Información se produjo en Estado Unidos, básicamente en California, en los 70, construyéndose sobre los descubrimientos de las dos décadas precedentes, y bajo la influencia de varios factores institucionales, económicos y culturales. Pero no salieron de una necesidad preestablecida: estaba tecnológicamente inducido más que socialmente determinado. Sin embrago, una vez que existió como sistema, en la base de la emergencia que he descripto, su desarrollo y aplicaciones, y en esencia su contenido, fueron decisivamente configurados por el contexto histórico en el que se expandieron. De hecho, el capitalismo de los 80 (específicamente: las grandes corporaciones y gobiernos de los países del club de los 7) encararon un proceso de reestructuración económica y organizacional, en el que la nueva tecnología de información jugaba un rol fundamental y era moldeado decisivamente por el rol que jugaba. Por ejemplo, el movimiento organizado por los negocios hacia la desregulación y liberalización en los 80 fue decisivo en la reorganización y crecimiento de las telecomunicaciones, más notorio luego del despojo de ATT en 1984. En contraposición, la habilidad de las nuevas redes de telecomunicaciones y de los sistemas de información prepararon el terreno para la integración global de los mercados financieros y la articulación segmentada de la producción y el comercio a través del mundo, como examinaré en el próximo capítulo.

Así, la disponibilidad de las nuevas tecnologías constituía un sistema en los 70 y era base fundamental para el proceso socio-económico que se estaba reestructurando en los 80. Y los usos de esas tecnologías en los 80 condicionaron mucho los usos y las trayectorias en los 90. El surgimiento de la sociedad "enredada", que trataré de analizar en los siguientes capítulos de este volumen, no pueden ser entendidos sin la interacción entre estas dos tendencias relativamente autónomas: el desarrollo de nuevas tecnologías de información y el intento de la vieja sociedad de reinstrumentarse a sí misma utilizando el poder de la tecnología para servir a la tecnología del poder. Sin embargo, la salida histórica de esta estrategia parcialmente consciente no está determinada, desde que la interacción entre tecnología y sociedad depende de las relaciones estocásticas entre un número excesivo de variables cuasi independientes. Sin tener que rendirnos necesariamente al relativismo histórico, puede decirse que la Revolución de la Tecnología de la Información fue cultural, histórica y espacialmente contingente en un conjunto de circunstancias muy específico cuyas características marcaron su evolución futura.