Estudio de la tecnología de redes locales (LAN). El triunfo de Ethernet sobre Token Ring.

Resumen

En este ensayo se hace un estudio en el ámbito de las tecnologías de redes locales y concretamente se centra en el análisis de la competición entre la tecnología Token ring, desarrolada por IBM en los años 60, y la tecnología Ethernet que se desarrollo más tarde y que ha acabado siendo la más extendida acabando prácticamente con la presencia de la primera que sólo se puede ver en nichos residuales.

En el origen de esta lucha por el mercado de las redes en la década de 1980, Token Ring ofrecía un mejor rendimiento, fiabilidad y predictibilidad pero preponderó Ethernet hasta el punto que redes ya implantadas fueron migradas y la presencia de Token Ring prácticamente erradicada.

Hoy en día Ethernet es prácticamente la única tecnología de red local existente a nivel de acceso de usuarios y sólo en los núcleos centrales (Core) de las redes se pueden encontrar otras tecnologías como ATM, MPLS, etc.

Palabras clave:

Tecnología, Sociedad, Empresa, SCOT, Redes Locales, LAN, Ethernet, Token Ring, TIC

Introducción:

Originalmente las redes locales se encontraban poco extendidas y se limitaban a la interconexión de elementos de computación ubicados en centros de proceso de datos donde había una unidad central y terminales “tontos” directamente conectados a la misma. Elementos periféricos como impresoras, unidades de cinta, etc. se conectaban a esta unidad de distintas formas (puertos serie, puertos paralelos, canal, bus propietario, etc.) . En este escenario es donde nace el concepto de red local, como método para conectar distintos componentes.

En la década de 1960, IBM desarrolla Token Ring. Una tecnología con topología de anillo en la cual los componentes conectados a la red esperan un Token (testigo) para poder inyectar datos en la red. Dicho de forma coloquial, esperan su turno para hablar. La Token Ring en sus orígenes trabajaba sobre cables coaxiales, costosos y aparatosos, y las velocidades que alcanzaba eran de 2 Mbps (Mega bits por segundo) y algo más tarde de 4 Mbps. La velocidad efectiva que alcanzaba era de 3,95 Mpbs.

A mediados de la década de 1970, el Xerox Palo Alto Research Center desarrolla Ethernet, esta tecnología es distinta de Token Ring en varios aspectos. Para empezar la topología de la red es en forma de Bus y no de anillo. Otra diferencia importante es rápidamente el cableado que utiliza (aunque inicialmente es también cable coaxial) es cable de cobre de par trenzado, similar al cable de teléfono. Este cable es mucho más económico y fácil de manejar. Las velocidades que alcanzaba cuando Token Ring llegaba a los 4Mbps empezaron por 5 Mbps pero rápidamente alcanzaron los 10 Mbps aunque, medido en las mismas condiciones, la velocidad efectiva era inferior.

En Ethernet, cuando un componente de la red desea comunicarse, inyecta el dato en la red y detecta si ha habido “colisión”, en cuyo caso espera un tiempo aleatorio antes de volver a intentarlo. De forma coloquial, la colisión se produce cuando varios “hablan a la vez” como en una conversación humana en la que no hay turnos para intervenir. Estas colisiones son más frecuentes cuántos más componentes hay en la red y más información se debe transmitir pues evidentemente la probabilidad aumenta. Para redes con uso poco intensivo no es mucho problema, pero a medida que crece el tráfico de datos el rendimiento se deteriora rápidamente pues cada elemnto o dispositivo de la red debe reintentar varias veces la transmisión antes de conseguir enviar un dato sin que otro estropee el envío.

A pesar de estas circunstancias, Ethernet ha prevalecido sobre Token Ring y en este ensayo se analiza este caso desde el modelo SCOT en la siguiente discusión, identificando los GSR (Grupos Sociales Relevantes), el concepto de flexibilidad interpretativa, el período de clausura y estabilización y los marcos tecnológicos en que se produce este episodio tecnológico en las redes locales.

Discusión:

La actual presencia casi exclusiva de Ethernet en el ámbito de las redes locales se debe a una serie de factores que exceden claramente una supuesta superioridad técnica de esta tecnología sobre Token Ring que antes de la década de 1980 era la más extendida (por no decir la única existente). En este apartado, se analiza el caso repasando los elementos que hicieron que en el plazo de una década (hasta 1990) la batalla por las redes locales quedara vista para sentencia, al menos hasta el momento actual.

En la adopción de una tecnología cualquiera siempre hay grupos sociales implicados que de una u otra forma influyen en el devenir de los acontecimientos o son afectados por los mismos. En la metodología de análisis SCOT estos grupos se han venido denominando Grupos Sociales Relevantes o GSR. A continuación identificamos los GSR relacionados con la disyuntiva entre ambas topologías de red local.

Los principales sponsors de cada una de las tecnologías fueron los fabricantes de las mismas y que las desarrollaron. Por un lado IBM que tenía una posición dominante en el mercado de las TIC y por el otro el resto de fabricantes como Xerox, DEC, 3Com, etc. que luchaban por hacerse un sitio en el mercado.

Además de los fabricantes, en la época se comenzaba a dar importancia a la estandarización (IEEE, etc.) y en el ámbito de la investigación y las esferas académicas se empezaba a prestar mucha atención a las tecnologías de la computación y las comunicaciones. El posicionamiento de la comunidad académica y los investigadores era muy tenido en cuenta a la vez que eran grandes usuarios de las TIC así como también lo eran las agencias gubernamentales.

Otro grupo involucrado en el proceso fue la comunidad técnica de profesionales que trabajaban en el área de las TIC así cómo los directores de departamento y financieros para los cuales la elección suponía grandes cambios en cuanto a los perfiles de los técnicos y los presupuestos dedicados a las redes de comunicaciones y que debían tomar la estratégica decisión de optar por Ethernet o Token Ring.

Finalmente estaban los usuarios finales o consumidores que pertenecían a distintos segmentos y en principio tenían distintas necesidades y criterios. Estos usuarios se pueden dividir a grandes rasgos en usuarios domésticos (redes pequeñas de dos o tres elementos y con distancias pequeñas), usuarios profesionales o industriales y usuarios en el ámbito de la investigación con redes más pobladas, con distancias mayores (geográficamente más dispersos en grandes edificios o fábricas) y con más necesidades en cuanto a rendimiento, seguridad y predictibilidad de la red.

Cada uno de estos GSR adopta una postura distinta en cuanto a lo que esperaba de una red y a la vez una comprensión diferente del funcionamiento de la misma.

En cuanto a los fabricantes, IBM en el momento en que creo Token Ring se basó en un criterio puramente tecnológico buscando una tecnología fiable y efectiva y el coste no era el principal factor de decisión a la hora de desarrollar la tecnología puesto que tenía una posición casi monopolística del mercado y no había competencia a la vista. En cambio, el resto de fabricantes (Xerox, DEC, 3Com, etc.) lo que buscaban era un trozo del pastel y se centraron más en una solución económica, abierta y fácil de instalar y mantener para que fuera atractiva en los nichos de mercado en que IBM no estaba tan bien posicionado como en los grandes clientes que disponían de holgados presupuestos.

El hecho de que Ethernet fuera un estándar abierto, en contraste con la tecnología Token Ring, solución propietaria y sujeta a Royalties, gustó en la comunidad científica y académica. Es una opinión personal que además existe un factor adicional que es la mentalidad de los individuos que forman estas comunidades a los que muy probablemente les gustaba más la idea romántica y libertaria de un protocolo en el que cualquiera puede “hablar” cuando lo desea y con un acceso al medio (cable) compartido frente a un protocolo jerarquizado en el que sólo se puede “hablar” cuando te dan permiso.

Con respecto a los profesionales que tenían que instalar estas redes y mantenerlas, se encontraron ante la disyuntiva de escoger una tecnología fiable, robusta y efectiva pero costosa y que requería de conocimientos técnicos avanzados frente a una tecnología menos fiable y rápida pero que era fácil de instalar y mantener. Ethernet respondía a la inmensa mayoría de las situaciones de forma suficientemente apropiada y era hasta un 70% más económica, lo cual tenía una importancia clave a la hora de decidir una compra. Así pues, tanto los responsables de departamentos como los financieros que debían controlar los presupuestos de TIC optaban más fácilmente por una solución que era adecuada y bastante más económica que Token Ring.

Finalmente, los usuarios o consumidores finales tenían una comprensión muy limitada de las características de cada una de las redes. Simplificando mucho, para ellos la red iba a 4Mbps o a 10Mbps que eran las velocidades nominales y no las efectivas. Además la estética del cable de par trenzado frente a la del coaxial hacía Ethernet mucho más atractivo para ellos que, en general, no apreciaban las diferencias en el rendimiento de la red y se guiaban más por las apariencias y los datos sesgados.

En la década de 1980 empezaron a extenderse los ordenadores personales (ironías de la vida, de la mano de IBM). Esto hizo que las TIC se extendieran más en las empresas llegando a más usuarios y se extendieran más por los edificios de oficinas y fábricas. El resultado fue que en lugar de unos pocos dispositivos en una sala y manipulados por personal técnico se pasó a un esquema en el que había multitud de dispositivos en la red y manipulados por personal menos experto en la tecnología y con otros criterios de evaluación. El coste de las tarjetas de red pasó a ser mucho más importante así como el de los cableados y dispositivos de red.

Esta democratización de los ordenadores, que llegaron también al ámbito doméstico, hizo que la simplicidad y el coste de las soluciones tomara mucha relevancia pues un consumidor “casero” no estaba dispuesto a gastar demasiado dinero. Para el usuario “no informático” resultaba más cómodo que en el puesto de trabajo el dispositivo y la tecnología que utilizaba fuera como “la de casa” y de alguna forma ejercía presión o demandaba ciertas tecnologías. En este campo de batalla Ethernet claramente tenía más elementos a su favor que la impulsaban que Token Ring.

En este escenario de la década de 1980 en la que Ethernet empezó a propagarse rápidamente, IBM hizo esfuerzos para defender Token Ring ante las nuevas circunstancias. Primero adoptando el cableado de par trenzado y dejando atrás el cable coaxial y después aumentando la velocidad a 16Mbps. Sin embargo, pronto se anunció que se estaba desarrollando Ethernet a 100 Mbps. Esta circunstancia y el hecho de que el coste de la electrónica Token Ring nunca llegó a acercarse a los precios de Ethernet, hizo que progresivamente la mayoría de nuevas instalaciones (en el momento en que más crecimiento se experimentó en cuanto al número de redes locales instaladas) optaran por Ethernet.

Finalmente, en la década de 1990 se asistió al progresivo desmantelamiento de redes Token Ring, que se iban migrando a Ethernet quedando tan sólo algunos segmentos “heredados” en instalaciones de máquinas IBM de tipo mainframe o midleframe. Esto hizo que IBM finalmente optara por incorporar compatibilidad con Ethernet en sus ordenadores y finalmente abandonar Token Ring y las inversiones en desarrollar HSTR (High Speed Toke Ring) a 100 Mbps y otras derivadas de la topología en anillo y los Token (testigos) como FDDI que sí se puede encontrar en algunas instalaciones, pero que tiene el inconveniente de funcionar sobre fibra óptica, motivo por el cual se limita a determinados escenarios . También se encuentra con que Ethernet actualmente puede funcionar con redes de fibra óptica por lo cual se suele optar en la inmensa mayoría de casos por ésta última en aras de la uniformidad y compatibilidad de toda la red.

Actualmente es difícil encontrar modelos de equipos de electrónica de red que no sean Ethernet (Conmutadores, Routers, tarjetas NIC, etc.) y los mayores fabricantes de dispositivos de LAN (Cisco, 3COM, Avaya, Lucent, Brocade…) sólo ofrecen esta tecnología, al menos en la capa de acceso de usuario.

En estos años, la evolución de Ethernet ha hecho que se haya llegado a velocidades de 10 Gbps utilizando el cable de par trenzado. Estas conexiones también llamadas TenGiga actualmente se encuentran de forma habitual en el núcleo (Core) de las redes y en servidores con gran demanda de tráfico mientras que los puestos de usuario final habitualmente funcionan ya a 1Gbps. El avance en la electrónica de red sobre la que se sustentan las comunicaciones, que ha evolucionado desde el cable coaxial inicial pasando por par trenzado y los hubs (medio compartido) a los actuales conmutadores en los que ya no se pueden producir colisiones hace que definitivamente las ventajas de Token Ring ya no existen y por tanto podemos considerar que ésta opción queda para el recuerdo y la nostalgia de los pioneros de las redes locales.

Conclusiones:

Los factores que determinan la adopción de una opción tecnológica frente a otra no siempre son criterios tecnológicos sino que existen multitud de factores externos a tener en cuenta.

En el caso que nos ocupa de la controversia entre Token Ring y Ethernet se ve claramente que Ethernet preponderó siendo técnicamente inferior y partiendo desde una posición en principio más débil pues Token Ring fue desarrollada antes, estaba muy extendida y era de IBM que en ese momento prácticamente tenía el monopolio en el sector de las TIC.

Sin embargo, a pesar de lo anterior, Ethernet tenía como ventajas que era más económica, sencilla y abierta. Para la mayoría de los grupos sociales relevantes y su modo de percibir la tecnología de redes locales, simplemente Ethernet era suficientemente buena.

La relación entre las prestaciones ofrecidas y el coste, tanto económico como en tiempo necesario para desplegar la red, inclinaron la balanza en contra de Token Ring. La conclusión es que Ethernet era una solución que sencillamente funcionaba de forma adecuada para la mayoría de actores que intervienen en la adopción de un tipo u otro de red. Con todas las ventajas que ofrecía Ethernet (coste, estándar abierto, facilidad…) en la vertiente técnica de rendimiento y fiabilidad se limitaba a cumplir unas mínimas expectativas y “ser el mejor” en este aspecto no era, en la mayoría de los casos. lo más determinante.

Actualmente, existiendo otras tecnologías económicas y con mejores prestaciones, el caso sigue siendo el mismo y aunque vayan apareciendo innovaciones en este ámbito como las redes inalámbricas (WiFi), el protocolo de comunicaciones que mayoritariamente se utiliza aunque cambie el medio físico sigue siendo Ethernet.

Las circunstancias y criterios por los cuales consumidores, empresas, académicos y fabricantes optaron por Ethernet siguen siendo las mismas y aunque vayamos asistiendo a otras opciones de conexión como Bluetooth, etc. no se aprecia un motivo para que se deje de utilizar Ethernet en las redes locales como método de conexión entre dispositivos aunque el estándar puede ir evolucionando e incorporando nuevas funcionalidades o características con el paso de los años.

Se concluye que las estrategias de los fabricantes y el apoyo de las comunidades implicadas fueron las principales causas de “la victoria” de Ethernet sobre Token Ring. Como dicen Von Burg y Kenny, ésta no se debió a efectos tecnológicos sino a los efectos de la comunidad y en el apartado de discusión de este ensayo ha quedado debidamente argumentado utilizando el método de análisis SCOT.

Referencias:

U. Von Burg; M. Kenny (2003) Sponsors, Communities and Standars: Ethernet vs. Token Ring in the Local Area Networking Business. Industry and Innovation, Volume 10, Number 4, pág. 351–375. DOI:10.1080/1366271032000163621

(2005, 11). Ethernet vs. Token Ring. StudyMode.com. Retrieved 11, 2005, from http://www.studymode.com/essays/Ethernet-Vs-Token-Ring-72053.html

T.Pinch; W. Bijker (1984). “The Social Construction of Facts and Artifacts: Or How the Sociology of Science and the Sociology of Technology Might Benefit Each Other”. En: N. Bijker; T. Hughes; T. Pinch (ed.). The Social Construction of Technological Systems. Cambridge (MA): MIT Press.

 

Posted in Sociedad de la Información y el Conocimiento | Tagged , , , , | Leave a comment

Creatividad digital en la era del remix y la espectacularización

Creatividad digital en la era del remix y la espectacularización

Por Javier CRUZ ZAMBRANO
Universitat Oberta de Catalunya (UOC)
Barcelona, Spain.
javier@cruzzambrano.es

Tutor: Jordi  Alberich  Pascual
Universitat Oberta de Catalunya (UOC)
Barcelona, Spain.
jalberichp@uoc.edu

Resumen

La era digital y la democratización de las herramientas que permiten el acceso y procesado de contenidos de todo tipo como pueden ser textos, imágenes, sonidos, vídeos o creaciones digitales de toda índole nos emplaza en un escenario en que la recombinación y manipulación de productos culturales genera nuevos productos.

En este contexto la discusión sobre el concepto de autoría está sobre la mesa, desde el punto de vista ético y desde el punto de vista legal en cuanto al copyright.

En este working paper se trata sobre estos aspectos de autoría en relación a la creatividad, conceptos que aunque guarden relación no son sinónimos ni antónimos. Se discute sobre qué es un autor y qué es un creador en el universo de la era del remix y de la espectacularización, utilizando como ejemplo la película Avatar dirigida y producida por James Cameron en 2009 por ser paradigmática respecto a estos conceptos.

Palabras clave

Creatividad, Autoría, Remix, Espectacularización

Introducción

Actualmente, gracias a Internet y a los prácticamente insignificantes costes que conlleva conseguir y procesar piezas culturales en soporte digital desde le texto al vídeo y el sonido, está proliferando una cultura del remix y la espectacularización. Este escenario abre el debate sobre la legalidad de utilizar materiales sujetos a copyright como parte de la existencia cultural y la expresión sin el permiso de los propietarios de los derechos .

Sin embargo, a pesar de la importancia de la legalidad, este trabajo se enfoca más al concepto de la creatividad que al de la autoría y discute -o recoge- los elementos y características que pueden hacer que una obra generada a partir de una base que toma prestado del pasado  sea considerada una nueva creación.

En la discusión se hablará sobre cómo los pedazos de obras anteriores (tokens) pueden ser utilizados como colores en la paleta de un pintor y cómo lo importante es a menudo el significado de estos tokens que es lo que les hace necesarios para que la nueva obra resultante del remix o la espectacularización (o la combinación de ambas cosas) resulte significativa .

La película Avatar es sin duda una película singular por sus increíbles efectos especiales, por la tecnología aplicada y por la historia y el mundo imaginario que nos presenta. Prestando un poco de atención, podemos ver que pese a la aparente novedad de la película la misma tiene un alto componente de remix y de espectacularización.

El argumento de Avatar es un remix de “Pocahontas”, “Apocalipsis Now”, “El último mohicano”, “Matrix”, “Parque Jurásico” y otras películas. La recombinación de los argumentos y el espectacular resultado de los efectos digitales hacen que la inmensa mayoría del público no reconozca estas fuentes fácilmente y, hasta reconociéndolas, considere Avatar como obra en sí misma y la valora incluso más que las anteriores.

En este caso, la autoría y los derechos que conlleva pueden estar en discusión, pero no la creatividad utilizada para hacer esta película. Esto nos sirve como ejemplo para discutir y tratar el tema ampliándolo el alcance al conjunto de las obras de remix y espectacularización.

Discusión

Para empezar la discusión es importante entender bien a qué nos referimos cuando hablamos de autoría, pues este concepto es entendido de diversas maneras según la perspectiva desde la que se aborde. Desde el punto de vista legal, desde el punto de vista ético y desde el punto de vista artístico o cultural podemos definir la autoría en diferentes términos. Normalmente la cultura del remix viene siendo mayoritariamente dominada por creadores amateurs, con un objetivo no comercial pero que eventualmente pueden impedir una oportunidad de negocio al autor original o destruir su reputación . Es importante, entonces, el respeto a los derechos cuando estas circunstancias concurren.

Cuando las obras resultantes son sustancialmente transformativas y se utiliza “lo viejo en lo nuevo” es como utilizar mediante citas las palabras de otros para establecer un punto que los otros no establecieron directamente . Se hace algo nuevo con lo viejo.

Volviendo al ejemplo de Avatar, se ha recombinado el argumento de distintas historias (películas) reproduciendo escenas prácticamente calcadas aunque recreadas de nuevo (no se trata de un collage sino de una especie de remake) para crear una historia nueva. También la estética y la técnica son nuevas. El concepto de “novedad” es el primero que contribuye a que una obra sea una creación.

Se ha definido la autoría como la selección o generación de media y la organización y disposición en una estructura mayor. Pero además incorpora los conceptos de originalidad, autoridad, intertextualidad y atribución.

La originalidad se refiere a la inventiva del creador y finalmente a la novedad de la obra sobre la que ya se ha hablado. En cuanto a la autoridad, ésta se refiere al reconocimiento del autor como experto o bien a su influencia para producir cambios. Esta película aúna ambas cosas pues si director y productor es respetado e influyente, y la repercusión de la película fue enorme. El efecto de la obra sobre los espectadores llegó incluso a conducir a algunos a la depresión y el suicidio

El tercer concepto de intertextualidad es evidente en el caso de la película y no resta valor a la creatividad, pues en toda autoría existe una asimilación, digestión y transformación de material que un autor o creador ha experimentado en sociedad . James Cameron sin duda ha visto las películas referidas, pues es un hombre de cine, y éstas le han llevado a crear su película, recombinando y transformando, modificando y espectacularizando.

Finalmente, el aspecto de la atribución, el reconocimiento o citación de las fuentes resulta que explícitamente no se reconoce que la película esté basada o se derive de las mencionadas y algunas otras (Alien, Bailando con lobos…)  y, sin embargo, sí se la menciona y reconoce. Seguramente, esto se debe a que esencialmente la película aporta una alta dosis de creatividad a partir de múltiples y muy variados tokens. La gran multiplicidad de fuentes y el ser un producto altamente transformativo de los mismos. La altísima dosis de remix y espectacularización hacen que la reconozcamos como una obra nueva y en esto influye el componente de la creatividad invertida en ella.

Cuando hablamos de la actual cultura del remix hay posicionamientos escépticos con objeciones éticas sobre el uso de fragmentos o ideas ajenas. Sin embargo, estas objeciones no existen cuando hablamos de escritos, en los que las citaciones son de lo más aceptado. Cunado hablamos de música o vídeos parece que la actitud es diferente. Estableciendo un paralelismo, la diferencia inicial era que escribir es una cuestión democrática al alcance de todo el mundo, mientras que la producción musical y las películas eran una cosa profesional. ¿Pero qué sucede cuando esto deja de ser así?  Hoy en día el producir digitalmente desde el ordenador doméstico una pieza sonora, de vídeo o multimedia está al alcance de la gran mayoría (al menos en el mundo occidental) y por lo tanto se ha democratizado también.

Otras consideraciones a desarrollar (fuera del objetivo de este working paper) serían la consideración de la obra en un entorno monetario (el valor financiero, en este caso la altísima recaudación de taquilla) y en una economía del reconocimiento (se trata a la vez de una película altamente reconocida por parte del público y la crítica).

Conclusiones

-    El remix y espectacularización son asuntos delicados desde el punto de vista legal y de derechos de autor. ¿Hasta dónde deberían las leyes y normas permitir o tolerar el uso sin autorización de fragmentos para la creación de nuevos productos u obras artísticas o culturales.

-    La autoría es, en términos más amplios, un concepto definido por diversos conceptos enumerados en el working paper, muchas obras resultado del remix y la espectacularización (como el ejemplo utilizado) implican una nueva autoría.

-    Autoría y creatividad no son el mismo concepto, pero el valor de una obra puede basarse más en la creatividad que implica o demuestra que en la autoría original.

-    La generación íntegra de la totalidad de los componentes de una obra pueden ser motivo de aprecio, pero superado el romanticismo de la visión clásica del autor, puede ser un asunto sobrevalorado. El uso de tokens como “pintura en una paleta” no resta valor a la obra.

Referencias:

Alberich Pascual, J., & San Cornelio Esquerdo, G. (2011). M2 | Representació i simulació. CULTURA AUDIOVISUAL DIGITAL (pp. 1-29). Barcelona.
Diakopoulos, N., Luther, K., Medynskiy, Y. (Eugene), & Essa, I. (2007). The evolution of authorship in a remix society. Proceedings of the 18th conference on Hypertext and hypermedia – HT  ’07 (p. 133). New York, New York, USA: ACM Press. doi:10.1145/1286240.1286272
EFE. (2010). “Avatar” provoca depresiones y pensamientos suicidas. Público.es. Retrieved June 1, 2012, from http://www.publico.es/televisionygente/284756/avatar-provoca-depresiones-y-pensamientos-suicidas
Lessig, L., & B L. (2008). Remix. Making Art and Commerce Thrive in the Hybrid Economy. The Penguin Press. Retrieved May 20, 2012, from https://cctp-623-remix.wikis.gdc.georgetown.edu/file/view/Lessig-RW+Revived.pdf
O’Brien, D., & Fitzgerald, B. (2006). Mashups, remixes and copyright law. Internet Law Bulletin, 9, 17-19. Retrieved from http://eprints.qut.edu.au/4239

Posted in Sociedad de la Información y el Conocimiento | Leave a comment

El imperialismo mediático globalizado frente a la soberanía cultura

El imperialismo mediático globalizado frente a la soberanía cultural

Por Javier CRUZ ZAMBRANO
Universitat Oberta de Catalunya (UOC)
Barcelona, Spain.
javier@cruzzambrano.es

Tutor: Jordi  Alberich  Pascual
Universitat Oberta de Catalunya (UOC)
Barcelona, Spain.
jalberichp@uoc.edu

Resumen:

La globalización de los medios de comunicación y la geometría asimétrica de los flujos de información a este nivel, en el que la mayoría de los medios y canales de distribución están en manos de una pocas corporaciones pertenecientes a unos pocos países ha venido generando un intenso debate sobre la soberanía cultural en cuanto a si esta globalización de los medios es el instrumento de un nuevo imperialismo cultural.

La cultura y la identidad se construyen a partir de símbolos y las películas, la televisión, la radio y resto de medios transportan los símbolos desde lo local a lo global. Se produce una globalización de los símbolos que afectan sin duda a estos aspectos.

Sin embargo, existen razonamientos y escuelas que defienden que lo que se produce más que una invasión cultural es una hibridación, puesto que la forma en que se asumen los contenidos no es global y dependen  de factores como la raza, el género, el idioma, la clase social, etc.

Otro punto de vista defiende que el imperialismo cultural se vehicula a través de estos medios de masas para diseminar la cultura consumista y capitalista, Disneyficando y Coca-Colonizando el planeta .

Palabras clave:

Medios de comunicación, imperialismo cultural, soberanía cultural

Introducción:

Una aproximación simple a la cuestión de la globalización de los medios de comunicación y el hecho de que los Estados Unidos y su potente industria mediática inunden el mundo con sus productos gracias a ella nos conduce fácilmente a concluir que, a través de estos medios de masas, se está produciendo una invasión cultural en virtud de la cual la culturas tradicionales pueden acabar destruidas por la intrusión de valores foráneos.

Si bien es cierto que los símbolos, diseminados a través de estos medios, contribuyen a la construcción de la identidad y de la cultura, también es cierto que la incorporación de estos símbolos no parece estar teniendo un efecto de sustitución sino que se está observando un efecto de hibridación. Se mezcla la cultura local con lo global.

En este sentido, la soberanía cultural parece depender de la soberanía sobre la infraestructura y los flujos de información . Aunque sea cierto que la mayoría de los medios globales de comunicación de masas están concentrados en unas pocas corporaciones, también es cierto que estas corporaciones no son todas norteamericanas e incluso empresas de Hollywood están controladas por empresas japonesas (como es Sony Corp.)

En este working paper se abordan estas cuestiones y se discute sobre el impacto que realmente tiene sobre la identidad y sobre la soberanía cultural, la exposición a estos medios de masas globalizados.

Discusión:

A partir de la afirmación de que la globalización fue creada por las fuerzas sociales dominantes en el mundo actual para servir sus intereses específicos y que se bautizaron a sí mismos como “la comunidad internacional”  se deduce que la globalización de los medios de masas es también un instrumento para servir los intereses de estas fuerzas sociales.

Mediante estos medios de comunicación se produce una globalización cultural, que se puede definir como la emergencia de un conjunto específico de valores y creencias que son ampliamente compartidos alrededor del planeta .

Desde el punto de vista de la Escuela de Frankfurt, esta globalización cultural conduce a la homogenización de la cultura a través de los medios y al imperialismo cultural.  Pero además de esta homogenización, hay una tendencia a la sincronización, a la integración, a la unidad y al universalismo y, todo lo contrario, a la localización, heterogeneidad, diferenciación, diversidad y el particularismo en detrimento del desarrollo.

¿Cómo se explica esto? La explicación radica en el proceso localizado de apropiación que hace que los productos mediáticos sean incorporados a conjuntos de prácticas que les dan forma y alteran su significado  dado que en el planeta nos encontramos con distintas aperturas ontológicas al identificar, negociar, construir y defender lo “propio” y lo “ajeno” . Estas esferas ontológicas no compiten por una “razón” universal sino por una “verdad” universal.

Esta apropiación localizada de los productos mediáticos globalizados es una fuente de tensión y de conflicto potencial  pues los medios de masas juegan un papel clave en cómo vemos los acontecimientos a lo largo del mundo, desarrollando sistemas de significado compartidos, pero los receptores tienen un papel activo a para interpretar, negociar, resistir o subvertir los significados polisémicos de estos medios de masas .

En muchos casos nos encontramos ante una acentuación de la distancia simbólica de los contextos espacio-temporales de la vida cotidiana , esa distancia puede servir para evadirse, para abrirse a otras realidades. Pero aunque la iconografía y el discurso de los medios de masas tengan un alcance global, las audiencias son más activas y críticas y sus valores culturales son más resistentes a la manipulación de lo que algunos teóricos de los medios asumían.

La neo-colonización a través de los medios resulta que está teniendo un efecto más económico que político y más ideológico que militar.  El  pretendido imperialismo cultural es más una Coca-colonización, una Disneyficación  que una estandarización pues la postura de la audiencia está influenciada por factores culturales como el género, la raza y la edad y no sólo por la clase social y la posición económica.

Resulta que aunque el alcance de los productos mediáticos sea global, el receptor prefiere normalmente consumir productos de origen local, más afines a su idiosincrasia. Lo que parece estar ocurriendo, viendo el trabajo de diversos autores, es que el consumidor sigue aferrado a lo que siente como culturalmente propio pero se va viendo influenciado por los inputs ajenos a su cultura, no es inmune a ellos. Estos inputs ajenos son incorporados, de una forma localizada y desigual, a la cultura local produciendo una hibridación. A su vez, la cultura local se ve globalizada. La globalización conlleva diversidad, cambios, alternativas y evolución en función de los flujos.

Un mismo producto no es consumido de la misma manera en diferentes ámbitos o esferas pues, por ejemplo, lo que puede resultar divertido en un sitio puede ser ofensivo en otro o simplemente indiferente. El significado de un mismo mensaje puede ser interpretado (hermenéutica) de distintas formas en distintas regiones geolinguísticas. Así pues no hay una correlación necesaria entre el consumo de medios y un efecto ideológico.
A pesar de que el flujo de informaciones y productos tiene una geometría bastante asimétrica debido al control de los medios de masas globalizados, y que estos sean agentes de la diseminación de símbolos e iconos que afectan a la identidad y la cultura de los receptores, estos siguen bastante aferrados a sus culturas locales. Como el objetivo de los medios de masas es un objetivo primordialmente económico, éstos adaptan consciente o inconscientemente su mensaje, su formato, su producto al consumidor. Por lo tanto lo local transforma lo global.

No podemos, al final, hablar de un imperialismo cultural a través de los medios de masas, pero sí que se ha perdido la soberanía cultural al perderse el monopolio por parte de las sociedades estrictamente locales o asociadas al estado-nación sobre las infraestructuras y los flujos de información

El colonizador que pretendidamente está ejerciendo un imperialismo cultural está siendo a su vez colonizado culturalmente, por ejemplo a través del manga (comics japoneses) o la compra de algunas de sus empresas productoras de medios (Sony Corp.).  A su vez, para que los productos sean transportables a otros países éstos se tienen que adaptar y acomodar, perdiendo en parte su localidad. Además, el hecho de que un producto sea adecuado en una cierta cultura no significa necesariamente que sea apreciado, consumido o que pueda ejercer influencia sobre el receptor. Tampoco el efecto o influencia será de la misma intensidad ni en el mismo sentido en función de cada realidad local. Se trata del advenimiento de una cultura hibridizada y glocalizada.

Conclusiones:

•    La globalización de los medios tiene un efecto global sobre las cultural locales.

•    La apropiación de los contenidos depende del receptor, que no es pasivo y está condicionado por su realidad cultural. En función de ella interpreta, asimila e incorpora de distinta manera los símbolos.

•    A pesar de la geometría asimétrica de los flujos de información mediante los medios de masas, el mensaje transmitido se adapta a la cultura globalizada por lo que no podemos estrictamente hablar de un imperialismo cultural.

•    Sin embargo, la ubicuidad de los medios de masas y su alcance global han arrebatado a los grupos sociales (políticos, religiosos, filosóficos, artísticos) vinculados a los estados-nación el monopolio y el control de los símbolos y los mensajes que recibe la población. Desde este punto de vista se ha perdido la soberanía cultural.

•    El efecto de la pérdida de soberanía cultural y la diseminación global de mensajes a través de los medios de masas no están eliminado ni sustituyendo las cultural locales. Se produce un efecto de hibridación.

Referencias:

Castells, M. (2009). Comunicación y poder (p. 680). Alianza Editorial.

Castells, M. A. A., & Muñoz De Bustillo, F. T. A. (2006). La sociedad red: una visión global. (N. Alianza, Ed.) (p. 560). 07/2006.

Kaul V. (2011) Globalisation and Media. J Mass Communicat Journalism 1:105. doi:10.4172/2165-7912.1000105 Online

Movius, L. (2010) ‘Cultural Globalisation and Challenges to Traditional Communication Theories’, PLATFORM: Journal of Media and Communication 2(1) (January): 6-18. ISSN: 1836-5132 Online

Thompson, J. B. (1998), Los media y la Modernidad (p. 357). Paidós.

Volkmer I. (1997) Universalism and particularism: the problem of cultural sovereignty and global information flow (Cambridge: The MIT Press)

Posted in Sociedad de la Información y el Conocimiento | Tagged , , , | Leave a comment

Los Efectos del Teletrabajo

LOS EFECTOS DEL TELETRABAJO

Por Javier CRUZ ZAMBRANO
Universitat Oberta de Catalunya (UOC)
Barcelona, Spain.
javier@cruzzambrano.es

Tutor: Joan Antoni  Alujas  Ruiz
jalujas@uoc.edu

Resumen

El teletrabajo ha aparecido en las últimas décadas como una forma alternativa de desarrollar las tareas y un número creciente de trabajadores se encuentra en esta modalidad.

Las circunstancias especiales del teletrabajo afectan en distintas vertientes tanto a las organizaciones, que tienen que adaptar su organización, como a los trabajadores que ya no desarrollan su trabajo en las instalaciones del empleador sino en su casa, en itinerancia o en locales satélite.

Este documento aborda la cuestión desde ambos puntos de vista y se centra en aspectos como los efectos psicosociales, la familia, la productividad y otros factores implicados.

Palabras clave:

Empleo, flexibilidad, teletrabajo

Introducción:

Desde sus inicios y a medida que la infostructura  (Infraestructura de las Tecnologías de la Información)  se ha hecho más accesible desde el punto de vista económico y de usabilidad, se ha venido observando una creciente implantación de la modalidad laboral del teletrabajo.

Esta modalidad de trabajo se refiere a toda aquella forma de trabajo en la cual, utilizando medios telemáticos y tecnologías de la Información en diversas variantes, el trabajador desarrolla su trabajo y se comunica con el empleador, compañeros, proveedores y clientes de forma remota, bien sea desde su hogar, mientras viaja, realiza una ruta o desde centros de trabajo satélite. En la literatura al respecto se dan muchas otras definiciones poniendo condiciones a lo que se puede considerar teletrabajo y lo que no, pero básicamente es lo anteriormente descrito.

El hecho de que el trabajador no esté presente (la totalidad o una parte de su jornada laboral) físicamente en el puesto de trabajo tradicional, en la oficina, el despacho, la fábrica, etc. hace que las relaciones sociales en el entorno laboral cambien drásticamente. También cambia la presencia en la familia y la organización del trabajo y tiene además efectos psicosociales notables.

Discusión:
Para organizar el trabajo, empezaremos viendo cómo el teletrabajo afecta al trabajador, que deja de estar en el centro de trabajo tradicional y ejecuta su labor de forma aislada, en su hogar y manteniendo una relación telemática con su entorno laboral.

Desde el punto de vista de riesgos psicosociales, las consecuencias observadas del teletrabajo pueden derivarse de la falta de ergonomía en el puesto de trabajo en el hogar y la sensación de aislamiento (falta de apoyo social de tipo emocional) . Además, la legislación laboral (como suele pasar) va con retraso para contemplar estas modalidades de trabajo y el trabajador queda desprotegido ante situaciones de accidente laboral en su hogar, etc.

También nos encontramos con otros efectos no deseables del teletrabajo como son una disminución del sentido de pertenencia a la organización (menor implicación) así como en las aspiraciones de progresión en la carrera profesional.

Pero la parte positiva del teletrabajo, y que hace que sea apreciada por el trabajador bien sea por cuenta ajena como autónomo (freelance), es que permite una excelente conciliación entre el trabajo y la vida particular, al tener flexibilidad de horarios y poder estar en el hogar familiar se abre la posibilidad de un mejor cuidado de los hijos, atender asuntos personales, evitar desplazamientos, etc.  Esto reduce bastante el estrés.

El teletrabajo también es una modalidad que intrínsecamente incluye la flexibilidad y la autonomía en la ejecución de las tareas. El teletrabajador es alguien en quien la empresa confía y que debe ser capaz de gestionarse de forma autónoma (trabajador autoprogramable) . Esto le hace sentir apreciado y por lo tanto es positivo para el trabajador. Se observa que los teletrabajadores suelen tener una mayor motivación y rendimiento laboral (hasta un 35% de productividad superior) .

La otra cara de la moneda es que se difumina la frontera entre la vida laboral y la vida privada , pudiendo llegar a situaciones en las que el trabajo fagocita el tiempo del trabajador porque no hay una hora de entrada o una de salida, simplemente hay objetivos, urgencias, etc. Es importante una eficiente gestión del tiempo para evitar estas situaciones (workaholism).

Desde el punto de vista de la empresa, el teletrabajo es una modalidad interesante también, pues bien implantada supone una reducción de costes (y esto es así cada vez más) a la par que conlleva una mayor productividad (como se ha dicho anteriormente) y una flexibilidad y disponibilidad de los trabajadores que en una modalidad de puesto de trabajo tradicional no se logran.

El ahorro de costes proviene de una menor necesidad de espacio en las instalaciones de la empresa, menor gasto en suministros (aire acondicionado, electricidad, agua, mobiliario, etc.) pues estos costes quedan trasladados al trabajador al que normalmente se le costean los costes de las comunicaciones y los equipos informáticos pero no los relacionados con el puesto de trabajo que tenga en su casa y, en caso de costearse, se hace por un coste inferior al que supone un puesto de trabajo clásico.

El teletrabajador, como también se ha dicho anteriormente, suele estar más motivado y mostrar una mayor productividad lo cual reporta beneficios a la empresa que se suman a los ahorros de costes.

Otro factor es que el aislamiento físico del trabajador provoca también una individualización del mismo, lo cual reduce sustancialmente su fuerza de negociación para tratar condiciones laborales. Desde luego, es una traba al asociacionismo de los trabajadores (sindicatos, etc.).

Por la parte negativa, el teletrabajo es un cambio importante en la filosofía de las organizaciones, hasta hace poco y en países como España, muy partidarias del presencialismo. Esta modalidad requiere un cambio de mentalidad y una organización del trabajo basada en objetivos y en la confianza en la capacidad del trabajador de organizar su trabajo.

Requiere también, por parte de la organización empresarial, la puesta en marcha de las infraestructuras necesarias para que el teletrabajo sea eficaz y, a la vez, de una diferente manera de controlar y monitorizar (obtener y conocer la información sobre el trabajo que se está realizando y cómo).

A parte del punto de vista del trabajador y la empresa, hay otras consideraciones a favor del teletrabajo como pueden ser un menor número de desplazamientos debido al trabajo con su consecuente disminución del riesgo de accidentes de tráfico, de contaminación ambiental por el uso de vehículos particulares y atascos. También la menor cantidad de horas no productivas dedicadas a desplazamientos aumentan el tiempo disponible para la familia, que al final repercute positivamente en la sociedad en general y produce mejores futuros trabajadores.

Conclusiones:

-    El teletrabajo es una modalidad que podríamos llamar (con matices) una modalidad Win-Win, en la que tanto la empresa como el trabajador salen beneficiados.

-    El teletrabajo elimina horas perdidas en desplazamientos que revierten, junto con la flexibilidad horaria y el hecho de poder trabajar desde el propio hogar, en una mejor conciliación entre lo laboral y lo privado

-    Otros beneficiados del teletrabajo son la familia y el medioambiente

Referencias:

Carnoy, M. (2001). El Trabajo Flexible en la ERA de la Información (p. 280). Alianza.

Joling, C., & Kraan, K. (2008). Use of technology and working conditions in the European Union. Retrieved from http://scholar.google.com/scholar?hl=en&btnG=Search&q=intitle:Use+of+technology+and+working+conditions+in+the+European+Union#0
Vilaseca, J., Castells, M., Torrent, J., Lladós, J., & Ficapal, P. (2005). El trabajo en la sociedad del conocimiento. (FUOC, Ed.). Barcelona.

Posted in Sociedad de la Información y el Conocimiento | Tagged , , | Leave a comment

El efecto de las TIC en la demanda de ocupación

NOTA: Por limitaciones del editor de entradas, las referencias bibliográficas no aparecen como deberían. Ver bibliografía al final.

Resumen

La irrupción y espectacular difusión de las TIC producen un efecto complejo en la demanda de ocupación (empleo). Hay teorías que pronostican el fin del empleo por culpa de los ordenadores, ya que estos sustituyen al trabajo y al cerebro humano. Sin embargo, un análisis más extenso demuestra que esta afirmación no es correcta desde un punto de vista global y más a largo plazo. Es cierto, en cambio, que se produce un desplazamiento en los empleos, desde el punto de vista del tipo de empleo y también desde el punto de vista geográfico. El mercado laboral ha experimentado el impacto de las TIC de forma notable.

Palabras clave:

TIC, Empleo

Abstract

The irruption and spectacular spread of the ITC produce a complex effect over the labor demand (jobs). Some theories prognosticate the end of jobs due to computers, because they substitute the human work and brain. Nevertheless, a more extensive analysis demonstrates that this affirmation is not correct from a more global and long-term point of view. But this is true that a job shift happens, from a point of view of jobs and also from the geographical point of view. The labor market has experimented the ITC’s impact in a remarkable way.

Keywords:

ITC, Jobs

Introducción:

Sin lugar a dudas, la irrupción de las Tecnologías de la Información y las Comunicaciones (TIC) en nuestra sociedad postindustrial ha supuesto el advenimiento de un nuevo paradigma también en lo laboral. La rápida difusión de las TIC y el binomio indisoluble que forma con la globalización de la economía han transformado el mercado laboral de forma indiscutible.

La tendencia global no es que los ordenadores (y las TIC) estén eliminando puestos de trabajo aunque desde un punto de vista a corto plazo y en un entorno concreto así sea. La tendencia es que se generen más puestos de trabajo debido al florecimiento de las TIC, sin bien es cierto que este efecto no se está haciendo patente en la medida de lo esperado.

La causa es más atribuible a la coyuntura macroeconómica y a las políticas estatales que a la implantación de las TIC, de las que lo esperado es un círculo virtuoso que favorece el empleo, como se explicará más adelante.

El efecto más visible de las TIC en el mercado laboral es que se produce un incremento en la demanda de trabajadores cualificados mientras que se disminuye la demanda de trabajo manual o poco cualificado. Este trabajo, el trabajo industrial, se está desplazando a otras zonas o países donde abunda la mano de obra poco cualificada y con salarios más bajos.

Se está creando, poco a poco, pero de manera implacable, una brecha salarial y en la cantidad de trabajos disponibles en los países de la OCDE en función de la cualificación de la fuerza laboral. En este sentido, no es positivo para un país como España donde la mano de obra es mayoritariamente poco cualificada.

Discusión :

La Sociedad del Conocimiento, el informacionalismo, está sustituyendo al industrialismo. Esta Sociedad del Conocimiento se basa en una economía que depende mayoritariamente de Información y de cómo ésta se procesa. Estamos ante el auge del homo informaticus frente al homo aeconomicus. En este contexto, se requiere del trabajador que sea autoprogramable (Castells, 2006).

Las TIC impulsan una economía en la que se necesitan trabajadores autónomos y preparados, que sean capaces de programar y decidir secuencias completas de trabajo (Castells, 1999)…Continúa…

Posted in Sociedad de la Información y el Conocimiento | Tagged , , , | Leave a comment

Las noticias de verdad son malas noticias

NOTA: Por limitaciones del editor de entradas, las referencias bibliográficas no aparecen como deberían. Ver bibliografía al final.

El final de Muamar el Gadafi es un ejemplo reciente de esto. La revolución popular que se produjo en Libia, a raíz de la que se ha venido denominando “la Primavera Árabe”, fue tomada inicialmente con cautela por parte de los líderes occidentales, presos muchos ellos de su connivencia con este coronel debido a los intereses petrolíferos. Una vez que la opinión popular y la situación se decantó por el final de la tiranía de Muamar el Gadafi por fin se empezó a intervenir, aunque de forma tibia.

Experiencias anteriores, como fue la Guerra de golfo, que acabó con la ejecución de Sadam Hussein, dictador de Iraq, levantó la expectación de la búsqueda, caza y muerte de Gadafi. Este es prácticamente un guion de película de “buenos y malos”.

La historia duró meses, manteniéndose la intriga y acabó de una forma igualmente “peliculera”. Mientras tanto, se escribieron muchísimas páginas de información, opinión y debate. Lo mismo pasó en televisión y en todos los medios. La audiencia, o el público, siguió con interés y consumió las noticias con asiduidad.

McLuhan afirma que “Los anuncios son noticias. Lo que pasa es que siempre son buenas noticias. Para contrarrestar el efecto y vender las buenas noticias, hacen falta muchas malas noticias. Además, el periódico es un medio caliente. Tiene que tener malas noticias para la participación del lector y su propia intensidad. Por tanto, desde los inicios de la imprenta, las noticias de verdad son malas noticias”

Discusión:

Como se ha comentado en la introducción, la cobertura de la revolución Libia, con los combates, la huida del “villano” Gadafi, su búsqueda y finalmente “el abatimiento de la pieza” en circunstancias un tanto escabrosas, se orientó desde el principio como si de una película de “buenos y malos” se tratara.

Los medios, desde su inicio, no se limitaron sólo a narrar las noticias, sino que incluso se han fabricado. Se les da un tratamiento en función de lo que interesa hacer con ellas e incluso “se fabrican”.

No hay que obviar que los medios de comunicación tienen algunos objetivos que no son meramente el informar. Detrás hay intereses relacionados con el poder y, por supuesto, económicos. Así pues, interesa ganar dinero con la publicidad. Los anuncios traen dinero y los medios, mientras más difusión tienen y más audiencia atraen, más interesantes resultan para los anunciantes.

Como afirma McLuhan, los anuncios son buenas noticias, pero para que su efecto sea mayor, para que consigan penetrar, tienen que estar compensados por malas noticias. Es también obvio que lo interesante es que las malas noticias lo sean para “otro”.

(…)

Los anuncios siempre transmiten mensajes y promesas de felicidad, cualquier problema de la índole que sea, tiene una solución fácil, que es comprar el producto anunciado. Son mensajes que transmiten expectativas de satisfacción. Sin embargo, nadie compraría o pasaría su tiempo ante sólo anuncios. Es por ello que se necesitan noticias de verdad, que son “las malas noticias”.

Continúa…

Posted in Sociedad de la Información y el Conocimiento | Tagged , , , | Leave a comment

Las TIC no sustituirán a los trabajadores ni se reducirá la demanda de trabajo

NOTA: Por limitaciones del editor de entradas, las referencias bibliográficas no aparecen como deberían. Ver bibliografía al final.

Resumen

Algunos autores han afirmado que las nuevas tecnologías tienen un impacto negativo respecto a la cantidad de empleos disponibles y también que estos trabajos tendrán un menor salario. El argumento principal es que igual que las máquinas reemplazaron el trabajo físico humano, las TIC van a reemplazar el cerebro humano. Por lo tanto, con menos personas se hará el mismo trabajo. Esto supone menos empleos disponibles.

En este texto, soportado con algunas referencias, vamos a demostrar que esto no es verdad y que, de hecho, otros factores determinarán la cantidad de empleos.

Palabras clave:

TIC, mercado laboral. Empleo, adopción tecnológica

Abstract

Some authors have claimed that the new technologies have a negative impact regarding the number of available jobs and also that these jobs will have lower salaries. The main argument is that as the machines replaced the physical human work, CTI are going to replace human brain. So with less persons, the same work is going to be done. This will suppose less available jobs.

In this text, held with some references, we are going to demonstrate that this is not true and, in fact, that other factors will determine the number of employments.

Keywords:

CTI, labor market, jobs, technology adoption

Introducción:

Desde los primeros años 70 hasta la actualidad, la adopción por parte de las empresas de las tecnologías de la información y de las comunicaciones han experimentado un auge espectacular, particularmente en los países desarrollados, que han sido punta de lanza y motores de este cambio de paradigma.

Se ha convenido en llamar este fenómeno como el paradigma informacional, asociado con una era postindustrial en la que la producción material ha pasado a un segundo plano.

El argumento más populista y extendido es que igual que la maquinaria industrial supuso una menor necesidad de trabajo humano para la producción industrial, las TIC van a suponer una menor necesidad de personal para realizar las tareas de gestión y de servicio que absorbieron la mano de obra desplazada por la mecanización del trabajo, provocando una falta de empleos disponibles catastrófica.

Sin embargo, los datos empíricos demuestran que este argumento es una falacia ya que en países como los EE.UU. O en la zona asiática, donde la adopción de las nuevas tecnologías ha sido más pronunciada y temprana, el crecimiento del empleo ha sido vertiginoso hasta que se ha producido alguna circunstancia que lo ha truncado. Estas circunstancias han sido, actualizando los datos aportados por M. Carnoy, las crisis financieras de 1997 en Asia y más recientemente la actual crisis que dura desde 2008.

En esta ocasión, sin embargo, los países con mayor productividad están superando mejor el bache y esta productividad está directamente relacionada con la intensidad tecnológica de estas sociedades. Los famosos países PIGS (Portugal, Irlanda, Grecia y E(S)paña) son los de la cola en la lista de inversión en TIC de entre los países de la OCDE y son los que están sufriendo unas mayores tasas de desempleo. En oposición a esta situación, los países más industrializados y tecnológicamente avanzados han salido mucho mejor parados. Estos países encabezan esta lista y son, por ejemplo, EE.UU, Francia, Alemania, Japón…

El argumento en contra de la adopción tecnológica por su efecto de destrucción del empleo, se basa principalmente en una visión parcial, a corto plazo y geográficamente delimitada. Discutiremos más adelante este razonamiento.

Discusión :

Si únicamente nos fijamos en un determinado puesto de trabajo, en una determinada empresa y dentro de un determinado ámbito geopolítico, es cierto que se puede producir un aumento del desempleo a medida que el nivel de implantación de las nuevas tecnologías, y centrándonos en las TIC, aumenta.

Sin embargo, numerosos autores que han abordado este tema, concluyen que lo que en realidad se está produciendo es un desplazamiento en el empleo, este desplazamiento se manifiesta en la forma de variación de la estructura ocupacional en virtud de la cual los trabajos agrícolas e industriales disminuyen mientras que los trabajos ejecutivos, profesionales y técnicos aumentan. Esto a medio y largo plazo supone una mejora relativa de la estructura laboral, un cambio de una economía industrial a una economía de servicios.

(Continúa…)

Posted in Sociedad de la Información y el Conocimiento | Tagged , , , | Leave a comment

¿Cómo está influyendo la comunicación electrónica en las relaciones personales?

30 de Diciembre de 2011

NOTA: Por limitaciones del editor de entradas, las referencias bibliográficas no aparecen como deberían. Ver bibliografía al final.

RESUMEN

La comunicación electrónica vive actualmente un auge espectacular por las indiscutibles ventajas que supone. Se han producido y producen muchos estudios sobre cómo afectan la nuevas tecnologías TIC al medio social y al individuo.

Estos estudios parten a menudo de la preocupación existente sobre el riesgo de aislamiento social que pueden producir debido a que el tiempo que el individuo dedica a estas comunicaciones puede ir en detrimento de las relaciones presenciales y también a las características especiales de las comunicaciones mediadas por ordenador, mensajería instantánea, SMS, microblogging (Twitter, etc.), y demás medios basados en la tecnología que hoy en día se encuentran al alcance de (casi) todo el mundo y en (casi) cualquier lugar. Los estudios que a finales de los años 90 concluían que el riesgo de aislamiento era cierto, en los inicios del siglo XXI concluyen en su mayoría justo lo contrario. La aparición de la Web2.0 ha cambiado el panorama y los servicios más utilizados en Internet resultan ser, precisamente, los de servicios de interacción social.

En este trabajo se abordan también aspectos del individuo participante en las comunicaciones electrónicas desde un punto de vista no tan sociológico sino más psicológico, ya que se dan patologías de tipo adictivo y de comportamiento alrededor del uso de estas comunicaciones y que cabe tener en cuenta. Se discute qué factores de riesgo existen para la aparición de estas patologías y se describen brevemente, para concluir que se trata de casos específicos y ocasionales que no deben generalizarse, como han hecho en ocasiones los tecnófobos para justificar su rechazo a Internet igual que en el pasado sucedió con la aparición del teléfono.

INTRODUCCION: Las relaciones personales se potencian y todo lo contrario

Las relaciones personales mediadas por ordenador han sido objeto de muchos estudios y análisis abordados desde diversos puntos de vista y disciplinas tan diversas como la Sociología, la Etnografía y la Psicología. A raíz de estos estudios han aparecido gran cantidad de conceptos y terminología nueva para definir o re-definir situaciones, procesos o formas de actuar que como se verá más adelante ya se producen en las relaciones cara a cara.

De estos estudios se pueden extraer conclusiones a veces contradictorias respecto a la bondad o perversidad de las comunicaciones electrónicas vistas desde el punto de vista social. Es curioso observar que en función del momento en que fueron realizados dichos estudios las conclusiones tienden a ser distintas cuando no opuestas. Esto tiene mucho que ver con la aparición de la llamada Web 2.0, es decir, con la aparición de Facebook, Twitter, Tuenti, etc. Estos servicios (o productos) han añadido a los servicios ya disponibles en la Red los servicios de interacción social y han tenido una gran acogida entre los usuarios, con un crecimiento continuo y espectacular.

Como fenómeno que es este incremento de las comunicaciones electrónicas, diversas disciplinas han abordado el tema, intentando dilucidar si suponen para la sociabilidad y el individuo una mejora y también discutiendo cómo afectan a la productividad, la formación, el ocio i el negocio. La conclusión más acertada, probablemente, es que en realidad, las relaciones personales en el mundo virtual potencian la dimensión social o, todo lo contrario, la dificultan.

Posted in Sociedad de la Información y el Conocimiento | Tagged , , , , | Leave a comment

Cuidado con La Realidad 2.0

En la sociedad del futuro (y el futuro ya ha empezado), estaremos en la Sociedad de la Información y del Conocimiento.

Esta circunstancia hace que muchas cosas tengan que ser reevaluadas, tras mucho tiempo en una sociedad industrial, basada en otros paradigmas.

Uno de los conceptos que cabe tomar en consideración es “la realidad “. La realidad es una, y sin embargo, es vista de forma distinta según el observador. La verdad no deja de ser un consenso sobre lo que mejor describe la realidad.

En la vida los sucesos, los eventos, suceden y quedan en el pasado de forma más o menos rápida. En el contexto actual, cualquier evento relevante perdura en la Web. La descripción de la realidad que en la Web sea mayoritaria pasará automáticamente a ser considerada la verdad. El contenido en la Web será el nuevo dogma, la Verdad 2.0.

Por otro lado, procede considerar que las decisiones que tomamos se fundamentan en la información que recibimos. Entonces, si esa información viene de la Red y es manipulada nuestras decisiones también lo son.

La información que hay en la Red, la relevancia de la misma, en cuanto a cantidad de entradas y orden de aparición en las búsquedas, es fácilmente manipulable si se dispone de los medios para ello.

Así pués, la conciencia de la realidad, a nivel mundial, mediante la manipulación de la información en la Red, es manipulable por parte del quien controla esta Red (gobiernos, grandes corporaciones, etc.).

Informar es comunicar, compartir un conocimiento, una descripción de la realidad. La información cambia nuestra percepción del mundo, tanto como la falta de ella.

Sabemos que la red puede ser inundada de información interesada y “limpiada” de información inconveniente. La red puede ser (puede que esté siendo) manipulada. ¿Qué motivos hay para pensar que el “stablishment” no va a utilizar este recurso para dirigirnos, para perdurar en el poder?

Si la percepción de la realidad es cambiada de forma intesada, controlando la información que nos llega, entonces cambia nuestra “verdad”. Si esto sucede la Sociedad de la Información no será la Sociedad del Conocimiento, sinó del Engaño y la Manipulación.

Dicho lo anterior, de ninguna manera pongo en cuestión el nuevo modelo social. Mi reflexión es sobre la creciente necesidad una visión más crítica y escéptica, una duda generalizada sobre la supuesta verdad ( sobre todo en la Web, la Verdad 2.0).

La Sociedad de la Información y el Conocimiento, desde su vertiente científica y académica, desde el punto de vista participativo y colaborativo, sólo acarrea beneficios a la sociedad. No necesariamente es lo mismo desde el punto de vista político y de condicionamiento de la opinión pública.

Posted in Opinión, Sociedad de la Información y el Conocimiento | Tagged , , , | Leave a comment