18 de diciembre de 2009

Nubarrones sobre la nube

Dos noticias han llamado la atención la misma semana sobre la computación "en la nube":

    Microsoft borra datos de usuarios de Sidekick

    Este fin de semana, Danger, empresa adquirida por Microsoft el año pasado, alertó a los usuarios de este móvil que datos como contactos, entradas del calendario, reuniones y fotos que eran respaldadas en “la nube” habían desaparecido debido a un problema en la compañía. (FayerWayer, 13-10-2009)



    Falla técnica borra datos de 150 mil usuarios de Facebook

    Cerca de 150 mil usuarios de Facebook, la red social más popular de internet, perdieron datos de sus cuentas, fotos y contactos, después de que el sitio web sufriera problemas técnicos la semana pasada que impidieron el acceso al servicio de estos internautas. La empresa ya descartó que la causa del problema hayan sido ataques piratas. (Terra, 13-10-2009

¿Qué es la nube?



El concepto de "computación en nube" ("Cloud Computing") se aplica a la localización de aplicaciones y datos en servidores accesibles por internet desde cualquier parte del mundo y desde (casi) cualquier computador conectado. Ha nacido, en cierto modo, con los primeros servicios de correo electrónico operando en la web (sin que se conserven los mensajes en el computador de los emisores o receptores). Cuando el servicio fue creciendo, permitió conservador también ahí los archivos anexos y, así, transformarse en una suerte de bodega virtual. La llamada "Web 2.0" y las redes sociales se han desarrollado sobre esta base, obligando a los usuarios a almacenar sus propios contenidos en servidores pertenecientes a las grandes corporaciones de la industria, lo cual no deja de ser riesgoso como lo muestran las noticias antes señaladas.



Pero la "computación en nube" no es solo algo propio de la Web 2.0. Cada día son más las empresas que están recurriendo a grandes proveedores, arrendando espacio en sus servidores e incluso software (pagando solo por el uso del mismo, en vez de comprarlo), de tal modo que sus empleados o sus clientes puedan acceder a ellos desde cualquier lugar y sin necesidad de instalar software en sus equipos, ni de configurarlo, ni de mantenerlo. Otra ventaja es que los servicios o productos pueden trasladarse facilmente de lugar en la red con el fin de evitar interferencias o interrupciones del servicio. Así, las organizaciones adquieren más versatilidad y practicidad, ya que los servicios se obtienen también de un modo más fácil y transparente.



Toodo ello hace que, según Gartner, los ingresos por los servicios de computación en nube en el mundo deben sobrepasar los US$56.000 millones este año (un aumento de un 21% en comparación con 2008).


Las dudas



Las noticias que hemos reproducido apuntan a uno de los problemas de la Nube: el riesgo de pérdida de datos. Que no debería existir si quién provee el servicio hace un trabajo profesional. Desde un primerizo en materia de computación, todos saben que los datos han de ser respaldado, aunque -como hemos visto- ni los particulares ni los profesionales respetan siempre esta primera regla de la informática.



Pero el riesgo de pérdida de datos no es el único, como recalca Stallman, uno de los creadores del sistema de Licencia Pública General (GNU General Public License) y defensor del software libre, ya que los usuarios serán cautivos de las corporaciones que prestan este servicio. Y, en el caso de los servicios gratuitos, pueden, en cualquier momento, cambiar las condiciones de uso y apropiarse de los contenidos, utilizarlos para su propio beneficio o disponer cobros por su mantención. La dificultad para borrar contenidos en el caso de quienes renuncien al servicio -como ya ocurrió en una red social- es otro rasgo de esta nueva esclavitud. "Usar aplicaciones Web es perder el control" dice Stallman. (DeepBlue)



Por lo tanto, es de suma importancia escoger bien el proveedor, evaluar su política de privacidad y de control de riesgos así como evaluar la importancia y confidencialidad de los datos que le confiaremos. Las nubes públicas -como las de la Web 2.0, Google Docs y el futuro Google Wave- son aún un sistema poco claro y jurídicamente complejo (generalmente fuera de toda norma). (Comentario de Mark Howling, Times Online, October 16, 2009). De este modo, cualquier reclamación se ve, por ahora, destinada a ser desatendida.


La guerra en la nube



La Nube pública es también un territorio en disputa. Si bien las redes sociales se han instalado "ahí", son otros los proveedores de servicios que combaten para ocupar el mayor espacio posible: los gigantes como Google y Microsoft. Google cuenta con su enorme registro de contenidos web, base de sus servicio de búsquedas, complementado por el Gmail, los blogs (Blogspot), los Google Docs y, proximamente Google Wave, que promete introducir una nueva forma de comunicarse y trabajar, mezclando mail, mensajería y trabajo cooperativo en tiempo real con "bodega" de datos. Cosa que Microsoft está tratando de emular con Bing, Azure, y el nuevo Office on-line. (Novader, 30-09-2009)



Y no son los únicos: Amazon (especialmente con sus e-books), Yahoo (con mail, mensajería, lector de RSS, etc) e IBM también están en la "pelea". Y es que han visto en la oferta de "virtualización" del almacenamiento un nueva y enorme oportunidad de negocio que podría ser el comienzo de una revolución basada en la consolidación del software como servicio en vez de ser un producto a la venta, junt con la oferta de disponibilidad inmediata de todo lo que pueda digitalizarse. (Guía.com.ve 22/05/2009)


Conclusión



"Más acceso a más cosas" parece ser el lema de hoy en internet. Pero ésto lleva a poner mucha información en manos de terceros. Aunque, en realidad, no es nada nuevo: TODO lo que "viaja" por internet ha estado siempre a la merced de "servidores", donde reside por más o por menos tiempo. Hace tiempo que la transmisión de "paquetes" de punto a punta, sin permanencer en manos de terceros, ha dejado de ser una función importante (aunque permanece aún en los "torrents" y el P2P, con propósitos demasiadas veces ilegales). El mundo de la web es un mundo de contenidos y servicios donde la intermediación (arriendo de espacios y servicios) predomina ampliamente, y la Nube no es más que una ampliación de este concepto, con los mismos riesgos ... también amplificados.


    "Una implementación deficiente y falta de redundancia a la larga no son sino un terrible dolor de cabeza … y la peor pesadilla de las partes involucradas." (G.Festari)

Un buen consejo para los usuarios de la Nube será siempre de contar con un respaldo "local" (en un equipo propio) de lo que colocan en la red.




Referencias


  • "Cloud computing: ¿qué sucede cuando las cosas salen mal?", Techtear, 2009
  • "La computacion en nube dominara al mundo empresarial", Guía.com.ve, 2009
  • "La guerra de la computación en la Nube", Novader, 2009
  • "Stormy times for cloud computing?", Times Online, 12-10-2009
  • "Los peligros de la computacion en nube", DeepBlue, 2009
  • 25 de noviembre de 2009

    Presidenciables 2009 y NTICS

    ¿Qué proponen los candidatos presidenciales chilenos en materia de NTICS?

    1. Introducción

    El 13 de diciembre de 2009 se realizan en Chile las elecciones presidenciales y parlamentarias. Con oportunidad de la campaña electoral, la revista on-line FayerWayer ha solicitado a los candidatos presidenciales publicar en sus páginas sus propuestas en materia de nuevas tecnologías. Tres de los candidatos -los que tienen mayor probabilidades de elección- han respondido y hemos recogido las presentaciones remitidas por ellos para analizarlas aquí y contar con un comparación de sus principales preocupaciones y proyectos. Los mapas conceptuales que hemos obtenido a partir de la metología aplicada ponen en evidencia las principales diferencias y los variados énfasis.

    2. Metodología

    No nos extenderemos aquí sobre los aspectos generales de la teoría del Análisis de Contenido y sus avances históricos desde fines del siglo XIX y más especialmente desde Berelson y Lazarsfeld (1948), con múltiples textos al respecto, como los de Osgood (1957), Holsti (1969), Mucchielli (1974) y Krippendorf (1980) (ver López: 2002 y Marzal y Moreira: 2001). Los procedimientos que hemos utilizados son esencialmente estadísticos y gráficos y nos referiremos más adelante al origen y desarrollo del análisis automático (computacional) al que hemos recurrido.


    2.1. Análisis estadístico

    El análisis estadístico comprende dos partes:
    1. Cálculo de frecuencia de aparición (ocurrencia) de palabras. Este tipo de cálculo se utiliza frecuentemente en análisis de contenido, dado que es comunmente aceptado que la frecuencia de las palabras es una medida del grado de importancia de los conceptos aludidos. Así, el mero recuento de los términos utilizados proporciona información significativa en torno a los conceptos priorizados por los autores. Esto, a su vez, es un elemento necesario (pero no necesariamente suficiente) para la definición del diccionario o código conceptual necesario para la etapa final del análisis matemático.
    2. Cálculo de coocurrencia de conceptos, como medio para acceder a la descripción del sentido del discurso (o del conjunto textual analizado), extrayendo la estructura semántica subyacente. Para ello, se orienta hacia la búsqueda y el análisis de las interrelaciones de los términos significativos y, de este modo, hacia una explicitación precisa y estructurada de los significados centrales del conjunto.

    El análisis de coocurrencia aplicado en el campo del análisis semántico tiene la ventaja de no limitarse a la identificación y suma atomizada de los componentes significativos. Al contrario, le es propio reconocer una importancia fundamental a las relaciones entre dichos componentes, para lo cual considera siempre pares de componentes, midiendo la simultaneidad de su aparición en conjuntos significativos predeterminados. Típicamente, aquí, el conjunto significativo considerado es la oración (definida pragmáticamente como el conjunto de términos que se termina con un punto) y cada par de palabras en el interior de esta unidad gramatical constituye una coocurrencia. Así, si la oración se compone de seis palabras, existirán en ésta quince coocurrencias o pares de palabras.

    Para este análisis se eliminan todas las palabras no significativas (artículos, pronombres, etc.) y se procede a establecer agrupaciones de términos que se consideraron como formas diferentes de representar un mismo concepto (campos conceptuales). Un campo conceptual se entiende «compuesto por unidades léxicas unidas por relaciones de naturaleza diversa en la lengua en uso, ya sea por relación semántica paradigmática, por asociaciones dadas por la cultura o por el conocimiento del mundo». (García: 1990:103). En el presente caso, el software utilizado (Anatex3, ver Colle: 2005) permite definir la cantidad de campos conceptuales que se desee, cada uno a su vez compuesto del número de términos que sea necesario. Esto corresponde a la técnica de los "diccionarios" - como el clásico "Diccionario de Lasswell" y otros - utilizados por múltiples sistemas de análisis computacional del discurso (p.ej. el Minnesota Contextual Content Analysis, cfr. Litkoswski y McTavish:2001).

    Después de analizar el superconjunto, se tendrá información acerca todas las coocurrencias reales, lo cual puede poner en evidencia procesos psicológicos subyacentes a la formulación del discurso, estrechamente vinculados al carácter semántico de la comunicación. Estas interrelaciones, además, al unirse entre sí conforman una red, que -al dibujarse- puede poner en evidencia sub-áreas y términos más importantes por su centralidad o por una función de unión entre sub-áreas. Esta técnica se origina en antiguas hipótesis del conductismo sobre el significado de las palabras, mejoradas luego con los aportes del llamado Modelo de Red Semántica de Collins y Quillian, establecido por dichos autores en 1969, pero corregido posteriormente de diversas maneras (cfr. Harley: 2008).


    2.2. Graficación

    El software Anatex que hemos utilizado proporciona las tablas de coocurrencia (tanto la matriz general como el listado de pares asociados) a partir del diccionario conceptual definido por el investigador pero no es capaz de graficar el mapa que representaría las interrelaciones. Para ello se recurrió a NetDraw, un software especializado de gráfica vectorial (Borgatti:2002).

    Es evidente que si se incluyen en un mapa todos los conceptos de un discurso, el mapa se hará ilegible y dejaremos de cumplir el objetivo de extraer la estructura organizadora y los subcampos semánticos medulares del mismo. Existe por lo tanto la necesidad de proceder por etapas, partiendo por las coocurrencias más frecuentes y construyendo varios grafos, correspondientes a diferentes niveles de frecuencia o bien, a la inversa, graficar toda la red y esconder los vínculos menos frecuentes, proceder que hemos adoptado aquí.

    3. Etapas de análisis y resultados

    3.1. Términos

    Considerando los tres textos, hemos registrado en total 3008 palabras. El más largo ha sido el de Eduardo Frei (1336 palabras) y el más corto, el de Sebastián Piñera (620), mientras Marco Enríquez-Ominami escribió 1052 palabras. Es evidente que la longitud influye en los resultados, pero no permite ninguna inferencia en relación a los contenidos.

    Seleccionando los términos que aparecieron, en total, 10 o más veces y con exclusión de artículos, preposiciones, pronombres -salvo excepción- y algunos adverbios, podemos observar ya algunas diferencias entre los tres discursos:

    Tabla 1. Palabras más frecuentes

    FreiEnríquezPiñeraTotal
    digital185831
    más87722
    desarrollo150621
    gobierno101718
    Chile061016
    nos211316
    todos43815
    Estado130114
    Servicios120214
    nuestro55313
    acceso66012
    país62412
    información25411
    electrónico100010
    iniciativas91010
    tecnológica70310

    Las altas frecuencias de los términos usados por Frei son evidentemente el producto de la extensión (mayor) de su exposición. Pero es, incontestablemente, el que más énfasis a puesto en el rol del Estado. Es interesante ver que Enríquez-Ominami a penas utiliza la palabra "gobierno" cuando de lo que se trataba era justamente de explicar lo haría durante su gobierno, aunque ello podría entenderse mitigado por el uso del pronombre "nos", que lo hace mucho más personalista (¿o más individualista?). Es también quién menos ha utilizado los término "digital" y "tecnológica". Pero antes de sacar conclusiones es necesario reagrupar los términos en los correspondientes campos conceptuales por cuanto puede haber múltiples variaciones de los mismos y otros términos con un significado equivalente.


    3.2. Campos conceptuales

    En análisis semántico nos llevó a definir 61 campos conceptuales. Frei abordó 53 campos (8 no abordados), Enríquez-Ominami 51 (10 no abordados) y Piñera 39 (22 no abordados). Si bien la frecuencia de las palabras dependía de la extensión del texto, no puede considerarse que lo mismo ocurre con los campos conceptuales: los temas se tratan o no se tratan, sea con pocas o muchas palabras. Las presencias y las ausencias, por lo tanto, pueden tener importancia. Las comentaremos a la vista de los mapas de interrelaciones.

    La siguiente tabla muestra una comparación de los campos conceptuales abordados por los tres candidatos (limitada a los más frecuentes).

    Tabla 2. Campos conceptuales más frecuentes




    FreiEnríquezPiñeraTotal
    nosotros8182248
    digital2010636
    tecnología1811231
    Chile614828
    desarrollo169126
    gobierno107118
    electrónico160319
    industria106117
    acceso86115
    servicios130215
    educación93214
    estado131014
    poder45514
    sociedad16714
    banda ancha48113
    deber121013
    uso102113
    información24612
    proyecto81211
    promover91010



    3.3. Mapas conceptuales

    La mejor forma de comparar la forma en que cada concepto ha sido abordado es considerando la forma en que se relacionan, es decir construyendo el mapa de sus interrelaciones.


    3.3.1. Frei

    En el mapa semántico, los pares de conceptos asociados menos de 3 veces aparecen en el margen y son 29. A la derecha están los asociados 3 o más veces. El grosor de las líneas es proporcional a la frecuencia de asociación. Las asociaciones más potentes son "desarrollo-digital-Chile" y "cambio-electrónico". También se destacan "Chile-industria" y "Chile-tecnología".



    El concepto más central es "desarrollo", a pesar de ser solamente el tercero en frecuencia, gracias a sus conexiones numerosos otros campos (no todas visibles el mapa, ya que las frecuencias bajas no se graficaron). "Chile" tiene también un lugar central, a pesar de una frecuencia bastante baja. Esta diferencia entre la frecuencia individual y la centralidad en el mapa es de suma importancia para la interpretación del pensamiento del autor. Podemos deducir aquí que el desarrollo digital de Chile es la preocupación central y que se ve o ha de ser apoyada en o por la industria y la tecnología. Hay un "deber del Estado" en ésto, relación que podemos encontrar reforzada, aunque no visible en este mapa, con el vínculo establecido entre "deber" y "Chile" y entre "deber" y "gobierno" (con frecuencias inferiores a las trazadas). Pero en ningún momento se señala que los ciudadanos tienen derecho a ello (este concepto no aparece en el texto de Frei).


    3.3.2. Enríquez-Ominami

    El mapa semántico enlaza los conceptos asociados 2 o más veces. Los pares de conceptos asociados más de dos veces son solamente acceso-Internet, tecnología-digital, desarrollo-Chile y nosotros-conectividad. Los asociados 2 veces están unidos por las líneas más delgadas. Son 27 los que se vinculan solamente una vez con algún otro.



    Observamos aquí dos conceptos centrales: "Chile" y "acceso". Las asociaciones más potentes son "desarrollo-Chile", "tecnología-digital" y "acceso-Internet". De ello podemos deducir que las preocupaciones principales de Enríquez-Ominami, aquí, son el desarrollo de Chile y el acceso a Internet, siendo también importante para él la conectividad (vinculada a "nosotros"). El concepto de modernización no está presente.

      El campo conceptual "e-algo" remite a términos como e-ciudadanía, e-salud, e-learning y e-agricultura, que se encuentran (los 4) en el texto de este candidato, que fue el único en incluirlo.


    3.3.3. Piñera

    El mapa semántico enlaza los conceptos asociados 2 o más veces. Los pares de conceptos asociados más de dos veces son "Chile" y "nosotros" (que es el más frecuente). Son 23 los que se vinculan solamente una vez con algún otro.



    La fuerte realición "nosotros-cambio" no extrañará a quiénes conocen la campaña ya que Sebastián Piñera es el líder de la "Coalición para el Cambio", que apunta a poner fin a veinte años de gobierno de la "Concertación por la Democracia", cuyo candidato es Eduardo Frei.

    Entre los conceptos abordados por los demás candidatos y definitivamente ignorado por Piñero encontramos "deber", especialmente importante en el discurso de Frei. Tampoco se refiere al "Estado" y una sola vez al "gobierno". Ello puede ser algo preocupante, aunque se puede entender suplido por las numerosas auto-referencias ("nosotros"), que apuntan sin duda a sus proyectos gubernativos.


    3.3.4. Síntesis

    Según los mapas extraídos, los tres candidatos colocan a Chile (o al país, términos que hemos considerado como equivalentes) en el centro de su pensamiento. Pero el término-concepto más frecuente ha resultado ser la auto-referencia ("nosotros"), sin duda producto de la necesidad de diferenciarse en relación a los competidores en la contienda electoral. Piñera y Enríquez-Ominami se asemejan mucho en su frecuencia de uso, mientras Frei lo usa mucho menos.

    "Digital" es, del total, el segundo concepto más importante. A ello podemos agregar que, para Frei y Enríquez-Ominami, el "acceso" -a Internet o a la banda ancha- constituyen otro elemento central, pero para Piñera es apenas mencinado.

    La idea de cambio parece tan relevante para Frei como para Piñera, pero es posible que le den una connotación diferente (Recordemos que Piñera lidera la llamada "Coalición para el Cambio"). La problemática del desarrollo parece menor en el discurso de Piñera que en el de los demás. Y vemos que Frei asocia más directamente el desarrollo con lo digital mientras Enríquez-Ominami lo asocia más estrechamente con el país (desarrollo-Chile).

    Los siguientes gráficos permiten comparar mejor la agrupación de conceptos en torno a los tres más frecuentes ("nosotos", "digital" y "Chile").


    4. Conclusión


    Lo que muestran los mapas no corresponde necesariamente a lo que los candidatos declaran formalmente como "eje" de su "programa digital". Si le dan un nombre, es probable que no lo repitan y, de este modo, es posible que no se vea reflejado con la suficiente fuerza en el mapa. Aunque es incluso posible que utilicen para ello palabras no recogidas en los campos semánticos, no nos parece que haya ocurrido aquí: todos hablan efectivamente de "política digital" o algo semejante, que es de lo que efectivamente se trata.

    Es evidente que la lectura de los textos aporta numerosas precisiones y permite una mejor comprensión de la posición de cada uno de los candidatos. Sin embargo, no resulta tan fácil extraer de la mera lectura los puntos que concentran efectivamente, y en parte subliminalmente, la atención de cada uno (o de quién redactó para ellos el texto, ya que -en una campaña- no hay seguridad alguna de que el candidato haya sido efectivamente el autor).

    Debe quedar claro finalmente que el tipo de análisis que hemos realizado no sirve en absoluto para evaluar los programas electorales citados. Si existe una programación de medidas y si son precisas y concretas no puede ser reflejado en este tipo de mapa. No era nuestro objetivo aquí entrar a discutir el contenido de las propuestas sino poner mejor en evidencia algunas diferencias esenciales.



    Bibliografía


    - Borgatti, S.P., 2002: NetDraw: Graph Visualization Software, Harvard: Analytic Technologies.
    - Colle, R., 2005: Anatex 3.0, Software de análisis de coocurrencias para plataforma LAMP (Linux-Apache-MySql-PHP), Santiago de Chile: Ver detalles en Anatex
                    - 2002: Explotar la información noticiosa, Madrid: Universidad Complutense, Depto. De Biblioteconomía y Documentación.
    - Dürsteler, J.C., 2004: «Mapas Conceptuales», en Infovisnet mensaje 141
    - Gaines, B. & Shaw, M.: Concept Maps as Hypermedia Components, Calgary: University of Calgary, ConceptMaps (no fechado)
    - García Gutiérez., A., 1990: Estructura lingüística de la documentación, Murcia: Ed.Universidad de Murcia.
    - Harley, T. A., 2008: Word meaning, East Sussex, UK: Psychology Press.
    - Kleinnijenhuis, J., 2007: Semantic network analysis: old ideas and new means to master the information society, Universidad de Amsterdam, Kleinnijenhuis.pdf
    - Litkowski, K. & McTavish, D., 2001: Minnesota Contextual Content Analysis system, Cata
    - López, F. , 2002: «El análisis de contenido como método de investigación», en XXI. Revista de educación, 2002, n.4, 167-180.
    - Marzal, M.A. y Moreira, J.A., 2001: «Modelos teóricos y elementos funcionales para el análisis de contenido documental: definición y tendencias», en Investigación bibliotecológica, n.15, (31), 125-162.
    - Neuendorf, K.A., 2002: The Content Analisis Guidebook, Thousand Oaks, London, New Delhi: Sage.
    - Piñuel, J.L., 2002: «Epistemología, metodología y técnicas del análisis de contenido», en Estudios de Sociolingüística 3(1), pp. 1-42 , A.Contenido.pdf
    - Poibeau, T. & Dutoit, D., 2002: «Inferring knowledge from a large semantic network», Proceeding of the Semantic networks workshop, during the Computational Linguistics Conference (COLING 2002), Taipei, Taiwan.
    - West, M. D. (ed.)., 2001: Theory, Method, and Practice in Computer Content Analysis. (Progress in Communication Sciences, Volume 16). Westport, CT/London: Ablex Publishing.

    18 de noviembre de 2009

    La formación de e-comunicadores

    Ponencia enviada al I Congreso 'Latina' de Comunicación Social
    (Tenerife, Islas Canarias, 8-12 de diciembre 2009)


    Introducción


    La tecnología permite hoy el acceso inmediato a cantidades enormes de información. El conocimiento crece diariamente y es imposible enseñar a la misma velocidad, ni siquiera en la universidad. Este acceso inmediato a un conocimiento actualizado (y también a múltiples hipótesis no verificadas, teorías alternativas, datos equívocos, etc.) hace tambalear las estructuras tradicionales de transmisión del conocimiento y los sistemas formales de enseñanza-aprendizaje. Los "expertos" se hacen cada vez más fuera de las tradicionales "carreras" o profesiones e incluso fuera de la universidad, y se "deshacen" en poco tiempo si no se mantienen comunicados con sus pares.


    Esta situación exige una transformación del sistema educacional que va más allá de simples "ajustes". Implica desarrollar métodos de aprendizaje nuevos, que permitan la diversidad, favorezcan las iniciativas y capaciten para las investigaciones y las profundizaciones individuales. Obviamente la universidad es la primera interpelada por esta realidad y se hace urgente no sólo una formación más amplia ligada a una flexibilización o la incorporación masiva de las nuevas tecnologías sino una reflexión basada en la misma naturaleza del conocimiento y su papel en la sociedad del futuro.


    Un mayor estudio y un dominio actualizado de las ciencias cognitivas se hace necesario y urgente para generar nuevos enfoques y orientar mejor una transformación global del sistema educacional, mientras la ingeniería cognitiva y la informática pueden proveer los recursos indispensables para implantar nuevos sistemas. Más que en cualquier otro caso, ésto es válido para las Facultades de Ciencias de la Información o Comunicación, donde ha de resultar obvia la estrecha relación entre conocimiento y medios de comunicación.


    Un poco de historia

    Muchas Facultades de Comunicación -o Ciencias de la Información- nacieron a partir de Escuelas de Periodismo, las cuales tienen ya unos cincuenta años o más (al menos en Chile, donde nos encontramos). La formación se planeó inicialmente a partir de la experiencia práctica de los periodistas formados "en terreno" y a partir de los modelos del trabajo en los medios de comunicación de la época. Posteriormente empezó a surgir la preocupación por los aspectos teóricos vinculados a la profesión y se introdujeron algunas materias del área de las ciencias sociales: teoría de la comunicación, ciencias políticas, metodologías de investigación, etc.

    En nuestra experiencia (y nos basamos aquí esencialmente en lo ocurrido en Chile), la formación ha ido evolucionando en torno a dos componentes -que han entrado más de una vez en conflicto-: la componente teórica (aportes de las ciencias sociales) y la componente tecnológica. La raíz de los conflictos ha de buscarse, sin duda, en el diario vivir de los profesionales en ejercicio: les domina el pragmatismo, con poco tiempo para reflexionar sobre su profesión y los supuestos de la misma. La progresiva integración de las escuelas de periodismo a facultades universitarias ha ayudado sin duda a introducir un mayor nivel de reflexión teórica, pero la dicotomía aún subsiste y se puede observar en los nombres de las facultades: mientras en algunos países predominan las "Ciencias de la Información", en otros predominan las de "Comunicaciones", el plural siendo indicio de que se prioriza lo pragmático/tecnológico por sobre lo teórico. No pretendemos ahondar en estas diferencias ni relanzar discusiones al respecto, aunque nuestra posición es clara y nos parece que la historia nos respalda: la reflexión teórica permite responder mejor a los desafíos de la realidad, sobre todo si se deja interpelar por ésta, si se mantiene atenta a los avances científicos de las disciplinas afines al mismo tiempo que a los avances tecnológicos y se proyecta hacia el futuro. Daremos cuenta aquí de cómo ha avanzado nuestra propia reflexión, para interpelar a quienes, hoy, también reflexionan sobre la mejor manera de formar "comunicadores".

    Hace ya treinta años se nos pidió colaborar en la reformulación del curriculum de formación de periodistas, especialmente aclarando los fundamentos teóricos que habrían de orientar dicha reestructuración. Recurrimos entonces al "modelo de comunicación" clásico, heredado de Shannon y Weaver con su "teoría de la información" y de Lasswell con su famosa pregunta "¿Quién dice qué a quién...". Es el modelo Emisor-Canal-Receptor, también llamado "modelo difusionista" al asociarse a los medios de comunicación (la "difusión" se entiende de un emisor a numerosos receptores) o "modelo conductista" cuando se estudia su aspecto psicológico, especialmente en relación a los efectos (la emisión es un impulso que provoca una reacción: modelo estímulo-respuesta). Todo ello se encontraba ya en el modelo de la "aguja hipodérmica" formulado por Lasswell en 1927, al tratar el tema de la propaganda y sus efectos.

    Así, inspirado en dicho modelo, junto con un colega, formulamos el siguiente esquema, en que desarrollamos lo que entendíamos que era la tarea específica del periodista:




    Se mostraba así que se esperaba del futuro periodista que fuese capaz de:

    • investigar (recoger información)

    • analizar, enjuiciar y clasificar (procesar información)

    • codificar, administrar y producir (transmitir adecuadamente)


    Sin duda estas habilidades siguen siendo fundamentales para todo periodista. Pero ya no podemos pensar que son "típicas" de su profesión. Son propias de todo ser humano y, más particularmente, de todo profesional. Capacitar en estos ámbitos han de ser la meta de todo sistema educativo. Es lo que, sin duda, nos han enseñado las nuevas tecnologías y, más particularmente, la "red de redes", la World Wide Web, donde cada uno, hoy es o puede ser a la vez receptor y emisor, o -en los términos de A.Toffler- "prosumidor", consumidor y productor a la vez ("La Tercera Ola", p.262).

    De ahora en adelante

    En el año 2002, se nos pidió nuevamente nuestra colaboración para reflexionar sobre la formación necesaria para formar comunicadores que efectivamente "puedan crear y proyectar las potencialidades totales de expresión de la multimedialidad en cada una de sus áreas, articulando en ésto la formación de criterios de pensamiento reflexivos y no lineales, así como expresiones creativas..." (Convocatoria, Facultad de Ciencias de la Comunicación e Información, Universidad Diego Portales). Para empezar a formular una propuesta, recurrimos entonces a nuestras anteriores investigaciones en el campo de las Ciencias Cognitivas así como a las conclusiones del Congreso "Com XXI" convocado por la UNESCO y la Comunidad Europea en el año 2000. Se señaló ahí que la generación de contenidos para los nuevos sistemas de comunicación por redes junto a la masificación de las telecomunicaciones estaban constituyendo un espacio de difusión del conocimiento sin precedentes en la historia. "Pero también se pueden constatar dos grandes falencias que le son asociadas: la falta de preparación de muchos usuarios y la ausencia de profesionales expertos en este nuevo medio de difusión."

    Las referencias a un "espacio de difusión del conocimiento" y a la "falta de preparación de muchos usuarios" son, aquí, de suma importancia. Apuntan a elementos clave y ponen en evidencia que el centro del proceso ha de ser el sujeto, sin diferenciar mayormente, al menos en el nivel de los fundamentos, entre emisor y receptor, porque -en realidad- todo sujeto de conocimiento es primero un receptor y luego un emisor. Y se encuentra enfrentado hoy, como nunca, a un enorme espacio informativo de donde puede absorber infinitos conocimientos, siendo también, más que nunca, sujeto del proceso.

    El lector, ahora, escoge su camino por el hipertexto, definiendo su propia trama en medio de la red de todas las posibles lecturas. es ahora un constructor de coherencias (papel que, antes, era exclusivo del autor). Él es quién determina si lo que lee tiene sentido, dentro de qué contexto y en relación a qué otras informaciones. De este modo, adquiere la nueva condición de "prosumidor" (consumidor-productor), descrita por Toffler en "La Tercera Ola" (pp.261-281). Pero es de este modo que comprende y, por lo tanto, que aprende, tal como lo viene haciendo desde su nacimiento a través de los acontecimientos diarios, de los cuales siempre ha aprendido en forma natural, sin darse cuenta de ello, como también nos enseña la psicología genética.

    Como ya lo señalaba el brasileño Paulo Freire en los años sesenta: "Nadie educa a nadie. El sujeto es quién se educa a sí-mismo". Y es que la información no tiene sentido si no es fuente de conocimiento. Lo comprendió el congreso de 1980 de la Asociación Internacional de Investigadores en Comunicación, que recalcó la necesidad de desarrollar un marco "más efectivamente humanista" para los trabajos futuros. Los estudios, investigaciones y desarrollos teóricos en torno a las Ciencias Cognitivas vinieron a apoyar este enfoque en los años siguientes. Y también cambiaron el modo de comprender la comunicación y la manera de enseñarla a nivel superior donde -al menos en Francia, a partir de los años noventa- se consideran que las Ciencias Cogntivas y las Ciencias de la Comunicación forman un solo conjunto integrado. Y mientras en los años setenta la investigación en ciencias cognitivas se centró en el proceso de adquisión del conocimiento - obtención (percepción), comprensión y memorización -, posteriormente se agregó la fase de "producción" de mensajes, con lo cual se cerraba el círculo del proceso de comunicación: producción-percepción-adquisión de conocimiento (y vuelta a producción).



    En este nuevo enfoque, los objetivos que se nos plantearon en 2002 y que deberían seguir siendo válidos en el futuro para toda formación de comunicadores obligan a buscar una perfecta coordinación y coherencia entre los contenidos que se pretendan traspasar a los alumnos y el modo en que se haga, de tal manera que se desarrollen e integren a la práctica profesional las conductas apropiadas. De este modo el carácter no-lineal que subtiende el lenguaje hipermedial - núcleo vital tanto de las comunicaciones de hoy como de la forma perenne del aprendizaje natural - ha de transformarse en un potente hilo conductor, renovador de los métodos de enseñanza-aprendizaje. Aunque ello implica una transformación sin duda importante y difícil para quienes estamos quizás acostumbrados a dictar clases magistrales, no representa sin embargo - como lo explicaremos luego - un cambio radical en la forma de aprender: cambia la forma de enseñar, pero no cambia el modo natural de aprender.


    La diferencia radica en que el sistema educacional ha enfatizado UNA manera de pensar y de organizar contenidos: la forma lineal o secuencial del discurso verbal y la organización libresca de los contenidos, porque fue la que usaron los maestros desde las épocas más remotas de la transmisión oral y la que se ha visto reforzada y "solidificada" por la difusión de la imprenta. Pero, como lo muestran las investigaciones de la psicología cognitiva, no es ni la única ni la más importante de las formas de organización del conocimiento. Y el éxito explosivo de los hipermedios no ha de estar ajeno a esta verdad porque están mucho más cerca de la estructura de la mente y de las formas naturales del aprendizaje.

    Como señalaban ya Schank y Cleary hace años, "La manera en que la mayoría de las escuelas se estructuran ahora va en contra de mucho de lo que hemos aprendido sobre el aprendizaje. Las escuelas fracasan en educar porque no potencian el proceso natural del aprendizaje. El aprendizaje natural no es compatible con aulas de etapas fijas ni con currículos rígidos". ("Engines for Education", 1994)

    Concepción cognitiva de la comunicación


    Las reflexiones más recientes sobre el proceso de comunicación (como, por ejemplo, los avances en las metodologías cualitativas de estudio de los contenidos de los medios de comunicación, o el desarrollo de principios de diseño de interfaces informáticas) recurren cada vez más a conceptos y modelos cognitivos.No es el presente el lugar para desarrollar más los aportes claves de las Ciencias Cognitivas, por lo que nos limitaremos a señalar un par de aspectos centrales de lo que han puesto en evidencia.

    El sujeto es el centro

    La investigación cognitiva, como lo explicamos en nuestra obra "Teoría cognitiva sistémica de la comunicación", lleva a reconocer en el paradigma de la "red", el modelo de la forma en que ha de ser entendido el conocimiento y, por lo tanto, un modelo lleno de potencial para su representación y aprovechamiento.

    Este modelo de red también significa una suerte de "revolución tolemáica" en la concepción de la comunicación: el hombre es siempre el sujeto del proceso, el actor, el autor de la adquisición de conocimientos. No hay "receptor" puro. Especialmente en el caso del hipertexto, de los hipermedios, es "lector-autor", co-constructor del discurso. Por lo tanto, ha de ponerse al centro del gráfico con que se representa el proceso y no a los lados, no escindido en las funciones de emisor y de receptor, como lo hace el modelo clásico. El sujeto es quien organiza sus relaciones, su red de fuentes, en algunos casos en forma simétrica (dialogal) y en otros muchos en forma asimétrica (como con los medios de comunicación).

      "El destino del electronauta es tolemaico. En efecto, con una especie de revolución hacia atrás, el viajero digital se encuentra viviendo en un mundo que gira a su alrededor sin que él se mueva. [...] Quien pasa de un banco de datos a un terminal interactivo, de una simulación a una enciclopedia multimedia, de una visión infográfica a una percepción virtual sufre, en cada cambio, una extraordinaria recolocación. [...] Se hace difícil, en esta situación, vivir la centralización como estabilidad. [...] Para moverse por este universo neotolemaico hay que dotarse de instrumentos cognitivos inéditos, que comportarán una nueva logística, más que una distinta lógica." (Vidali, en Bettetini y Colombo, pp.272-273)

    A pesar de que las redes de telecomunicación o las redes de nodos o lexias de los hipertextos no lo muestran, el sujeto es el centro del nuevo paradigma, el centro de toda red, porque es el que las construye, el que les da forma, el que las explora, el que construye los discursos que fluyen por ellas y él que aprende con ellas.

    El producto es el saber

    Los nuevos medios aportan recursos para comprender, aprender, almacenar y reclamar informaciones, o sea: acceder a conocimientos. Algunos están explícitamente orientados a la conservación estructurada del saber y a la interrogación por parte de los usuarios. En particular las técnicas de representación gráfica ofrecen nuevas formas de conocer. Estamos frente a un amplio espectro de posibilidades, en continua evolución, que permite al usuario conocimientos más profundos que los que tenía a su disposición en los medios tradicionales e incluso la experimentación -via simulación- de acciones complicadas y arriesgadas. (cfr. Bettetini y Colombo, pp.36-37).

    Sin embargo, la tecnología informática introduce claramente una transformación no sólo en el acceso al conocimiento sino también en la calidad del mismo.

      "De acuerdo con su enfoque operacional, el saber informático no apunta a la conservación idéntica de una sociedad que vive o desea ser inmutable, como en la oralidad primitiva. Tampoco apunta a la verdad, como los géneros canónicos nacidos de la escritura: la teoría o la hermenéutica. Busca la velocidad y la pertinencia de la ejecución, y más aún la rapidez y la oportunidad del cambio operacional. [...] El saber informático se aleja tanto de la memoria, o más bien, la memoria, al informatizarse, es objetivada a tal punto que la verdad puede dejar de ser una apuesta fundamental a cambio de la operatividad y de la velocidad. [...] Las condiciones que hacían de la verdad crítica y objetiva la norma del conocimiento se están transformando rápidamente. [...] Las teorías, con su norma de verdad y la actividad crítica que las acompaña, ceden el terreno a los modelos, con su normas de eficiencia y el juicio de oportunidad que preside a su evaluación. El modelo ya no se pone sobre papel, este soporte inerte, funciona en un ordenador. Es así como los modelos son permanentemente rectificados y mejorados siguiendo el hilo de las simulaciones." (Lévy, "Les technologies...", pp.134-137).

    El Conocimiento

    El conocimiento es la interpretación que el receptor hace de la información que recibe a través del mensaje, situándola en un doble contexto: el de las circunstancias ligadas al proceso informativo y el de los conocimientos previamente adquiridos (memoria).

    Sólo mediante información confiable se obtiene conocimiento y sólo al tener conocimiento se puede "emitir información". Así, el conocimiento es a la vez la causa y el producto de la información, así como su "contenido nuclear".

    La base del conocimiento es la inteligencia y ésta, en cuanto aptitud para resolver problemas en situaciones complejas, es una cualidad anterior al pensamiento. Es el arte de la estrategia, especialmente presente en los procesos adaptativos, el que ya existe en el reino vegetal. Sus principales características son su capacidad de aprender rápidamente por sí-misma y de ajustar su estrategia a medida que adquiere nueva información, de jerarquizar y diferenciar lo importante de lo secundario, de evaluar las relaciones entre medios y fines, de utilizar el azar para hacer descubrimientos, de reconstituir una configuración global a partir de indicios fragmentarios, de reconocer lo nuevo sin reducirlo a esquemas conocidos, de innovar en estas circunstancias nuevas y de utilizar todos los recursos de los cuales se puede disponer. Así, la inteligencia no puede desarrollarse plenamente sin un sistema de conservación, de acumulación de experiencias: su base es la memoria y la posibilidad de acceder en forma reiterada a la memoria es lo que asienta la relación dinámica entre inteligencia y conocimiento. De este modo, su asiento más evolucionado es el sistema nervioso y la "máquina" cerebral.

    Información y conocimiento

    Los usos habituales del término "información" dicen relación con lo que se aprende mediante la comunicación. El sentido "nuclear" del término dice relación con el conocimiento asociado a un determinado mensaje:

      "Cuando un científico nos dice que [...] la luz de una estrella lleva información sobre la constitución química de la misma, se está refiriendo claramente a la información como algo que puede proporcionar conocimiento. Un estado de cosas contiene información sobre X en la medida en que un observador convenientemente situado pueda enterarse de algo acerca de X consultándolo. Éste es exactamente el sentido en que decimos que los libros, los periódicos y los expertos contienen, o tienen, información sobre un determinado tema. Me referiré a él como el sentido nuclear del término «información»." (Dretske, p.51)

    En síntesis: los documentos contienen datos, cuyos conjuntos conforman información en la medida en que son parte de un mensaje (algo que se transmite y que tiene significado), pero el conocimiento es la interpretación que una o varias personas hacen del significado del mensaje y de la cual puede depender una toma de decisión.

    Obviamente esta interpretación puede transformarse en una nueva información, que debería ser llamada "meta-información". Pero esta meta-información es precisamente una demostración de la adquisición de nuevos conocimientos y podríamos decir que el conocimiento es -fundamentalmente- meta-información. Es en este sentido que debe ser interpretado todo lo relacionado con la "gestión del conocimiento".

    Metodología de la docencia

    Los docentes deben darse cuenta que se encuentran con alumnos que forman parte de una generación más tecnológica que la suya. Si llegan "a clase" y se encuentran con un maestro que "dicta materia", verán un retroceso y tendrán tendencia a reaccionar negativamente. Los profesores no pueden desconocer la existencia de las múltiples fuentes de información, los recursos de la WWW para construir conocimientos. Han de "inmigrar" y hacerse "colonos" de esta nueva realidad, como señala el experto Alejandro Piscitelli. (ABC, 7-07-09)

    Ha llegado el momento de preguntarnos cómo aplicar los conceptos antes expuestos y transformar los aportes de las Ciencias Cognitivas en nuestros métodos de enseñanza, especialmente si deseamos formar comunicadores. Sin duda estamos muy cerca de lograrlo en los talleres, pero también está involucrada la enseñanza teórica, que puede -y ha de ser- abordada de una manera muy diferente de las usuales "clases magistrales". Podemos sintetizarlo en el siguiente esquema:



    1. Fijación de metas

    Toda asignatura tiene objetivos que han de ser formulados en términos de una conducta observable, ya que es lo único que puede ser efectivamente evaluado. Esto implica fijar metas claras y dichas metas deben ser conocidas y comprendidas por los alumnos al inicio del período de estudio (semestre).

    Es, por lo tanto, la primera tarea del profesor el explicitar dichas metas y asegurarse de que los alumnos las hayan comprendido. Se sugiere verificarlo efectuando un control consistente en la realización de una tarea que sea un primer intento de cumplir con dichas metas. Una buena alternativa consiste en proponer la misma tarea que los alumnos habrán de realizar al final del período (para la evaluación final), solicitando que la hagan exclusivamente con los conocimientos de que ya disponen, SIN buscar nueva información pero integrando las preguntas que se hagan acerca de lo que aún no conocen. De este modo se estarán formulando metas personales y posibles caminos de solución. (Dicha tarea, para evitar la búsqueda inmediata de información nueva y una eventual desmotivación, no debe tener nota por los conocimientos que exhiba, sino por las dudas y preguntas formuladas). Podría ser conveniente recordar a los alumnos que lo que se tratará de hacer durante el semestre será entregarles herramientas e informaciones adecuadas para solucionar el problema planteado y cumplir con las metas de la asignatura (cosa que se considerará como el modus operandi normal de la carrera).

    2. Organización

    2.1. Contenidos

    Es obvio que el profesor ha de ser un experto en los conocimientos que se le pide compartir con los alumnos. Por lo tanto, también ha de ser quién seleccione los contenidos centrales y los organice, aunque dentro del marco de la malla curricular y de los objetivos fijados por los organizadores de la carrera. Sin embargo, el primer principio a tener en cuenta en la organización de dichos contenidos es que no hay razón alguna para que estén estructurados en forma lineal. En efecto, la comprensión no depende de la secuencialidad y -como lo muestran el "aprendizaje natural" y el constructivismo- la integración de nuevos conocimientos depende más de los conocimientos e intereses de cada alumno en particular que de la posible secuencia lógica que visualiza el maestro. En consecuencia, conviene mostrar a los alumnos las distintas vías, los distintos caminos que se pueden recorrer para llegar a un mismo resultado, introduciendo -a lo más- una cierta jerarquía basada en la generalidad y especificidad de los conceptos, tal como lo enseña el modelo semántico de la memoria.

    Por el mismo motivo, es conveniente transformar una tabla de contenidos en mapa conceptual de los contenidos e incentivar a los alumnos para que procedan del mismo modo en todos los niveles de desarrollo de su estudio y de sus tareas. La confección de esquemas y mapas conceptuales es una muy poderosa herramienta de memorización (cosa que el autor ha experimentado desde los últimos años de su período de enseñanza secundaria, donde un profesor visionario le enseñó a estudiar de este modo).

    2.2. No-directividad

    El rol del profesor, en relación al aprendizaje del alumno, ha de transformarse -como ya lo hemos dicho- en orientador y facilitador del proceso, en lugar de conferencista (lo que será sólo ocasionalmente). Esto implica que ha de dejar al alumno la mayor libertad posible para establecer la secuencia de aprendizaje en función de los conocimientos que éste tiene, de sus intereses y de su comprensión de las metas (no debería haber "linealidad" común para todo el curso). En ello consiste la no-directividad. Pero esto no implica libertad ni menos libertinaje: se podrán imponer plazos (por ejemplo un informe quincenal o mensual) y metas transitorias ajustadas al plan de trabajo que el mismo alumno podrá haber sugerido en un trabajo al inicio del semestre. Esto nos lleva, por lo tanto, a considerar más detenidamente el tema de las formas de apoyo docente y a los métodos de aprendizaje que deberán adoptar los alumnos.

    3. Apoyo docente

    3.1. Personalización

    En el enfoque adoptado, el educador ha de atender a los alumnos en forma ersonalizada, dado que la secuencia de estudio de cada uno podrá diferenciarse de los demás. Debe poder reconocer en cada sujeto una persona única, cuya realización como profesional depende de la colaboración comprensiva del maestro. Así, debe poder descubrir en cada uno las fuerzas de actualización que luchan en dicha dirección. Su papel, en esta perspectiva, no es acumular obstáculos sino colaborar para el desarrollo y fortalecimiento de estas fuerzas actualizadoras de las potencialidades de cada educando. Debe poner toda su experiencia personal al servicio de esta meta y ayudar a derribar las barreras que se oponen a ella. De este modo, ofrecerá una llave que abra paso al futuro de realización personal más plena de cada educando.

    Será fundamental reconocer las aptitudes y los conocimientos ya acumulados por el alumno y hacer que vincule siempre sus nuevos descubrimientos (lo que se le pretende enseñar) con lo que ya sabe, por lo cual es esencial recurrir a métodos de trabajo ligados a la formulación de metas y basados en la exploración, el análisis de casos, el aprender-haciendo o la simulación.

    Según el tipo de contenido, el tipo de meta y el tiempo disponible, el educador podrá escoger entre procesos totalmente individuales de estudio o procesos grupales. En el caso de optar por estos últimos, será necesario imponer reglas estrictas que aseguren la participación de todos. En ambos casos será indispensable entregar a los alumnos la mejor información posible acerca de sus progresos y utilizar un sistema de evaluación también progresivo (ver acápite correspondiente).

    3.2. Indicación de fuentes y caminos por recorrer


    Una consecuencia de lo anterior será que el maestro no "dicta" materia, sino que

    • introduce y confirma las metas

    • ofrece contenidos a consultar o estudiar: sus apuntes y una bibliografía mínima, que pueden ser comunes para todo el curso (aunque podrá ser leído en diferente orden, según las necesidades individuales), mientras la bibliografía complementaria será recomendada en función de cada caso particular, estará disponible "a elección" o deberá ser buscada -con espíritu crítico- en la red (WWW)

    • indica las etapas por las cuales avanzar

    • expone y discute casos

    • revisa los trabajos realizados, proponiendo formas de mejoramiento

    • mide los avances en función de los pasos ya dados, en la medida de lo posible.


    4. Aprendizaje

    Después de hablar del comportamiento "docente", hemos de explicar mejor, ahora, lo que se espera del alumno.

    4.1. Investigación personal

    El alumno ha de concebirse ante todo como un investigador, como el constructor de su propio futuro. Ha de convencerse de que sus resultados dependen de él mismo y no de los profesores, los que sólo están ahí "accidentalmente", y ha de olvidarse de la concepción del docente como "fuente del saber".

    En la dinámica de la "sociedad de la información" y de las NTICs, el maestro es tan investigador como el aprendiz y su ventaja consiste esencialmente en que ya recorrió un camino más largo, por lo cual domina más antecedentes y más experiencias de vida, siendo capaz de guiar los pasos de otros. No se ha de esperar que sea un buen conferencista y que presente contenidos en forma entretenida. Si es así, buena suerte, pero no es lo esencial. Lo esencial (como lo hemos explicado recién) es que entregue buenas herramientas para investigar y ayude al estudiante a avanzar hacia su meta de ser un excelente profesional y -para ello- lograr las pequeñas metas parciales que se han fijado en cada asignatura en particular.

    Investigar, construir su propio conocimiento, significa tomar conciencia de lo que ya se sabe, aceptar el desafío de una tarea relacionada con algo que no se sabe y buscar la solución. Esto implica aceptar los traspiés y los fracasos: la historia de la ciencia es una historia de teorías desechadas y experimentos fracasados: se construye sobre el cimiento de los errores como ya lo señalaba Karl Popper a propósito de la investigación científica.

    Los trabajos escritos sobre temas teóricos deberán siempre ser compuestos de texto y mapas conceptuales del conjunto y de cada sección si las hubiese. Como ya hemos señalado, este método gráfico tiene un alto poder de sistematización y de ayuda a la memorización que es esencial que los alumnos dominen, especialmente en carreras relacionadas con las NTICs. También obliga a retrabajar en forma más personal contenidos que pueden haber sido encontrados en fuentes externas (los que, de ser copiados, deben obviamente ser citados entre comillas y con una indicación precisa de su fuente y del grado de credibilidad de la misma).

    4.2. Trabajos grupales

    Será conveniente que cada profesor estudie la posibilidad de aplicar métodos de trabajos cooperativos. Es evidente que en el caso de materias principalmente teóricas, se deberá esperar que al final del semestre cada alumno domine toda la materia (aunque puedan llegar todos a cumplir dicha meta por caminos diversos), pero ello no impide que -durante el período- se formen grupos de trabajo que compartan trabajos de investigación.

    Una de las principales tentaciones de los alumnos - y posible defecto de este método - consiste en que algunos se vean recargados de trabajo mientras otros se desliguen de sus responsabilidades de colaboración. Lamentablemente, también, son generalmente los que más necesitan el estudio quienes prefieren descansar en el trabajo de los más motivados. En consecuencia se ha de imponer un reglamento especial para los trabajos grupales que impida este proceder.


    5. Evaluación

    Recordemos que existen al menos tres formas de evaluación y que es conveniente recurrir a las tres en el enfoque que hemos adoptado:

    5.1. Diagnóstico

    Será conveniente que, al iniciar el semestre, el profesor haga una prueba o encargue un trabajo inicial que permita a la vez medir los conocimientos ya adquiridos por los alumnos y su capacidad para abordar la temática del curso. Se puede aprovechar la misma asignación de tarea que la que se planteará para la evaluación final del semestre, para verificar la comprensión de las metas e indicar a cada alumno o grupo las vías más adecuadas para avanzar en el estudio, tal como se explicó anteriormente.

    Esta evaluación no tendrá nota por lo conocido sino por la inteligente formulación de dudas y preguntas.

    5.2. Evaluación formativa

    Es la que se desarrolla durante el semestre, a través de las pruebas, ejercicios o tareas que den cuenta del avance en el aprendizaje. Las observaciones que pueda hacer el profesor para orientar mejor el estudio (y, así, aumentar y solidificar el conocimiento) son fundamentales, mientras las notas puestas han de ser más indicativas que "resolutivas", es decir que es preferible que tengan una baja o nula ponderación, mientras la prueba, el examen o el trabajo final tendrán una ponderación predominante (suficiente para determinar la aprobación o reprobación del
    ramo).

    Es también altamente aconsejable, si es posible, que las tareas -si las evaluaciones formativas se basan en éstas- sean sumativas, es decir que cada nueva tarea retome las anteriores, incluyendo las correcciones hechas a partir de las observaciones del profesor. Ésta será una regla obligatoria en el caso de las asignaturas prácticas ("Talleres").

      En nuestra experiencia personal, en dos universidades chilenas, ha sido imposible aplicar tal sistema evaluativo en razón de la rigidez del reglamento general de evaluación, diametralmente opuesto a lo que sugerimos aquí y que fundamos en la concepción constructivista del desarrollo del conocimiento.

    5.3. Evaluación sumativa

    Es la evaluación que se realiza al final del período lectivo. Podrá ser un examen (que cubra toda la materia del semestre) en el caso de una signatura teórica, o un trabajo que exija una reelaboración de todo lo realizado durante el semestre.

    En el caso de Talleres se recomienda exigir incluso que se demuestre el adecuado dominio de las materias aprendidas en talleres anteriores si los hubiese. Se recordará que éste es el momento en que se verificará el cumplimiento de las metas fijadas al inico del período, por lo cual también se podrá ser muy exigente en la corrección del producto final.

    6. Recursos

    Una investigación realizada en instituciones de educación superior de países desarrollados (Holden & Mitchell, 1993) ha mostrado que, dentro de los próximos años, las redes telemáticas institucionales soportarán una creciente actividad propiamente formativa, ofreciendo un método alternativo frente a la comunicación tradicional en la sala de clases. Un número creciente de docentes usan ya, hoy, la telemática o "comuni-computación" ("CMC: computer mediated communication") en actividades diarias, como el uso de mail para mantener una correspondencia entre profesor y estudiante, páginas web para la difusión de apuntes, "wikis" para trabajos colaborativos, etc. Se estima indispensable que las instituciones superiores concentren sus esfuerzos en proveer la infraestructura necesaria para soportar aplicaciones docentes comunes. Es inevitable que la CMC alterará cada vez más las distintas partes y los métodos de enseñanza, pero es evidente que los docentes deben poder descubrir que los recursos de la CMC son compatibles si no con sus métodos de enseñanza actuales, con los que proponen la Ciencias Cognitivas, especialmente el constructivismo, y que es indispensable que adopten estos nuevos métodos si quieren responder adecuadamente a los desadíos de las comunicaciones de hoy y del futuro.

    Contenidos de la docencia


    No hemos abordado en sí el tema de los contenidos del programa de formación (anteriormente hemos hablado solo de su organización). Cada facultad tiene sin duda su propio programa en parte semejante y en parte diferente en comparación con otra facultad. No podemos entrar aquí en detalles, pero podemos sin duda sugerir algunas pistas. Primero, es necesario tener una visión de conjunto acerca de los equipos de profesionales involucrados en la generación de mensajes para los medios de comunicación de hoy y de su carácter multidisciplinario. Nos parece que se pueden agrupar en cuatro categorías:

    • periodistas

    • audio-visualistas (guionistas, realizadores, etc)

    • diseñadores gráficos

    • programadores

    Es poco probable que se puedan formar profesionales capaces de desempeñarse con igual nivel de calidad simultáneamente en estas cuatro áreas. Pero, para un adecuado trabajo de producción para la Web, es indispensable que todos tengan conocimientos básicos de los campos conexos así como sólidos conocimientos de los fundamentos comunes (como la filosofía y el valor cognitivo -e interactivo- del hipertexto). O sea que se requieren profesionales con una formación especializada, además de una formación genérica común en materia de teoría (cognitiva) de la comunicación y un profundo conocimiento de Internet y de la World Wide Web y su filosofía. Ésto significa dominar todos los aspectos del hipertexto y de su uso así como todas la maneras de utilizar la web y de generar sus contenidos, especialmente en forma dinámica y mediante el uso de bases de datos lo cual, a su vez, implica conocer métodos de análisis documental. Todos deberán, por lo tanto, también desarrollar las habilidades que habíamos señalado al principio: ser capaces de investigar, procesar información (analizar, juzgar, clasificar), codificar, administrar y producir, cada uno en su campo pero en armonía con los otros especialistas.

    A las cuatro categorías antes señaladas, a la vista -sobre todo- de las proyecciones futuras de la web («Web Semántica») ha de agregarse, sin duda, la de los documentalistas, los que estarán llamados, cada vez más, a organizar sus sistemas de tal modo que se pueda acceder a ellos a través de la web. Por lo que requerirán también dominar adecuadamente los conocimientos ya señalados al respecto y enfocar su labor de una manera novedosa, propicia para sus 'clientes' tengan un acceso más directo y efectivamente al conocimiento.

    Conclusión


    El comunicador de hoy, tanto como el educador, enfrentando a la hiperabundancia de fuentes de información (muchas de dudoso valor) y a la enorme velocidad de actualización de los conocimientos, debe poder estructurar el espacio de la comunicación en el cual el educando desarrolla sus potencialidades y se hace partícipe del desarrollo de la cultura. En el marco de este espacio, ha de recordar que le corresponde prioritariamente organizar el espacio de las funciones cognitivas: adquisición, evaluación, organización y conservación de información (cosa que ya habíamos puesto en evidencia al repensar la formación de los periodistas en 1979). Las decisiones que tome un docente respecto de los métodos para llevar a cabo tales funciones no sólo influyen en el mayor o menor agrado, la mayor o menor facilidad de adquisión por parte del educando, sino también en la forma en que manipulará los datos, es decir en el mayor o menor conocimiento, en la mayor o menor comprensión que logrará obtener o producir a partir de los mismos. De su labor dependen las estrategias cognitivas que los futuros profesionales desarrollarán probablemente durante toda su vida, repitiendo el mismo comportamiento de consecución, evaluación y asimilación de información que se les habrá enseñado.

      "El conocimiento del conocimiento no podría constituir un dominio privilegiado para pensadores privilegiados, una competencia de expertos, un lujo especulativo para filósofos: es una tarea histórica para todos y cada uno" (Morin, "La Méthode: 3... ", p.25)




    Bibliografía

    • Bettetini, G. & Colombo, F. (1995): "Las nuevas tecnologías de la comunicación", Barcelona, Paidos.
    • Colle, R. (2002): "Teoría cognitiva sistémica de la comunicación", Santiago de Chile, San Pablo.
    • Dretske, F. (1989): "Conocimiento e información", Barcelona, Salvat (original inglés de 1981).
    • Gardner, H. (1988): "La nueva ciencia de la mente. Historia de la revolución cognitiva", Barcelona,Paidos.
    • González C., O. & Colle, R., (1979): "Bases para el diseño del curriculum de la Escuela de Periodismo", Santiago, Escuela de Periodismo de la P.Univ.Católica de Chile y Centro Nacional de Comunicación Social del Episcopado. (roneo)
    • Holden, M. & Mitchell, W., (1993): "The Future of Computer-Mediated Communication in Higher Education", EDUCOM Review, Volume 28, Number 2, March/April 1993.
    • Lasswell, (1927): "Propaganda Techniques in the World War"
    • Lévy, P. (1990): "Les technologies de l'intelligence", Paris, La Découverte.
    • Maturana, H. & Varela, F., (1984): "El árbol del conocimiento", Santiago de Chile, OEA.
    • Morin, E., 1986: "La méthode: 3. La connaissance de la connaissance", Paris, Seuil.
    • Shannon, C. & Weaver, W. (1981): "Teoría matemática de la comunicación", Madrir, Forja. (Traducción del original de 1949)
    • Schank, R. & Cleary, Ch. (1994): "Engines for education", Northwestern University.
    • Piaget, J. (1981): "La psicología de la inteligencia", Psique, Buenos Aires, 1981.
    • Piscitelli, A. (entrevistado por Marina Fernández) (2009): "Los docentes deben incorporar Internet a sus lecciones", ABC.es, http://www.abcdesevilla.es/20090707/nacional-sevilla-actualidad/docentes-deben-incorporar-internet-200907070912.html
    • Pozo, J.L. (1989): "teorías cognitivas del aprendizaje", Madrid, Morata.
    • Rademan, T. (1997): "Information Unlimited: Employing Internet Resources in Education", Kuala Lumpur, Proceedings of the Internet Society Annual Conference.
    • Toffler, A. (1980): "La Tercera Ola", Barcelona, Plaza & Janes.

    16 de octubre de 2009

    La Web y la difusión de las ideas



    Nadie podría negar que el advenimiento de la WWW ha dado origen a una nueva era en materia de difusión de las ideas y de alcance al conocimiento. Si, con el desarrollo de las nuevas tecnologías de comunicación, se empezó a hablar de la "Era de la Información", con los nuevos recursos como enciclopedias on-line (Wikipedia y otras, más especializadas) y la enseñanza on-line, estamos entrando en una nueva "era del conocimiento". Pero no podemos pecar de exceso de optimismo y queremos hablar aquí de las trabas con que nos encontramos aún para que el acceso al conocimiento sea realmente efectivo y universal.


    Información y censura

    El problema sin duda más conocido es el de la censura política de la información, especialmente en el caso de hechos noticiosos que ciertos gobiernos consideran perjudiciales para su imagen. Las medidas que adoptan van desde disposiciones legales -que pueden llevar hasta el encarcelamiento de los infractores- hasta la intervención y control de Internet, como en China, pasando por el cierre de medios de comunicación "molestos", como ha ocurrido en Venezuela.

    Del mismo modo que se cierran medios "tradicionales", se pueden cerra (bloquear) servidores de web. Los gobiernos lo han intentado algunas veces, pero este método se ha revelado totalmente inútil: en pocos minutos se puede transferir la información e incluso construir un duplicado completo del servidor (mirror) en otro país, donde no se aplican las mismas regulaciones. La web no tiene fronteras y las leyes locales tienen escaso poder para controlarla.

    Solo medidas extremadamente drásticas, aplicadas a las personas (encarcelamiento), pueden acallar hoy a los disidentes. La mejor prueba es el blog "Generación Y" de Yoani Sánchez. Sin tener acceso a Internet (o solo ocasionalmente), logra publicar constantemente, al igual que Miriam Celaya, que reúne a muchos otros en sus "Voces Cubanas", ambos sitios bloqueados en Cuba por la censura.

    Sin duda lo más efectivo y fácil parece ser el bloqueo del flujo entrante de información y todos los países con regímenes autoritarios lo hacen. Pero ya no es posible controlar totalmente el flujo de salida, como lo podemos observar tanto con las cubanas citadas como con ciudadanos de Irán, China y otros países. Y es que en estos países también han entrado las nuevas tecnologías, siendo los teléfonos celulares con cámaras fotográficas medios de muy difícil control. De relevo en relevo, o con tarjetas SIM pasadas subrepticiamente de mano en mano, la información siempre termina por escapar y llegar a algún editor externo benévolo. Estos informadores son los que hoy tienen el mayor poder para lograr cambios de parte de los gobiernos correspondientes.

    Es con teléfonos móviles que se coordinaron las protestas de los monjes de Myanmar contra el gobierno birmano en 2007 y que las imágenes de la represión fueron conocidas. Como señala Alberto Rojas: "Hace dos décadas nada de esto habría sido posible. La pregunta, entonces, es qué ocurrirá en veinte años más, cuando existan nuevas herramientas digitales y la portabilidad de los equipos sea una constante." (El Mercurio, 2009).


    Web y derechos intelectuales

    Las nuevas tecnologías son también hoy fuente de otro tipo de controversia -y de intentos de control-, que ha crecido en importancia a raiz de dos fenómenos: la descarga ilegal de millones de obras musicales y la digitalización de libros y su oferta masiva por empresas de la importancia de Google: es el tema de la piratería y de la comercialización de los derechos de autor o, más ampliamente, de la protección de los derechos intelectuales. El problema no debe ser restringido a la música y a los "e-libros": es propio de todo lo que se publica en la web, desde el presente artículo a las fotos que subí a Flickr o a lo que intercambio por P2P.

    La piratería digital, sea de música, películas o juegos, se ha convertido en un fenómeno global y en la causa de acérrimas disputas legales, como señaló la BBC en su sitio on-line el pasado 2-06-2009, preguntando qué hacer al respecto. Francia adoptó una ley que contempla cortar la conexión a quienes persisten en hacer descargas ilegales después de varios avisos. ¿Es ésta la solución? ¿Ha de seguir indefinidamente vigente el modelo del copyright, que tiene ya (y solo) 300 años de vida?

    La problemática de los derechos de autor nació a raiz de la multiplicación de obras por medio de la imprenta. La primera norma al respecto fue el "Estatuto de la Reina Ana", aprobado por el parlamento inglés en 1710. Estableció un plazo de copyright de 14 años, renovable por una vez si el autor se mantenía con vida. En los Estados Unidos se promulgó la primera Copyright Act en 1790, fijando el mismo plazo. En Francia, la primera ley fue aprobada en 1791.

    La ley estadounidense, al mismo tiempo que fue extendiendo los plazos de vigencia, desarrolló posteriormente una doctrina que flexibiliza la protección: la de "fair use" o uso razonable, que permite la utilización de una obra con propósitos de crítica, realización de comentarios descriptivos, noticias, enseñanza e investigación. Esta doctrina ha sido aceptada y aplicada en numerosos países y es la que domina hoy en internet pero, en modo alguno, autoriza las retransmisiones de reproducciones íntegras por parte de terceros ni la piratería. Las reproducciones íntegras solo deben ser consideradas legítimas cuando quien haya adquirido legalmente una quiera realizar un respaldo (cosa esencial en materia de informática) o la quiera pasar de un dispositivo a otro. Sin embargo, ésto es cosa que algunos productores no quieren aceptar y han llevado su lobby a favor de la interdicción de este procedimiento a tal punto que los proyectos de ley de algunos países prohiben totalmente todo tipo de traspaso, olvidando que para visualizar -o escuchar- una obra en un computador se debe descargar ahí el archivo correspondiente (cosa que este tipo de ley haría ilegal).

    Entonces, ¿no debería buscarse un nuevo modelo, que compatibilice mejor los derechos del autor con el derecho a conocer? El mundo digital no ha quedado ajeno a esta problemática y la web ha incentivado la aparición de otros tipos de permisos y sistemas de protección, como la Licencia Pública General (GNU General Public License), orientada principalmente a proteger la libre distribución, modificación y uso de software, y la licencia Creative Commons (CC), que se puede aplicar a cualquier tipo de obra y es la más favorable para la difusión del conocimiento (cada vez más utilizada por las publicaciones científicas). Las licencias CC se basan en combinar distintas propiedades. Éstas son:
    * Attribution (by): Obliga a citar las fuentes de esos contenidos. El autor debe figurar en los créditos.
    * Noncommercial (nc): Obliga a que el uso de los contenidos no pueda tener bonificación económica alguna para quien haga uso de contenidos bajo esa licencia.
    * No Derivative Works o NoDerivs (nd): Obliga a que esa obra sea distribuida inalterada, sin cambios.
    * ShareAlike (sa): Obliga a que todas las obras derivadas se distribuyan siempre bajo la misma licencia del trabajo original.


    Resguardo cultural

    La problemática se ha ampliado sin duda debido al proyecto de Google de digitalizar libros (ya dispone de 10 millones de títulos), inicialmente todos los libros posibles, pero ahora solo los libros de "dominio público" (derechos de autor vencidos) y "huérfanos" (sin herederos conocidos) así como los que las editoriales acepten comercializar digitalmente. Este proyecto ha sido fuertemente rechazado en Europa, especialmente por editores y bibliotecas. Sin embargo, se debe tener en cuenta que el 90% del patrimonio literario mundial no se encuentra disponible en el comercio (según Viviane reding, comisaria europea). ¡Bienvenida, entonces, la digitalización, conservadora y difusora de la cultura!

    ¿Cuál sería la razón para oponerse a esta tarea? Sin duda el riesgo de monopolio comercial y de "explotación de los consumidores". Google se quedaría con el 37% de los beneficios por libro vendido, en el caso de obras "con derechos". ¿Pero con cuanto se quedaría si no tiene que pagar a otros? Otro riesgo, que inquieta sobretodo -al parecer- a los franceses (y quizás también a intelectuales de otros países) es la apropiación de las fuentes culturales por un dueño americano. Éste es un tema de política cultural que podría tener, efectivamente, facetas complejas. Pero nadie impide que empresas de otros países hagan, para su cultura, lo que hace GoogleBooks en los Estados Unidos. Para el usuario, no importa donde esté guardada la obra que le interesa ni quien lo hizo: internet no conoce las fronteras y solo le importa poder acceder a la obra sin pagar un costo demasiado alto. (Aunque todos esperen la gratuidad, es evidente que ésto es imposible). Los gobiernos podrían, para ello, dirigir recursos hacia las bibliotecas, como lo hace Chile con su "Biblioteca Virtual del Bicentenario" y España con la Biblioteca Virtual Miguel de Cervantes o el Proyecto Gutenberg. Pero, al parecer, pocos están en condiciones de competir con los bajos costos y la masividad (¿rapidez?) del procedimiento de Google, al punto que algunos (como se lo plantea la Biblioteca Nacional de Francia) prefieren confiar el proceso a esta empresa. LLegamos a lo que Yann Moulier-Boutang llama el "capitalismo cognitivo".

    Al hacerse Google cargo de la digitalización de obras agotadas (y otras) surge otro problema, generalmente desconocido: el de la fiablidad de los meta-datos (como los que las bibliotecas conservan en sus fichas) que, según ha sido demostrado, son muchas veces equivocados, lo cual induce a error a todo historiador o investigador que los quiera utilizar (O.Ertzscheid). Nuevamente, aquí, podríamos apelar a las bibliotecas, que saben hacer mejor este trabajo ... pero no tienen los recursos de Google.

    Queda aún otra duda: Google sabrá quién lee qué, por cuanto exigirá una cuenta personal en sus sistemas para acceder a las compras, aunque no a meras búsquedas y consultas de alguna página (en cuyo caso registra al menos el IP, navegador y datos de "cookies" no precisados). ¿Hasta dónde es significativa esta pérdida de privacidad? ¿Alguién (partiendo por esta misma empresa) podría aprovecharse de ello? El reglamento descarta el uso por terceros pero no parece claro el uso "para fines del mismo servicio" y se indica que "se conservarán los datos por algún tiempo". Pero las condiciones finales de operación están actualmente bajo consideración de un tribunal norteamericano. Google ya sabe lo que buscamos en la web y qué páginas visitamos a partir de las búsquedas. ¿Nos quejamos?


    El problema de fondo

    Acerca de los derechos y limitaciones, es obviamente necesario hacer una distinción entre dos tipos de contenidos: los propiamente informativos (y estrictamente culturales) y los que corresponden al comercio de la entretención. El modelo de difusión sin duda ha de ser diferente en ambos casos. Los productos de entretención corresponden en su casi totalidad a una industria cuya existencia depende vitalmente de la comercialización y ello ha de ser reconocido y protegido en Internet. Pero el caso de la información es mucho más delicado.

    El problema de fondo ha sido expresado por Lawrence Lessig: "¿Cómo garantizamos el pensamiento libre cuando se reclama la propiedad privada de las ideas?" (El código 2.0, p.24). Antes de la imprenta, las ideas no tenían "dueños", aunque se respetaba y mencionaba -en ambientes académicos- el nombre de quienes las habían formulado. Pero no eran objeto de comercio. Se debe tomar conciencia de que, en este caso, el problema de la remuneración ha sido el resultado no de la expresión original sino de la aparición de un soporte que permitía la reproducción y del costo de este soporte. El "reproductor" (la imprenta primero y otros medios después) invierte en la producción de las copias y, en la medida en que logra ganancias por ello, hace al autor partícipe de dichas ganancias, reconociendo su rol generador de las mismas.

    Pero si la generación de copias no tiene costo, como ocurre en muchos casos hoy en internet (principalmente a través de la "web 2.0") ¿de qué ganancia participaría el autor? Para la mayoría de los autores, la difusión de su producción intelectual es en cierto modo un subproducto de su función y empleo (como en el caso de los científicos e investigadores de todo ámbito). Para ellos, la web es un medio extraordinario para dar a conocer sus ideas, sus descubrimientos, en beneficio de todos. Existen ya múltiples revistas científicas que solo se publican de forma digital. Y es probable que, a corto o mediano plazo, las publicaciones impresas serán cada vez más una solución extraordinaria.
    • Según expertos reunidos en el taller de la Red de Bibliotecas Universitarias (Rebiun), en Salamanca, en cinco años el 25% de las publicaciones científicas serán sólo digitales.(SINC, 6-10-2009)
    Sin duda este porcentaje seguirá creciendo con el tiempo y, probablemente, de forma acelerada dadas las necesidades de acceso y las dificultades -y costos- del transporte físico. Pero en el caso de la masificación de los "e-libros", si bien existe un costo inicial de digitalización, ¿cómo limitar las ganancias de una empresa como Google a una utilidad "razonable"?

    Conclusión

    Creo, finalmente, que debe plantearse con mucha fuerza otra pregunta capital: ¿no sería en realidad el conocimiento un derecho universal? Se ha definido el derecho a la información como el derecho a recibir, investigar y difundir mensajes (Jaramillo, siguiendo a J.M.Desantes). ¿Pero no debería entenderse como un derecho a acceder a todo el conocimiento humano?

    Quiero concluir con L.Lessig:
      "Si mis textos provocan reacciones airadas, acaso también puedan incitar reflexiones más equilibradas. Vivimos tiempos en que no resulta nada fácil atinar, pero las respuestas fáciles a los debates del pasado no son las adecuadas en el presente." (El código 2.0, p.25)

    Bibliografía

  • Castro Bonilla, Alejandra (200?): "El derecho de autor ante las TIC en la economía del conocimiento", Informática Jurídica, (descargado el 2-06-2009)
  • Cuen, D. (2009): "¿La hora de los libros electrónicos?", BBC Mundo
  • Cuen, D. (2009): "El futuro de los libros", BBC Mundo
  • Durand, D. (2009): "Google Books: la vision iconoclaste de l'utilisateur lambda", media-tech.blogspot.com
  • Ertzscheid, O. (2009): "Scanne moins fort, y'a le petit qui dort. De Google Books Search à Google Books Settlement", affordance.typepad.com
  • Google (209): "Google Books Privacy Policy"
  • Jaramillo, Oscar (2000): "Derecho a la Información en la Web: Una revisión conceptual",Santiago de Chile, Revista TDC (Univ.Diego Portales).
  • Lessig, Lawrence(2009): "El código 2.0", Madrid, Traficantes de Sueño, Versión PDF (http://traficantes.net)
  • Moulier-Boutang, Y. (2007): "Le capitalisme cognitif, la nouvelle grande transformation", Editions Amsterdam
  • Rojas Moscoso, Alberto (2009): "Redes sociales de internet ponen en jaque la censura a nivel mundial", Santiago de Chile, El Mercurio, 28-06-2009.
  • Google Books: todos los libros sin ley, ABC, 5-10-2009