En esta oportunidad hablaremos de DICS: Datos, Información, Conocimiento, Sabiduría. En DesignSeo Group somos una agencia de marketing digital, que nos gusta entregar a nuestros clientes y potenciales conocimiento. Así que hablaremos de lo que es DICS ¿Pero que es esto chicos? Bueno iremos previamente a revisar temas previos.
Ley de Malthus de la información
“Cada nueva fracción de información producida que realmente es consumida tiende a cero.”
La oferta de información crece exponencialmente mientras que su consumo se incrementa linealmente, debido a que nuestro ancho de banda mental para procesar la información, y nuestro tiempo, son limitados.
Esta ley fue enunciada por Ithiel De Sola Pool (1917 – 1984) en su libro Communications Flows: A Census in the United States and Japan, Elsevier Science, New York, 1984.
Principio de la infoxicación [Formulado por Alfons Cornella]
En su momento, Alfons Cornella tuvo el atrevimiento de definir un neologismo que ha tenido cierto éxito: infoxicación. La palabra surgió para definir la situación de exceso informacional, de intoxicación informacional, en la que tienes más información para procesar de la que humanamente puedes, y, como consecuencia, surge la ansiedad (algo que se ha denominado técnicamente information fatigue syndrome). Este término fue acuñado en 1996 por el psicólogo británico David Lewis, a quien debemos la interesante sentencia: “Knowledge is power, but information is not”. Lewis fue el autor del informe Dying for Information, financiado por Reuters, en el que se describía la mísera vida del ejecutivo “informacionalmente inundado”.
El término en inglés para infoxicación es information overload (sobrecarga informacional). Pues bien, la infoxicación es ya un problema de nuestra sociedad y, por tanto, también una gran fuente de oportunidades. Cuando Cornella definió el término, Google no existía. El spam era, quizás, una predicción de algún visionario al que nadie hizo caso. La situación es hoy peor de lo que podíamos imaginar.
El ancho de banda, en términos genéricos de cantidad de información que recibes por unidad de tiempo, no para –y no parará– de crecer. Los estímulos que recibiremos en forma de e-mail, audio, vídeo, teléfono, mensajería instantánea, feeds, etc., crecen descontroladamente. Es cada vez más barato enviar un bit a donde sea. Pero la variable informacionalmente crítica, que es la atención, es justamente la opuesta del ancho de banda: la cantidad de tiempo que podemos dedicar a cada input es cada vez menor, porque debemos repartir la cantidad finita de tiempo del que disponemos entre más y más elementos de información. Nuestra atención es “el” recurso escaso.
Un estudio realizado para HP (http://www.hp.com) en 2005 puso de relieve nuestras limitaciones a la hora de sacar provecho del potencial de las tecnologías. Según el estudio, estar “siempre online” (always on), o sea, estar siempre disponible para contestar una interacción online (como un correo electrónico, un mensaje instantáneo o una llamada de telefonía IP), conllevaba una desconcentración comparable a la provocada por haberse fumado un porro de marihuana (un efecto que ha sido denominado infomanía por los investigadores que llevaron a cabo el estudio, http://news.bbc.co.uk/1/ hi/uk/4471607.stm). Es decir, el problema no está en que las máquinas procesen la información en cantidades ingentes, sino en que nuestro cerebro sea capaz de asimilarla.
Esta ley está relacionada con el principio de Goldhaber de la “economía de la atención”. El artículo que originó esta idea se publicó en la revista First Monday en abril de 1997: “The Attention Economy: The Natural Economy of the Net” (http://www.firstmonday.org/issues/issue2_4/goldhaber/ index.html), que más tarde (diciembre 1997) se publicó como “Attention Shoppers!” en la revista Wired (http://www.wired.com/wired/5.12/es_attention.html?topic=&topic_set).
Michael Goldhaber (http://www.goldhaber.org) es el autor de Reinventing Technology y visiting scholar en el Institute for the Study of Social Change en la University of California at Berkeley. Según Goldhaber, la nuestra es una economía de la atención, donde conseguir la atención de la gente es cada vez más difícil: una era de exceso de información, donde el tiempo es el único y verdadero recurso escaso. Ya en un artículo en 1971, Herbert Simon (Premio Nobel de Economía en 1978) había capturado la misma idea en una excelente frase: “A wealth of information creates a poverty of attention”.
John Hagel (http://www.johnhagel.com/) ha realizado una estupenda revisión del concepto de Economics of Attention en su blog (http://edgeperspectives.typepad.com/edge_perspectives/2006/12/the_economics_o.html). También Juan Freire en su blog (http://nomada.blogs.com/jfreire/), con un post titulado “De la persuasión de la publicidad analógica a la sinceridad o engaño absolutos del marketing digital” (http://nomada.blogs.com/jfreire/2007/01/de_la_persuasin.html). Ambas lecturas son altamente recomendables.
Conseguir la atención de la gente es cada vez más difícil, aunque sólo sea porque la cantidad de inputs (estímulos) que recibimos no para de crecer. Como señala el estudio realizado en la School of Information Management and Systems (SIMS) de la University of California at Berkeley (http://www.sims.berkeley.edu/research/projects/how-much-info-2003), se producen cada año unos 5 exabytes de información (5 por 10 elevado a dieciocho). Se produce más información que tiempo tiene la gente para leerla, no digamos ya para digerirla. Ésta es una era de exceso de información.
El “problema de la atención” se podría resumir en dos puntos: · El “ancho de banda” de información que recibe la gente no para de crecer, porque la tecnología permite enviar más información en menos tiempo, y porque hay más agentes que emiten hacia los receptores potenciales. Este “ancho de banda personal” es la cantidad de información que alguien recibe por unidad de tiempo, b=i/t, cantidad que crece cada día que pasa. · Pero, al mismo tiempo, la “atención personal”, o sea, la cantidad de tiempo que uno puede dedicar a cada información que recibe, a=t/i, disminuye cada vez más. Es lógico, porque ambas variables son inversas la una de la otra: a mayor “ancho de banda personal”, menor capacidad de “atención personal”.
¿Qué soluciones hay? Hay que diseñar instrumentos para reducir el ruido informacional que recibimos, y aumentar la productividad del tiempo de atención de que disponemos. De hecho, ya tenemos herramientas para hacerlo, pero no las usamos debidamente. Por ejemplo, uno puede usar los lectores de feed para recibir automáticamente lo que se va publicando en las páginas que nos interesan, sin necesidad de acudir a ellas, en una evolución de gran calado desde los mass media (medios de masas) a los my media (mis medios). La dificultad estriba en ser selectivo a la hora de suscribirse a fuentes de información.
Pero el punto crítico está en comunicar más eficientemente. En sintetizar el mensaje, en presentarlo de forma atractiva, en combinar textos e imágenes y cualquier otro formato que le dé riqueza y facilite su comprensión. En explicar historias más que en dar datos. En sintonizar lo que quieres comunicar con el momento de atención del receptor; o sea, en saber encontrar cuándo éste está en el mejor estado de ánimo para poder digerir (metabolizar) la información que se le da. Presentar la información en una dieta informacional que sea útil y emocionante (es información lo que sorprende, no lo que ya sabemos). Porque la información que llega sin criterio o sin pasión es ruido. Y el ruido molesta.
Este principio ha sido formulado por Alfons Cornella, fundador y presidente de Infonomia.com, la red de innovadores, un think tank sobre cómo las organizaciones se transforman como consecuencia de la intersección de tecnologías, ideas y personas, en su libro Futuro Presente, ilustrado por Sergi Rucabado.
Ley de la gravedad [Formulada por Juan Francisco Martínez]
“El que sabe, atrae.”
El conocimiento que poseen ciertas personas provoca, con una intensidad como nunca antes en la historia se había producido, la atracción de otras personas sobre ellas. Haciendo una analogía con la ley de la gravedad de Isaac Newton, podemos afirmar que estas personas ejercen sobre los demás una fuerza de atracción proporcional al conocimiento que acumulan. Y a mayor conocimiento, mayor atracción.
Hay que señalar que la ley (“el que sabe, atrae”) es aplicable no sólo a los seres humanos, sino también a soportes físicos. Dicha atracción puede producirse entre diversos robots de Internet que realizan búsquedas, catalogación y almacenamiento del conocimiento. O puede movilizar la atracción de personas y buscadores sobre ellos, como ocurre con Wikipedia (http://www. wikipedia.org).
En cierto sentido, se podría realizar una analogía entre esta ley y la segunda ley de Newton, afirmando que la fuerza de atracción que ejerce un trabajador del conocimiento es directamente proporcional al conocimiento que posee. En entornos de trabajo donde el conocimiento es crítico, las personas que son referencia son aquellas que saben resolver los problemas a través de la aplicación de su conocimiento adquirido, o mediante la capacidad de generación de nuevo conocimiento.
De este modo, la capacidad de atracción –el número de veces en que uno es consultado o requerido– depende del diferencial entre lo que uno sabe y lo que saben los demás, así como de lo único, escaso y organizacionalmente necesario que sea ese conocimiento que uno posee. Así (y siempre que las jerarquías organizativas sean horizontales, abiertas y planas), cuanto mayor sea la diferencia entre lo que uno sabe y lo que saben los demás, mayor número de veces será uno consultado. El camino para evitar un cuello de botella sería compartir el conocimiento, de modo que se reduzcan las diferencias y se multiplique el número de nodos a los que acceder para su adquisición.
Dado que la economía del conocimiento no está basada en un juego de suma cero (el conocimiento que gana alguien viene dado por la pérdida para aquel que lo facilita), el hecho de facilitar el conocimiento al resto de personas no resta valor al propietario del conocimiento semilla original, sino que lo fortalece como nodo dentro de la red de conocimiento creada (más información en: http://matenomia.blogspot.com/2006/07/ley-de-la-gravedad-leyes.html).
Regla del 90-9-1
Lurkershhhhhh
En prácticamente todas las comunidades online, el 90% de los usuarios son lurkers (http://en.wikipedia.org/wiki/Lurker), personas que leen y/u observan, pero que nunca contribuyen a la discusión, mientras que un 9% contribuyen de manera esporádica o mediante actividades sencillas, como emitir un voto, y el restante 1% son los usuarios que realmente participan activamente mediante sus contribuciones. Como señala Jakob Nielsen sobre estos últimos: “parece como si no tuvieran vidas, porque introducen comentarios sólo unos minutos después de que cualquier evento sobre el que escriban ocurra”.
Los lurkers están en “shhhhhhilencio”. Son como la letra “h”, que se escribe en las palabras, y no participa en su pronunciación. Pero tal y como se señala en Wikipedia: “De acuerdo con la teoría de las comunidades de práctica, un lurker tiene una participación periférica legítima y se espera que, con el tiempo, pueda llegar a integrarse como un miembro activo de la comunidad”.
La primera referencia a esta idea de “desigualdad en la participación” (participation inequality) se debe a Will Hill, de Bell Communications Research, en: Steve Whittaker, Loren Terveen, Will Hill, and Lynn Cherny (1998): “The dynamics of mass interaction”, Proceedings of CSCW 98, the ACM Conference on Computer-Supported Cooperative Work (Seattle, WA, November 14-18, 1998), pp. 257-264. Disponible en http://www.ghostweather.com/papers/dynamics-mass-interaction.pdf.
Aili McConnon en Business Week, InData, p. 40, IN, September, 2006, ha generado una información visual muy interesante y complementaria, disponible en: http://www.businessweek.com/magazine/content/06_39/b4002423. htm#search=%22Business%20Week%2C%20InData%22. También en la columna “Participation Inequality: Encouraging More Users to Contribute” del famoso boletín quincenal Alertbox de Jakob Nielsen del 9 de octubre de 2006: http://www.useit.com/alertbox/participation_inequality.html. Un buen artículo donde Nielsen explica los aspectos negativos de esta desigualdad en la participación, y qué se puede hacer para evitarla (en la medida en la que sea posible).
Nielsen (http://www.useit.com/jakob/) es una de las autoridades más respetadas en el ámbito mundial sobre usabilidad web, y cofundador de Nielsen Norman Group (http://www.nngroup.com/) junto con Donald Norman (http://www.jnd.org/), otro experto mundial en usabilidad.
La dificultad de estimar estos datos es que un lurker, para serlo, no se puede reconocer online. Mientras que los valores del 9% y el 1% sí se pueden calcular de forma directa (por el número de comentaristas y por la frecuencia de sus comentarios), el 90% sólo se puede estimar de forma indirecta.
Principio olímpico de la resignación informacional [Formulado por Jorge Juan Fernández]
“En un contexto de infoxicación, no se puede absorber todo lo que uno cree que debe saber.”
Corolario: en términos informacionales, hay que saber perder. Es decir, lo importante es participar…
Paradoja del síndrome asintótico
“Saber que se está cada vez más cerca sin dejar de saber que no se llega nunca.”
Esta paradoja es el aforismo n.º 624 formulado por Jorge Wagensberg en su libro A más cómo, menos por qué (Tusquets Editores, Metatemas 92).
Jorge Wagensberg es doctor en física y profesor de teoría de los procesos irreversibles en la Universidad de Barcelona, y un dinámico estimulador del debate de ideas.
Principio del 99/1 [Formulado por Jorge Juan Fernández]
«Un trabajador del conocimiento dedica el 99% de su tiempo a la ingestión de información, y sólo el 1% a su digestión.»
He aquí la claudicación ante el problema de la infoxicación. En esta sociedad del conocimiento, donde todo es “aquí y ahora”, nadie se para un segundo para pensar (“digerir lo que se ingiere”).
En resumen, el problema que se genera con la infoxicación sólo se resuelve autoimponiéndonos una dieta informacional. Y dándonos tiempo a digerir lo que ingerimos. Porque “no existen sustancias tóxicas, sólo dosis tóxicas” (aforismo n.º 682 formulado por Jorge Wagensberg en A más cómo, menos por qué).
Paradoja de los sistemas de búsqueda de información [Formulada por Alfons Cornella]
«Tenemos máquinas para generar más información, pero no herramientas para descubrir qué información es la más relevante para nuestras necesidades en un momento determinado.»
En un contexto de infoxicación, los sistemas de búsqueda de información de que hoy disponen los trabajadores del conocimiento van en contra de solucionar sus problemas. En vez de reducir sus opciones a las que le son estrictamente necesarias, la tecnología disponible aumenta el problema.
En el fondo está el dilema entre la exhaustividad (“todo lo que hay sobre”) y la relevancia (“lo más útil sobre”). El mundo «googlelizado» es un mundo de exhaustividad. Pero el mundo de los humanos, al menos mientras no consigamos reemplazar nuestro cerebro por algo mejor, es un mundo de proceso limitado de información (no podemos aumentar nuestras horas de vigilia) y, para sobrevivir informacionalmente, la relevancia es crítica. ¿Dispondremos algún día de los instrumentos, y las capacidades, para convertir esa exhaustividad en conocimiento relevante?
Principio de la sabiduría colectiva [Recopilado por Alfons Cornella]
“En determinadas circunstancias, los grupos grandes (o sea, las multitudes) son más inteligentes que las personas más inteligentes del grupo.”
En un fantástico e instructivo libro, The Wisdom of Crowds, traducido al castellano como Cien mejor que uno, James Surowiecki explica que la agregación de la inteligencia de la multitud genera una inteligencia colectiva excelente. Así, Surowiecki sugiere que en lugar de ir buscando siempre a un “experto” como aquel que es más inteligente y tiene la solución para un determinado problema, quizá fuera mejor, simplemente, “preguntar a la multitud”.
Surowiecki avisa, sin embargo, de que, para que una multitud sea inteligente, es preciso que se cumplan cuatro condiciones:
1. Diversidad: el grupo de personas es suficientemente diverso, para que todo el espectro de posibles opiniones esté representado.
2. Independencia: cada persona decide basándose en la información individual que tiene, y no en el comportamiento de los demás.
3. Descentralización: las personas del grupo tienen un cierto grado de especialización en su área de conocimiento local (o sea, hay experiencia distribuida).
4. Agregación: hay algún tipo de mecanismo para recabar la opinión de los individuos con el fin de derivar una decisión colectiva.
Hay un fantástico ejemplo de cómo las decisiones colectivas son excelentes cuando se cumplen estas condiciones: el mecanismo de pagerank de Google. En Google se cuentan cuantos links tiene una página desde otra página. Una página “vota” por la relevancia de otra poniéndole un link. Así, al sumar los “votos” que las demás páginas dan a una página determinada se mide la relevancia de esta última (que no su visibilidad, o sea, lo que la gente la visita).
Las “votaciones” son realizadas por millones de páginas (detrás de las cuales hay personas que las han hecho), de temas increíblemente diversos, y han puesto los links a otras páginas con gran independencia (aunque aquí quizá deberíamos discutir un poco más… porque hay algunas páginas que se convierten en referentes de facto sin que la gente ni siquiera las conozca bien, caso de los periódicos).
Volviendo al tema de las cuatro condiciones, me da la impresión de que empiezan a aparecer algunas paradojas. Así, éste es un momento de la historia en la que prácticamente las cuatro condiciones se podrían cumplir cada día. Hay, en principio, acceso a tanta información como se quiera, cada cual puede especializarse en lo que prefiera, hay mecanismos novedosos para recabar las opiniones, etc. Pero, curiosamente, es también el momento en que estamos, quizás, más desinformados, y en el que somos más susceptibles de ser manipulados, en masa. O sea, es más difícil en la práctica asegurar que las personas sean informacionalmente independientes.
James Surowiecki es redactor en The New Yorker, donde escribe la popular columna sobre negocios, “The Financial Page”
Principio del correo electrónico no deseado [Formulado por Jorge Juan Fernández]
Existen tres tipos de correo electrónico no deseado, que afectan de manera diferente a los trabajadores del conocimiento y a las organizaciones:
· El primero es el spam: es aquel e-mail, no solicitado, que proviene de direcciones de correo desconocidas, con fines comerciales o fraudulentos. Según la consultora Radicati Group (http://www.radicati.com), con el spam se cumple algo parecido a la ley de Moore: el número diario de spam se duplica cada 18 meses (ley de Moore del spam). Los últimos cálculos señalan que de los casi 200.000 millones de e-mails que se envían diariamente, entre el 74% y el 98% son spam.
· El segundo es el spam-PPT: es aquel e-mail, solicitado o no, que lleva adjunto ficheros, proveniente de direcciones de correo electrónico conocidas, sin fines comerciales, pero que no sólo roba tiempo a un trabajador del conocimiento, sino que atasca el servidor. La temática es variada, pero se concentra en tres temas: sexo, consejos sobre la vida y el amor, y rivalidades deportivas.
· El tercero es el spam informacional: es aquel correo electrónico que se genera dentro de las organizaciones para asegurarse de que “mi jefe sabe cuánto trabajo…”. Tiene mucha relación con el principio SNAFU (“Situation Normal – All Fucked Up” ): la comunicación de calidad sólo es posible entre iguales.
El siguiente recuadro recoge las principales características de cada tipo:
Variables | Spam | Spam-PPT | Spam Informacional |
Fines Comerciales | Si (directo) | No | Si (indirecto) |
Origen/Generador | Máquinas | Humanos (externos e internos de la organización) | Humanos (internos de la organización) |
Modelo de Negocio Asociado | Si | No | Si |
Delito | Si | No | No |
Receptores | Desconocidos | Conocidos | Conocidos |
Volumen | *** | * | ** Mayor entre los mandos intermedios (te envían los superiores y los subordinados) |
Archivos Adjuntos | No | Si | Si/No |
Peso (kb) | * | *** | *** |
¿Atasca el Servidor? | No | Si | Si |
Deseado | No | No/Si | No/Si |
Necesidad de ser leído | No | No | Si |
Solicitado | No | No/Si | No/Si |
«Ladrones de Tiempo» | No | Si | Si |
¿Genera perdida de Tiempo? | * | *** | *** |
¿Por que funciona? | Porque tiene un buen modelo de negocio | Porque es ocio, introducido en los canales corporativos | Por miedo a los superiores y a posibles consecuencias negativas. |
Posibles soluciones | Medidas legales, técnicas, económicas. | Pedir a los amigos que te borren de sus listas de distribución. No enviar nada por ti mismo. | Introducir una nueva cultura en la organización. |
En todo caso, si aceptamos que el e-mail es un medio de comunicación cuya función es poner en contacto, cada tipo de correo electrónico no deseado se combate de forma distinta:
· Contra el spam se puede luchar (ver kNewton: buscando un orden en la información (2004) para un análisis de las diferentes opciones), destruyendo su modelo de negocio, lo cual consiste principalmente en hacer más caro a los spammers el envío de spam.
· El spam-PPT , como su origen es de amigos y conocidos, se puede combatir pidiendo que no te envíen nada, nunca. Y aplicándose a uno mismo la ley de Postel (ver más adelante).
· El spam informacional es más complicado de vencer. Son los propios profesionales de las empresas, auténticos generadores de spam informacional, con billones de mensajes y billones de gigas en documentos adjuntos, de información insustancial, quienes son los máximos responsables de su generación. La tarea de hacer profesionales “informacionalmente responsables” depende más del tipo de organización que del tipo de persona.