Pensemos, por un momento, en lo siguiente: una mañana, los que nos dedicamos a la producción y consumo de cultura (en mi caso, conocimiento de las ciencias sociales), nos levantamos y nos enteramos de que todo el conocimiento está, ahora, disponible. Está abierto. Ya nada ni nadie nos puede separar de nuestras fuentes de valiosos datos que, muy frecuentemente, han sido inaccesibles. De repente, y gracias a la ubicuidad de internet y a la incursión de los dispositivos electrónicos (desde la computadora de escritorio al último modelo de teléfono celular), todo está al alcance de la mano. Supongamos, para extender este escenario, que limitaciones culturales básicas (como la multiplicidad de lenguas o la educación formal que se suele requerir para hacer búsquedas sofisticadas) también han desaparecido. Claro, con ellas se fueron algunos patrones de organización del conocimiento, pero eso parece un precio bajo frente al caudal de información ganado. Sin barreras, los productores culturales, los científicos, los filósofos y los artistas habitan, desde esa mañana, un mundo de total acceso, de disponibilidad infinita, de oportunidades inmediatas. Y, entonces, quizá por su inmanente tendencia a la crítica, se preguntan: ¿y ahora cómo hacemos para lidiar con tanto material? ¿Cómo organizo mi tiempo para leer todos esos artículos? ¿Cómo estructuro mi quehacer para revisar esos millones de videos que me permiten recorrer virtualmente museos, archivos, bases de datos? En ese momento comprendemos tres aspectos del nuevo paisaje que caracteriza el comienzo del siglo XXI y sobre el que me explayaré en las próximas secciones.
El problema de acceso a la información es parte de un conjunto más amplio de asuntos que llamaremos asimetrías del conocimiento.
La apertura a grandes volúmenes de datos, a códigos de software y a infinitas bibliotecas y hemerotecas interconectadas sólo desplaza el problema de la asimetría sin solucionarlo, incluso en más de un sentido lo potencia.
Surgen algunas prácticas nuevas (por ejemplo, lo que llamaré lectura estratégica y la softwarización del procesamiento de datos), y tienden a desaparecer otras (como la visita permanente a bibliotecas y la consulta de archivos).
En este análisis, mi argumento estará dividido en seis partes. Comienzo por una breve reflexión histórico-sociológica sobre la abundancia de información y la posibilidad, recurrente, de que se vuelva un exceso. Empero, aunque la noción de exceso parece implicar necesariamente un juicio de valor, busco observar más bien de qué manera esta noción ha llevado a la aparición de estrategias para lidiar con ese caudal de información. Luego introduzco la cuestión de las asimetrías y comienzo por señalar aspectos teóricos de ese fenómeno con el fin de introducir, al final de esa sección, la importancia de los estudios de infraestructura académica como dimensión constitutiva de las asimetrías. Posteriormente busco llamar la atención sobre la necesidad de mirar las prácticas de los productores de conocimiento en lugar de sus productos, dado que ellas permiten abrir la caja negra que han sido, a lo largo de la historia, el arte, la filosofía y la ciencia.1
Las prácticas son relevantes, en este sentido, porque permiten observar las maneras en que la infraestructura académica ha sido más que un mero contexto para la producción cultural. A continuación exploro, con cierta superficialidad por razones de espacio, dos de las consecuencias centrales del incremento exponencial de información disponible: la necesidad de leer de manera diferente y más acorde a las necesidades sociotécnicas de la producción cognitiva y, consecuentemente, la confianza creciente en dispositivos y software como forma de mejorar la calidad o aumentar la cantidad de dicha producción. Así, en la última sección, presento algunas implicaciones directas e indirectas de este nuevo escenario, con el foco en la producción cultural de las periferias.
1. El problema: de la abundancia al exceso de información
La idea de que nos rodea mucha más información de la que podemos manejar no es original. Los historiadores, especialmente aquellos que han analizado la historia de documentos y del libro, ya nos han enseñado que ha existido una constante preocupación por el volumen de información disponible. Blair (2010, p. 3), por ejemplo, sostiene que
la percepción sobre, y las quejas alrededor de, la sobrecarga (overload) no son exclusivas de la actualidad. Autores de la Antigüedad, la Edad Media y la temprana Modernidad y otros que trabajaron en contextos no occidentales articularon similares preocupaciones, en particular sobre la sobreabundancia de libros y la fragilidad de los recursos humanos para manejarlos (como la memoria y el tiempo).
En la Antigüedad, Séneca fue un ejemplo de esta preocupación sobre la calidad y la cantidad de los libros disponibles para ser leídos. Su distringit librorum multitudo (“la abundancia de libros es una distracción”) sintetiza su visión sobre la necesidad de leer selectivamente. Su consejo fue concentrarse en pocos (buenos) libros y leerlos repetidamente, en busca de sus múltiples (y a veces escondidos) significados. De este modo, el criterio con el que recortar el universo de publicaciones contribuyó, simultáneamente, a crear un canon. “Limitar la cantidad y la naturaleza de la información a un canon establecido de obras -sostiene Blair- se percibió como aceptable, usualmente por preceptos morales” (2010, p. 15).
A finales de la Edad Media, con la creación de la imprenta de tipos móviles en Alemania, la situación empeoró, no sólo porque se multiplicaron los libros disponibles (se crearon circuitos regionales de libros y se acentuó el poder y la influencia de los editores), sino porque se facilitó de tal manera el proceso que la calidad de lo publicado se vio en peligro. Las copias de imprenta solían tener baja calidad (lo que afectó la lectura), errores tipográficos o, peor aún, podían basarse en manuscritos incompletos o falsos. Y, un tema no menor, se empezó a ver como perjudicial que la búsqueda de beneficio económico de los impresores afectara la edición de libros (Blair, 2010, pp. 46-49).
En los siglos siguientes a la invención de la imprenta en Europa, numerosos académicos e intelectuales reflexionaron sobre el problema. Gleick (2011) sostiene que figuras de la talla de Leibniz y Pope señalaron las posibles nefastas consecuencias de la proliferación de libros, e incluso fueron, en algún sentido, responsables de la metáfora la “inundación de información” (deluge of information). Para Leibniz, “la horrible masa de libros que sigue creciendo puede contribuir en mucho (al barbarismo). Porque, al final, el desorden se volverá insoportable” (citado en Gleick, 2011, p. 402). Asimismo, el poeta inglés satirizaba “aquellos días cuando […] el papel se volvió tan barato, y los impresores tan numerosos, que un diluvio de autores pobló la tierra” (citado en Gleick, 2011, p. 402).
Para muchos pensadores de la Modernidad, la única manera de contrarrestar el fenómeno de la multiplicación de libros era poner el foco en aquellos que eran considerados valiosos por los expertos, por la tradición. De ese modo, mientras algunas instituciones (sobre todo, la universidad) se acoplaban y reproducían un canon en las artes, la filosofía e, incipientemente, en la ciencia (Shapin y Schaffer, 1985), se iba creando un mercado cada vez más amplio de lectores que paulatinamente desafiaban esa forma de leer (Finkelstein y McCleery, 2014). La disminución de las tasas de analfabetismo, la universalización de la educación (en ciertas partes del mundo) y la exitosa comercialización de los libros puso a sectores antes excluidos de estas prácticas culturales en contacto con nuevos productos y, consecuentemente, nuevas ideas (Manguel, 1996).
Sin embargo, para mediados del siglo XX el problema de la sobrecarga de información era una y otra vez traído a colación por expertos. En su discurso presidencial al frente de la Asociación Histórica Americana, en 1963, Elisabeth Eisenstein sostuvo que, en ese entonces, parecía “haber pocas razones para preocuparse por la pérdida de la memoria de la humanidad (y muchas) para estar preocupado por la sobrecarga de sus circuitos” (citado en Gleick, 2011, p. 401). Unos años después, el futurólogo Alvin Toffler (1970) utilizaba por primera vez la noción de sobrecarga de información para el público en general (Weinberger, 2011, p. 5). Mientras los historiadores se topaban con la posibilidad de inmensas bases de datos y fuentes (algo que ha sido abundantemente estudiado por los historiadores de las humanidades digitales), una nueva ola de información llegaba: los correos electrónicos y la comunicación en internet. Para 1984, Palme (1984, p. 176) señalaba, proféticamente, que
La gente recibe muchos mensajes, los cuales no tiene tiempo de leer. Esto también significa que los mensajes realmente importantes son difíciles de hallar en el amplio flujo de mensajes menos importante. En el futuro, cuando tengamos sistemas de mensajes más y más grandes, y estos sistemas estén más y más interconectados, esto será un problema para casi todos los usuarios de esos sistemas.
Las últimas décadas presentaron varios desafíos a esta sobrecarga. Primero, los formatos. No sólo estamos sobrecargados de libros, sino también de archivos de video (Youtube),2 audio (Spotify),3 y fotografías (Instagram),4 lo que se acentúa con el software destinado a circular este material entre usuarios (P2P). Segundo, el volumen total. Se estima que actualmente internet contiene 500 mil millones de gigabytes, lo que transformado en información en papel significa tantos libros como 10 veces la distancia de la Tierra a Plutón.5 Para 2009 había unos 133 millones de blogs, y en 2011, alrededor de un billón de páginas web (Weinberger, 2011, p. 7). El volumen de información generada, compartida y usada a cada minuto en internet es tal, que ha dado lugar a lo que hoy se denomina “big data”, es decir, enormes cantidades de información que permiten -dado que la mayoría está en formatos digitales- un manejo de datos como nunca antes en la historia de la humanidad. Tercero, y siguiendo a Hayles (2012), con la llegada de la información y los dispositivos necesarios para su manejo y administración, aparecen nuevas prácticas que reconfiguran disciplinas, campos de estudio y áreas completas del conocimiento. Así, los productores intelectuales
están afrontando las diferencias que los medios digitales hacen en cada aspecto de la indagación humanística, incluyendo la conceptualización de proyectos, la implementación de programas de investigación, el diseño de currículos y la educación de los estudiantes. La era de la imprenta está pasando, y los presupuestos y prácticas asociadas a ella están ahora siendo visibles como específicas para un medio, más que un status quo mayoritariamente invisible. (2012, pp. 1-2.)
La reflexión sobre la sobrecarga o inundación de información, así como la referente a “big data” y los cambios cognitivos asociados parecen referirse a un contexto global, más o menos homogéneo, que se moldea a partir de estas transformaciones. Dicho de otro modo, parece que el exceso de información es un fenómeno universal y, consecuentemente, que todos lidiamos con él de maneras más o menos semejantes. Es hora de agregar un poco de geopolítica del conocimiento a este diagnóstico.
2. El contexto: centros y periferias del conocimiento
Desde finales de la década de 1970, los estudios de la ciencia y la tecnología dieron un giro que destacaba la conexión entre la ciencia, como producto humano, y su entorno de producción (como conjunto de elementos que favorecen u obstaculizan la generación de saberes). Numerosos y detallados estudios empíricos aportaron la materia prima con la cual era posible observar esa situacionalidad del conocimiento (Golinski, 2005). Entonces, las implicaciones comenzaron a emerger.
La primera destacable, congruente con quienes habían puesto el tema sobre la mesa, fue el sesgo de género del conocimiento científico. La ciencia era, antes que nada, el producto de hombres, blancos y heterosexuales (Haraway, 2004; Harding, 1998).
La segunda implicación era que la ciencia estaba imbricada en su instrumentación en el conjunto de materialidades que permitía los procesos de producción de conocimiento (Latour y Woolgar, 1986; Ihde, 1998; Latour, 2005).
La tercera implicación fue que el universalismo de la ciencia (o, mejor dicho, el curioso fenómeno que algo que era verdad en un contexto fuera también verdad en otro) se convirtió en objeto de estudio. Para la visión positivista tradicional, la ciencia es universal porque sus leyes funcionan en todo tiempo y lugar o, lo que es similar, no se ven afectadas por quienes las formulan, las critican o las usan. Pero si las dos implicaciones previas se habían convertido en supuestos más o menos compartidos de los estudios sobre ciencia y tecnología (ECT), entonces se hacía evidente que la ciencia debía “viajar” de su contexto de enunciación (y validación original) a otros de modificación o uso (y validación indirecta) (Shapin y Schaffer, 1985). Latour (1987, p. 251) llamó a este proceso de traslado “metrología”, y la definió como la “gigantesca empresa para hacer del exterior (del laboratorio) un mundo dentro del cual los hechos y las máquinas pueden sobrevivir”.
Una cuarta implicación, de tinte geopolítico, emerge si aceptamos las tres restantes: el conocimiento no circula homogéneamente alrededor del mundo (o de las redes). No sorprende, entonces, que se establezcan circuitos de flujo de conocimiento que, en general, unen a personas, instituciones y países del denominado mundo desarrollado más frecuentemente que a éstos con colegas del mundo en desarrollo (Wagner, 2008). Escasean, en cambio, contactos permanentes e institucionalizados entre quienes se ubican en el sur global (Sousa Santos, 2009). Sea que el foco de la circulación esté en las personas (por ejemplo, migraciones de científicos), en las instituciones (universidades y redes institucionales), en textos (libros en particular y formas de leer), en objetos (especímenes e instrumentos de medición), o en valores (ideas de relevancia o prestigio), lo cierto es que la literatura sobre las asimetrías que el desplazamiento de conocimiento implica y, habitualmente, reproduce es abundante (Alatas, 2001, 2003; Baber, 2003; Burke, 2012; Connell, 2007; Keim, 2008; Livingstone, 2005; Rodríguez Medina 2014a; Kuhn y Weidemann, 2010; Vessuri, 2006, entre otros). Desconocer las diferencias entre los lugares de enunciación del conocimiento “está crecientemente considerado como más revelador de quiénes lo ignoran y las desafortunadas limitaciones de sus mundos intelectuales que de las ciencias que practican y valoran” (Harding, 2005, p. xi).
La situacionalidad de la ciencia y la tecnología, entonces, nos pone frente a un conocimiento que está geográfica, política, social, económica y culturalmente situado y que, por serlo, presenta desafíos a su circulación. En este contexto, el impacto de las nuevas tecnologías de la información y la comunicación, y en particular de internet, se está analizando con cuidado para no caer en optimismos desmedidos ni en pesimismos paralizantes. Si bien el acceso a estas tecnologías es, para empezar, el primer factor que se debe tener en cuenta, la penetración creciente hace pensar que esta primera brecha puede llegar a reducirse notoriamente en los próximos años, incluso en áreas socioeconómicamente rezagadas.
3. La novedad: centros y periferias en la era de internet
En cuanto a la infraestructura básica de conexión y acceso, las asimetrías siguen en pie y con fuertes efectos en términos de producción de contenido (que sólo en ocasiones puede considerarse conocimiento). Si prestamos atención al porcentaje de hogares con computadoras, en el mundo desarrollado pasó de 55.5% en 2005 a 80.8% en 2015, mientras que en el resto de mundo se incrementó de 26.2 a 45.4% en el mismo periodo. En los hogares, el acceso a internet se ha incrementado en esta última década de 44.7 a 81.3% (mundo desarrollado) y de 18.4 a 46.4% (resto del mundo), siendo similares figuras para el uso individual de internet.6 Por estas razones, la penetración de internet por área geográfica todavía tiene asimetrías importantes, y los 20 países que utilizan más internet dan cuenta de 56.9% del uso global de la red.7 En América del Norte (95%), Europa (84.6%) y Oceanía (68.3%) hay amplia penetración; en América Latina y el Caribe (65.1%) y Medio Oriente (57.8%), una penetración intermedia, y en Asia (47.4%) y África (32%), una penetración baja, aunque es Asia la que da cuenta de 49.2% de todos los usuarios de internet del mundo.8
Lógicamente, hay filtros importantes aun cuando se cuenta con acceso a internet. La lengua es uno de los más relevantes. Alrededor de 30% de los contenidos en internet están en inglés, 14% en chino, 8% en español, 8% en japonés, 5% en alemán, 5% en francés, 3% en portugués, coreano, italiano y árabe y 18% en los restantes idiomas del mundo (Anheier y Raj Isar, 2008, p. 503). Otro filtro es el acceso a banda ancha, porque eso es, en estos momentos, una condición casi indispensable tanto para la carga como para la descarga de contenidos. Así, en 2005, por cada 100 habitantes había 12.3 con conexión a internet en banda ancha en el mundo desarrollado, cifra que aumentó a 29 en 2015. En el mundo en desarrollo, había 1.3 en 2005, y 7.1 en 2015. Aunque el incremento es mayor proporcionalmente en el mundo en desarrollo, la relación actualmente es 4 a 1 entre ambas regiones del mundo.9
Si nos movemos a contenidos generales, la situación también se puede describir como unos pocos nodos centrales y muchos periféricos. En el sentido más amplio, y asumiendo una relación cualitativamente relevante entre cantidad de sitios web y cantidad de contenidos producidos, se observa que Estados Unidos (55.8%), que encabeza la lista, tiene más de la mitad de todas las páginas web del mundo. Japón (7.1%), Brasil (2.9%), Italia (2.8%), China (2.2%) y Alemania (2.2%), que son los cinco que más páginas web tienen después de Estados Unidos, suman 17.2%. Así, estos seis países dan cuenta de más de 70% de todos los contenidos producidos en el mundo y disponibles en internet.10 En un estudio del Oxford Internet Institute, cuyo título poco atractivo es Age of Internet Empires, se encontró que
La supremacía de Google y Facebook sobre cualquier otro sitio en la web es claramente evidente. Vemos también una interesante continuidad regional de estos dos “imperios”. Google es el sitio más visitado en la mayor parte de Europa, América del Norte y Oceanía. Facebook, en contraste, es el más visitado en la mayor parte del Medio Oriente y África del Norte, así como también en la América Latina hispanoparlante. La situación es más compleja en Asia, donde competidores locales han sido capaces de resistir a los dos grandes imperios americanos. Baidu es reconocido como el buscador más usado en China…, y Yahoo! en Japón y Taiwán.11
¿Se mantiene esta asimetría cuando nos enfocamos en el contenido específico? Aunque es difícil de determinarlo cabalmente, un indicador de la concentración de información espacialmente delimitada es la distribución de entidades geolocalizadas en la red. A partir de una muestra de 250 000 sitios indexados por Google en 2009, 90% de ellos se había producido en Estados Unidos, Europa Occidental o Japón, lo que señala una marcada concentración de contenidos de la web.12 Si se aprecia, por ejemplo, esta información contenida en Freebase, se encuentra que 45% de las entidades geolocalizadas en la web corresponden a Estados Unidos y 33% a Europa.13 Esto indica una sobrerrepresentación de estos lugares si tenemos en cuenta su población y su territorio, y una clara subrepresentación de regiones como América Latina y África subsahariana. Al considerar Wikipedia, por ejemplo, también se observa una concentración geográfica. Alrededor de la mitad de los más de 3.3 millones de artículos en 44 idiomas publicados en esa enciclopedia online en 2012 son sobre personas, lugares y eventos ocurridos en Europa Occidental. Asimismo, inglés, polaco, alemán, holandés y francés son los idiomas con más artículos geolocalizados. No sorpresivamente, los artículos mencionados son, además, los más antiguos de Wikipedia, lo que habla de un acceso a la red y sus recursos más temprano por parte de los habitantes de estas regiones.14
La concentración del conocimiento a medida que elevamos el grado de especialización (llegando a las disciplinas académicas como ciencias naturales, ciencias sociales, humanidades y tecnología), también es llamativa. Geográficamente, Estados Unidos y el Reino Unido juntos publican más de la mitad de todas las revistas especializadas del mundo, lo que contribuye a la hegemonía lingüística del inglés.15 Editorialmente, algunos estudios muestran que Springer, Wiley-Blackwell, Elsevier y Taylor & Francis controlan la mayor parte del mercado académico y poseen relativamente altos niveles de citación.16 Llama la atención, incluso, que internet no haya venido a revertir esta tendencia. Según Larivière,Haustein y Mongeon (2015, p. 1.),
en las ciencias naturales y sociales y humanidades, Reed-Elsevier, Wiley-Blackwell, Springer y Taylor & Francis han incrementado su porción de lo publicado, especialmente desde el advenimiento de la era digital (mediados de la década de 1990). Combinadas, las cinco más prolíficas editoriales dan cuenta de más de 50% de todos los artículos publicados en 2013. Las disciplinas en las ciencias sociales tienen el mayor nivel de concentración (70% de los artículos en las cinco editoriales) mientras que las humanidades han permanecido relativamente independientes (20% en las cinco editoriales).
Considerando que las editoriales basan su modelo de negocios en las aportaciones que hacen bibliotecas, asociaciones profesionales e individuos a través de suscripciones, el panorama no luce alentador para el movimiento de acceso abierto o ciencia abierta, aunque éste sigue ganando adeptos en instituciones (especialmente públicas) y en académicos individuales que, más allá de las trabas económicas, se sienten obligados a conseguir literatura o datos primarios. Larivière et al. (2015) señalan que los costos operativos de publicar artículos académicos no justifican los montos que se establecen para que ciertos trabajos queden en modo acceso abierto, lo que habitualmente significa que el o los autores pagan tarifas de hasta 5 000 dólares estadounidenses que, con frecuencia, se deben abonar a partir de fondos de investigación. Sin embargo, también señalan que las bases de datos que indizan artículos suelen favorecer los publicados por estas editoriales, lo que suele ir en detrimento del acceso abierto, en especial para los jóvenes investigadores cuyas carreras aún no están consolidadas. En otras palabras, el sistema de publicaciones académicas, la cúspide de la pirámide de materialización del conocimiento, está sumamente oligopolizado y, como consecuencia, ni las nuevas tecnologías de la información ni los intentos institucionales e individuales parecen ser, por ahora, suficientes para forzar a una revisión a fondo.
La concentración geográfica también incluye el lugar donde está ubicada la institución de filiación del investigador-autor. Para el periodo 1999-2008, por ejemplo, Estados Unidos (31.8%), Japón (8.5%), Alemania (8.2%), Inglaterra (7.3%) y China (6.2%) daban cuenta de 62% de la producción de artículos en ciencias naturales y sociales. A su vez, las instituciones más prestigiosas del mundo, según los rankings más usados, también se concentran en estos países, lo que produce asimetrías de tal magnitud que, por ejemplo, entre las 400 mejores universidades del mundo, la zona metropolitana de Londres tiene más instituciones que África subsahariana, Medio Oriente y América Latina combinadas.17
Llegados aquí, la cuestión de las asimetrías debe tomarse como constitutiva del escenario científico tecnológico actual. También el hecho de que estas asimetrías condicionan fuertemente el acceso a la literatura, datos y demás recursos para la investigación. Más aún, esas divergencias afectan la manera en que el conocimiento circula (Rodríguez Medina, 2014a; 2014b). No obstante, el artículo comenzaba con la hipotética situación de una apertura total, de un libre acceso irrestricto al conocimiento. Para que tengamos una idea de lo que ello significa, cuantitativamente se podrían leer los 24 827 197 artículos que entre 1996 y 2014 fueron publicados exclusivamente por los países más productivos: Estados Unidos, China, Reino Unido, Alemania, Japón, Francia, Canadá, Italia, India y España.18 Y esto sólo representa los últimos ocho años de la producción de 10 países.
Dicho con otras palabras, el acceso abierto genera, sin lugar a dudas, una cantidad y variedad de información y conocimiento que no es fácil manejar: leer, clasificar, ordenar, estructurar, combinar, usar y criticar se vuelven desafíos fundamentales para los investigadores. Estos volúmenes, entonces, reconfigurarán -una vez más- las asimetrías y generarán una que, como sostiene Blair (2010), parece nueva, pero es antigua: la brecha de capacidades para administrar el conocimiento. Entonces, así como terremotos de igual intensidad no provocan los mismos daños en dos zonas diferentes, ese flujo descomunal no tendrá las mismas consecuencias para los centros que para las periferias. Entre ellas, quiero destacar y analizar dos con un poco de detalle: la transformación de la lectura erudita y el uso de software académico.
4. El impacto: lectura estratégica y software académico
Frente a un poco más de 24 millones de artículos, sin contar libros y literatura gris, ni la producción de otros países, ni los contenidos en otros formatos (como audio y video), el investigador, de la disciplina que sea, queda atónito. Si sus antecesores habían estado luchando por el acceso abierto, el académico deberá luchar por organizar semejante cantidad de conocimiento. Más aún, deberá partir del supuesto que muchos de esos contenidos quizá no sean relevantes y de que más de uno que sí lo es se escapará de su alcance. La tarea principal cambia: ya no es encontrar, ahora es clasificar. Ya no insumirá demasiado tiempo en buscar, ahora lo deberá invertir en ordenar. Entonces, ¿qué hará?
Dejemos de lado las prácticas deshonestas -que las hay y las seguirá habiendo- para concentrarnos en la cotidianeidad de quien está emprendiendo alguna investigación. Como ya se ha estudiado, comenzará con Google, quizá para pasar prontamente -dado el caudal de páginas web identificadas- a Google Scholar. Allí, con suerte, revisará las primeras cuatro, diez, cincuenta páginas. Una nimiedad contra los cientos de miles que fueron encontradas. Esperará que Google haya puesto al principio los trabajos más importantes, los más citados, los más hipervinculados. Quizá busque otras bases de datos: JStor, Ebsco, Web of Science, Scielo, Scopus, entre muchas más. Incluso puede ocurrir que revise las revistas especializadas a través de metabuscadores en Cambridge University Press, Wiley-Blackwell o Elsevier. En cada caso hará lo mismo: mirará algunos artículos, esperando cruzarse con los correctos (es decir, los que brindan información, los que aportan ideas teóricas, los que muestran metodologías adecuadas… y los que deben citarse para lograr publicar el propio trabajo). Fácilmente puede terminar con una carpeta en el “escritorio” de su laptop con alrededor de 100 artículos.
En este punto, nuestro investigador no tiene más remedio que leer. Buscará la ocasión - en el contexto de instituciones de investigación cada vez más burocratizadas y administrativas (Ginsberg, 2011)- y, con suerte, revisará abstracts o resúmenes de cada uno. Ese estratégico fragmento que en menos de 200 palabras nos dice de qué trata el artículo. Después de esa lectura, se enfocará en los que reúnan ciertas condiciones. Incluso, quizá, subió esos artículos (si están en formato pdf) a algún software (digamos, Atlas.TI) y los leyó allí. Puede haber dado un paso más: mediante autocodificación, el software detecta pasajes que cumplen ciertos criterios, definidos por el investigador, y genera una codificación automática. Cuando hablamos de cientos o miles de páginas, esto puede llegar a ser imprescindible. Volverá a leer sólo aquello que ha codificado con el fin de ajustar todavía más su tiempo y el volumen de material por abordar. Luego, deseando que el software también pudiera escribir su propio artículo, comenzará a delinear los primeros trazos (ahora son, más bien, los primeros caracteres en Word) y, así, se sumergirá en la fase productiva, original, creativa, que será un ida-y-vuelta entre Word, Atlas.TI, los libros junto a él en su escritorio, y otros dispositivos más (como el teléfono celular) y algunas personas adicionales (como algún becario o asistente).
Simple y cotidiana como parece, esta historia esconde dos estrategias que los académicos hemos venido desarrollando recientemente con poca reflexión sobre las posibles repercusiones no sólo en nuestra producción (o productividad, como prefieren decir directivos universitarios y gestores políticos), sino también sobre los contenidos de la misma y las prácticas que se han (re)articulado para hacerla posible. Por un lado, tenemos lo que llamaré “lectura estratégica”. Ésta consiste en una serie de prácticas, cada vez más dependientes de tecnologías específicas, que buscan, por un lado, identificar material profesional y disciplinariamente relevante y, por el otro, hacer más eficiente el tiempo disponible para su lectura mediante la fragmentación de pasajes destacados. La lectura estratégica tiene, por otro lado, un efecto de descontextualización (los pasajes se desprenden del entorno) y de estandarización (los pasajes se vuelven porciones de las revisiones de literatura que se han convertido en parte obligatoria de todo artículo). Más aún: en la medida en que se intenta escribir un producto académico altamente estandarizado, la lectura estratégica contribuye a dicho proceso de estandarización, pues reduce cualquier texto a aquello que puede/debe ser citado. La reducción, claro, permite incrementar la velocidad de lectura y, en última instancia, de escritura.19
En un reporte para la International Association of Scientific, Technical and Medical Publishers, Ware y Mabe (2009, p. 27) encontraron que
Los patrones de lectura están cambiando… con investigadores leyendo más (alrededor de 270 artículos por año), pero destinando menos tiempo por artículo, con tiempos de lectura que descendieron desde 45-50 minutos a mediados de la década de 1990 a un poco más de 30 minutos. El acceso y la navegación a artículos están cada vez más guiados por la búsqueda (search) que por la curiosidad (browsing).
Cuantitativamente se lee más; cualitativamente, menos. En realidad, no se lee, sino que se busca a través de la vista. Se lee para extraer; el texto es sólo materia prima. La lectura estratégica es, precisamente, esta búsqueda orientada que lo último que desea es asombrarse con lo encontrado, dado que ello llevaría a replanteos que alterarían agendas y plazos. La búsqueda está orientada a encontrar lo necesario, a reforzar lo que se piensa, a buscarle sustento a los prejuicios en el sentido gadameriano del término. Esta lectura no puede realizarse sin tecnología; es, en algún sentido, una cyborgización de la lectura. Si quien tiene problemas visuales requiere anteojos, quien lee para investigar requiere otras tecnologías, pero para cumplir la misma función: observar lo que de otra manera no es observable.
No sorprende, entonces, que el reporte arriba mencionado señale dos aspectos centrales de la actualidad y el futuro de la industria editorial. Por un lado, la rearticulación de publicaciones y datos (en una relación más compleja que la descrita en la literatura sobre comunicación científica) y, por el otro, la automatización de la producción del conocimiento. En ese sentido, se señala que
la explosión de investigación guiada por datos desafiará la publicación para crear nuevas soluciones que vinculen publicaciones a datos, para facilitar minería de datos y manejar conjuntos de datos como potenciales unidades de publicación… la muy discutida web semántica, aunque potencialmente difícil de lograr de un modo formal y comprehensivo, está comenzando a emerger en aproximaciones pragmáticas y limitadas, como la química y la biología molecular. Las tecnologías de web semántica ofrecen significativas oportunidades para incrementar la productividad de investigación mediante la potenciación (enhancing) de revistas, mejoramiento de la búsqueda y el descubrimiento, enriquecimiento de la experiencia del usuario, facilitando la minería de texto y datos y, en el largo plazo, permitiendo la extracción automática de conocimiento a partir de la literatura de investigación (Ware y Mabe, 2009, p. 6; énfasis añadido).
No es reciente la preocupación por la maquinización o la tecnologización ni respecto a qué actividades irá remplazando. Quizá la tendencia a producir conocimiento mediante la lectura estratégica asistida por software ha llamado la atención de algunos, especialmente en las humanidades, que ven acercarse al enemigo a su ciudadela. McGann (2014, p. 2) sostiene, en un texto sobre la academia en la era digital, que “el conocimiento textual y editorial, a menudo marginalizado en los estudios humanos como un dominio estrechamente técnico, debe ser nuevamente movido al centro de la atención humanista”. Y Manovich (2013, p. 8), quizá mucho más provocadoramente, ha señalado que el último reducto de la tecnología, su motor, el software, ha pasado casi inadvertido por quienes, no obstante, han venido dando cuenta de los cambios que la tecnología ha producido en la sociedad contemporánea. Así, sostiene que
El software es el pegamento invisible que mantiene todo junto… si la electricidad y el motor de combustión hicieron la sociedad industrial posible, el software de manera similar permite la sociedad global de la información. Los “trabajadores del conocimiento”, los “analistas de símbolos”, las “industrias creativas” y las “industrias de servicio” -ninguno de estos actores económicos claves de la sociedad de la información pudiera existir sin software… Paradójicamente, mientras científicos sociales, filósofos, críticos culturales y teóricos de los medios y los nuevos medios parecen por ahora cubrir todos los aspectos de la revolución de las tecnologías de la información, creando nuevas disciplinas como los estudios de ciberculturas, estudios de internet, estudios de juegos, teoría de nuevos medios, cultura digital y humanidades digitales, el motor subyacente que mueve a estos sujetos -el software- ha recibido comparativamente poca atención.
¿Por qué esta escasa atención al software justo cuando algunas de las prácticas más fundamentales de la vida académica, como la lectura y la escritura, se han transformado profundamente a partir de éste? La respuesta puede tener varias aristas. Tal vez porque algunos siguen pensando la labor intelectual como desconectada de la materialidad, como flotando sobre los lugares y las máquinas que, en definitiva, la hacen posible (cfr.Farías y Wilkie, 2015). O porque siguen percibiendo la tecnología como neutral, sin ser capaces de entender de qué manera cada una nos altera en nuestra relación con el mundo y con otros seres humanos (cfr. Ihde, 1999). Quizá porque al ignorar el papel del software como motor, para parafrasear a Manovich, se pierde de vista hasta qué punto ciertas prácticas están estandarizadas según el supuesto optimista de que dicha estandarización permite potenciar habilidades humanas que, de otra manera, serían impensables (cfr. Busch, 2013; Rodríguez Medina, 2014c). En cualquier caso, estamos ante pensamientos que, lejos de contribuir a comprender los desafíos que hay por delante, nos distancian del problema.
La dependencia del software para el quehacer académico y científico ha sido sólo recientemente analizada en términos cuantitativos. Una encuesta nacional realizada en el Reino Unido indica que 92% de los académicos usan algún tipo de software para investigación; que para 70% no sería viable la investigación sin software y que 56% de los académicos desarrollan su propio software, a veces sin conocimiento específico de programación. Los paquetes más populares son Matlab (20%, originario de Estados Unidos), R (16%, Nueva Zelanda), SPSS (15% Estados Unidos), Excel (12%, Estados Unidos), Python (11%, Estados Unidos), Nvivo (6% Australia) y Stata (6%, Estados Unidos), todos producidos y comercializados desde el mundo desarrollado.20 Así, la industria del software académico reproduce lo que sucede en la industria del software en general, donde de las 50 empresas desarrolladoras más importantes del mundo, 37 están en Estados Unidos, 4 en Japón, 3 en Alemania, 2 en Canadá, 2 en Reino Unido, 1 en Francia y 1 en los Países Bajos (Columbus, 2016). Aunque algunos softwares, como r, son libres y cada vez más usados en la industria y la academia (Borgman, 2015; Vance, 2009), la mayoría de los más usados tiene elevados costos de licencias, especialmente para organizaciones (aunque suele haber descuentos para instituciones educativas). Según el inegi, sólo en 2013, en México se invirtieron 726 000 millones de pesos en software en el sector educativo.21 En parte por los altos costos, en México hay una tasa de instalación de software sin licencia de 52% (en 2015).22
¿Por qué la concentración de desarrolladores de software y su uso privado -con licencias- tiende a reproducir la estructura de centros y periferias? En primer lugar, porque cuando se incluyen en la enseñanza universitaria, a través de cursos específicos (por ejemplo, de metodología cuantitativa usando SPSS o Stata), los estudiantes adquieren habilidades que luego podrán aplicar con todo su potencial en el mercado laboral usando el mismo software. En segundo lugar, en la medida en que el repositorio de material primario (bases de datos, entrevistas codificadas, etc.) queda formateado en cierto software (por ejemplo, spss o Atlas.TI), se vuelve imprescindible el acceso a actualizaciones (con costo económico). Finalmente, porque el software impone ciertos límites a lo realizable en el proceso de análisis, según principios metodológicos o teóricos del desarrollador. Al no poder disponer del código (excepto, claro, en los casos de open software), el investigador está atado a lo que pueda o no hacer a partir del menú de opciones del programa. Por estas razones, más que superar el problema de apoyarnos en tecnologías para lidiar con la abundancia de información, la cyborgización desplaza la asimetría desde el acceso a datos, información y conocimiento hacia su usabilidad para producir nuevos saberes.
6. Conclusiones
Quisiera terminar señalando, en primer lugar, algunas tendencias futuras. La automatización de la lectura estratégica se incrementará, debido a la dependencia de datos por parte de las organizaciones privadas, públicas y del tercer sector. La automatización alcanzará, probablemente pronto, niveles tales que la escritura de un artículo académico será, en buena medida, producto de software especializados. Software como Scrivener, LaTex o TypeSet son algunos que se ofrecen como ayuda a quien investiga, pero no es posible anticipar que dichos softwares, influidos por inteligencia artificial, puedan ir solicitando cada vez menos de los investigadores y aportando por su cuenta cada vez más. Por lo mismo, el uso de grandes volúmenes de datos (big data) será una tendencia creciente, aunque sólo aquellos comportamientos (como compras en línea) serán reducidos a datos con suficientes niveles de certeza. Asimismo, la automatización tenderá a imponerse sobre otras formas de evaluación de la calidad de la producción. El uso de factores de impacto es el primer paso en la tendencia a la primacía total de las bases de datos como formas de buscar estándares mínimos de calidad (Times Higher Education, 2015). Finalmente, las estructuras de consagración científica, académica y cultural dependerán, de manera creciente, de procesos presentados como imparciales, estandarizados y automatizados. Así, los índices con los que se evalúa la trayectoria de investigación de alguien (por ejemplo, el índice H), se irán expandiendo, ya que la interpenetración entre dispositivos, prácticas, personas e instituciones se irá solidificando. Si, como sostiene Manovich (2013), el software es el pegamento de la sociedad de la información, todo lo que se pueda convertir en objeto de programación, aquello que, aún a costa de simplificarse o distorsionarse, se pueda convertir en software, lo hará. Hay intereses, recursos y conocimiento puestos al servicio de este incipiente proceso. No parece haber, al momento, demasiados circuitos alternativos exitosos.
¿Puede haberlos? Pueden pensarse muchas otras maneras de leer, de escribir, de producir conocimiento, más allá de las prácticas canonizadas en las universidades y las políticas científicas y tecnológicas (Azor Hernández, Grijalva y Gómez, 2016). Pueden pensarse muchas otras maneras de evaluar dicha producción, tanto en lo individual, lo institucional y las políticas públicas, sin pensar que la evaluación de pares en revistas es la única, ni la mejor (Gingras, 2014). Puede haber otros públicos, además de los colegas, que se interesen y necesiten el conocimiento científico, tecnológico, social y humanístico, y cuyo acceso esté hoy todavía muy limitado. Pueden existir otras maneras de difundir lo producido de forma más amplia, más democrática, menos comercial y más sencilla (López Cuenca y Ramírez Pedrajo, 2008). Puede darse una ciencia más abierta, en todos y cada uno de los pasos que mediante libros, clases y prácticas de investigación se nos han inculcado y solemos reproducir sin mucha crítica.
Podría, como en las ciencias sociales japonesas y alemanas, priorizarse el conocimiento difundido en la propia lengua y en medios locales (Welch, 2007). Podría pensarse en limitar el número de publicaciones al año, estableciendo un techo, en lugar de un piso. Se podrían espaciar las instancias de evaluación de los sistemas científicos y tecnológicos, dejando periodos más amplios que invitarían a los científicos a proyectos más ambiciosos y de largo plazo (Sugimoto y Larivière, 2018). Podría incentivarse que los académicos participaran, como iguales, en proyectos sociales, económicos y culturales, como algunas organizaciones de la sociedad civil han mostrado que es viable y necesario (Stein y Daniels, 2017). Podrían establecerse repositorios nacionales o regionales de datos, de tesis, de publicaciones en proceso (literatura gris), pagados, pero también consultados, por los gobiernos u organizaciones internacionales (Bastow, Dunleavy y Tinkler, 2014). Podría haber publicaciones donde la revisión de pares fuera siempre un proceso abierto, donde el autor continuara el diálogo con la revista más allá de la revisión y lo estableciera luego con los lectores interesados, a manera de un documento permanentemente inconcluso (Ross-Hellauer, 2017). Podrían valorarse más las formas no textuales de producción de conocimiento, donde el material audiovisual, por ejemplo, que tiene más probabilidades de alcanzar públicos más amplios, fuera también respetado y tomado en cuenta por pares evaluadores (Correa-Díaz, 2016). Podrían desburocratizarse los procesos universitarios favoreciendo la creatividad y la innovación, y no el control y la auditoría (Ginsburg, 2011). Podrían reconocerse las diferencias disciplinarias, tanto en la forma como en el contenido, sin por ello ignorar o dejar de lado proyectos realmente interdisciplinarios donde los puentes no son artificiales, sino producto de diálogos de larga duración (Hernández de Gante, Mallorquin y Lora, 2008). Podrían reconocerse las asimetrías, discutir cuáles importan, decidir qué estrategias usar frente a ellas y establecer políticas institucionales y públicas de corto, mediano y largo plazos (Rodríguez Medina, 2014a). Todo esto que se podría hacer, casualmente, no suele estar en la agenda, porque no hemos sabido solidificarlo, “cajanegrizarlo” (Latour, 1993).
Porque mientras las bases de datos siguen construyendo dispositivos a partir de la información que manejan, mientras las burocracias multiplican formatos que llenar y que les da datos permanentemente, mientras los evaluadores recurren a factores de impacto que les resumen complejos procesos de producción y referencia académicos, mientras los consejos de ciencia y tecnología despliegan una creciente cantidad de formatos (la mayoría online) para estandarizar lo que muchas veces no es ni siquiera comparable, mientras todo esto tiene lugar a diario, alimentando ensamblajes sociotécnicos eficientes, los que los criticamos vamos relegándonos a un papel de espectadores asombrados, azorados por la eficacia burocrática aplicada al control de la actividad académica. Tal vez es hora de pensar, diseñar y poner en uso nuestro propio software para relacionar sociedad civil y academia; es momento de hacer nuestros formatos para ser llenados, en tiempo, forma y obligatoriamente por funcionarios que nos brinden datos actualizados; es ocasión para que nuestros medios de comunicación especializados (sin oligopolización de corporaciones editoriales) produzcan el diálogo entre, por ejemplo, sindicalistas, empresarios y académicos. O artistas, investigadores y activistas.
En suma, quizás es hora de enfocar nuestros esfuerzos -y dar batalla- no sólo en el ámbito de las ideas, es decir, de pensarnos a nosotros mismos desde nuestras prácticas y con nuestros marcos conceptuales, sino también de discutir qué nueva infraestructura necesitamos. ¿Necesitamos nuestras bases de datos nacionales o regionales? ¿Es necesario que las instituciones inviertan en equipos de traductores profesionales? ¿Requerimos equipos tecnológicos, como aplicaciones, para reforzar la seguridad de los investigadores mientras hacen trabajo de campo? ¿Debemos incrementar el apoyo a las revistas y líneas editoriales nacionales? ¿Es posible y útil desarrollar bases de datos de investigadores latinoamericanos para facilitar la búsqueda de pares revisores para proyectos de investigación o artículos científicos? ¿Tendría impacto el fomento de casas editoriales que publiquen textos donde activistas y académicos escriban y debatan? ¿Debería el sistema nacional de investigadores contemplar la participación de los académicos en actividades de difusión del conocimiento más allá de la academia? Responder a estas preguntas, en forma colectiva, dará lugar a un replanteo sistemático de nuestra infraestructura de conocimiento.
Edwards (2010, p. 17) entiende las infraestructuras del conocimiento como “redes robustas de gente, artefactos, e instituciones que generan, comparten y mantienen conocimiento específico sobre el mundo humano o natural. Pero Borgman (2015, p. 33) alerta que “las infraestructuras no son diseñadas o son procesos totalmente coherentes. En cambio, son mejor entendidas como ecologías o complejos sistemas adaptativos. Consisten en muchas partes que interactúan a través de procesos técnicos y sociales, con diferentes grados de éxito”. Si esto es cierto y esas ecologías pueden contener en determinado momento divergentes infraestructuras (en general para divergentes propósitos), entonces los pasos que siguen en la disputa por la producción, circulación y uso de conocimiento pueden tener más que ver con las dimensiones tecnológicas de la producción intelectual que con los contenidos específicos. En otras palabras, pensar desde la periferia, y en particular desde América Latina, podría ser otra manera de decir que es hora de pensar qué características debe tener una infraestructura de conocimiento periférica, qué debe copiar de los éxitos del mundo desarrollado y qué crear para afrontar los desafíos del mundo en desarrollo. Si somos capaces de desarrollar esa infraestructura, tal vez seamos capaces de encontrarnos en diálogos internos y, luego, en otros globales, pero con algo que decir y desde dónde decirlo.