1. Introducción
Desde su creación, las revistas académicas han sido un vehículo de comunicación de los resultados de la ciencia. Sin embargo, aunque esta sea su función explícita, las revistas son, y han sido desde siempre, mucho más: son un eje organizador de comunidades, la edición de una revista líder indica poder en la ciencia como la dirección de un laboratorio o la presidencia de una comisión que adjudica becas de investigación (Guedón, 2011). Se utilizan para canjear prestigio y poder, se han convertido en una “institución social” que transfiere prestigio a quienes contribuyen a su edición (Delgado-López-Cozar, Ruiz-Pérez & Jiménez- Contreras, 2006) y, como veremos en este artículo, son uno de los instrumentos utilizados por los consejos de ciencia y tecnología para llevar a cabo sus mandatos de guiar los desarrollos de la ciencia, son una herramienta de evaluación de las comunidades académicas (Buela-Casal, 2003). Todas estas funciones hacen que las revistas sean espacios polémicos, donde tanto las entidades editoras detrás de las revistas como los editores que las lideran y los autores que las eligen para publicar sus artículos intentan apropiarse del prestigio de las revistas para posicionarse mejor. En este contexto el investigador se ha convertido en autor, lector, evaluador y editor de su propia disciplina, y también una influencia para la sociedad.
Si bien las revistas juegan un papel importante en establecer las jerarquías que existen dentro del mundo académico, es importante reconocer que esta no fue su función siempre y que ha sido impulsada por la utilización de los índices bibliográficos en las que están incluidas como herramienta de evaluación de las políticas nacionales de ciencia (Guédon, 2011; Ortiz, 2009). Estos índices han permitido consagrar esta función jerarquizadora de la revista gracias al valor que le da la sociedad y los académicos a la bibliometría (Beigel, 2014) y a la “objetividad” que arroja la cuantificación de las evaluaciones de citas (como veremos en breve). Esta práctica, a pesar de ser muy criticada (Aguado López & Vargas Arbeláez, 2016; DORA, 2012; Hicks, Wouters, Waltman, de Rijcke & Rafols, 2015, Vessuri, Guédon & Cetto, 2013, entre otros), se dio con mayor naturalidad en Europa y Estados Unidos, dada la representatividad de sus revistas en estas bases, lo cual no es el caso en América Latina.
En el caso de América Latina, la falta de representación de revistas de la región en bases de datos como la de Web of Science (WoS) y Scopus (Alperin, 2014c; Aguado López & Vargas Arbeláez, 2016; Rozemblum, 2014), con las cuales se podía calcular indicadores bibliomé- tricos, ha creado una situación en la cual el simple hecho de estar presente en una base de datos que arroja indicadores cuantitativos da valor a las revistas. Esta relación no está solo implícita en la cultura académica, sino que en varios casos ha sido formalizada en las políticas de evaluación de revistas de la región (Alperin, Fischman & Willinsky, 2011; Mafalda de Oliveira Amorim, Degani-Carneiro, da Silva Ávila & Marafon, 2015), tanto para las bases “internacionales” (léase, comerciales) y las bases latinoamericanas que surgieron a finales de los años 90 (p. ej., SciELO y Redalyc).
Al ser así, y al ser que las revistas y todos los que dependen de ellas para posicionarse se ven afectados por los procesos y resultados de las evaluaciones de revistas, consideramos importante mirar más de cerca las políticas de evaluación, con un enfoque especial a las políticas y procesos de evaluación de revistas de México y Colombia. Nos concentramos en estos dos paises, ya que en el último año (2016) se han hecho modificaciones explícitas a sus sistemas de categorización de revistas. Consideramos que estas dos políticas pueden dar señales de cambios en la región, dado que en su análisis de políticas de ciencia, tecnología e innovación (CT&I) de los países de la región, Mafalda de Oliveira Amorim et. al. (2015) remarcan que los diferentes sistemas se rigen por principios comunes y confluyen hacia una misma tendencia de valorar la medición de la calidad de las publicaciones.
Al mirar detalladamente los documentos de estas dos políticas, salen a la luz ciertas contradicciones que, en nuestra opinión, merecen ser contempladas en relación con la evolución de las revistas latinoamericanas desde finales del siglo XX. En particular, nos parece necesario resaltar cómo estas políticas señalan un cambio de discurso y enfoque que pone a las citaciones como la única medida del valor de las revistas después de dos décadas de buscar la visibilidad y calidad de manera más general (Cetto, Alonso Gamboa, Packer & Aguado López, 2015).
Como resaltaremos en este artículo, consideramos que este cambio en el discurso, que se encuentra en estas dos políticas, marca una nueva etapa en la evolución de las revistas académicas latinoamericanas, la cual categorizamos en tres etapas: la emergente, la de consolidación, y esta tercera, la que denominamos de “internacionalización”.
2. Tres etapas de las revistas científicas latinoamericanas
Esta categorización en tres etapas, como cualquier otra categorización de periodos, es solo una de muchas que podríamos hacer. Las etapas fueron derivadas con base en las observaciones de los autores, sin tomar en cuenta algún conjunto de variables en particular. Al ser así, los hechos y tendencias que resaltamos para cada una de ellas son necesariamente acotados y deben de servir como una guía para quienes quieran adoptar esta categorización. A pesar de no ser derivadas con una metodología rígida, las presentamos, no para decir definitivamente que así es la historia de las revistas latinoamericanas, sino para contextualizar el análisis de los documentos que siguen.
2.1. Primera etapa: emergente (1985-1995)
No podemos negar que antes de esta fecha existía un número considerable de revistas científicas en Amé- rica Latina, aunque en alguna medida bajo el antiguo paradigma de hacer visible la ciencia que se producía en la institución editora y además en soporte papel (Rozemblum & Banzato, 2012). En esta etapa, que denominamos emergente, nos referimos a que comienzan a hacerse explícitas algunas problemáticas con relación a revistas científicas en América Latina para adaptarse a los cambios que surgían en las revistas que ya en ese momento pertenecían al núcleo central de la ciencia. Fue durante estos años que varios gobiernos latinoamericanos comenzaron a introducir legislaciones y políticas para apoyar a las revistas científicas. Por ejemplo, como señala Hoyos (1995), a principios de los 1990, el Gobierno de Colombia introdujo la Ley 29 para el Fomento de la Ciencia y la reestructuración del Instituto Colombiano para el Desarrollo de la Ciencia y Tecnología (COLCIENCIAS). De manera similar, en 1993 en México, el Consejo Nacional de Ciencia y Tecnología (CONACYT) estableció un Índice de Revistas Mexicanas en reconocimiento a las revistas que cumplían con los estándares internacionales de excelencia y que merecían ser financiadas, en el cual participan investigadores de renombre de diferentes disciplinas (Laborde, 2011, p. 73).
Al mismo tiempo que se empieza a dar prioridad a la ciencia latinoamericana, y a las revistas como su medio de comunicación, autoras como Hebe Vessuri (Vessuri, 1986, 1987, 1995) hacen algunos de los primeros argumentos por una ciencia regional, explicando el rol de la investigación en un sistema de educación superior, y cómo ambos podrían servir a los intereses nacionales (Vessuri, 1986). En la misma línea, Cetto (1995) resalta la necesidad que las ciencias, calificadas muchas veces como patrimonio de todos, adquieran “plena ciudadanía” en la región (p. 29).
Sin embargo, en América Latina, donde las universidades y colegios de profesionales fueron siempre el porcentaje mayor de editores, aún no se habían dimensionado los cambios que traería la era digital. Aunque ya existían algunas editoriales que comenzaban a incluir sus versiones electrónicas (López Ornelas & Nishikawa Aceves, 2010; Garriga, 1999), esta modalidad aún no se ponía en práctica. Tal como decía Cetto (1995) en la inauguración de un taller llamado Publicaciones Científicas en América Latina (que se realizó durante la VIII Feria del Libro de Guadalajara, México, en 1994), el cual fue documentado en el libro editado por Cetto y Hillerud (1995), como una profecía anunciada:
Buscaremos hacernos una idea de lo que les depara el futuro, tomando en cuenta que han de sobrevivir en un mundo marcado por la competitividad, en el que se publican cerca de 80,000 títulos periódicos y aparecen más de 2.5 millones de artículos al año, y en el que las vías de comunicación electrónica amenazan con transformarse en breve en autopistas de la información. (p. 30)
2.2. Segunda etapa: consolidación de las revistas (1995-2015)
El discurso sobre la necesidad de volver a las revistas y a la ciencia “plenos ciudadanos” se manifiesta en este taller de revistas. Bajo nuestro esquema, esta reunión y el libro que la acompaña marcan el fin de la primera etapa y el comienzo de la segunda. Este período está signado por la consolidación de los sistemas, se podría llamar la edad de oro de estas iniciativas regionales, acompañadas por la comunidad científica de la región y por los diferentes gobiernos nacionales. En esta etapa se consolida la idea de apoyar el crecimiento y mejoramiento de las revistas nacionales en sus aspectos formales, de calidad editorial, así como también en su visibilidad y difusión en un sentido amplio, de alcance y accesibilidad (Cetto & Alonso Gamboa, 2011).
Una de las necesidades identificadas por los participantes de la reunión de Guadalajara fue la creación de sistemas de información que permitieran saber qué revistas se estaban produciendo en la región y de la creación de sistemas que permitieran que la ciencia fuera evaluada bajo “nuestros propios criterios” (Alonso-Gamboa & Russell, 2012, p. 36, traducción propia).
Los primeros pasos hacia estos sistemas, y hacia un modelo regional para apoyar a la ciencia, se manifiesta en la creación de Latindex bajo un modelo cooperativo y regional (Alonso-Gamboa & Russell, 2012). A esta iniciativa se sumarían SciELO en 1998 (Packer, 2010) y eventualmente RedALyC en 2003 (Aguado López, Rogel Salazar, Garduño Oropeza & Zúñiga, 2008). De estas tres iniciativas, las cuales consideramos no solo personajes centrales, sino que también representantes del discurso, filosofía, y espíritu de esta segunda etapa, se destacan dos características comunes: se enfocaron en documentar y mejorar la calidad editorial de las revistas, y se preocuparon principalmente en la visibilidad de las mismas.1
De igual manera, en estos años se crean varios directorios nacionales de revistas de calidad tales como el Índice de Revistas Mexicanas de Ciencia y Tecnología de CONACYT (IRMC) en 1996, Publindex en Colombia en 1998 (Rodríguez, Naranjo & González, 2015), Núcleo Básico de Revistas Científicas Argentinas en 1999 (Flores, 2011), Portal de periódicos CAPES en Brasil en el 2000 (Corrêa, Crespo, Stumpf & Caregnato, 2007), y, también en Brasil, el sistema de evaluación de revistas Qualis, que fue creado al finales de los 90, y cuya primera publicación fue en 2001 (Trzesniak, 2006; Frigeri, 2012).
Finalmente, y quizás marcando el apogeo de esta edad de oro, en estos años algunos sistemas nacionales incluyen a SciELO/Redalyc en su evaluación de investigadores (Alperin et al., 2011; Mafalda de Oliveira Amorim et. al, 2015), indicando que los criterios usados por estos sistemas, que están volcados a la calidad editorial, no al impacto académico, son altamente valorados.
2.3. Tercera etapa: “internacionalización” de las revistas (2015-presente)
Sin embargo, después de dos décadas de avances en la “regionalización” de la ciencia -el desarrollo de sistemas e iniciativas que se fortalecen con los esfuerzos de países de la región- comenzamos a ver señales de un cambio en cómo los gobiernos intentan fomentar la ciencia. Quizás los primeros indicios se ven en Brasil, donde a finales del 2014 la Coordenação de aperfeiçoamento de pessoal de nivel superior (CAPES) busca propuestas de las grandes editoriales comerciales para “internacionalizar” las revistas brasileñas (Novais, 2014; Packer, 2014) y en México, donde en 2015 se firmó un contrato entre la Universidad Nacional Autónoma de México (UNAM) y Elsevier (la empresa dueña de Scopus) (Priego, 2016). Estas empresas se comprometen a incluir revistas científicas en sus bases de datos, y ofrecen sus servicios para “profesionalizar” los procesos de gestión y edición. Durante estos años, algunas editoriales, instituciones y hasta gobiernos se han visto tentados por las “ventajas” de estos servicios y por la promesa de “internacionalizar” la ciencia a través de incluir a las revistas en sus bases de datos. Ponemos el término “internacionalización” entre comillas ya que consideramos que su uso es ambiguo.
En las políticas que analizaremos más adelante se considera la internacionalización de una revista solo cuando ella está en índices de citación internacional como WoS y Scopus, pero nosotros creemos más apropiado pensar en un criterio más global, que como indican Aguado López, Becerril García y Aguilar (2016), una revista internacionalizada signifique que el peso predominante de la producción sea externa a la institución editora, impulsada principalmente por la colaboración de autores extranjeros al igual que su uso, cuyas descargas se realizan principalmente fuera del país editor, entre otros indicadores. O sea, la internacionalización debería considerarse en torno a cada uno de los momentos que conforman el proceso de transferencia del conocimiento y en todos los actores (Aguado López et al., 2016).
Estos primeros eventos comienzan a dar indicaciones de las intenciones de los gobiernos de algunos países, los cuales verdaderamente consideramos son un intento genuino por parte de los gobiernos de la región de mejorar la ciencia local a través de la internacionalización. Pero lo preocupante, desde nuestro punto de vista, es que esta internacionalización comienza a mirar el modelo de ciencia de países centrales vinculado a empresas que “profesionalizan” la gestión y edición de las revistas y va dejando de lado el modelo que venía desarrollando América Latina con premisas claras apoyando el acceso abierto (AA) y la comunicación como bien común (CLACSO, 2015). Tal como interpretan Aguado Lòpez & Vargas Arbeláesz (2016) a Ségalat (2010), “la búsqueda de una mayor internacionalización del conocimiento científico, que es un objetivo legítimo de todos los actores relacionados con el quehacer científico, fomenta la competencia por publicar en un reducido grupo de revistas ‘de prestigio’” (p. 75).
2.4. Las políticas nacionales en la etapa de “internacionalización”
A continuación, intentaremos ver cómo se refleja en nuevas políticas de evaluación de revistas la manera en que se ha ido perdiendo el uso de diversos matices de los conceptos de calidad y visibilidad (alcance, uso, accesibilidad, difusión, etc.) que se establecieron en la segunda etapa, en particular con relación a la evaluación de las revistas científicas y por ende de la comunicación científica hacia una sola variable: el impacto por citación de dos empresas comerciales, bajo un modelo de impacto “internacional”.
En agosto de 2016 se lanzan en México y Colombia dos proyectos nacionales de evaluación de revistas. Mientras que el mexicano propone un Sistema de Clasificación de Revistas Mexicanas de Ciencia y Tecnología (CRMCyT) gestionado por el CONACYT (CONACYT, 2016), el colombiano es más puntual al incluir ya en el título el concepto impacto, Política Nacional para Mejorar el Impacto de las Publicaciones Científicas Nacionales, haciendo explícito el objetivo principal de su política llevada a cabo por COLCIENCIAS (COLCIENCIAS, 2016).
Es claro que ambas políticas utilizan el discurso establecido durante la segunda etapa de evolución de las revistas: el discurso de la calidad y la visibilidad. Este discurso es especialmente claro en la política mexicana, que indica como su objetivo “elevar su calidad, visibilidad e impacto y, de este modo, fomentar la difusión y la divulgación de la ciencia y la tecnología generadas y comunicadas en el país” (CONACYT, 2016, p. 5). En contraste, la política colombiana es más concreta al proponerse “como meta nacional duplicar la producción científica de alto impacto” (COLCIENCIAS, 2016, p. 2), aunque, a su vez, en las acciones propuestas, indica (además de medir el alto impacto) que busca “mejorar la visibilidad de las revistas” y el “fortalecimiento de la labor editorial” (COLCIENCIAS, 2016, p. 2).
Si bien la política mexicana aún en sus primeras páginas no explica los conceptos de calidad, visibilidad e impacto, sumando la necesidad de difusión y divulgación de la ciencia generada y comunicada en el país, se aprecia un concepto más amplio de evaluación que la política colombiana que, aunque tampoco al principio define a qué llama impacto, se limita a ese indicador como único elemento de evaluación.
Sin embargo, esa amplitud de criterios en la evaluación que se encuentra en la política mexicana se contradice cuando, más adelante, se destaca como característica beneficiosa del sistema de evaluación que por un lado “evalúa la versión digital de las revistas buscando, de este modo, que éstas alcancen máxima visibilidad e impacto internacional” (CONACYT, 2016, p. 6), pero a continuación explicita que “incluye de modo automá- tico a las revistas con indización internacional [WoS y Scopus]” (p. 6).2 Por otra parte destaca que el sistema se “basa en la objetivación de variables cualitativas, lo cual busca que independientemente del evaluador, los resultados sean consistentes a nivel de las revistas” (CONACYT, 2016, p. 6).
De esta manera, ya en las primeras páginas de la política mexicana queda claro la supremacía de la inclusión de la revista en bases de datos internacionales por sobre los conceptos de calidad, visibilidad e impacto en relación con la difusión y divulgación del conocimiento, al igual que la política colombiana. Esto se hace explicito más adelante, cuando, a pesar de las seis dimensiones que incluyen políticas, calidad de contenido, cumplimiento de normas editoriales (CONACYT, 2016, p. 11), solo aquellas que están dentro de WoS o Scopus (en cualquier cuartil) pueden alcanzar los primeros cuatro niveles (de ocho posibles). Es decir, la mirada más multidimensional de la calidad y visibilidad de las revistas que ofrecen las seis dimensiones (en la página 11) se sirve para ordenar a las revistas dentro de dos grupos: las más altas (1-4, en WoS o Scopus) y las más bajas (5-8, no en WoS o Scopus) (Tabla 1). De esta manera se destaca la supremacía de la “internacionalización”, medida como la participación de las revistas en bases de datos comerciales (es decir, “internacionales”).
Cabe aclarar que la propuesta mexicana no nombra otras alternativas para medir el número de citas que no sean los indicadores producidos por WoS y Scopus, como podría ser el de Google Scholar. Sin embargo, aunque Colombia incluye el índice H de Google Scholar en los criterios para las categorías de clasificación de las revistas, sigue poniendo a las revistas en WoS y Scopus en un mayor lugar, al igual que la política mexicana (Tabla 1). El índice H calculado por Google Scholar entra recién en el tercer nivel, equiparándose al cuartil 3 de los índices WoS y Scopus. Por lo tanto, para que una revista esté categorizada en los primeros dos niveles (A1 o A2) debe estar en los cuartiles 1 o 2 de los reportes de Journal Citation Reports (JCR, de WoS) o en el Q1 o Q2 de Scimago Journal Rank (SJR, de Scopus).
3. Discusión y conclusiones
En la primera y segunda etapa del desarrollo de las revistas científicas en América Latina se identifica, y luego se establece, como objetivo la calidad y la visibilidad de la ciencia latinoamericana. Durante la segunda etapa -la de consolidación- la creación de las iniciativas y esfuerzos regionales, junto con el impulso del AA ayudan a lograr estos objetivos. El éxito de estas iniciativas es claro. Aún con sus criterios de calidad editoriales estrictos, el número de revistas que se suman a las plataformas regionales se incrementa de manera notable año tras año (Alperin, 2014a).
Sin embargo, en las dos políticas analizadas se ve un cambio notable, el cual consideramos es una indicación de una nueva etapa para las revistas latinoamericanas y, a su vez, en la ciencia producida en la región. Estas políticas proponen una negación/ausencia de los indicadores de calidad editorial y visibilidad establecidos en las dos décadas anteriores, y los remplaza con indicadores que miran casi exclusivamente (o, en el mejor de los casos, con una mayor prioridad e importancia) las citas contadas dentro de las bases de datos comerciales de WoS y Scopus. Este punto de encuentro entre la segunda y tercera etapa está claramente señalado en las primeras páginas de la política colombiana, donde se precisa que el objetivo de la actividad científica es “hacer accesible y útil la investigación”, pero se aclara que, en esta nueva etapa, “el número de citaciones es lo que refleja hasta qué punto dicho objetivo se ha alcanzado” (COLCIENCIAS, 2016, p. 2).
Si bien las bases de datos de WoS y Scopus, y la medición de citas, eran valoradas en políticas durante la etapa previa (y siempre criticadas), aquí argumentamos que su inclusión era justificada siempre y cuando fuera porque los criterios de inclusión de esas bases ayudaban a mejorar la calidad editorial de las revistas o eran tenidos en cuenta como complemento a indicadores de visibilidad. Sin embargo, estas últimas políticas cambian ese razonamiento y lo reemplazan con una justificación basada en las citas “internacionales” que son contadas, aun cuando está claramente documentado que las revistas y la ciencia latinoamericana está subrepresentada en ellas (Aguado López & Vargas Arbeláez, 2016). Tal como indica Díaz (2017) al analizar los nuevos parámetros de evaluación de revistas colombianas, tan solo 12 revistas están indexadas en la actualización de 2015 del JCR y 78 en la del SJR y ninguna de ellas en el cuartil uno (Q1) del índice de Scimago, lo cual implicaría que no habrá ninguna revista nacional en la categoría A1. Esta editora colombiana no ha sido la única que ha alzado su voz en disidencia con las nuevas políticas de evaluación. Entre ellos Aguado López (2017), quien argumenta que la política mexicana muestra “un error e inconsistencia inaceptable y pone en duda buena parte de los esfuerzos realizados por el Conacyt”. En el caso colombiano, varios grupos lo han hecho, siendo quizás el de mayor repercusión un grupo de científicos (principalmente colombianos) en Facebook denominado “mamados de Colciencias”.3
La reinterpretación de visibilidad e impacto por una medida de citación en bases de datos comerciales también deja de lado, quizás lo más importante, el tema de la calidad de la ciencia regional que fue tan central en la etapa de consolidación. El nuevo enfoque para medir el impacto a través de citas de las políticas colombianas y mexicanas asigna poco valor a las revistas locales y regionales (al igual que señalan Beigel y Salatino, 2015, en su análisis de circuitos de revistas argentinas). Aquí coincidimos con Vessuri et al. (2013) cuando dicen que “si la ciencia de América Latina quiere internacionalizarse sobre una base sólida, debería dejar de interpretar erróneamente que la ciencia del Atlántico Norte es la totalidad de la ciencia mundial” (p. 12). O, dicho de otra manera, se debería dejar de interpretar erróneamente que la mejor manera de mejorar la investigación es a través de acoplarse a un modelo de ciencia desarrollado para un sistema de ciencia de otra parte del mundo. Por esto, ya se ven indicios de parte de los editores por adaptarse a la “ciencia mundial” priorizando por ejemplo las publicaciones en inglés (Díaz, 2017). Y, como refuerza Aguado López et al., (2016),
[al] trasladar el universalismo que se impuso en algún momento a la concepción de la ciencia (Olagüe de Ros, 2012) a la evaluación del quehacer científico podría llevar, en la práctica, en el caso de los proyectos editoriales, a una pérdida de identidad y una disolución de su hoja de ruta. (p. 335)
O, como confirman nuevamente Aguado et al. (2016), que “las naciones latinoamericanas dan más valor a los cánones de evaluación de ciencia externos […] en detrimento de la comprensión y participación de las dinámicas locales y regionales en Latinoamérica” (pp. 84-85).
Esto nos trae de vuelta “a la pregunta central, sobre cuál es el sentido de tener sistemas científicos en América Latina” como se pregunta Kreimer (Cancino et al., 2016, p. 160) durante un conversatorio que se llevó a cabo en Chile en Julio de 2015. Kreimer resalta que es necesario cuestionar la función de los sistemas científicos como “una duda mucho más básica, y […] que hay que desarmar y plantear esta pregunta todas las veces que haga falta” (Cancino et al., 2016; p. 159). Entonces, nosotros también nos planteamos esa pregunta aquí, a pesar de que es la misma pregunta que fundamentó los textos de Vessuri (1986, 1987, 1995) que usamos para marcar la primera etapa y los que se encuentran en el libro de Cetto y Hillerud (1995) que marcan el comienzo de la segunda.
Si la preocupación principal de la mayoría de los sistemas de evaluación de la ciencia está en la internacionalización, en difundir su ciencia, y en aumentar su impacto, no hay que olvidar que las revistas son, como resaltamos al comienzo de este artículo, mucho más que un vehículo de comunicación de los resultados de la ciencia. Al evaluarlas bajo parámetros tan limitados se está valorando solo la función de comunicación entre pares académicos (especialmente con los del Norte) a costa de la función social y pedagógica. En Alperin (2015) se documentó que más del 50 % de las descargas de revistas de SciELO y RedALyC son por estudiantes (quienes, suponemos, usan la investigación publicada en su idioma para sus clases, y, por consecuencia, para aprender cómo se comunica la ciencia). Otro 20-25 % de las descargas resultaron ser de personas no afiliadas con universidades (es decir, del público en general). Este impacto social y pedagógico se pierde por completo al mirar solo las citas en bases internacionales.
Aún si los organismos detrás de las nuevas políticas prefieren valorar el impacto académico tradicional, coincidimos con Vessuri que igual “hay mucho que desmantelar en este sistema de evaluación que se basa arbitrariamente en algunas revistas y descarta todas las otras, cuando en realidad se debería hacer un ejercicio de construcción colectiva” (Cancino et al., 2016, p. 164). También hay que mirar más allá de las revistas, a la evaluación de los investigadores mismos (p. ej., en el sistema SCENTI colombiano y el SIN mexicano), ya que ambos están muy interrelacionados. Un proceso de medición afecta al otro, y la coherencia (o incoherencia) en los valores que las fundamentan afectan a la comunidad científica completa, incluyendo los investigadores y las revistas como canales de comunicación.
Aquí nos enfocamos en las revistas, pero consideramos que valdría la pena llevar un análisis más completo sobre las políticas de ciencia y tecnología, que incluyan no sólo los procesos de evaluación de revistas e investigadores, sino también el tipo de ciencia que se finanza y los incentivos que existen para la formación de nuevos investigadores. Dentro de este esquema mayor, las revistas son una parte importante que merece atención para comprender la lógica y trayectoria de la ciencia latinoamericana, razón por la cual las analizamos aquí. Si las políticas mexicana y colombiana señalan a una nueva etapa en la evolución de las revistas latinoamericanas que busca “internacionalizar” la ciencia, como sospechamos, debemos suponer que es porque los creadores de estas políticas buscan mejorar la calidad de dicha ciencia, y el valor que ésta trae a la sociedad. Pero nuestro análisis nos lleva a pensar que quizás éstas al mismo tiempo están olvidando que los primeros objetivos de la región fueron hacer visible hacia el mundo la ciencia producida y editada en América Latina para que ésta se equiparara con aquella de la corriente principal, no para que esta última la absorba.
En este sentido, el acceso y uso de los contenidos de las revistas deberían ser los principales indicadores de que los objetivos planteados en las primeras dos etapas se cumplan, ya que no existe impacto sin antes tener visibilidad y alcance (Alperin, 2015). En los últimos años han habido avances en la búsqueda de este tipo de indicadores, en particular sobre las redes sociales en lo que hoy día se denomina altmetrics (métricas alternativas), las cuales ofrecen nuevas oportunidades para las revistas (Alperin, 2013; Uribe Tirado, Vallejo Echavarría & Betancur, 2016). Pero no basta con pensar que hay que desarrollar nuevos indicadores de alcance, uso e impacto (aunque esto sería un avance para la región). Hay que volver a los principios y valores que llevaron a la consolidación de la ciencia en América Latina, bajo un modelo cooperativo, regional, y gobernado por la misma comunidad científica.
De ser así, las publicaciones de AA serían vistas como un servicio a la comunidad, dignos de ser tenidos en cuenta en las evaluaciones a los investigadores locales, y que aportan a la ciencia global para sus nombramientos, promociones o becas. Y en todo caso, sería muy conveniente que los organismos de ciencia y tecnología de los países de la región incentiven y ayuden a las iniciativas regionales a fortalecer el desarrollo de indicadores propios que puedan medir impacto pedagógico, gubernamental y social. El discurso de calidad y visibilidad, y la modalidad de cooperación y valoración de la ciencia local y regional han sido una gran parte del desarrollo de las revistas científicas latinoamericanas. Si estamos entrando en una nueva etapa que valora solamente las citas contadas por bases de datos “internacionales”, vamos a deshacer lo que hoy día es considerado un modelo de comunicación de ciencia ejemplo para todo el mundo (SPARC, 2015)