Services on Demand
Journal
Article
Indicators
- Cited by SciELO
- Access statistics
Related links
- Cited by Google
- Similars in SciELO
- Similars in Google
Share
Nómadas
Print version ISSN 0121-7550
Nómadas no.42 Bogotá Jan./June 2015
LOS MITOS DE LA CIENCIA: DESVENTURAS DE LA INVESTIGACIÓN, ESTUDIOS SOBRE CIENCIA Y POLÍTICAS CIENTÍFICAS*
MITOS DA CIÊNCIA: DESVENTURAS DA INVESTIGAÇÃO, ESTUDOS SOBRE CIÊNCIA E POLÍTICAS CIENTÍFICAS
MYTHS OF SCIENCE: MISADVENTURES OF RESEARCH, STUDIES ABOUT SCIENCE AND SCIENTIFIC POLICIES
Pablo Kreimer**
* Este texto emerge de la investigación "Producción y uso de la ciencia en América Latina: intersecciones socio-cognitivas y tensiones emergentes entre la internacionalización y las aplicaciones locales", PICT Bicentenario, Agencia Nacional de Promoción de la Ciencia y la Tecnología (FONCyT), Argentina, desarrollado durante 2011-2013. El título del artículo es un tributo a mi amigo Leonardo Moledo, quien fue el más brillante periodista científico de la Argentina. Su libro Los mitos de la ciencia, publicado en el 2008, es uno de los mejores productos de este género.
** Sociólogo de la Universidad de Buenos Aires y Doctor en Ciencia, Tecnología y Sociedad del Centre STS, París. Investigador principal de Conicet; director del Centro "Ciencia, Tecnología y Sociedad" de la Universidad Maimónides, y profesor titular de la Universidad Nacional de Quilmes (UNQ) (Argentina). E-mail: pkreimer@unq.edu.ar
Original recibido: 06/03/2015. Aceptado: 20/04/2015
Resumen
El artículo plantea que la mayor parte de las políticas científicas contemporáneas opera sobre un universo de creencias que ha desconocido los profundos cambios producidos en las concepciones sobre la ciencia. Para ello, se centra en los procesos de evaluación de la producción científica y muestra la distancia entre los modos de conceptualizar las prácticas científicas y los procesos de burocratización que las regulan. Se concluye que en América Latina las políticas científicas responden a una racionalidad burocrática subordinada a los centros hegemónicos de producción de conocimiento.
Palabras clave: políticas científicas, estudios sobre la ciencia, producción de conocimiento, burocratización, subordinación, América Latina.
Resumo
Expõe-se que a maior parte das políticas científicas contemporâneas opera sobre um universo de crenças que tem desconhecido as profundas mudanças produzidas nas concepções sobre a ciência. Para isso, o artigo está centrado nos processos de avaliação da produção científica. Mostra-se a distância entre os modos de conceitualizar as práticas científicas e os processos de burocratização que as regulam. Conclui que na América Latina as políticas científicas respondem a uma racionalidade burocrática subordinada aos centros hegemônicos de produção de conhecimento.
Palavras-chave: políticas científicas, estudos sobre a ciência, produção de conhecimento, burocratização, subordinação, América Latina.
Abstract
This article argues that contemporary scientific policies mostly operate based on a universe of beliefs, largely unaware of the profound changes that the very idea of science has experienced. In order to do so, the article focuses on the evaluation processes of the scientific production. It shows the distance between the methods to conceptualize scientific practices and the processes of bureaucratization that regulating them. It concludes that Latin American scientific policies respond to a bureaucratic rationalization subdued to the hegemonic centers of knowledge production.
Key words: scientific policies, studies about science, knowledge production, bureaucratization, subordination, Latin America.
Quiero comenzar este artículo relatando una breve experiencia personal. Hace unas semanas, participando de uno de los tantos comités de evaluación de proyectos a los que estamos cada vez más habituados, se presentaron los puntajes finales de los proyectos que serían financiados, según el orden de mérito de los puntajes otorgados por los "pares". Se nos había solicitado revisar dichas calificaciones para ajustar los puntajes y asignar, además, una calificación adicional para priorizar las zonas geográficas y las instituciones "desfavorecidas". Estábamos en la revisión final cuando detectamos que un proyecto muy bueno, propuesto por un grupo localizado en la Patagonia, en una zona alejada de los centros de producción de conocimiento, tenía un puntaje excelente, pero una décima por debajo de la "línea de corte" que separaba los proyectos financiados de los carentes de financiación. Argumenté que debíamos priorizarlo y recomendarlo para su inclusión. La representante del Ministerio de Ciencia, Tecnología e Innovación Productiva puso el grito en el cielo, diciendo: "Ese puntaje ya está asignado y no se puede cambiar". Respondí: "Bueno, pero para eso estamos aquí, precisamente para asignar puntajes finales, y si nosotros hemos asignado ese puntaje, bien podemos revisarlo". Mis colegas del comité coincidieron conmigo en la apreciación del proyecto y en lo pertinente de su localización geográfica pero, me explicaron, "ya es tarde para hacer esa modificación" porque, agregaron, "implicaría rehacer la planilla". Insistí un poco más, pero sin suerte, señalando que lo importante no eran unas décimas en una planilla, sino que coincidíamos en que el proyecto debía ser apoyado. Por supuesto, perdí y sólo atiné a balbucear: "Estamos privilegiando la razón instrumental por sobre la razón sustantiva que nos convoca aquí". De eso, al menos en parte, se trata este artículo.
Es una convención generalmente aceptada que aquello que llamamos ciencia moderna se fue institucionalizando en un largo y sinuoso proceso, que se puede situar desde el siglo XVII, al tomar como un hito importante la creación de la Royal Society en Gran Bretaña en 1662, estrechamente ligada a la figura de Isaac Newton. Robert King Merton, pionero de la sociología de la ciencia, llamó la atención, en su estudio clásico de 1938, sobre lo que denominó un aumento en el interés sobre la ciencia a lo largo de esas décadas del siglo XVII. Desde entonces, el proceso de institucionalización y profesionalización del conocimiento fue ganando cada vez una mayor legitimidad pública, a través del "avance general del conocimiento", es decir, al ayudar a comprender el mundo físico, natural y social, así como a través de sus aplicaciones prácticas. A través de este proceso se fue dotando de una mayor formalidad, una enorme diversidad disciplinaria, y demandando más recursos, entre otras muchas cuestiones. Los cambios en las prácticas concretas de investigación, en sus formas de organización, en el papel social de la ciencia, en la disponibilidad de instrumentos y recursos tecnológicos han sido tantos durante estos cuatro siglos, que ya hace algunos años me pregunté si resultaba lícito seguir llamando con el mismo vocablo -ciencia- prácticas sociales tan diferentes (Kreimer, 1999)1.
Analizaremos a continuación las diferentes transformaciones que se fueron produciendo, tanto en la organización de la ciencia como en los abordajes para comprenderla, así como las políticas orientadas a su promoción, para finalizar planteando la distancia que se observa entre los modos de conceptualizar las prácticas y los procesos de burocratización que las regulan.
En una primera aproximación uno podría esperar que, dada determinada definición de la ciencia y de sus prácticas, éstas se correspondieran, de un modo natural, con un conjunto de "otras" prácticas, fuertemente asociadas con éstas, que permitieran evaluarlas. Ello tiene, sin duda, una fuerte impronta política, en la medida en que la evaluación ocupa una porción fundamental de las políticas de ciencia y tecnología, especialmente desde la segunda mitad del siglo XX. Como intentaremos mostrar, la correspondencia entre una cierta concepción de la actividad científica y el desarrollo de instrumentos específicos no tiene nada de "natural" sino que, particularmente durante las últimas décadas, el despliegue de mecanismos e instrumentos de evaluación de la ciencia se fue desarrollando de acuerdo con concepciones más bien implícitas, objetivadas en sus aspectos instrumentales más que en cuestiones de orden sustantivo, relacionadas con el papel que la evaluación desempeña en el desarrollo de la actividad científica y, yendo un paso más allá, con el papel de la ciencia en una sociedad determinada.
Nuestra hipótesis general plantea que, a pesar de los profundos y radicales cambios que se produjeron en las concepciones sobre la ciencia, tanto en sus aspectos epistemológicos como en la indagación de sus prácticas, su organización y sus relaciones con la sociedad, la mayor parte de las políticas ha seguido operando sobre un universo de creencias que no ha tomado en cuenta prácticamente ninguno de estos cambios. Para ello, nos centraremos en uno de los aspectos centrales de las políticas científicas, el de la evaluación, aspecto fundamental de la administración de las prácticas científicas en las sociedades modernas. Así, la organización de la ciencia actual parece estar estructurada (paradójicamente) a partir de un conjunto de supuestos ampliamente compartidos -en los cuadros políticos administrativos- pero sin comprobación empírica alguna, y fuertemente cuestionados desde los estudios sociales de la ciencia.
A ello debemos agregar una hipótesis específica, dirigida a la región latinoamericana: las actividades de evaluación de la ciencia en los países de América Latina responden más a una racionalidad burocrática, que resulta -implícita o explícitamente- funcional al contexto de una ciencia globalizada e interpenetrada por necesidades públicas y privadas de los centros hegemónicos de producción de conocimientos, que al papel de dichos conocimientos en las sociedades en donde éstos se producen.
Debo aclarar que, si bien mucho del análisis que sigue podría aplicarse a todos los campos del conocimiento, en este artículo me concentro particularmente en la dinámica de las llamadas ciencias duras, o exactas y naturales, y dejo de lado las ciencias sociales y humanas, puesto que estas últimas tienen algunos rasgos distintivos bien conocidos que hacen que sea preciso un análisis específico.
CIENCIA, POLÍTICAS Y PARADIGMAS
A lo largo del siglo pasado se fueron estableciendo algunas creencias colectivas sobre las cuales se fueron asentando diversas prácticas sociales, organizativas, institucionales y políticas de la ciencia. Estas creencias eran ampliamente compartidas y atravesaban las diferentes perspectivas teóricas e, incluso, disciplinarias. Como ejemplo, podemos mencionar dos aportes muy influyentes desde los años cuarenta del siglo XX: el ya mencionado de Merton (1942), sociólogo funcionalista estadounidense, y el de John Desmond Bernal (1939), cristalógrafo e historiador de la ciencia inglés, de activa militancia comunista. A pesar de las enormes diferencias que uno podría imaginar -a priori-, ambos compartían la idea, según la cual, la ciencia era una actividad acumulativa, es decir, que cada nuevo conocimiento aportaba un pequeño ladrillo nuevo al gran edificio de la ciencia, y que además era autónoma, es decir, que en los procesos de generación de conocimientos no podían, ni debían, intervenir actores externos al propio mundo de la ciencia. A ello le agregaba, cada uno a su manera, una consideración positiva frente a la capacidad de los científicos de organizarse, de preservarse frente a los fraudes o las desviaciones, de adoptar decisiones racionales basadas en las evidencias empíricas y dar un trato igualitario -democrático o comunista- a todos los conocimientos, independientemente de quien los hubiera formulado.
Dicho de otro modo, ambos expresaban cierto "sentido común" sobre la ciencia, que debía ser "protegida" para poder ofrecer a la sociedad conocimientos "verdaderos" y "útiles". Ello podría comprenderse por el contexto: estaban en plena guerra y cientos de científicos e intelectuales europeos debían huir de las persecuciones. En ese escenario, Merton y Bernal tenían a la vista las consecuencias de dos procesos -tristemente célebres- de consecuencias gravísimas: por un lado, el régimen nazi y la declaración de una ciencia aria, experimental, "pura", propia de la tradición germana, versus la ciencia especulativa, teórica, "judía"; por otro lado, el affaire Lisenko y la declaración de una ciencia agrícola propia, donde los factores de cultivo y otras dimensiones podían incidir sobre la calidad genética de los cultivos. Se trataba de la "aplicación del materialismo dialéctico a la ciencia", por lo que se renegaba de la genética mendeliana, que fue prohibida en 1938, como parte de los "procesos de Moscú".
Por esos años, es decir, en la posguerra que comienza en 1945, se van institucionalizando las políticas científicas que son, en cierto sentido, herederas de la guerra: Vannevar Bush (1999 [1945]), consejero del presidente Roosevelt, señaló en su clásico texto que la ciencia básica es el "elemento pacificador del progreso tecnológico", con sus aplicaciones a las enfermedades, para el bienestar de la población y para la seguridad. Así, se consideró desde entonces que el Estado debía promover y financiar la investigación fundamental a través de mecanismos específicos, lo que tuvo diversas expresiones institucionales según los países, desde la creación de agencias específicas de financiamiento como la National Science Foundation en los Estados Unidos, o los ministerios de ciencia, fuertemente promovidos por la Organización para la Cooperación y el Desarrollo Económicos (OCDE) en los países europeos (Salomon, 2000).
Con algunas diferencias en cuanto a su horizonte temporal, en América Latina se comenzaron a discutir cuestiones semejantes, en buena medida influidas por lo que estaba ocurriendo en los países más desarrollados, con la característica de un cierto mix entre el carácter mimético de dichas políticas y los rasgos propios de cada sociedad (Feld, 2015)2.
Velho (2011) señala las correspondencias entre los paradigmas de política científica en la región, desde el fin de la Segunda Guerra Mundial hasta la actualidad3. Así identifica un primer paradigma, al que denomina la ciencia como motor del progreso, caracterizado por la creencia en que la ciencia es histórica y socialmente neutral, y que está gobernada por su propia lógica. Debemos agregar que, obviamente, este paradigma no era sólo imperante en los países latinoamericanos, sino que formaba parte de un proceso que ya se había manifestado en los países de Europa Occidental y en los Estados Unidos, bajo la forma de una "república de la ciencia", donde los estados debían intervenir sólo generando las instituciones y ofreciendo los instrumentos para que los propios investigadores pusieran en práctica los mecanismos de promoción, ejecución y evaluación de sus actividades (Salomon, 2008; Feld, 2015). Este enfoque viene de la mano de lo que se conoció como modelo lineal, cuyo esbozo se atribuye al citado Bush. Dicho modelo suponía que había una serie de prácticas interconectadas linealmente, cuyo primer eslabón era la ciencia básica, que de allí se "derivaba" (es decir, se "derramaba") a la ciencia aplicada, luego al desarrollo experimental y, finalmente, a las innovaciones, disponibles socialmente bajo la forma de nuevos productos y procesos. Como el motor de este desarrollo es la ciencia básica, indudablemente gobernada según los patrones del ethos científico mertoniano, hacia allí debían dirigirse todos los esfuerzos.
En América Latina, esta etapa está signada por lo que hemos denominado internacionalización liberal-orientada4, marcada por la existencia de líderes locales que dejaban de ser bricoleurs o investigadores artesanales (que fabricaban incluso sus propios instrumentos y aparatos), y que negociaban sus agendas de investigación con los grupos centrales sin ninguna intervención ni mecanismos de la burocracia estatal. Desde los años cincuenta, y sobre todo a lo largo de la década de los sesenta, se crearon, en diversos países, instituciones orientadas a gestionar recursos específicamente destinados a la promoción de la ciencia, y, sobre todo, a establecer o fortalecer las "bases científicas", en términos de equipos y, principalmente, de personal. Los instrumentos más importantes fueron la adjudicación de becas y subsidios para la investigación, destinados en una parte significativa a la realización de estudios en el exterior. Esto coincide con un abandono progresivo de la investigación artesanal por otra que se va haciendo cada vez más costosa, tanto en términos de la cantidad de personal, como de los instrumentos y otros insumos, periodo que ha sido denominado como Big Science (Price, 1963).
El siguiente paradigma señalado por Velho, inspira las políticas desde los años setenta y se puede sintetizar como "la ciencia como solución y causa de problemas", asociado con una visión de la ciencia como "neutral, pero controlada". Los actores protagónicos siguen siendo los científicos, pero la emergencia de diversos movimientos sociales pone en cuestión el papel de la ciencia en su asociación con el desarrollo de un capitalismo intensivo, y pone en guardia sobre las amenazas que habría en los usos no controlados del conocimiento. Esto parecería poner el eje del debate en la autonomía de la ciencia; sin embargo, el conjunto de las normas y de las decisiones siguen siendo gestionadas por los propios investigadores.
A pesar de que los modelos de política siguen siendo tan lineales como en el periodo anterior, centrados en la "oferta de conocimientos" a la sociedad, se manifiesta una fuerte preocupación por el contacto de los científicos con la "demanda", es decir, con aquellos que deberían usar los conocimientos que se generan. Dicha preocupación también se expresa en nuestra región, bajo la forma de "sistemas incompletos" o que no funcionan de un modo virtuoso, y donde el eslabón más débil siempre lo constituyen las relaciones entre la ciencia y la industria. Quien mejor expresó esta preocupación fue Jorge Sábato (1975) con su propuesta de un "triángulo de relaciones".
A partir de los años ochenta, un nuevo paradigma ve la luz, centrado en la idea de "la ciencia como fuente de oportunidades estratégicas", que incorpora, además de los científicos, a otro actor importante: los ingenieros zo "tecnólogos". Si en el marco del paradigma anterior la preocupación de las políticas por una demanda efectiva de conocimientos está sobre todo confinada al plano de los discursos, en esta nueva etapa se va orientando crecientemente hacia la generación de instrumentos que permitan una integración efectiva de ambas esferas. Un instrumento central es la formulación de programas estratégicos (los más frecuentes se refieren a informática, biotecnologías, materiales, etcétera). Ello va de la mano de la emergencia de los discursos acerca de la globalización que tienen, en el marco de las políticas, su correlato en los programas explícitos de cooperación internacional. Esto contrasta fuertemente con las épocas liberales (orientadas o no) o de laissez-faire, que predominaban en épocas anteriores, para dar paso a fuertes estímulos a la participación en emprendimientos internacionales, como herramienta de búsqueda de competitividad. En efecto, si competitividad es desde entonces uno de los conceptos clave, ello viene de la mano de la concepción del conocimiento percibido en términos estratégicos y, por lo tanto, de otra noción destinada a permanecer, la de relevancia, entendida como definición de los conocimientos "que tendrán un sentido estratégico en algún futuro determinado" (Kreimer, 2010: 124).
A partir del siglo XXI, el nuevo paradigma incorpora, además de las nociones propias del anterior, la noción de ciencia para el beneficio de las sociedades. Ello supone, en el plano de los discursos, la ampliación de los colectivos sociales significativos más allá de científicos y empresas, hacia otros actores sociales significativos, que serán portadores de nuevas demandas, ya no sólo orientadas hacia la ganancia de competitividad, sino al mejoramiento de la calidad de vida de amplios sectores sociales. En el plano de las políticas ello se expresa en la ampliación de los públicos consumidores de conocimientos, en instrumentos destinados a la "apropiación social del conocimiento" y a programas destinados a la democratización de la ciencia y la tecnología. Sin embargo, como señalan De Greiff y Maldonado (2011), estos programas están más articulados a una retórica de la ampliación social que a verdaderos procesos democratizadores y se sustentan, en la mayoría de los casos, en el llamado modelo de déficit que supone que el saber debe fluir desde los espacios expertos hacia aquellos que precisan ser alfabetizados.
SOBRE LAS CONCEPCIONES DE CIENCIA
En términos esquemáticos, podríamos postular que las concepciones modernas acerca de la ciencia pueden ser agrupadas según un conjunto de tensiones, donde sobresalen (Kreimer, 1999):
- El carácter acumulativo y progresivo del conocimiento versus procesos fragmentarios y heterogéneos de idas y vueltas.
- Los espacios de producción de conocimientos como organizaciones sociales autónomas versus espacios abiertos con la participación de otros actores "no científicos".
- Espacios sociales de producción de conocimientos regidos por el consenso y la colaboración versus organizaciones articuladas por las luchas tendientes a acumular prestigio, capital o poder.
- Conocimientos universales e independientes de sus lugares de producción (y de otra dimensión local) versus conocimientos localmente situados e influidos por variables culturales, económicas y políticas.
- El conocimiento como procesos objetivos generados por sujetos racionales y tendientes a explicar el mundo físico y natural versus el carácter esencialmente construido del conocimiento, entendido como el resultado de relaciones sociales.
A pesar de que hay una gran variedad de posturas que articulan cada una de estas posiciones, en la medida en que prioricemos los primeros términos de cada una de las cinco tensiones, podremos describir una concepción de la ciencia de tipo universalista, basada en la creencia en un conocimiento objetivo, acumulativo y progresivo, generado por sujetos racionales, organizados en comunidades científicas colaborativas, y autónomos ante cualquier influencia social. Esta perspectiva ha conformado cierto núcleo duro ideológico en torno a las diferentes actividades relacionadas con las políticas científicas y conforma, al mismo tiempo, la visión implícita en el discurso de los propios investigadores de las disciplinas de ciencias exactas y naturales. Hace ya varios años, cuando analizaba los modos en los cuales se había estudiado la ciencia hasta los años setenta, el sociólogo inglés Harry Collins (1981) resumía estas creencias en la sigla TRASP, que traducido del inglés quiere decir verdadero, racional, exitoso y progresivo. Esos son, como vimos más arriba, los principios sobre los cuales se asentaban las concepciones de ciencia en los albores de las políticas científicas.
Por otro lado, si nos enfocamos hacia los segundos términos de cada proposición, llegamos a una visión de la ciencia en donde el conocimiento es el producto de relaciones locales, fuertemente influido por las disputas y negociaciones entre los propios científicos, y de ellos con otros actores sociales, atravesados por sus propias culturas y con intereses de todo tipo que se ponen de manifiesto. El conocimiento, aquí, no resulta verdadero, sino en función de colectivos sociales que lo legitiman como tal, durante periodos de tiempo más o menos variables.
Los estudios sociales de la ciencia han dirigido su esfuerzo, desde entonces, a mostrar cuestiones tales como que el conocimiento es el resultado de una práctica social localmente situada, generada a través de negociaciones e interacciones que se articulan tanto con sus propios pares investigadores, como con la necesaria participación de otros actores, integrados en redes más o menos complejas. Así, por ejemplo, Latour (1987) se dirigió a mostrar las operaciones implicadas en la producción de hechos científicos, y a hacer explícitas las redes y los actores movilizados en las cuestiones relativas al conocimiento. Knorr-Cetina (1981) mostró que la noción de autonomía carece de sentido en la medida en que uno se aventura en el interior de los laboratorios, y que la noción de racionalidad es un concepto muy acotado para comprender las prácticas de los científicos, atravesadas por dimensiones culturales, intereses, etcétera. El propio Collins mostró, a través del estudio de las controversias, que el conocimiento aceptado como "verdadero" nada tiene que ver con una "fiel representación de la realidad", sino con la capacidad de los actores para lograr convencer a los diversos actores implicados (científicos o no) en los debates.
En líneas generales, las perspectivas constructivistas lograron establecer casi como un lugar común, aceptado incluso por quienes no suscribieron todos sus supuestos, que el conocimiento es, en efecto, una práctica social organizada en torno a creencias colectivas y atravesada por complejas relaciones entre dimensiones cognitivas, técnicas, sociales, organizativas, económicas, culturales, etcétera.
Otro supuesto importante se refiere a derrumbar uno de los pilares planteados por el llamado modelo lineal -e incrustado en las políticas de ciencia y tecnología (CyT), desde Bush en adelante-: la separación entre investigación básica, investigación aplicada y desarrollo experimental. Tanto en la actualidad (cuando resulta evidente) como en el pasado, muchos de los procesos de investigación hacen imposible distinguir si se trata de algunos de esos "tipos puros" de investigación. Sólo como ejemplo imaginemos a un grupo que está trabajando sobre la modificación genética de semillas y su adecuación a un tipo específico de suelos. Resulta obvio que ello no puede hacerse sin tomar en cuenta las cuestiones fundamentales de la genética y la biotecnología modernas, a las cuales seguramente se harán algunos aportes conceptuales y técnicos. Pero se trata, naturalmente, de orientar la investigación hacia objetivos socioeconómicos claramente definidos, algo que parecería propio de la investigación aplicada. Pero, además, esta investigación puede pasar a ensayos de campo en forma inmediata, una vez que, por medio de la ingeniería genética se obtengan semillas aptas para el cultivo. Del mismo modo, podríamos listar una multitud de ejemplos que nos mostrarían la misma complejidad.
LA EVALUACIÓN COMO ELEMENTO CENTRAL DE LAS POLÍTICAS Y SUS CONTEXTOS CONCEPTUALES
Las primeras formas de evaluación de la ciencia fueron propias e internas a la conformación de los primeros campos científicos. En la medida en que diversos campos científicos fueron organizándose desde el siglo XVIII, sus practicantes comenzaron a crear espacios de socialización, en particular, sociedades científicas, que serían instituciones clave, en la medida en que fueron las encargadas de poner en marcha dos tipos de actividad que, lentamente, conformaron el eje de las actividades de los investigadores: las primeras reuniones científicas y las primeras revistas especializadas5. Ambos instrumentos tenían, además de la socialización, otro objeto central, el de establecer los mecanismos para activar la identificación colectiva y, derivado de esto, los mecanismos sociales de jerarquía, estratificación y diferenciación. Naturalmente, todo proceso de identificación colectiva es, al mismo tiempo, de diferenciación y, como señala Salomon, en un profundo estudio sobre el desarrollo de la profesión científica:
Las revistas y las sociedades científicas ya no tenían nada que ver con sus homólogas de la filosofía: la comunidad científica publicaba artículos y comentarios con un estilo e incluso con un formato que se diferenciaban de los literarios; se expresaban en un lenguaje al que cada vez más tendrían acceso sólo los especialistas: y éstos, para obtener reconocimiento por sus trabajos, se dirigían a sus pares, a sus colegas, "iguales" en cuanto a títulos, competencia, publicaciones reconocidas y legitimadas […] (2008: 63).
Los primeros mecanismos de evaluación fueron completamente internos a los propios colectivos científicos. La evaluación estaba centrada en el prestigio diferencial de cada uno y tomaba las publicaciones sólo como un mecanismo auxiliar de un capital simbólico que ya había sido construido siguiendo las normas propias de cada uno de los campos disciplinarios, y su función no era diferente a la de cualquier otro mecanismo de diferenciación jerárquica en todo otro campo de producción simbólica y material. De este modo, la evaluación que se hacía entonces era de tipo informal, dirigida a establecer el "valor de verdad" de los enunciados propuestos, según las concepciones vigentes. Dicho de otro modo, la actividad era evaluada según parámetros altamente subjetivos o, mejor, intersubjetivos, y ello no tenía más consecuencias que en términos de distribución de capital simbólico o prestigio en el interior de un campo. A lo sumo, como señala Bourdieu (1997), se podía generar la capacidad de hablar legítimamente "en nombre del campo" e intervenir en las arenas públicas a partir, precisamente, de la legitimidad ganada previamente el su campo propio.
Los primeros estudios sobre lo que hoy se conoce como cientometría o cienciometría fueron generados por un científico que ejercía un papel nada desdeñable desde el punto de vista de su capital simbólico: se trata de James Cattell, quien fue el editor de la revista Science entre 1895 y 1944 (Godin, 2006)6. Cattel creó el primer directorio de datos sobre científicos, en 1903, allí fue reuniendo informaciones sobre diversas disciplinas, aunque comenzó con la propia, la psicología. El interés de Cattell estaba orientado a identificar parámetros tales como la localización geográfica de los investigadores y su performance. De hecho, como señala Godin:
Cattell introdujo dos dimensiones en la medición de la ciencia, y esas dos dimensiones aún definen el campo en la actualidad: cantidad y calidad. Cantidad, o productividad como la llamó, era el simple conteo del número de investigadores que una nación produce. Calidad, o performance, era definida como las contribuciones al avance de la ciencia y estaba medida por el promedio de las calificaciones de pares, otorgadas por los colegas (2006: 6).
Siguiendo en esta misma línea, la recolección sistemática de información científica tuvo dos vertientes bien diferentes entre sí, pero coincidentes en la época, hacia comienzos de la década de los sesenta: una estaba orientada a las políticas generales de CyT, la otra a la indagación histórica y sociológica.
En la primera de estas preocupaciones debemos mencionar el papel de dos instituciones que resultaron clave en el impulso de los gobiernos para producir datos relativos a las actividades científicas, la OCDE y la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco). Estas instituciones estaban fuertemente concernidas por la emergencia de las políticas científicas desde el fin de la Segunda Guerra Mundial, para hacerlas más sustentables y fundamentadas.
En efecto, junto con el desarrollo de las políticas se fue desplegando un conjunto de instrumentos e instituciones ad-hoc, ya no sólo relacionadas con la profesionalización de la investigación científica, sino con la profesionalización de las políticas científicas. Este último proceso se expresará, sobre todo, con el auspicio de instituciones internacionales. En el conjunto de los países desarrollados, la OCDE impulsó la creación de numerosos estudios nacionales y las comparaciones internacionales: la recopilación de estadísticas fue una práctica que ocupó el centro de la escena desde finales de los años cincuenta. Todo debía inventariarse: primero, la cantidad de investigadores; luego, los recursos destinados a la CyT; y, finalmente, las publicaciones. En 1962 la OCDE propuso, para la normalización, el célebre Manual de Frascati, coordinado por Christopher Freeman. Las políticas científicas se profesionalizaron asumiendo los criterios de planificación que imperaban para otros ámbitos de políticas públicas.
En los países en desarrollo ese papel crucial lo desempeñó la Dirección de Política Científica de la Unesco, con el impulso a la creación de instituciones y, una vez más, con la promoción de la producción de estadísticas. En términos de planificación profesionalizada, en América Latina también fue importante el papel de la oficina correspondiente de la Organización de Estados Americanos (OEA).
La vertiente más analítica en relación con la información científica y sus usos la encontramos en los trabajos de Derek de Solla Price, quien publicó, en 1963, su famoso libro Little Science, Big Science. Aunque los objetivos de Price son múltiples, y pretende tanto "tratar estadísticamente los problemas generales relativos al tamaño y la forma de la ciencia" como "las normas básicas que rigen el crecimiento y la conducta de la ciencia a gran escala", la parte que aquí más nos interesa es el uso que hace Price de las estadísticas para el análisis de cierta dinámica social de la ciencia. Según él, analizando la productividad científica:
[…] podría deducirse que los trabajos se escriben únicamente para que los cuenten decanos, gobernantes e historiadores y que la energía de un científico debe utilizarse para producir el mayor número de publicaciones. Nada más falso: cada trabajo representa un quantum de información científica útil […] y algunas contribuciones concretas pueden hacer que un autor sea valorado por encima de los científicos prolíficos con un centenar o incluso un millar de publicaciones ordinarias (Price, 1963: 135).
Y así llegamos a un instante clave en el conocimiento sobre estos temas y, también, a los sustentos de la evaluación de la ciencia: las citas que recibe un artículo. Si hasta entonces sólo se contaban las publicaciones "brutas", en términos de productividad, a partir de la propuesta metodológica de Price, lo que importa es cuánto y quiénes citan un artículo científico. Así, analiza la estructura de citas de los artículos -descartando lo que llama la "mala costumbre de algunos autores de citar sus propios trabajos" (Price, 1963: 152)- a lo largo del tiempo, para llegar a la conclusión de que existen grupos que poseen "una especie de circuito que conecta instituciones, centros de investigación [que] constituyen un colegio invisible en el mismo sentido [en] que los científicos británicos se asociaron para crear la Royal Society" (Price, 1963: 137).
El uso de las citas excedió, en mucho, el análisis sociológico que el propio Price imaginó en los albores de los años sesenta. De hecho, fue su contacto con otro entusiasta de las citas, Eugene Garfield, lo que se encuentra en el origen del célebre Institute for Scientific Information (ISI), creado por Garfield en 1960, con el objetivo de producir bases de datos con diversos fines, y de cuyo primer comité el propio Price fue uno de los miembros más activos. Inmediatamente comenzaron a encontrarle a estos datos otros usos, bien diferentes del análisis histórico y sociológico de la ciencia que animaba a Price: según propuso el propio Garfield en 1963, debería servir para evaluar la calidad de las revistas científicas, lo que está en la base de la indexación de las publicaciones periódicas. Así lo propuso tres años más tarde, como un instrumento idóneo para evaluar la productividad de la investigación en general. Ello se realizó a través del Science Citation Index (SCI), que se comenzó a editar desde entonces7.
LA EVALUACIÓN INSTITUCIONALIZADA COMO PARTE DE LAS POLÍTICAS CIENTÍFICAS
Como señalamos, hacia los años cincuenta, los países desarrollados comenzaron sus políticas científicas "activas", desplegadas en un conjunto de instrumentos e instituciones. Estas últimas tomaron la forma, en particular en los países de Europa Occidental, de ministerios de ciencia y tecnología u organismos equivalentes, que ampliaban los márgenes de acción de los consejos nacionales (como el Centre National de la Recheche Scientifique (CNRS) de Francia; el Consejo Superior de Investigaciones Científicas (CSIC) de España, y el Consiglio Nazionale delle Ricerche (CNR) de Italia)0, para ponerse a tono con el nuevo papel de las políticas de CyT que ponían el conocimiento (producido tanto en ámbitos públicos como privados) como un elemento central en las estrategias de competitividad.
En cuanto a los instrumentos, se trata de dos tipos de acciones: por un lado, de subsidios que se otorgan por fondos concursables, en contraposición a lo que ocurría hasta los años cincuenta, cuando los fondos para la investigación se otorgaban directamente a los laboratorios o institutos, según pautas presupuestarias más o menos rígidas (block grants). Este cambio vino dado por tres factores: en primer lugar, el aumento exponencial en los costos para la investigación, propio de la big science (Gallison y Hevly, 1992), acompañado de una industria de equipos e instrumentos para la investigación que hasta entonces eran artesanales; en segundo lugar, el aumento, también exponencial, en el número de científicos activos desde los años de la posguerra; en tercer lugar, por la emergencia de un nuevo paradigma de las políticas científicas que, con el objeto de fomentar la excelencia, debía establecer mecanismos de selección.
La existencia de mecanismos para el acceso a los recursos pone en cuestión una suerte de "mercado" fuertemente competitivo, donde para acceder a los fondos es necesario acreditar un capital simbólico superior al de los competidores, según los valores que rigen en cada momento. Así, se ponen en práctica, de un modo sistemático, los llamados mecanismos de evaluación ex ante, que se alimentan básicamente de dos tipos de insumos: por un lado, la evaluación por pares (peer review), por otro, la adecuación a las agendas definidas como prioritarias por las agencias encargadas de la financiación (temas, líneas e incluso metodologías establecidas a priori). En la evaluación de los antecedentes de cada propuesta, donde antes se medía solamente la producción, es decir, el número bruto de artículos publicados, ahora se va a medir el impacto de dicha producción, en referencia al número de citas que los trabajos de un autor o un conjunto de autores han merecido.
La base conceptual que subyace a este nuevo tipo de prácticas es que los mecanismos anteriores estaban basados en apreciaciones subjetivas sobre el prestigio de los adeptos (lo que intensificaba el efecto de "clubes" de colegas o de clanes que se repartían el grueso de los recursos), o en indicadores brutos de producción que no permitían establecer el valor asignado por la propia comunidad de especialistas a las contribuciones individuales o grupales. Así, si diversos artículos de un autor habían recibido un número importante de citas, ello resultaba un indicador indudable de la importancia que los propios pares le habían asignado a sus aportes.
Lo anterior vino acompañado de otro artefacto fundamental: la indexación de las revistas, es decir, qué publicaciones se iban a incluir en el listado de obras que cumplieran determinados criterios, y su clasificación jerárquica según el factor de impacto (FI) de cada una. El FI de una revista es el número de veces que se cita por término medio un artículo publicado en una revista determinada. Es un instrumento para comparar revistas y evaluar la importancia relativa de una revista dentro de un mismo campo científico. A nivel internacional, Web of Science y Scopus se encargan de analizar las revistas con este fin; hace algunos años, REDALYC y Scielo han intentado establecer estos criterios en América Latina, aunque sin considerar el factor de impacto, que tiene gran centralidad en las bases internacionales.
El conjunto de revistas indexadas de un campo determinado (por ejemplo, la biología o la física) son clasificadas en orden decreciente según su factor de impacto, lo que determina diferentes tipos de revistas, organizadas, por ejemplo, en cuartiles: las pertenecientes al primer cuartil (el primer 25 %) serán consideradas como "de excelencia"; las que siguen, "muy buenas"; luego serán, simplemente, "buenas"; y las últimas, "regulares".
A ello hay que agregar, para los fines de la evaluación, el peso y la estructura de las firmas científicas, es decir, quién o quiénes firman un artículo y, sobre todo, en qué orden. Esto cambia mucho según cada campo disciplinario, pero tomemos el ejemplo de la biología: el primer autor es normalmente el que hizo "realmente" la investigación. Le sigue en importancia el último autor, que es habitualmente el director del laboratorio o del instituto, y suele ser el que supervisó la investigación y, cuestión nada desdeñable, el que consiguió los recursos. El que sigue es el segundo autor, que suele ser quien colaboró estrechamente con el primero, y así sigue en orden de atribución de importancia, hasta llegar al anteúltimo, que puede ser alguien que aportó algún material, ofreció consejos e, incluso, un técnico que hizo algunas actividades auxiliares. La cantidad promedio de autores está entre cuatro y siete, aunque en algunos casos, siempre dentro de la biología, puede llegar a varias decenas (por ejemplo, cuando se trabaja en el secuenciamiento de un genoma, realizado por varios grupos).
De este modo, el mecanismo de evaluación combina dos variables: para los más jóvenes, cuántas veces han sido primeros autores en revistas del primer grupo y, para los más experimentados, cuántas veces han sido último autor en las publicaciones más exitosas. Estos mecanismos se combinan, en la actualidad, con herramientas más sofisticadas, como el popularizado "índice h de Hirsch" (índice h), que consiste en ordenar las publicaciones de un autor a partir del número de citas recibidas en orden descendente, numerarlas e identificar el punto en el cual el número de orden coincide con el número de citas recibidas por una publicación en la firma de cada artículo, como el índice h, constituye, en la actualidad, un insumo fundamental para la evaluación ex ante de los antecedentes de los investigadores para el otorgamiento de fondos concursables, pero también para la evaluación, igualmente ex ante, de los ingresos a puestos científicos, tales como becas de posdoctorado, el ingreso a cargos de profesores y a las carreras de investigador. Por cierto, esta afirmación, de carácter general, encontrará diferencias más o menos significativas según los diversos contextos institucionales.
Otros indicadores generalmente utilizados para la evaluación de las carreras científicas, sobre todo a partir de cierto estadio de maduración, es la formación de discípulos, en términos de tesis doctorales finalizadas. Y también la capacidad, demostrada en el pasado, de obtención de recursos a través de fondos concursables, o de contratos con diversas instituciones (empresas privadas, fundaciones, u otros actores o agencias). Conceptualmente, lo que subyace aquí es que actores "otros", diferentes a la propia comunidad académica, han valorado los trabajos de los individuos o grupos en cuestión. Sin embargo, en la práctica, todos estos otros indicadores utilizados para la evaluación resultan subsidiarios del eje principal, que está focalizado en los papers y sus citas.
La evaluación ex ante, sin embargo, no acaba allí, en la distribución de recursos. A ello se agrega la evaluación de los proyectos de investigación, según diversos y variados parámetros, pero que podemos sintetizar en dos: por un lado, la evaluación subjetiva -realizada por pares- de la calidad de la propuesta (se prioriza la originalidad, la consistencia de los objetivos, la importancia del tema propuesto, etcétera). Por el otro, se evalúa la relevancia en relación con las prioridades u orientaciones establecidas por las autoridades. La noción de relevancia es harto complicada, puesto que está en relación con objetivos propuestos en términos estratégicos por las instituciones de política, pero generalmente no se especifican los complejos mecanismos a través de los cuales los posibles resultados de la investigación se podrán aprovechar para los objetivos socioeconómicos que se buscan. De hecho, ningún proceso social o económico se modifica por la sola producción de conocimientos objetivados en artículos científicos, sino que éstos últimos atraviesan un sinuoso proceso de "industrialización" (no necesariamente industrial en sentido estricto, sino vinculado al modo en el cual los conocimientos son incorporados en prácticas sociales, productos, procesos, etcétera). Así, la aplicación de los criterios de relevancia suele ser otro de los dispositivos a través de los cuales se dirimen las disputas por la obtención del capital simbólico8.
DESACRALIZACIÓN DEL PAPER Y DE LAS CITAS: CUESTIONES CONCEPTUALES Y METODOLÓGICAS
Si, hasta ahora, pudimos mostrar que la evaluación a través de los papers es el mecanismo privilegiado del que disponen tanto los organismos de política científica como los propios colectivos de especialistas de las ciencias exactas y naturales para dirimir, al mismo tiempo, cómo se distribuye tanto el capital simbólico como el material, vale la pena preguntarse qué es un paper y qué papel desempeña en el marco conceptual que lo toma como eje de la ciencia. Y, por lo tanto, qué consecuencias tiene esta decisión.
Veamos la primera cuestión: ¿qué es y qué no es un paper? Vale la pena intentar romper con una fuerte asociación conceptual naturalizada: el paper no "es" el conocimiento ni "es la ciencia". Ni aun cuando aceptáramos que el paper "representa" el conocimiento como forma codificada (hipótesis de todos modos harto discutible), esta idea oculta más cosas de las que muestra. Veámos algunas:
- Un paper muestra el éxito y esconde el fracaso: cuando se redacta un artículo, ningún científico con pretensiones de que se lo publiquen describe todos los procesos que tuvo que desarrollar para llegar a la redacción que obra en manos del referee encargado de dictaminar sobre su publicación. Por ejemplo, muchos conocimientos surgen de ensayos fallidos o fracasados que muestran no cómo las cosas son, sino, precisamente, cómo "no son".
- Un paper oculta todo lo que, desde hace mucho tiempo, Polanyi (1967) denominó conocimiento tácito: una gran diversidad de actividades que forman parte de las prácticas de la investigación científica que no son codificables, tales como la destreza del experimentador (científico o técnico), o ciertas condiciones que no llegan a especificarse (incluso porque se piensa que algunas de éstas no son importantes): la cultura y el lenguaje propios del grupo de investigación que produjo el paper, los diferentes lugares donde este fue producido, u otras condiciones que simplemente se ignoran.
- Un paper también oculta el papel que los autores desempeñan en un campo científico de relaciones sociales. Sobre este aspecto sí tenemos algunas pistas: cuando los autores dicen, por ejemplo, que "ya ha sido establecido que…", y acto seguido citan sus propios trabajos anteriores, tenemos un indicio de que no se trata de novatos o recién llegados. También tenemos algunas pistas de quiénes suelen ser sus "amigos" y con quiénes se pretende discutir, como observó Price. Pero son sólo "pistas" que los pares puedes decodificar, siempre que manejen un conjunto de informaciones imprescindibles para entender quién y de qué está hablando.
- Finalmente, un paper oculta el interés (o la necesidad) del autor (o de los autores) por legitimarse, por contar en su curriculum con una publicación más que pueda hacer valer ante sus pares y las burocracias (normalmente conformadas por sus propios pares) que habrán de evaluarlo.
Sin embargo, el aspecto más importante se relaciona con la operación retórica que implica todo artículo científico. Como señaló Latour (1987), el paper forma parte de la última etapa de fortalecimiento de un enunciado que se ha venido forjando a través de dos dispositivos fundamentales: la búsqueda de "aliados" que respalden el enunciado que se pretende legitimar, y la movilización de inscripciones que, surgidas del laboratorio (y por lo tanto, fabricadas), van a "representar" el mundo físico y natural. Así, por ejemplo, una expresión sobre la variación en el ritmo cardíaco se verifica en unas líneas que se reproducen en un papel, de modo que el lector "ve" el ritmo cardíaco cuando en realidad hay sólo líneas de color en una hoja milimetrada.
Por otro lado, los "aliados" son aquellos, científicos o no, que van fortaleciendo el enunciado hasta hacerlo formar parte de cierto "sentido común" y, por lo tanto, cristalizando el conocimiento que, una vez aceptado, publicado bajo la forma de un paper y citado por los pares, queda consagrado en una suerte de caja negra que ya no se discute ni se pone en cuestión, sino que opera simplemente como "verdad", lo que oculta todo su (complejo y contradictorio) proceso de producción (Latour, 1983).
Desde el punto de vista sociológico, podemos afirmar que las evaluaciones realizadas en base a los papers están más marcadas por los imperativos burocráticos que por un objetivo sustantivo de evaluar las prácticas científicas, los procesos y el sentido de la producción de conocimiento. Pero, además, desde el punto de vista metodológico, el uso de las citas y de los índices que de allí se derivan, son objeto de fuertes cuestionamientos de orden metodológico, como veremos a continuación.
En relación con la cobertura: la base de datos del Science Citation Index (SCI, hoy Web of Science) cubría, hace una década, alrededor de 3200 publicaciones periódicas, sobre un total estimado de 126.000, lo cual significa que solo alrededor del 2,5 % de las publicaciones estaban incluidas (Seglen, 1997). Además, la cobertura varía considerablemente entre los campos de investigación: mientras que en algunas universidades sus publicaciones en química llegan al 90 % de las indexadas, las publicaciones en biología en esas mismas universidades sólo llegan al 30 % en las bases de datos (Moed et al., 1987)9. La situación no se modifica sustantivamente si se considera Scopus, la otra base internacional corrientemente utilizada, aunque algunas tendencias recientes, como el uso de Google Scholar, sí podrían aportar elementos enteramente nuevos (Leydesdorff, 2008).
Por otro lado, la preferencia de Web of Science (y en menor medida, de Scoups) por las revistas publicadas en inglés, contribuye al bajo impacto de las publicaciones realizadas en otras lenguas. Ello se ve reflejado en el alto impacto que tienen los científicos estadounidenses (o radicados en los Estados Unidos) que dominan claramente el ranking de citas, con alrededor del 50 %, mientras que la presencia de la ciencia estadounidense no supera el 30 % del total (Moed et al., 1987). Ello se debe, probablemente, a una tendencia a que citen más a los de su propio país que a los "extranjeros", lo que se agrava en algunos campos, donde el sesgo se hace insostenible en términos metodológicos: por ejemplo, en las publicaciones de Estados Unidos en el campo de la investigación clínica, el 83 % de las referencias son de papers publicados por investigadores estadounidenses (muchas de estas, sin duda, autocitas) (Narin y Hamilton, 1996).
EL PAPEL DE LA EVALUACIÓN DE LA CIENCIA Y DE LOS CIENTÍFICOS Y SUS PROBLEMAS EN AMÉRICA LATINA
Si logramos desacralizar el papel de los papers como instrumento privilegiado para la mayor parte de las evaluaciones, vale la pena preguntarnos, en esta última sección, cuál es el rol real que desempeñan, sabiendo de antemano que dicha función está lejos de ser neutral, y qué consecuencias tiene ello en la situación en América Latina.
Lo primero que observamos es la burocratización. En la mayor parte de los países centrales, la evaluación realizada a través de estos instrumentos tiene como principal efecto generar indicadores que, por su pretendido carácter "objetivo", parecen brindar bases sólidas para el dilema de las políticas científicas -y, en rigor, de toda política pública- durante los últimos cincuenta años: sobre qué bases distribuir bienes que, por su propia naturaleza, son siempre escasos. En este sentido, la utilización de las citas, del factor de impacto y de otros indicadores genera una discriminación cuantitativa que, bajo el supuesto conceptual de medir objetivamente la calidad, permite dar recursos y promocionar en sus carreras a quienes estarán en mejores condiciones de hacer aportes significativos al edificio del conocimiento.
En segundo lugar, un efecto sobre la dinámica de los colectivos científicos: en cada uno de los campos del conocimiento, quienes ejercen el control cognitivo de las investigaciones suelen ser los líderes en materia de publicaciones, cuentan con mayores recursos y están localizados en las instituciones más prestigiosas. Ellos son, al mismo tiempo, quienes integran los comités de las revistas más prestigiosas, y quienes tienen el poder de evaluar y decidir qué textos se publican y cuáles son rechazados, y deben, por lo tanto, ser enviados a publicaciones de menor jerarquía (y, en consecuencia, menor factor de impacto), lo que luego repercutirá en las carreras académicas. Adicionalmente, los comités científicos que juzgan a sus pares, están conformados mayormente por las mismas élites que ya mencionamos. Se observa en el interior de los campos un poderoso mecanismo de reproducción de las tradiciones dominantes que deja bien lejos incluso las críticas más radicales como la que imaginó, por ejemplo, Bourdieu (1997).
En términos cognitivos, estos dispositivos, que podemos definir como de control, diferenciación y disciplinamiento, tienden a dar un cierto carácter conservador a la mayor parte de los campos de investigación, en la medida en que, excepto cuando las innovaciones provienen de los líderes (o de sus redes más próximas), las investigaciones más innovadoras serán relegadas a espacios de menor jerarquía cuya difusión será menor, y su impacto sobre el conjunto de las investigaciones de dicho campo, menos visible.
En términos de la calidad de las investigaciones, observamos una paradoja: mientras que el sistema altamente burocratizado se despliega con la complicidad explícita de las élites científicas y las burocracias públicas bajo el justificativo de la priorización de la calidad, ello ejerce una presión sobre el conjunto de los investigadores que hace que cada vez se dediquen menos, y con menos tiempo, a hacer desarrollos cognitivos más complejos y profundos, improvisando resultados publicables, bajo la conocida advertencia del publish or perish (publicar o morir). Así, el propio dispositivo conspira contra la posibilidad de desarrollos más interesantes o de largo plazo, que sólo podrían ser emprendidos por los que están en lo alto de la escala jerárquica (por ejemplo, los laureados con el Premio Nobel o equivalentes), o los "recién llegados", quienes pueden hacer grandes apuestas porque "no tendrían mucho que perder" (aunque en un plazo perentorio podrían ser excluidos del sistema).
A todo lo anterior debemos agregar el crecimiento exponencial de la cantidad de publicaciones y de autores, lo que va de la mano con el nuevo bien escaso en las sociedades del siglo XXI: la atención humana. Ello excede, naturalmente, el campo de la investigación científica, pero lo incluye. Tomemos sólo un dato en cuenta: mientras que en 1960 había 98 minutos de información disponible por cada minuto de atención humana, en el 2005, cada unidad de atención era disputada por 20.943 minutos de información digital (Neuman et al., 2009). Con ello, llegamos a la siguiente -y un poco triste- conclusión: la mayor parte de los artículos publicados -prácticamente- no tendrán lectores.
Como señalamos, las políticas científicas en América Latina se fueron institucionalizando desde los años cincuenta y, sobre todo, desde los años sesenta. Los colectivos científicos, a cuya cabeza estaban los investigadores pertenecientes a las élites locales, estaban fuertemente internacionalizados (y en ello residía, al menos en parte, la conformación de su prestigio local) y conocían y compartían los valores desplegados por las élites foráneas (Kreimer, 2010).
Este proceso no estuvo exento de cuestionamientos muy tempranos, cuyo exponente más visible fue Oscar Varsavsky. Como la mayor parte de los mecanismos establecidos entonces permanecen, grosso modo, hasta la actualidad, vale la pena detallar brevemente esos cuestionamientos, puesto que en buena medida siguen vigentes. Señalaba Varsavsky en 1969 que "el paper es esencial para ascender, para justificar los subsidios obtenidos, para renovar los contratos con las universidades 'serias'. El contenido del paper es más difícil de evaluar, sólo hay consenso entre los muy buenos y muy malos" (2010 [1969]: 37-38). Y agrega:
Este mecanismo revela la influencia de las filosofías de tipo neopositivista, surgidas del éxito de las ciencias físicas y del triunfo del estilo consumista. Aun los científicos que se proclaman antipositivistas aplican esa filosofía al actuar en su profesión. […] Esta tendencia a usar sólo índices cuantificables […] es suicida: así un informe de Unesco (1968) afirma que los países subdesarrollados necesitan un científico [por] cada mil habitantes como mínimo, afirmación tan vacía como decir que un hombre necesita respirar x moléculas por hora, sin especificar de qué moléculas se trata (Varsavsky, 2010 [1969]: 38-39).
Varsavsky concluye que, imbuido de los valores cientificistas, ello no aporta nada ni a la sociedad que lo financia, ni al conocimiento universal: "[…] aunque hubiera no uno, sino cien de estos científicos por cada mil habitantes, los problemas del desarrollo y el cambio social no estarían más cerca de su solución. Ni tampoco los problemas de la ciencia 'universal'" (2010 [1969]: 40). Dicho de otro modo, la práctica científica se va burocratizando en un conjunto de prácticas cuyo sentido va siendo desplazado desde un contrato implícito con la sociedad en una promesa de proveer explicaciones sobre el mundo físico, natural y social, y modos de intervenir sobre éste, hacia la mera reproducción del aparato institucional y humano de la ciencia.
El predominio de estos sistemas de evaluación en América Latina esteriliza todo intento de las políticas científicas de una utilización efectiva de los conocimientos que se financian y producen. Dicho de otro modo: mientras las políticas explícitas son formuladas en planes y en programas, en temas establecidos como relevantes y en el uso de recursos para promocionar carreras, las políticas implícitas, basadas en formas de evaluación como las descriptas, tienden a hacer prevalecer mecanismos de orientación de las investigaciones fuertemente influidos por los centros científicos hegemónicos en el interior de cada campo10. Ello obedece a la persistencia de una modalidad que hemos descripto hace tiempo, llamada integración subordinada.
La integración subordinada es un rasgo importante de la ciencia producida en la periferia. Como resultado directo de la modalidad de relación con los científicos del mainstream internacional, los grupos más integrados tienden a desarrollar actividades integradas con los grupos internacionales más prestigiosos, pero que resultan relativamente poco innovadoras y, a menudo, rutinarias: controles, pruebas, test de conocimientos que ya han sido bien establecidos por los equipos que asumen la coordinación en las redes internacionales (Kreimer, 2006). Los investigadores realizan un tipo de práctica que podemos denominar como ciencia hipernormal, con bajo contenido innovador, aunque altamente valorable en cuanto a los datos que genera.
En un estudio reciente (Kreimer y Levin, 2013) sobre una encuesta a casi 1000 investigadores latinoamericanos que participaron en proyectos europeos, a quienes se les preguntó sobre las tareas que desarrollaban en dichos proyectos, observamos que la actividad privilegiada es la de "recolección de información-datos" con casi un tercio del total y, si se le suma el "procesamiento de información-datos", llega al 40 %. En cambio, las actividades de producción teórica sólo alcanzan el 10 % del total.
Ello acarrea una consecuencia importante para la "ciencia periférica": la definición de las agendas de investigación se hace a menudo en el seno de los grupos centrales y es luego adoptada por los equipos satélites, como una condición necesaria para una integración de tipo complementaria. Sin embargo, esas agendas responden, en general, a los intereses sociales, cognitivos y económicos de los grupos e instituciones dominantes en los países más desarrollados. Para las élites se da un círculo virtuoso: su prestigio local "de base" les permite establecer vínculos con sus colegas de centros de investigación internacional, y luego, la participación en las redes mundiales (y el reconocimiento externo) hace crecer de un modo decisivo su prestigio -y poder- local.
Los datos anteriores ¿son relevantes para discutir el papel de la evaluación? Durante el texto nos hemos referido a la evaluación de la investigación pública de las llamadas ciencias duras, realizada en ámbitos académicos, y dejamos de lado la investigación industrial. Sin embargo, la capacidad de hacer un uso social efectivo de los conocimientos no pasa por la fortaleza de la investigación académica, sino por la posibilidad de industrializar el conocimiento a través de su incorporación en prácticas desarrolladas por otros actores, en nuevos productos o en nuevos procesos.
En este sentido, el predominio de criterios burocratizados en los países más desarrollados opera sobre una porción del conocimiento producido, es decir, la parte más académica que se genera en las universidades y centros públicos de investigación (como los consejos nacionales), pero la mayor parte (es decir, más del 60 %) se evalúa según parámetros que, lejos de responder al análisis de citas y de factores de impacto, responde a las necesidades concretas de otros actores: procesos industriales, necesidades gubernamentales, demandas sociales variadas y, también, naturalmente, al desarrollo militar.
Por lo tanto, los criterios de evaluación que orientan las políticas de los países latinoamericanos, organizados como un dispositivo disciplinador de prácticas sociales de producción de conocimientos, sólo reproduce las agendas académicas de los grupos de la élite académica de los países desarrollados. Por lo tanto, todos los intentos por orientar las agendas según criterios de relevancia quedan esterilizados por el predominio de dichos dispositivos. Aún más grave: ello ocupa prácticamente la totalidad de la orientación de las investigaciones, puesto que los sectores privados, capaces de industrializar el conocimiento, son insignificantes sobre el total de las investigaciones.
Otro aspecto importante durante las últimas décadas es la "división internacional del trabajo científico" que organiza el trabajo en megaredes, de las que pueden participar hasta seiscientos y más investigadores (Kreimer, 2010). En efecto, dos de las grandes regiones hegemónicas en términos de producción de conocimientos, Europa y los Estados Unidos, han desplegado mecanismos para aumentar la esfera de sus investigaciones (cuyos montos y necesidades de personal aumentaron de manera exponencial), a través del reclutamiento de investigadores altamente calificados de países con mayor desarrollo científico. Así, algunos países latinoamericanos con altas capacidades científicas han tenido una participación creciente en programas internacionales. Por ejemplo, en los proyectos financiados por el Séptimo Programa Marco (PM) de la Unión Europea, los grupos de Argentina, Brasil y México participan en tantos proyectos como Alemania y Francia juntos, que son los líderes en Europa (Kreimer y Levin, 2013). Esto nos indica que la participación de científicos latinoamericanos, además de responder a los deseos de las élites locales, es una necesidad imperiosa de las naciones europeas.
A diferencia de la "fuga de cerebros" propia de décadas anteriores, los investigadores participan en estas redes desde sus propios países, utilizando infraestructuras locales, gracias a las posibilidades que brindan las tecnologías de la información y la comunicación.
Más allá de que los recursos que obtienen los grupos locales a través de estos mecanismos son importantes, la motivación más relevante para éstos no parece radicar en los recursos obtenidos, sino en las relaciones mismas que formalizan con los consorcios de investigación internacionales, por la cantidad de información que allí circula y, claro, por las oportunidades de publicación en revistas de alto prestigio (Kreimer y Levin, 2013).
Este proceso está lejos de la aspiración de Varsavsky, quien señalaba hace casi medio siglo lo que nos sirve como conclusión:
Hoy hay más científicos vivos que en toda la historia de la humanidad, y disponen de recursos en cantidad más que proporcional a su número. Con todos esos recursos adquieren aparatos y materiales maravillosos, asistentes bien entrenados, bibliografía completa y rápida. Disfrutan de un gran prestigio y de sueldos nada despreciables. ¿Qué han producido con todas esas ventajas? Toneladas de papers y muchos objetos, pero menos ideas que antes (2010 [1969]: 43).
Siguiendo lo que argumentamos hasta aquí, podemos concluir que las actuales políticas científicas implícitas, y en particular los mecanismos de evaluación fuertemente anclados en las culturas académicas, profundizan estas tendencias y nos llevan a interrogarnos acerca del sentido mismo de los sistemas científicos de nuestra región.
NOTAS
1 Por cierto, valdría preguntarse lo mismo para otras prácticas esencialmente sociales, tales como el trabajo, las religiones o las fuerzas armadas, y ante la imposibilidad fáctica de reconstruir todo un sistema terminológico, finalmente parece que optamos por conservar los mismos vocablos, haciendo los ajustes necesarios y adaptándolos a cada situación histórica.
2 En general, en el análisis de las políticas de ciencia y tecnología (CyT) en América Latina, predominó durante mucho tiempo la idea de imitación o directamente transferencia de políticas y modelos institucionales de los países más avanzados. Feld (2015) argumenta, en cambio, que a pesar de la innegable influencia de los modelos internacionales, en particular movilizados por la Unesco, las configuraciones en cada uno de los contextos deben observarse con detalle para comprender las tensiones en pugna en cada uno de estos últimos.
3 Godin (2009) ha propuesto una clasificación ligeramente diferente: subsume las perspectivas sobre la ciencia en relación con las políticas en tres "generaciones" diferentes, de las que emergen ocho marcos analíticos.
4 La expresión liberal orientada podría parecer contradictoria. Me refiero, sin embargo, a la puesta en marcha de mecanismos de ayuda de la cooperación internacional que no afectaron, empero, la libertad de los investigadores para establecer libremente sus agendas de investigación.
5 No deja de ser paradójico que, en sus comienzos, los artículos científicos estuvieran destinados a reemplazar crecientemente los libros, forma por excelencia de comunicación hasta bien entrado el siglo XVIII en incluso en el XIX. De hecho, se consideraba que había una "superpoblación" de libros, lo que hacía casi imposible para un especialista estar completamente actualizado. En cambio, los artículos con su formato breve, permitían aliviar dicha tarea, al condensar la información en pocas líneas, aunque el cambio del libro al artículo fue muy trabajoso, con resistencias que duraron siglos, y en donde el formato paper, como lo conocemos hoy, era desvalorizado por los científicos "serios" (Barber, 1961). Para un análisis de este proceso, véase también Gómez Morales (2005).
6 En realidad, Godin señala como verdadero precursor a Francis Galton y su libro English Men of Science publicado en 1874. Según Godin, "fue después que estudiara los trabajos de Galton que Cattell puso en marcha su directorio" (2006).
7 El ISI fue posteriormente adquirido por Thomson Scientific & Healthcare en 1992 y es actualmente conocido como Thomson Reuters ISI, tras la compra de Reuters por Thomson en el 2008. Su instrumento principal es la Web of Science.
8 Mecanismos similares son utilizados para la evaluación ex post, aunque su sentido institucional es diferente, generalmente asociado con promociones en las carreras académicas, con el otorgamiento de un suplemento o incentivo económico. Aquí también la evaluación, en las ciencias exactas y naturales, se realiza sobre la base de los indicadores de citas, aunque subsidiariamente se suelen utilizar indicadores de otro tipo.
9 Además, por supuesto, está el caso de las ciencias sociales, que se adaptan muy mal a estos regímenes de medición, tema sobre el cual bastante se ha debatido, pero que escapa a los límites de este artículo.
10 La distinción entre políticas explícitas e implícitas fue propuesta originalmente por Herrera (1971).
REFERENCIAS BIBLIOGRÁFICAS
1. BARBER, Bernard, 1961, "Resistance by scientists to 6. Scientific discovery", en: Science, Vol 14, pp, 597-602. [ Links ]
2. BERNAL, John, 1939, The Social Function of Science, Londres, Macmillan. [ Links ]
3. BOURDIEU, Pierre, 1997, L'usage social des sciences, París, Éditions de l'INRA. [ Links ]
4. BUSH, Vannevar, 1999 [1945], "Ciencia: la frontera sin fin", en: Redes, Vol. 6, No. 14, pp. 89-137. [ Links ]
5. COLLINS, Harry, 1981, "What is TRASP?: The Radical 8. Programme as a Methodological Imperative", en: Philosophy of the Social Sciences, Vol. 11, No. 2, pp. 215-224. [ Links ]
6. DE GREIFF, Alexis y Oscar Javier Maldonado, 2011, "'Apropiación fuerte' del conocimiento: una propuesta para construir políticas inclusivas de ciencia, tecnología e innovación en América Latina", en: Antonio Arellano y Pablo Kreimer, Estudio social de la tecnociencia desde América Latina, Bogotá, Siglo del Hombre, pp. 209-263. [ Links ]
7. FELD, Adriana, 2015, Ciencia y política(s) en Argentina: 1943-1973, Buenos Aires, Universidad Nacional de Quilmes. [ Links ]
8. GALLISON, Peter y Bruce Hevly, 1992, Big Science: The Growth of Large Scale Research, Stanford, Stanford University Press. [ Links ]
9. GODIN, Benoît, 2006, "On the Origins of Bibliometrics", en: Scientometrics, Vol. 68, No. 1, pp. 109-133. [ Links ]
10. ________, 2009, The Making of Science, Technology and Innovation Policy: Conceptual Frameworks as Narratives, 1945-2005, Montreal, INRS. [ Links ]
11. GÓMEZ, Yuri, 2005, The Scientific Production: The Socio-Technical Construction of Bibliometric Measurement, tesis de doctorado, Universidad de York. [ Links ]
12. HERRERA, Amílcar, 1971, Ciencia y política en América Latina, México, Siglo XXI. [ Links ]
13. KNORR-CETINA, Karin, 2005 [1981], La fabricación del conocimiento: un ensayo sobre el carácter constructivo y contextual de la ciencia, Buenos Aires, Universidad Nacional de Quilmes. [ Links ]
14. KREIMER, Pablo, 1999, De probetas, computadoras y ratones: la construcción de una mirada sociológica de la ciencia, Buenos Aires, Universidad Nacional de Quilmes. [ Links ]
15. ________, 2006, "¿Dependientes o integrados? La ciencia latinoamericana y la división internacional del trabajo", en: Nómadas, No. 24, Universidad Central-Iesco, pp. 199-212. [ Links ]
16. ________, 2010, "La recherche en Argentine: entre l'isolement et la dépendance", en: CRES, Cahiers de Recherche sur l'Education et les Savoirs, No. 9, pp. 115-138. [ Links ]
17. KREIMER, Pablo y Luciano Levin, 2013, "Mapping trends and patterns in S&T Cooperation between the European union and Latin American countries based on FP6 and FP7 projects", en: Jacques Gaillard y Rigas Arvanitis (eds.), Mapping and understanding Science and Technology collaboration between Europe and Latin America, París, Editions des Archives Contemporaines. [ Links ]
18. LATOUR, Bruno, 1983, "Give Me a Laboratory and I will raise the World", en: Karin Knorr-Cetina y Michael Mulkay (eds.), Science Observed, Beverly Hills, Sage. [ Links ]
19. ________, 1987, Science in Action: How to Follow Scientists and Engineers through Society, Boston, Harvard University Press. [ Links ]
20. LEYDESDORFF, Loet, 2008, "Caveats for the Use of Citation Indicators in Research and Journal Evaluations", en: Journal of the American Society for Information Science and Technology, Vol. 59, No. 2, pp. 278-287. [ Links ]
21. MERTON, Robert, 1942, "Science and technology in a democratic order" en: Journal of Legal and Political Sociology, Vol. 1, pp. 115-126. [ Links ]
22. MOED, Henk, Johannes Burger, Jan Frankfort y Antony Van Raan, A.F. J., 1987, On the Measurement of Research Performance: The use of Bibliometric Indicators, Leiden, Science Studies Unit/Lisbon-Institute/University of Leiden. [ Links ]
23. NARIN, Francias y Kimberly Hamilton, 1996, "Bibliometric Performance Measures", en: Scientometrics, No. 6, pp. 293-310. [ Links ]
24. NEUMAN, Rusell, Yong Jin Park y Elliot Panek, 2009, Tracking the Flow of Information Into the Home: An Empirical Assessment of the Digital Revolution in the U.S. from 1960-2005, Ann Harbor, University of Michigan. [ Links ]
25. POLANYI, Michael, 1967, The Tacit Dimension, Nueva York, Anchor Books. [ Links ]
26. PRICE, Derek de Solla, 1963, Little Science, Big Science, Nueva York, Columbia University Press. [ Links ]
27. SALOMON, Jean-Jacques, 2000, "L'OCDE et les politiques scientifiques", en: Revue pour l'Histoire du CNRS, No. 3. [ Links ]
28. ________, 2008, Los científicos: entre saber y poder, Buenos Aires, Universidad Nacional de Quilmes. [ Links ]
29. SEGLEN, Per, 1997, "Why the Impact Factor of Journals should not be used for evaluating Research", en: British Medical Journal, Vol. 314, pp. 498-502. [ Links ]
30. VARSAVSKY, Oscar, 2010 [1969], Ciencia, política y cientificismo, Buenos Aires, Capital Intelectual. [ Links ]
31. VELHO, Lea, 2011, "La ciencia y los paradigmas de política científica, tecnológica y de innovación", en: Antonio Arellano y Pablo Kreimer, Estudio social de la tecnociencia desde América Latina, Bogotá, Siglo del Hombre. [ Links ]