INTRODUCCIÓN
Uno de los primeros términos que advierten los estudiantes de economía es el de neoclasicismo o economía neoclásica. Desde el principio de sus estudios, los economistas encuentran estos términos constantemente en sus clases, en la literatura y en las discusiones relacionadas con la teoría económica. Lo que no es usual es que el término se defina de manera precisa, por lo que pareciera que cada profesor o autor lo utiliza para representar conjuntos de ideas diferentes. Borges (1945, p. 168) afirma: “todo lenguaje es un alfabeto de símbolos cuyo ejercicio presupone un pasado que los interlocutores comparten”. En este caso, no es claro que los estudiantes compartan el mismo pasado académico de los profesores.
El término neoclásico se suele relacionar con una plétora de elementos, ya sea conjunta o independientemente, tales como: una forma de modelar a los seres humanos como seres racionales; una modelación del conjunto de la economía como una situación de equilibrio (casi siempre equilibrio general); un tipo de matematización o formalización de la teoría en un alto grado; el marginalismo; el utilitarismo; el individualismo metodológico; y la definición de la economía como la disciplina que estudia el uso alternativo de medios escasos para alcanzar ciertos fines (Robins, 1932). Las relaciones implícitas o explícitas que adopta cada persona al emplear el término parece depender, al menos en parte, de la posición ideológica del sujeto. Esta diversidad de acepciones que tiene el término genera gran confusión entre los economistas y entre los estudiantes de economía, y ha llegado a ser de tal magnitud la confusión que la palabra neoclasicismo se ha asociado en algunos casos con la expresión teórica de la defensa del capitalismo y del libre mercado1.
La confusión se amplía cuando se piensa en el uso del término por parte de quienes son críticos de la teoría económica contemporánea. Tales críticos rara vez definen con precisión el término neoclásico, y al mismo tiempo parece que esperan que el interlocutor lo asocie automáticamente con algo peyorativo (Colander, 2000; Lawson, 2013)2. Así, parece que cuando se utiliza el término neoclásico se incurre en una discusión más semántica que de contenido, en la que alguna de las partes termina empleando falacias del hombre de paja. Resulta entonces pertinente eliminar ciertos lugares comunes que aún persisten, especialmente en la periferia de la élite académica. En particular, los autores de este artículo comparten con Colander (2000) que el término neoclásico debe ser abandonado en su uso laxo y, por el contrario, debería ser empleado en la forma en la que lo hacen los historiadores del pensamiento. Esta es una idea central que se desarrolla en este artículo.
Si bien se han realizado varios intentos por definir el término de forma precisa (véase Arnsperger y Varoufakis, 2006; Becker, 1976; Hahn, 1984 y 1985; Lawson, 2013; y Weintraub, 1993), probablemente el uso más aceptado por parte de los historiadores del pensamiento se encuentra en Colander (2000). Este autor señala seis características del neoclasicismo: 1) se centra en el estudio de la asignación de recursos en un momento dado; 2) acepta alguna variación del utilitarismo en la modelación de los agentes o de la economía; 3) utiliza análisis marginales; 4) asume racionalidad perfecta o casi perfecta; 5) acepta el individualismo metodológico; 6) es una teoría estructurada alrededor de un concepto de equilibrio.
Si se tiene en cuenta este marco de referencia acerca de las que se consideran como las características neoclásicas, este artículo procede de la siguiente forma. En la primera sección se realiza un breve recuento sobre el uso del término a través de la historia. En la segunda, se presenta la relación entre el neoclasicismo, la corriente principal y la ortodoxia. En la tercera parte se expone la interrelación de la corriente principal con su verdadero elemento común: las matemáticas. Posteriormente, se analiza la naturaleza cambiante de la corriente principal, y, por último, se presentan las conclusiones.
HISTORIA DEL TÉRMINO
Para empezar, es importante resaltar que se centra la atención en el significado del término neoclásico en el contexto de la teoría económica, y no en su significado en el campo de la política económica3. Aspromourgos (1986, 1991) encuentra el inicio del uso del término en Veblen (1900), quien empleó el término neoclásico por primera vez con el fin de describir la teoría marshalliana. En esta primera etapa, Veblen no dejó claro los paralelos entre los economistas clásicos y Marshall que justificaran el uso del término, más allá del supuesto de utilitarismo común, y de su uso de la psicología hedonista. El surgimiento del término parece haber estado soportado, en parte, por el hecho de que Marshall reconocía que su trabajo estaba basado en el de los economistas clásicos. Sin embargo, según Marshall, su trabajo no era una continuación en la línea de la filosofía ética y de la psicología del comportamiento de los individuos. Su mérito consistía en haber logrado una síntesis del valor objetivo de los clásicos con los elementos subjetivistas de los padres del marginalismo.
Posteriormente, fue Keynes (1936) quien empleó el término, asociándolo indistintamente, tanto con los economistas clásicos (como Ricardo), como con los marginalistas (como Pigou). No obstante, las dos principales fuentes que derivaron en el uso comúnmente aceptado del término neoclásico después de la segunda guerra mundial, se encuentran en Hicks (1932) y Stigler (1941). Aspromourgos (1986) señala que tanto Hicks, como Stigler, reconocieron de mejor forma que Veblen el núcleo de las teorías marginalistas, identificando el uso del individualismo metodológico, de una teoría de la distribución basada en nociones marginales y de una teoría del valor subjetivo. El término ganó tracción en las controversias del capital en las décadas de 1950 y 1960. Posteriormente, fue popularizado por la tercera edición del libro de texto de Samuelson (1955), quien presentó lo que él mismo denominó “la síntesis neoclásica”: el marco teórico aceptado en las décadas de 1950 y 1960, en las que se propuso que el modelo keynesiano describía el comportamiento de la macroeconomía en el corto plazo, mientras que el modelo de equilibrio general lo hacía en el largo (Woodford, 1999). Esta diferencia se hizo más evidente en el campo de la macroeconomía, y el debate se enfocó, principalmente, en si la curva de Phillips era vertical o tenía pendiente negativa. Eventualmente, el uso del término se extendió más allá de la síntesis neoclásica y empezó a ser utilizado por distintos economistas de forma muy variable. En muchos casos se asoció directamente a la corriente principal con aquello denominado neoclásico, que para ese entonces era un concepto bastante ambiguo. La síntesis neoclásica, sin embargo, no hacía referencia exactamente a la escuela descrita por las características antes señaladas por Colander (2000).
Es posible apreciar así la gran variedad de significados y usos que a lo largo de la historia económica ha tenido el término neoclásico. Una vez se tiene la definición de neoclasicismo de Colander (2000), la discusión comienza a aclararse, pues esta permite identificar el conjunto de ideas que se enmarcan con su significado. No obstante, a fin de entender lo útil que es esta definición, es necesario antes definir dos conceptos adicionales: corriente principal y ortodoxia.
CORRIENTE PRINCIPAL VS. ORTODOXIA
Tal como lo sugieren Colander, Holt y Rosser (2004) y Dequech (2007), la corriente principal está definida, sobre todo, por un componente sociológico: las ideas sostenidas y apoyadas por la élite de las instituciones académicas, organizaciones y revistas en un momento dado. En palabras de Colander et al. (2004, p. 490), “la corriente principal de la economía consiste de las ideas que la ‘élite’ de la profesión considera aceptables, donde por élite nos referimos a los economistas prestigiosos en las escuelas de posgrado más sobresalientes”. Dequech (2007) amplía ligeramente la definición de Colander et al. (2004) para abarcar todas las ideas que se difunden en los lugares de mayor prestigio, incluso si la élite, entendida como los principales exponentes de la profesión, ya no las adoptan. Ello permitiría incluir en el conjunto de la corriente principal las ideas enseñadas en pregrados de instituciones prestigiosas, incluso si ningún académico de los doctorados las adoptara. Definida de esta forma, la corriente principal tiene dos características que vale la pena resaltar:1) es un cuerpo dinámico de ideas; y 2) no debe ser necesariamente homogénea o internamente consistente. La primera de estas características se tratará con más detalle en la siguiente sección, cuando se considere la vinculación de las dinámicas de la corriente principal con las herramientas matemáticas a disposición. Por su parte, la segunda característica implica que distintas escuelas de pensamiento o ideas no pertenecientes a ninguna de estas escuelas puedan estar todas en el abanico de la corriente principal.
A su vez, tanto Colander et al. (2004, 2007), como Dequech (2007), utilizan el término ortodoxia para representar a la más reciente escuela de pensamiento dominante. Se evidencia este dominio precisamente en los libros de texto tanto de pregrado como de posgrado. Estos autores coinciden en identificar la escuela neoclásica con las características previamente presentadas como la ortodoxia contemporánea. Sin embargo, la posición dominante de los elementos neoclásicos en la academia son cada vez más difíciles de encontrar, especialmente en la microeconomía. Por ejemplo, las tesis doctorales en la élite en el campo de la microeconomía emplean elementos claramente externos a las seis características con las que Colander (2000) identifica el neoclasicismo. La teoría de juegos bayesianos, la teoría de redes, la teoría de juegos evolutivos, la racionalidad limitada, los avances en economía experimental y los modelos que incluyen preferencias por los demás (other-regarding preferences) son solo algunos de estos desarrollos. Davis (2006) documenta claramente cómo a partir de 1980 se ha consolidado este proceso de abandono gradual de lo que algunos han denominado “programa neoclásico”, por uno más pluralista.
Tal vez en el área de la macroeconomía sea más fácil encontrar algunos de estos elementos neoclásicos, especialmente en la actual síntesis identificada por Woodford (1999) y Blanchard (2008) con los modelos dinámicos estocásticos de equilibrio general (en adelante, DSGE por sus siglas en inglés). Sin embargo, en estos modelos no todos los seis elementos de Colander (2000) aparecen a la vez. En particular, los modelos DSGE no cumplen con la primera característica, ya que no se enfocan en la asignación de recursos en un momento en el tiempo, sino en la asignación a lo largo del tiempo, tanto en modelos con horizonte finito, como infinito.
De todas formas, un elemento en común surge de las definiciones de corriente principal y de ortodoxia: en ambas hay un factor sociológico relacionado con la reputación de un cuerpo de ideas. Distintos trabajos intentan identificar de manera precisa las características que actualmente llevan a elevar la reputación o el prestigio de ciertas ideas. Por ejemplo, Blaug (1994), Dequech (2007) y Lawson (2006, 2013) encuentran que la formalización matemática es la línea común de la actual corriente principal. Esta línea común es entonces una posición metodológica y no de contenido de las ideas (Hurtado y Jaramillo, 2008). Esto implica que si bien es posible que teorías neoclásicas “a la” Colander sean parte de la corriente principal, no necesariamente serán las únicas teorías que la conformen. En efecto, este es el caso hoy por hoy. Colander (2000) identifica el periodo hegemónico de la teoría neoclásica desde 1870 hasta 1930. Desde entonces, trabajos aceptados por los economistas de la élite académica ya no contenían necesariamente esos seis elementos en conjunto. Como resultado de ello, desde la década de 1940 hasta hoy, se ha evidenciado una constante erosión de lo que fue en algún momento el monopolio del neoclasicismo en la conversación académica. Un claro ejemplo es la teoría de juegos. Con la definición adoptada, es claro que la teoría de juegos no es neoclásica, pues no se centra en el estudio de la asignación de recursos escasos entre ciertos fines. Aunque la teoría de juegos clásica asume que los individuos son racionales (maximizadores de su función de utilidad), la teoría de juegos evolutivos no asume tal hipótesis4. En los juegos evolutivos, los jugadores utilizan reglas heurísticas simples para determinar qué elegirán. Por ejemplo, cada jugador se puede encontrar programado para elegir cierta acción, ya que puede haber heredado ciertas características determinadas por factores genéticos o culturales, entre otros. Esta interpretación permite entonces considerar individuos que utilizan reglas de decisión no racionales. Así, en el caso de la teoría de juegos evolutivos, se ha roto con certeza con al menos cuatro elementos de la definición de Colander (asignación de recursos en un momento, utilitarismo, marginalismo y racionalidad perfecta).
Tal vez un ejemplo más sorprendente para el lector es que ni si quiera el modelo Arrow-Debreu (en adelante A-D) podría considerarse como neoclásico. La razón es que el modelo A-D no recurre a nociones marginales a fin de obtener los resultados propuestos, tales como la existencia de un equilibrio walrasiano y los teoremas fundamentales del bienestar. Estos dos ejemplos sirven para plantear la siguiente pregunta: ¿qué tienen en común la teoría de juegos evolutivos con las teorías marginalistas de la década de los treinta del siglo xx, como la de Pigou? La respuesta es que estas teorías no tienen suficientes elementos en común como para enmarcarlas dentro del mismo término. Asimismo, es claro que la teoría de juegos evolutivos tiene amplia aceptación dentro de la academia de élite. Parece evidente entonces que el término neoclásico tiene su mayor utilidad cuando se emplea, como lo sugiere Colander (2000), con el propósito de definir la escuela predominante del periodo de finales del siglo XIX y principios del XX; sin embargo, extender su uso con el propósito de enmarcar el cuerpo teórico contemporáneo es una empresa inútil.
Sería entonces importante determinar cuál es el elemento común que permite la coexistencia del modelo A-D y de la teoría de juegos evolutivos dentro de la corriente principal. Como se señaló anteriormente, ese elemento común es la formalización matemática. Con esto en mente, se lleva a cabo a continuación un breve repaso de la evolución de la relación simbiótica que existe entre los desarrollos teóricos en economía, y las herramientas matemáticas que se encuentran disponibles en un momento dado.
TEORÍA ECONÓMICA Y MATEMÁTICAS
Desde principios del siglo XX, el desarrollo de la teoría económica en la corriente principal ha estado ligado al desarrollo de las matemáticas. De acuerdo con la tesis que se plantea en este artículo, independientemente de las características consideradas neoclásicas, la corriente principal en su conjunto muestra una evolución estrechamente relacionada con las herramientas matemáticas disponibles en cada periodo de tiempo, con las cuales se pueden analizar los problemas económicos. Considérese, por ejemplo, el modelo insumo-producto de Leontief (1936), que es un modelo de equilibrio general con hipótesis muy fuertes. Estas hipótesis incluían, entre otras, las siguientes: todos los sectores producían solo un bien; cada industria utilizaba una función de producción con rendimientos constantes a escala y coeficientes fijos de producción; y existía una demanda de bienes finales dada exógenamente. La adopción de este tipo de hipótesis permitió el uso del álgebra lineal en el análisis económico, y aunque el modelo de Leontief se ha abandonado con el tiempo, el impacto que tuvo en su momento mostraba el interés por explicar el comportamiento de la economía por medio de las herramientas matemáticas a disposición de los economistas en ese periodo5.
La teoría neoclásica, por ejemplo, se identificó durante mucho tiempo con la teoría marginalista, debido a que sus análisis estaban basados en nociones marginales: utilidad marginal, costo marginal, producto marginal, entre otros. Una razón de la amplia utilización de estos conceptos es que el tipo de matemáticas que se empleaba en ese momento era el cálculo diferencial6. La noción de derivada fue entonces utilizada para definir conceptos económicos. Por ejemplo, la solución del problema de maximización de utilidad de un consumidor se caracterizó a partir de la igualdad de la tasa marginal de sustitución entre cualquier par de mercancías y su respectivo cociente de precios. Sin embargo, fue debido al trabajo de Arrow y Debreu (1954) y Debreu (1959) que las nociones marginales se pudieron reemplazar. La razón de ello fue la utilización de la teoría de conjuntos, del análisis real y de la topología en el análisis económico. De forma similar, el teorema de punto fijo de Kakutani (1941) permitió abrir un nuevo campo de investigación en economía. Por ejemplo, uno de los resultados más importantes en teoría de juegos, desarrollado por Nash (1950), mostró que un equilibrio de un juego en forma estratégica es un punto fijo de una correspondencia; en razón a esto, utilizó el teorema de punto fijo de Kakutani con el fin de garantizar la existencia de un equilibrio en un juego. Esta idea fue trasladada al problema de existencia de un equilibrio competitivo, y se mostró cómo un equilibrio walrasiano también resulta ser un punto fijo de cierta correspondencia (Debreu, 1959). Debreu (1984, p. 267) resume esta estrecha relación entre la teoría económica y las matemáticas de la siguiente forma:
Una motivación fundamental para realizar esa investigación fue el estudio de la teoría del equilibrio económico general. [...] La ejecución de tal programa requirió de la solución de algunos problemas en la teoría de las preferencias, de la utilidad y de la demanda. Esto llevó a la introducción en la teoría económica de nuevas técnicas analíticas que se tomaron prestadas de diversos campos de la matemática. En algunos casos fue necesario resolver preguntas puramente matemáticas.
Más aún, la teoría económica también ha desarrollado técnicas que los matemáticos puros desconocían. Por ejemplo, los desarrollos relacionados con el algoritmo de Kuhn-Tucker (central en la solución de los problemas de elección de individuos racionales), como los teoremas de Arrow, Hurwicz y Uzawa (1961), y Arrow y Enthoven (1961), son un aporte que la economía ha realizado a las matemáticas. De esto podría deducirse que la hipótesis de racionalidad, entendida como la maximización de una función objetivo, se impuso en el análisis económico debido al desarrollo de este tipo de algoritmos de optimización. De otro lado, Uzawa (1962, p. 59) utilizó el teorema de existencia de un equilibrio walrasiano con el propósito de probar el teorema de punto fijo de Brouwer, lo que le permitió afirmar:
Por tanto, puede ser interesante notar que el teorema de Brouwer es de hecho implicado por el teorema de Walras. Esto indicaría la razón por la cual el análisis general del problema de la existencia en el sistema walrasiano tuvo que esperar al desarrollo de las matemáticas del siglo xx.
Debreu (1984) cita otros ejemplos que ilustran la influencia de la teoría económica sobre las matemáticas, tales como la teoría de la integración de correspondencias y los algoritmos para el cálculo de puntos fijos y de soluciones de sistemas de ecuaciones, entre otros.
Cabe anotar que, en algunos casos, la elección de la herramienta matemática empleada no se encuentra plenamente justificada. Por ejemplo, es común utilizar la teoría de la optimización continua, y no la teoría de la optimización entera, con el fin de solucionar problemas de individuos racionales. Una posible razón sería que la primera teoría se encuentra más desarrollada que la segunda, en el sentido que se puede disponer de teoremas que caracterizan la existencia de soluciones (el teorema de Weierstrass, por ejemplo), y de algoritmos que permiten hallarlas (el teorema de Kuhn-Tucker, por ejemplo). Sin embargo, es importante anotar que los resultados obtenidos cuando se asumen elecciones sobre continuos no necesariamente coinciden con los que se obtienen cuando se asumen elecciones sobre conjuntos discretos. Más aún, sería interesante preguntarse en qué contextos los individuos toman realmente decisiones sobre un continuo. Sin embargo, a pesar de estas limitaciones, la elección de las técnicas matemáticas no es totalmente arbitraria. En muchos casos, esta elección está determinada por su eficacia para expresar y analizar nociones económicas. Por ejemplo, la noción de competencia perfecta, definida como una situación en la que los agentes económicos toman los precios como dados, se analizó durante mucho tiempo en economías con un número finito de agentes. Los trabajos de Arrow y Debreu (1954) y de Debreu (1959) están basados en esta hipótesis. Sin embargo, es poco plausible en este marco que un agente económico no influya sobre los precios a través de su elección individual. Como ha señalado con claridad Aumann (1964), la noción de competencia perfecta podría expresarse adecuadamente en economías infinitas y, más precisamente, en economías formadas por un continuo de agentes económicos. En palabras de Aumann (1964, p. 42):
De hecho, más allá del resultado específico que hemos obtenido aquí, lo que nos gustaría resaltar es el poder y la simplicidad del método del continuo de jugadores para describir los fenómenos de masas en economía y en teoría de juegos. Este trabajo debería ser considerado, ante todo, como una ilustración de la aplicación de este método a un área en la que ningún otro análisis resultó completamente satisfactorio, y esperamos que esto pueda estimular el uso y el desarrollo de modelos con un continuo de jugadores.
Así, al utilizar la teoría de la medida, Aumann definió la noción de competencia perfecta y esto le permitió mostrar un resultado muy interesante: con hipótesis bastante débiles, en economías de intercambio puro con un continuo de consumidores, las nociones de equilibrio walrasiano y de núcleo son equivalentes. Este resultado también permitió establecer relaciones entre la teoría de juegos cooperativos y la teoría de juegos no cooperativos. Este es tan solo un ejemplo de cómo el empleo de las matemáticas ha permitido a los economistas teóricos comunicarse con mayor facilidad entre sí.
Otra ventaja del uso de las matemáticas en economía es la de poder extender el análisis a ciertos problemas que a primera vista parecen diferentes o desconectados. Inicialmente, una mercancía Arrow-Debreu fue definida como un bien o servicio fechado y localizado. Arrow (1964) se dio cuenta de que el marco teórico construido inicialmente (en el que no había incertidumbre) podía ser extendido para analizar economías con incertidumbre. Para ello bastó incluir dentro de la definición de mercancía Arrow-Debreu un elemento adicional: el evento de la naturaleza en el que el bien o servicio iba a ser consumido o producido. Así, las economías Arrow-Debreu con incertidumbre pueden ser analizadas con un aparato teórico similar al utilizado para analizar economías Arrow-Debreu con certidumbre.
La adopción de términos definidos matemáticamente también permite soslayar algunos problemas que se han planteado los economistas teóricos a lo largo de la historia. Para ejemplificar esto, obsérvese que, después de la aparición de la definición de mercancía Arrow-Debreu, el término factores de producción (dentro del que se incluían las nociones de tierra y capital) cayó en desuso. De acuerdo con la definición de mercancía Arrow-Debreu, es fundamental describir detalladamente el tipo de bien que se utiliza en un proceso productivo, incluyendo la fecha y el lugar en el que se encuentra disponible. Así, las nociones (tal vez ambiguas) de tierra y capital dejaron de ser utilizadas en gran parte del análisis microeconómico moderno. El lenguaje utilizado cambió, y la noción de insumo reemplazó el concepto de factor de producción. Una implicación de este cambio es que, al recurrir a la noción de mercancía Arrow-Debreu, se evitan los problemas de agregación que se analizaron extensamente entre 1930 y 1960. De esta manera, el problema de la construcción de una función de producción agregada no existe en las economías Arrow-Debreu. Esto ilustra cómo, debido a la utilización de nuevas técnicas y al empleo de definiciones precisas, algunos problemas han desaparecido del análisis económico.
Ahora, si bien se han presentado situaciones en las cuales el desarrollo matemático ha permitido avanzar en el análisis de un problema económico, también es cierto que cuando las matemáticas se detienen, puede detenerse el avance teórico. Un claro ejemplo de esto es el desarrollo de la macroeconomía y, en particular, el de la síntesis DSGE, actualmente hegemónica. Considérese el caso de la micro-fundamentación de la macroeconomía y de las expectativas racionales. El objetivo de este programa de investigación era desarrollar un modelo de equilibrio general de la macroeconomía basado en fundamentos microeconómicos explícitos. Dada la dificultad de la empresa, Lucas y los demás pioneros de este programa empezaron sus análisis con modelos manejables analíticamente, que esperaban fueran la base para el desarrollo de modelos más complejos. Por ejemplo, en los modelos de optimización dinámica iniciales fue usual asumir que la función de utilidad de cada individuo era una función intertemporal en la que cada periodo era descontado a una tasa constante. Esta hipótesis no es simplificadora: es una hipótesis sustantiva, ya que garantiza que cada individuo satisfaga la propiedad de consistencia temporal; es decir, que ningún individuo tenga incentivos para modificar una decisión ya tomada a medida que adquiere nueva información7. Así, esta hipótesis permite analizar un problema esencialmente dinámico mediante técnicas esencialmente estáticas. En general, los modelos de optimización dinámica y, de manera similar, la regla de tanteo asumida en el análisis de estabilidad en las economías Arrow-Debreu, están basados en dinámicas artificiales en las que los fundamentales de la economía no cambian a través del tiempo, y en las que ni los procesos de decisión de los individuos, ni sus decisiones, cambian una vez se han adoptado8. Sin embargo, estos modelos iniciales no podían generalizarse una vez se alteraban algunos supuestos fundamentales: por ejemplo, cuando se asumía que los individuos eran heterogéneos y no homogéneos. Así, eventualmente, los modelos con agentes representativos se volvieron la norma, ya que estos podían evitar las dificultades del resultado de Debreu, Mantel y Sonnenschein9.
Colander, Howitt, Kirman, Leijonhufvud y Mehrling (2008) señalan que, si bien los macroeconomistas identificaron tempranamente los problemas con estos modelos de agentes representativos, su uso persistente se debió a las dificultades analíticas para pasar a modelos con agentes heterogéneos, dinámicas estadísticas, equilibrios múltiples, desequilibrios o aprendizaje endógeno. Una de las razones del empleo frecuente de los modelos con agentes representativos y de la utilización de técnicas esencialmente estáticas, a fin de analizar problemas dinámicos, era la imposibilidad de obtener soluciones analíticas de los sistemas dinámicos no lineales. Solo recientemente han comenzado a surgir modelos macroeconómicos que adoptan estas características y exploran nuevas rutas; ello, tal como lo argumenta Colander (2008), en razón al desarrollo de los métodos computacionales. Los modelos de economía de la complejidad agrupan en un solo nombre distintas aproximaciones que permiten caracterizar el funcionamiento de la macroeconomía a partir de interacciones de agentes heterogéneos con potenciales propiedades macro-emergentes. Esta clase de modelos requiere el uso de matemáticas relativamente inexploradas por los economistas, tales como algoritmos de agrupamiento, espacios ultramétricos y análisis dimensional. Asimismo, los modelos computacionales basados en agentes permiten construir mundos virtuales que se pueden emplear como laboratorios para estudiar fenómenos macroeconómicos. Según Colander et al. (2008, p. 238),
Para la macroeconomía en particular, la ventaja de los modelos computacionales basados en agentes es que elimina las limitaciones de maniobrabilidad propias de la macroeconomía analítica. Los modelos computacionales basados en agentes permiten a los investigadores elegir una forma microeconómica apropiada para analizar el problema de su interés, incluyendo una variedad de tipos de agentes, número de agentes de cada tipo y ordenamientos jerárquicos anidados de los agentes. También les permite considerar simultáneamente las interacciones entre los agentes con las decisiones de los agentes, y estudiar las interacciones dinámicas entre los agentes. Los investigadores pueden desarrollar de una manera relativamente fácil modelos computacionales basados en los agentes con un gran número de individuos heterogéneos, y en los que no se requiere imponer condiciones de equilibrio. Múltiples equilibrios pueden ser considerados, ya que el equilibrio es un resultado potencial y no un requerimiento impuesto.
Verificar si estos modelos, también denominados como “poswalrasianos”, corroerán la posición privilegiada que hoy tienen los modelos DSGE, es una cuestión que solo el tiempo podrá resolver. Sin embargo, lo que sí es claro es que el avance futuro de la ciencia económica estará determinado, en parte, por el desarrollo de los métodos matemáticos y computacionales que se tengan a disposición. Esto reafirma la idea que se ha sostenido a lo largo de esta sección: la simbiosis que existe entre el desarrollo de las matemáticas y el desarrollo de la economía. Esta simbiosis permite predecir con cierta seguridad que modelos como estos serán eventualmente aceptados por la profesión, como parte del conjunto de herramientas que los economistas de la corriente principal emplearán a fin de estudiar el comportamiento de la economía.
LA NATURALEZA CAMBIANTE DE LA CORRIENTE PRINCIPAL
Como se ha indicado, y como se mostrará con algunos ejemplos en esta sección, existen contenidos de diversa naturaleza que hacen parte de la corriente principal. Incluso, existen diferencias sustanciales entre los economistas que hacen parte de esta corriente. Si se considera que el hilo conductor de la corriente principal es el uso de las matemáticas, este resultado sería apenas natural, ya que cada conjunto de axiomas genera un conjunto de conclusiones que, en general, son diferentes entre sí. El uso del término neoclásico parece emplearse muchas veces como todo aquello que no cabe dentro de alguna escuela heterodoxa. Este tipo de uso puede ser parte de una estrategia de atracción de economistas inconformes con los modelos de la corriente principal hacia las heterodoxias. Sin embargo, muchos cambios tangibles dentro de la corriente principal ocurren dentro de ella misma, por lo que etiquetar de neoclásico aquello que difiere de las heterodoxias (o del subconjunto de ellas favorecido por el autor de turno) ignora todos estos cambios inherentes a la evolución de la disciplina económica.
En el modelo Arrow-Debreu se asume que los individuos no poseen información privada que pueda afectar las decisiones de los otros individuos. Akerlof (1970) señaló que la hipótesis de información simétrica resulta poco plausible en algunos contextos, y muestra cómo, si en un mercado ciertos individuos tienen más información que otros, es posible que el mercado colapse, a no ser que exista alguna forma de transmisión de la información privada. En otras palabras, Akerlof señaló que la asimetría en la información puede generar ineficiencia de los mercados y, más aún, su desaparición. Por tanto, los individuos pueden desear contrarrestar los efectos indeseables que genera la información asimétrica al utilizar, por ejemplo, algunas instituciones económicas. Aunque las ideas de Akerlof fueron en su momento revolucionarias, hoy hacen parte del análisis económico moderno y de los cursos modelo de microeconomía.
La presencia de externalidades y, en general, de interacciones directas entre los individuos es un fenómeno que ocurre en muchas situaciones, no solo económicas, sino también sociales. Así, una de las críticas más frecuentes al modelo Arrow-Debreu es que ignora las interacciones directas entre los agentes económicos. La teoría de juegos, cuyos inicios se remontan a von Neumann y Morgenstern (1944) y Nash (1950), ha resultado ser un marco propicio para analizar este tipo de situaciones, y ha mostrado resultados que divergen de los obtenidos en las economías Arrow-Debreu. Por ejemplo, al utilizar herramientas de la teoría de juegos, es posible mostrar que, aun en estructuras económicas muy simples, las interacciones pueden generar comportamientos económicos agregados muy diferentes a los comportamientos individuales; o, de otra forma, que puede existir una diferencia entre la racionalidad individual y la racionalidad social. Esto se refleja en que, a diferencia de los equilibrios walrasianos, los equilibrios considerados en teoría de juegos no sean, en general, óptimos de Pareto. De manera similar a lo que ocurrió con las ideas de Akerlof, la teoría de juegos, aunque revolucionaria en un comienzo, es hoy parte central de la teoría económica asociada con la corriente principal, y es parte esencial de los programas de microeconomía de la mayoría de universidades en el mundo.
Simon (1955), apartándose de la hipótesis de racionalidad, argumenta que algunos individuos -cuando se enfrentan a un problema de elección-, buscan obtener un resultado satisfactorio, ya que la búsqueda de una opción racional puede ser demasiado costosa10. Simon propuso una regla de decisión, conocida como la regla de elección satisfactoria. Sea S un conjunto de elección finito tal que sus elementos están ordenados exógenamente. Un subconjunto de S, conocido como el conjunto de opciones satisfactorias, podría estar definido de la siguiente manera:
donde la función v(∙) asigna un número a cada opción (un puntaje o una utilidad) y v es el umbral que determina cuáles elementos de S son satisfactorios. Un individuo que utilice la regla de elección satisfactoria para tomar decisiones elige el primer elemento del conjunto S (según el ordenamiento) que cumpla con el umbral requerido. Obsérvese que este individuo no busca una opción que maximice la función v (∙), sino una opción que cumpla con el umbral. En general, un comportamiento satisfactorio está caracterizado por el objetivo de obtener un resultado razonable, y no necesariamente un resultado máximo. Así, un individuo con este comportamiento elige una opción que sea suficientemente buena; es decir, que satisfaga cierto nivel de aspiración (el cual puede estar determinado por factores sociales o psicológicos, entre otros). Este nivel determina entonces un subconjunto del conjunto de elección, y allí el individuo toma una decisión. Lo que es interesante señalar es que si dentro de la colección de los conjuntos de elección posibles se encuentran los conjuntos de elección formados por uno, dos y tres elementos, un individuo que utilice la regla de elección satisfactoria de Simon se puede ver como un individuo que se comportó como si hubiera utilizado un proceso de decisión racional; es decir, su comportamiento se puede racionalizar11. Así, algunos fenómenos aparentemente contradictores de la hipótesis de racionalidad pueden analizarse con técnicas utilizadas por la corriente principal.
Un ejemplo adicional se relaciona con las consecuencias de la asimetría de poder en un modelo de intercambio. En el modelo Arrow-Debreu se asume implícitamente que el intercambio es voluntario y, por ende, para que una transacción entre dos partes se lleve a cabo, es necesario que ambas estén de acuerdo. El poder y la fuerza fueron ignorados en este modelo tradicional de equilibrio general. Como lo señalan Bowles y Gintis (1992), los modelos walrasianos tradicionales ignoraron los efectos que pueden tener las relaciones de poder sobre la distribución de los recursos, y los efectos de la riqueza de cada individuo sobre el poder que cada uno de ellos puede tener. Sin embargo, Piccione y Rubinstein (2007), utilizando técnicas propias del modelo Arrow-Debreu y de la teoría de juegos cooperativos, incorporaron estos elementos dentro de un modelo que posee propiedades similares a las economías Arrow-Debreu de intercambio puro.
El mismo Friedman (2005, p. XII), al discutir una serie de ensayos basados en la teoría monetarista a finales de la década de 1960, consideraba que unos años atrás la teoría cuantitativa del dinero (probablemente una de las pocas teorías con amplia aceptación entre los economistas) era un elemento teórico heterodoxo:
Para el momento en el que muchos de los ensayos de este libro fueron publicados, ellos fueron considerados sumamente heterodoxos. Estos ensayos les parecerán menos heterodoxos a aquellos que los lean aquí por primera vez. En el intermedio, ha habido un cambio significativo en la opinión profesional. La teoría cuantitativa del dinero, alguna vez relegada a cursos de la historia del pensamiento como una doctrina obsoleta, ha resurgido como parte de la teoría económica actual. La política monetaria, alguna vez relegada a la tarea trivial de fijar algunas tasas de interés poco importantes y de facilitar las transacciones financieras rutinarias, ha resurgido como un componente central de la política económica.
Así, la corriente principal puede incorporar nuevas ideas, descartar otras y, en general, adaptar constantemente sus contenidos. Es importante resaltar que las incorporaciones de nuevos elementos a la corriente principal no solo provienen del interior de la misma, sino que esta corriente puede importar algunos elementos tradicionalmente vinculados con escuelas heterodoxas. Un ejemplo claro es el rol dado a la noción de incertidumbre por parte de los economistas poskeynesianos y austriacos. Características claves de la incertidumbre han sido incluidas en modelos que utilizan herramientas de la teoría de la complejidad y, más sorprendentemente, en nuevos trabajos que buscan extender el modelo básico de los modelos de ciclos reales (ver Ilut, Krivenko y Schneider, 2015). De forma similar, la corriente principal ha incorporado elementos encontrados en los viejos economistas institucionalistas, tales como la retroalimentación institucional y social en el comportamiento de los individuos por medio de preferencias con referencias de consumo comparativo, así como la incorporación de las interacciones entre cultura y comportamiento que se pueden explorar con juegos evolutivos. Estos ejemplos ilustran de manera clara cómo ideas y fenómenos que no hacían parte de la corriente principal de la teoría económica en un momento dado del tiempo, se incluyeron en etapas posteriores.
CONSIDERACIONES FINALES
La elección del lenguaje con el que se construye una teoría y se difunde entre sus estudiosos no es inocua: las implicaciones que se infieren en una teoría y la aceptación que tenga entre los miembros de la comunidad académica dependen sustancialmente de los nombres con los que se definan las nociones. Por esto, es importante saber exactamente de qué se habla cuando se hace referencia al término neoclásico12.
Parece relevante entonces señalar, tal como lo hace Colander (2009) y Colander et al. (2007), que existe una oportunidad para que las ideas heterodoxas puedan pasar a hacer parte de la corriente principal. Para ello, sin embargo, es fundamental unificar el lenguaje y estar en disposición de dejar la incubadora de ideas que son las teorías heterodoxas, y así dar paso a la transición hacia la conversación con los demás economistas. Dada la poca probabilidad de que exista un futuro cambio de paradigma kuhniano que reemplace todos los desarrollos de la corriente principal por los de una sola escuela alternativa, probablemente la mejor estrategia para aquellos revolucionarios intelectuales sea formalizar sus ideas, de forma tal que realmente se pueda dar una discusión que genere un cambio radical en la disciplina.
Con todos estos posibles cambios, se hace claramente innecesario el uso del término neoclásico. De hecho, debido al bagaje que ya trae consigo este término, algunas discusiones económicas son puramente semánticas y no sustantivas. Por tal razón, se hace necesario definir el término neoclásico o no utilizarlo. Como lo sugieren Colander (2000), Davis (2006) y Lawson (2013), el término neoclásico debería desaparecer. Cuando Colander (2000) escribió The Death of Neoclassical Economics, él era el presidente de la Sociedad de Historia de la Economía. Infortunadamente, a diferencia de Colander, no todos cuentan con el poder para declarar la muerte del término neoclasicismo. Lo que sí se puede hacer es empezar a dejar de utilizarlo en las aulas de clase al definir el cuerpo de ideas o el conjunto de economistas de la corriente principal y, más bien, aceptar el uso que le dan los historiadores de las ideas económicas, empleándolo a fin de describir el periodo comprendido entre 1870 y 1930.
Es claro, a partir de la revisión de la literatura, cómo lo que en la élite académica se entiende por neoclásico, no coincide con el significado del término en contextos académicos menos prestigiosos. Los avances en las instituciones de punta se ven reflejados en cambios en los currículos de las instituciones periféricas varios años después, incluso décadas. Sin embargo, ya es hora de dar este paso e interiorizar el hecho de que el término debe darse por muerto incluso en la periferia. La división de la teoría económica entre escuelas de pensamiento no solo ha servido para delimitar periodos de tiempo en la historia de la economía, sino que ha tenido el efecto perverso de generar prejuicios entre los integrantes de las diferentes escuelas de pensamiento. Lo que debería ser común a todas las áreas del conocimiento es la rigurosidad y la coherencia de los argumentos expuestos; es decir, toda la teoría debería estar construida sobre bases lógicas, y es irrelevante si se cataloga como neoclásica, como keynesiana o con cualquier otra denominación.