SciELO - Scientific Electronic Library Online

 
vol.71 suppl.8THE CONTROVERSY OVER IDENTITY AS IT ENTERED THE REALM OF QUANTUM MECHANICSCONTROVERSIES AROUND EVERYDAY CONCEPTS AND SCIENTIFIC CONCEPTS OF EMOTION índice de autoresíndice de assuntospesquisa de artigos
Home Pagelista alfabética de periódicos  

Serviços Personalizados

Journal

Artigo

Indicadores

Links relacionados

  • Em processo de indexaçãoCitado por Google
  • Não possue artigos similaresSimilares em SciELO
  • Em processo de indexaçãoSimilares em Google

Compartilhar


Ideas y Valores

versão impressa ISSN 0120-0062

Ideas y Valores vol.71  supl.8 Bogotá dez. 2022  Epub 19-Jun-2024

https://doi.org/10.15446/ideasyvalores.v71n8supl.102058 

Artículos

LA CONTROVERSIA SOBRE EL DETERMINISMO EN LA FÍSICA DURANTE LA PRIMERA MITAD DEL SIGLO XX

THE CONTROVERSY OVER DETERMINISM IN PHYSICS DURING THE FIRST HALF OF THE 20TH CENTURY.

*Universitat de València - Valencia - España / Universidad Pontificia Bolivariana - Medellín - Colombia, olga.varela@upb.edu.co


RESUMEN

En este artículo presento una reconstrucción de la controversia sobre el determinismo en la física a principios del siglo xx. Usaré el modelo de espacios controversiales de Oscar Nudler, pues permite analizar controversias haciendo énfasis en el cambio conceptual. Esto servirá para respaldar la hipótesis de partida: la aceptación del indeterminismo en la física estuvo estrechamente ligado al uso de los métodos estadísticos. La conclusión es que la probabilidad pasó por tres estadios de asimilación: primero, fue una herramienta de cálculo; luego, se convirtió en un elemento indispensable para la interpretación de algunos fenómenos y, finalmente, pasó a concebirse como un elemento constitutivo de la naturaleza.

Palabras clave: controversias científicas; espacios controversiales; estilos de razonamiento científico; mecánica cuántica; mecánica estadística

ABSTRACT

In this article I offer a reconstruction of the controversy over determinism in physics in the early twentieth century. I will use Oscar Nudler's model of controversial spaces as it allows us to analyze controversies with an emphasis on conceptual change. This will serve to support the initial hypothesis: the acceptance of indeterminism in physics was closely linked to the use of statistical methods. The conclusion is that probability went through three stages of assimilation: first it was a calculation tool, then it became an indispensable element for the interpretation of some phenomena and, finally, it came to be conceived as a constitutive element of nature.

Keywords: scientific controversies; controversial spaces; styles of scientific reasoning; quantum mechanics; statistic mechanic

Introducción

En el presente trabajo haré una reconstrucción de la forma en que se discutió el problema del determinismo durante la primera mitad del siglo XX. Usaré como modelo de reconstrucción los espacios controversiales de Oscar Nudler (cf. 2004; 2009). Con esta herramienta es posible relacionar un conjunto de controversias que se afectan mutuamente durante algún periodo de tiempo para mostrar así cómo evolucionan. Esto constituye una ventaja porque permite respaldar la hipótesis central de la que parto: la incorporación del estilo estadístico -según la definición de Hacking (cf. 1982; 2012)- jugó un papel central en la controversia sobre el determinismo en la física durante las primeras décadas del siglo XX. Lo que quiero defender es que la aplicación cada vez más generalizada de los métodos estadísticos a problemas abiertos de la física en estos años tuvo un efecto profundo en la asimilación de la noción de probabilidad, que pasó de ser una herramienta de cálculo a convertirse en un elemento constitutivo del mundo. En este proceso, la controversia sobre el determinismo fue cambiando: inicialmente, se discutió en un sentido epistémico y, posteriormente, las controversias derivaron hacia un sentido ontológico.

Son varios los autores que han llamado la atención sobre el papel relevante que jugaron, en este periodo, las discusiones en torno a la mecánica estadística. Brush, Darrigol, Kuhn, Howard, Monaldi, entre otros, han puesto especial atención a la forma como la mecánica estadística influyó particularmente en el desarrollo de la mecánica cuántica. Aquí, sin embargo, presento un enfoque que no ha sido examinado explícitamente por estos autores, i. e. que la asimilación de los métodos estadísticos se profundizó paulatinamente en la comunidad científica hasta llegar a un punto en que el determinismo, tal y como fue concebido por el mecanicismo, se hizo insostenible.

En un artículo anterior (cf. Valera Machado), mostré cómo la introducción de los métodos estadísticos en la termodinámica durante la segunda mitad del siglo XIX propició el desbloqueo conceptual de la controversia sobre el determinismo en la física. Esta idea ya había sido sugerida por Brush en varios estudios y es retomada por Lombardi en su estudio sobre la irreversibilidad (cf. Brush 1961, 1971; Lombardi 2009) En este artículo veremos cómo, usando el modelo de Nudler, esta controversia se transforma paulatinamente en una discusión acerca del indeterminismo ontológico durante el desarrollo de la teoría cuántica. Adicionalmente, usando la noción de estilo de razonamiento de Hacking, muestro que las condiciones que posibilitaron esta controversia sobre el determinismo pueden ser analizadas desde nuevas perspectivas.

Presentaré en la primera sección después de esta introducción los principales elementos del modelo de Nudler y la forma en que se articulan para permitirnos construir un espacio controversial, así como una presentación muy general de la noción de estilo de razonamiento. En la segunda sección, haré un breve resumen del artículo anterior (cf. Varela Machado), donde muestro los elementos más importantes del desbloqueo conceptual de la controversia sobre el determinismo. En la tercera sección, presentaré la forma en que se desarrolla la controversia sobre el determinismo en el nacimiento de la teoría cuántica. En la cuarta sección, se evidenciará cómo la controversia sobre el determinismo epistémico se transforma en una discusión ontológica a lo largo de la década de 1920, llegando además a un nuevo bloqueo conceptual que se extenderá hasta la segunda mitad del siglo XX. Finalmente, en la quinta sección, dejaré algunas pistas de cómo se reconfigura el espacio controversial dando paso a un nuevo desbloqueo, con lo que el espacio controversial queda abierto y plenamente vigente en la actualidad.

Espacios controversiales y estilos de razonamiento

La ciencia a la luz de sus espacios controversiales

Oscar Nudler propone un modelo llamado espacios controversiales con el que es posible presentar un tema controversial en relación con una red de controversias. Según este modelo, un espacio controversial está compuesto de una estructura que se desarrolla según una cierta dinámica establecida por el modelo. Los elementos que componen la estructura son los siguientes: a) un conjunto o red de controversias interrelacionadas, cuya delimitación depende de los intereses de la reconstrucción y permite demarcar la amplitud del estudio; b) el foco, conformado por los temas que se discuten explícitamente; c) el common ground, que engloba los acuerdos compartidos por la comunidad científica en el momento del desarrollo de la controversia, haciendo que las discusiones tengan sentido, y que pueden ser principios, métodos, paradigmas, teorías, estilos de razonamiento, etc. Por otro lado, hay ciertos elementos que explican la dinámica del cambio conceptual que sufre el espacio:

a. Bloqueo conceptual. Es un periodo durante el cual las discusiones del espacio pueden estancarse, i. e. dejan de proporcionar respuestas a los problemas que se plantean o, incluso, se abandonan: "Hay controversias [...] que pueden llegar a un estado de estancamiento o a un bloqueo conceptual, en que se vuelven incapaces de generar no solo nuevas respuestas sino, lo que quizás es más grave, nuevas preguntas" (Nudler 2009 35). Identifico la noción de bloqueo conceptual con la clausura, resolución o abandono de controversias que plantean autores como McMullin (cf. 1987), Beauchamp (cf. 1987) o Mazur (cf 1981). Pero cuando se observa un espacio controversial a través de un periodo prolongado, muchas controversias que se consideraron resueltas durante un tiempo pueden volver a aparecer; un bloqueo conceptual, en este sentido, no es definitivo.

b. Desbloqueo conceptual. Representa el periodo durante el cual las controversias que habían sido abandonadas o que se encontraban bloqueadas de algún modo vuelven a formar parte del foco. Existen muchos factores que pueden contribuir a este desbloqueo: introducción de nuevos métodos, nuevos problemas y nuevos estilos de razonamiento, así como circunstancias sociopolíticas, económicas, entre otras.

c. Refocalización. Se refiere a una reconstrucción total del foco del espacio. Un grupo de actores puede comenzar discutiendo ciertos problemas, pero, con el tiempo y con los cambios naturales de la ciencia y la cultura, estos debates cambian. Cuando todas las controversias que componen el foco de un espacio cambian, podemos decir que hay una refocalización. Sin embargo, cada espacio controversial tiene su propia dinámica: no todos pasan necesariamente por todos los procesos aquí señalados. Además, el análisis depende de los límites -tanto temporales como conceptuales- que se escojan para la reconstrucción del caso. Dependiendo de estos límites el espacio exhibirá una dinámica más o menos compleja.

Estilos de razonamiento

Adicionalmente, para este análisis, me basaré en la noción de estilo de razonamiento de Hacking (cf. 1982; 2012). Dicha noción tiene la particularidad de ser lo suficientemente amplia para abarcar conjuntos de prácticas, métodos, herramientas, formas de preguntar y de responder, así como proposiciones, conceptos y objetos que solo tienen sentido dentro de un estilo de razonamiento particular. Este concepto ha resultado útil a la hora de delimitar los modos en los que el pensamiento científico europeo se ha desarrollado y ha dado sentido a formas concretas de hacer ciencia.

Crombie identifica inicialmente seis estilos de razonamiento: 1) la postulación matemática, 2) el desarrollo del experimento a través de la observación y la medición, 3) la construcción hipotética de modelos por analogía, 4) el ordenamiento de la variedad mediante la comparación y la taxonomía, 5) el análisis estadístico de regularidades en poblaciones y 6) la derivación histórica del desarrollo genético (evolución). El estilo del que nos ocuparemos aquí es el 5, al que llamaré en adelante estilo estadístico. Estos estilos han aparecido, de forma contingente, a lo largo de la historia de la ciencia en Europa. Cada estilo ha necesitado ciertas condiciones tanto para su aparición como para su consolidación. Hacking llama cristalización al proceso de introducción y aceptación de un nuevo estilo en una comunidad científica. Pero si en el proceso estos estilos son rechazados o simplemente ignorados, el proceso de cristalización no será completado. Adicionalmente, después de la cristalización el estilo sigue evolucionando, ampliando su capacidad para explicar fenómenos, así como los métodos, las proposiciones, los objetos, etc. Este proceso de evolución permite identificar en cada estilo diferentes etapas.

Particularmente, el estilo estadístico presenta en su evolución las siguientes etapas, según Hacking (1992): 1) emergencia de la probabilidad (1640-1693), 2) doctrina del azar (1693-1756), 3) teoría del error (1756-1821), 4) avalancha de números impresos (1821-1844), 5) creación de objetos estadísticos (1844-1875), 6) autonomía de la ley estadística (1875-1897), 7) etapa de modelado y prueba (1897-1933). La primera parte de este estudio (cf. Varela Machado) se centró en el desarrollo de las etapas 5 y 6, particularmente en la comunidad de los físicos. Esta segunda parte mostrará el desarrollo de la etapa 7.

Antecedentes: el determinismo durante la segunda mitad del siglo XIX

En el artículo anterior mostré cómo, durante la última década del siglo XIX, se produjeron cambios importantes en la asimilación del estilo estadístico en la física. Este proceso condujo paulatinamente al desbloqueo de la discusión de las nociones de determinismo, causalidad, necesidad y ley física que, si bien se discutían en otras disciplinas, en la física hacían parte del common ground. Las condiciones de posibilidad para este desbloqueo fueron la cristalización del estilo estadístico en la física, la interpretación de la segunda ley de la termodinámica en términos de probabilidad y la búsqueda de una comprensión más profunda de la irreversibilidad (cf. Varela Machado 101). Durante este periodo, los físicos adaptaron los métodos estadísticos a sus propósitos, introdujeron la posibilidad de hacer descripciones probabilísticas de procesos físicos y crearon nuevos objetos -p. ej., el ensemble o colectividad-,1 así como nuevas leyes y nuevos tipos de explicación (cf. Monaldi). Las discusiones en torno a la irreversibilidad y el significado físico de la probabilidad llevaron a físicos como Maxwell y Boltzmann a afirmar, cada vez con mayor claridad, la necesidad de interpretar la segunda ley de la termodinámica en términos de probabilidades. La explicación mecánica de la segunda ley buscaba dar cuenta del aumento de entropía a partir de movimientos y colisiones moleculares. En cambio, la explicación estadística presenta el estado de un sistema, en un momento dado, como la configuración más probable a partir de un estado inicial. Este tipo de explicación estadística, que empieza a reemplazar las explicaciones mecanicistas, desencadenó algunas controversias, y terminó autentificando el estilo estadístico.

Pero la asimilación del estilo estadístico en la física no fue uniforme: hubo una aceptación parcial y heterogénea en diferentes círculos. Hubo quienes siguieron discutiendo la pertinencia de estos métodos incluso en las primeras décadas del siglo XX, cuando ya existía un acuerdo generalizado en la comunidad. Por ejemplo, en 1896, Zermelo y Planck usaron la paradoja de la recurrencia para profundizar el debate contra algunas de las hipótesis propuestas por Boltzmann. Born por su parte recuerda que, en sus primeros años de acercamiento a la física, el principal tema de discusión en la academia eran los métodos estadísticos y la validez del teorema H, que predice la evolución de la variable H en sistemas termodinámicos, donde siempre tiende a disminuir. Aunque esta variable no estuvo definida inicialmente, se considera que es inversa a la entropía (cf. Brush 1976 235). No fue sino hasta la publicación del artículo de los Ehrenfest en 1911 que el tema dejó de discutirse.

Teniendo en cuenta este panorama, en el foco de este espacio controversial aparecen las controversias sobre la constitución de la materia, el energetismo, la irreversibilidad y el significado de la probabilidad que aún no cuentan con el consenso de la comunidad. La controversia sobre el determinismo se desbloquea y, si bien en la física de este periodo solo se planteó la discusión en términos epistémicos, algunos pensadores con intereses filosóficos, como Peirce y James, ya planteaban el debate en un sentido puramente ontológico.

La controversia sobre el determinismo en el nacimiento de la mecánica cuántica

Los comienzos de la teoría cuántica se enmarcan en la búsqueda de modelos adecuados de predicción para algunos fenómenos relacionados con la interacción radiación-materia: la radiación de cuerpo negro, el efecto fotoeléctrico y la interacción de los rayos X con la materia; así como con problemas relacionados con colisiones atómicas, espectros atómicos y moleculares, dispersión óptica, comportamiento a baja temperatura de sólidos y gases, estructura atómica y periodos químicos. La concepción atómica de la materia y el modelado estadístico fueron, por un lado, los principales marcos teóricos para la aceptación de un indeterminismo epistémico, y fueron claves para desbloquear la controversia del indeterminismo ontológico en la mecánica cuántica; por otro lado, diversos factores sociopolíticos influyeron en este periodo, en particular una estructura socioinstitucional compleja, con al menos cuatro polos de investigación en Copenhague, Múnich, Gotinga y Berlín, con densas redes epistolares y con tendencias de investigación distintas (cf. Darrigol). Los cambios en las prácticas científicas durante este periodo y la agitación política entre algunos países de Europa tuvieron una gran influencia en el cambio conceptual que experimentó la ciencia en estas primeras décadas del siglo XX.

A finales del siglo XIX, la naciente industria de la iluminación eléctrica había impulsado la investigación sobre las propiedades radiantes de ciertos materiales. La fabricación de lámparas incandescentes requería de la estandarización de la intensidad lumínica: era necesario un perfeccionamiento de la fotometría para lograr medidas más precisas que pudieran ser aceptadas internacionalmente. En Alemania, la Physikalisch-Technische Reichsanstalt (PTR), fundado por Werner Siemens en 1887, dedicó muchos esfuerzos a fortalecer esta industria (cf Sánchez-Ron 123). La metrología, especialmente la fotometría y la espectroscopía, fueron los campos en los que la PTR se destacó: gracias a sus mediciones cada vez más precisas, los diferentes modelos propuestos para la distribución de la radiación pudieron contrastarse con mayor precisión. La financiación de la empresa privada favoreció la dedicación de más científicos y aumentó el interés de la comunidad por estos problemas. Esto también aumentó la presión de la industria para su resolución. Estas nuevas dinámicas consolidaron la profesionalización de la investigación científica.

Con el problema de la interacción radiación-materia se añadieron nuevas discusiones a la red de controversias de este espacio controversial, y se trasladaron algunos elementos del common ground hacia el foco. La caracterización del nuevo common ground incluye la industrialización y su relación directa con los institutos de ciencia, así como la profesionalización de los científicos. También fueron relevantes las asociaciones de ciencias, tanto nacionales como internacionales, que empezaron a proliferar por toda Europa desde la segunda mitad del siglo XIX. Estas aparecen en un momento en el que la ciencia se acerca tanto a los intereses de la industria como a los del Estado, mostrando que puede ofrecer servicios de gran utilidad en ambos frentes.

Por esta razón, el interés por la metrología y sus diferentes aplicaciones condujo gran parte de las investigaciones desarrolladas en los diferentes institutos de Alemania, Francia y Reino Unido. Esta nueva dinámica llevó también a muchos estudiantes a movilizarse entre diferentes centros de investigación y aumentó el intercambio de maestros entre diferentes asociaciones de ciencia. Es muy importante, sin embargo, resaltar que estos movimientos de internacionalización se desarrollaron en un ambiente ambiguo donde se expandieron las fronteras de la ciencia, pero también se asentaron los nacionalismos, incluso entre los mismos científicos.

Aplicaciones de la estadística a los fenómenos de interacción radiación-materia

Es muy importante resaltar el papel de los métodos estadísticos en el desarrollo de la teoría cuántica. La ampliación de las aplicaciones de la estadística a diferentes fenómenos de interacción radiación-materia llevó el estilo estadístico a un nuevo nivel de asimilación por parte de la comunidad. Esta oleada de nuevas aplicaciones comienza con Planck, uno de los últimos opositores de las hipótesis de Boltzmann. Durante los primeros 30 años de su carrera, Planck estuvo interesado en la termodinámica. Fue un declarado defensor de la visión mecanicista, así como de la continuidad de la estructura de la materia. Cada vez más físicos trabajaban en los problemas de la interacción radiación-materia debido al aumento en la financiación. Wien, Stefan, Rayleigh, Jeans, entre otros, habían construido modelos de cálculo para predecir la cantidad de radiación que produce un cuerpo al calentarse. Planck, durante los últimos años del siglo XIX, también se dedicó a proponer algunos modelos. Pero a finales de 1900, en un giro metodológico inesperado, Planck aplicó los métodos estadísticos de Boltzmann al problema de la radiación del cuerpo negro: usó la hipótesis del desorden molecular de Boltzmann para plantear un teorema H de la radiación matemáticamente análogo al de la teoría de los gases.

Fue Planck quien, a partir de 1900, insistió en que la interpretación estadística de la entropía de Boltzmann era la clave para la comprensión de la teoría cuántica de la radiación, y mediante sus populares conferencias promovió la tesis de que la hipótesis del desorden molecular es necesaria para la explicación de la irreversibilidad. (Brush 1976 648)

Más tarde, Einstein consideró la posibilidad de introducir esta misma hipótesis como solución para distintos problemas. En su análisis del movimiento browniano, por ejemplo, sostenía que la combinación de muchos impulsos moleculares aleatorios, que no producen ningún efecto promedio, podría explicar el movimiento de las partículas brownianas: "El desplazamiento de las partículas suspendidas puede describirse entonces mediante una distribución de probabilidad que determina el número de partículas desplazadas a una cierta distancia en cada intervalo de tiempo" (Stachel 126). En 1908, Perrin y su doctorando Chaudesaigues sometieron la fórmula de desplazamiento de Einstein a una serie de procedimientos experimentales y sus resultados concordaron con las predicciones teóricas. Esto se consideró una evidencia de la medición experimental del tamaño de los átomos. A partir de este momento, las diferentes controversias sobre la hipótesis atómica se disuelven y la comunidad científica logra un consenso respecto de la existencia de los átomos.

Por otro lado, las diferentes pruebas y aplicaciones exitosas de la ley de distribución de Planck a diferentes problemas resaltaron reiteradamente la existencia de profundas discrepancias entre la termodinámica, la electrodinámica y los fenómenos de interacción radiación-materia.

La prueba de Albert Einstein de 1905 se basó en la interacción aleatoria entre la radiación de la cavidad y los resonadores térmicos; la prueba de James Jeans de 1905 se basaba en la mecánica estadística de Maxwell aplicada a un gas que interacciona con radiación; la prueba de Hendrik Lorentz de 1908 se basó en la aplicación de la mecánica estadística de Josiah Willard Gibbs a un gas de electrones que interacciona con la radiación de la cavidad. La convergencia de estas tres pruebas aumentó la plausibilidad de su desconcertante conclusión. (Darrigol 152)

Estas aplicaciones de la mecánica estadística a nuevos fenómenos proporcionaron más autonomía al estilo estadístico, que pasó de ser una herramienta de cálculo para modelar fenómenos, y comenzó a convertirse en una nueva forma de interpretarlos. Fue así como se transformó en un nuevo tipo de explicación aceptado por la comunidad. En esta nueva etapa de modelado y prueba, el estilo estadístico se fusiona con el estilo analógico o de modelado hipotético, y ofrece nuevas herramientas y problemas para la interpretación de la naturaleza (cf. Hacking 1992). Esta es una de las claves conceptuales para la asimilación del indeterminismo epistémico: muchos físicos empezaron a considerar las contribuciones de Planck y Einstein como una declaración de independencia definitiva entre la teoría cuántica y la mecánica clásica, ligada a una nueva forma de pensar el mundo en términos de probabilidad.

El problema de la estructura atómica

Otra de las controversias que jugó un papel importante en este espacio controversial fue la discusión sobre la estructura del átomo. Desde finales del siglo XIX, la comunidad científica, tanto en física como en química, había estado especulando sobre la estructura interna del átomo, pero su existencia estaba en duda. Tanto en Inglaterra como en Alemania y Francia se habían planteado soluciones para una posible estructura atómica. Los detalles de las controversias que rodearon el desarrollo de estos modelos, hasta la amplia aceptación de la existencia de los átomos, merecen un estudio más detallado debido a su complejidad. Aquí solo señalaré algunos puntos relevantes.

Entre 1899 y 1904, Thompson y su equipo formularon algunos de los primeros modelos atómicos a partir de un amplio soporte de datos experimentales. Los trabajos en espectroscopía adelantados por Bunsen o Kirchhoff refinaron las imágenes espectroscópicas, "logrando un conocimiento cada vez más preciso, no solo de las diferentes líneas espectrales correspondientes a los diferentes elementos, sino también de sus regularidades, tamaños y distancias" (López 68). Estos refinamientos no favorecieron el modelo atómico de Thompson, que demostró ser incapaz de explicar el comportamiento de estas líneas. Sin embargo, la existencia del átomo todavía se discutía, y no fue hasta los experimentos de Perrin de 1908 que aumentó el interés por resolver el problema de la estructura atómica.

Rutherford presentó entre 1911 y 1913 una teoría para la dispersión de la radiación del átomo con la que esperaba solucionar algunos de los problemas del espectro. Pero fue Bohr quien, en 1913, introdujo la hipótesis de la cuantización de Planck para determinar la emisión y absorción de energía en el átomo, con lo que amplió el dominio de las aplicaciones estadísticas. Su llamada regla de frecuencia dio inicio al proceso de formulación de una primera teoría cuántica para la estructura del átomo. Esto es importante para la evolución de este espacio controversial, porque amplía las aplicaciones de la estadística a nuevos problemas, introduciendo la probabilidad en el problema de la estructura atómica.

Aunque la regla de frecuencia no fue suficiente para solucionar muchos de los problemas de la estructura atómica, sí se mostró eficiente para predecir correctamente las líneas espectrales atribuidas al átomo de hidrógeno, así como los espectros de rayos X de elementos superiores y las colisiones inelásticas entre electrones y átomos de mercurio observadas por Frank y Hertz. Entre 1913 y 1914, Bohr planteó un principio de correspondencia que vendría a completar las llamadas reglas cuánticas: un conjunto de excepciones a la mecánica clásica que funcionaban aproximadamente bien en la predicción de algunos fenómenos del dominio cuántico y que hoy conocemos como Old Quantum Theory. Pero en esta vieja versión de la teoría cuántica, no solo muchos de los problemas persistían, sino que en la medida en que los refinamientos experimentales aumentaban, se multiplicaban. Por esta razón, en los años siguientes surgieron problemas sobre la interpretación de los datos obtenidos en el laboratorio, aunque la entrada de estas controversias al foco de la controversia sobre el determinismo fue más lenta y no se hizo visible hasta después de 1960.

Con la aplicación de la estadística a nuevos fenómenos aumentaron también las discusiones acerca de su significado. Como lo ilustra Kuhn en su libro La teoría del cuerpo negro y la discontinuidad cuántica, el proceso de conceptualización que llevaría del formalismo matemático a su interpretación como discontinuidad habría de tomar por lo menos doce años de discusión y confrontación. Fue durante el Congreso Solvay de 1911 cuando muchos de los participantes coincidieron en la necesidad de introducir la discontinuidad en la dinámica de las entidades microfísicas para salvar fenómenos como la radiación de cuerpo negro o el comportamiento a baja temperatura de calores específicos. Pero el acuerdo sobre la forma adecuada de introducir esta discontinuidad no fue unánime. Los avances en las mediciones y en los formalismos sobre la estructura atómica durante la siguiente década ayudaron a resolver este problema, apuntando cada vez más a un indeterminismo epistémico asociado a la probabilidad de los métodos utilizados.

Comunidades científicas y panorama geopolítico

Adicionalmente, otros factores favorecieron la aceptación del indeterminismo. El fantasma de la guerra que amenazaba a Europa desde principios del siglo XX y el ambiente bélico que impactó en la sociedad no dejó fuera a las comunidades científicas: por un lado, aumentó la financiación militar para los institutos de ciencia, inclinando las investigaciones hacia asuntos de interés militar; por otro, los nacionalismos se profundizaron, afectando las relaciones internacionales entre científicos y generando fuertes sesgos en la comunidad. Así, entre 1914 y 1918 toda Europa se vio envuelta en una guerra que, aunque esperada, desconcertó profundamente a la sociedad europea. Este episodio no puede ser tomado a la ligera, y debe tenerse en cuenta como un factor relevante en el desarrollo de la física de la posguerra. Algunos autores, como Forman y Brush, resaltan el papel de este episodio en la asimilación del indeterminismo en la posguerra. Según su hipótesis, las nociones de causalidad, determinismo y la idea de ley física como necesidad, que venían poniéndose en duda desde finales del siglo XIX, especialmente desde la filosofía, se mezclaron en Alemania con una creciente corriente neorromántica que, una vez terminada la Primera Guerra Mundial, se manifestó como una oposición radical a la ciencia y a todo lo relacionado con ella.

Podemos afirmar, entonces, que la influencia de la guerra en la controversia sobre el determinismo fue directa. Aunque el estudio de Forman al respecto puede ser polémico, resulta bastante ilustrativo: sus principales tesis apuntan al impacto de la participación de científicos alemanes en la guerra, unido al descontento generalizado de la sociedad con estas nuevas formas de confrontación internacional y sus consecuencias sociopolíticas en toda Europa. El deterioro del determinismo desde finales del siglo XIX en la filosofía y la aceptación creciente de la aplicación de la mecánica estadística junto a su indeterminismo epistémico asociado vinieron a unirse con el neorromanticismo facilitando la asimilación de una visión indeterminista de los fenómenos físicos. Recordemos, además, que la idea de una ley causal estuvo asociada con la idea de necesidad y determinismo, símbolos de la tiranía de la ciencia: "El mundo académico de Weimar (1918-1927) fue una 'filosofía de la vida' neo-romántica, existencialista, manifestada en crisis y caracterizada por un antagonismo hacia la racionalidad analítica en general y hacia las ciencias exactas y sus aplicaciones técnicas en particular" (Forman 39).

Esta hipótesis es respaldada por Brush, quien utiliza los estilos de pensamiento de Cotgrove (cf. 1974), para analizar el desarrollo de la teoría cuántica y la asimilación del indeterminismo. Cotgrove plantea un movimiento oscilatorio entre reduccionismo y romanticismo en la construcción del pensamiento occidental durante la modernidad. La estrecha relación entre romanticismo e indeterminismo explicaría la fácil asimilación que tuvieron estas ideas en el periodo de la posguerra. Vemos aquí un trasfondo cultural propicio para el abandono de una visión determinista del mundo, que se profundizó con la cristalización del estilo estadístico (cf. Hacking 1975; 1990). Las consecuencias de este proceso derivan en una refocalización: la comunidad deja de discutir el indeterminismo epistémico que pasa a formar parte del common ground y cambia sus compromisos ontológicos.

Reconfiguración del common ground y refocalización

En este punto, el common ground se modifica por completo. Como se ve en la figura 1, después de la aceptación de la existencia del átomo, las propuestas energetistas entran en declive y la hipótesis atómica pasa a formar parte del common ground. La mecánica clásica deja de ser considerada la teoría fundamental, y las esperanzas recaen en la naciente mecánica cuántica y en la relatividad. El proyecto de reducción de la termodinámica a la mecánica -tan crucial para la física de fin de siglo- se abandona, y el electromagnetismo deja de pensarse como una teoría que debe ser reducida.

FIGURA 1 Espacio controversial en las primeras décadas del siglo XX 

Así, la controversia sobre la constitución de la materia pasa al common ground, las discusiones sobre irreversibilidad no se resuelven, pero pasan a un segundo plano frente a los desafíos de las nuevas teorías, y la controversia sobre el determinismo se redefine: el indeterminismo epistémico pasa al common ground y el indeterminismo ontológico empieza a discutirse también en la física y no solo en la filosofía. Esta redefinición trae también al foco la discusión sobre el carácter realista de la ciencia, y se pone en duda si el propósito de las teorías científicas es describir la realidad misma, o si son solo herramientas de predicción. En la misma línea, surge la siguiente pregunta: ¿la naturaleza estadística que observamos en los fenómenos se debe a nuestras limitaciones para conocer el mundo o es parte constitutiva de este? De este modo, se abre la pregunta por el realismo: ¿es el determinismo constitutivo del mundo?

Con el paso del indeterminismo epistémico al common ground, comienza una nueva etapa para el espacio controversial. La Old Quantum Theory será superada en los siguientes diez años y muchas de las controversias que pasaron a formar parte del nuevo foco serán abandonadas con la llegada de la guerra. Veamos ahora cómo se desarrolla la controversia sobre el determinismo ontológico y por qué sufre un bloqueo conceptual durante la década de 1930.

La interpretación de Copenhague y el indeterminismo

Como hemos visto, ya desde finales del siglo XIX la idea del determinismo había comenzado a desmoronarse. La creencia en un azar absoluto al estilo de Peirce estaba en el ambiente y se hizo cada vez más profunda. Este panorama de cambio conceptual, sumado a la crisis sociopolítica y a las nuevas dinámicas de desarrollo científico, terminó de instaurar las condiciones para una discusión profunda sobre el determinismo ontológico. Debemos recordar, sin embargo, que la diferencia entre determinismo y causalidad nunca fue muy clara en el ámbito de esta controversia.

Al leer comentarios casuales, e incluso lo que parecen ser pronunciamientos cuidadosamente considerados por los científicos del siglo xix, el lector del siglo XX a menudo encuentra una ambigüedad desconcertante. [...] Lo que ahora podríamos llamar una distinción crucial entre indeterminismo ontológico y epistemológico se difumina con frecuencia en estos escritos. Esta ambigüedad puede usarse para argumentar que casi todos los científicos citados creían solo en la aleatoriedad epistemológica, no ontológica, pero tal argumento ocultaría un cambio histórico gradual pero extremadamente importante en el significado de los conceptos. (Brush 1976 604)

Es fácil encontrar a personajes como Rutherford, Maxwell, Boltzmann, Planck y Einstein usando las palabras probabilidad, azar, estadístico o espontáneo, pero tales términos solo se refieren a nuestra falta de conocimiento de las causas, pues no siempre queda claro si para ellos era concebible que la naturaleza pudiera proceder por azar. La misma confusión puede observarse en personajes más afines al indeterminismo, como Born o Heisenberg. El mismo Heisenberg nunca fue tajante en esclarecer si su principio se aplica solo a nuestro conocimiento sobre el mundo:

Uno podría ser llevado a la conjetura de que bajo el mundo estadístico perceptible se esconde un mundo 'real' en el que se cumple la ley causal. Pero nos parece que tales especulaciones [...] son infructuosas y sin sentido. La física solo debería describir formalmente las relaciones perceptibles. (Brush 1976 626)

A pesar del tono ambiguo de muchas de estas afirmaciones, el indeterminismo ontológico terminó por instalarse en el seno de la interpretación estándar de la teoría cuántica. Las claves para esta aceptación estuvieron en el principio de indeterminación y en la interpretación probabilística de la función de onda.

Desarrollo de la nueva teoría cuántica

El siguiente periodo de este espacio controversial está comprendido entre 1918 y 1927 aproximadamente. La primera fecha obedece al fin de la guerra y es relevante porque marca cambios importantes en las dinámicas de la macrociencia. La fecha final corresponde al Congreso Solvay en el que se logra un cierto acuerdo sobre la que sería la nueva teoría cuántica estándar. Hasta 1914, cuando comenzó la Primera Guerra Mundial, los dos grandes polos de investigación en temas relacionados con la teoría cuántica estaban en Reino Unido y Alemania. Ambos se diferenciaban claramente por el enfoque de las investigaciones: el primero tenía un fuerte componente experimental, centrado en las actividades de los laboratorios Cavendish, y el segundo tenía una fuerte inclinación al formalismo, cuyos centros fueron Gotinga, Berlín y Múnich.

Sin embargo, para 1918 los Estados que habían participado en la guerra redujeron la financiación para las investigaciones científicas, sobre todo en ciencias teóricas. Pocos países tenían la capacidad o la voluntad de seguir invirtiendo grandes sumas en investigación. Este panorama permite entender el papel que jugó el Instituto de Física Teórica de Copenhague (ahora Instituto Niels Bohr), planeado por Bohr desde 1917 e inaugurado a comienzos de 1921. Bohr fue educado en Dinamarca bajo el modelo alemán y estuvo trabajando más tarde con Rutherford de quien aprendió el estilo experimental. Por eso, a su regreso a Copenhague, quiso que el Instituto contara con ambos enfoques (cf. Robertson). Esta amplitud de miras favoreció en gran medida la movilidad de investigadores afines a uno y otro estilo. Esto, sumado al estatuto de neutralidad del que gozaba Dinamarca en este periodo de posguerra, donde la exclusión y los nacionalismos entre países europeos eran la norma, hizo de Copenhague un centro clave para el desarrollo de la nueva teoría.

La década de 1920 está llena de importantes desarrollos en mecánica cuántica. Existe una extensa literatura que cuenta al detalle este proceso. Aquí, solo hablaremos de unos cuantos episodios que nos permitirán entender cómo se desarrolló la controversia sobre el determinismo ontológico en el marco de este proceso.

Heisenberg escribió en 1925 el primer artículo en el que propone un nuevo formalismo para la mecánica cuántica. Esto significó una ruptura con la Old Quantum Theory, pues, a partir de una analogía con las ecuaciones de Hamilton, propone usar solo variables observables, con lo que cambia la forma tradicional de hacer mecánica.

La teoría debía renunciar a la manera clásica de lidiar con magnitudes como posición y momento si se pretendía dar cuenta de la estructura atómica: si no podían ser observadas o medidas, entonces la teoría debía renunciar a estas magnitudes y declararlas esencialmente inobservables. (López 92)

Este supuesto llevó, dos años más tarde, a la formulación del principio de indeterminación. Más adelante, en 1925 y 1926, otros dos artículos escritos con Born y Jordan darían una primera estructura terminada de lo que hoy llamamos mecánica matricial. La aparición de este primer formalismo dividió a la comunidad bajo dos reacciones: algunos físicos se dedicaron a aplicar el formalismo a los problemas que esperaban respuesta -donde mostró excelentes resultados-; otros físicos, en cambio, siguieron buscando mejores formulaciones. En este contexto aparecen los formalismos de Schrödinger y Dirac.

La formulación de Schrödinger -la mecánica ondulatoria- estuvo inspirada en los aportes de De Broglie, quien había planteado analogías ondulatorias para presentar un modelo de la estructura atómica. La herramienta central de esta formulación es la función de onda y se diferencia de la mecánica matricial en el supuesto explícito de continuidad. Además, no excluye los inobservables y se formula con ecuaciones diferenciales, lo que hizo que fuera matemáticamente más amigable. Durante la primera mitad de 1926, aparecen al menos seis artículos de Schrödinger, presentando no solo una versión completa de su formalismo, sino también una demostración de equivalencia entre su versión y la mecánica matricial. Ambas teorías se mostraron igual de exitosas en sus aplicaciones, pero las diferencias en los compromisos ontológicos profundizaron la polémica sobre el realismo, pues parecía que cada una describía realidades diferentes.

Esta controversia no pudo resolverse por medios formales o experimentales: ambas versiones tenían el mismo éxito predictivo respecto del mismo conjunto de fenómenos. Y, aunque se hicieron demostraciones de la equivalencia matemática entre ambos formalismos, la discrepancia de principios mantuvo la controversia más allá de la celebración del v Congreso Solvay (sobre la equivalencia de las dos mecánicas hay discusiones interesantes: cf. Perovic; Muller). Esta fue la primera de una serie de controversias relacionadas con el proceso de interpretación física de estos y otros formalismos que aparecerían a lo largo del siglo xx. Popper lo llamó "el cisma de la física": un entramado de controversias cuya vigencia cumple casi cien años "y solo es comparable a la que enfrentó a los newtonianos contra los cartesianos al amanecer de la física moderna" (Freire Junior 2015 18). El caso de la formación de la mecánica cuántica y sus controversias relacionadas es uno de los ejemplos más claros de cómo una teoría se fortalece a través del desacuerdo.

Finalmente, durante la segunda mitad de 1926 aparece el formalismo de Dirac, una formulación que evita al máximo los compromisos ontológicos. Dirac sospechaba que ambos formalismos tenían raíces comunes en la teoría de transformaciones canónicas del espacio de fase. Partiendo de esta sospecha, y con una sofisticación matemática admirable, propone una estructura formal más completa y coherente que las dos anteriores. Pero esto no fue suficiente para calmar las controversias que ya habían entrado al foco del espacio.

Entre los principios involucrados en cada versión en disputa había compromisos a favor y en contra del determinismo. Los defensores de la mecánica matricial -todos afines a la orientación del Instituto de Copenhague- hicieron declaraciones abiertamente indeterministas y acausales. El principio de indeterminación y la interpretación probabilística de la función de onda abrieron el camino para que la probabilidad dejara de ser solo una herramienta de interpretación del mundo y pasara a ser un elemento constitutivo de este. Un fenómeno cuya constitución básica es probabilista no puede ser determinista en el sentido en que la mecánica clásica lo exige. Born, quien propuso interpretar la función de onda como probabilidad, describe así su punto de vista en 1926:

la mecánica ondulatoria de Schrödinger es capaz de dar una respuesta total a preguntas sobre el efecto de la colisión, pero no puede establecer ninguna relación de causalidad. No tiene respuesta a la pregunta de ¿cuál es el estado después de la colisión?, sino más bien a la pregunta de ¿cuál es la probabilidad de un determinado efecto de la colisión? (Born 826)

En ese mismo artículo, Born atribuye el origen de sus ideas pro-babilistas a la teoría fotónica de la luz de Einstein (cf. 1905), y asegura que esta aplicación fue el paso decisivo hacia el indeterminismo, pues permitió cambiar el concepto clásico de intensidad de radiación por el nuevo concepto estadístico de probabilidad de transición.

Nuevo bloqueo conceptual: el v Congreso Solvay

Este congreso representó para la mecánica cuántica el primer gran acuerdo de la comunidad alrededor de muchas de las controversias que se habían desarrollado en los últimos diez años, pero también dejó grandes problemas por resolver para la disciplina. La resolución de algunos de esos problemas tendría que esperar hasta la segunda mitad del siglo XX, cuando muchos de los problemas que los físicos habían considerado como filosóficos pudieron abordarse con métodos propios de la disciplina. Durante los años posteriores a 1927, el interés de los físicos se orientó cada vez más hacia las aplicaciones y los problemas prácticos de la física cuántica.

Un breve esbozo de las relaciones internacionales en la física es interesante en este punto pues, por primera vez desde que había comenzado la Primera Guerra Mundial, los organizadores del congreso aceptaron invitar físicos alemanes al evento, lo cual enriqueció enormemente las discusiones. Adicionalmente, primó un panorama que podríamos llamar transnacional, dado que las dinámicas de colaboración llevadas a cabo en el Institut for Teoretisk Fysik de Copenhague habían reconfigurado la comunidad y habían logrado dar identidad a un equipo de trabajo que incluía también ingleses y alemanes como parte de una misma comunidad. Con esta nueva dinámica, se desarrollarían entonces discusiones en dos frentes: los afines a Copenhague (Bohr, Heisenberg, Pauli, Born, Dirac, entre otros) y los opositores (principalmente Schrödinger, De Broglie y Einstein). Dentro de los temas centrales debatidos en el encuentro podemos trazar tres líneas de discusión que están relacionadas con el núcleo de este espacio: a) la posibilidad de una teoría causal de la mecánica cuántica, b) el significado del principio de indeterminación de Heisenberg y c) el problema de la medición.

a. Ya desde 1905 Einstein había entendido que los cuantos podían implicar violaciones a la independencia mutua de sistemas que interaccionan. Los esfuerzos por desarrollar una teoría adecuada de la dualidad onda-partícula intentaban solucionar este problema. La afinidad de Einstein con las ideas de Schrödinger y De Broglie estaba relacionada con las esperanzas que tenía en las soluciones ondulatorias para eliminar esta dependencia. El desarrollo de la estadística Bose-Einstein fue un intento en esta dirección y marcó un precedente importante porque introdujo una nueva forma de contar estadísticamente. Con el tiempo, esta nueva forma de contar se relacionó con la controversia de la indistinguibilidad (cf. Lombardi y Pasqualini). Pero las soluciones encontradas para el problema de la dependencia resultaron insatisfactorias reiteradamente. Cushing señala que, poco antes del v Congreso Solvay, Einstein había escrito un artículo que nunca fue publicado y que él traduce como: "Does Schrödinger's Wave Mechanics Determine the Motion of a System Completely or Only in the Sense of Statistics?" Einstein usa la función de onda para dar solución al movimiento de un sistema individual, afirmando además que dicha solución es inequívoca y única. Sin embargo, antes de su publicación Walther Bothe le señala un problema con su aplicación si se trata de una pareja de sistemas (cf. Cushing 448). Este problema, que ahora conocemos como entrelazamiento, fue un tema central y recurrente en las críticas de Einstein a la mecánica cuántica. En esta misma dirección, De Broglie había preparado una propuesta que llamó "onda-piloto": se trataba de una propuesta causal de la mecánica cuántica. Sin embargo, en la discusión de esta propuesta, los argumentos de Pauli prevalecieron sobre los de De Broglie. El apoyo de sus afines Schrödinger y Einstein no llegó en ningún momento, pues Einstein estaba precisamente atascado en los mismos problemas. Fue así como la onda-piloto y la posibilidad de una versión causal de la teoría cuántica fueron desechadas y prácticamente olvidadas.

b. Por otro lado, Born y Heisenberg presentaron su versión más depurada de la mecánica cuántica. Aquí incluyeron una presentación del principio de incertidumbre y de la interpretación probabilista de la función de onda. En las conclusiones de su presentación se puede leer lo siguiente:

Sobre la cuestión de la 'validez de la ley de causalidad' tenemos esta opinión: siempre que se tengan en cuenta solo los experimentos que se encuentran en el dominio de nuestra experiencia en mecánica cuántica, actualmente adquirida, el supuesto de indeterminismo en principio, aquí tomado como fundamental, concuerda con la experiencia. (Institut International de Physique Solvay 178)

Vemos que no es una declaración de realismo, pero sí de principio respecto al dominio de los fenómenos cuánticos. Pero más revelador resulta el título de las conclusiones de Lorentz al encuentro: Causalidad, determinismo, probabilidad. Una señal inequívoca de que el tema más controversial del congreso giró en torno a estos temas. Sus últimas palabras fueron:

Siempre podría mantener mi fe determinista en los fenómenos fundamentales, de los que no he hablado. ¿Podría una mente más profunda no darse cuenta de los movimientos de estos electrones? ¿No se podría conservar el determinismo convirtiéndolo en objeto de creencia? ¿Debe uno necesariamente elevar el indeterminismo a un principio? (Institut International de Physique Solvay 250)

c. Finalmente, respecto al problema de la medición, no entraremos en muchos detalles, pues es un tema extenso y complejo, pero es importante nombrarlo, porque con él se introducen las primeras discusiones sobre el papel que el observador juega en la medición y cómo esto es importante para la predicción de las probabilidades; abre una discusión sobre si es la naturaleza la que toma la decisión en el momento de la medición o si es el observador quien decide. Se inaugura así otro entramado de controversias que persiste hasta nuestros días. Lo interesante para nosotros es que la imagen de una naturaleza en la que coexisten todas las posibilidades y que se definen solo al momento de hacer una medición es ya la imagen de un mundo en donde el indeterminismo es más constitutivo que epistémico.

Después de todas las discusiones, queda la sensación de que la idea dominante de la mecánica cuántica en la comunidad es la presentada por el grupo de Copenhague. Aceptar este programa incluía entonces aceptar el indeterminismo como principio esencial de la descripción cuántica del mundo; aceptar que las soluciones obtenidas de la función de onda de Schrödinger solo pueden ser interpretadas como amplitudes de probabilidad, y aceptar que no es posible construir una versión causal que explique estos fenómenos. Si bien el consenso fue amplio, no hubo unanimidad. Quedaron algunas controversias pendientes pero el tema del determinismo se consideró saldado. En los siguientes diez años las controversias relacionadas con el determinismo se debilitaron. Solo el problema del entrelazamiento y el problema de la medición siguieron siendo tema de debate en pequeños grupos interesados por los fundamentos.

La derrota de las alternativas

Durante las décadas de los años 1930 y 1940, el foco del espacio controversial sufre un nuevo bloqueo conceptual. El common ground pasa a incluir acuerdos como la aceptación de la relatividad y la mecánica cuántica, como teorías fundamentales, y la interpretación de Copenhague, como mejor alternativa para la comprensión de los fenómenos cuánticos. La discusión sobre el determinismo se limita al campo filosófico -en la física la controversia se abandona-. En este periodo se produce una refocalización: las discusiones dominantes se centran en la completitud de la descripción cuántica del mundo y esto deriva en discusiones sobre localidad, separabilidad y medición. Sin embargo, los actores que siguen discutiendo estos problemas son muy pocos.

A pesar de que De Broglie había presentado su propuesta para una versión causal de la mecánica cuántica, el debate sobre su posibilidad perdió interés para los físicos. A partir de 1927, fueron más los filósofos que se interesaron por la controversia cuántica y, en particular, por la controversia sobre la causalidad y el determinismo -autores como Cassirer, Reichenbach, Carnap, Popper, entre otros-. Durante esta época, la física en general tomó una dirección más práctica y los problemas de los fundamentos de la mecánica cuántica fueron tildados de filosóficos. Este tiempo de estancamiento de la discusión en la física implicó un nuevo bloqueo conceptual y vino acompañado de la reformulación de muchos de los problemas y conceptos implicados. En la medida en que los procesos de medición y los desarrollos tecnológicos asociados fueron dando solución a problemas más prácticos, también las discusiones sobre medición y la interpretación de los datos se hizo más fuerte.

Por otro lado, el triunfo del nazismo y la Segunda Guerra Mundial trajeron agitaciones políticas y sociales en toda Europa. Este fue un periodo (1933-1945) especialmente estéril para las discusiones más filosóficas de la física. La financiación científica no estuvo enfocada en el avance de los fundamentos de la ciencia, sino en sus aplicaciones prácticas y bélicas. Esto asentó el bloqueo del espacio controversial. A esta agenda predominantemente bélica se sumaron los buenos resultados experimentales que estaba obteniendo la teoría cuántica, los grandes y apabullantes avances tecnológicos sin precedentes, las mejoras en los métodos de medición y el control cada vez más preciso de la materia a escalas cada vez más pequeñas. Estas razones explican por qué los físicos dejaron de lado esta discusión filosófica y terminaron por convencerse de que los problemas restantes no podían resolverse por los métodos de la física. Para este momento, el espacio controversial queda configurado como se puede observar en la figura 2.

FIGURA 2 Espacio controversial durante el bloqueo conceptual 

El lento camino hacia un nuevo desbloqueo

Presentaremos a continuación algunas pistas acerca de los factores que condujeron a un nuevo desbloqueo conceptual de este espacio controversial entre 1950 y 1980. La historia y el entramado de controversias de esta nueva etapa es tan extensa y compleja que no podemos abarcarla aquí, pero a grandes rasgos podemos decir que las discusiones del foco se desarrollaron en la filosofía. En la física, Bohm reactiva el debate a comienzos de 1952, pues lentamente la comunidad encontraría los métodos necesarios para plantear posibles soluciones al problema. Este desbloqueo reactivó, al mismo tiempo, no solo el problema de la causalidad y la localidad, sino sobre todo la discusión sobre si el estado descrito por la teoría cuántica es óntico o epistémico. Los planteamientos de Bell en la década de 1960 propiciaron el desbloqueo total del espacio. Con estos nuevos elementos, el problema del determinismo y la causalidad vuelve a ser considerado un problema propio de la física.

Bohm publicó su propuesta de una versión causal de la mecánica cuántica en dos artículos que aparecieron en Physical Review bajo el título "A Suggested Interpretation of the Quantum Theory in Terms of 'Hidden' Variables 1 y 11". En esta nueva propuesta, el electrón tiene posición y momento bien definidos, por lo que sus trayectorias no solo están determinadas, sino que son continuas. La posición y el momento son entonces las variables ocultas y el propio formalismo difiere respecto de la mecánica cuántica estándar:

Al igual que en la versión estándar, la evolución del estado cuántico está gobernada por la Ecuación de Schrödinger; pero, además, la evolución de las posiciones de las partículas se encuentra regida por una ecuación de guía, según la cual las posiciones son función de la fase de la función de onda O. Por lo tanto, O es considerada como un campo físico que guía el movimiento de las partículas a lo largo de trayectorias que difieren de las trayectorias clásicas. (Lombardi 2000 264)

Cuando aparecieron en enero de 1952, los artículos ya habían recibido una réplica de Wolfang Pauli: se trataba de las mismas objeciones que ya había dirigido a De Broglie en 1927. Estas réplicas de Pauli y la respuesta a ellas fueron incluidas en el texto final de Bohm: "Como mostraremos [...] todas estas objeciones de de Broglie y Pauli podrían haber sido resueltas si de Broglie hubiera llevado sus ideas a su conclusión lógica" (167).

La estrategia argumentativa de Bohm en estos dos artículos muestra que se estaba preparando para una polémica acalorada. Sin embargo, la recepción de sus artículos generó menos controversia de la que él esperaba: la estrategia de la comunidad cuántica para neutralizar la propuesta no fue primariamente la crítica sino la indiferencia. Habría que esperar hasta 1966, con la propuesta de Bell, para que el debate empezara a llamar la atención de la comunidad. Bell se interesó por los problemas fundamentales de la mecánica cuántica leyendo el libro de Born, Natural Philosophy of Cause and Chance. En 1952, encontró la publicación de Bohm de las variables ocultas, que le causó una profunda impresión. Desde este momento, los intereses de Bell se centraron en encontrar formas de defender la propuesta de Bohm, aunque habrían de pasar unos 10 años hasta que su defensa saliera a la luz.

Bell comienza por demostrar las inconsistencias de las pruebas de imposibilidad presentadas por von Neumann, y Jauch y Piron. Luego, intenta perfeccionar el modelo de variables ocultas, pero se encuentra nuevamente con el problema de la no-localidad. Para evitarlos, propone su teorema, en el que plantea que ningún modelo realista y local de variables ocultas puede recuperar todas las predicciones de la mecánica cuántica. Para cuantificar esta afirmación construye ciertas desigualdades que debería cumplir todo modelo realista y local, pero que resulta violada por la mecánica cuántica. Sin entrar en los detalles de esta propuesta (cf.Freire Junior 2015a), interesa señalar que las implicaciones más fuertes de las desigualdades de Bell ponían en juego la localidad y no solo las variables ocultas, generando la refocalización del espacio, pues el interés de la comunidad se enfocó en nuevos temas. Durante la siguiente década, algunos físicos estuvieron buscando formas de resolver el problema, y esto derivó en la creación de un nuevo campo de investigación: quantum foundations. Las nuevas controversias que componen el espacio se agrupan alrededor de un tema dominante que es el realismo de la descripción del estado cuántico. En estrecha relación con estas discusiones están las controversias entre los defensores de una visión estándar y los defensores de las variables ocultas, así como los debates sobre no-localidad y las múltiples interpretaciones de la mecánica cuántica. Lo que está en juego es la pregunta "¿la descripción del estado cuántico debe tomarse como una descripción de la realidad o solo como una forma de entender el mundo?". Estas son discusiones que en las últimas décadas han planteado los defensores de posturas antirrealistas como el QBism o la interpretación informacional de Bub. También aparecen en el foco controversias como la separabilidad y la causalidad. En la actualidad, el espacio controversial sigue vigente.

Conclusiones

He propuesto reconstruir aquí la controversia sobre el determinismo en la mecánica cuántica durante la primera mitad del siglo xx. Para hacerlo, he apelado al modelo de los espacios controversiales de Oscar Nudler, porque permite seguir el desarrollo de una controversia, no de forma aislada, sino también en relación con una red de controversias interrelacionadas, lo que enriquece en gran medida el estudio. En este caso, propuse que la controversia sobre el determinismo en los primeros años de desarrollo de la mecánica cuántica estuvo relacionada, entre otros factores, con la asimilación del estilo de razonamiento estadístico y sus diferentes etapas de desarrollo. Muestro entonces cómo, una vez que la mecánica estadística pasa a formar parte del common ground del espacio, sus diversas aplicaciones hacen que la estadística se convierta en una herramienta de predicción y en una herramienta de interpretación. En esta medida, la probabilidad se hizo necesaria para interpretar el mundo, y esto tuvo como consecuencia la aceptación de un indeterminismo epistémico.

Luego, propongo una segunda etapa de desarrollo en la que la probabilidad no se limita a una interpretación del mundo, sino que se convierte en algo constitutivo de los fenómenos mismos. Para este momento, el estilo estadístico ya se ha fusionado, por un lado, con el estilo de modelado hipotético o analógico, dando lugar a lo que Hacking llamó "la era de modelado y prueba" y, por otro, con el estilo de laboratorio, mostrando cada vez más su carácter constitutivo. En este punto, la noción de probabilidad se vuelve parte fundamental de los fenómenos y la naturaleza ya no puede concebirse sin la existencia de una probabilidad subyacente. Sin embargo, y aunque este periodo pareció ser asimilado rápidamente por la comunidad, tuvo un bloqueo desatado por distintos factores sociopolíticos e institucionales y, en consecuencia, las controversias se aplazaron. Solo durante la segunda mitad del siglo XX el espacio supera este bloqueo generando una refocalización completa de un espacio cuyas controversias siguen vigentes en la actualidad.

Bibliografía

Beauchamp, Tom. "Ethical theory and the problem of closure." Scientific Controversies: Case studies in the resolution and closure of disputes in science and technology. Cambridge University Press, 1987. 27-48. [ Links ]

Bohm, David. "A Suggested Interpretation of the Quantum Theory in Terms of 'Hidden' Variables 1." Physical Review 85.2 (1952): 166-179. [ Links ]

Born, Max. "Quantenmechanik der Stoßvorgänge." Zeitschrift für Physik 38.11 (1926): 803-827. [ Links ]

Brush, Stephen G. "Development of the Kinetic Theory of Gases. v. The Equation of State." American Journal of Physics 29.9 (1961): 593-605. [ Links ]

Brush, Stephen G. "James Clerk Maxwell and the Kinetic Theory of Gases: A Review Based on Recent Historical Studies." American Journal of Physics 39.6 (1971): 631. [ Links ]

Brush, Stephen G. "The Development of the Kinetic Theory of Gases." Archive for History of Exact Sciences 12.1 (1974): 1-88. [ Links ]

Brush, Stephen G. The kind of motion we call heat: a history of the kinetic theory of gases in the 19th century. North-Holland Publishing Company, 1976. [ Links ]

Cushing, James T. "Historical Contingency and Theory Selection in Science." PSA: Proceedings of the Biennial Meeting of the Philosophy of Science Association (1992): 446-457. [ Links ]

Darrigol, Olivier. "A simplified genesis of quantum mechanics." Studies In History and Philosophy of Science Part B: Studies in History and Philosophy of Modern Physics 40.2 (2009): 151-166. [ Links ]

Ehrenfest, Paul. "Begriffliche Grundlagen der statistischen Auffassung in der Mechanik." Mechanik. Vieweg Teubner Verlag, 1907. 773-860. [ Links ]

Forman, Paul. Cultura en Weimar, causalidad y teoría cuántica, 1918-1927: adaptación de los físicos y matemáticos alemanes a un ambiente intelectual hostil. Traducido por José Manuel Sanchez-Ron. Alianza, 1971. [ Links ]

Freire Junior, Olival. The Quantum Dissidents: Rebuilding the Foundations of Quantum Mechanics (1950-1990). Springer, 2015. [ Links ]

Freire Junior, Olival. "Philosophy Enter the Optics Laboratory." The Quantum Dissidents: Rebuilding the Foundations of Quantum Mechanics (1950-1990). Springer, 2015a. 235-286. [ Links ]

Hacking, Ian. The Emergence of Probability. Cambridge University Press, 1975. [ Links ]

Hacking, Ian. "Language, Truth and Reason." Rationality and Relativism. Edited by Martin Hollis and Steven Lukes. Massachusetts Institute of Technology Press, 1982. 48-66. [ Links ]

Hacking, Ian. The Taming of Chance. Cambridge University Press, 1990. [ Links ]

Hacking, Ian. "Statistical Language, Statistical Truth and Statistical Reason: the Self-Autentification of a Style of Scietific Reasoning." The Social Dimensions of Science. University of Notre Dame Press, 1992. 130-157. [ Links ]

Hacking, Ian. "'Language, Truth and Reason' 30 years Later." Studies in History and Philosophy of Science Part A 43.4 (2012): 599-609. [ Links ]

Howard, Don. "Revisiting the Einstein-Bohr Dialogue." Iyyun: The Jerusalem Philosophical Quarterly 56 (2007): 57-90. [ Links ]

Institut International de Physique Solvay. Electrons et photons: rapports et discussions du cinquième Conseil de physique tenu à Bruxelles du 24 au 29 octobre 1927. Gauthier-Villars et cie, 1928. [ Links ]

James, William. The Will to Believe and Other Essays in Popular Philosophy. Dover Publications, 1897. [ Links ]

Jauch, Josef Maria and Piron, Constantin. "Can hidden variables be excluded in quantum mechanics?" Helvetica Physica Acta, 36 (1963): 827-837. [ Links ]

Kuhn, Thomas. La teoría del cuerpo negro y la discontinuidad cuántica , 1894-1912. Alianza, 1978. [ Links ]

Lombardi, Olimpia. El problema del determinismo en la física. Universidad de Buenos Aires, 2000. [ Links ]

Lombardi, Olimpia. "El problema de la irreversibilidad, de Fourier a la teoría del caos." Espacios controversiales. Miño y Dávila, 2009. 129-161. [ Links ]

Lombardi, Olimpia y Pasqualini, Matías. "La controversia acerca de la identidad en su ingreso al ámbito de la mecánica cuántica." Ideas y Valores 71.Supl. 8 (2022): 143-169. [ Links ]

López, Cristian. Los inicios de una revolución permanente: el nacimiento de la mecánica cuántica: 1900-1927. Logos, 2018. [ Links ]

Mazur, Allan. The Dynamics of Technical Controversy. Communications Press, 1981. [ Links ]

McMullin, Ernan. "Scientific Controversy and its Termination." Scientific Controversies: Case studies in the resolution and closure of disputes in science and technology. Edited by H. Tristram Engelhardt and Arthur L. Caplan. Cambridge University Press, 1987. [ Links ]

Monaldi, Daniela. "The Statistical Style of Reasoning and the Invention of Bose-Einstein Statistics." Berichte Zur Wissenschaftsgeschichte 42.4 (2019): 307-337. [ Links ]

Muller, F. A. "The Equivalence Myth of Quantum Mechanics -Part 1." Studies in History and Philosophy of Science Part B: Studies in History and Philosophy of Modern Physics 28.1 (1997): 35-61. [ Links ]

Neumann, John von. "The Equivalence of the Tow Theories" Mathematical Foundations of Quantum Mechanics. Translated by Robert T. Beyer. Edited by Nicholas A. Wheeler. Princeton University Press, 1955. 13-24. [ Links ]

Nudler, Oscar. Espacios controversiales: hacia un modelo de cambio filosófico y científico. Miño y Dávila, 2009. [ Links ]

Nudler, Óscar. "Hacia un modelo de cambio conceptual: espacios controversiales y refo-calización." Revista de Filosofía 29.22 (2004): 7-19. [ Links ]

Peirce, Charles Sanders. "The Doctrine of Necessity Examined." The Monist 2.3 (1892): 321-337. [ Links ]

Perovic, Slobodan. "Why Were Matrix Mechanics and Wave Mechanics Considered Equivalent?" Studies in History and Philosophy of Science Part B: Studies in History and Philosophy of Modern Physics 39.2 (2008): 444-461. [ Links ]

Robertson, Peter. "Birthplace of a new physics: the early history of the Niels Bohr Institute" One Hundred Years of the Bohr Atom. Proceedings from a Conference. Edited by Finn Aeserud and Helge Kragh. The Royal Danish Academy of Sciences and Letters, 2015. [ Links ]

Sánchez-Ron, José Manuel. Historia de la física cuántica. Crítica, 2001. [ Links ]

Stachel, John. Einstein's Miraculous Year: Five Papers That Changed the Face of Physics. Princeton University Press, 2005. [ Links ]

Varela Machado, Olga. "Desbloqueo conceptual de la controversia sobre el determinismo durante la segunda mitad del siglo XIX." Crítica. Revista Hispanoamericana de Filosofía 52.156 (2020): 87-114. [ Links ]

1 En mecánica estadística una colectividad o ensemble es una colección de muchas réplicas hipotéticas de un sistema.

Cómo citar este artículo:

MLA: Valera Machado, Olga. "La controversia sobre el determinismo en la filosofía durante la primera mitad del siglo XX." Ideas y Valores 71. Supl. 8 (2022): 165-191.

APA: Valera Machado, O. (2022). La controversia sobre el determinismo en la filosofía durante la primera mitad del siglo xx. Ideas y Valores, 71 (Supl. 8), 165-191.

CHICAGO: Olga Varela Machado. "La controversia sobre el determinismo en la filosofía durante la primera mitad del siglo xx." Ideas y Valores 71, n.° Supl. 8 (2022): 165-191.

Quiero agradecer a mis directores, el Dr. Jesús Alcolea Banegas y el Dr. Juan de Dios Bares Partal, por sus diligentes indicaciones, correcciones y su incondicional apoyo. A la Dra. Olimpia Lombardi por su dedicación y destreza en la estructuración de este trabajo y su grupo de la Universidad de Buenos Aires por las discusiones. También, al Dr. Boris Ángelo Rodríguez (Universidad de Antioquia), por su ayuda desinteresada y sus orientaciones en los aspectos técnicos de este trabajo. Y, finalmente, a Juliana Gutiérrez, quien me ayudó a ver los problemas desde nuevas perspectivas.

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons