El Blog de Alerce

Videojuegos, matemáticas, literatura, ciencias y filosofía en una mezcla (aparentemente) aleatoria

La interpretación de la probabilidad en la mecánica cuántica

Posted by

·

,

La mecánica cuántica supuso una revolución en los paradigmas de la ciencia al introducir elementos probabilísticos que se pueden considerar inherentes a los procesos físicos. En esta entrada se describe la evolución de esta concepción de la probabilidad en la mecánica cuántica, centrándose en los debates originales entre Einstein y Bohr, y la evolución posterior de la cuestión de la mano de autores como Bell o Aspect.

1. Probabilidad y determinismo

Con el desarrollo de la ciencia moderna inaugurada con la Revolución Científica en los siglos XVI – XVII, la cuestión del ámbito que queda abierto para la indeterminación en un mundo natural gobernado por leyes que la ciencia aspira a conocer y a matematizar ha permanecido abierta como uno de los más importantes debates científicos y filosóficos. Este debate se puede ilustrar de forma paradigmática con la tercera antonimia de la razón de Kant, que contrapone las siguientes tesis:

Tesis: «La causalidad según leyes de la naturaleza no es la única de la que pueden derivar los fenómenos todos del mundo. Para explicar éstos nos hace falta otra causalidad por libertad»

Antítesis: «No hay libertad. Todo cuanto sucede en el mundo se desarrolla exclusivamente según leyes de la naturaleza» [1].

En su argumentación, Kant encuentra motivos, en su opinión, de igual peso para tesis y antítesis, resultando así la antonimia en este dilema, que la razón se ve impelida a abordar, pero no puede resolver por sus propios medios. Pero cabe destacar que esta argumentación descansa, en el apoyo de la antítesis, en una concepción de las «leyes de la naturaleza» puramente determinista, que de este modo cabe oponer a la sensación humana de libertad en sus elecciones que refleja la tesis.

Esta concepción rigurosamente determinista de las leyes de la naturaleza, que en su argumentación Kant considera indiscutible, es fiel reflejo de las nociones de su época respecto a qué son las ciencias naturales y cómo son las leyes de la naturaleza que estas ciencias trabajan para esclarecer, concepción que se puede ilustrar con la fábula del «demonio de Laplace»:

«Tendríamos por lo tanto que considerar el estado actual del universo como el efecto del estado anterior y como la causa del que va a seguir. Si considerásemos por un instante una inteligencia que pudiese comprender todas las fuerzas que animan la naturaleza y la situación respectiva de los seres que la componen –una inteligencia suficientemente vasta como para poder analizar todos estos datos–, ella reuniría en una misma fórmula los movimientos de los cuerpos más grandes del universo y los del átomo más ligero; pues, para ella, nada sería incierto, y el futuro, al igual que el pasado, estaría ante sus ojos» [2].

Con esta concepción, la probabilidad, que Laplace contribuyó decisivamente a introducir como disciplina matemática con su ensayo seminal publicado en 1814 [2], tiene una naturaleza puramente epistemológica: en ocasiones, nuestras limitaciones humanas nos impiden comprender ese conjunto completo de fuerzas y posiciones al que alude la cita, y con ello nos obligan a introducir probabilidades en los cálculos matemáticos para cuantificar esta indeterminación. Pero esta es siempre una solución provisional y tentativa, susceptible de ser mejorada a medida que el conocimiento humano aumenta y las indeterminaciones van siendo eliminadas:

«La probabilidad es relativa en parte esta ignorancia, y en parte a nuestro conocimiento. Sabemos que de tres o más eventos, uno en concreto tendrá que ocurrir; pero nada nos induce a creer que uno ocurrirá en lugar de los otros. En este estado de indecisión, nos resulta imposible anunciar su ocurrencia con certeza» [2].

Esta concepción de «ley científica de la naturaleza», junto con la concepción epistémica asociada de la probabilidad como medida del alcance de nuestro conocimiento, vino considerándose como indiscutible hasta comienzos del siglo XX. Pero, ¿qué ocurriría si la evidencia científica obligara a abandonarla en favor de una teoría científica en la que la probabilidad jugase un papel objetivo y ontológico, y no meramente epistemológico? La tercera antonimia de Kant quedaría anulada, pues el apoyo que las ciencias naturales prestan a la antítesis se desvanecería. 

Tal es el debate que la física cuántica abrió en las primeras décadas del siglo XX; debate que, como se verá en las siguientes secciones, obligó a abandonar la concepción epistemológica «ingenua» de la probabilidad de Laplace. Como resultado, en la actualidad conviven al menos cuatro posibles interpretaciones alternativas de la probabilidad [3]:

–  La interpretación lógica: en su elaboración original por Keynes [4], era una concepción epistemológica que pretendía dar una articulación a los aspectos que en la formulación original de Laplace quedaban demasiado difusos y creaban problemas de circularidad. Así, para Keynes, como para Laplace, la probabilidad era un grado de creencia, pero una creencia racional, que tenía que ser así común para cualquier agente racional. Un elemento fundamental en esta articulación racionalista es el Principio de Indiferencia:

«El Principio de Indiferencia afirma que si no hay razón conocida para predicar de nuestro sujeto una u otra alternativa, entonces en relación a ese conocimiento la afirmación de cada una de esas alternativas tiene igual probabilidad. Así, probabilidades iguales deben afirmarse a cada uno de los argumentos, en ausencia de razones positivas para asignar unas desiguales» [4].

La aplicación indiscriminada de este principio conduce a paradojas que Keynes no logró resolver dando a la probabilidad una articulación puramente lógica [3]. Sin embargo, puede decirse que en la actualidad el Principio de Indiferencia goza de un renovado vigor de la mano de autores que ven en él no una regla lógica, sino más bien una ley de la naturaleza que resulta aplicable una vez que en la descripción del sistema bajo estudio se llega a un nivel suficientemente elemental; de hecho, no resulta exagerado declarar que, para algunos autores, y en parte como reacción a los resultados de la mecánica cuántica, el Principio de Indiferencia así entendido sería la ley fundamental de la naturaleza [5], quedando por tanto dotado de una naturaleza objetiva.

– La interpretación frecuentista: debida originalmente, entre otros, a Reichenbach y Von Mises [6], establece que la probabilidad es una propiedad de la que están dotados los sistemas constituidos por un número muy elevado de individuos o por una repetición muy numerosa de eventos simples, y busca darle un carácter positivista y objetivo definiéndola como el valor límite al que tienden las medidas en una gran serie de experimentos o realizadas sobre una de esas grandes poblaciones. Esta interpretación, aunque se ha venido revelando como demasiado limitada para determinadas aplicaciones que no son susceptibles de esta repetición requerida por la definición (entre los que los fenómenos cuánticos son un ejemplo paradigmático), sigue teniendo mucho peso en textos matemáticos.

– La interpretación subjetiva: que identifica la probabilidad con el grado de creencia racional sobre la realización de diferentes posibles escenarios, y lleva sus últimas consecuencias la interpretación epistemológica, al permitir que distintos agentes racionales puedan sostener diferentes asignaciones de probabilidad. Esta interpretación, desarrollada por autores como Ramsey y De Finetti, tiene como resultado destacado el Teorema de Ramsey – De Finetti, que permite compatibilizarla con los axiomas de la teoría matemática de la probabilidad [7].

– Las interpretaciones de la propensión, inauguradas por Popper, en buena medida como consecuencia de los avances en la mecánica cuántica, que intentan conciliar los elementos objetivos y subjetivos considerando la probabilidad como una propensión inherente a la naturaleza del objeto bajo estudio hacia un resultado determinado [3].

Junto con estas interpretaciones, se tiene la probabilidad como objeto matemático, con una formulación axiomática debida fundamentalmente a Kolmogorov [8]:

«En un espacio medible (W,F), una probabilidad (o medida de probabilidad) es una aplicación P: F→ℛ  que verifica:

  • P(A) ≥ 0 para todo A F
  • Para cualquier colección numerable de sucesos {An} ∈ F disjuntos entre sí, se cumple:
  • P(W) = 1 »

Esta aséptica formulación axiomática tiene la virtud de aislar la teoría matemática de la probabilidad de las controversias en torno a sus posibles interpretaciones; pero no puede ser completamente ajena a estas interpretaciones, si no quiere degenerar en una teoría abstracta de la medida que olvide la vinculación que la teoría de la probabilidad ha mantenido históricamente con las ciencias naturales y las aplicaciones prácticas. Pero, en todo caso, tras más de un siglo de discusiones, ha quedado al menos claro que esta interpretación no es algo que se pueda establecer a priori, «en el vacío», sino que debe necesariamente responder al avance del conocimiento en otros ámbitos. Y, en este aspecto, los avances en la mecánica cuántica juegan, como se ha adelantado, un papel fundamental.

2. La probabilidad en la Mecánica Cuántica: La interpretación de Copenhague

La Mecánica Cuántica se construyó sobre la larga controversia, que se puede retrotraer hasta Newton, sobre la posible naturaleza ondulatoria o corpuscular de fenómenos como la luz [9, 10]. Los resultados de experimentos sobre la interferencia o la difracción de autores como Fresnel y Maxwell, solo compatibles con una naturaleza ondulatoria de la luz, junto con la articulación del efecto fotoeléctrico por Einstein, que llevó a constatar que la energía luminosa está cuantizada en pequeños «paquetes» corpusculares denominados fotones, llevaron a postular la actual teoría de la dualidad onda-partícula: todo objeto físico se propaga como una onda e intercambia energía como una partícula.

Schrödinger dio una formulación matemática esta teoría mediante su ecuación de onda, desarrollada en analogía a la ecuación de onda clásica [10], que para un sistema unidimensional tiene la forma de una ecuación en derivadas parciales:

donde U(x) es la función de energía potencial, que representa la interacción con el entorno de la partícula que se está estudiando, y φ(x,t) es la función de onda asociada a esa partícula. Cuando U(x) es tal que la partícula a la que se aplica la ecuación está confinada en una determinada región del espacio, como ocurre por ejemplo con un electrón que está ligado a un protón en un átomo, la imposición de las condiciones de contorno correspondientes a esta situación, que se requieren para la integración de la ecuación de Schrödinger, hacen que la ecuación solo admita un conjunto discreto de soluciones, correspondientes a ciertas energías discretas. Se describe así la cuantización observada, por ejemplo, en el efecto fotoeléctrico.

Sin embargo, y aunque esta teoría se desarrolló en un inicio en analogía con la teoría de ondas clásicas, pronto se hicieron patentes numerosas diferencias muy significativas. Una de las más notables es el denominado Principio de Indeterminación (históricamente denominado en un origen por diversos autores «Principio de Incertidumbre»).

Aunque la interpretación física de este principio es en sí misma motivo de considerable controversia, en textos de física es frecuente relacionarlo con las limitaciones a la medición que imponen la dualidad onda-partícula [10], explicación que hasta cierto punto corresponde a la interpretación original de Heisenberg. Este principio se aplica a pares de variables conjugadas, vinculadas con la dualidad onda-partícula, como la posición y la velocidad, que según el formalismo de la mecánica cuántica quedan indisolublemente asociadas, en el sentido de que la incertidumbre en el conocimiento de una de las variables es inversamente proporcional a la incertidumbre en el conocimiento de la otra. Así, si queremos medir la posición de una partícula, podemos hacerlo iluminándola o, en el límite, golpeándola con un único fotón; al hacer esto, la luz se dispersa y se determina la posición por la dirección de la luz dispersada. La incertidumbre de esta medida es proporcional a la longitud de onda de la luz, debido a los efectos de difracción, pero esta incertidumbre se puede en principio reducir tanto como se quiera utilizando luz de longitud de onda muy corta.

Por otro lado, la velocidad o, de forma equivalente, el momento lineal de una partícula, p = m·v, se puede medir midiendo su posición en dos instantes de tiempo muy próximos. Si queremos medir esta posición con poca incertidumbre, debemos utilizar, como se ha dicho, luz de longitud de onda muy corta; pero esta luz, que tiene un momento lineal muy elevado, transfiere este momento de forma incontrolable a la partícula durante la colisión, lo que modifica el momento de la partícula e incrementa la incertidumbre en la medida. En definitiva, la incertidumbre en la medida de la posición es grande si la longitud de onda es grande, y, a la inversa, la incertidumbre en la medida del momento lineal es grande si la longitud de onda es pequeña. Esta vinculación de las incertidumbres fue cuantificada por Heisenberg en 1927 como:

Otra diferencia significativa surge al interpretar el significado de φ(x,t) en la ecuación de Schrödinger. En la mecánica de ondas clásica, la energía por unidad de volumen de la onda es proporcional al cuadrado de la función de onda. Como la energía de una onda luminosa está cuantizada, parece razonable asumir que, al aplicar la ecuación de Schrödinger a ondas luminosas, la energía por unidad de volumen que así resulta de φ(x,t)  es proporcional a su vez al número de fotones por unidad de volumen.

La dificultad surge cuando se aplica la ecuación a sistemas con un número muy reducido de fotones, o, en el límite, un único fotón; sistemas que por otra parte constituyen el objeto de estudio particular para el que, en buena medida, resultó preciso desarrollar la mecánica cuántica. Un único fotón, considerado como corpúsculo, solo puede estar en una posición determinada, pero la ecuación de Schrödinger sigue dando como solución una función de onda continua con valores en todo el rango de aplicación delimitado por las condiciones de contorno. Resulta por lo tanto precisa una interpretación alternativa a esta solución de la ecuación, que Born asoció con la probabilidad: φ(x,t) es una función de densidad de probabilidad; es decir, la probabilidad de encontrar la partícula bajo estudio en una determinada región del espacio resulta de la integración del cuadrado de la función de onda sobre dicha región. Se tiene así una probabilidad que parece jugar un papel constitutivo, ontológico, en la teoría, y no uno meramente epistemológico.  

Esta interpretación, que por sí sola ya resultaba sumamente problemática para autores como Einstein, como se verá en las siguientes secciones, adquiere una dimensión aún más compleja con el denominado «Problema de la Medición». Este problema se manifiesta porque, en su formulación ondulatoria, la mecánica cuántica admite que un sistema dado se encuentre en una superposición de distintos estados. Sin embargo, en el momento de efectuar o una medición, no es posible observar tal superposición, sino que la evidencia demuestra que el resultado de la medición ha de ser un único estado determinado. Además, la mecánica cuántica no permite establecer con certeza cuál va a ser ese estado que se va a observar, sino que solo proporciona una distribución de probabilidad entre las posibles alternativas.

Una ilustración muy conocida de este problema es la del llamado «Gato de Schrödinger»: en una caja cerrada se tiene un gato, junto con un dispositivo en el que la descomposición de un átomo radioactivo acciona la liberación de un veneno mortal para el gato. Según la mecánica cuántica, el átomo radioactivo se encuentra en una superposición de estados de acuerdo a una determinada probabilidad de descomposición; y, por lo tanto, el gato, que es un objeto macroscópico, también: mientras la caja permanezca cerrada, está «a la vez vivo y muerto». Solo al abrir la caja y observar su contenido, su estado se decanta hacia uno de estos extremos.

Estas características de la mecánica cuántica tan alejadas de lo que desde la concepción clásica de la mecánica se esperaban en una teoría científica, se abordan mayoritariamente en el día de hoy a través de la llamada «interpretación de Copenhague», desarrollada fundamentalmente por Bohr y Heisenberg. Esta interpretación puede resumirse en los siguientes postulados:

– La función de onda de Schrödinger contiene la información completa requerida para describir el sistema y rige todo su comportamiento entre mediciones de forma determinista.

– Esta función de onda proporciona la probabilidad de obtener un determinado resultado al hacer una medición, de acuerdo con la regla de Born antes descrita.

– De este modo, un sistema cuántico, que puede estar en una superposición de estados, «colapsa» en el momento de realizar una medida a un estado determinado, debido a la interacción con el observador o el sistema de medida.

3. Las objeciones a la interpretación de Copenhague: los argumentos de Einstein

La interpretación de Copenhague de estos aspectos de la mecánica cuántica tan contraintuitivos y difíciles de asumir para nuestro sentido común, forjado en un mundo macroscópico, conducen a una actitud que autores como Alain Aspect describen como «calcula y calla» [11]: si se tiene una herramienta como la mecánica cuántica, que ha alcanzado una validación experimental muy superior a la de ninguna otra teoría, lo que hay que hacer es emplearla y dejar de lado estas dificultades de interpretación, seguramente debidas a las limitaciones de nuestra forma de razonar, y en todo caso irrelevantes para las aplicaciones prácticas. Pero mientras que esta actitud ha sido indudablemente fructífera para la práctica, ha habido y sigue habiendo investigadores que no pueden dejar de lado los problemas de interpretación.

Christian Wüthrich resume estos problemas de interpretación enunciando tres postulados básicos de la interpretación de Copenhague, que para este autor son incompatibles entre sí desde un punto de vista lógico [12]:

(1) La función de onda describe completamente el estado del sistema.

(2) La ecuación de Schrödinger siempre gobierna el comportamiento dinámico del sistema.

(3) Las observaciones siempre producen resultados definidos.

Mencionando brevemente, por restricciones de espacio, que las objeciones al postulado (2) conducen a modificaciones de la mecánica cuántica que agregan a la ecuación (determinista) de Schrödinger modelos estocásticos que operan durante las observaciones; y que las objeciones a (3) conducen a interpretaciones como la «teoría del Multiverso» de Everett, según la cual en cada observación el universo se despliega en varios universos paralelos, cada uno correspondiente a uno de los posibles resultados de la observación [12], en lo que resta nos centramos en las objeciones a (1), que esencialmente alegan que la mecánica cuántica no es una teoría completa, y que anomalías como el Problema de Medición se desvanecerían si se la pudiese reemplazar por una teoría más adecuada.

Uno de los primeros y más destacados campeones de esta línea de pensamiento fue Albert Einstein. La frase «Dios no juega a los dados con el universo» ha llegado a ser paradigmática de su oposición a la interpretación probabilística de la mecánica cuántica. Además, Einstein aspiraba a una concepción realista de las ciencias, según la cual estas deberían ser capaces de decir algo sustancial acerca de sus objetos de estudio, y no podía sino aborrecer el «calcula y calla» al que iba conduciendo la interpretación de Copenhague.

En cambio, Einstein, que conocía y manejaba muy bien la teoría de la probabilidad de la mano de sus trabajos sobre la teoría cinética de los fluidos, sostenía en base a esta experiencia previa lo que en la sección 1 se ha denominado una interpretación frecuentista de la probabilidad. Así, las probabilidades que aparecen en la mecánica cuántica mediante la regla de Born no serían sino el resultado de variables ocultas a las que la mecánica cuántica únicamente podía ofrecer una aproximación, del mismo modo que la teoría cinética resolvía el problema inabordable de la mecánica del movimiento de las innumerables moléculas que componen un fluido mediante promedios estadísticos.

Einstein reflejó esta oposición mediante una serie de experimentos mentales que pretendían demostrar que la mecánica cuántica estaba incompleta. Su oponente en esta controversia, y con ello el campeón de la interpretación de la propensión de las probabilidades cuánticas, fue Bohr [11]. En una primera serie de argumentos, Einstein propuso diferentes sistemas que permitirían medir con tanta precisión como se desease pares de variables cuánticas acopladas, como la posición y la velocidad de una partícula. Estos sistemas violarían así el Principio de Indeterminación. Por ejemplo: una caja contiene un fotón. La caja tiene una abertura, controlada por un reloj tan preciso como se quiera, que permite determinar cuándo sale el fotón de la caja. Por otro lado, en cualquier momento posterior a la apertura, se puede medir tan exactamente como se quiera la energía del fotón midiendo la pérdida de masa de la caja, que según la teoría de la relatividad está relacionada con la energía. Se tienen así dos variables cuánticas acopladas, tiempo y energía, que se pueden medir más exactamente que lo que permite el formalismo de la mecánica cuántica, con lo que este formalismo está incompleto.

Sin embargo, estos argumentos fueron completa e indiscutiblemente rebatidos por Bohr. El argumento básico empleado por Bohr contra todos los experimentos mentales ideados por Einstein fue, en esencia, siempre el mismo: la mecánica cuántica no se limita a regir el objeto bajo estudio. El sistema de medición también es cuántico [11].

Así, en el ejemplo del fotón, el tiempo no puede medirse con precisión absoluta: siendo el reloj un objeto cuántico, su posición está sujeta a una cierta indeterminación, y como, según la teoría de la relatividad del propio Einstein, las mediciones del tiempo dependen de la posición del objeto respecto de los campos gravitatorios, estas mediciones se ven afectadas por la indeterminación. La masa tampoco se puede medir con exactitud absoluta, ya que la medida del peso depende de la velocidad con la que se mueve la caja, que está sometida a dispersión cuántica.

Esta derrota en la argumentación llevó a que en lo sucesivo, Einstein no volviera a formular ninguna objeción basada en un sistema de una partícula. Sin embargo, otro de sus experimentos mentales, que en este caso considera dos partículas, ha permanecido vivo hasta nuestros días.

4. El argumento EPR y el teorema de Bell

En 1953, Einstein propuso, junto a sus alumnos Podolski y Rosen, un experimento mental, el experimento EPR, que considera dos partículas que inicialmente están en contacto. Según la mecánica cuántica, esta interacción lleva a un acople que hace que su evolución esté descrita por una determinada función de onda.

Supongamos a continuación que estas partículas se alejan entre sí tanto como se quiera. A continuación, sobre una de las partículas se realiza una medición. La formulación original del EPR propone una medición de posición, pero el argumento es quizá más claro si se considera una variable dicotómica, como el espín de un par de electrones o la polarización de un par de fotones.

El espín de uno de los electrones del par puede ser +1/2 o -1/2, y antes de la medición se encuentra indeterminado, en una superposición entre estos dos estados. Sin embargo, la medición conduce a uno de estos valores: según la interpretación de Copenhague durante la medición, la función de onda colapsa a uno de ellos. La dificultad surge al considerar el otro electrón: al colapsar el primero de ellos a, digamos, +1/2, la conservación del momento exige que el segundo también colapse, de forma instantánea, a -1/2, pese a que está, como se recordará, tan lejos del primero como se quiera. Se tiene así una violación flagrante del principio básico del realismo local; una, en palabras de Einstein, «escalofriante acción a distancia», que para él resulta claramente inaceptable. Para eludirlo, Einstein considera evidente que las dos partículas deben llevar consigo, desde el momento que se separan, una «variable oculta», un elemento de información que, de forma determinista, conduzca a que al hacer la medición en una partícula se observe un espín +1/2 y en la otra -1/2. Si la mecánica cuántica no puede establecer de forma determinista el resultado de la medición y solo da una probabilidad, es porque su formulación carece de esta variable; es decir, porque está incompleta.

Este experimento, contra el que los argumentos de Bohr no fueron en modo alguno decisivos [11], pero que en todo caso era irrelevante para las aplicaciones prácticas del «calcula y calla», habría quedado posiblemente en el olvido de no haber sido por un resultado excepcional: en 1964, John Bell, abordando la tarea de completar de una forma genérica la mecánica cuántica con variables ocultas que permitieran preservar el principio del realismo local, llegó a la conclusión inesperada de que tal teoría conducía a ciertas mediciones experimentales incompatibles con las de la mecánica cuántica convencional: las desigualdades de Bell.

Una controversia ontológica o epistemológica había quedado así transformada en un problema científico que, en principio, podía dirimirse en el laboratorio. Sin embargo, la complejidad del experimento y su aparente falta de relevancia práctica hizo que la solución se demorase hasta 1981. Fue entonces cuando Aspect hizo su primer experimento sobre la polarización de fotones entrelazados [11]. El resultado, que experimentos posteriores han confirmado y que a la postre le valió a Aspect el Premio Nobel de Física de 2022, fue concluyente: a favor de la mecánica cuántica estándar y en contra de las objeciones de Einstein y su aspiración al realismo local.

5. Conclusiones: realismo o localidad

Cerca de un siglo de trabajo de, entre otros, Bell y Aspect, ha llevado a algunas conclusiones claras, como que el principio del realismo local no rige el mundo cuántico, y también a muchas cuestiones que siguen abiertas. Si ha de negarse el realismo local, puede hacerse, como sugiere Aspect, o bien renunciando o al realismo, o bien a la localidad [11]. La interpretación estándar de Copenhague renuncia, como se ha visto, al realismo: las propiedades físicas solo se manifiestan, de una forma intrínsecamente estocástica, en el momento de la medición, y, entre tanto, se tiene una función de onda que es una mera herramienta de cálculo sin correspondencia con una realidad «física», ontológica, subyacente. Aspect, en cambio, propone renunciar a la localidad como una cesión ontológicamente menos gravosa. Se pueden llegar así a formalismos de la mecánica cuántica como los de De Broglie – Bohm, pura y rigurosamente deterministas, pero no localistas, formalismos que en los últimos años han seguido siendo vigorosamente defendidos por autores como Jaynes [13].

Sin embargo, y admitiendo siempre la posibilidad de que un golpe de genio como el de Bell vuelva a agitar el tablero de juego, en la actualidad estos dos formalismos son indistinguibles desde el punto de vista experimental: no se conoce que produzcan diferencia observable alguna que se pueda medir en el laboratorio, y no parece actualmente previsible que tal posibilidad de discriminación experimental pueda llegar a encontrarse. La tercera antinomia de Kant sigue así en pie, al menos, desde un punto de vista ontológico [12]. Desde un punto de vista epistemológico, la situación es distinta: como sostuvo Bohr en sus argumentos contra Einstein, los seres humanos somos objetos cuánticos y, como tales, parece actualmente indiscutible que estamos sujetos al Principio de Indeterminación. Así, si alguna vez hubo o habrá un «Demonio de Laplace», tal papel no puede corresponder a un ser humano, ni a ningún otro ente cuántico.

Referencias

[1] I. Kant, “Crítica de la Razón Pura”, 1781. Reeditado por Taurus, 2013.

[2] P. S. Laplace, “Essai Philosophique sur les Probabilités”, 1814. Reeditado por Prodinnova, 2020.

[3] D. Gillies, “Philosophical theories of probability”. Tylor & Francis Group, 2000.

[4] J. M. Keynes “A Treatise on Probability”, 1921. Reeditado por Wildside Press LLC, 2010.

[5] B. Greene, “Hasta el fin del tiempo”. Planeta, 2020.

[6] R. Von Mises, “Probability, Statistics and Truth”, 1957. Reeditado por Dover Publications Inc, 2019.

[7] F. P. Ramsey, “Truth and Probability”, 1926, en “F. P. Ramsey: The Foundations of Mathematics and other Logical Essays”, editado por R. B. Braithwaite, 1931, Reeditado por Martino Publishing, 2013.

[8] R. Vélez Ibarrola, “Cálculo de Probabilidades 2”. Ediciones Académicas, S. A., 2004.

[9] C. Solís, M. Selles. “Historia de la Ciencia”. Espasa, 2005.

[10] P. A. Tipler, G. Mosca. “Física para la ciencia y la tecnología. Física moderna: mecánica cuántica, relatividad y estructura de la materia”. Ed. Rerverté, 2015.

[11] A. Aspect. “Si Einstein lo hubiera sabido”. Debate, 2025.

[12] C. Wüthrich. “Can the world be shown to be indeterministic after all?”, en C. Beisbart, S. Hartman (eds.), “Probabilities in Physics”. Oxford University Press, 2011.

[13] E.T. Jaynes. “Probability in Quantum Theory”, Washington University, 1989

Descubre más desde El Blog de Alerce

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo