viernes, 22 de octubre de 2010

Popper y la Mecánica Cuántica

La mecánica cuántica ha supuesto una auténtica revolución en ciencia. Ningún autor interesado en las cuestiones científicas puede pasarla por alto a no ser que cierre sus ojos a la ciencia del siglo XX. Ese no es el caso de K.R. Popper, quien dedica el tercer volumen del Post Scriptum a la lógica de la investigación científica, amén de otros escritos. El filósofo que se enfrenta a la ciencia en general y particularmente a la mecánica cuántica demuestra gran valor y arrojo en su ánimo, pues se va a adentrar en un terreno muchas veces desconocido, y por ello, nunca exento de dificultades. No obstante eso no es óbice para la rigurosidad, todo lo contrario. Lo que ocurre es que, no pocas veces, el entendimiento confunde ciertos conceptos que dan lugar a interpretaciones erradas.

La epistemología de Popper, que en tantas ocasiones ha resultado no sólo pertinente, sino sumamente reveladora; en este caso le lleva a realizar una interpretación en términos propensivistas de la mecánica cuántica. Interpretación que juzgamos poco apropiada, al menos, a las ideas planteadas por la escuela de Copenhague, y claramente injusta con ella en sus consideraciones.

Evidentemente, tal afirmación así vertida carece de fundamento, siendo la justificación de ella el presente artículo. Para ello realizaremos un recorrido sucinto, pero crítico, a varias de las cuestiones centrales tanto del tercer Post Scriptum (Teoría cuántica y el cisma en física. Tecnos, Madrid, 1985.), como de la Escuela de Copenhague. El artículo pretende, pues, ofrecer una idea clara tanto de los argumentos de K.R. Popper, como de la interpretación ortodoxa de la mecánica cuántica; para poner de manifiesto, lo más objetivamente posible, que Popper no entiende o no quiere entender lo que desde la Escuela de Copenhague se dice.

El observador.

Dice Popper que la ciencia actual está en crisis por ser una ciencia madura y que por eso está en permanente cambio. Pero hay otro aspecto de esa crisis, esta vez nuevo, que afecta a la comprensión. Esta crisis se debe a dos cosas:

1. La intrusión del subjetivismo en la física.

2. La idea de que la mecánica cuántica ha alcanzado la verdad total.

Popper quiere hacer frente a estas dos ideas exorcizando de la mecánica cuántica el fantasma llamado conciencia u observador y mostrar que la mecánica cuántica es tan objetiva como la mecánica estadística clásica.

Para Popper la función del observador es contrastar la teoría, y piensa que en la interpretación de Copenhague no es así. Para ello resume un texto de Heisenberg de la siguiente manera: “la realidad objetiva se ha esfumado” y [que] la mecánica cuántica no representa partículas, sino más bien nuestro conocimiento, nuestra observación, nuestra conciencia de las partículas. [1] No dudamos que Heisenberg dijera eso más o menos, lo que es inadmisible es que Popper quiera hacer de Copenhague una interpretación mentalista como puede ser la de Wigner. Popper alega en la defensa de lo que él sabe que es indefendible que varios científicos importantes (Einstein, Planck, Von Laure, Schrödinger, De Broglie y Bohm entre otros) no están de acuerdo con Copenhague. Eso es cierto, pero todos esos físicos no piensan que Copenhague de una interpretación mentalista de la mecánica cuántica. Su rechazo surge por otros motivos. Ciertamente Heisenberg utiliza palabras como conciencia, subjetivo, etc., para hablar del observador. Ahora bien, al parecer, todos menos Popper sabemos que se refiere al problema de la medida; Popper, sin embargo, piensa que se está haciendo una interpretación mentalista. Tan malo es no expresarse correctamente, como no entender que el que habla se confunde. Popper continúa diciendo que los resultados de un aparato de medida, evidentemente tienen que ser interpretados a la luz de una teoría, pero de ninguna manera se interfiere con ellos. Popper no quiere entender lo que dicen los físicos de Copenhague.

Lo primero que debemos ver para entender lo que dice la Escuela de Copenhague es el postulado cuántico, éste se entiende de dos maneras: En sentido restringido tiene que ver con la indivisibilidad de los procesos atómicos como consecuencia de la aplicación del cuanto de acción. En sentido general supone el abandono del principio de continuidad, según el cual la naturaleza no da saltos. Esto conlleva modificar el concepto de observación.

La ciencia presuponía que los sistemas físicos evolucionan independientemente del observador. Se pensaba que el sujeto observador (y no la conciencia como dice Popper) podía dar razón de cómo el objeto es en sí mismo en el espacio y en el tiempo. La ciencia natural moderna es realista, acepta el principio de causalidad, y debido a ello el principio de determinación (que niega Popper). Para conocer la evolución de un sistema físico hay que presuponer que el sistema está cerrado, es decir, que la medida no afecta al estado del sistema. ¿Pero es así? En mecánica clásica sí, en cuántica no. Veamos los porqués:

· Mecánica clásica:

1. Toda intervención observacional se considera infinitamente reductible (lim→0). No hay límite inferior de la cantidad de perturbación obsevacional.

2. Toda magnitud es calculable, podemos restar la perturbación del resultado. Hay separación entre objeto y sujeto.

3. La perturbación es despreciable ya que se trabaja con objetos grandes.

· Mecánica cuántica (el postulado cuántico niega el principio de continuidad):

1. Hay un valor mínimo para la interacción entre instrumentos y propiedades (el límite no tiende a cero). No es infinitamente reductible porque es discreta.

2. No es calculable y deducible del resultado. No puedo conocerlo antes de la medición. El objeto y el sujeto forman un todo indivisible.

3. Al tratarse de órdenes de magnitudes equiparables, la perturbación no es despreciable.

Según lo visto, se plantea lo que sería el centro del debate Einstein-Bohr:

1. Aun cuando hubiera una realidad que la observación perturbara, hay un objeto anterior a los sujetos y a sus observaciones.

2. Por economía lógica se plantea que: o hay un planteamiento físico que nos permite acceder a los objetos con independencia de la medida, o lo que medimos es lo que es. Como dijo Berkeley el ser es el ser-percibido.

El planteamiento (2) es criticado por Einstein y aceptado por la escuela de Copenhague. Toda descripción objetiva debe incluir la referencia a las condiciones mismas de la observación. Éstas son puestas en juego por la voluntad de los investigadores. Esto lleva a revisar el concepto de objetividad. Bohr dice que la interacción fija un límite absoluto. Todo esto plantea un problema epistemológico de primera magnitud. ¿Sigue valiendo el aparato categorial clásico? ¿Hay que hacer un nuevo lenguaje conceptual para la física? Heisenberg considerará que hay que fijar un límite que restrinja nuestras posibilidades de acceso al conocimiento del estado del sistema con independencia de la medida (principio de indeterminación). Hemos de reconsiderar palabras como: sistema, estado, observable. ¿Cómo definir un objeto (sistema físico) sin propiedades observables? ¿Cómo definir una substancia sin accidentes?

Si queremos determinar el estado de un sistema tenemos que conocer su estado en un momento y a través del tiempo, en evolución. Es decir, espacio-temporalmente. Eso requiere establecer, al menos, un par de observables: uno geométrico y otro dinámico.

q (posición)

p=m·v (momento), o bien:

t-E (tiempo y energía)

Estas magnitudes tienen que cumplir una serie de propiedades, no pueden depender del contexto:

1. Son poseídas por el sistema en todo tiempo.

2. Lo son de cada sistema individual.

3. Son naturalmente compatibles.

4. El sistema tiene que tener un valor definido (aunque no lo conozcamos).



Instrumentalismo.

Popper tiene la firme convicción de que en ciencia se buscan teorías verdaderas, las teorías no son meros instrumentos. La interpretación de Copenhague dice que sólo podemos comprender la imagen clásica del mundo, no la imagen cuántica. Eso le parece perverso a Popper. Suponemos que le parece perverso porque entraña una solución instrumentalista ya que con relación a esto dice: “Y la teoría no es simplemente un ‘instrumento’ para él [el científico], es más: él está interesado en su verdad o su aproximación a la verdad” [2] . Sin embargo, Copenhague no es instrumentalista, si así fuera no se preocuparía de buscar interpretaciones. Copenhague se ve obligado a adoptar una posición instrumentalista ante la imposibilidad de ofrecer una interpretación conceptual satisfactoria del formalismo matemático.

Pero Popper tampoco está satisfecho en este punto con Copenhague (y especialmente con Bohr), ya que considera que se puede tener una teoría sin sistema conceptual y no por ello adoptar una posición instrumentalista. Es posible que se pueda manifestar esa postura, pero, ¿cómo sabemos que esa teoría está más cerca de la verdad? Popper nos dice que “entendemos una teoría si entendemos el problema para cuya solución se ha concebido y si entendemos la forma en que lo resuelve mejor, o peor, que sus competidoras” [3] . Ahora bien, ¿no es eso instrumentalismo?

Popper piensa que la conceptualización de una teoría no afecta al realismo de ésta. Con saber qué problemas trata de resolver o por qué los resuelve mejor, o peor que las teorías rivales, es suficiente. Pero ¿cómo se sabe eso sin conceptos? Popper quiere atacar a Copenhague en todo. Dice que no hay que tener imágenes o conceptos porque Bohr habla de “imagen corpuscular” e “imagen ondulatoria”. Pero cuando se dice que esta teoría no se puede entender conceptualmente tacha esa postura de instrumentalista.

La teoría cuántica como teoría estadística.

Popper entiende que la teoría cuántica resuelve problemas estadísticos. Esta idea le sirve para sus propósitos, sin embargo no es correcta desde la perspectiva de la escuela de Copenhague. La teoría cuántica resuelve estadísticamente problemas no estadísticos, si por problemas estadísticos entendemos los problemas derivados de conjuntos estadísticos y no de sistemas individuales. Pero es correcta desde una teoría de variables ocultas.

Popper también dice que la teoría cuántica es, esencialmente, una teoría estadística. Esta afirmación es correcta si entendemos el término estadística en un sentido no clásico, puesto que como acabamos de decir, la teoría cuántica requiere aplicar la estadística a un problema concreto como es la superposición de estados en sistemas individuales. No tiene nada que ver, pues, con las teorías estadísticas clásicas con las que Popper quiere compararla. Es cierto, no obstante, que las leyes de la mecánica cuántica son por principio de índole estadística.

Popper cree que Copenhague tiene que explicar el carácter probabilista de la teoría cuántica acudiendo a nuestra (supuestamente necesaria) carencia de conocimiento, en lugar de hacerlo por el carácter estadístico de los problemas. Eso es lo que ha llevado a la intrusión del observador, o del sujeto, en la teoría cuántica. Ahora bien, cualquier persona que comparta esta idea es que no ha entendido o no quiere entender lo que dice la interpretación de Copenhague. La interpretación ortodoxa en ningún momento dice que tengamos que explicar el carácter probabilista de la teoría acudiendo a nuestra carencia de conocimiento. Bohr dice expresamente que el sistema no tiene p y q con valor bien definido al mismo tiempo y con independencia de la observación. Esto se debe a que van a venir dados por operadores no-conmutativos. Es decir, viene dado por la propia teoría, no porque no seamos capaces de observarlos simultáneamente. Volveremos a este tema al hablar de la complementariedad.

Pero Popper, lejos de entender eso, dice que como consecuencia de todo esto nos enfrentamos al “gran embrollo cuántico”. El gran embrollo cuántico, dice Popper, viene porque la teoría cuántica es una teoría probabilística que confunde una función que caracteriza a una población de sucesos con una propiedad física de los elementos de la población. Es decir, el problema según Popper viene de confundir los resultados probabilísticos con cada objeto. Por ejemplo, si tenemos una función de onda que representa dos estados al 50%, pensar que cada elemento de, digamos 100 elementos, está individualmente al 50%, es decir, en dos estados simultáneos superpuestos y no que tengo 50 objetos en un estado y 50 en otro. Popper piensa que los que hablan de dualidad onda corpúsculo o de superposición de estados caen en este error.

El gran embrollo cuántico, como lo llama Popper, no viene de la confusión a la que se refiere. Los físicos de Copenhague saben perfectamente que se tienen que referir a sistemas individuales y no a conjuntos estadísticos, ya que no creen en la existencia de variables ocultas. Es un efecto de la teoría, no un error o una decisión arbitraria.

Otro argumento, usado por Popper a favor de su lectura estadística, es que las relaciones de incertidumbre se refieren a cálculos estadísticos, no a la precisión de nuestras medidas. Ahora bien, es arriesgado lanzar una tesis como esta, puesto que las relaciones de incertidumbre son una ley de la naturaleza, no una hipótesis ad hoc. Por consiguiente, aunque existan variables ocultas, éstas deben someterse a dichas relaciones de incertidumbre.

Interpretación del cálculo de probabilidades. (La interpretación propensivista).

Para Popper la interpretación del formalismo de la mecánica cuántica está estrechamente relacionada con la interpretación del cálculo de probabilidades. Por cálculo de probabilidades, entiende Popper un cálculo formal que contiene leyes tales como: 0 ≤ p(a,b) ≤ 1. Donde p(a,b) queda abierto a interpretación. Las interpretaciones se dividen como sigue:

· Subjetivas: La teoría subjetiva, bajo el nombre de “probabilidad bayesiana”, es amplia e incondicionalmente aceptada. Para Popper es un disparate lógico.

· Objetivas:

1. Clásica (De Moivre, Laplace).

Objeciones:

a) No es aplicable a casos desigualmente posibles.

b) Von Mises puso de manifiesto que no hay puente lógico o matemático (como se supuso que era la ley de los grandes números), que lleve de premisas sobre proobabilidades a conclusiones estadísticas sobre frecuencias relativas.

2. Frecuencial o estadística (John Venn, George Helm, Von Mises). Bien hecha.

3. Propensivista (Popper). Según Popper es la mejor, puesto que supone una evolución de la teoría clásica. Consta de:

· Enunciados de probabilidad: Frecuencias en sucesiones virtuales (finitas).

· Enunciados estadísticos: Frecuencias en sucesiones reales.

· Pesos: Propensión (cargar el dado). Lo mide la frecuencia relativa (virtual) con la que se produce el suceso en una sucesión (virtual y virtualmente infinita) de repeticiones. Se puede contrastar con una secuencia real de repeticiones.

Popper quiere señalar que la probabilidad es una cualidad de un sistema y no es, por tanto, atribuible a uno de los elementos del mismo. De ahí que todo sistema de probabilidades pueda alterarse por un cambio en sus condiciones. Si inclino el billar, la bola tiene propensión a ir hacia un sitio, pero la bola no “sabe” nada, lo “sabe” el sistema en su conjunto. Es el sistema el que varía las probabilidades sin necesidad de cambiar la estructura del objeto de estudio.

Popper explica con un ejemplo la reducción del paquete de ondas: Tenemos un fotón y un espejo semitransparente. La probabilidad de que pase o refleje es ½ en ambos casos. Mientras no midamos tenemos ½ y ½. Al medir se reduce y pasa a ser 1 y 0 de manera instantánea. Pero esa forma de hablar es equívoca. Según Popper no es la medición la que reduce el paquete de ondas, sino que se trata de dos casos diferentes: Por un lado una probabilidad ½ y ½, y por otro lado la contrastación de un hecho acaecido.

Según esto no se ejerce acción alguna sobre el paquete de ondas p(a,b), ni acción a distancia ni ninguna otra. Porque p(a,b) es la propensión del estado del fotón en relación con las condiciones experimentales originales. La reducción del paquete de ondas no tiene que ver con la teoría cuántica, es un rasgo trivial de la teoría de la probabilidad.

No dudamos que la interpretación propensivista del cálculo de probabilidades sea ingeniosa y resuelva problemas estadísticos mejor que ninguna otra hasta el momento. Pero, a no ser que aceptemos la existencia de variables ocultas, no sirve para la mecánica cuántica. En la interpretación de Copenhague se habla de sistemas individuales que al ser observados colapsan la función de onda. Dependiendo del tipo de observación que se haga, el electrón se comportará como onda o como partícula y en ambos casos se trata de un solo cuanto. La teoría propensivista no contempla dicha posibilidad, porque interpreta una onda como un conjunto estadístico. Desde la perspectiva ortodoxa es radicalmente falso que la reducción del paquete de ondas no tenga que ver con la teoría cuántica, aunque es cierto que para la teoría clásica de la probabilidad, los resultados de la medida nos sacan del estado de indefinición previo a la medida, como es normal, siendo entonces un rasgo trivial de la teoría.

Popper está convencido de que su interpretación propensivista resuelve el problema de la relación entre las partículas y sus estadísticas y, por tanto, el de la relación entre las partículas y las ondas. Las propensiones no son propiedades de las partículas, pero sí lo son de las disposiciones experimentales repetibles. Esa relatividad respecto a la especificación es un rasgo permanente de toda experimentación. Por lo dicho hasta ahora, es cierto que la interpretación propensivista resuelve el problema entre las partículas y sus estadísticas, pero no resuelve, de ninguna manera, la relación entre partículas y ondas. Éste no es un problema estadístico, sino físico. Es un problema directamente relacionado con la cuantización de la luz que realizó Einstein para explicar el efecto fotoeléctrico. Popper explica los efectos ondulatorios como conjuntos de partículas susceptibles de ser tratados estadísticamente, de lo que Popper no parece darse cuenta es de que, al cuantizar la materia, se introduce un principio de discontinuidad regido por la constante de Planck, que es el que da origen a la mecánica cuántica y a lo que él denomina “el gran embrollo cuántico”.

Dualidad onda-partícula.

Popper cree que la dualidad onda-partícula es una idea equivocada. Tal equívoco se debe, en parte, según Popper, a las esperanzas que crearon De Broglie y Schrödinger de formular una teoría ondulatoria de la estructura de las partículas. Ante esto cabe decir que la introducción del postulado cuántico es la responsable de la dualidad onda-corpúsculo. Esto es así, no porque la materia esté compuesta de átomos (en el sentido griego), sino porque los procesos son discretos, es decir, no-continuos. Pero por otro lado, que una partícula esté en dos sitios a la vez significa que se comporta como una onda, cosa que los físicos han corroborado empíricamente.

Recordemos el experimento de la doble rendija puesto que es fundamental para la teoría cuántica. Consiste en bombardear con electrones una pantalla provista de dos rendijas. Los electrones se lanzan de uno en uno, sin embargo interfieren consigo mismos. Se comportan como si de una onda se tratase.

Se trata de un experimento crucial puesto que demuestra que el sistema se encuentra en una superposición tanto de estados como de trayectorias. Cuando estos estados se actualizan se dice que se ha producido el colapso de la función de onda. Es el contexto experimental el que decide el resultado. El electrón se halla en una superposición de estados cuánticos representable como la combinación lineal de vectores en un espacio de Hilbert. La función de onda no dice el valor que encontraremos al medir. Esta actualización de la potencia no se deduce causalmente (es un caso especial de indeterminación, carece de razón suficiente). El valor actual es consecuencia de la medida, no preexiste a ella. La actualización implica el colapso de la función de onda.

Relaciones de incertidumbre.

Según Popper las relaciones de incertidumbre se refieren a partículas que tienen p y q bien definidos. Es posible conocer p y q con una mayor precisión de lo que permite la fórmula: ΔE Δt = h. Nosotros creemos que es cuestionable que p y q tengan o no valores bien definidos. En todo caso se puede adoptar un planteamiento gnoseológico como el de Einstein o un planteamiento ontológico como el de Bohr. Sería posible conocer p y q con una mayor precisión de lo que permiten las relaciones de incertidumbre si el E-P-R funcionara. Pero como existe un principio de no-localidad (como prueban los experimentos de Bell y Aspect), no tiene sentido plantear esta cuestión. Sí lo tenía cuando Einstein planteó el E-P-R en 1935. Sobre este tema diremos algo más al final del presente trabajo.

Popper argumenta que es posible medir sin estar sujeto a las relaciones de incertidumbre, puesto que Heisenberg dijo que esas mediciones retrodictivas eran posibles. Lo que Heisemberg no vio, continúa diciendo Popper, es que cumplían una función en la teoría, que eran necesarias para contrastarla (y que ellas mismas podían ser contrastadas a su vez). Heisenberg decía que ese cálculo concierne a la historia pasada del electrón y es cuestión de creencia personal el atribuirle o no realidad física. Popper dice, claro está, que no es cuestión de creencia, sino que son necesariamente reales para poder contrastar la teoría. Se puede contestar a Popper con las propias palabras de Heisenberg: “Es una cuestión de creencia personal si a tal cálculo que concierne a la historia pasada del electrón puede atribuírsele alguna realidad física o no”. [4] Y es que desde el momento en el que se cuantiza el electrón se quiebra el principio de causalidad porque ya no hay manera de seguirle la pista al electrón. El electrón aparece y desaparece, da saltos, se comporta de manera discontinua; por eso ya no se puede hablar, en rigor, de trayectoria. Atribuir realidad física a la historia pasada del electrón, no siendo éste espacio-temporal, es cuando menos, curioso.

Claro está que Popper piensa que el electrón es espacio-temporal, pero en ese caso no debería recurrir a Heisenberg para fundamentar su argumento, puesto que Heisenberg introdujo las relaciones de incertidumbre no como una hipótesis ad hoc, sino como un requisito de la teoría. Veamos someramente como sucedió.

En 1925 Heisenberg renunció a las magnitudes, en 1927 reconsidera su posición influido por Bohr y por Einstein. Diseñó un contexto experimental en el que encuentra el modo formal, pero restringido a las magnitudes donde funciona la constante de Planck, es decir, en lo muy pequeño. Concluye que para conocer q ilumino con λ corta, esto implica una ט alta. E=hט→ muy energético, indetermino p. Para conocer p ilumino con λ larga, esto implica una ט baja, con lo cual no veo q. Además, como p cambia de manera discreta, pierdo toda la información, lo indetermino. ΔqּΔp≈h (si ΔqּΔp =0 se podría conocer con absoluta precisión). Veamos todo esto mediante las palabras del propio Heisenberg al explicar el experimento mental de rayos γ:

“Iluminemos un electrón y observémoslo a través de un microscopio. La precisión que se puede obtener en la medida de la posición depende de la longitud de onda de la luz. Sin embargo, en principio, podría construirse un microscopio, por ejemplo de rayos γ, y con él obtener la determinación de la posición con tanta precisión como se desee. […] En el instante en el que se determina la posición —o sea, en el instante en el que el fotón es desviado por el electrón— el electrón experimenta un cambio discontinuo de su momento. Este cambio es tanto mayor cuanto menor es la longitud de onda utilizada, es decir, cuanto más exactamente se determina la posición. En el instante en el que la posición del electrón es conocida, su momento sólo puede ser conocido hasta la magnitud que corresponde al mencionado cambio discontinuo. Así, cuanto más precisamente se determina la posición, con menor precisión se conoce el momento, e inversamente. […]

Sea q1 la precisión con la que se conoce el valor q (q1 es pues el valor error medio de q), o sea, aquí la longitud de onda de la luz. Sea p1 la precisión con la que se puede determinar el valor de p, o sea, aquí el cambio discontinuo de p en el efecto Compton [5] . Entonces, conforme a las leyes elementales del efecto Compton q1 y p1 están en la relación p1 q1 ≥ h.” [6]

Estas magnitudes vienen dadas por operadores (vectores abstractos en espacios de n dimensiones). Se rigen por un álgebra no conmutativa, no son compatibles:

· Si fuera así: qp-pq=0 consideraríamos que el sistema tiene p y q o q y p.

· Pero al ser de esta otra manera: qp-pq≠0 no puedo atribuir al sistema simultáneamente ambos valores.

Violamos la propiedad (3) de los pares conjugados. No poseemos, pues, la información necesaria para conocer el estado del sistema. Logramos recuperar las nociones espacio-temporales, pero a un alto precio, puesto que no podemos atribuir posición ni velocidad bien definida a un móvil en todo tiempo. Por tanto, si no puedo conocer p y q simultáneamente es que el sistema no tiene p y q simultáneamente. El sistema está en estado de indefinición cuántica hasta que lo observo.

Ante esto hay que asumir una posición objetiva (ontológica) o bien una posición subjetiva (epistemológica). Si adoptamos la primera quebramos el principio de causalidad, puesto que el sistema no tiene valores bien definidos a la vez. La segunda alternativa, sin embargo, apela a nuestro conocimiento del sistema.

Pero la cosa no queda ahí porque las relaciones de incertidumbre jugarán también un importante papel en el marco conceptual de la complementariedad de Bohr.

El marco conceptual de la complementariedad.

Ante la incompatibilidad entre las magnitudes conjugadas y la exclusión entre el modelo corpuscular y el modelo ondulatorio, Bohr cambia el marco conceptual de la causalidad por el de la complementariedad. Este marco propone asumir las incompatibilidades de la mecánica cuántica y los términos clásicos. Veamos su posible decálogo:

1. Toda descripción cuántica completa debe incluir lo contradictorio.

2. Es posible una descripción cuántica completa que englobe observables compatibles y no compatibles.

3. Los conceptos clásicos se pueden mantener modificando sus relaciones.

4. El marco conceptual de la causalidad tendrá que ser sustituido.

5. Un sistema físico vendrá dado por:

· Un conjunto de observables que conmutan entre sí.

· Un conjunto de observables que no conmutan con los anteriores.

6. Para no predicar de S, P y ¬P al mismo tiempo (tercio excluso) tenemos que establecer un límite: Relaciones de incertidumbre [7] .

7. S no es un objeto clásico, con anterioridad a la observación está en un estado de indefinición cuántica.

8. S antes de la observación no es ni onda ni partícula, es una combinación lineal de ambas.

9. Hay que renunciar a la noción de objeto y hablar de fenómenos.

10. S es un fenómeno que incluye su contexto experimental.

Born puso el peso en la noción de partícula, De Broglie y Schrödinger lo explicaron mediante la noción de onda. Bohr quiso integrar ambos modelos, dijo que ni el formalismo matemático, ni la naturaleza, violan el principio de no contradicción. Los experimentos nos dan información parcial que se complementa.

El alcance de este planteamiento es ontológico, no sólo epistemológico. Janner dijo que para dar cuenta de un sistema tenemos que usar descripciones complementarias, para ello se han de satisfacer estas condiciones:

1. La teoría contiene, al menos, dos descripciones de un mismo objeto de estudio.

2. Ambas descripciones se refieren al mismo universo de discurso.

3. Ninguna de las dos descripciones da cuenta, de modo exhaustivo, de todos los fenómenos. Son sólo descripciones parciales del estado del sistema.

4. Ambas descripciones son mutuamente excluyentes. Su combinación en una descripción única conduciría a contradicciones lógicas (lo complementario no es compatible).

Hay que asumir la existencia de limitaciones teóricas absolutas al uso de objetos clásicos cuando se aplican a objetos regidos por el cuanto de acción de Planck. Las relaciones de incertidumbre establecen el valor de esa limitación. Esa limitación teórica absoluta, puede cuantificarse en el valor de la constante de Planck. Las relaciones de incertidumbre son vistas como parte de un programa más amplio. Pueden ser consideradas como la expresión matemática que nos permite definir el ámbito al que se pueden aplicar nociones complementarias (excluyentes) de modo simultáneo. La expresión matemática son las relaciones de incertidumbre. Éstas no pueden ser falsadas de modo independiente por ninguna situación experimental concreta. Ningún experimento puede exhibir aspectos complementarios de los fenómenos. Si se falsaran, se falsaría toda la teoría en su conjunto.

Las consecuencias de todo esto pueden dividirse en: Lógicas y ontológicas:

· Consecuencias lógicas.

Weizsäcker señala la negación del principio lógico del tercio excluso. Todo enunciado debería ser verdadero o falso, o dicho de otra forma, ningún objeto puede ser P y ¬P. Sin embargo, cuando decimos que la proposición: “Esta partícula tiene la posición q” es verdadera, no podemos predicar ni la verdad ni la falsedad de la proposición: “Esta partícula tiene el momento p”.

· Consecuencias ontológicas.

Los términos no compatibles no pueden denotar propiedades que se den simultáneamente en el sistema. Si el sistema tiene bien definida una de las dos propiedades, no tiene la otra. No son propiedades del sistema. ¿De qué son propiedades? Bohr dirá que del sistema y de todo su contexto experimental. El objeto como substancia se diluye. Ahora las propiedades son fruto del proceso de medida, o tiene p, o tiene q. Las operaciones forman parte del sistema, la segunda proposición está en un estado de indefinición cuántica. En un instante un sistema no permite que de él se afirme un estado completo porque no puede tener todos sus parámetros bien definidos. El estado de un sistema no medido no es un estado actual sino potencial, es una suma de estados potenciales superpuestos a los que se les da un valor de probabilidad.

Debido a todo esto el determinismo se abandona. El uso o la noción de probabilidad no va a ser entendido como ignorancia ante el enorme número de variables para nuestra mente finita (lo contrario de lo que decía Laplace). Intrínsecamente p y q no están definidos a la vez. El sistema sólo tiene valor definido por la medida y el no medido tiene todos los valores a la vez con probabilidad diferente.

Indeterminismo.

Es famosa la idea popperiana que dice que tanto la física clásica como la cuántica son indeterministas.

Popper insiste en que las propensiones cuyas amplitudes puedan interferir son reales, no un simple artificio matemático. Aunque sus “imágenes” matemáticas puedan tener la forma de “ondas” sólo en el “espacio de configuración”, como propensiones son físicas y reales, con total independencia de la cuestión de si pueden o no ser representadas por una imagen ondulatoria o por una función con forma de onda o si pueden ser representadas en absoluto por alguna imagen o forma. La imagen ondulatoria puede, pues, tener una significación matemática solamente; pero eso no ocurre con las leyes de la superposición que expresan una dependencia probabilística real.

Los argumentos a favor del indeterminismo en lo referente a su parte clásica no serán tratados aquí. Tan sólo nos limitaremos a decir que nos recuerdan mucho a las ideas formuladas por Jan Lukasiewicz en el escrito titulado O Determinizmie publicado por primera vez en Z zagadnieh logiki i filozofii. Ed. por J. Slupecki, Varsovia, 1961.

En lo que se refiere a la mecánica cuántica estamos en total acuerdo, como se desprende del apartado anterior. Si tomamos ontológicamente el principio de Heisenberg, no nos queda más remedio que renunciar al concepto de causalidad de Laplace, aunque no a toda causalidad. Einstein consideraba que la incertidumbre, asociada a la observación, no contradice la existencia de leyes que gobiernen el comportamiento de las partículas, ni la capacidad de los científicos para descubrir dichas leyes, cosa que también piensa Popper.

E-P-R.

Las letras E-P-R hacen referencia al experimento mental realizado por A. Einstein, B. Podolsky y N. Rosen. Nace de la necesidad de conseguir que tenga sentido físico referirse a p y q simultáneamente a pesar de las relaciones de Heisenberg. Einstein no encuentra la solución para una sola partícula, pero creyó encontrarla para dos subsistemas escindidos de un mismo sistema. Este experimento conducirá directamente a negar el principio de localidad. Veámoslo paso por paso:

· Tenemos un sistema escindido en dos subsistemas I y II.

· Conocemos la ƒΨ (función de onda) del sistema antes de escindirse.

· Medimos en I y fijamos q1 indeterminado p1.

· Como conocemos la ƒΨ del sistema antes de escindirse, deducimos el valor de q2.

· Repetimos la operación para p.

· Al no haber observado el sistema II, tengo p2 y q2 con valores bien definidos simultáneamente.

· p2 y q2 serían elementos de realidad, luego, la teoría es correcta pero no es completa.

Tendríamos variables ocultas. Tenemos dos ƒΨ diferentes, eso quiere decir que la ƒΨ no es una descripción completa de la situación real, por eso se da la probabilidad.

Ahora bien, estamos suponiendo que funciona el principio de localidad que se da en el mundo clásico. Sin embargo Bohr advierte que el postulado cuántico quiebra el principio de continuidad. Los sistemas cambian de estado de modo discontinuo. La división entre sujeto y aparato no puede ser establecida. Entre objeto y aparato se da una indivisibilidad fundamental, aun cuando el objeto esté separado forma parte del sistema objeto-aparato (principio de no-localidad). Este sorprendente principio fue probado experimentalmente por John Bell en 1964 y completado por Alain Aspect en 1980.

Conclusión.

Según lo dicho, Popper en su interpretación en términos propensivistas de la mecánica cuántica insiste en una idea errónea. Es lícito, claro está, elaborar una nueva interpretación de la mecánica cuántica, pero siempre que no contradiga la contrastación empírica. El origen de este error viene, en gran medida, de que Popper pensara que los experimentos de Aspect no habían sido interpretados correctamente. Además Popper tenía claro que a pesar de que dichos experimentos hubieran sido bien interpretados, eso en nada afectaría al realismo. En eso estamos de acuerdo, pero Popper pasa por alto que los experimentos de Aspect invalidan el argumento del E-P-R no pudiéndose conocer simultáneamente el par de magnitudes conjugadas p y q, corroborando las relaciones de incertidumbre como ley de la naturaleza. Las tesis popperianas solamente pueden ser válidas en el caso de que existan variables ocultas, es decir, que en el mundo de las partículas subatómicas existan objetos o parámetros que todavía no se han descubierto.

Popper da una serie de razones para una interpretación realista de la mecánica cuántica. Nosotros, en este artículo, nos hemos limitado a someter a crítica algunas de las afirmaciones que Popper atribuye a la interpretación de Copenhague. El problema aquí planteado no es, pues, que sus argumentos vayan expresamente en contra de la interpretación de Copenhague, sino que algunos de ellos atribuyan a Copenhague cosas que nunca fueron dichas.

Bibliografía.

Bohr, N., La teoría atómica y la mecánica. (La teoría cuántica y la constitución de los átomos). En: La teoría atómica y la descripción de la naturaleza. Alianza Universidad, Madrid, 1988.

Heisenberg, W., The physical Principles of the Quantum Theory. Dover, Nueva York, 1930.

—, The Physical Content of Quantun Kinematics and Mechanics (1927). En: J.A. Wheeler — M.Z. Zureck (eds.): Quantum Theory and Measurement. Princeton Univ. Press, Princeton, 1983.

Popper, K.R., Post Scriptum a la lógica de la investigación científica (volumen III). Teoría cuántica y el cisma en física. Tecnos, Madrid, 1985.

—, Un mundo de propensiones. Tecnos, Madrid, 1996.

—, El universo abierto. Un argumento a favor del indeterminismo. Tecnos, Madrid, 1996.

—, Sociedad abierta, universo abierto. Conversación con Franz Kreuzer. Tecnos, Madrid, 1997.

—, Conocimiento objetivo. Tecnos, Madrid, reimpresión 2001.




[*] Juan Cano de Pablo es licenciado en Filosofía por la UCM; actualmente está doctorándose.

[1] Citado en: K.R. Popper. Teoría cuántica y el cisma en física. Tecnos, Madrid, 1985, p. 57.

[2] Ibíd., p. 65.

[3] Ibíd., p. 66.

[4] W. Heisenberg. The physical Principles of the Quantum Theory. Dover, Nueva York, 1930, p 26.

[5] Nota nuestra: El efecto Compton consiste en la difusión de fotones debida a las interacciones entre la radiación electromagnética y la materia. Para simplificar podemos entenderlo como aquel efecto fotoeléctrico en el que la energía del fotón queda totalmente absorbida.

[6] W. Heisenberg: The Physical Content of Quantun Kinematics and Mechanics (1927). En: J.A. Wheeler — M.Z. Zureck (eds.): Quantum Theory and Measurement. Princeton Univ. Press, Princeton, 1983. (pp. 64-65).

[7] Las relaciones de incertidumbre son, en este contexto, la expresión matemática que define el ámbito al que se aplican las nociones complementarias. Pasan a ser una ley general de la naturaleza.