Hace cosa de un año me preguntaron cuáles eran, a mi criterio, las ideas erróneas (en el sentido de que son falsas o no están establecidas) que tenía más riesgo de adquirir un aficionado a la física teórica mediante libros de divulgación, e hice el siguiente listado:
- A: No es posible definir un sistema de referencia con el que puedan compararse en perfecto acuerdo todos los observadores.
- B: El universo comenzó siendo un punto y ha ido aumentando su volumen desde entonces.
- C: La naturaleza es aleatoria.
- D: La realidad no existe.
- E: Todo aquello que entra en un agujero negro lo hace sin dejar rastro en el exterior.
Si tu aproximación a la física teórica ha sido estándar, es decir, has aprendido al respecto usando los libros habituales, leyendo a los divulgadores más frecuentes, o yendo a clases normales y corrientes de física, seguramente hayas escuchado todo esto. Incluso es posible que pienses que me puedes explicar que alguna o varias de esas frases no deberían estar ahí. Digo más: es posible que ver en ese listado alguna cosa te enfade. Muchas de estas aseveraciones acientíficas se encuentran, de hecho, en un gran referente totalmente desactualizado como es el libro «Historia del tiempo» de Stephen Hawking.
Pero veamos por qué me puedo permitir (y no solo yo lo hago) considerar acientífico todo lo anterior, sin confundir acientífico con falso. Una aseveración acientífica es aquella que no puedes hacer respaldándote en experimentos cuando la dices. Algo falso o anticientífico iría directamente en contra de lo que los experimentos afirmen.
La afirmación A es un reflejo del desconocimiento generalizado que hay, valga la redundancia, acerca de la teoría general de la relatividad, frente a la teoría especial. La relatividad especial de Einstein desmintió la existencia de un éter electromagnético absoluto, indicando que no había ningún sistema de referencia privilegiado para las ondas electromagnéticas. Esto lo dijo en 1905. Después surgió la paradoja de los gemelos en 1907, la cual ponía de manifiesto que si no había un sistema de referencia absoluto era imposible saber qué cuerpos estaban quietos o en movimiento de cara a aplicar los efectos relativistas y así surgió la relatividad general con su éter gravitatorio absoluto (extra: muchos físicos piensan que la paradoja hace referencia a la cuestión de que el tiempo se dilate y un gemelo viva más, cuando no van por ahí los tiros). Decir que la relatividad general involucra un éter gravitatorio y un sistema de referencia absoluto no es algo que diga yo ahora, no hace falta que os fiéis de mí. Podéis leer al propio Einstein en su artículo «Éter y relatividad» aclarando esta cuestión. Traduzco el último párrafo:
«Recapitulando, podríamos decir que de acuerdo con la teoría general de la relatividad el espacio posee propiedades físicas: en este sentido, por tanto, existe un éter. De acuerdo con la relatividad general, el espacio sin éter es impensable: en dicho espacio no habría propagación de luz, pero tampoco estándares de espacio y tiempo (reglas y relojes para medir), ni tan siquiera intervalos espacio-temporales en sentido físico.»
Que montones de libros, vídeos y profesores digan que no existe un sistema de referencia absoluto desde Einstein solo evidencia, insisto, la profunda ignorancia que hay, incluso entre físicos, de la relatividad general. No en vano suele ser una asignatura optativa y hace que los estudiantes se pierdan en los conceptos, conformándose con aprender a seguir las operaciones. Sobre esto hablé en detalle en varias ocasiones, pero recomiendo especialmente mi charla «Energía = curvatura. La geometría del espacio-tiempo» o mi entrada «Las dos preguntas con las que hacer pensar a quiénes creen saber de relatividad«.
La afirmación B se plantea desde dos frentes diferentes. El primero de ellos, una profunda ignorancia de los conceptos cosmológicos según la cual el universo cada vez va ganando terreno a la nada, lo cual le dotaría de frontera, en el sentido de que habría un punto donde el universo se acaba y más allá se acabó. Esto no es todo lo poco habitual que debería ser encontrárselo en divulgación. El segundo frente, más elaborado, simplemente da por hecho que el universo tiene curvatura positiva tal y como muchos autores creen. Sin embargo, el universo con curvatura positiva solo es una opción. No somos pocos los que creemos en el universo sin curvatura infinito en espacio de principio a fin. Cada vez que alguien os diga que sabemos que el universo es finito o infinito os está mintiendo, y normalmente lo hará por ignorancia. No lo sabemos. El debate sobre el tamaño del universo sigue abierto, pero los defensores de una u otra postura frecuentemente hacen como si el enfoque contrario no existiera.
La afirmación E fue desmentida en los años 90 por Gerardus ‘t Hooft y Leonard Susskind, y el propio Hawking reconoció en 2004 que estaba equivocado y los agujeros negros no destrozaban la información que entraba en ellos sino que solo la revolvían mucho y la dejaban casi irreconocible. De esta retractación apenas se habla y eso es grave, porque se sigue escuchando que el agujero negro hawkingniano, el destructor de información, es real y no una idea efímera que tuvo sus veinte años de auge entre los setenta y los noventa pero ha sido abandonada. El desconocimiento de esta cuestión es tal que en la película biográfica del susodicho, «La teoría del todo», afirman tajantemente esa idea sin desmentirla, dedicando su escena a la frase «Dios no solo juega a los dados, sino que a veces los echa donde no pueden ser vistos». Sobre este tema hablé extensamente en mi ponencia «¿Qué demonios pasa últimamente con los agujeros negros?«.
Sobre las afirmaciones C y D, las restantes, hablaré en esta entrada, aunque en realidad van juntas y muy de la mano con la A y la E.
Breve resumen del debate determinista.
Sobre determinismo he hablado con profundo detalle en bastantes ocasiones y no pretendo extenderme aquí tanto. Caben destacar mi ponencia «¿Somos libres? Historia del determinismo científico» y mis entradas «Determinismo clásico y mecánica cuántica: interpretación de Copenhague, paradoja de Einstein-Podolsky-Rosen y desigualdades de Bell» y «El principio holográfico: el más bello avance hacia la gravedad cuántica«.
El resumen del asunto es el siguiente: o todo lo que sucede es predecible mediante las ecuaciones de la física (existe una teoría del todo que puede predecir absolutamente cualquier cosa) o no lo es. Quienes creemos en lo primero somos deterministas y quienes no son estocásticos/pro-aleatoriedad/no deterministas.
Entre los siglos XVII y XIX la física era determinista de base. Con la llegada de la mecánica cuántica empezó a ganar fuerza el pensamiento no determinista, y desde los años 20 hasta ¿el presente? se defiende más la idea de que la naturaleza es aleatoria y no se puede predecir.
¿Cómo hemos llegado a esto?
En los años veinte, mientras la mecánica cuántica empezaba a hacerse su hueco en el gueto, Werner Heisenberg demostró que con ella había magnitudes que eran imposibles de medir simultáneamente, como tiempo y energía, posición y velocidad (me niego a decir «momento» en textos divulgativos sin explicación previa) o el giro simultáneo con respecto a diversos ejes. Si conocías el valor de una de dichas magnitudes con exactitud, no podías tener ni idea de la otra. Si habías medido muy bien una, medirías muy mal la otra, y así.
Mientras tanto, siendo determinista, Erwin Schrödinger demostró que todos los fenómenos cuánticos se podían explicar «como si» no hubiese partículas existiendo a tiempo completo, sino ondas de probabilidad propagándose por el espacio. Cuando interactuamos con una partícula, la onda de probabilidad da un resultado aleatorio, y después se vuelve a convertir en una onda de probabilidad de nuevo. A esto se lo denomina colapso de la función de onda.
En 1927, durante la conferencia Solvay en Copenhague, los físicos decidieron establecer las bases de la interpretación de la mecánica cuántica, según las cuáles la función de onda era todo lo que podíamos aspirar a conocer, y que la realidad (las partículas) no estaban definidas hasta que eran observadas. Como las medidas siempre serían aleatorias, no serían predecibles, y el determinismo estaría en jaque.
La interpretación de Copenhague disgustó a Schrödinger y a Einstein, ambos deterministas, en favor de las pajas mentales filosóficas de Niels Bohr (perdonad por no ser imparcial aquí), según el cuál lo correcto era aceptar que energía y tiempo, por ejemplo, eran cosas que no existían simultáneamente. Que existía o una cosa o la otra. Que nuestra forma de entender la realidad basada en partículas esperando ser observadas debía de ser abandonada.
Einstein opinó que se podían ir todos un poco a la mierda (no de forma literal, probablemente) y hasta su muerte defendió que tras la mecánica cuántica tenía que haber una teoría más completa basada en «variables ocultas» que pudiese predecir las mediciones. Tras la muerte de Einstein, no obstante, Bell demostró que «ninguna teoría local de variables ocultas era compatible con la mecánica cuántica».
Qué implicaba y, sobre todo, qué no implicaba, la demostración de Bell.
Imaginemos que a cada partícula cuántica la acompaña un demonio de Maxwell que decide lo que le sucede en cada instante y al cual no podemos rastrear. Los movimientos de la partícula nos parecerían no justificados. Supongamos, de hecho, que todas las partículas tienen su propio demonio de Maxwell. Lo que Bell demostró es que cuando en un sistema disponemos de dos partículas entrelazadas a distancia (signifique lo que signifique, luego volvemos a ello) es imposible explicar los resultados suponiendo que los deciden dichos demonios.
Al demonio de Maxwell lo denominaremos, de forma más técnica, interacción oculta local de las partículas, y esto es lo que significa que «ninguna teoría de variables ocultas local es compatible con la mecánica cuántica».
Y en esto es en lo que se apoyan, generalmente, para decir que la mecánica cuántica demuestra que la naturaleza es aleatoria y la realidad no existe: es imposible suponer que hay algo que dirige las partículas individualmente y no percibimos y que la cosa funcione. Sin embargo, aquí se miente al decir eso tanto como se miente al decir que el universo es finito o infinito. Se miente porque hay otras lecturas alternativas que no quedan desmentidas y se omiten deliberadamente.
La paradoja EPR. El entrelazamiento cuántico.
El entrelazamiento cuántico a día de hoy no sabemos muy bien qué es. Y recalco que no sabemos qué es, no que no sepamos qué hace. Sus efectos básicamente son poder hacer que dos partículas cualesquiera, estén a la distancia que estén, puedan ser manipuladas simultáneamente alterando solo una de ellas. Supongamos que producimos dos partículas entrelazadas con una cierta energía E. Pues si al interactuar con la primera observamos que tiene una energía E1 automáticamente la segunda tendrá una energía E2 tal que entre ambas sumen la energía inicial.
Un determinista, al escuchar hablar de esto por primera vez, normalmente pensará «¿Y dónde está el misterio? Cada una tendrá una cierta energía y simplemente observas la de cada una». Bien, el misterio radica en que Bell nos ha fastidiado demostrando que dichas energías no nos son predecibles hasta que observamos.
Es decir, que es «como si» al interactuar con una de las partículas fijásemos el resultado para ambas. Y a esto Einstein, Podolsky y Rosen lo bautizaron como acción fantasmal a distancia, por lo que se conoce como paradoja EPR.
Un no determinista te dirá que la paradoja EPR sugiere que la realidad no existe hasta que medimos. Que el resultado es aleatorio. Un determinista tiene que ver en EPR un nuevo tipo de determinismo: el que no tiene límites espaciales.
Cuando decimos que lo que hace una partícula no es predecible localmente lo que queremos decir es algo parecido a esto: «si aislamos la partícula y durante un tiempo t medimos todo lo que sucede en su entorno y le afecte desde la distancia que puede recorrer la luz en dicho tiempo, no somos capaces de adivinar qué hará». Esto se puede arreglar introduciendo la posibilidad de un determinismo no local: a lo mejor lo que sucede aquí en un instante depende de lo que suceda en Alfa Centauri en ese mismo instante. ¿Y cómo es eso posible? Pues, quizás, por el mecanismo de entrelazamiento del cual no sabemos absolutamente nada.
Si estamos dispuestos a aceptar que dos partículas a distancias arbitrariamente elevadas pueden afectarse mutuamente por un mecanismo desconocido llamado entrelazamiento, ¿por qué motivo no tendríamos que estarlo a aceptar que a lo mejor lo que sucede en cualquier lugar del universo está afectado de forma compleja por lo que suceda en otro lugar vaya usted a saber a qué distancia? A lo mejor el problema no es que las cosas no sean predecibles sino que necesitemos conocer prácticamente el estado de entrelazamiento de todo el universo para predecir el mundo cuántico.
Sin embargo, de esto poco o nada se habla. Uno casi podría decir que esta lectura de los hechos no existe en la comunidad de físicos teóricos, de no ser porque sí existe. Solo que no se divulga y, en general, se desconoce. Pero antes de hablar de ella, dejadme resumir brevemente los antecedentes en gravedad cuántica.
Entrelazamiento en agujeros negros.
Hace más de cuarenta años Hawking sí que dijo una cosa que todo apunta a que es correcta: los agujeros negros radian. Todo lo que entra en ellos sale casi con total seguridad como radiación térmica. Así, el destino de todo agujero negro aislado (es decir, que no absorba energía de ningún modo) es desaparecer completamente evaporado.
Esto es posible, grosso modo, porque en la frontera del agujero negro se crean pares de partículas, una con energía positiva y otra con energía negativa, de forma que la primera sale al exterior y la otra va hacia el interior. Que puedan existir partículas con energía negativa es parte de la magia del mundo tras el horizonte de sucesos que no voy a detallar aquí.
La cuestión es que dado el principio de complementariedad de agujeros negros, o el principio holográfico desarrollado por ‘t Hooft y Susskind, el interior del agujero negro y el exterior deben de estar siempre relacionados. Y para ello es necesario que ambas partículas estén entrelazadas incluso después de separarse por un horizonte de sucesos.
Si no fuese así, si el entrelazamiento se rompiese, la radiación Hawking sí sería aleatoria, y además se producirían «explosiones» de energía sobre el horizonte, calentándolo. Y el horizonte de sucesos no puede estar caliente, ¿sabéis por qué? Por la paradoja de los gemelos y el sistema de referencia absoluto. Quien padece efectos relativistas no puede percibirlos comparando con su entorno cercano, sino que tiene que mirar lejos o dejar que pase mucho tiempo. El gemelo que envejece poco no puede percibir que para él el tiempo fluye despacio sino que tiene que mirar lejos de la nave. Análogamente, en la frontera de un agujero negro no se debe percibir absolutamente nada. Esto se conoce como principio de equivalencia. El horizonte solo existe para quienes lo observan de lejos y, por tanto, no es posible que sobre él se vean explosiones de energía debidas a la ruptura de entrelazamientos (ni que las haya).
Recapitulando: si las partículas que radia un agujero negro dejan de estar entrelazadas con sus parejas de dentro se viola el principio de equivalencia y el determinismo y aparece sobre la frontera del agujero negro un muro de fuego real, esto es, perceptible estando sobre el propio horizonte.
Ahora bien, supongamos que el entrelazamiento, la equivalencia y el determinismo son correctos. Cada partícula del agujero negro que saliese al exterior estaría entrelazada con una de dentro. Si el agujero negro tuviese, digamos, mil partículas, habría quinientos entrelazamientos (esto no os lo toméis tal cual, ya que el número de partículas en su interior en realidad puede fluctuar). La cuestión es que si el agujero negro radiase quinientas partículas, la siguiente tendría que estar entrelazada con alguna de las que ya hubiesen salido. Pero a su vez, para poder salir, tendría que estar entrelazada con otra de dentro.
Y en mecánica cuántica está conjeturado que el entrelazamiento es monógamo, es decir, que no se da simultáneamente entre más de dos partículas juntas sin que haya un entrelazamiento entre todas. Llegamos así a la paradoja AMPS (Almheiri, Marolf, Polchinski, Sully) del muro de fuego. Por ponernos en antecedentes, Polchinski es uno de los principales contribuyentes a la teoría de cuerdas con el concepto de brana.
Lo que la paradoja AMPS plantea, en resumen, es que el principio de equivalencia de la relatividad general parece ser falso, pero eso resulta una locura porque es el pilar de la propia teoría y de la consistencia de propio tejido espacio-temporal. Una cosa es decir que la relatividad general debe ser parcheada y otra que su punto de partida no se cumple. Si no hay principio de equivalencia, nos quedamos sin una explicación de por qué el gemelo de la nave es el que envejece menos.
Los puentes ER. Agujeros de gusano.
Pero no todo está perdido. Resulta que Einstein y Rosen (la E y la R de la paradoja EPR) publicaron en 1936, el mismo años que su texto sobre la paradoja EPR, otro artículo que no tenía ¿nada? que ver sobre la existencia de puentes espacio-temporales dentro del marco matemático de la relatividad, más conocidos desde los ochenta como agujeros de gusano.
Los puentes ER, a priori imposibles de construir con la física que conocemos por requerir partículas de masa negativa, tendrían la propiedad de conectar distintas regiones del espacio y hacer que la distancia entre ellas pasase a ser cero. Un puente ER entre mi habitación y la estrella Vega me permitiría acceder hasta ella instantáneamente.
Y si bien es cierto que no tenemos ni idea de cómo hacer real uno de estos agujeros de gusano, no es menos cierto que no tenemos tampoco la menor idea de qué es el entrelazamiento cuántico, y grandes males pueden requerir de grandes remedios.
¿ER=EPR?
Así que desde 2013, Susskind (recordemos, autor del principio holográfico y padre de la teoría de cuerdas) y Juan Maldacena (principal referente en teoría de cuerdas desde 1997 por demostrar que era compatible con el principio holográfico, y por tanto una gran candidata a explicar la gravedad cuántica) pensando en esto han ido a por todas y planteado que, en esencia, la paradoja EPR y los puentes ER son la misma cosa. En otras palabras: que el entrelazamiento entre dos partículas se explica mediante agujeros de gusano. Que todos los fenómenos cuánticos, cuya «magia» en última esencia siempre se reduce al concepto de entrelazamiento, se rigen por un tejido extremadamente complejo de agujeros de gusano. Que todo está conectado porque en última esencia hay fisuras en el tejido espacio-temporal que crean conexiones a distancias arbitrarias.
La conjetura ER=EPR no está demostrada aún, pero se trabaja en ella. Se ha demostrado que todo puente ER es equivalente a un entrelazamiento EPR, pero todavía no está claro que todo fenómeno EPR se pueda reducir sin problema a un puente ER. Incluso hay quienes aparentemente han encontrado contrajemplos, pero Maldacena ha anticipado que los desmentirá.
Yo sigo esta nueva teoría desde que sé de ella con interés, y me había abstenido de decir anticipadamente que es el golpe de gracia que necesitamos contra la interpretación de Copenhague y, consecuentemente, las afirmaciones C y D, pero resulta que el propio Susskind ya lo ha expresado así, y quiero compartir con vosotros sus palabras.
Susskind contando los días que le quedan a la interpretación de Copenhague.
En 2016, Susskind ha publicado un artículo maravilloso llamado «Copenhague vs Everett, Teleportación y ER=EPR«, donde expone de forma clara y concisa todos los problemas que hay con la interpretación aleatoria de la naturaleza, reconociendo que por fin ve claro que tiene que estar mal. E insisto en que no hablamos de un autor cualquiera, sino de una de las figuras más importantes en física teórica.
Traduzco aquí el comienzo del artículo.
«Dejadme comenzar con tres citas de físicos cuánticos famosos:
Niels Bohr: «Si la mecánica cuántica no te ha dejado en shock, es que todavía no la has comprendido.»
Richard Feynman: «Siempre hemos tenido un montón de problemas comprendiendo el punto de vista del mundo que la mecánica cuántica representa. Al menos yo los tengo, porque soy un hombre tan viejo que no he llegado al punto de que me resulte obvio. Sí, me sigue poniendo nervioso… Ya sabéis que siempre es así, cada nueva idea, requiere de una generación o dos para que resulte obvio que no hay ningún problema con ella. No soy capaz de definir el problema real, por lo que sospecho que no hay problema real, pero no estoy seguro de que no haya un problema real.»
Paul Dirac: «Hay esperanzas de que la mecánica cuántica perderá gradualmente su capacidad de impactar… Lo he observado enseñándola, y aprendiéndola, que los estudiantes pasan por toda una experiencia… El estudiante comienza aprendiendo los trucos del trato. Aprende cómo hacer cálculos con mecánica cuántica y obtener las respuestas correctas… Es, comparativamente, indoloro. La segunda parte comienza cuando el estudiante se empieza a preocupar porque no entiende qué ha estado haciendo. Se preocupa porque no tiene una imagen física clara en su mente. Entonces, de forma inesperada, comienza la tercera fase. El estudiante de pronto se dice «yo entiendo la mecánica cuántica» o, por el contrario, dice «entiendo que no hay nada que entender»… La duración y severidad de la segunda parte disminuyen a medida que pasan los años. Cada nueva generación de estudiantes de mecánica cuántica la aprende más fácilmente que sus profesores en su momento…»
¿Hay un problema, como sugería Feynman, pero entonces sugiriendo que en realidad no lo había? ¿Qué ha producido tanta angustia y derramamiento de tinta?
Está bastante claro que tiene que ver con la confusa relación entre la multiplicidad de observadores, los objetos observados y las observaciones, o entre cada uno de ellos y el resto del universo. La mecánica cuántica estándar (de Copenhague) está desarrollada de modo que requiere un observador externo, que no sea parte del sistema. Él, ella o ello interactúa eventualmente con el sistema mediante algo que llamamos «medida», y haciendo eso colapsa la función de onda, destrozando todas las opciones no observadas.
Con este punto de vista las observaciones son irreversibles y no se pueden deshacer. El método funciona bien, pero invertir una medida es generalmente demasiado complejo para ser tenido en cuenta.
Considero obvio que la interpretación de Copenhague no puede tener la última palabra. El universo está lleno de subsistemas, todos ellos pudiendo ser observadores. No hay lugar para las leyes de la mecánica cuántica en el colapso de la función de onda: lo único que sucede es que la función de onda evoluciona de forma determinista y se vuelve más y más entrelazada. El universo es una red de subsistemas entrelazados muy compleja, y solo de forma aproximada podemos llamar a uno de ellos «observador».
Hasta hace poco mi punto de vista sobre todo esto era parecido al de Feynman, con quizás algo de Dirac. (…) Pero durante los últimos años he empezado a verlo de forma diferente.
Ahora siento que nuestro punto de vista actual de la mecánica cuántica es provisional: es solo lo mejor que hemos podido hacer sin una comprensión más profunda de la gravedad, pero no definitivo. La razón involucra al desarrollo del modelo ER=EPR. ER=EPR nos dice que la compleja red de subsistemas entrelazados que da lugar al universo es también una inmensa y compleja red de puentes de Einstein-Rosen.
Para mí resulta obvio que ER=EPR es cierto y es todo un gran avance, y que deberá afectar a los fundamentos y la interpretación de la mecánica cuántica.»
En resumen, Susskind dice sin tapujos lo que cualquiera que no haya pasado por el aro de decir «sí, claro, por supuesto que me tiene sentido toda la axiomática de Copenhague» ha pensado alguna vez. Me refiero a que el concepto de «observador» y «medida» está desde siempre totalmente en el aire. ¿Acaso las propias partículas no pueden observar al resto de partículas? ¿Qué interacciones suponen medidas y cuáles no? La cuestión no es trivial. Roger Penrose también declara en «El camino a la realidad» que hay algo en todo ello que debe resultar molesto.
Además, Susskind plantea que el colapso de la función de onda no es discreto sino gradual, y que lo complicado después es rastrear la evolución de los entrelazamientos / agujeros de gusano.
La posición de la postura no determinista.
Si finalmente ER=EPR fuese un modelo aceptado, por fin se acabaría el «todo lo que sucede en mecánica cuántica es impredecible» por un mucho más fácil de digerir «el universo está tan entrelazado que a efectos prácticos para nosotros todo es aleatorio».
Pero incluso si ER=EPR no fuese exactamente el modelo correcto, lo importante sigue siendo que no podemos decir que Copenhague sea la única explicación posible y debemos dejar de hablar de ella como si estuviese grabada en piedra por Dios o algo por el estilo (no, no soy creyente). De hecho es que no sé por qué en primera instancia se ha dejado a lo largo de los últimos cien años que se enseñe una y otra vez que la mecánica cuántica demuestra que todo es aleatorio cuando no lo hace. Es una burrada. Es mentir. Pocas veces se dice «la interpretación más aceptada es esta» o «lo más sencillo parece ser suponer esto». Hay generaciones de físicos que piensan que es una verdad indiscutible. Y esto da para mucho que hablar.
Creencias y el talón de Aquiles en el raciocinio del estudiante de física.
No os voy a engañar. Yo desde que entré en la facultad era determinista y nunca tuve intención de dejar de serlo. No tenía muy claro a qué me iba a enfrentar en los cursos de mecánica cuántica, pero estaba convencido de que no podrían convencerme de que la aleatoriedad es un hecho.
Y no es radicalismo o cerrazón: es que el debate determinista es, en realidad, metafísico. La ciencia nunca podrá darle respuesta. Si el universo es aleatorio, los deterministas siempre creeremos que lo que sucede es que no hemos sido capaces de deducir qué se esconde tras la aleatoriedad. Si el universo es determinista, siempre habrá un «¿por qué?» que plantear a la teoría más avanzada de la que dispongamos, y mientras no haya avances eso será usado como prueba de que no hay una teoría del todo.
Tan sencillo como lo expongo ahí arriba. Solo con eso es posible estar seguro de que nunca la ciencia te podrá decir nada en ese sentido. Solo podrá acumular con el paso del tiempo más evidencias a favor del determinismo, pero sin poder enviar nunca al exilio al no determinismo.
Pero si la ciencia no puede demostrar el no determinismo, ¿cómo se explican generaciones y generaciones de físicos creyendo que sí lo hecho en su mayoría? Pues, lamentando la brusquedad, opino que por sesgos cognitivos y gregarismo.
El sesgo fundamental que considero que se da en este caso es pensar que el que una explicación funcione la convierte en correcta. Lo que es equivalente a pensar que dado un hecho del que nos falten datos, solo hay una explicación coherente del mismo. Quiero decir que el estudiante de física estándar da por hecho que la interpretación probabilística es La Correcta porque da resultados correctos.
Pero eso es falso, como cualquiera que sepa de lógica formal debería saber. Que mi explicación a un experimento tenga sentido no quiere decir que sea la única que lo tenga y que por tanto haya que ignorar el resto. Pero nunca jamás en una clase de mecánica cuántica se plantea que a lo mejor la explicación real es otra.
Cuestión aparte merecen los que no tienen una explicación a por qué saben que la mecánica cuántica demuestra la aleatoriedad pero creen que es porque en ese momento no les sale y que en clase sí la vieron. La conversación que sigue, a modo de ejemplo, se ha dado entre un compañero de clase de la facultad y otra persona determinista. Empieza hablando la segunda.
-El determinismo no puede ser desmentido en un laboratorio.
-Sí, que nos lo explicaron en clase.
-¿Os explicaron que el determinismo se sabe que está mal?
-Sí.
-¿Cómo?
-Pues ahora no me acuerdo, pero sé que algo dijo el profesor. Creo que tenía que ver con que no puedes saber en qué colapsa la función de onda.
-Eso no desmiente nada.
-Ya, tienes razón. Pues… Eh… Creo que era por algo de que solo hay probabilidades y no partículas reales.
-Eso es explicar la hipótesis, no demostrarla.
-Mira, que seguro que nos lo demostraron. Que lo han dicho todo el curso.
-Yo no me creo, de verdad, que en ningún curso de física tengas que creer que todo es aleatorio para poder entender las cosas. Con aceptar que la descripción probabilística funciona hasta donde se sabe es suficiente.
Y no, a la persona determinista en cuestión no le faltaba razón. Hacía bien en no creérselo. Pero centrémonos en lo importante: mi compañero de facultad estaba convencido de que le había sido demostrado algo que nunca se le demostró ni se le pudo demostrar porque no tiene demostración. Una importante cantidad de estudiantes se quedan con la falsa impresión de que en algún momento les han mostrado que es obvio que todo es aleatorio por sobre-exposición al concepto. ¿Sabéis a qué recuerda, verdad?
Si tú crees en la naturaleza aleatoria y quieres que otra gente lo haga okey, todo perfecto. Pero no recurras a trampas lógicas para que te den la razón pensando que está demostrado que es así.
Como estudiante he tenido la sensación durante el paso por la facultad de que los profesores no tienen interés en explicar que es una cuestión abierta y que se alegran de que los estudiantes traguen con Copenhague sin rechistar. Es un claro ejercicio de adoctrinamiento. Al cual no atribuyo maldad porque ni siquiera creo que los profesores se planteen que a lo mejor la naturaleza no es aleatoria.
Incluso hay otro tipo de creyentes en la aleatoriedad que son conscientes de que la mecánica cuántica básica no la demuestra pero que cuando se les dice «no, esto lo sabemos por Bell» se lo creen sin problema y nunca se preocupan por revisar a Bell.
Pero tampoco se trata de demonizar al bando opuesto. Ciertamente hay físicos no deterministas que son conscientes de que su postura (igual que la contraria) no está demostrada, que es lo más sensato. Ninguno podemos decir a la otra parte que está equivocada. Pero al menos que no se explique la postura de uno mismo omitiendo que no se sabe si es correcta, que queda como poco feo.
Porque supongamos que en un futuro ER=EPR o cualquier otra teoría no copenhaguista resulta funcionar y tenemos un modelo no probabilista de nuevo que puede explicar todo. Supongamos que eso sucede por un momento. Cuando acabasen de destrozar la filosofía de Bohr, ¿a cuántos se les caería la cara de vergüenza por llevar décadas diciendo en clase una aseveración acientífica como que la naturaleza es aleatoria? ¿Qué pasaría con tantos ríos de tinta dedicados a la tontería de que la realidad existe o deja de existir según si la observamos o no? ¿Qué pasaría con las toneladas de libros, vídeos y eventos divulgativos donde se explica que la mecánica cuántica demuestra cosas que nunca ha demostrado? ¿Quién se haría responsable, en suma, de décadas de desinformación científica? Y por último y no por ello menos importante: ¿quién protegería la integridad científica del colectivo del ataque de pseudo-científicos diciendo «vosotros habéis defendido cosas más absurdas y las habéis enseñado en facultades durante un siglo»?
No me parecen cuestiones menores en absoluto. Esto a veces parece «El traje nuevo del emperador». Montones de físicos creyendo algo porque lo creen todos los demás sin cuestionar.
La divulgación y la docencia tienen un serio problema mientras sigan obviándose debates abiertos explicando solo una de las posturas.
Y es que incluso en algunos sitios se ven falacias «ad antideterminismo». Por ejemplo, hay un experimento tipo Bell famoso donde lo que hacen dos fotones en el pasado aparentemente está determinado, según la interpretación que haría un seguidor de Copenhague, por lo que hacen en el futuro. Retrocausalidad. En dichas explicaciones a veces se leen cosas como que la explicación determinista alternativa no puede ser correcta «porque todo estaría determinado» como si eso fuese un argumento razonable, cuando en realidad es decir que el determinismo no vale «porque no».
También he leído alguna vez que creer en el determinismo es una postura anticientífica porque si crees que todo está determinado no eres libre para elegir qué experimentos haces, y por tanto no tiene sentido investigar. Que digo yo que tendrá tanto o más que hacer investigación creyendo que todo es aleatorio y sucede «porque sí».
Conclusiones.
Si alguna vez has pensado que toda la interpretación probabilística con el colapso de la función de onda es una tontería temporal no te preocupes: no estás solo. Einstein te apoyaría y actualmente físicos eminentes también lo hacen.
Por el contrario, si crees en todo ello, por favor mantén en mente que no está demostrado y no prives a futuras generaciones de creer en la versión que prefieran. Es un poco preocupante la situación.
Categorías:Cosmología, Física, Física cuántica, GR=QM, Libros, Partículas, Principio holográfico, Relatividad, Teoría de Cuerdas, Termodinámica
Te agradezco el excelente trabajo sobre ASEVERACIONES ACIENTÍFICAS Y MECÁNICA CUÁNTICA. ER=EPR, SUSSKIND Y EL ESTADO REAL DEL DEBATE DETERMINISTA.
Es muy didáctico y consigues que ideas tan abstractas sean más asequibles (como es mi caso) a los aficionados a la física.
Gracias y saludos cordiales.
Voy a ir comentando cosas muy poco a poco y luego si quieres ya doy una opinión más global.
La frase: «Y en mecánica cuántica está conjeturado que el entrelazamiento es monógamo, es decir, que no se da simultáneamente entre más de dos partículas juntas.» Es incorrecta.
Hay muchos ejemplos de entrelazamiento multipartito o entre más de dos partes. Uno muy típico es el estado GHZ. Este es un estado de N partículas en el que si sabes el estado de una ya sabes el del resto.
Lo que dice la monogamia del entrelazameinto no es exactamente eso. Ocurre que si tenemos tres partículas (A,B,C) y A está máximamente entrelazada con B y C entonces B y C también están entrelazadas entre sí. Básicamente la mecánica cuántica no permite múltiples parejas sin que la cosa derive en orgía.
Esto tampoco es una conjetura, se deriva de los postulados de la física cuántica.
Hola,
Quizás falta poner el parche de «maximalmente entrelazados», pero no me quería meter ahí. Pero vamos, que esa frase la dicen en AMPS, la dice Susskind tal cual, y se puede ver en Google fácilmente.
https://www.quantiki.org/wiki/monogamy-entanglement
https://physics.stackexchange.com/questions/218085/what-is-the-monogamy-principle-in-entanglement
Y mira aquí «The motivating paradox». Hasta la Wikipedia recoge la monogamia como fuente del problema.
https://en.wikipedia.org/wiki/Firewall_(physics)
Sí, no digo que no sea importante, digo que la frase es desafortunada. En esos mismos enlaces lo explica, y en la Wikipedia.
<>
Vamos, que la misma partícula no puede estar entrelazada con dos sistemas que sean independientes entre sí. Pero sí que puede estarlo con dos sistemas que a su vez estén también entrelazados entre sí. El problema es que estén entrelzados con la partícula que cae y con la radiación de Hawking, que se supone que entre sí no están entrelazados.
Vale, pensé que decías que esa explicación no tenía que ver con la problemática. Parcheado y gracias.
Paso al tema pedagógico. Yo nunca he visto que en una clase se enseñe que «el mundo es aleatorio y ya está». En el grado (licenciatura en mi época) es un tema que apenas se trata por falta de tiempo. En cursos más avanzados he explicado yo mismo el teorema de Bell y siempre se lo explico como es.
Las desigualdades de Bell se deducen partiendo de tres principios:
– Localidad: Las mediciones son independientes. Es decir, entre que se mide en A y se mide en B no pasa tiempo suficiente para que la luz viaje de A a B.
– Realismo: El estado de cada partícula está determinado antes de realizar la medida.
– Libertad: Cada uno mide lo que quiere. No hay ningún acuerdo previo y somos libres de medir independientemente.
Al violar las desigualdades en el laboratorio podemos concluir que uno de esos tres principios se viola. Es decir, que tenemos
– Comunicación que viaja más rápido que la luz.
– Aleatoriedad.
– Medidas determinadas a priori (superdeterminismo).
Cualquiera de las tres es aceptable en este punto y no podemos todavía elegir una. Otra cosa es que como la comunicación supralumínica nos implicaría revisar conceptos de relatividad y el superdeterminismo es una paja filosófica la mayoría optemos por creer en la aleatoriedad.
En resumen: Quien explique el teorema de Bell con un poco de rigor no dirá que el mundo es aleatorio, dirá que o es aleatorio, o hay comunicación supralumínica, o es superdeterminista.
Estoy de acuerdo con tu resumen. Lo que digo es que normalmente no se explica con rigor en mi experiencia y en la de otras personas consultadas. O directamente no se explica y se indica que «esto lo demostró Bell» en cursos más básicos cuando se dice que la naturaleza es aleatoria. La esencia de la cuestión es que esto que escribes en general no se sabe.
Espectacular. Me encantan estas entradas sobre debates de ideas o conceptos de máxima actualidad sobre paradojas o problemas de la física actual.
Maravilloso artículo. Emocionante! EP=EPR es el tema a seguir!