Hoy he asistido de nuevo a una conferencia sobre divulgación científica. En esta ocasión de Gerardus ‘t Hooft, galardonado con el Premio Nobel en 1999 por proponer una estructura detallada de cómo se comportan los bosones de la interacción electronuclear débil.
No obstante, la charla ha sido de divulgación científica sobre el futuro de la ciencia.
En primer lugar, como no podía ser de otra forma, trató el tema del CERN y el LHC, centrándose en «La Unificación». Según nos mostró en la más o menos conocida tabla energética de la física, para poder estudiar el mundo en dimensiones más pequeñas hacen falta mayores cantidades de energía.
Hasta ahora, la energía que alcanzábamos nos ha permitido descubrir un montón de partículas interesantes: el fotón (γ), el protón (p+), el electrón (e¯), el neutrino (ν), el positrón (e+), el muón (μ‾), el taón (τ‾), el pión (π), el kaón (k), las partículas W de la interacción débil…
En teoría, las nuevas energías que se obtengan en el LHC deberían permitir avanzar en este estudio y dar lugar a nuevos descubrimientos tales como el bosón de Higgs, también conocido como la partícula divina.
Sin embargo, no pretenden conformarse con eso. Dado que en LHC se encuentran con el inconveniente de tener que apañar algunos tramos para que las partículas colisionen en línea recta (es curvo), las perspectivas de futuro en la aceleración de partículas están en diseñar nuevos aceleradores de tramos completamente rectos. Solo así, aparentemente, se puede avanzar en niveles energéticos.
¿Y para qué avanzar en niveles energéticos? Pues bien, según la teoría de La Unificación en un momento inicial, justo en el instante en que tras una compresión espacial toda la materia queda concentrada en la singularidad de un punto, las distintas magnitudes, así como las fuerzas, se reducen a una única cosa, que al disiparse en la expansión se descompone en lo que conocemos hoy en día.
La importancia de esto radica en que si se consiguiese la suficiente energía como para engendrar una pequeña singularidad se podría apreciar el Universo de un modo extremadamente detallado. Es estando en ese estado o en uno muy próximo a él cuando los físicos teóricos suponen que deberían encontrar los primeros indicios de la existencia del gravitón.
Un buen ejemplo típico de esta teoría es que el agua, según la observas, es un elemento puro, pero si la enfrías y separas sus componentes te encuentras con dos átomos de hidrógeno y uno de oxígeno. Lo mismo pasaría con la singularidad espacio-temporal: al estar expandida se divide en cuatro fuerzas fundamentales y en un montón de materia.
Hablando ya de cosmología, se quiso meter también en el tema de los agujeros negros y la controversia con la radiación de materia de los mismos propuesta por Stephen Hawking, a la que tachó de imposible y de novela de ciencia ficción.
Sin embargo, tuvo el detalle de mostrarnos una representacion digital del estudio del movimiento de las estrellas próximas al núcleo de nuestra galaxia y la evidencia de que allí habitaba un agujero negro por la curvatura que sufría la trayectoria de los astros que pasaban junto a él: curvaban más su trayectoria y se movían más rápido (2ª Ley de Kepler).
No obstante, hay que tener en cuenta que la ley de Kepler pronto deberá ser sustituida, porque se han encontrado trayectorias esféricas en torno a agujeros negros, que evidentemente no conservan el momento angular.
Habló de la nanotecnología, que parece ser que dentro de poco aspira a fabricar nanotubos atómicos donde se cogerían duras redes iónicas y se enroscarían para formar complejas estructuras. Estas estructuras, según nos mostró en sus imágenes, serían semejantes a las que tenemos en nuestro mundo macroscópico (cuerdas enredadas, nudos…).
En lo referente a la robótica y a la mecánica fantaseó con la posibilidad de enviar robots a explorar el espacio, e incluso con la inteligencia suficiente como para aprender a llevar y plantar vida a los otros planetas, si bien nosotros nunca deberíamos ser capaces de ir más allá de Marte.
Asimismo, comentó los avances en inteligencia robótica y la posibilidad futura de trasladar inteligencia directamente de un cerebro a un robot, hasta hacerlo incluso más inteligente que una persona, pero siendo siempre perfectamente controlable.
En cuanto a la genética, según juzgo un asistente, fue tal vez demasiado optimista en cuanto a nuestras posibilidades, ya que hablaba de diseñar qué tipo de seres necesitaríamos (máquinas que fabricasen huevos o carne de vaca sin tener que matar una) como si crearlos fuese la acción mas trivial del mundo.
Es por eso que reflexionó sobre las cuestiones éticas que conllevaba jugar a ser divinidades fabricando especies nuevas íntegramente artificiales, dado que podríamos cargarnos la línea evolutiva de la naturaleza.
En resumen, ha sido una conferencia muy interesante y multitemática, en la que Hooft destacó algo importante que la gente tiene muy mal entendido: «La ciencia no cambia con el tiempo. Se perfecciona», o dicho en otras palabras, estamos hartos de la gente que mete la Relatividad o la Teoría Cuántica en todas partes sin venir a cuento, e insinuando que desmontan todo lo anterior.
Categorías:Conferencias, Física
En la conferencia de Madrid, de ayer 14 de Noviembre, 3 años más tarde habló fundamentalmente de la interacción débil y de por qué era necesaria la partícula o el campo de Higgs (recordó la dualidad onda-corpúsculo). De LHC presentó su evolución, cómo antes era el LEP (colisionaban electrones y positrones) y cómo se la jugaron al parar los experimentos antes de los 220 GeV porque querían ganarle la carrera en la búsqueda de la partícula divina (alguien presente le recordó el mal rollo que había tenido ponerle ese nombre) a los americanos del FERMILAB. Dedicó un tiempo a explicar los fallos y el accidente del LHC y lo convirtió en experiencias positivas. Yo estuve viendo el CERN en el 2009, justo después del accidente y vi muchas piezas, tubos electroimanes con los anagramas de FERMILAB (¿se había roto la competencia?). En el LHC aún no han encontrado nada verdaderamente sorprendente, más que la teoría va encajando con las pruebas experimentales. El año que viene habrá una parada técnica programada de un años y tendrán que analizar los resultados extraídos. Sobre los neutrinos veloces, argumentó como buen teórico que los experimentalistas la habían cagado (al 99% de seguro) sin embargo esto dará como campo de interés en los próximos años a los neutrinos, tanto en Japón, como en Europa y en USA donde Fermilab está parado pero puede reactivarse para experimentos en donde se investigue la naturaleza del neutrino ¿es su propia antipartícula según predijo Maturana?