¿Es Natural La Naturalidad? - Vista Alternativa

Tabla de contenido:

¿Es Natural La Naturalidad? - Vista Alternativa
¿Es Natural La Naturalidad? - Vista Alternativa

Vídeo: ¿Es Natural La Naturalidad? - Vista Alternativa

Vídeo: ¿Es Natural La Naturalidad? - Vista Alternativa
Vídeo: Turismo Sostenible. La Inversión en el Entorno Natural 2024, Julio
Anonim

Los especialistas en el campo de la física fundamental (y ahora, por definición, la teoría de las partículas elementales, la astrofísica relativista y la cosmología) a menudo comparan el estado de su ciencia con la situación de finales del siglo XIX. La física de aquellos días, que se basaba en la mecánica newtoniana, la teoría maxwelliana del campo electromagnético, la termodinámica y la mecánica estadística de Boltzmann-Gibbs, explicó con éxito casi todos los resultados experimentales. Es cierto que también hubo malentendidos: el resultado cero del experimento de Michelson-Morley, la ausencia de una explicación teórica de los espectros de radiación del cuerpo negro, la inestabilidad de la materia, que se manifiesta en el fenómeno de la radiactividad. Sin embargo, había pocos de ellos y no destruyeron la esperanza de un triunfo garantizado de las ideas científicas formadas, al menos,desde el punto de vista de la mayoría absoluta de científicos de renombre. Casi nadie esperaba una limitación radical de la aplicabilidad del paradigma clásico y el surgimiento de una física fundamentalmente nueva. Y, sin embargo, nació, y en solo tres décadas. En aras de la justicia, vale la pena señalar que desde entonces la física clásica ha expandido tanto sus capacidades que sus logros habrían parecido ajenos a titanes de épocas pasadas como Faraday, Clausius, Helmholtz, Rayleigh, Kelvin y Lorenz. Pero esa es una historia completamente diferente.que sus logros habrían parecido ajenos a titanes de la antigüedad como Faraday, Clausius, Helmholtz, Rayleigh, Kelvin y Lorenz. Pero esa es una historia completamente diferente.que sus logros habrían parecido ajenos a titanes de la antigüedad como Faraday, Clausius, Helmholtz, Rayleigh, Kelvin y Lorenz. Pero esa es una historia completamente diferente.

Una discusión detallada de las dificultades de la física fundamental moderna ocupará demasiado espacio y está más allá de mi intención. Por lo tanto, me limitaré a algunas de las conocidas debilidades de la teoría más exitosa y universal del micromundo: el Modelo Estándar de partículas elementales. Describe dos de las tres interacciones fundamentales: fuerte y electrodébil, pero no afecta la gravedad. Esta gran teoría hizo posible comprender muchos fenómenos utilizando el principio de invariancia de gauge. Sin embargo, no explicó la presencia de masa en los neutrinos y no reveló la dinámica de ruptura espontánea de la simetría de la interacción electrodébil, responsable de la aparición de masa debido al mecanismo de Higgs. No permitió predecir la naturaleza y propiedades de partículas que pueden considerarse candidatas al papel de portadoras de materia oscura. El modelo estándar tampoco ha podido establecer vínculos inequívocos con las teorías inflacionarias que están en el corazón de la cosmología moderna. Y, finalmente, no aclaró el camino para construir una teoría cuántica de la gravitación, a pesar de los esfuerzos verdaderamente titánicos de los teóricos.

No me comprometo a afirmar que los ejemplos dados (y hay otros) permitan juzgar la transición de la física fundamental a un estado inestable, cargado de una nueva revolución científica. Hay diferentes opiniones al respecto. Me interesa una cuestión que no es tan global, pero no menos interesante. Muchas publicaciones contemporáneas cuestionan la aplicabilidad del criterio de naturalidad de los conceptos teóricos, que durante mucho tiempo se ha considerado un principio rector confiable y eficaz para construir modelos del micromundo (ver, por ejemplo, GF Giuduce, 2017. The Dawn of the Post-Naturalness Era). ¿Es así, cuál es la naturalidad de una teoría física y qué puede reemplazarla? Para empezar, hablé de esto con Sergei Troitsky, investigador jefe del Instituto de Investigación Nuclear de la Academia de Ciencias de Rusia.

Sergey Vadimovich Troitsky, miembro correspondiente de la Academia de Ciencias de Rusia, investigador principal del Instituto de Investigación Nuclear de la Academia de Ciencias de Rusia. Foto del sitio prof-ras.ru
Sergey Vadimovich Troitsky, miembro correspondiente de la Academia de Ciencias de Rusia, investigador principal del Instituto de Investigación Nuclear de la Academia de Ciencias de Rusia. Foto del sitio prof-ras.ru

Sergey Vadimovich Troitsky, miembro correspondiente de la Academia de Ciencias de Rusia, investigador principal del Instituto de Investigación Nuclear de la Academia de Ciencias de Rusia. Foto del sitio prof-ras.ru

norte

Sergei, primero, pongámonos de acuerdo en lo principal. ¿Cómo evalúa el estado actual de la física fundamental? Según la conocida terminología de Thomas Kuhn, ¿es ciencia normal, ciencia en una fase previa a la crisis o simplemente en una crisis?

ST: Clasificas la cosmología como física fundamental. Esto es bastante razonable, pero no soy un experto en ello y, por lo tanto, me abstendré de realizar evaluaciones. Pero si hablamos de física de altas energías y del Modelo Estándar de partículas elementales como fundamento teórico, entonces en esta área, de hecho, todo es muy difícil. Durante muchos años, el Gran Colisionador de Hadrones (LHC) ha estado trabajando en el CERN y ha obtenido resultados. Gracias a él, la situación en la física de partículas se ha vuelto, por un lado, muy aburrida y, por otro, extremadamente interesante. A menudo recuerdo que, poco antes del lanzamiento del LHC, un físico teórico muy respetado predijo que ahora se abriría un amplio camino de pilares en nuestra ciencia, que conduciría rápidamente a importantes descubrimientos. Creía que, literalmente, en las primeras horas de funcionamiento del colisionador o, a más tardar, dentro de un año, se identificarían socios de partículas ya conocidas.predicho durante mucho tiempo por la teoría de la supersimetría. Fueron consideradas de antemano como partículas de materia oscura largamente esperadas que podrían estudiarse durante muchos años. Ésa es la gran perspectiva de nuestra ciencia.

¿Y qué pasó en la práctica? No hubo súper socios, y no los hay, y las posibilidades de abrirlos en el futuro se han atenuado enormemente. Hace seis años, el bosón de Higgs fue capturado en el LHC y se convirtió en una sensación mundial. Pero, ¿cómo evaluarlo? Yo diría que este es, en cierto sentido, el logro más terrible del LHC, porque el Higgs fue predicho hace mucho tiempo. Todo sería mucho más interesante si no fuera posible abrirlo. Y ahora resulta que no tenemos nada más que el Modelo Estándar, incluso si está bien confirmado en experimentos. No se han producido milagros, no se han realizado descubrimientos que estén fuera del alcance del Modelo Estándar. En este sentido, la situación es precrisis, ya que sabemos con certeza que el Modelo Estándar no está completo. Ya lo ha notado en la introducción a nuestra conversación.

Cuando dos protones chocan (no se muestra en la figura), se forman dos quarks (Quark) que, cuando se fusionan, forman un bosón W (bosón de vector débil) - una partícula que lleva una interacción débil. El bosón W emite el bosón de Higgs, que se descompone en dos quarks b (quark Bottom). Imagen del artículo: B. Tuchming, 2018. Se observa la desintegración del bosón de Higgs tan buscada
Cuando dos protones chocan (no se muestra en la figura), se forman dos quarks (Quark) que, cuando se fusionan, forman un bosón W (bosón de vector débil) - una partícula que lleva una interacción débil. El bosón W emite el bosón de Higgs, que se descompone en dos quarks b (quark Bottom). Imagen del artículo: B. Tuchming, 2018. Se observa la desintegración del bosón de Higgs tan buscada

Cuando dos protones chocan (no se muestra en la figura), se forman dos quarks (Quark) que, cuando se fusionan, forman un bosón W (bosón de vector débil) - una partícula que lleva una interacción débil. El bosón W emite el bosón de Higgs, que se descompone en dos quarks b (quark Bottom). Imagen del artículo: B. Tuchming, 2018. Se observa la desintegración del bosón de Higgs tan buscada.

Video promocional:

Entonces vayamos más lejos. ¿Qué importancia tiene el principio de naturalidad en la teoría de partículas y qué es? No es un simple respeto por el sentido común, ¿verdad?

ST: Lo veo como una especie de criterio estético, pero aquí se necesitan explicaciones. El modelo estándar tiene tres componentes. Primero, es la lista de partículas que contiene. Todos ellos ya han sido descubiertos, el bosón de Higgs fue el último. En segundo lugar, hay un grupo de interacciones que describe. Pero también hay una tercera parte: un conjunto de parámetros gratuitos. Se trata de diecinueve números que solo se pueden determinar experimentalmente, ya que no se calculan en el marco del modelo en sí (ver S. V. Troitsky, 2012. Problemas no resueltos de física de partículas elementales).

Y aquí es donde surgen las dificultades. Primero que nada, hay demasiados de estos parámetros. Diecinueve es un número extraño que no parece seguir de ninguna parte. Además, sus significados son demasiado diferentes y, por tanto, difíciles de explicar. Digamos que el número de parámetros libres incluye las masas de leptones: electrones, muones y partículas tau. Un muón es unas doscientas veces más pesado que un electrón y una tau es casi veinte veces más masiva que un muón. Es lo mismo con los quarks: sus masas difieren en órdenes de magnitud y todo lo demás es igual.

Las masas de todas las partículas del modelo estándar se encuentran dispersas en un rango muy amplio. En el modelo estándar, esta jerarquía de masas no se explica satisfactoriamente. Imagen de la sección Dificultades del Modelo estándar del proyecto del Gran Colisionador de Hadrones de Igor Ivanov
Las masas de todas las partículas del modelo estándar se encuentran dispersas en un rango muy amplio. En el modelo estándar, esta jerarquía de masas no se explica satisfactoriamente. Imagen de la sección Dificultades del Modelo estándar del proyecto del Gran Colisionador de Hadrones de Igor Ivanov

Las masas de todas las partículas del modelo estándar se encuentran dispersas en un rango muy amplio. En el modelo estándar, esta jerarquía de masas no se explica satisfactoriamente. Imagen de la sección Dificultades del Modelo estándar del proyecto del Gran Colisionador de Hadrones de Igor Ivanov.

Otro ejemplo es el valor del parámetro adimensional, que caracteriza la violación de la invariancia de CP en interacciones fuertes. Se desconoce su valor exacto, pero los experimentos muestran que en cualquier caso es inferior a 10-9. De nuevo, esto es extraño. En general, los parámetros libres del modelo estándar varían mucho en magnitud y parecen casi aleatorios.

Uno de los métodos para el registro experimental de axiones. La figura en azul muestra el flujo estimado de axiones emitidos por el Sol, que luego se convierten en el campo magnético de la Tierra (rojo) en rayos X (naranja). Estos rayos podrían ser detectados por el telescopio espacial de rayos X XMM-Newton. Aún se desconoce dónde buscar axiones: pueden ser partículas de materia oscura o manifestarse en la evolución de las estrellas
Uno de los métodos para el registro experimental de axiones. La figura en azul muestra el flujo estimado de axiones emitidos por el Sol, que luego se convierten en el campo magnético de la Tierra (rojo) en rayos X (naranja). Estos rayos podrían ser detectados por el telescopio espacial de rayos X XMM-Newton. Aún se desconoce dónde buscar axiones: pueden ser partículas de materia oscura o manifestarse en la evolución de las estrellas

Uno de los métodos para el registro experimental de axiones. La figura en azul muestra el flujo estimado de axiones emitidos por el Sol, que luego se convierten en el campo magnético de la Tierra (rojo) en rayos X (naranja). Estos rayos podrían ser detectados por el telescopio espacial de rayos X XMM-Newton. Aún se desconoce dónde buscar axiones: pueden ser partículas de materia oscura o manifestarse en la evolución de las estrellas.

Entonces, hay demasiados parámetros libres del Modelo Estándar, sus valores parecen desmotivados y excesivamente dispersos. Pero, ¿qué tiene que ver la naturalidad con eso?

S. T.: Y acabamos de acercarnos a ella. En física de partículas elementales, el principio de naturalidad de los modelos teóricos tiene un significado muy específico. Requiere que todos los parámetros libres adimensionales sean iguales a cero, o que el orden de magnitud no sea muy diferente de uno, digamos, en el rango de una milésima a mil. Los parámetros del Modelo Estándar claramente no cumplen con este criterio. Pero también hay una condición adicional, que fue formulada en 1980 por el notable físico teórico holandés Gerard 't Hooft, uno de los creadores del Modelo Estándar. Postuló que un valor muy pequeño de cualquier parámetro libre recibe una explicación natural solo si su puesta a cero estricta conduce a la aparición de simetría adicional, que obedecen las ecuaciones de la teoría. Según 't Hooft,La "proximidad" de tal simetría sirve como una especie de escudo que protege la escasez de este parámetro de grandes correcciones debidas a procesos cuánticos que involucran partículas virtuales. Cuando era estudiante y estudiante de posgrado, toda nuestra ciencia floreció literalmente con este postulado. Pero esto sigue siendo un debilitamiento del principio de naturalidad, que estamos discutiendo.

Gerard 't Hooft, físico teórico holandés, uno de los fundadores del Modelo Estándar. Foto del sitio sureshemre.wordpress.com
Gerard 't Hooft, físico teórico holandés, uno de los fundadores del Modelo Estándar. Foto del sitio sureshemre.wordpress.com

Gerard 't Hooft, físico teórico holandés, uno de los fundadores del Modelo Estándar. Foto del sitio sureshemre.wordpress.com

¿Qué pasa si vas más allá del Modelo Estándar?

ST: Aquí también surge el problema de la naturalidad, aunque de otro tipo. El parámetro dimensional más importante del modelo estándar es la media del vacío del campo de Higgs. Determina la escala de energía de la interacción electrodébil y las masas de partículas dependen de ella. Fuera del modelo estándar, existe un único parámetro igualmente fundamental de la misma dimensión. Esto, por supuesto, es la masa de Planck, que establece la escala de energía para los efectos cuánticos asociados con la gravedad. El campo de Higgs es de aproximadamente 250 GeV, que es el doble de la masa del bosón de Higgs. La masa de Planck es de aproximadamente 1019 GeV. Entonces, su razón es un número muy pequeño o un número gigantesco, dependiendo de qué poner en el numerador y qué en el denominador. De hecho, se están discutiendo otras escalas interesantes fuera del Modelo Estándar,pero también son inconmensurablemente más grandes que el campo de Higgs. Así que aquí también nos enfrentamos a una extrañeza evidente, es decir, a una falta de naturalidad.

Entonces, ¿tal vez sea mejor considerar el principio como una reliquia natural de la ciencia del siglo XX y abandonarlo por completo? No en vano, algunos científicos hablan sobre el inicio de la era posnatural

ST: Bueno, incluso una negativa total no resolverá todos nuestros problemas. Como dije, el principio de naturalidad es algo del campo de la estética. Pero también hay problemas experimentales que no irán a ninguna parte. Digamos que ahora se sabe con certeza que el neutrino tiene masa, mientras que las simetrías del Modelo Estándar requieren que sea estrictamente cero. Lo mismo ocurre con la materia oscura: no está en el Modelo Estándar, pero en la vida, aparentemente, sí. Es posible que si las dificultades experimentales pueden resolverse razonablemente, no se deba abandonar nada. Pero, repito, todo este complejo de problemas es bastante real e indica la naturaleza de crisis de la situación actual en física fundamental. Es posible que la salida de esta crisis sea una revolución científica y un cambio en el paradigma existente.

Sergei, ¿qué significa el principio de naturalidad para ti personalmente? ¿Quizás incluso emocionalmente?

ST: Para mí es, en cierto sentido, el principio de computabilidad. ¿No podemos simplemente tomar del experimento, sino calcular todos estos 19 parámetros? ¿O al menos reducirlos al único parámetro verdaderamente libre? Eso estaría bien para mí. Pero hasta el momento esta posibilidad no es visible. Por cierto, en algún momento muchos esperaban que las principales dificultades del Modelo Estándar pudieran resolverse sobre la base del concepto de supersimetría. Sin embargo, incluso las generalizaciones supersimétricas mínimas del modelo estándar contienen hasta 105 parámetros libres. Esto ya es realmente malo.

Pero para tal cálculo, debe confiar en algo. Como dice el refrán, no asumes nada, no obtendrás nada

S. T.: Ese es el punto. Idealmente, me gustaría tener una teoría unificada integral que, al menos en principio, permita realizar todos los cálculos necesarios. ¿Pero dónde conseguirlo? Durante muchos años, la teoría de cuerdas se ha propuesto como candidata para una base tan universal. Ha sido creado durante casi 50 años, una edad bastante respetable. Quizás esta sea una construcción teórica maravillosa, pero aún no se ha llevado a cabo como una teoría unificada. Por supuesto, nadie tiene prohibido esperar que esto suceda. Sin embargo, en la historia de la física, rara vez sucedió que una teoría se desarrolló durante medio siglo sobre promesas de éxitos futuros, y luego de repente y de hecho lo explicó todo. De todos modos lo dudo.

Es cierto que aquí hay una cierta sutileza de la teoría de cuerdas, que implica la existencia de unos 10.500 vacíos con diferentes leyes físicas. En sentido figurado, cada vacío debe tener su propio Modelo Estándar con su propio conjunto de parámetros libres. Numerosos defensores del principio antrópico argumentan que nuestro propio conjunto no requiere explicación, ya que no puede haber vida y, por tanto, ciencia en mundos con física diferente. Desde el punto de vista de la lógica pura, tal interpretación es aceptable, con la excepción de que la escasez del parámetro θ no puede derivarse del principio antrópico. Este parámetro bien podría haber sido más: a partir de esto, las posibilidades de la aparición de vida inteligente en nuestro planeta no habrían disminuido. Pero el principio antrópico solo anuncia la posible existencia de un conjunto casi infinito de mundos y en realidad se limita a esto. No se puede refutar o, para usar la terminología, falsificar. Esto ya no es ciencia, al menos a mi entender. Abandonar el principio de falsabilidad del conocimiento científico en aras de una teoría que de hecho no puede explicar nada me parece incorrecto.

No puedo dejar de estar de acuerdo. Pero vayamos más lejos. ¿Cómo se puede salir de la crisis o, si se quiere, de la precrisis de la física fundamental? ¿Quién tiene la pelota ahora, los teóricos o los experimentadores?

S. T.: Lógicamente, la pelota debería estar del lado de los teóricos. Hay datos experimentales fiables sobre la masa de neutrinos y hay observaciones de astrónomos que confirman la existencia de materia oscura. Parecería que la tarea es obvia: sentar las bases de un nuevo enfoque teórico y construir modelos específicos que permitan la verificación experimental. Pero hasta ahora esos intentos no han llevado a ninguna parte.

Una vez más, no está claro qué esperar del Gran Colisionador de Hadrones después de su modernización planificada. Por supuesto, se recibirán muchos datos en esta máquina, e incluso ahora, lejos de que se haya procesado toda la información recopilada por sus detectores. Por ejemplo, existe evidencia de que los electrones y los muones no son completamente idénticos en sus interacciones. Este sería un descubrimiento muy serio, que posiblemente explicaría la diferencia en sus masas. Pero esta evidencia aún es débil, puede confiar en ellos o no puede confiar en ellos. Es muy probable que esta cuestión se resuelva en experimentos posteriores en el LHC. Sin embargo, vale la pena recordar que los equipos de físicos experimentales que trabajan en él han informado más de una vez de indicios de importantes descubrimientos fuera del Modelo Estándar, y más tarde estos anuncios fueron refutados.

¿Lo que queda? Uno puede esperar superaceleradores que se construirán algún día, pero con ellos todo aún no está claro, al menos para una perspectiva de 10 a 20 años. Así que la pelota está realmente del lado de los astrofísicos. Se puede esperar un avance verdaderamente radical de esta ciencia.

¿Por qué?

ST: El caso es que no es posible encontrar nuevas partículas involucradas en interacciones fuertes. Por lo tanto, debemos buscar partículas que interactúen débilmente, que no están en el modelo estándar. Si interactúan débilmente, entonces rara vez interactúan y las manifestaciones de tales interacciones deben esperar mucho tiempo. No podemos esperar mucho en los experimentos con aceleradores. Pero el Universo ha estado esperando durante casi 14 mil millones de años, y los efectos de interacciones incluso muy raras pueden acumularse durante todo este tiempo. Es posible que los astrofísicos encuentren tales efectos. Y ya existen ejemplos de esto; después de todo, la presencia de oscilaciones de neutrinos, que demuestran la masa distinta de cero de esta partícula, se descubrió en el estudio de los neutrinos solares. Estas esperanzas están tanto más justificadas,que la base de observación de la astronomía y la astrofísica se expande constantemente debido a los nuevos telescopios terrestres y espaciales y otros equipos. Por ejemplo, un año después del primer registro directo de ondas gravitacionales, se demostró que se propagan a la misma velocidad que la radiación electromagnética. Este es un resultado muy importante que dice mucho para los teóricos.

norte

Conferencia de Sergei Troitsky "El universo como laboratorio de física de partículas", dictada el 8 de octubre de 2017 en la Universidad Estatal de Moscú. M. V. Lomonosov en el Festival de la ciencia:

Sergei, ya que mencionaste el espacio, recordemos a Johannes Kepler. En 1596, notó que los radios promedio de las órbitas planetarias desde Mercurio a Saturno calculados por Copérnico eran 0.38: 0.72: 1.00: 1.52: 5.2: 9.2. La distancia entre Marte y Júpiter le pareció a Kepler demasiado grande y, por lo tanto, antinatural. Supuso que había un planeta aún desconocido y, en última instancia, tenía razón. En la víspera de Año Nuevo de 1801, Giuseppe Piazzi descubrió Ceres en esta zona, que ahora se reconoce como un planeta enano. Por supuesto, ahora sabemos que no hay un planeta, sino todo un cinturón de asteroides. Kepler no tenía ni idea de él, pero creo que difícilmente se habría sorprendido demasiado. En general, en base al criterio de naturalidad se hizo una predicción muy concreta, que en un principio se justificó literalmente, y luego, si se quiere, con interés.¿Es posible algo similar en la física fundamental de hoy?

S. T.: Esto no está excluido. Si aplicamos el criterio de naturalidad para explicar la jerarquía de masas fermiónicas, es casi seguro que aparecerá alguna nueva simetría. Generalmente, hasta la fecha, se han propuesto varios candidatos para este rol, pero todos de alguna manera no nos satisfacen. Si se puede encontrar tal simetría, podría conducirnos a partículas aún desconocidas. Es cierto que predecirlos directamente, como el de Kepler, no funcionará, pero aprenderemos algo útil. Sin embargo, es posible que también en este caso las instrucciones útiles sean bastante vagas, con un abanico colosal de opciones. Por ejemplo, el axión se predice solo sobre la base de la nueva simetría propuesta por Peccei y Quinn. Sin embargo, este mecanismo permite una gran libertad en la elección de parámetros y, por lo tanto, no tenemos ninguna indicación de dónde buscar el axión. Puede ser una partícula de materia oscura.o puede manifestarse en la evolución de las estrellas o en otros lugares, simplemente no lo sabemos.

Bueno, el tiempo lo dirá. Y muchas gracias por la conversación

También hablé con Gia Dvali, profesor de física en las universidades de Nueva York y Múnich y codirector del Instituto Max Planck de Física (por cierto, este reconocido centro científico fue creado en 1914 como el Instituto de Física Kaiser Wilhelm, y su primer director fue Albert Einstein). Naturalmente, hablamos del mismo tema.

George Dvali, profesor de física en el Centro de Cosmología y Física de Partículas de la Universidad de Nueva York y la Universidad Ludwig-Maximilian de Munich, director del Instituto Max Planck de Física en Munich. Foto del sitio astronet.ge
George Dvali, profesor de física en el Centro de Cosmología y Física de Partículas de la Universidad de Nueva York y la Universidad Ludwig-Maximilian de Munich, director del Instituto Max Planck de Física en Munich. Foto del sitio astronet.ge

George Dvali, profesor de física en el Centro de Cosmología y Física de Partículas de la Universidad de Nueva York y la Universidad Ludwig-Maximilian de Munich, director del Instituto Max Planck de Física en Munich. Foto del sitio astronet.ge

Guia, ¿cómo interpretas el problema de la naturalidad del Modelo Estándar?

GD: En general, puedo repetir lo que dijo Sergei. Las ecuaciones del modelo estándar incluyen un conjunto de parámetros libres que no puede predecir. Los valores numéricos de estos parámetros difieren mucho entre sí, incluso si estamos hablando de objetos aparentemente similares. Tomemos, digamos, un neutrino, un electrón y un quark t. Todos ellos son fermiones, pero la masa del neutrino, muy probablemente, no exceda una fracción de un electrón-voltio, la masa del electrón es aproximadamente igual a quinientos mil electrón-voltios, y la masa del t-quark es 175 GeV - 175 mil millones de electrón-voltios. De hecho, estas diferencias pueden parecer antinaturales.

Pero este es solo el lado exterior. Para comprender mejor todo, es necesario tener en cuenta la sensibilidad ultravioleta de estos parámetros. Hablamos de su dependencia de un aumento de la escala de energías o, lo que es lo mismo, de una disminución de la escala espacial. Digamos que primero medimos la masa de un electrón en un laboratorio y luego miramos qué le sucede a las distancias de Planck. Con este enfoque, los parámetros se dividen en varios grupos. La máxima sensibilidad ultravioleta se demuestra por la densidad de energía del vacío físico. En la región de Planck, es proporcional al cuarto grado de cambio de escala. Si la masa de Planck se duplica, el valor de la energía del vacío aumentará 16 veces. Para la masa del bosón de Higgs, esta dependencia no es tan grande: no el cuarto, sino solo el segundo. Las masas de fermiones cambian muy débilmente, solo de acuerdo con la ley logarítmica. Finalmente, el parámetro θ prácticamente no nota cambios en la escala de Planck. Aunque su sensibilidad no es cero, es tan pequeña que puede ignorarse.

¿Qué significa esta extensión en el grado de sensibilidad de los parámetros libres del Modelo Estándar? Aquí son posibles varias opciones. Por ejemplo, podemos suponer que la masa del bosón de Higgs no merece el estado de una cantidad fundamental en absoluto. Esta suposición se extiende automáticamente a las masas de partículas, que dependen de la masa de Higgs. Entonces, la extensión de sus valores no parecerá más extraña que, por ejemplo, la diferencia en los tamaños de moléculas y galaxias. Ni uno ni otro pretenden de ninguna manera ser fundamentales, por lo que no tiene sentido valorar su tamaño en términos de naturalidad.

Si esta analogía parece demasiado descabellada, aquí hay otro ejemplo. Conocemos bien la energía característica de la interacción fuerte, su orden es 1 GeV. Y también sabemos que la escala de interacciones fuertes no es fundamental, por lo que su pequeño valor en relación con la masa de Planck no sorprende a nadie. En general, si aceptamos que, en términos de naturalidad o antinaturalidad, es razonable comparar cantidades exclusivamente fundamentales, entonces para los parámetros del Modelo Estándar este problema realmente desaparecerá.

Curiosamente, la misma lógica funciona para los partidarios del principio antrópico. Creen que existe una gran variedad de vacíos con diferentes leyes físicas, lo que suele denominarse multiverso. Nuestro propio universo emergió de uno de estos vacíos. Si tomamos este punto de vista, entonces, en general, no hay problema de naturalidad de los parámetros del Modelo Estándar. Pero no me gusta este enfoque, aunque admito que tiene sus propios partidarios.

Entonces, abandonar el supuesto de que los parámetros del Modelo Estándar son fundamentales elimina el problema de la naturalidad. ¿Es este el final de la discusión o podemos ir más lejos?

GD: Por supuesto, es posible y necesario. En mi opinión, es mucho más importante e interesante hablar no de la naturalidad del modelo, sino de su autoconsistencia. Por ejemplo, todos trabajamos en el marco de la teoría cuántica de campos. Por cierto, esto se aplica no solo al modelo estándar, sino también a la teoría de cuerdas. Todas las implementaciones físicamente significativas de esta teoría deben basarse en la teoría especial de la relatividad, por lo que sus ecuaciones deben verse iguales en todos los marcos de referencia inerciales. Esta propiedad se llama invariancia relativista de la teoría o invariancia de Lorentz. Existe un teorema según el cual todas las teorías de campos cuánticos invariantes de Lorentz deben ser invariantes CPT. Esto significa que sus ecuaciones básicas no deberían cambiar con el reemplazo simultáneo de partículas por antipartículas, la inversión de coordenadas espaciales y la inversión del tiempo. Si se viola esta invariancia, la teoría no será coherente en sí misma, y ninguna cantidad de naturalidad ayudará a construirla. En otras palabras, la teoría de campos cuánticos autoconsistente tiene que ser invariante CPT. Por lo tanto, cuando se habla de naturalidad, se debe tener cuidado de no confundirla con coherencia en uno mismo. Esta estrategia abre muchas posibilidades interesantes, pero discutirlas nos llevará demasiado lejos.

Wilhelm de Sitter, el astrónomo holandés que creó uno de los primeros modelos cosmológicos relativistas (modelo de De Sitter). Fuente: Archivo Fotográfico de la Universidad de Chicago
Wilhelm de Sitter, el astrónomo holandés que creó uno de los primeros modelos cosmológicos relativistas (modelo de De Sitter). Fuente: Archivo Fotográfico de la Universidad de Chicago

Wilhelm de Sitter, el astrónomo holandés que creó uno de los primeros modelos cosmológicos relativistas (modelo de De Sitter). Fuente: Archivo Fotográfico de la Universidad de Chicago

Gia, ¿es posible al menos un ejemplo?

GD: - Por supuesto. Como saben, el espacio de nuestro Universo se está expandiendo a un ritmo creciente; como dicen los cosmólogos, vivimos en el mundo de De Sitter. Esta aceleración generalmente se atribuye a la presencia de energía de vacío positiva, también llamada energía oscura. Su densidad medida es extremadamente baja, aproximadamente 10-29 g / cm3. Si asumimos que la gravedad puede describirse en el marco de la teoría cuántica de campos, entonces es natural esperar que el valor de la energía del vacío sea muchas decenas de órdenes de magnitud mayor que este valor. Dado que este no es el caso, el criterio de naturalidad obviamente no funciona. Sin embargo, ahora tenemos cada vez más motivos para pensar que el pequeño valor de la energía del vacío puede justificarse sobre la base del criterio de autoconsistencia.

Pero aún no ha terminado. En el marco del nuevo enfoque, la conclusión sugiere que la energía del vacío cambia con el tiempo. Si no introduce supuestos adicionales, entonces la escala de tiempo de tales cambios es inimaginablemente grande: 10132 años. Sin embargo, si asociamos estos cambios con la presencia de un cierto campo escalar, entonces esta escala será comparable al tiempo de Hubble, que es un poco más de diez mil millones de años. De los cálculos se deduce que puede exceder el tiempo de Hubble solo varias veces, y no muchos órdenes de magnitud. Para ser honesto, esta conclusión no me impresiona del todo, pero es bastante lógica. Hay otras opciones, pero son completamente exóticas.

Resumamos. En general, ¿cómo ve el problema de la naturalidad de los modelos de física fundamental y qué soluciones cree que son óptimas?

GD: Alexey, déjame comenzar con una perspectiva histórica, no te hará daño. En las últimas décadas, las opiniones de nuestra comunidad, la comunidad de quienes se dedican a la física fundamental, han oscilado fuertemente. En la década de 1990, aunque se discutió el principio antrópico, en general, nadie estaba particularmente interesado. Entonces la opinión predominante fue que los fundamentos de la estructura del universo ya se conocían en la persona de la teoría de cuerdas. Esperábamos que fuera ella quien daría la única solución correcta para describir nuestro Universo.

A finales de la última década, esta creencia cambió. Científicos muy serios, por ejemplo, Alex Vilenkin y Andrey Linde, comenzaron a defender activa y convincentemente el principio antrópico. En algún momento, hubo un punto de inflexión en la conciencia de la comunidad, algo así como una transición de fase. Muchos teóricos vieron en el principio antrópico la única salida a las dificultades asociadas con el problema de la naturalidad. Por supuesto, también tenían oponentes y nuestra comunidad estaba dividida sobre este tema. Sin embargo, es cierto que Linde admitió que no todos los parámetros del Modelo Estándar encuentran una interpretación natural en el contexto del principio antrópico. Sergei ya ha notado esta circunstancia en relación con el parámetro θ.

Andrey Linde (izquierda) y Alexander Vilenkin. Foto del sitio vielewelten.de
Andrey Linde (izquierda) y Alexander Vilenkin. Foto del sitio vielewelten.de

Andrey Linde (izquierda) y Alexander Vilenkin. Foto del sitio vielewelten.de

En los últimos años, la opinión colectiva ha vuelto a cambiar. Ahora vemos que un conjunto casi infinito de universos con diferentes leyes físicas no puede existir en absoluto. La razón es simple: tales universos no pueden ser estables. Todos los mundos exóticos de De Sitter deberían convertirse en continuos espacio-temporales vacíos con geometría plana de Minkowski. El vacío es el único estable solo con esta geometría. Se puede demostrar que la densidad de energía del vacío debe ser insignificante en comparación con la escala de Planck. Esto es exactamente lo que sucede en nuestro universo. Nuestro mundo aún no ha llegado al mundo de Minkowski, por lo que la energía del vacío es distinta de cero. Cambia y, en principio, estos cambios pueden detectarse experimentalmente y con observaciones astrofísicas. Entonces, no hay nada antinatural en la pequeñez de la energía del vacío,y su valor observado está en línea con las expectativas teóricas.

Se hacen otras predicciones muy específicas sobre la base del nuevo enfoque. Entonces, se sigue de ello que ciertamente debe haber un axión. Esta conclusión también está relacionada con el problema de la naturalidad. Permítanme recordarles que los teóricos una vez inventaron esta partícula para explicar el valor anormalmente pequeño del parámetro θ. Ahora decimos que la realidad del axión está dictada por el requisito de autoconsistencia de nuestras ecuaciones. En otras palabras, si el axión no existe, la teoría no es autoconsistente. Ésta es una lógica de predicción teórica completamente diferente. Entonces, en conclusión, puedo repetir lo que ya dije: el principio de naturalidad ha sido reemplazado por un principio mucho más fuerte de autoconsistencia, y el área de su aplicabilidad se expande constantemente y sus límites aún no se conocen. Es posible que sobre su base sea posible explicar la jerarquía de masas de partículas elementales,representando un problema tan difícil para el principio de naturalidad. Si esto es así, no lo sabemos. En general, tienes que trabajar.

Entonces, aquí están las opiniones de dos brillantes físicos teóricos que, según su propia admisión, han reflexionado mucho sobre el problema de la naturalidad de los modelos teóricos de la física fundamental. De alguna manera son similares, de alguna manera diferentes. Sin embargo, Sergei Troitsky y Gia Dvali no excluyen que ahora el principio de naturalidad, si no completamente obsoleto, en cualquier caso, ha perdido su credibilidad anterior. Si es así, entonces la física fundamental está entrando en la era del posnaturalismo. Veamos a dónde lleva esto.

Para concluir dignamente la discusión, le pedí a uno de los fundadores de la teoría de cuerdas, Edward Witten, profesor del Instituto de Princeton para la Investigación Fundamental, que hablara lo más brevemente posible sobre el problema de la naturalidad en la física fundamental. Esto es lo que escribió:

Edward Witten, profesor del Princeton Institute for Fundamental Research, cofundador de la teoría de cuerdas. Foto del sitio wikipedia.org
Edward Witten, profesor del Princeton Institute for Fundamental Research, cofundador de la teoría de cuerdas. Foto del sitio wikipedia.org

Edward Witten, profesor del Princeton Institute for Fundamental Research, cofundador de la teoría de cuerdas. Foto del sitio wikipedia.org

“Si un físico o cosmólogo llega a la conclusión de que algún valor observable tiene un valor extremo, busca una interpretación razonable. Por ejemplo, la masa de un electrón es 1800 veces menor que la de un protón. Sin duda, una diferencia tan grave llama la atención y necesita una explicación.

En este caso, una explicación razonable - o, en otras palabras, natural - es que cuando la masa del electrón se pone a cero, las ecuaciones del modelo estándar se vuelven más simétricas. En general, entonces consideramos que la simetría exacta o aproximada es natural, cuando hay razones para esperar que si hoy no sabemos por qué existe en la naturaleza, entonces esperamos encontrar una explicación a un nivel más profundo de comprensión de la realidad física. Según esta lógica, la pequeña masa del electrón no crea problemas desagradables para el principio de naturalidad.

Pasemos ahora a la cosmología. Sabemos que el tamaño del universo es aproximadamente 1030 veces la longitud de onda de un fotón típico de radiación de fondo de microondas. Esta relación no cambia a medida que evoluciona el universo y, por lo tanto, no puede atribuirse simplemente a su edad. Necesita una explicación diferente, que se puede obtener sobre la base de modelos cosmológicos inflacionarios.

Considere un ejemplo de otro tipo. Se sabe que el valor de la energía oscura es al menos 1060 veces menor que el valor calculado teóricamente con base en el conocimiento de otras constantes fundamentales. Por supuesto, este hecho también requiere una explicación. Sin embargo, todavía no hay una interpretación razonable para ello, aparte de, quizás, la que se deriva de la hipótesis del multiverso y el principio antrópico. Soy de los que preferiría otro tipo de explicación, pero aún no se ha encontrado. Así es como están las cosas ahora.

En conclusión, no puedo negarme el placer de citar un artículo reciente del profesor Witten (2018. Symmetry and Emergence), que, creo, será una excelente conclusión para la discusión sobre la naturalidad de las teorías de la física fundamental:

“En términos generales, la simetría de gauge no es más que una propiedad de describir un sistema físico. El significado de las simetrías de gauge en la física moderna es que los procesos físicos se rigen por leyes extremadamente sutiles (sutiles), que son inherentemente "geométricas". Es muy difícil dar una definición estricta de este concepto, pero en la práctica significa que las leyes de la naturaleza resisten cualquier intento indiscutible de encontrar una expresión explícita para ellas. La dificultad de expresar estas leyes en una forma natural y no redundante es la razón para introducir la simetría de gauge ".

Arkady y Boris Strugatsky
Arkady y Boris Strugatsky

Arkady y Boris Strugatsky.

Entonces, tres personas, tres opiniones. En conclusión, una cita de la historia de los hermanos Strugatsky "Ugly Swans" (1967):

"Lo natural es siempre primitivo", continuó Bol-Kunats, entre otras cosas, "y el hombre es un ser complejo, la naturalidad no le conviene".

¿Se ajusta a las teorías de la física fundamental? Esa es la pregunta.

Alexey Levin, PhD en Filosofía

Recomendado: