El “prototipo” de muchas teorías alternativas de la gravedad que nació a principios de la década de 1960 se llama teoría de Brans-Dicke (o Jordan-Brans-Dicke). Tiene varias formulaciones diferentes, pero en última instancia, todas equivalen a una sola cosa: la introducción de un nuevo campo llamado escalar, que (para todos los propósitos y propósitos prácticos) desempeña el papel de una constante gravitacional variable. La teoría de Jordan-Brans-Dicke se caracteriza por una llamada constante de acoplamiento adimensional; Las observaciones de precisión actuales en el sistema solar nos dicen que esta constante tiene que tener un valor increíblemente alto (varios diez mil o más), lo que, aunque técnicamente no es imposible, es altamente improbable para una constante física fundamental que no tiene unidades de medida.
La teoría de Jordan-Brans-Dicke es quizás el ejemplo más simple de una amplia categoría de teorías de gravedad modificadas, las llamadas teorías métricas de la gravedad. El tema común en estas teorías es que cualquier cosa que modifique la gravedad, actúa sobre la geometría del espacio-tiempo; la materia (o rayos de luz) sigue caminos que están determinados por la curvatura del espacio-tiempo (llamadas geodésicas), en lugar de responder directamente a alguna fuerza nueva. Otro grupo de teorías que pertenece a esta misma categoría son las llamadas teorías [matemáticas] f (R) [/ matemáticas]: este nombre se refiere al hecho de que la teoría de Einstein puede formularse utilizando solo el llamado escalar de Ricci (denotado por la letra [math] R [/ math]), y estas teorías modificadas reemplazan [math] R [/ math] con alguna función [math] f (R) [/ math] de [math] R [/ math] ( por ejemplo, [matemáticas] R ^ 2 [/ matemáticas]) en las expresiones apropiadas. Sin embargo, no es difícil demostrar que en la mayoría de los casos, las teorías [matemáticas] f (R) [/ matemáticas] son solo teorías escalares disfrazadas, es decir, Jordan-Brans-Dicke o alguna variante de las mismas.
Una desviación más audaz de la teoría de Einstein es la gravedad conforme de Philip Mannheim y sus variantes: teorías en las que el escalar de Ricci se reemplaza por otra cosa, notablemente algo formado por el llamado tensor Weyl (o conforme), que (a diferencia del escalar de Ricci) es distinto de cero en ausencia de materia. (Esto lleva a todo tipo de predicciones interesantes, no todas buenas para la teoría).
Aún en el contexto de las teorías métricas, existen extensiones más complicadas de la relatividad general, algunas involucrando múltiples campos (por ejemplo, múltiples campos escalares, campos vectoriales, quizás incluso métricas adicionales, las llamadas teorías bimétricas de la gravedad).
- ¿Cuál será el resto cuando 185185 escrito 100 veces se divide por 99?
- Cómo resolver [math] x ^ 2-8y ^ 2 = 1 [/ math] donde, [math] x, y \ in \ mathbb {N} [/ math] usando la fracción continua de [math] \ sqrt {8 }[/matemáticas]
- ¿Cuál es el teorema del resto y qué prueba hay de él?
- Cómo estimar el número de soluciones en el teorema de Roth
- ¿La conjetura de Collatz sigue en pie si reemplazo el 3 con otras probabilidades positivas?
Todas las teorías métricas pueden caracterizarse por una serie de parámetros que básicamente miden cómo las predicciones de la teoría se desvían de las de Einstein. Los orígenes de esta parametrización se remontan a la década de 1920, a Sir Arthur Eddington, quien introdujo por primera vez un par de parámetros que hoy en día son conocidos por las letras griegas [matemáticas] \ beta [/ matemáticas] y [matemáticas] \ gamma [/ matemáticas] . Para la relatividad general, ambos parámetros tienen el valor de 1; para otras teorías, pueden tener valores diferentes. La extensión moderna del formalismo de Eddington se llama formalismo post-newtoniano parametrizado (PPN), con hasta 11 parámetros diferentes. Lo bueno de estos parámetros es que son mensurables: los experimentos terrestres, los experimentos espaciales (órbitas de naves espaciales, la propagación de radio, el radar y el alcance del láser) y las observaciones astronómicas ayudan. Nuevamente, hasta la fecha, ningún experimento contradecía la relatividad general.
Un ejemplo de una teoría bastante complicada que utiliza múltiples campos es la llamada teoría TeVeS (Tensor-Vector-Escalar) del difunto Jacob Bekenstein. Esta teoría relativista de la gravedad fue un intento de proporcionar una justificación teórica para la famosa fórmula MOND (Dinámica Newtoniana Modificada) de Mordehai Milgrom, una fórmula no relativista que ofrece una predicción razonablemente buena para las rotaciones de galaxias sin la necesidad de introducir materia oscura.
Otras teorías métricas complicadas juegan con las propiedades del campo métrico en sí, permitiendo que la métrica se vuelva “no simétrica” (en un sentido matemático específico de la palabra), o que tenga la llamada “torsión”.
Más allá de las teorías métricas de la gravedad, existen teorías de la gravedad que predicen algún tipo de “quinta fuerza” que actúa sobre la materia además de la geometría del espacio-tiempo. Una de esas teorías es la MOG (gravedad modificada) de John Moffat, también conocida por el acrónimo STVG (gravedad escalar-tensor-vector; no, nada que ver con TeVeS, a pesar de la similitud entre los nombres). La principal dificultad de estas “quinta fuerza” Las teorías con las que tenemos que lidiar es que, debido a la quinta fuerza, la materia ya no sigue a la geodésica. Si esto también se aplica a los rayos de luz, eso es un problema: los fotones con diferentes energías seguirían diferentes caminos, por lo que cuando observa, por ejemplo, la curvatura gravitacional de la luz (u ondas de radio) por el Sol, o la lente gravitacional por astronómica distante objetos, la flexión dependerá del color / frecuencia! Nuevamente, esto no es algo que vemos.
En muchos casos, tales predicciones “inconvenientes” de las teorías se ocultan utilizando diversos mecanismos de “detección”, como el llamado mecanismo de camaleón en el caso de las teorías escalares.
Hay muchos más, por supuesto, pero creo que el bosquejo rápido anterior es un resumen razonablemente coherente de las teorías más prevalentes.
En cuanto a la verificación experimental: la motivación de la mayoría de estas teorías es eliminar la materia oscura y explicar los fenómenos observados (curvas de rotación de galaxias, dinámica de cúmulos de galaxias, formación de estructuras a gran escala, observaciones cosmológicas, incluido el espectro de potencia angular del fondo de microondas ) modificando las leyes de la gravedad en su lugar. El listón está muy alto. Una teoría de la gravedad modificada no solo debe ser consistente con todos los experimentos de laboratorio y del sistema solar, sino que también debe ser consistente con las observaciones de púlsares binarios (observación indirecta de radiación gravitacional), observación directa de ondas gravitacionales, lentes gravitacionales sobre escalas cosmológicas y observaciones cosmológicas a gran escala. Mientras tanto, la teoría de Einstein es muy estricta: se basa en unos pocos principios muy básicos (esencialmente, covarianza general, la idea de que las leyes de la naturaleza son independientes del marco de referencia del observador) y el principio de equivalencia débil, es decir, que la gravedad no No importa de qué material está hecho, solo su contenido de energía de estrés), por lo que modificarlo requiere una precisión casi quirúrgica.
Y, por supuesto, todas estas son teorías clásicas. La cuestión de cuantificar la gravedad es otra cuestión completamente distinta. ¿Es la gravedad una teoría del campo cuántico? ¿La relatividad general surge de una teoría más fundamental (por ejemplo, la teoría de cuerdas)? ¿Es la gravedad puramente clásica, por ejemplo, la gravedad entrópica? Estas siguen siendo preguntas completamente abiertas por el momento.