jueves, noviembre 18, 2010

Obsesión de físicos: científicos atraparon la antimateria

Un átomo de hidrógeno está formado por un protón positivo y un electrón negativo. Un átomo de antihidrógeno está constituido por un protón negativo (antiprotón) y un electrón positivo o positrón. El físico inglés Paul Dirac había predicho desde 1931 la existencia de la antimateria, una materia “espejo” de la que conocemos, pero sigue siendo difícil de observar, ya que todo átomo de antimateria se aniquila en contacto con la materia, produciendo una enorme cantidad de energía. Materia y antimateria habrían sido creadas en cantidades iguales en los instantes que siguieron al Big Bang, pero sólo nos queda la materia. ¿A dónde se fue la antimateria? Es una de las preguntas que obsesionan a los físicos. Algunos de ellos se preguntan incluso si la antimateria tendría una antigravedad, si en lugar de atraerse, dos átomos de antimateria se rechazarían. Descubrir una gravedad repulsiva podría aportar una respuesta a otro enigma: el de la energía desconocida que favorece la aceleración de la expansión del Universo. Los primeros átomos de antihidrógeno fueron producidos en el CERN en 1995, pero se aniquilaron casi instantáneamente en contacto con la materia, sin que sus propiedades hubiesen podido ser estudiadas. En el marco del nuevo experimento Alpha del CERN, publicado ayer en el sitio web de la revista científica británica Nature, 38 átomos de antihidrógeno fueron capturados durante una décima de segundo, “lo suficiente como para estudiarlos”, según el CERN. Los investigadores debieron utilizar 10 millones de antiprotones y muchos más positrones durante las 355 tentativas para lograr producir y capturar 38 átomos de antihidrógeno ultrafríos. Para confinar esas partículas neutras, fue necesario crear un nuevo tipo de trampa magnética. “La naturaleza eliminó la antimateria. Es entonces muy gratificante y un poco emocionante mirar el aparato Alpha y saber que contiene átomos estables y neutros de antimateria”, se congratuló Jeffrey Hangst (Universidad de Aarhus, Dinamarca), en nombre de los participantes en esos experimentos.

lunes, noviembre 15, 2010

Gravedad y QED

La introducción de la gravedad hace que se puedan realizar ciertos cálculos en electrodinámica cuántica y nos proporciona pistas sobre unificación y gravedad cuántica.

Foto

Un trabajo teórico proporciona pistas sobre el papel que puede tener la gravedad en una teoría cuántica de campos.
Las fuerzas conocidas son el electromagnetismo, la fuerza nuclear débil, la fuerza nuclear fuerte y la gravedad. La primera controla la química, nuestros aparatos eléctricos y electrónicos, la segunda los procesos de desintegración y la tercera es la responsable de evitar que los núcleos atómicos se disgreguen por la repulsión electrostática provocada por la primera. La última mantiene la integridad de planetas, sistemas solares, galaxias y todo el Universo.
Pasaron muchas décadas desde que se descubrió la Mecánica Cuántica (MC) hasta que se pudieron crear teorías cuánticas que describieran algunas de estas interacciones, son las teorías cuánticas de campos. Una de ellas es la electrodinámica cuántica (QED), que describe las interacciones entre fotones y partículas cargadas como los electrones. Permite ver cómo se aniquilan un electrón y un positrón y cómo producen un fotón en el proceso. Este marco teórico permite tener en cuenta, por ejemplo, las fluctuaciones del vacío y cómo estas fluctuaciones (aparición espontánea de partículas virtuales durante el breve periodo de tiempo permitido por el principio de incertidumbre) afectan a las demás partículas. Así por ejemplo la fuerza electrostática se puede ver como un intercambio de fotones virtuales entre dos cargas. Los fotones, en este caso, serían los bosones (partículas de spin entero) responsables de la fuerza electromagnética.
También tenemos la cromodinámica cuántica (QCD), que explica en términos similares a los anteriormente descritos, las interacciones de los quarks (¿cuarks?), que son los componentes de los bariones (combinaciones de tres quarks como los protones y neutrones) y los mesones (combinaciones de dos quarks). En definitiva describe la interacción fuerte. Los quarks se mantendrían unidos entre sí gracias al intercambio de gluones, que serían los bosones portadores de la fuerza fuerte.
Tanto en un caso como en otro, los cálculos son difíciles y algunas veces es necesario el uso de computadores, como en la QCD. Además, en este tipo de teorías aparecen infinitos que hay que eliminar para que la física tenga un sentido. Para ello se utilizan diversas técnicas, como la renormalización.
Pero a los físicos les gusta tener un marco teórico que explique las cosas de una manera unificada. De este modo se consiguió unir la interacción electromagnética y la débil en una sola teoría. A altas energías no se tendrían estos dos tipos de interacción sino sólo una: la interacción electrodébil. Esta unificación fue exitosa y disponemos de buenos resultados experimentales que la corroboran.
El siguiente salto sería una unificación que uniera la electrodébil y la fuerza fuerte. Aunque hay algunos modelos teóricos que predicen cómo se podría dar esto, estamos a la espera de que los datos del LHC nos indiquen por dónde va la cosa. Si se consiguiera demostrar la supersimetría, por ejemplo, sería bueno en este sentido. Recordemos que la supersimetría es una idea independiente de las teorías de cuerdas, algo que éstas necesitan, pero que no predicen.
Si todo esto finalmente se confirma habría una energía más allá de la cual sólo habría una fuerza que daría cuenta de la interacción débil, fuerte y electromagnética. Esta energía se habría alcanzado una fracción de segundo después del Big Bang y se correspondería a un estado físico bastante sencillo.
Pero hemos dejado de lado en esta descripción a la gravedad. Pese a todos los esfuerzos y trabajo invertido en ello, la fuerza de la gravedad se escapa a ser descrita cuánticamente. No tenemos una teoría cuántica de la gravedad. Tampoco tenemos una manera de unir esta interacción con las demás en una teoría unificada que las describa a todas. Cuando se considera la fuerza de la gravedad entre partículas se ve que es muy débil a distancias normales pero se torna muy fuerte a distancias muy cortas, tan fuerte que no se puede incluir en una teoría cuántica sin que aparezcan infinitos y otros problemas.
Uno de los esfuerzos teóricos que más recursos e intelectualidad se ha tragado ha sido las teorías de cuerdas que pretenden precisamente hacer esto mismo. Después de 30 años se ha convertido poco más o menos que en una religión incapaz de predecir nada comprobable experimentalmente.
Por eso, cualquier pista o indicio que nos hable del papel de la gravedad a nivel cuántico es bien recibido, aunque no represente una teoría cuántica de la gravedad bien definida.
Esta es la razón por la cual a David Toms, de Newcastle University, le han publicado recientemente un trabajo sobre este tema en Nature, pese a que esta revista no suele publicar estudios “exóticos” de este tipo.
Toms ha encontrado que la introducción de la gravedad en la QED facilita los cálculos a alta energía. Es de los pocos casos teóricos en los que la introducción en Mecánica Cuántica de la interacción gravitatoria se hace armoniosamente sin que aparezcan infinitos y hace, en definitiva, que los cálculos sean más manejables.
Sin embargo, no lancemos las campanas al vuelo. Una teoría totalmente unificada está todavía igual de lejos que hace un par de semana. Incluso la gravedad en este esquema sigue siendo no cuantizable e incontrolable teóricamente. Además, otros teóricos dicen que todavía es pronto para decir nada y que hay que consolidar estas nuevas ideas.
Un problema de la QED que aparece en la descripción de la interacción entre partículas cargadas (electrones por ejemplo) y fotones, es que esta interacción aumenta sin cesar a altas energías. Esto es el resultado de la polarización del vacío. La carga del electrón no es la carga “desnuda” del electrón, sino que es la carga desnuda del electrón apantallada por todas las partículas virtuales que aparecen alrededor de él. A altas energías, es decir a distancias cortas, este efecto de apantallamiento disminuye y la carga efectiva aumenta hasta límites que teóricamente no son fáciles de manejar y la teoría se transforma en inútil.
Uno esperaría lo contrario, como ocurre en la fuerza fuerte, en donde la fuerza tiende a cero a altas energías. Es lo que se llama libertad asintótica, algo por lo que Frank Wilczek, David Gross y David Politzer recibieron el Nobel hace poco. La constante de acoplamiento g de la QCD decrece con la energía y la interacción entre quarks se vuelve más débil a distancias cortas.
Uno esperaría que la unificación de fuerza débil, fuerte y electromagnética fuera también asintóticamente libre a altas energías. A cierto nivel de energía los valores de todas las constantes de acoplamiento convergerían a un solo valor fijo.
Toms ha descubierto una manera de evitar el problema de la QED. Introduciendo la gravedad en el esquema consigue ir más allá en los cálculos y que los valores no se disparen a altas energías. Básicamente permite que ciertos cálculos sean más manejables.
Si se pudiera probar que la gravedad cuántica hace que la QED sea asintóticamente libre entonces la QED sería una teoría viable por sí misma. Según los cálculos de Toms, la introducción de la gravedad hace que la interacción entre electrones y fotones sea prácticamente nula a altas energías (1015–1019 GeV). Este debilitamiento permitiría a los físicos teóricos calcular el comportamiento de los electrones a muy altas energías.
Según Toms esto querría decir, físicamente, que la carga eléctrica se ve afectada por la gravedad. A largas distancias no pasa nada y el comportamiento es el mismo que el que aparece en los libros de texto de bachillerato. Pero a distancias cortas, la carga se debilita gracias a la gravedad, pues aunque las masas de las partículas implicadas sean pequeñas no es despreciable a distancias cortas. Este resultado es inesperado porque en ausencia de gravedad esta carga se dispararía al infinito.
Hay todavía mucho trabajo por hacer y este estudio sólo proporciona unas pistas que seguir. La gravedad en sí misma sigue siendo incontrolablemente fuerte a altas energías. Toms introduce la gravedad mediante la cuantización de la Relatividad General y este esquema de gravedad deja de funcionar a las energías en las que se espera que ocurra una unificación total.
Todavía no se sabe seguro si el método es aplicable a otras interacciones. Quizás en esos casos el método falle por algún lado, aunque ahora parece que no es así. Según Toms se obtendrían resultados similares para cualquier teoría de Yang-Mills. Por lo tanto, la escala de energías a la que se daría la unificación de la gravedad y de las demás interacciones fundamentales se produciría a menor escala que la escala de Planck. Incluso con mucha suerte esta unificación se podría alcanzar con futuros aceleradores.
Si éste fuera un método universal, aplicable en todos los casos estaríamos, sin duda, en posesión de una herramienta teórica poderosa.

Copyleft: atribuir con enlace a http://neofronteras.com/?p=3295

Fuentes y referencias:

domingo, noviembre 14, 2010

Burbujas gigantes de energía en la Vía Láctea

Dos burbujas de energía captadas por el telescopio Fermi en la Vía Láctea. | Nasa -   Nasa Agencia

Dos burbujas de energía captadas por el telescopio Fermi en la Vía Láctea. | Nasa - Nasa Agencia

Madrid | Elmundo.es

El telescopio espacial de rayos gamma Fermi, de la NASA, ha revelado una extraña estructura que nunca antes se había observado en nuestra galaxia. Se trata de dos burbujas cargadas de energía que erupcionan en el centro de la Vía Láctea y que contienen energía equivalente a 100.000 explosiones de supernovas, según publican en “The Astrophysical Journal”.

"Lo que vemos son dos burbujas que emiten rayos gamma y que se extienden a lo largo de 25.000 años luz cada una, de norte y sur, en el centro galáctico", dice el astrónomo Doug Finkbeiner, del centro Smithsonian (Universidad de Harvard). Finkbeiner reconoce que aún no se entiende bien el origen y la naturaleza de este fenómeno de tan grandes dimensiones.

La estructura atraviesa más de la mitad del cielo visible, desde la constelación de Virgo a la de Grus y puede tener millones de años.

Finkbeiner y su equipo descubrieron las burbujas cuando procesaban los datos enviados por el detector LAT del telescopio, que es el más sensible a los rayos gamma que se ha lanzado hasta ahora. Los rayos gamma son una radiación electromagnética de altísima energía, pero hasta ahora otros astrónomos no habían observado ambas concentraciones debido a la niebla que genera esta radiación en la galaxia y que le da su aspecto lechoso.

Niebla en la Vía Láctea

Realizando varias estimaciones de esta niebla, Finkbeiner y sus colegas lograron aislar los datos y revelar las burbujas gigantescas. Los científicos tratan ahora de entender cómo se formaron sus estructuras, que parecen tener bordes muy definidos.

Por su forma, podrían ser el resultado de un lanzamiento grande y rápido de energía de una fuente que aún es un misterio.
Una posibilidad podría ser una inyección desde un agujero negro supermasivo en el centro de la galaxia.

domingo, noviembre 07, 2010

Científico holandés postula que la gravedad sería una ilusión

Desde hace mucho tiempo, los físicos saben que la gravedad es una ley física muy extraña. La gravedad no parece relacionarse bien con otras fuerzas básicas de interacción, como las fuerzas electromagnéticas o nucleares. Un científico holandés afirma conocer la razón que explicaría esta particularidad: la gravedad no sería una fuerza fundamental de interacción, sino que derivaría de otra más fundamental de mayor potencia.

El Dr. Eric Verlinde, de 48 años, respetado físico teórico en teoría de cuerdas y profesor de física en el Instituto de Física Teórica de la Universidad de Amsterdam, propuso una nueva teoría de la gravedad, según informó el 12 de julio pasado el periódico New York Times. En el reciente informe titulado "Sobre el origen de la gravedad y las Leyes de Newton”, argumenta que la gravedad es una consecuencia de las leyes de la termodinámica. Yendo contra la lógica de más de 300 años de ciencia, él propone que la gravedad es una ilusión que ha causado confusión continua entre los físicos, o por lo menos entre aquellos que profesan entenderlo.

En su informe afirma: “Para mí, la gravedad no existe”. Eso no significa que el Dr. Verlinde no se caiga por no estar sujeto a las leyes de la gravedad, pero junto con otros físicos, piensa que la ciencia ha estado viendo la gravedad de una manera equivocada y que hay algo más básico de lo cual la gravedad “surge”; del mismo modo en que los mercados de valores surgen debido al comportamiento colectivo de inversionistas individuales o cómo la elasticidad surge de la mecánica entre los átomos.

En el núcleo de su teoría la falta de orden en los sistemas físicos juega un papel relevante. Su argumento se basa en el comportamiento del universo. Para explicarlo con un ejemplo recurre a lo que se podría llamar “un día de cabello rebelde” en la teoría de la gravedad. Dice así: si su cabello se riza con el calor y la humedad es porque también existen muchos otros modos para que el pelo que está rizado se haga lacio, a la naturaleza le gustan las opciones. Entonces, lo que se necesita para alizar el cabello es una fuerza que tire del pelo haciéndolo lacio eliminando las otras opciones de la naturaleza. Olvídese del espacio curvo o la espeluznante atracción a distancia descrita por las ecuaciones de Isaac Newton. El Dr. Verlinde postula que la fuerza que llamamos gravedad es simplemente un subproducto de la propensión de la naturaleza a máximizar el desorden.

La teoría del profesor Verlinde postula que la gravedad es esencialmente una fuerza entrópica. Un objeto moviéndose alrededor de otros objetos pequeños cambiaría el desorden que los rodea y la gravedad se haría sentir. Basado en esta idea de la teoría holográfica, él afirma que puede derivar la segunda ley de la mecánica de Newton. Además, su teoría sobre la física de la masa inercial presenta un nuevo enfoque al viejo concepto.

La investigación sobre el universo en la ciencia moderna esta esencialmente basada en la teoría de la gravedad. Si la gravedad no existiera, entonces nuestra comprensión de las galaxias y la estructura del universo podrían estar equivocadas. Esto puede ser la causa por la que los astrónomos a menudo encuentran difícil explicar el movimiento gravitacional de los cuerpos celestes distantes y tienen que introducir conceptos extraños ad hoc como el de “materia oscura” para ayudar a equilibrar las ecuaciones.

Una nueva teoría de la gravedad podría arrojar luz sobre algunas de las desconcertantes cuestiones cósmicas con las cuales los físicos se encuentran, como la energía oscura, una especie de antigravedad que parece estar acelerando la expansión del universo, o que la materia oscura es supuestamente necesaria para mantener unidas a las galaxias.

“Hemos sabido durante mucho tiempo que la gravedad no existe”, dice el Dr. Verlinde, “Ahora es el momento de gritarlo en voz alta”.

Fuente


lunes, noviembre 01, 2010

Teoría de la relatividad especial: ¡a la velocidad de la luz!

Después de algunos años de viaje, el gemelo astronauta regresa. ¿Han envejecido en la misma medida? La respuesta es no y la razón precisa de ello la dio Albert Einstein en 1905 cuando describió su teoría especial de la relatividad.

Para la persona que viajó en la nave espacial, el tiempo pasó más lentamente, es “más joven” que su gemelo en la Tierra. Este fenómeno se llama dilatación del tiempo y se explica con el segundo postulado de la teoría de la relatividad especial, que señala que la velocidad de la luz es la máxima velocidad que puede alcanzar un cuerpo en movimiento en el universo.

El tiempo transcurrido depende de donde hagamos nuestras mediciones, en este caso la Tierra y la nave espacial, que son los dos sistemas de referencia que utilizamos. Por otra parte, para ser consecuente con las definiciones de Einstein, debemos decir que esta dilatación del tiempo se acompaña -para el observador en movimiento, en este caso el gemelo viajero- por una contracción de las distancias.

Estos efectos ocurren a muy altas velocidades y son prácticamente imperceptibles a velocidades de la vida diaria.

Nuestro planeta recibe diariamente una gran cantidad de partículas provenientes del espacio exterior que se mueven a altas velocidades: los llamados rayos cósmicos. Muchas de estas partículas son inestables, es decir, existen como tales un período muy corto, pero al tener velocidades cercanas a la luz, su “vida media” se extiende y las podemos detectar en la tierra con instrumental adecuado. Ellas son una prueba concluyente de la validez de la teoría de Einstein al demostrar la dilatación del tiempo.

La teoría de la relatividad especial ofrece además otros resultados. Uno de ellos es la famosa ecuación E=mc2, que predice que la masa se transforma en energía y viceversa y que además explica por qué se produce la energía nuclear.

Otra de sus consecuencias es la antimateria. Cada partícula tiene asociada una antipartícula, es decir, otro corpúsculo con las mismas propiedades pero con carga eléctrica de signo contrario. Así, a un electrón le corresponde un positrón. Este conocimiento ha permitido producir nueva tecnología médica, como el tomógrafo de positrones (PET).

Más allá de la relatividad de Einstein

Explicamos el estatus actual de la teoría de la relatividad y las posibles nuevas implicaciones físicas que podría haber más allá de esta. Nos concentramos en dos problemas no resueltos y que continúan siendo un enigma: la asimetría materia-antimateria y el campo magnético primordial.

El inicio del siglo XX coincidió con dos de las revoluciones más importantes de la física desde la época de Newton. En efecto, en 1900 Max Planck propuso la notable idea de que para entender la radiación del cuerpo negro había que suponer que la energía del campo electromagnético que se encierra en una cavidad está “discretizada”: aparece en gránulos de energía (fotones).

Esta simple idea fue suficiente para entender las curvas experimentales que se conocían varios años antes que Planck iniciara sus estudios y que muchos otros científicos intentaron explicar antes sin éxito.

Sin saberlo, en ese año Planck dio el primer paso para lo que se entendería -25 años más tarde- como la mecánica cuántica y que es la base de las teorías que explican el mundo físico a pequeñas distancias.

Cinco años después de este descubrimiento, Albert Einstein -quien entonces tenía 26 años- formuló la teoría de la relatividad especial, una formidable extensión de la física clásica de Newton a rangos de energía muy altos y que ya eran experimentalmente accesibles en la época de Einstein.

Aún más: Einstein y otros notables científicos tales como Poincaré y Lorentz ya sabían que los fenómenos electromagnéticos no encajaban en la descripción newtoniana.

Desde un punto de vista puramente intelectual, es difícil imaginar cómo el gran físico inglés James C. Maxwell, aparte de unificar los fenómenos eléctricos y magnéticos, al mismo tiempo -y sin saberlo- construyó también la primera teoría invariante relativista, cincuenta años antes que Einstein.

En el contexto de la historia de la ciencia, la segunda mitad del siglo XIX y la primera mitad del siglo XX posiblemente son los más brillantes de la física.

El papel que desempeñó Einstein en 1905 -y aquí reside el secreto de su genio- fue construir su teoría de la relatividad usando conceptos y resultados que estaban dispersos, pero que eran conocidos por todos los científicos de su tiempo.

Uno de ellos es el concepto de universalidad de los fenómenos físicos. Es decir, cuando se hace un experimento en un laboratorio (digamos en nuestra casa), una pregunta natural es:

¿Qué pasa si repetimos el mismo experimento, en las mismas condiciones, en otro lugar y en otro instante?

Obviamente, el resultado del experimento debería ser el mismo. En el lenguaje de la física de hoy, diríamos que los resultados del experimento son invariantes bajo traslaciones rígidas en el espacio y en el tiempo.

Ahora, modifiquemos un poco las condiciones previas. Por ejemplo, supongamos que un físico realiza un experimento arriba de un bus que se mueve a velocidad constante, ¿puede otra persona, que ve pasar el bus, obtener alguna información confiable del experimento?

La respuesta es sí, y se conoce desde la época de Galileo en el siglo XV. Él fue el primer científico que dio los argumentos necesarios para que tanto la persona que va en el bus como la que observa desde tierra obtengan la misma información. Este procedimiento es lo que se llama el principio de relatividad galileano.

Sin embargo, aunque este principio parece evidente en sí, no lo es si hacemos un experimento con ondas electromagnéticas.
De acuerdo con Galileo, si el bus se mueve con velocidad v con respecto al observador en tierra y el físico que está arriba del bus enciende una linterna, nos podemos preguntar: ¿Cuál es la velocidad de los fotones que salen de la linterna, vistos por la persona que está en tierra?

Con certeza Galileo respondería: “La velocidad de los fotones es v+c”, si tanto los fotones como el autobús van en el mismo sentido y con la misma dirección, mientras que el experimento nos hará ver que -contra nuestra intuición- los fotones se mueven a la velocidad c, tanto para el físico que va en el autobús como para la persona que está en la tierra.

Esta contradicción dio lugar a la primera hipótesis de la teoría de Einstein:
La velocidad de la luz es una constante universal y es independiente del observador

La segunda hipótesis es más técnica en cuanto nos obliga a modificar las expresiones matemáticas que dicen cómo se relacionan las cantidades que caracterizan un evento, visto por dos observadores.

De acuerdo con Galileo, la manera de comparar la observación de un suceso desde dos sistemas de referencia (que se mueven a velocidad constante) es mediante una trasformación, que hoy llamamos “de Galileo”. Esta transformación -que es una fórmula matemática- da el resultado c+v mencionado arriba y establece, además, que el tiempo es absoluto e independiente del sistema de referencia.

La condición de independencia del tiempo de los sistemas de referencia es una condición obligatoria para que la formula de adición de velocidades de Galileo sea correcta.

Sin embargo, si los experimentos son consistentes con la primera hipótesis de Einstein, entonces la independencia del tiempo debería tener sólo una validez restringida, es decir, debería ser válida solo para objetos que se mueven a velocidades mucho menores que la velocidad de la luz.

Así el problema fundamental es generalizar el principio de relatividad de Galileo y al mismo tiempo encontrar un conjunto de ecuaciones que generalicen las trasformaciones de Galileo.

Notablemente, varios años antes, el físico holandés Hendrik Lorentz ya se había dado cuenta de que los fenómenos electromagnéticos eran inconsistentes con los postulados galileanos y, por ello, postuló un conjunto de transformaciones ad hoc. Los físicos las llaman trasformaciones de Lorentz y -aparte de contener las transformaciones de Galileo como un caso particular- son el punto de partida que usó Einstein para formular su segunda hipótesis:

Las leyes de la física son invariantes ante las transformaciones de Lorentz

Las implicaciones físicas de estos dos postulados son enormes. Por un lado, el tiempo deja de ser un concepto absoluto (y, por lo tanto, el concepto de simultaneidad de los eventos) y ahora depende del sistema de referencia; y, por otro, pone una cota a la velocidad máxima que se puede alcanzar, a saber: ningún objeto se puede mover más rápido que la velocidad de la luz.

La teoría de la relatividad especial tiene múltiples pruebas experimentales que demuestran que ella es correcta. Por ejemplo, la producción de partículas inestables que se crean en la alta atmósfera, o bien la existencia de materia y antimateria, que es quizás la comprobación más espectacular. Este hecho es tan interesante que merece una explicación. En efecto, dentro de las implicaciones de la teoría de la relatividad especial es posible demostrar que el cuadrado de la energía de una partícula libre es proporcional al cuadrado de su momento.

Este hecho implica que, por lo tanto, la energía puede tener dos signos.

A priori esto es inconcebible porque tal objeto sólo puede tener energía positiva. Esta dificultad fue parcialmente resuelta por el físico inglés Paul A. M. Dirac en 1927 cuando descubrió la ecuación que lleva su nombre. Ingenuamente uno podría descartar por principio el signo menos que aparece en la última ecuación porque como la partícula es libre, su energía necesariamente debe ser positiva.

Dirac argumentó en términos del “mar” de Fermi, es decir, sostuvo que el espacio está lleno de partículas de carga -e y cuando uno quita una de ellas, el vacío que queda es equivalente a poner otra partícula idéntica a la que se quitó pero con carga +e. A este vacío o “agujero” que queda en el “mar”, Dirac lo llamó antipartícula. En otras palabras, una antipartícula tiene las mismas propiedades que su partícula asociada, la misma masa, el mismo espín, excepto la carga eléctrica, que tiene signo contrario.

Esto explica por qué cuando se encuentran un electrón y un positrón se aniquilan y se producen dos fotones.

La existencia de partículas y antipartículas fue una gran predicción y fue comprobada experimentalmente en 1931 por Carl Anderson.

Toda la física de altas energías que se desarrolló desde la época de Dirac en adelante contiene la materia y la antimateria como elementos básicos, pero la explicación correcta para entender las antipartículas se conoció veinticinco años más tarde con el descubrimiento de la electrodinámica cuántica por Feynman, Schwinger, Tomonaga y otros. Aquí, se reformula la electrodinámica de manera tal que se respetan los principios de la mecánica cuántica y la relatividad especial.

La actual teoría cuántica de campos relativista es completamente correcta en el sentido de que posibles correcciones -si ellas son fehacientemente comprobadas- deberían provenir de sectores que no somos capaces de medir en la actualidad.

Por ejemplo, posibles correcciones al primer postulado de la relatividad especial que van mas allá de las mediciones originales de Michelson y Morley, son muy pequeñas. De hecho, si la velocidad de la luz fuera dependiente de los observadores y detectáramos una velocidad distinta, digamos c', entonces la razón entre la velocidad de la luz convencional c y c' debe cumplir |c/c' -1| <>La semilla magnética, sin embargo, sigue siendo un misterio.

Algunos argumentan que una explicación plausible podría provenir de una ruptura de la simetría relativista producida a una cierta escala de energía (la escala infrarroja). Esta ruptura y esta escala tienen consecuencias muy profundas tanto físicas como filosóficas. Por ejemplo, parecería ser necesaria una reinterpretación del principio de causalidad convencional. Este último es un asunto que, por lo demás, ya han planteado algunos filósofos de la ciencia en los últimos años.

En fin, el propósito básico aquí ha sido exponer algunos de los muchos problemas que todavía están abiertos y que -al parecer- para entenderlos se requiere ir más allá de la teoría de la relatividad.

Hay una larga lista de experimentos posibles que podrían poner de manifiesto esta nueva física y que, entre otras cosas, incluyen anomalías en el espectro de rayos cósmicos a energías muy altas. Estas ideas han dado lugar a una nueva línea de investigación en física de altas energías conocida como fenomenología de gravedad cuántica.

Aunque se cumplen cien años de la publicación del primer artículo de la teoría de la relatividad, es apropiado mencionar que también se abren nuevos horizontes en la física que, muy probablemente, están fuera de la propia teoría de la relatividad.

En un año como este, esta perspectiva puede parecer ser una herejía; sin embargo, las herejías siempre han sido un estímulo necesario para las mentes jóvenes a quienes sin duda les correspondería ser los iconoclastas de nuestro tiempo.

Quizás en esta suerte de ciclicidad histórica, Einstein, como Goethe, lanzó su pañuelo y son ahora los jóvenes -quizás sólo dos o tres entre miles- los que deberían tener el coraje de recogerlo y enfrentarse a la herencia e ir más allá de lo que dejó un gigante.

Jorge Gamboa Ríos: Dr. en Física, Universidad de Sao Paulo (Brasil), director del Departamento de Física, Facultad de Ciencia, Universidad de Santiago de Chile.