viernes, octubre 29, 2010

Electricidad inalambrica

La fuente de alimentación es tal vez el último cable que quede por cortar en un mundo de conexiones inalámbricas. Y puede que su fin no esté tan lejos. Un equipo de investigadores del Instituto Tecnológico de Massachusetts (MIT) ha conseguido transmitir energía entre dispositivos sin necesidad de cables. El hito, publicado en la revista Science, consistió en suministrar electricidad a una bombilla de 60W desde dos metros de distancia.

Estos expertos han dado con la clave para que la electricidad se transmita por el aire, lo mismo que hace el Wi-Fi con las conexiones a Internet. En concreto, han conseguido mantener encendida una bombilla de 60 vatios durante 24 horas situada a más de dos metros de distancia de la fuente de energía que la alimentaba, sin conexión física alguna. Los investigadores han llamado a su sescubrimiento "WiTricitY" (WiTricidad), de la unión de las palabras "wireless" (sin hilos) y "electricity".

El ingenio consiste en dos rollos de cobre, uno de los cuales, la unidad emisora, está físicamente conectado a una fuente de energía. En lugar de liberar esa energía a través de ondas electromagnéticas, el cobre llena el espacio circundante con un campo magnético no radiante que oscila a determinadas frecuencias. Es este campo el que hace posible el intercambio de energía entre la unidad emisora y la receptora, el segundo de los rollos de cobre.

Ambos rollos están acoplados y especialmente diseñados para resonar con el campo magnético, en cuyo interior se produce una fuerte interacción entre la unidad emisora y la receptora. Dos objetos resonantes acoplados, es decir, que vibran a la misma frecuencia, tienden a intercambiar energía de una forma eficiente. Gracias a este diseño, la transferencia de electricidad, que de forma natural tendería a disiparse, se concentra en un espacio limitado.

Peter Fisher, uno de los miembros del equipo del MIT, afirma que un ordenador portátil que estuviera en el interior de una habitación equipada con esta clase de energía inalámbrica se recargaría automáticamente, sin necesidad de estar enchufado. De hecho, ni siquiera necesitaría tener una batería para poder funcionar.

Observan la transformación materia - antimateria

Aunque en la ciencia-ficción se trabaja muy fácilmente con la antimateria, en la realidad puede ser muy difícil producirla y manejarla, por lo que investigadores de todo el mundo están celebrando un nuevo avance en esta área.

Por primera vez, aprovechando el experimento BaBar en el Centro del Acelerador Lineal de Stanford (SLAC), unos científicos han observado la transición de un tipo de partícula, el mesón-D neutro, en su partícula de antimateria. La nueva observación se usará como un medio de comprobación para el Modelo Estándar, la teoría actual que mejor describe la materia luminosa de todo el universo y sus fuerzas asociadas.

La transición del mesón-D fue predicha por primera vez hace más de tres décadas, pero es un fenómeno tan escurridizo que los científicos han tenido que esperar todo este tiempo hasta poder verlo. La observación de la transición del mesón-D representa otro logro relevante para el experimento BaBar. La campaña de colaboración del BaBar continúa cosechando mediciones innovadoras que desafían nuestra comprensión de cómo se comportan las partículas elementales.

El complejo del acelerador PEP-II en el SLAC permite que los científicos envueltos en las actividades del BaBar estudien no sólo los mesones B, sino también varios otros tipos de partículas incluyendo al mesón-D. Los mesones, de los que hay aproximadamente 140 tipos, están formados por las partículas fundamentales denominadas quarks, que pueden producirse cuando chocan partículas con altas energías.

Una ráfaga de partículas en una amplia variedad de combinaciones se produce cuando los electrones y los positrones chocan entre sí con altas energías, en las instalaciones del PEP-II. Uno de los resultados más fugaces de estas cascadas de partículas generadas por la energía de las colisiones es el de las transformaciones de partículas en sus antipartículas. Los mesones K neutros, observados hace más de 50 años, fueron las primeras partículas elementales en demostrar este fenómeno.

Hace alrededor de 20 años, se observó la transición del mesón-B. Ahora, por primera vez, los científicos del experimento BaBar han visto al mesón-D transformarse en su antipartícula y viceversa.

Observando el raro proceso de la transición del mesón-D, los colaboradores del BaBar pueden comprobar las complejidades del Modelo Estándar. Para cambiar de materia a antimateria, el mesón-D debe interactuar con "partículas virtuales", las cuales, a través de fluctuaciones cuánticas, logran existir por un breve instante antes de desaparecer de nuevo. Su existencia momentánea es suficiente para iniciar la transformación del mesón-D en un antimesón-D. Aunque el detector del BaBar no puede observar directamente estas partículas virtuales, los investigadores pueden identificar su efecto midiendo la frecuencia de transformación del mesón-D en el antimesón-D. Conocer esa cantidad ayudará a determinar si el Modelo Estándar es suficiente o si debe ser ampliado para incorporar los nuevos procesos físicos.

El Laboratorio Canfranc estudia el Universo bajo la tierra

Un proyecto pionero en España a punto de comenzar en el Laboratorio Subterráneo de Canfranc (Huesca), con unos 40 físicos implicados, y que durará inicialmente cinco años, estudiará bajo tierra el origen del Universo y su composición, con un nuevo detector basado en el gas noble Xenón.

La peculiaridad de este laboratorio, ubicado a casi 2.500 metros de profundidad que se construyó aprovechando el desarrollo del túnel de carretera de Somport, lo hace ideal para este tipo de experimentos, debido a su blindaje natural de roca que protege del ruido de fondo, inducido por rayos cósmicos procedentes del espacio exterior y los procesos radioactivos naturales.

Con este proyecto se intentará detectar la materia oscura (que representa alrededor del 25 por ciento de la densidad de energía del Universo), y asimismo descifrar "por qué, a lo largo del tiempo, ha sobrevivido en el Cosmos más materia que antimateria cuando se cree que inicialmente las condiciones de ésta y aquélla eran simétricas".

Así lo ha explicado María Concepción González García, actualmente profesora ICREA en la Universidad de Barcelona y coordinadora del proyecto CUP (de las siglas inglesas Canfranc Underground Physics), que se desarrollará en el Laboratorio Subterráneo de Canfranc (LSC), una instalación singular del Ministerio de Ciencia e Innovación (MICINN).

La dirección del experimento más importante del proyecto CUP, llamado NEXT (Neutrino Xenon TPC), correrá a cargo del profesor de investigación del CSIC, Juan José Gómez Cadenas, del Instituto de Física Corpuscular (IFIC), un centro mixto del CSIC y la Universidad de Valencia.

Esta iniciativa pionera en España por los novedosos detectores que incluirá en sus experimentos, se enmarca dentro del programa del Gobierno CONSOLIDER-INGENIO 2010 para promoción de la investigación, y está previsto que reciba una aportación por parte del Ministerio de Ciencia e Innovación de cinco millones de euros.

Entre los colaboradores científicos que participan en los trabajos destaca la Universidad de Zaragoza, cuyo grupo, pionero en este tipo de ciencia desde hace más de dos décadas, fue creado por el recién fallecido profesor Ángel Morales, principal artífice del proyecto que concluyó en el nuevo LSC.

Bajo el macizo de El Tobazo (Huesca), en el interior del túnel carretero del Somport y del ferroviario de Canfranc, en donde se encuentra este laboratorio subterráneo, se estudiarán procesos tan sorprendentes como el de la desintegración doble beta sin neutrinos.

Con dicho proceso se intenta comprobar "si los neutrinos son su propia antipartícula", un interrogante cuya respuesta puede ser de relevancia para explicar por qué el Universo actual se compone de materia y no de antimateria.

Asimismo, según la investigadora coordinadora del proyecto, se pretenden desvelar misterios relacionados con la materia oscura, de la que se conoce únicamente su existencia debido a "sus efectos gravitatorios a grandes escalas", ya que "no interactúa con la radiación, y no se puede ver, como por ejemplo, ocurre con las estrellas".

Por ello, "para verificar la existencia de la materia oscura, como predicen los modelos, habría que ser capaces de detectar directamente una interacción de este tipo de partículas con un detector", como se intentará hacer en el Laboratorio de Canfranc.

En este proyecto participan, aparte de los organismos citados anteriormente, el CIEMAT, la Universidad de Granada, la Universidad Autónoma de Madrid, el Instituto de Física de Altas Energías (IFAE) de la Universidad Autónoma de Barcelona, la Universidad de Santiago de Compostela y las Universidades Politécnicas de Valencia y Gerona.

También forman parte del mismo destacados físicos extranjeros, como el profesor David Nygren, de la Universidad estadounidense de Berkeley, considerado el "padre" de este tipo de técnicas, y los reconocidos investigadores del laboratorio francés de SACLAY Ioannis Iomataris y Esther Ferrer; asimismo, está involucrado en el proyecto el actual director del LSC, el profesor Sandro Bettini.

martes, octubre 26, 2010

Universo 1+1

Según algunos modelos el Universo podría tener a pequeña escala sólo una dimensión espacial y otra temporal.

Foto
Rodaja espacial y una historia típica obtenida en la teoría de Triangulación Causal Dinámica . Fuente: R. Kommu and M. Sachs, UC Davis.


Se ha hecho una revisión de las alternativas a las teorias de las cuerdas. En varias de estas alternativas se obtiene que la dimensión del espacio a pequeña escala (a la escala de Planck) es menor de tres. Ahora surgen más resultados que apoyan esta idea.
Lo malo de la escala de Planck es que es tan pequeña que no hay manera de obtener resultados experimentales sobre qué es lo que sucede a esa escala. Las teorías son libres de proponer toda clase de ideas.
Los intentos en estos últimos cuarenta años de describir la realidad, tanto a pequeña escala como a gran escala, han fracasado, principalmente porque no contamos con una teoría cuántica de la gravedad. Nuestros mejores modelos se basan en variedades riemannianas de tres dimensiones espaciales y una temporal (3+1).
Recordemos que el principal problema de la Relatividad General es la presencia de singularidades, lugares en donde las geodésicas tienen un final y en donde la física deja de tener sentido. Se asume que una buena teoría de la gravedad debe de estar libre de singularidades. En algunos casos esto se consigue con alguna suerte de “espuma cuántica” presente en la escala de Planck.
Quizás, abandonar la visión 3+1 pueda ayudarnos en nuestro empeño de explicar la realidad. Puede que haya dimensiones espaciales que surjan de manera emergente a partir de la propia física del espacio-tiempo. Desde hace tiempo se sospecha que a esa escala de Planck incluso la propia concepción del espacio-tiempo, la “espuma” antes mencionada no tenga el mismo sentido que tiene en el mundo macroscópico. De ahí han surgido, como subproducto de teorías recientes, espacios fractales o de dimensiones menores a las tres habituales del espacio.
Desde un punto de vista filosófico uno esperaría que una buena teoría no solo proporcionara una teoría cuántica de la gravedad consistente, sino que además dé una explicación al origen del propio espacio-tiempo, algo que las teorías de cuerdas no proporcionan.
Steve Carlip, de la Universidad de California en Davis, apunta precisamente a que el espacio-tiempo tenga menos dimensiones que las habituales a la escala de Planck. Aunque parezca contraintuitivo afirma que hay muchos signos que apuntan en esa dirección.
Según él en recientes trabajos de teoría cuántica de lazos, cuerdas, aplicaciones del grupo de renormalización sobre Relatividad General y en otras áreas de la gravedad cuántica se apunta a dos dimensiones del espacio-tiempo en la escala pequeña de Plack. En muchos casos el número de dimensiones simplemente colapsa, conforme la escala se reduce, en un proceso denominado reducción espontánea de la dimensión.
Según sostiene Carlip, a esa escala debe de haber sólo una dimensión espacial y una temporal y la dinámica escoge una dimensión especial preferente de entre las tres posibles. Esta dimensión preferente estaría determinada clásicamente y entonces sería alternada al azar por los procesos físicos que estén operando a esas escalas. Esto recuerda un poco a las teorías de variables ocultas propuestas hace tiempo para explicar los extraños resultados de la Mecánica Cuántica.
Carlip admite que todavía la idea es muy especulativa, de hecho, la parrafada anterior no está sostenida en el artículo original por ningún aparato matemático y está expresado solamente por lenguaje normal. Pero a diferencia de otros teóricos de la gravedad cuántica, Carlip da pistas del tipo de experimentos que podrían demostrarla. Según él, el mecanismo que propone y que rompe la invarianza Lorentz a la escala de Planck produciría violaciones de esa invarianza que podrían ser aumentados a escalas grandes en las que podrían ser observables, incluso cuando esas violaciones fueran muy pequeñas a la escala de Planck. Esto también podría dar problemas a una posible teoría de este tipo si esas violaciones son magnificados en exceso, pues ya se han puesto límites observacionales a ese tipo de efectos.

Copyleft: atribuir con enlace a http://neofronteras.com/?p=3238

Fuentes y referencias:

¿Y si el Universo fuera un holograma?

Especialistas del Fermilab -uno de los laboratorios científicos más avanzados y afanados del mundo- están construyendo un aparato denominado "Holometer" (u "holómetro"), cuya función será determinar si el universo tridimensional que perciben nuestros sentidos es "de verdad" o solo se trata de un holograma. El artefacto busca responder la vieja cuestión de si el espacio-tiempo es uniforme o discreto.

¿Cómo es realmente el universo que percibimos? Esta pregunta aparentemente inocente ha mantenido a ejércitos de físicos discutiendo durante mucho más tiempo del que hubiesen preferido. Cuando descubrieron que la energía en realidad no podía tomar "cualquier" valor, sino que estaba "dosificada" en pequeñísimos paquetes (llamados cuantos) resultó inevitable preguntarse si las dimensiones espaciales son realmente tan continuas como nos parecen o si, por el contrario, también están "pixeladas".

¿Qué significa esto? Imaginemos que tomamos una cámara fotográfica que posea una resolución de "infinitos megapíxeles", y comenzamos a tomar fotografías de un objeto cualquiera. A "1x" el objeto aparece tal como lo vemos con nuestros ojos. A "10x" comenzamos a percibir detalles que difícilmente veríamos a simple vista. A "100x" comienzan a aparecer detalles imperceptibles de otra manera, que revelan las microrayaduras y granos de polvo depositados sobre su superficie. Si seguimos aumentando el detalle de las imágenes, llegará un momento en que podremos "ver" las moléculas que lo conforman.

Y si seguimos aumentando la resolución de nuestra cámara imaginaria, veremos sus átomos, y luego sus partículas. Lo que intentan averiguar los científicos es si esta "realidad", en alguna escala que somos incapaces de percibir, comienza a "cuantificarse" tal como se "pixela" una fotografía al aplicarle un valor de zoom demasiado alto.

LA TERCERA DIMENSIÓN

Determinar semejante cosa no es, por supuesto, una tarea sencilla. Los encargados de tomar el toro por las astas han sido los científicos del Fermilab, el laboratorio físico nacional estadounidense que posee el segundo acelerador de partículas más potente del mundo. Una de las teorías que manejan los especialistas -y que a los profanos nos suena a chino- es que la realidad consiste solamente en dos dimensiones, y lo que percibimos como una "tercera dimensión" no es otra cosa que una "ilusión" -sumamente realista, por supuesto- que surge de la interacción de estas dos con el tiempo.

Si esto es cierto, la realidad sería algo así como un holograma, una especie de truco de mago de feria en el que se nos "vende" una dimensión que realmente no está allí. Algunos físicos creen que no podemos darnos cuenta del engaño "culpa" de algunas limitaciones impuestas por las leyes de la física, como que "nada puede viajar más rápido que la luz" y naderías por el estilo. No sabemos cómo se podría conciliar todo esto con las 10 dimensiones contempladas por la Teoría de Cuerdas y los universos paralelos que buscan con el LHC, pero seguramente ambas hipótesis no puedan ser válidas a la vez.

En el Fermilab han comenzado la construcción de un holómetro ("holometer"), una máquina de altísima tecnología que podría atisbar por los "espacios" existentes entre uno y otro "píxel" de la realidad. Explicar cómo funciona una máquina como esa es sumamente complicado, pero en un comunicado del laboratorio han dejado entrever que hará su magia gracias a un reloj extremadamente preciso (en realidad, será el más exacto jamás construido) y un láser. Los primeros datos serán proporcionados por el holómetro en algún momento del año próximo. Si recuerdas la película «Matrix», esto significa que tienes entre 3 y 12 meses para decidir si tomas la pastilla roja o la pastilla azul.

lunes, octubre 25, 2010

El LHC busca universos paralelos

El gigantesco acelerador de partículas LHC, construido por el CERN, podría encontrar dentro de poco tiempo evidencias de la existencia de “universos paralelos”. Suena a ciencia ficción, pero parece que los experimentos de física de alta energía que se realizan en ese lugar podrían efectivamente probar la validez de estas teorías. Mientras tanto, seguimos esperando la “aparición” del escurridizo bosón de Higgs.
ARCHIVO
El LHC, también conocida como la «máquina de Dios»
Es muy difícil hablar de “universos paralelos” sin pensar en el argumento de una historia de ciencia ficción. Sin embargo, y aunque la idea ha sido difundida ampliamente por los escritores de este tipo de novelas, el concepto tiene muchos adeptos entre los científicos. Desde el punto de vista de la ciencia, tal como lo explica el último boletín de noticias emitido por el CERN, referirse a los universos paralelos significa hablar de “formas desconocidas de materias o dimensiones extras”.
Desde hace décadas, los físicos se han quemado las pestañas tratando de determinar si el universo realmente posee las cuatro dimensiones de toda la vida (tres físicas y una temporal), o si existen otras que por su naturaleza no podemos percibir. La Teoría de Cuerdas, por ejemplo, postula que las partículas de nuestro universo, como los electrones o protones, no son un mero "punto sin estructura interna y de dimensión cero”, sino una minúscula cuerda que vibra en un espacio-tiempo de más de cuatro dimensiones. Sus defensores creen que estas cuerdas no se mueven en el espacio-tiempo ordinario de cuatro dimensiones (tipo Kaluza-Klein) sino que lo hacen en seis dimensiones adicionales, compactadas, dando lugar a un universo de 10 dimensiones: una temporal, tres espaciales “normales” y seis “minimizadas” e indetectables por ahora.
Dimensiones ocultas
Los físicos del CERN que investigan los orígenes del Universo esperan que en 2011 puedan obtenerse, gracias al LHC, las primeras pruebas concretas de estas “dimensiones ocultas”. Esto no significa que se hayan abandonado los esfuerzos dedicados a dar con el bosón de Higgs -a veces referido como “la partícula de Dios” por la prensa- ni mucho menos. De hecho, estas dimensiones extrañas del universo podrían evidenciarse mientras se producen los choques de partículas de alta energía que el acelerador provoca para encontrar la escurridiza súper partícula.
El director general del CERN, Rolf Heuer, tiene la esperanza de que al analizar los datos generados por el acelerador aparezca alguna evidencia de estos -quizás mal llamados- “universos paralelos”. El mismo Heuer ha dicho que el acelerador está produciendo choques de protones a un ritmo de 5 millones por segundo, algunas semanas antes de lo que estaba previsto. Si no surgen retrasos, a principios del próximo año este ritmo se incrementará, y los detectores del CERN entregarán miles de millones de datos extra entre los que se podrían encontrar “algunas sorpresas”.
Aparece y desaparece
¿Como podemos saber que una de estas dimensiones ocultas existe realmente? Los físicos del CERN creen que al analizar los datos del acelerador podrían encontrar rastros de que alguna partícula “desaparece” durante un brevísimo lapso de tiempo, para luego aparecer nuevamente. Si ello ocurre, una de las explicaciones posibles sería que la partícula en cuestión se ha “deslizado” a alguna de estas seis dimensiones ocultas para luego volver al universo que todos conocemos. Esto, de producirse y probarse su existencia, no significa que tengamos -ni remotamente- la posibilidad de explorar o viajar a estos “universos paralelos”. Solo habríamos probado que la estructura íntima de la materia es diferente a lo normalmente aceptado, que -por supuesto- no es poca cosa.

viernes, octubre 22, 2010

Matemáticos demuestran que los universos paralelos existen realmente

Los universos paralelos existen. Así de contundentes son los resultados del último estudio efectuado por científicos de la Universidad de Oxford, en el que demuestran matemáticamente que el concepto de estructura de árbol de nuestro universo es real. Esta propiedad del universo es la que sirve de base para crear nuestra realidad.

La teoría de los universos paralelos fue propuesta por primera vez en 1950 por el físico estadounidense Hugh Everett, en la que intentaba explicar los misterios de la mecánica cuántica que resultaban completamente desconcertantes para los científicos. Expresado de una manera muy simplificada, lo que propuso Everett fue que cada vez que se explora una nueva posibilidad física, el universo se divide. Para cada alternativa posible se “crea” un universo propio.

Un ejemplo puede ayudarnos a entender este concepto: imaginemos que un peatón escapa por poco de ser atropellado por un coche. Este evento tiene lugar en un universo, pero en otro puede haber resultado atropellado y estar recuperándose en un hospital. Y en un tercero, puede haber muerto. El número de posibilidades es infinito.

Este concepto resultaba muy extraño para los científicos, quienes generalmente lo descartaban considerándola una fantasía. Por supuesto, los escritores de ciencia ficción aprovecharon esta idea para crear numerosas historias. Sin embargo, las nuevas investigaciones realizadas en Oxford demuestran que los universos alternativos son matemática posibles, y que el Dr. Everett, que no era más que un estudiante en la Universidad de Princeton en el momento que propuso su teoría, podría estar en lo cierto.

El descubrimiento ha sido descripto por uno de los científicos como “uno de los desarrollos más importantes en la historia de la ciencia”, en declaraciones efectuadas a la revista New Scientist.

Concretamente, el equipo dirigido por el Dr. David Deutsch, demostró matemáticamente que la estructura del universo contiene infinitas bifurcaciones creadas al dividirse en versiones paralelas de sí mismo, que pueden explicar la naturaleza probabilística de los resultados cuánticos. Gráficamente, la línea de tiempo del universo podría verse como si fuese un árbol infinitamente grande.

La mecánica cuántica predice que una partícula no existe realmente hasta que sea observado. Hasta entonces, las partículas ocupan una nebulosa de estados “superpuestos” al mismo tiempo.

El hecho de ser observadas “fuerzan” a la partícula a adoptar un estado particular de realidad, de la misma manera que una moneda girando en el aire solo muestra “cara” o “cruz” una vez que se detiene. Según la teoría de los universos paralelos, cada decisión de este tipo generaría un nuevo universo por cada uno de los posibles resultados.

Como otros tantos conceptos relacionados con la mecánica cuántica, la teoría de los universos paralelos puede resultar bastante difícil de comprender, sin embargo, si puede demostrarse matemáticamente, tal como se ha hecho en Oxford, es muy posible que la teoría sea correcta.

Stephen Hawking: 'La ciencia no deja mucho espacio ni para milagros ni para Dios'

El científico Stephen Hawking ha afirmado que las leyes en las que se basa la ciencia para explicar el origen del Universo "no dejan mucho espacio ni para milagros ni para Dios". Hawking, profesor de física teórica de la universidad británica de Cambridge, ha indicado que "la ciencia está dando cada vez más respuestas a preguntas que solían ser dominio de la religión" y ha expresado su confianza en que los progresos científicos permitan "proveer pronto una respuesta definitiva a cómo empezó el Universo".

En ese sentido ha apuntado que "observaciones recientes de supernovas lejanas sugieren que la energía oscura está de hecho provocando una aceleración de la tasa de expansión del Universo". Respecto al gigantesco experimento que se lleva a cabo en el Laboratorio europeo de partículas (CERN) en Ginebra, Hawking ha recordado que ha apostado cien dólares a que no se logrará demostrar la veracidad de la teoría desarrollada por el físico escocés Peter Higgs sobre la forma de las partículas para adquirir masa, demostración que permitiría descifrar la clave del misterio de la formación del Universo.

"Creo que será mucho más interesante que no se encuentre el Higgs. Nos mostraría que algo está mal y que necesitamos volver a pensar sobre ello", ha explicado, aunque si ha afirmado que tanto ese experimento como los programas de carácter espacial son "vitales si la raza humana no quiere hacer el ridículo y, eventualmente, perecer".

Hawking, que se ha declarado admirador de Galileo y Einstein, ha apuntado que "el futuro a largo plazo de la raza humana está en el espacio", ya que "será muy difícil evitar un desastre en el planeta Tierra en los próximos cien años, no ya en los próximos mil o millón de años".

Autor de varios libros y conferencias en las que elabora sus teorías sobre la formación del Universo y la composición de los agujeros negros del espacio, ha indicado que "la materia ordinaria de la que están hechos los seres humanos y las estrellas constituye sólo el 5 por ciento de la masa total del Universo".

Ha añadido que "otro 25 por ciento de la masa del Universo se presenta en la forma de materia oscura, que no se puede ver, pero cuya presencia se puede detectar debido a la gravedad". El restante 70 por ciento lo constituye la "energía oscura, una misteriosa forma de energía que provoca que la expansión del universo se acelere, en lugar de frenarse", comentó el físico.


¿Juega Dios a los Dados?

Stephen Hawking

Artículo original en inglés
Traductores : José Luis Acuña / Ariadna Martínez

Esta conferencia versa sobre si podemos predecir el futuro o bien éste es arbitrario y aleatorio. En la antigüedad, el mundo debía de haber parecido bastante arbitrario. Desastres como las inundaciones o las enfermedades debían de haber parecido producirse sin aviso o razón aparente. La gente primitiva atribuía esos fenómenos naturales a un panteón de dioses y diosas que se comportaban de una forma caprichosa e impulsiva. No había forma de predecir lo que harían, y la única esperanza era ganarse su favor mediante regalos o conductas. Mucha gente todavía suscribe parcialmente esta creencia, y tratan de firmar un pacto con la fortuna. Se ofrecen para hacer ciertas cosas a cambio de un sobresaliente en una asignatura, o de aprobar el examen de conducir.

Sin embargo, la gente se debió de dar cuenta gradualmente de ciertas regularidades en el comportamiento de la naturaleza. Estas regularidades eran más obvias en el movimiento de los cuerpos celestes a través del firmamento. Por eso la Astronomía fue la primera ciencia en desarrollarse. Fue puesta sobre una firme base matemática por Newton hace más de 300 años, y todavía usamos su teoría de la gravedad para predecir el movimiento de casi todos los cuerpos celestes. Siguiendo el ejemplo de la Astronomía, se encontró que otros fenómenos naturales también obedecían leyes científicas definidas. Esto llevó a la idea del determinismo científico, que parece haber sido expresada públicamente por primera vez por el científico francés Laplace. Me pareció que me gustaría citar literalmente las palabras de Laplace. y le pedí a un amigo que me las buscara. Por supuesto que están en francés, aunque no esperaba que la audiencia tuviera ningún problema con esto. El problema es que Laplace, como Prewst [N. del T.: Hawking probablemente se refiere a Proust], escribía frases de una longitud y complejidad exageradas. Por eso he decidido parafrasear la cita. En efecto, lo que él dijo era que, si en un instante determinado conociéramos las posiciones y velocidades de todas las partículas en el Universo, podríamos calcular su comportamiento en cualquier otro momento del pasado o del futuro. Hay una historia probablemente apócrifa según la cual Napoleón le preguntó a Laplace sobre el lugar de Dios en este sistema, a lo que él replicó "Caballero, yo no he necesitado esa hipótesis". No creo que Laplace estuviera reclamando que Dios no existe. Es simplemente que El no interviene para romper las leyes de la Ciencia. Esa debe ser la postura de todo científico. Una ley científica no lo es si solo se cumple cuando algún ser sobrenatural lo permite y no interviene.

La idea de que el estado del universo en un instante dado determina el estado en cualquier otro momento ha sido uno de los dogmas centrales de la ciencia desde los tiempos de Laplace. Eso implica que podemos predecir el futuro, al menos en principio. Sin embargo, en la práctica nuestra capacidad para predecir el futuro está severamente limitada por la complejidad de las ecuaciones, y por el hecho de que a menudo exhiben una propiedad denominada caos. Como sabrán bien todos los que han visto Parque Jurásico, esto significa que una pequeña perturbación en un lugar puede producir un gran cambio en otro. Una mariposa que bate sus alas puede hacer que llueva en Central Park, Nueva York. El problema es que eso no se puede repetir. La siguiente vez que una mariposa bata sus alas, una multitud de otras cosas serán diferentes, lo que también tendrá influencia sobre la meteorología. Por eso las predicciones meteorológicas son tan poco fiables.

A pesar de estas dificultades prácticas, el determinismo científico permaneció como dogma durante el siglo 19. Sin embargo, en el siglo 20 ha habido dos desarrollos que muestran que la visión de Laplace sobre una predicción completa del futuro no puede ser llevada a cabo. El primero de esos desarrollos es lo que se denomina mecánica cuántica. Fue propuesta por primera vez en 1900, por el físico alemán Max Planck, como hipótesis ad hoc para resolver una paradoja destacada. De acuerdo con las ideas clásicas del siglo 19, que se remontan a los tiempos de Laplace, un cuerpo caliente, como una pieza de metal al rojo, debería emitir radiación. Perdería energía en forma de ondas de radio, infrarrojos, luz visible, ultravioleta, rayos x, y rayos gamma, todos a la misma tasa. Esto no sólo significaría que todos moriríamos de cáncer de piel, sino que además todo en el universo estaría a la misma temperatura, lo que claramente no es así. Sin embargo, Planck mostró que se puede evitar este desastre si se abandonara la idea de que la cantidad de radiación puede tener cualquier valor, y se dijera en su lugar que la radiación llega únicamente en paquetes o cuantos de un cierto tamaño. Es un poco como decir que en el supermercado no se puede comprar azúcar a granel, sino sólo en bolsas de un kilo. La energía en los paquetes o cuantos es mayor para los rayos x y ultravioleta, que para la luz infrarroja o visible. Esto significa que a menos que un cuerpo esté muy caliente, como el Sol, no tendrá suficiente energía para producir ni siquiera un único cuanto de rayos x o ultravioleta. Por eso no nos quemamos por insolación con una taza de café.

Para Planck los cuantos no eran más que un truco matemático que no tenía una realidad física, lo que quiera que eso signifique. Sin embargo, los físicos empezaron a encontrar otro comportamiento, que sólo podía ser explicado en términos de cantidades con valores discretos o cuantizados, más que variables continuas. Por ejemplo, se encontró que las partículas elementales se comportaban más bien como pequeñas peonzas girando sobre un eje. Pero la cantidad de giro no podía tener cualquier valor. Tenía que ser algún múltiplo de una unidad básica. Debido a que esa unidad es muy pequeña, uno no se da cuenta de que una peonza normal decelera mediante una rápida secuencia de pequeños pasos, más que mediante un proceso continuo. Pero para peonzas tan pequeñas como los átomos, la naturaleza discreta del giro es muy importante.

Pasó algún tiempo antes de que la gente se diera cuenta de las implicaciones que tenía este comportamiento cuántico para el determinismo. No sería hasta 1926, cuando Werner Heisenberg, otro físico alemán, indicó que no podrías medir exactamente la posición y la velocidad de una partícula a la vez. Para ver dónde está una partícula hay que iluminarla. Pero de acuerdo con el trabajo de Planck, uno no puede usar una cantidad de luz arbitrariamente pequeña. Uno tiene que usar al menos un cuanto. Esto perturbará la partícula, y cambiará su velocidad de una forma que no puede ser predicha. Para medir la posición de la partícula con exactitud, deberás usar luz de una longitud de onda muy corta, como la ultravioleta, rayos x o rayos gamma. Pero nuevamente, por el trabajo de Planck, los cuantos de esas formas de luz tienen energías más altas que las de la luz visible. Por eso perturbarán aún más la velocidad de la partícula. Es un callejón sin salida: cuanto más exactamente quieres medir la posición de la partícula, con menos exactitud puedes conocer la velocidad, y viceversa. Esto queda resumido en el Principio de Incertidumbre formulado por Heisenberg; la incertidumbre en la posición de una partícula, multiplicada por la incertidumbre en su velocidad, es siempre mayor que una cantidad llamada la constante de Planck, dividida por la masa de la partícula.

La visión de Laplace del determinismo científico implicaba conocer las posiciones y velocidades de las partículas en el universo en un instante dado del tiempo. Por lo tanto, fue seriamente socavado por el Principio de Incertidumbre de Heisenberg. ¿Cómo puede uno predecir el futuro, cuando uno no puede medir exactamente las posiciones ni las velocidades de las partículas en el instante actual? No importa lo potente que sea el ordenador de que dispongas, si lo alimentas con datos deplorables, obtendrás predicciones deplorables.

Einstein estaba muy descontento por esta aparente aleatoriedad en la naturaleza. Su opinión se resumía en su famosa frase 'Dios no juega a los dados'. Parecía que había presentido que la incertidumbre era sólo provisional, y que existía una realidad subyacente en la que las partículas tendrían posiciones y velocidades bien definidas y se comportarían de acuerdo con leyes deterministas, en consonancia con Laplace. Esta realidad podría ser conocida por Dios, pero la naturaleza cuántica de la luz nos impediría verla, excepto tenuemente a través de un cristal.

La visión de Einstein era lo que ahora se llamaría una teoría de variable oculta. Las teorías de variable oculta podrían parecer ser la forma más obvia de incorporar el Principio de Incertidumbre en la física. Forman la base de la imagen mental del universo, sostenida por muchos científicos, y prácticamente por todos los filósofos de la ciencia. Pero esas teorías de variable oculta están equivocadas. El físico británico John Bell, que murió recientemente, ideó una comprobación experimental que distinguiría teorías de variable oculta. Cuando el experimento se llevaba a cabo cuidadosamente, los resultados eran inconsistentes con las variables ocultas. Por lo tanto parece que incluso Dios está limitado por el Principio de Incertidumbre y no puede conocer la posición y la velocidad de una partícula al mismo tiempo. O sea que Dios juega a los dados con el universo. Toda la evidencia lo señala como un jugador empedernido, que tira los dados siempre que tiene ocasión.

Otros científicos estaban mucho más dispuestos que Einstein a modificar la visión clásica del determinismo del siglo 19. Una nueva teoría, denominada la mecánica cuántica, fue propuesta por Heisenberg, el austríaco Erwin Schroedinger, y el físico británico Paul Dirac. Dirac fue mi penúltimo predecesor en la cátedra Lucasiana de Cambridge. Aunque la mecánica cuántica ha estado entre nosotros durante cerca de 70 años, todavía no es generalmente entendida o apreciada, incluso por aquellos que la usan para hacer cálculos. Sin embargo, debería preocuparnos a todos, puesto que es una imagen completamente diferente del universo físico y de la misma realidad. En la mecánica cuántica, las partículas no tienen posiciones ni velocidades bien definidas. En su lugar, son representadas por lo que se llama una función de onda. Esta es un número en cada punto del espacio. El tamaño de la función de onda indica la probabilidad de que la partícula sea encontrada en esa posición. La tasa con la que la función de onda cambia de punto a punto, proporciona la velocidad de la partícula. Uno puede tener una función de onda con un gran pico en una región muy pequeña. Esto significará que la incertidumbre en la posición es muy pequeña. Pero la función de onda variará muy rápidamente cerca del pico, hacia arriba en un lado, hacia abajo en el otro. Por lo tanto la incertidumbre en la velocidad será grande. De la misma manera, uno puede tener funciones de onda en las que la incertidumbre en la velocidad es pequeña, pero la incertidumbre en la posición es grande.

La función de onda contiene todo lo que uno puede saber de la partícula, tanto su posición como su velocidad. Si sabes la función de onda en un momento dado, entonces sus valores en otros momentos son determinados por lo que se llama la ecuación de Schroedinger. Por lo tanto uno tiene aún un cierto determinismo, pero no del tipo que Laplace imaginaba. En lugar de ser capaces de predecir las posiciones y las velocidades de las partículas, todo lo que podemos predecir es la función de onda. Esto significa que podemos predecir sólo la mitad de lo que podríamos de acuerdo con la visión clásica del siglo 19.

Aunque la mecánica cuántica lleva a la incertidumbre cuando tratamos de predecir la posición y la velocidad a un mismo tiempo, todavía nos permite predecir con certidumbre una combinación de posición y velocidad. Sin embargo, incluso este grado de certidumbre parece estar amenazado por desarrollos más recientes. El problema surge porque la gravedad puede torcer el espacio-tiempo tanto que puede haber regiones que no observamos.

Curiosamente, el mismo Laplace escribió un artículo en 1799 sobre cómo algunas estrellas pueden tener un campo gravitatorio tan fuerte que la luz no podría escapar, siendo por tanto arrastrada de vuelta a la estrella. Incluso calculó que una estrella de la misma densidad que el Sol, pero doscientas cincuenta veces más pequeña, tendría esta propiedad. Pero aunque Laplace podría no haberse dado cuenta, la misma idea había sido propuesta 16 años antes por un hombre de Cambridge, John Mitchell, en un artículo en Phylosophical Transactions of the Royal Society. Tanto Mitchel como Laplace concebían a la luz como formada por partículas, más bien como bolas de cañón, que podían ser deceleradas por la gravedad, y hechas caer de vuelta a la estrella. Pero un famoso experimento llevado a cabo por dos americanos, Michelson y Morley, en 1887, mostraron que la luz siempre viajaba a una velocidad de ciento ochenta y seis mil millas por segundo, no importa de dónde viniera. Cómo podía entonces la gravedad decelerarla, y hacerla caer de nuevo.

De acuerdo con las ideas sobre el espacio y el tiempo vigentes en aquel momento esto era imposible. Sin embargo, en 1915 Einstein presentó al mundo su revolucionaria Teoría General de la Relatividad en la cual espacio y tiempo dejaban de ser entidades separadas e independientes. Por el contrario, eran meramente diferentes direcciones de una única noción llamada espacio-tiempo. Esta noción espacio-tiempo no era uniforme sino deformada y curvada debido a su energía inherente. Para que se entienda mejor, imagínese que colocamos un peso (que hará las veces de estrella) sobre una lámina de goma. El peso (estrella) formará una depresión en la goma curvándose la zona alrededor del mismo en contraposición a la planicie anterior. Si hacemos rodar canicas sobre la lámina de goma, sus rastros serán espirales más que líneas rectas. En 1919, una expedición británica en el Oeste de África observaba la luz de estrellas lejanas que cruzaba cerca del sol durante un eclipse. Descubrieron que las imágenes de las estrellas variaban ligeramente de sus posiciones habituales; esto revelaba que las trayectorias de la luz de las estrellas habían sido curvadas por el influjo del espacio-tiempo que rodea al sol. La Relatividad General había sido confirmada.

Imagínese ahora que colocamos pesos sobre la lámina de goma cada vez más cuantiosos y de manera más intensiva. Hundirán la plancha cada vez más. Con el tiempo, alcanzado el peso y la masa crítica se hará un agujero en la lámina por el que podrán caer las partículas pero del que no podrá salir nada.

Según la Teoría General de la Relatividad lo que sucede con el espacio-tiempo es bastante similar. Cuanto más ingente y más densa sea una estrella, tanto más se curvará y distorsionará el espacio-tiempo alrededor de la misma. Si una estrella inmensa que ha consumido ya su energía nuclear se enfría encogiéndose por debajo de su masa crítica, formará literalmente un agujero sin fondo en el espacio-tiempo por el que no puede pasar la luz. El físico americano John Wheeler llamó a estos objetos “agujeros negros” siendo el primero en destacar su importancia y los enigmas que encierran. El término se hizo popular rápidamente. Para los americanos sugería algo oscuro y misterioso mientras que para los británicos existía además la amplia difusión del Agujero Negro de Calcuta. Sin embargo los franceses, muy franceses ellos, percibieron algo indecente en el vocablo. Durante años se resistieron a utilizar el término, demasiado negro, arguyendo que era obsceno; pero era parecido a intentar luchar contra préstamos lingüísticos como “le weekend” y otras mezcolanzas del “franglés”. Al final tuvieron que claudicar. ¿Quién puede resistirse a una expresión así de conquistadora?

Ahora tenemos evidencias de la existencia de agujeros negros en diferentes tipos de entidades, desde sistemas de estrellas binarios al centro de las galaxias. Por lo tanto, la existencia de agujeros negros está ampliamente aceptada hoy en día. Con todo y al margen de su potencial para la ciencia ficción, ¿cuál sería su relevancia para el determinismo? La respuesta reside en una pegatina de parachoques que tenía en la puerta de mi despacho: “los agujeros negros son invisibles”. No sólo ocurre que las partículas y los astronautas desafortunados que caen en un agujero negro no vuelven nunca, sino que la información que estos portan se pierde para siempre, al menos en nuestra demarcación del universo. Puede lanzar al agujero negro aparatos de televisión, sortijas de diamantes e incluso a sus peores enemigos y todo lo que recordará el agujero negro será su masa total y su estado de rotación. John Wheeler llamó a esto “un agujero negro no tiene pelo”. Esto confirma las sospechas de los franceses.

Mientras hubo el convencimiento de que los agujeros negros existirían siempre, esta pérdida de información pareció no importar demasiado. Se podía pensar que la información seguía existiendo dentro de los agujeros negros. Simplemente es que no podemos saber lo que hay desde fuera de ellos pero la situación cambió cuando descubrí que los agujeros negros no son del todo negros. La Mecánica Cuántica hace que estos emitan partículas y radiaciones a un ritmo constante. Estos hallazgos me asombraron no sólo a mí si no al resto del mundo pero con la perspectiva del tiempo esto habría resultado obvio. Lo que se entiende comúnmente como “el vacío” no está realmente vacío ya que está formado por pares de partículas y antipartículas. Estas permanecen juntas en cierto momento del espacio-tiempo, en otro se separan para después volver a unirse y finalmente aniquilarse la una a las otra. Estas partículas y antipartículas existen porque un campo, tal como los campos que transportan la luz y la gravedad no puede valer exactamente cero. Esto denotaría que el valor del campo tendría tanto una posición exacta (en cero) como una velocidad o ritmo de cambio exacto (también cero). Esto violaría el Principio de Incertidumbre porque una partícula no puede tener al tiempo una posición y una velocidad constantes. Por lo tanto, todos los campos deben tener lo que se denomina fluctuaciones del vacío. Debido al comportamiento cuántico de la naturaleza se puede interpretar estas fluctuaciones del vacío como partículas y antipartículas como he descrito anteriormente.

Estos pares de partículas se dan en conjunción con todas las variedades de partículas elementarias. Se denominan partículas virtuales porque se producen incluso en el vacío y no pueden ser mostradas directamente por los detectores de partículas. Sin embargo, los efectos indirectos de las partículas virtuales o fluctuaciones del vacío han sido estudiados en diferentes experimentos, siendo confirmada su existencia.

Si hay un agujero negro cerca, uno de los componentes de un par de partículas y antipartículas podría deslizarse en dicho agujero dejando al otro componente sin compañero. La partícula abandonada puede caerse también en el agujero o bien desplazarse a larga distancia del mismo donde se convertirá en una verdadera partícula que podrá ser apreciada por un detector de partículas. A alguien muy alejado del agujero negro le parecerá que la partícula ha sido emitida por el mismo agujero.

Esta explicación de cómo los agujeros negros no son tan negros clarifica que la emisión dependerá de la magnitud del agujero negro y del ritmo al que esté rotando. Sin embargo, como un agujero negro no tiene pelo, citando a Wheeler, la radiación será por otra parte independiente de lo que se deslizó por el agujero. No importa lo que arroje a un agujero negro: aparatos de televisión, sortijas de diamantes o a sus peores enemigos. Lo que de allí sale es siempre lo mismo.

Pero ¿qué tiene esto que ver con el determinismo que es sobre lo que se supone que versa esta conferencia? Lo que esto demuestra es que hay muchos estados iniciales (incluyendo aparatos de televisión, sortijas de diamantes e incluso gente) que evolucionan hacia el mismo estado final, al menos fuera del agujero negro. Sin embargo, en la visión de Laplace sobre el determinismo había una correspondencia exacta entre los estados iniciales y los finales. Si usted supiera el estado del universo en algún momento del pasado podría predecirlo en el futuro. De manera similar, si lo supiera en el futuro, podría deducir lo que habría sido en el pasado. Con el advenimiento de la Teoría del Cuanto en los años 20 del siglo pasado se redujo a la mitad lo que uno podía predecir pero aún dejó una correspondencia directa entre los estados del universo en diferentes momentos. Si uno supiera la función de onda en un momento dado, podría calcularla en cualquier otro.

Sin embargo, la situación es bastante diferente con los agujeros negros. Uno se encontrará con el mismo estado fuera del agujero, independientemente de lo que haya lanzado dentro, a condición de que tenga la misma masa. Por lo tanto, no hay una correspondencia exacta entre el estado inicial y el estado final ya fuera del agujero negro. Habrá una correspondencia exacta entre el estado inicial y el final ambos fuera o ambos dentro del agujero negro. Sin embargo, lo importante es que la emisión de partículas y la radiación alrededor del agujero provocan una reducción en la masa del mismo y se empequeñece. Finalmente, parece que el agujero negro llega a la masa cero y desaparece del todo. Pero, ¿qué ocurre con todos los objetos que fueron lanzados al agujero y con toda la gente que o bien saltó o fue empujada? No pueden volver a salir porque no existe la suficiente masa o energía sobrante en el agujero negro para enviarlos fuera de nuevo. Puede que pasen a otro universo pero eso nos da lo mismo a los que somos lo suficientemente prudentes como para no saltar dentro de un agujero negro. Incluso la información de lo que cayó dentro del agujero no podría salir de nuevo cuando el agujero desaparezca por último. La información no se distribuye gratuitamente como bien sabrán aquellos de ustedes que paguen facturas telefónicas. La información necesita energía para transportarse, y no habrá suficiente energía de sobra cuando el agujero negro desaparezca.

Lo que todo esto significa es que la información se perderá de nuestra demarcación del universo cuando se formen los agujeros negros para después desvanecerse. Esta pérdida de información implica que podemos predecir incluso menos de lo pensamos, partiendo de la base de la teoría cuántica. En esta teoría puede no ser factible predecir con certidumbre la posición y la velocidad de una partícula al mismo tiempo. Hay sin embargo una combinación de posición y velocidad que sí puede ser predicha. En el caso de un agujero negro, esta predicción específica concierne a los dos miembros de un par de partículas-antipartículas pero únicamente podemos detectar la partícula expulsada. No hay modo alguno, incluso en un principio, de poner de manifiesto la partícula que se precipita al agujero. Por lo tanto, por lo que sabemos, podría estar en cualquier estado. Esto significa que no podemos hacer ninguna predicción concreta acerca de la partícula que expulsa el agujero. Podemos calcular la probabilidad de que la partícula tenga esta o aquella posición o velocidad pero no podemos predecir con precisión una combinación de la posición y velocidad de sólo una partícula porque su velocidad y posición van a depender de la otra partícula, la cual no está bajo nuestra observación. Así que Einstein estaba sin lugar a dudas equivocado cuando dijo, “Dios no juega a los dados”. No sólo Dios juega definitivamente a los dados sino que además a veces los lanza a donde no podemos verlos.

Muchos científicos son como Einstein en el sentido de que tienen un lazo emocional muy fuerte con el determinismo pero al contrario que Einstein han aceptado la reducción en nuestra capacidad para predecir que nos había traído consigo la teoría cuántica. Pero ya era mucho. A estos no les gustó la consiguiente reducción que los agujeros negros parecían implicar. Pensar que el universo es determinista, como creía Laplace, es simplemente inocente. Presiento que estos científicos no se han aprendido la lección de la historia. El universo no se comporta de acuerdo a nuestras preconcebidas ideas. Continúa sorprendiéndonos.

Podría pensarse que no importa demasiado si el determinismo hizo aguas cerca de los agujeros negros. Estamos casi seguros de estar al menos a unos pocos años luz de agujero negro de cualquier tamaño pero según el Principio de Incertidumbre, cada región del espacio debería estar llena de diminutos agujeros negros virtuales que aparecerían y desaparecerían una y otra vez. Uno pensaría que las partículas y la información podrían precipitarse en estos agujeros negros y perderse. Sin embargo, como estos agujeros negros virtuales son tan pequeños (cien billones de billones más pequeños que el núcleo de un átomo) el ritmo al cual se perdería la información sería muy bajo. Esto es por lo que las leyes de la ciencia parecen deterministas, observándolas con detenimiento. Sin embargo, en condiciones extremas, tales como las del universo temprano o las de la colisión de partículas de alta energía, podría haber una significativa pérdida de información. Esto conduce a la imprevisibilidad en la evolución del universo.

En resumen, de lo que he estado hablando es de si el universo evoluciona de manera arbitraria o de si es determinista. La visión clásica propuesta por Laplace estaba fundada en la idea de que el movimiento futuro de las partículas estaba determinado por completo, si su sabían sus posiciones y velocidades en un momento dado. Esta hipótesis tuvo que ser modificada cuando Heisenberg presentó su Principio de Incertidumbre el cual postulaba que no se podía saber al mismo tiempo y con precisión la posición y la velocidad. Sin embargo, sí que era posible predecir una combinación de posición y velocidad pero incluso esta limitada certidumbre desapareció cuando se tuvieron en cuenta los efectos de los agujeros negros: la pérdida de partículas e información dentro de los agujeros negros dio a entender que las partículas que salían eran fortuitas.

Se pueden calcular las probabilidades pero no hacer ninguna predicción en firme. Así, el futuro del universo no está del todo determinado por las leyes de la ciencia, ni su presente, en contra de lo que creía Laplace. Dios todavía se guarda algunos ases en su manga.

Es todo lo que tengo que decir por el momento. Gracias por escucharme.