lunes, 14 de mayo de 2012

TRABAJO DE FISICA


 Laura castrillon y valentina alvarez en este blog queremos mostrar todos los temas que vimos en fisica durante todo el 2 periodo. se encontrara buena informacion e imagenes de cada tema.







TEMAS:
densidad
presión
principio de arquimedes
principio de pascal
flotabilidad
problemas


1 QUE ES DENSIDAD



En física y química, la densidad (símbolo ρ) es una magnitud escalar referida a la cantidad de masa contenida en un determinado volumende una sustancia. Es la relación entre la masa de un cuerpo y el volumen que ocupa.


Según una conocida anécdota, Arquímedes recibió el encargo de determinar si el orfebre de Hierón II de Siracusa desfalcaba el oro durante la fabricación de una corona dedicada a lo dioses, sustituyéndolo por otro metal más barato (proceso conocido como aleación).1ARQUIMEDES sabía que la corona, de forma irregular, podría ser aplastada o fundida en un cubo cuyo volumen se puede calcular fácilmente comparado con la masa. Pero el rey no estaba de acuerdo con estos métodos, pues habrían supuesto la destrucción de la corona.


IMAGENES


         




Ejemplos de densidad:


La leche, por ejm 1 litro (1000 ml ) pesa 1200 grs                  
Tiene una densidad de 1.2 gr /ml

1 ml de leche pesa 1.2 grs













2 LA PRESION


La presion se define como la fuerza por unidad de superficie P=F/A.
La Presion del agua a profundidad dada es gama x h,donde gama es el peso especifico del agua y h la profundidad.
El gama es 1000 Kg/m3.
Haces la grafica con los datos correspondientes y la conclusion es que la presion aumenta con la profundidad en forma lineal.


En física, la presión (símbolo p)1 2 es una magnitud física escalar que mide la fuerza en dirección perpendicular por unidad de superficie, y sirve para caracterizar cómo se aplica una determinada fuerza resultante sobre una superficie.
En el Sistema Internacional la presión se mide en una unidad derivada que se denomina pascal (Pa) que es equivalente a una fuerza total de un newton actuando uniformemente en un metro cuadrado. En el Sistema Inglés la presión se mide en una unidad derivada que se denomina libra por pulgada cuadrada (pound per square inch) psique es equivalente a una fuerza total de una libra actuando en una pulgada cuadrada.



presion absoluta y relativa



En determinadas aplicaciones la presión se mide no como la presión absoluta sino como la presión por encima de la presión atmosférica, denominándose presión relativa,presión normalpresión de gauge o presión mono métrica.
Consecuentemente, la presión absoluta es la presión atmosférica más la presión manométrica (presión que se mide con el manómetro).
Presión: es una magnitud física escalar que mide la fuerza en dirección perpendicular por unidad de superficie

UNIDADES DE MEDIDA



Unidades de presión y sus factores de conversión
PascalbarN/mm²kp/m²kp/cm²atmTorr
Pa (N/m²)=110-510-60,1020,102×10-40,987×10-50,0075
bar (10N/cm²) =10510,1102001,020,987750
N/mm² =1061011,02×10510,29,877500
kp/m² =9,819,81×10-59,81×10-6110-40,968×10-40,0736
1 kp/cm² =9,81x1040,9810,09811000010,968736
atm (760 Torr) =1013251,013250,1013103301,0331760
Torr (mmHg) =133,320,00133321,3332×10-413,61,36x10-31,32x10-31
IMAGENES


               




3 PRINCIPIO DE ARQUIMEDES



žEl principio de Arquímedes afirma que todo cuerpo sumergido en un fluido experimenta un empuje vertical y hacia arriba igual al peso de fluido desalojado.žLey física formulada por Arquímedes y que regula el equilibrio de los cuerpos sumergidos en los líquidos. Se enuncia generalmente de este modo: todo cuerpo sumergido en un liquido desaloja un volumen de este igual al suyo y pierde de su peso tanto como pesa el volumen liquido desalojado. El principio de Arquímedes se demuestra experimentalmente por medio de la balanza hidrostática.



QUE SE LOGRO CON EL PRINCIPIO DE ARQUIMEDES


Por medio del principio de arquimedes se puede facilmente obtener el volumen de un cuerpo que no se disuelva en el agua. para eso se le suspende por de un hilo fino de un gancho de la balanza hidrostatica, pasansole primero en el agua destilada a 4º.


IMAGENES


             






4 PRINCIPIO DE PASCAL



žEs la ley que se resume en la frase: la presión ejercida por un fluido incomprensible y un equilibrio dentro de un recipiente de paredes indeformables, se transmite igual intensidad en todas las direcciones y en todos los puntos del fluido
žEl principio de Pascal puede comprobarse utilizando una esfera hueca, perforada en diferentes lugares y provista de un émbolo. Al llenar la esfera con agua y ejercer presión sobre ella mediante el émbolo, se observa que el agua sale por todos los agujeros con la misma velocidad y por lo tanto con la misma presión.






El principio de Pascal puede ser interpretado como una consecuencia de la ecuación fundamental de la hidrostática y del carácter altamente incompresible de los líquidos. En esta clase de fluidos la densidad es prácticamente constante.





IMAGENES


                    


ECUACION QUE SE USA EN EL PRINCIPIO DE PASCAL:



žP= po+ pgh
ž
žDonde:
žP, presión total a la profundidad.
žPo, presión sobre la superficie libre del fluido.
žP, densidad del fluido.
žG, aceleración de la gravedad.
žH, altura medida en metros.



4 FLOTABILIDAD



La flotabilidad es la capacidad de un cuerpo para sostenerse dentro del fluido. Se dice que un cuerpo esta en flotación cuando permanece suspendido en un entorno líquido o gaseoso, es decir en un fluido."Un objeto flotará sobre un fluido (ambos bajo el efecto fuerza de una gravedad dominante) siempre que el número de partículas que componen el objeto sea menor al número de partículas del fluido desplazadas".
La flotabilidad de un cuerpo dentro de un fluido estará determinada por las diferentes fuerzas que actuen sobre el mismo y el sentido de las mismas. La flotabilidad es positiva cuando el cuerpo tienda a ascender dentro del fluido, es negativa cuando el cuerpo tiene a descender dentro del fluido, y es neutra cuando se mantiene en suspensión dentro del fluido. La flotabilidad viene establecida por el Principio de Arquímedes, y si el cuerpo fuera de naturaleza compresible su flotabilidad se verá modificada al variar su volumen según la Ley de Boyle - Mariotte.
¿ DE QUE FACTORES DEPENDE LA FLOTABILIDAD DE UN CUERPO?

Densidad.
volumen.
masa.
aseo.
área.
forma.
¿ QUE HACE QUE UN OBJETO FLOTE O SE HUNDA?

Es importante recordar que la fuerza de flotabilidad que actua sobre un cuerpo sumergido depende del volumen del cuerpo.
Los ojetos pequeños desplazan pequeñas cantidades de agua, y sobre ellos actuan fuerzas de flotabilidad pequeñas, los objetos grandes desplazan grandes cantidades de agua y sobre ellos actuan grandes fuerzas de flotabilidad. Es el volumen del objeto sumergido y no su peso lo que determina la fuerza de flotabilidad. Esa fuerza es igual al peso del volumen de fluido desplazado. Que un objeto se hunda o flote en un liquido depende de como se compara la fuerza de flotabilidad con el peso del objeto. Este a la vez depende de la densidad del objeto.
IMAGENES
                       

5 PROBLEMAS
a) Sabemos que pesa 20 N en el aire y 18 N en el agua, lo que quiere decir que no flota en el agua, sino que se sumerge completamente ya que pesa 20 N y su empuje es sólo de 20 - 18 = 2 N. Su peso en el aire y el empuje que experimenta en el agua valen (siendo ρc y ρa las densidades del cuerpo y del agua respectivamente):

P = m g = V ρc g

E = V ρa g ----> V = E / (ρa g)

y sustituyendo este valor en la primera:

P = E / (ρa g) ρc g = E ρc / ρa

► ρc = (P /E ) . ρa = (20/2) . ρa = 10 ρa (es 10 veces más denso que el agua).

b) Sabemos que P – E = 800 grF Es decir, que tampoco flota, el volumen sumergido es igual al total del cuerpo.

P = 800 + E = 800 + V ρa g = 800 + 5 . 1 . 9,8 . 10^2

► P = 800 + 4900 = 5700 grF 


c) Según hemos visto en el primer ejemplo:

V = E / (ρa g) = (500 – 400) / (1 . 9,8 . 10^2)

► V = 100 / 980 = 0,1 cm³


d) V = 20 . 8 . 4 = 640 cm³

Cuando un cuerpo flota:

P = E

V ρc g = Vs ρa g

Vs / V = ρc / ρa = 0,28 / 1 = 0,28 

► El volumen sumergido Vs es el 28% del total

► Vs = 0,28 . V = 0,28 . 640 = 179,2 cm³.

1. Durante la caída el corcho está sometido a un MUA, regido por las ecuaciones:
1) h = 1/2*g*T^2
2) V = g*T  T = V/g
Reemplazando 2) en 1):
h = 1/2*g*(V/g)^2
Operando:
h = (V)^2 / 2*g
Despejando la velocidad que alcanza al tocar el agua, se obtiene:
3) V = (2*g*h)^1/2.




noticias



Sobre la realidad de la función de ondas

Otro trabajo apunta que la función de ondas describe plenamente la realidad física y deja de lado las interpretaciones subjetivas de la misma.
Foto
En Física muchas veces no estamos muy seguros sobre si algo tiene existencia propia por sí mismo o es un modelo de la realidad. Digamos que en el primer caso se trataría de un hecho ontológico y en el segundo caso de algo más bien epistemológico. 

Creemos que los átomos son reales, así que tendrían existencia ontológica, de hecho, incluso ya los podemos ver con distintas técnicas. Sin embargo, hay modelos que han ido explicando el comportamiento de los átomos y que se han sucedido unos a otros. Según el más moderno explicaba mejor que el anterior los datos experimentales lo sustituía. Ya nadie utiliza el modelo de Borh para explicar el átomo de uranio y mucho menos el modelo de Thomson.
La gravedad (como la evolución) es un hecho. Si usted tiene dudas sobre ese hecho ontológico pruebe a subir a un edificio muy alto y lanzarse al vacío. Le garantizo que al final ya no tendrá ninguna duda al respecto (ni sobre la gravedad ni sobre cualquier otra cosa). Sin embargo, para explicar la gravedad tenemos varios modelos.
Podemos conformarnos con la gravedad newtoniana o usar la Relatividad General (que sigue siendo clásica y no cuántica). Ambas explican la gravedad bastante bien en sus respectivos regímenes. Pero si queremos explicar el desplazamiento anómalo del perihelio de Mercurio no tenemos más remedio que usar la Relatividad General (RG). Por desgracia, no contamos todavía con una teoría cuántica de gravedad, así que no podemos afirmar muchas más cosas. Se ha propuesto que la gravedad estaría mediada por una partícula de spin 2 denominada gravitón. Si esto es así, ¿en que lugar quedaría la distorsión del espacio-tiempo que propone la RG? ¿Es esa distorsión un mero modelo de realidad para realizar cálculos y en realidad tal distorsión no existe? ¿Es la distorsión espacio-temporal real y ontológica mientras que los gravitones son epistemológicos? ¿Existen realmente los gravitones o como máximo son sólo cuasipartículas conceptuales? Podremos creer en lo que dice la RG o creer en los gravitones, pero no en los dos a la vez, al menos desde el punto de vista ontológico. Epistemológicamente podemos creer en ambos a la vez.
Incluso cuando nos vamos a la Física de Altas Energías surgen las dudas sobre la ontología de la existencia de ciertas partículas. En los propios sistemas de detección e informáticos se presuponen cosas y se admiten ciertos modelos de tal modo que al final quizás tal o cual partícula realmente no exista y sólo tengamos un modelo de algo, aunque la hayamos “detectado”. Obviamente este punto no es compartido por los físicos que trabajan en el LHC y similares, pues su modo de pensar (y de vida) está ya asimilado por el sistema.
Demostrar cualquiera de lo puntos anteriores es muy difícil, pues el método científico permite comprobar modelos de realidad y no distingue entre comprobar modelos y comprobar entes “reales”. No suele haber datos experimentales o experimentos que distingan una situación de otra.
Este problema es aún más acusado cuando abandonamos el mundo clásico y nos adentramos en el cuántico. Aquí el problema no está en los objetos que se describen, sean átomos, electrones o quarks, sino en el marco teórico mismo. La Mecánica Cuántica (MC) funciona tan bien para calcular cantidades que durante 80 años casi se han dejado de lado sus aspectos fundacionales. El problema de interpretación de la MC se acarrea desde los inicios de la misma.
En MC se asignan funciones de onda Ψ al estado de los objetos cuánticos y se calculan valores esperados de un observable a través de un operador autoadjunto. La posiciónx de una partícula es un observable y le corresponde un operador autoadjunto, la cantidad de movimiento p también. El tiempo, sin embargo, no es un observable, sino que aparece en la ecuación de evolución (la ecuación de Schrödinger). Esta ecuación nos dice que si en un instante Ψ corresponde a un estado determinado al cabo de un tiempo corresponderá a otro según dicha ecuación.
Además, las funciones de ondas matemáticamente “viven” en un espacio abstracto de dimensión infinita denominado “espacio de Hilbert”.
Si queremos calcular la posición de una partícula en un sistema cuántico en un momento dado tendremos que calcular el valor esperado del operador x mediante una operación que podríamos definir como “estadística”. En su versión más sencilla tal cosa se simboliza así: < ψ|x|ψ>. Digamos que la función de onda se usa para calcular los valores de cosas que sí se pueden medir, pero la función de ondas en sí no se puede medir, aunque sí calcular.
Si seguimos con nuestro ejemplo de la posición, nos tenemos que dar cuenta de que al ser un cálculo probabilístico no obtenemos la posición exacta de la partícula, sino su posición más probable. La función de onda de la partícula es extensa, no puntual, y tiene un valor dado (que puede ser incluso en el plano complejo) para cada punto del espacio y evoluciona en el tiempo según la ecuación de Schrödinger. Bajo este punto de vista en realidad no hay una “partícula puntual” sino algo extenso sobre lo que se pueden calcular cosas, como la posición más probable de una “partícula” si imponemos que tiene que ser como un punto, aunque no sea tal punto. Se puede decir que la función de ondas es algo “borroso” que al medir colapsa a un valor determinado. Recordemos aquí que el colapso de la función de ondas no es lo mismo que el valor esperado de un observable, ni en el mundo físico ni matemáticamente (una proyección sobre un subespacio de Hilbert o un valor esperado respectivamente).

Universo con un principio

Recientes estudios apuntan a que el Universo tuvo que tener un principio, incluso cuando se considera la inflación eterna, el universo cíclico o la singularidad desnuda eterna.
Foto
Hay una situación incómoda para todo físico sobre Big Bang. Los modelos con los que contamos no pueden evitar un momento singular en el mismo instante de producirse. Una vez eliminados los modelos de estado estacionario debido a la abrumadora importancia de las pruebas encontradas, sólo parece haber lugar para un Big Bang.

Según las teorías físicas con la que contamos debería de haber una singularidad en el instante cero del tiempo, el momento en el que se dio el Big Bang. El tiempo, el espacio, la materia y la energía surgirían en ese momento. No habría habido antes. La Relatividad General no puede decir mucho más si hay una singularidad inicial.
Algunos modelos cosmológicos rudimentarios de la teoría cuántica de lazos evitan una singularidad inicial y apuntan a un universo previo en el infinito pasado que se colapsó y rebotó hasta producir lo que llamamos Big Bang.
Para evitar este problema de momento inicial se han propuesto otras soluciones. Una propuesta sería que el Universo sufriera una inflación eterna. Otra que fuera cíclico de alguna manera. Y otra que la singularidad inicial sería una especie de singularidad desnuda que existiría previamente desde el infinito pasado. Pero según Alexander Vilenkin, de Tufts University, muchos de estos modelos todavía necesitan un principio, un momento singular.
Uno de esos modelos propuestos en el pasado sería aquel en que el Universo podría sufrir una inflación eterna en la que surge un universo tras otro. Según esta idea podría haber un tiempo infinito hacia el pasado. La inflación eterna es una consecuencia natural de la idea de inflación que introdujo Alan Guth en 1981. El universo se expande y, mientras tanto, se van produciendo burbujas con otros universos que van sufriendo sus respectivamente inflaciones. Habría una especie de “universo” que serviría de “semilla” para otros universos y que existiría desde siempre y para siempre. Incluso se ha especulado con la posibilidad de que se formen estas burbujas tanto hacia atrás como hacia adelante del tiempo. Un multiverso de este tipo no necesitaría de un principio aunque cada universo en particular lo tuviera.
Sin embargo, ya en un trabajo de 2003 varios físicos encontraron que había un límite que evitaba la inflación en ambas direcciones del tiempo, simplemente la inflación no podía ser eterna hacia el pasado y debe de haber un borde. Por tanto, la inflación podía ser eterna hacia el futuro, pero no hacia el pasado.
La opción del universo “cíclico” parece que tampoco funciona en este aspecto. Según esta idea el Big Bang no sería más que el momento de rebote del colapso de un universo previo. El Universo sufriría un ciclo infinito de expansiones y contracciones que darían infinitos Big Bangs. La idea tiene atractivo, pero algunas pegas. La primera es que todavía no hemos encontrado el mecanismo que permita el colapso del Universo, pues no parece contener suficiente masa que pare la expansión, e incluso parece que esta expansión se está acelerando.
La segunda pega es la entropía, que mide el grado de desorden de un sistema. No se ha encontrado la manera de evitar que el desorden se vaya acumulando. Al cabo de un tiempo infinito este desorden sería enorme, sería máximo. Si hemos pasado por infinitos ciclos entonces necesariamente estaríamos rodeados de un desorden que simplemente no vemos. Si en cada ciclo el Universo se hace más grande el desorden se puede diluir, pero esto tampoco puede funcionar, según Vilenkin. Al final resulta que el Universo debe de haberse formado en algún momento del pasado.
Otra propuesta es la del huevo cósmico, idea que básicamente mantiene que el Universo siempre ha existido en cierto estado singular y que finalmente explotó en lo que llamamos Bing Bang. Según Vilenkin este “huevo cósmico” no puede haber existido por siempre, ya que las inestabilidades cuánticas le hubieran forzado a colapsarse en un tiempo finito. Según Vilenin todo indica que el Universo tuvo un principio.
Este investigador ha seguido explorando este aspecto llegando a nuevas conclusiones al respecto y todas apuntan en la misma dirección. Según él los datos observacionales con los que contamos no son compatibles con un Universo sin principio ni fin.
Pero Vilenkin no es el único con esta opinión. Leonard Susskind, de Stanford University, también cree que es el Universo tuvo un principio. Según argumentos termodinámicos el Universo no puede haber existido por siempre. De nuevo es el argumento de la entropía. Como el Universo tiene cierto orden tiene que haber tenido un principio.
Desde el punto de vista filosófico, el que el Universo tenga o no un principio es importante, pues algunos siempre pueden colocar ahí a un creador. Lo malo de ir colocando a Dios en entes físicos es que tarde o temprano hay que quitarlo.
Pero no importa si tenemos o no un modelo falsable y correcto que nos explique estos asuntos, sino si podemos concebir mecanismos que permitan explicar un Universo que surja desde la nada con o sin un principio.
La malo es que carecemos de una teoría de la gravedad cuántica satisfactoria (las cuerdas no explican nada, como todo el mundo sabe) y ni siquiera tenemos una buena idea de la causalidad, de lo que es el tiempo, si es existe o si realmente es una propiedad emergente.
No obstante, nadie sensato que piense “a la Zenón” puede concebir un pasado infinito en una línea temporal con flecha de tiempo que llegue hasta un momento presente específico.


¿Hemos detectado ya materia oscura?

Un estudio basado en datos del Fermi apunta a que quizás haya partículas de materia oscura de 130 GeV/c2, una masa muy similar a la detectado por el LHC y atribuida al Higgs hasta ahora.
Foto
Cuando parecía que los datos del observatorio Fermi descartaban la posibilidad de detectar partículas de materia oscura, viene ahora un astrofísico alemán y dice que han encontrado pruebas en los datos proporcionados por este telescopio sobre la existencia de partículas de 130 GeV/c2.
Como todos sabemos, la búsqueda de esas partículas que supuestamente componen la materia oscura está siendo difícil. Su detección directa de momento no ha dado frutos, así que se han buscado otros métodos indirectos para buscar pruebas de su existencia. Una de esas maneras consiste observar los rayos gamma producto de la aniquilación partícula-antipartícula de materia oscura. Nuestra Galaxia estaría rodeada por un halo de partículas de materia oscura que proporcionarían la mayor proporción de masa del sistema. Quizás algunas de ellas se aniquilen con sus correspondientes antipartículas produciendo rayos gamma. 
Si se tiene un espectro plano es que no se da tal aniquilación, pero si se da un pico a una determinada energía se puede deducir que hay una partícula con una determinada masa que se puede deducir a partir de la energía de los fotones detectados. En concreto, la suma de la energía de todos los rayos gamma producidos debe ser el doble de la masa en reposo de la partícula. En una aniquilación partícula-antipartícula limpia (de este tipo o de cualquier otro) se producen dos fotones debido a la conservación del momento, así que la energía de un fotón se corresponde a la masa de cada partícula. Aunque en este caso todo depende del modelo de aniquilación de este tipo de partículas, cuya física no es bien conocida. Según el modelo considerado puede haber aniquilaciones intermedias y que al final la aniquilación secundaria se dé con una probabilidad muy baja.
Como los rayos gamma son bloqueados por la atmósfera terrestre no queda más remedio que usar telescopios espaciales en órbita como el Fermi para observarlos.
El nuevo resultado viene de un análisis estadístico de señales de rayos gamma procedentes de determinadas partes de nuestra galaxia y registrados por Fermi en los últimos tres años y medio. En el pasado se señaló algo similar a partir de los datos de Pamela, pero al final se vio que había otros procesos que explicaban esas señales.
En este caso parece que Christoph Weniger ha encontrado un pico de energía lo suficientemente estrecho en torno a los 130 GeV con una significación estadística de 3,3 σ, es decir, que la probabilidad de que el fenómeno se deba a una fluctuación estadística es de 1 sobre 1000. De momento la mejor explicación parece ser una aniquilación de este tipo, pero ya hubo otros casos que finalmente fueron una fluctuación estadística. También pueden haberse dado errores instrumentales. O puede que este investigador se haya equivocado.
Quizás lo más interesante es que en el LHC parece que se ha detectado algo en torno a los 125 GeV, señal que se ha atribuido al Higgs. Como es difícil imaginar un halo de Higgs en nuestra galaxia (o en cualquier otra), pudiera ser que en realidad se haya detectado ya una partícula de materia oscura en el gran colisionador a esa energía y que el Higgs no esté ahí o simplemente no exista. Esta posibilidad no deja de ser realmente interesante.


Consiguen crear el láser super-radiante

El primer prototipo de láser super-radiente promete ser hasta 1000 veces más estable que el mejor de los láseres convencionales. Abriría las puertas a novedosas aplicaciones científicas.
Foto
El láser super-radiante se propuso hace ya muchos años. En concreto los primeros conceptos datan de 1954 por parte de Robert Dicke. Este sistema en teoría sería 1000 veces más estable que el láser convencional. Su consecución sería de gran importancia en la investigación científica en general.
Ahora James Thompson y sus colaboradores de la Universidad de Colorado en Boulder han conseguido el primer prototipo.
Para empezar, y por distinguirlo de lo que ya tenemos, es conveniente recordar en qué consiste un láser, que es algo más que una luz muy brillante. La palabra LASER corresponden a las sigas en ingles “luz amplificada mediante emisión estimulada de radiación”. Según esto no es más que una luz amplificada, pero el truco está en las palabras “emisión estimulada”. La idea de emisión estimulada viene de Albert Einstein. Veamos primero en qué consiste la emisión espontánea. 
Los átomos pueden estar en su estado fundamental, que es el de mínima energía. Es el estado más estable posible y de él sólo escapan si se les suministra energía, por ejemplo en forma de luz, calor, colisiones, etc. Si esto ocurre pasan a un estado excitado de energía superior. Dependiendo de la cantidad de energía absorbida se alcanzará un diferente estado excitado. Los estados excitados son discretos estando cuantizados.
Pero los estados excitados son inestables y al cabo de un tiempo los átomos tienden a pasar a estados excitados de inferior energía y al estado fundamental, a través de una o varias transiciones, emitiendo fotones en cada transición cuya energía es la diferencia de energía entre estados. Es lo que se llama emisión espontánea, que puede darse en un tiempo que puede ser largo, incluso más de unos segundos.
Es aquí en donde la emisión estimulada juega un interesante papel. Si un átomo está, por ejemplo, en el primer estado excitado y un fotón cuya energía es igual a la diferencia de energía entre ese estado y el fundamental le impacta, entonces el átomo se ve “estimulado” a emitir un fotón idéntico en la misma dirección y sentido que el que incide. Su energía (y por tanto frecuencia) es la misma. El proceso produce dos fotones iguales el “antiguo” y el “nuevo”. Digamos que el recibir un fotón con la misma energía que el que produciría al desexcitarse desencadena la emisión de otro fotón igual al recibido de forma casi instantánea. En esto consiste la emisión estimulada, en contraposición a la emisión espontánea.
En un láser se trata de aprovechar al máximo este efecto en una especie de reacción en cadena. En la cavidad láser hay átomos excitados entre dos espejos paralelos, uno de ellos semi-reflectante. Algunos átomos se desexcitan y emiten fotones en dirección perpendicular a los espejos. Esos fotones van produciendo la emisión estimulada de los átomos excitados con los que se encuentran, produciendo una especie de efecto dominó con fotones, todos en la misma dirección y sentido. Esos fotones son reflejados por los espejos una y otra vez produciendo una avalancha de fotones por emisión estimulada. Parte de ellos escapan por el espejo semi-reflectante en forma de haz láser.
Añadamos que los fotones que en un principio son emitidos espontáneamente en otras direcciones distintas a la perpendicular a los espejos pueden producir algunas emisiones estimuladas, pero no son amplificadas por el sistema de espejos y se escapan por los lados, digamos que son pérdidas.
El sistema es un poco más complejo de lo descrito aquí pues se necesita “bombear” la cavidad para conseguir átomos en estado excitado y se tiene que mantener la inversión de población con más átomos excitados que desexcitados, pues de otro modo se absorberían los fotones producidos por emisión estimulada. Normalmente el sistema funciona además a través de varios estados excitados, siendo una de las transiciones la que lasea, a veces más de una.
Pero los espejos no son nunca perfectos, no están perfectamente alineados, la distancia entre ellos no se corresponde exactamente a un número entero de longitudes de onda que la luz emitida y, sobre todo, pueden vibrar. Esto hace que los fotones emitidos no tengan una frecuencia que sea absolutamente idéntica. Pero para ciertas aplicaciones a las que el ser humano está alcanzando se necesitaría aún más “pureza” en la luz láser. El efecto de la vibración es ya tan sensible que incluso alguien andando en el laboratorio de al lado o el tráfico en el exterior del edificio afecta a la pureza del láser.
Es aquí en donde entra el láser super-radiante. Thompson y sus colaboradores han conseguido el primero de estos láseres. Se trata de un prototipo y aún no es mejor que los mejores láseres convencionales, pero es un prueba de concepto. De hecho es millones de veces más débil que la luz del puntero láser que muchos usan para dar una charla y sólo funciona durante 120 milisegundos.
Estos investigadores tomaron un gas de rubidio y lo enfriaron hasta 20 microkelvins dentro de una cavidad con dos espejos. En este caso, a diferencia del láser convencional, casi no se producen reflexiones en los espejos y, por tanto, estos no introducen “ruido” en el sistema. De hecho sólo un 0,2% de fotones se mantienen en la cavidad. Para el bombeo usaron láseres convencionales y además crearon una red cristalina óptica unidimensional usando láseres convencionales de una frecuencia distinta.
La idea de la superradiación es poner de acuerdo a los átomos excitados para que todos emitan los fotones a la vez con la misma dirección, sentido y frecuencia. Esto no lo logran con una onda estacionaria definida por la cavidad entre los espejos, sino gracias a una onda estacionaria definida en el estado de polarización de los átomos. La idea se basa en la técnica denominada “phased arrays” o “formaciones en fase”, que permite crear ondas electromagnéticas sincronizando un gran grupo de antenas idénticas (en este caso átomos excitados).
Según Thompson “es parecido a lo que pasa en el mundo clásico pero con objetos cuánticos… Si alineas muchas antenas de radio y cada una emite un campo eléctrico oscilante puedes conseguir que todos los campos eléctricos se suman para construir una buena antena direccional. Del mismo modo los átomos individuales forman espontáneamente algo así como una formación de antenas en fase que te dan un haz láser muy direccional”.

Según Thompson, como estos átomos por emisión espontánea sólo emiten un fotón por segundo y la correlación entre todos ellos multiplica la emisión por 10.000 haciendo que sean super-radiantes, entonces este tipo de “emisión estimulada” encaja en la definición de láser (Light Amplification by the Stimulated Emission of Radiation).
Estos investigadores creen que futuras mejoras de este concepto puedan proporcionar láseres super-radiantes que sean 1000 veces más estables que los mejores láseres convencionales. El próximo paso es usar átomos de estroncio, que pueden estar en estado excitado más tiempo.
Este nuevo tipo de láseres podrán usarse en relojes atómicos más precisos, en Geodesia, en GPS, en comunicaciones o en sistemas interferométricos ultraprecisos, como los que quieren usar en la detección de ondas gravitatorias. También se podrían usar como referencia para espectrómetros astronómicos o para poner de acuerdo telescopios situados en distintos puntos del mundo para así crear un sistema de gran abertura o en el espacio para así poder ver exoplanetas.



Vídeo de interferencia cuántica

Realizan un vídeo de interferencia cuántica en el que usan moléculas relativamente grandes.
Foto
Patrones de interferencia de moléculas. Fuente: Nature..
Un experimento es una pregunta que se le hace a la Naturaleza. Dependiendo de lo habilidosos que seamos la respuesta puede ser más o menos interesante. Cuando nos vamos a la microescala en la que opera la Mecánica Cuántica (MC) el tipo de experimento que hagamos puede incluso cambiar completamente la respuesta que obtengamos. 
Así por ejemplo, si queremos manifestar las propiedades ondulatorias de la luz un experimento de interferencia nos dice que la luz es efectivamente una onda. Si queremos manifestar su naturaleza corpuscular entonces un experimento fotoeléctrico nos dirá que efectivamente la luz se compone de partículas puntuales. La realidad es que la luz es la que es y somos nosotros los que la pretendemos encajar en un modelo mental nuestro, un modelo que no tiene por qué describir completamente la realidad física.
Esta dualidad también se presenta con partículas subatómicas. Así por ejemplo, podemos hacer interferir electrones entre sí y poner de manifiesto su naturaleza ondulatoria. Podemos lanzar un chorro de estas partículas hacia una doble rendija y ver como en la pantalla posterior se pone de manifiesto el típico patrón de interferencia.
Lo más sorprendente de este último experimento es que si de algún modo detectamos por dónde pasa el electrón, por qué rendija, entonces el patrón de interferencia desaparece y tenemos un comportamiento corpuscular. Al fijar un lugar por el que pasa o no el electrón estamos definiéndolo como un corpúsculo y de ahí que desaparezca su carácter ondulatorio.
Todo esto es aún más fascinante cuando en el haz de electrones de este experimento sólo hay un electrón de vez en cuando. Con eso impedimos que el electrón interfiera con otros electrones, pero aún así el efecto acumulado de varios electrones produce el patrón de interferencia. Digamos que la función de ondas del electrón “sabe” que hay dos rendijas y al explorarlas el electrón interfiere consigo mismo. De nuevo, si miramos por dónde pasa entonces desaparece la interferencia.
Este experimento de la doble rendija es muy famoso y viene en todos los artículos y libros de divulgación de MC.
Pero si no nos conformamos con electrones podemos seguir con partículas mayores y seguiremos obteniendo patrones de interferencia. Si usamos átomos completos y los lanzamos contra una doble rendija vemos que se comportan como ondas. También se ha hecho con buckybolas. Pero, ¿dónde está el límite? Los automóviles que van por la carretera no exhiben un comportamiento ondulatorio, no obedecen la MC, son objetos clásicos.

Foto
En algún punto el micromundo deja de ser cuántico para ser clásico al crecer hasta el macromundo. Generalmente se asume que se produce una decoherencia que impide a objetos lo suficientemente grandes exhibir comportamientos cuánticos.
¿A qué escala el mundo cuántico pasa a ser clásico? ¿Depende de nuestra habilidad o es intrínseco?
Pues bien, se ha llegado a realizar el experimento de la doble rendija con moléculas que constan de 400 átomos. Quizás algún día se pueda hacer con virus, no lo sabemos.
Ahora un grupo internacional de físicos ha realizado un vídeo en tiempo real en el que se ve el patrón de interferencia en un experimento de doble rendija cuando se usan moléculas orgánicas de 58 y 114 átomos (C32H18N8 y C48H26F24N8O8 respectivamente). Las moléculas se producen por micro evaporación gracias aun láser, proceso que evita la destrucción de las moléculas y genera un intenso haz coherente de moléculas.
Además crearon una red de difracción (un equivalente de la doble rendija, peor con varias rendijas en lugar de sólo dos) de nitruro de silicio con una separación de 10 nm entre rendijas.

Para la detección de las moléculas emplearon microscopia por fluorescencia que depende de la excitación mediante un láser de las moléculas. La cámara permitía fijar la posición final de las moléculas con una precisión de 10 nm.
El video que grabaron permite apreciar el patrón de interferencia, patrón que responde de maravilla con los que aparecen en los libros de texto.
Se cree que esta tecnología se puede escalar para así usar moléculas aún más grandes. ¿Qué será lo próximo?, ¿grandes moléculas de proteína o ADN?.




Intentando explorar la escala de Planck

Se intenta explorar experimentalmente la escala de Planck de manera indirecta usando sofisticados equipamientos y nuevas ideas.
Foto
Hay un mundo desconocido a la escala espacial más pequeña posible. Tenemos ideas y especulaciones sobre lo que podría ocurrir ahí, pero de seguro no sabemos nada. Depende del candidato a teoría cuántica de gravedad que consideremos.
Una teoría cuántica de la gravedad debería proporcionar la Relatividad General a gran escala, pero explicar las singularidades o el mismo Big Bang. Nos debería describir el espacio-tiempo a la escala de Planck. Pero a esas distancias ninguna de las máquinas más poderosas construidas por la Humanidad, como el LHC, puede explorar lo que sucede. Estudiar esa escala es un desafío tremendo. La longitud de Planck es igual a 1,6 & times;10-35 metros. Si esos 34 ceros no nos parecen suficientes como para describir lo pequeña que es, podemos imaginar una realidad alternativa en la esa longitud mide 1 metro y en ese caso un átomo tendría el tamaño de nuestro universo visible. 
Lo malo es que no tenemos ninguna teoría cuántica de la gravedad fiable. De momento sólo proyectos en los que se puede creer o no. Y aunque la tuviéramos siempre se ha creído que no podríamos comprobar si es correcta con un experimento directo.
El problema es que la cantidad de modelos sobre la realidad que el ser humano puede concebir es muy superior a la realidad del Universo. En otras ramas de la Física fue relativamente fácil avanzar porque los experimentos guiaban por dónde había que ir. Era incluso al revés de lo que sucede ahora, se tenían fenómenos experimentales que no se explicaban con la Física del momento y eso empujaba el desarrollo de nuevas teorías. Quizás no tenemos una teoría cuántica de la gravedad porque no somos tan inteligentes como pensábamos o porque no tenemos experimentos que nos guíen. ¿Hemos mencionado ya que no somos capaces de llegar a la escala de Planck en la que se manifestarían los efectos cuánticos de la gravedad?
Para compensar esa carencia experimental se han propuesto observaciones con el observatorio Fermi de fotones gamma de alta energía que hayan viajado distancias cosmológicas, pero de momento no han dado resultado y posiblemente nunca lo den.
Una idea nueva es usar métodos indirectos para estudiar el efecto de las textura del espacio-tiempo a la escala de Planck, hay varios grupos en el mundo que están trabajando en esta idea. Uno de ellos es una colaboración entre el grupo de Caslav Brukner de la Universidad de Viena y el de Myungshik Kim de Imperial College London y pretenden usar espejos masivos de Planck
Este tipo de experimentos podría comprobar ciertas predicciones de los proyectos a teoría cuántica de la gravedad sobre las que se trabaja o se trabaje en un futuro.
El proyecto se basa en que según el principio de incertidumbre cuando mejor conocemos la posición de un objeto peor conocemos su cantidad de movimiento (producto de la masa por la velocidad o momento) y viceversa. Pero es posible realizar dos medidas consecutivas, una medida sobre la posición de la partícula y otra sobre su momento o al contrario. En sistemas cuánticos estas dos secuencias consecutivas de este tipo de medidas proporcionan resultados experimentales distintos. Pero según las propuestas a teorías cuánticas de la gravedad esta diferencia puede ser alterada dependiendo de la masa del sistema, ya que la longitud de Planck impone un límite inferior a la medida de la distancia. Obviamente este modificación es minúscula, si es que existe, así que hay que ingeniárselas para poderlo medir. Aún así este equipo de investigadores cree que se puede medir en el laboratorio.
El montaje consiste en un láser pulsado que interactúa cuatro veces con un espejo en movimiento y con ello se mide las diferencias entre la primera medida de la posición y después de medir su momento. Este equipo de investigadores ha mostrado que sería posible ver el efecto gracias a la medida óptica de los pulsos y mediante el control preciso de los tiempos y de todas las interacciones. Básicamente es un sistema interferométrico.

Foto
Una desviación sobre lo predicho por la Mecánica Cuántica estándar sería muy excitante, pero incluso si no se observa nada al respecto también se tendrá un resultado que también puede ayudar a encontrar nuevas teorías. Otras aproximaciones a teorías cuánticas de la gravedad predicen otros resultados en este tipo de experimento.
El equipo de Graig Hogan (de la Universidad de Chicago y director Fermilab Particle
Astrophysics Center) también trabaja en este mismo campo de tratar de desvelar la estructura del espacio-tiempo. Para ello también usa un sistema interferométrico que la revele. Hogan y su equipo ya están construyendo su “holómetro”, un interferómetro en forma de L con brazos de 40 metros. La ventaja de este sistema frente a LIGO (para la detección de ondas gravitatorias y basado en la misma tecnología) es que sería menos susceptible a problemas de vibraciones y ruidos parásitos al trabajar a frecuencias más altas.
No sabemos si estos experimentos tendrán éxito, pero si lo tuvieran sería fantástico. Por primera vez habría una pequeña luz experimental en la oscuridad teórica de la gravedad cuántica.



Envían el primer mensaje con neutrinos

Logran por primera vez enviar un mensaje usando un haz de neutrinos. Aunque de momento no es un sistema práctico podría usar en un futuro como sistema de comunicación estratégico.
Foto
El asunto de los neutrinos supuestamente superlumínicos ha servido positivamente para unos y otros. Por un lado los físicos han aprendido ahora a medir muy bien tiempos y distancias. Por otro lado ha puesto de moda la Física durante un tiempo entre la población. En el lado negativo están los “conspiranoicos” empeñados en no reconocer los resultados que finalmente se están alcanzando que niegan la supuesta supervelocidad de los neutrinos. 
Siempre está bien que se hable de Física porque es una buena oportunidad para hablar de ciencia y divulgar esta rama tan importante del conocimiento. Cuando en octubre de 2009 hablábamos por aquí del posible uso de los neutrinos como sistema de comunicación en submarinos, quizás fueran pocos a los que en esa época les pareciera una noticia interesante, sobre todo por lo lejano que parecía algo así. Ahora la noticia de que se ha conseguido enviar un mensaje usando neutrinos ha tenido mucho más eco en la prensa especializada.
Los neutrinos prácticamente no interaccionan con la materia y por esta razón los experimentos de detección de neutrinos son tan difíciles de realizar. Básicamente se espera a que una vez entre muchas un neutrino que cruce el detector interaccione con algún átomo y haga notar su presencia. Esto significa que si queremos comunicarnos con neutrinos debemos de producirlos en gran cantidad y utilizar un detector muy grande y pesado.
Un grupo de investigadores de las universidades de Rochester y de Carolina del Norte han sido los primeros en conseguir enviar un mensaje usando neutrinos. Aunque la distancia a través de la cual lo han hecho es de sólo 240 metros (a través de la roca) el logro demuestra que es posible usar estas partículas como base en un sistema de comunicación. El mensaje enviado en formato digital fue precisamente la palabra “neutrino”.
Si este sistema se pudiera generalizar (algo bastante complicado de momento) se podrían poner en contacto dos puntos de la Tierra sin necesidad de satélites o cables de ningún tipo. Los neutrinos simplemente atravesarían el planeta Tierra por el camino más corto que es la línea recta. La desventaja de escasa interacción de los neutrinos con la materia se torna en ventaja al poder estos atravesar incluso años luz de plomo sin inmutarse. Servirían para comunicarse con una base lunar que estuviera en el lado oculto de la misma. Las ondas electromagnéticas que usamos en nuestras comunicaciones habituales no atraviesan obstáculos importantes y a veces necesitamos enviarlas a un satélite de comunicaciones para poder así comunicarnos con un punto al otro lado del horizonte.
Obviamente la comunicación con neutrinos no estaría pensada para el uso de la gente corriente, sino para sistema estratégicos de la defensa. Un uso claro es en submarinos, pues no hay método para enviar mensajes a un submarino sin que éste emerja o lance algún tipo de antena a la superficie, pues la comunicación a través del agua sólo se puede hacer a unos 50 bits por segundo.
De momento la tecnología empleada implica el uso de equipos muy grandes y pesados y su aplicación práctica tardará todavía bastantes años, pero si se lograra la velocidad de transmisión de información para el caso submarino se elevaría en tres órdenes de magnitud.
Este experimento de prueba de concepto se realizó en el Fermilab. Tenía dos partes diferenciadas: uno de los aceleradores más potentes del mundo de 4 km de circunferencia con el inyector NuMI y el detector de 170 toneladas de peso MINERvA que está situado a 100 m de profundidad.
Como siempre que se quiere producir neutrinos en cantidad un acelerador acelera protones a casi la velocidad de la luz y los hace chocar contra un blanco. Las reacciones de alta energía que se dan producen una copiosa producción de neutrinos.
El experimento se realizo durante 2 horas, en un periodo de “mantenimiento” en el acelerador funcionando a la mitad de potencia.
El mensaje enviado, consistió en la palabra “neutrino”, que estaba codificado en binario a base de ceros y unos. Es decir, la ausencia y presencia de neutrinos significa 0 o 1 respectivamente. Para poder obtener estos ceros y unos se moduló la llegada de grandes grupos de protones al blanco.
En el otro lado la detección de los neutrinos estaba calibrada de tal modo que las señales registradas eran traducidas a ceros y unos por un computador.
El haz de neutrinos resultante consistió en 25 pulsos separados unos 2 segundos. En cada pulso había 1013 neutrinos. En promedio el detector sólo puede detectar 0,8 neutrinos de esos 1013. En los 140 minutos empleados se envió el mensaje 3500 veces para así tener la significación estadística suficiente. Al final se obtuvo una velocidad de transmisión de información de 0,1 bits por segundo con un error menor del 1%. Obviamente no es una maravilla en cuanto de velocidad de transmisión de información, pero recordemos que se trata de un experimento de prueba de concepto, no algo pensado para comunicación prácica. Sería equivalente a cuando Alexander Graham hizo la primera llamada de teléfono en 1876 con la frase: “Watson, come here. I want you”.
La eficacia se podría elevar usando haces de neutrinos más densos o detectores más grandes. Se podría, por ejemplo, usar el IceCube de la Antártida. Quizás a alguno se le ocurra realizar un experimento de este tipo con él.
Al igual que OPERA no estaba pensando para el estudio de neutrinos superlumínicos, sino para estudiar la Física de los neutrinos, la colaboración internacional MINERvA (participan 21 instituciones) se dedica principalmente al estudio de esa Física y no al desarrollo de la comunicación con estas partículas. Esto ha sido un extra. Entre los experimentos “serios” que han realizado está el estudio de las reacciones en las que están implicados los neutrinos según los núcleos de diferentes tipos de blancos.


No detectan neutrinos superlumínicos

Un experimento independiente a OPERA pone de manifiesto que no hay neutrinos que se muevan más rápido que la luz.
Foto
La belleza de la Física, como la de otras ciencias, reside, entre otras cosas, en que los experimentos dicen si una idea o teoría es errónea. El experimento o las observaciones de los “experimentos” que la Naturaleza hace por nosotros son clave objetiva fundamental que elimina las ideas fanáticas o desquiciadas, permiten a la ciencia avanzar y callar la boca a más de uno.
A estas alturas todo el mundo conoce los resultados de OPERA y sus supuestos neutrinos superlumínicos, tanto los lectores habituales de NeoFronteras como los demás. No vamos a recapitular toda la historia y para ello están los enlaces del final.
El caso es que la idea de una velocidad superior a la de la luz era demasiado atractiva para periodistas ignorantes ycranks. Pero la posibilidad de algo así era más bien nula para cualquiera que supiera un poco de Física. Aún así no faltaron los que supuestamente sí sabían y se pusieron a lanzar branas, taquiones y dimensiones ocultas a los arXiv de Cornell.
Hace unos días que ya se sospechaba que el hallazgo de una fibra óptica mal conectada en OPERA mandaría a la ultratumba a la supuesta supervelocidad de estos neutrinos. Se repetirán los experimentos en OPERA y en otros lugares. Pero mientras tanto podemos conformarnos con los resultados de ICARUS.
Este experimento se encuentra en la misma ubicación que OPERA (Laboratorio Nacional Gran Sasso) y ha recibido el mismo tipo de neutrinos y de la misma fuente que éste en octubre y noviembre pasados. Estos neutrinos se generaron en pulsos ultracortos que proporcionaron gran precisión.
Pues bien, según este experimento los neutrinos no viajan a velocidades superiores a la de la luz dentro de los márgenes de error del experimento. No hay mucho más que añadir.
Como siempre el Universo es ciego y sordo a nuestros deseos y la Naturaleza es como es, no como nos gustaría que fuera.


¿Por qué la constante cosmológica está tan mal calculada?

Usando una analogía que emplea los condensados de Bose-Einstein un grupo de físicos señala por qué el cálculo de la constante cosmológica a partir de la energía del vació es la peor predicción de la Física.
Foto
La Teoría Cuántica de Campos predice que el vacío, es decir, el espacio-tiempo despojado de cualquier materia y energía contiene fluctuaciones cuánticas, partículas que aparecen de la nada sólo durante el tiempo permitido por el principio de incertidumbre de Heisenberg. Estas fluctuaciones del vacío, sin embargo, tienen un efecto sobre las partículas reales. Así por ejemplo, afectan a los electrones de los átomos y sus transiciones.
Los electrones sufren transiciones cuando emiten o absorben energía que quedan reflejados en los espectros. Pero la espectroscopia es tan precisa que cualquier influencia sobre los electrones se hace visible, incluso cuando sólo se trata de fluctuaciones del vacío. De este modo, si medimos espectros con mucha precisión llegamos a la conclusión de que efectivamente hay fluctuaciones del vacío que afectan el comportamiento de los electrones en la misma medida que es predicha por la teoría. La precisión entre lo medido y lo predicho es inaudita: de una parte en mil millones o mejor. Esto constituye uno de los grandes logros de Física Moderna. 
Pero la Teoría Cuántica de Campos también ostenta lo que probablemente es el mayor fracaso de la Física Moderna: la determinación de la constante cosmológica a partir de la energía del vacío.
Esas fluctuaciones tienen que tener una contribución de la energía total del vacío, del espacio-tiempo en sí. Esta energía del vacío daría lugar a un equivalente de la constante cosmológica. Si se usa la Teoría Cuántica de Campos para calcular esta energía del vacío se obtiene un valor para la constante cosmológica que es enorme. Pero, por otro lado, si se mide la constante cosmológica se observa que si existe es muy pequeña.
La diferencia entre lo predicho y lo medido es enorme. El valor teórico no es que sea 10, 100 o 1000 veces más grande que el valor real, es que es 120 órdenes de magnitud mayo (sí, un 1 seguido de 120 ceros). Si existiera tal constante cosmológica nunca se hubieran formado ni galaxia, ni estrellas, ni planetas, ni humanos, ni átomos. Todo se hubiera expandido a un ritmo endiablado al poco de darse el Big Bang. Este problema trae de cabeza a los físicos teóricos desde hace décadas y no se ha encontrado solución al mismo.
Ahora Stefano Finazzi (Universidad de Trento) y Lorenzo Sindoni (Instituto Albert Einstein) apuntan a una posible razón por la cual se obtiene tan descomunal resultado teórico. No es una solución definitiva al problema, pero permite tener esperanzas sobre su solución en algún momento y de paso nos da una excusa para hablar de estos temas.
Una cosa es plantear unas ecuaciones y otra es resolverlas. Los físicos acostumbran a utilizar aproximaciones (el famoso chiste del burro esférico ilustra bien esto) porque muchas veces no hay nadie capaz de resolver el problema tal cual. O bien se tienen las ecuaciones y no se sabe resolverlas o bien ni siquiera se pueden obtener éstas a no ser que se simplifique el modelo. A veces incluso no tenemos una teoría que permita crear un modelo matemático ni obtener las ecuaciones, un buen ejemplo de esto son los campos gravitatorios extremos (Big-Bang, agujeros negros, etc.) o el espacio-tiempo a la escala de Planck, situaciones para las cuales sólo tenemos malos candidatos a teoría cuántica de la gravedad.
Para poder calcular la energía del vacío normalmente se usa una teoría de campo efectiva semiclásica y de ahí viene el error, según estos físicos. El problema es que habría que tener una teoría cuántica de la gravedad completa para poder realizar el cálculo con garantías. Pero, como todos sabemos, no disponemos de tal teoría.
Estos autores usan una analogía para poder explicar el fenómeno: el condensado de Bose-Einstein. Un condensado de Bose-Einstein no tiene casi nada que ver con este problema, pero su formulación matemática puede ser muy similar (en concreto se trata del estudio de la evolución de la parte acústica de la métrica en el condensado). Entonces, este estudio del condensado puede ser descrito usando una ecuación de tipo Poisson para un campo gravitacional no relativistas, que tiene una dinámica análoga a la gravedad newtoniana. Este modelo contiene un término que contribuye al estado fundamental que es análogo a una constante cosmológica. Se trata en concreto de la fracción de partículas del condensado que inevitablemente ocupan estados excitados.
Por otro lado, la manera correcta de describir este tipo de condensados es usar las ecuaciones cuánticas apropiadas, modelo que sí se sabe resolver con precisión.
Pues bien, si se usa la aproximación de una teoría de campo efectiva semiclásica, que es la que se usa habitualmente en el caso de la energía del vacío habitual, para calcular el equivalente a la constante cosmológica en el caso del condensado de Bose-Einstein (para calcular esa fracción de partículas en estados excitados) se observa una gran discrepancia con el valor obtenido de la formulación habitual empleada en el cálculo de condensados, que es mucho menor, tal y como es en la realidad. Digamos que usar esa aproximación produce un error muy grande, dando un valor muy superior al real, tal y como sucede con la constante cosmológica.
El cálculo de la constante cosmológica basado en la energía del vacío daría un mal resultado, según estos físicos, debido a que se usan trucos basados en una teoría de campo efectiva semiclásica. Este tipo de cálculo sería simplemente demasiado ingenuo como para proporcionar un valor cercano al real.
El problema se solucionaría si se tuviese una teoría cuántica de la gravedad. Estos investigadores creen que este trabajo puede guiar en la selección dicha teoría cuántica de la gravedad.
Las implicaciones del trabajo incluyen la idea de que quizás no sea apropiado describir la constante cosmológica como una energía del vacío tal cual, ni que se debe a que la energía gravita, pues incluso la propia energía podría ser una propiedad emergente al igual que la propia constante cosmológica.
En lugar de ello dicha constante podría aparecer de cómo describe el espacio-tiempo una posible teoría cuántica de la gravedad. Esta teoría debería describir el propio espacio-tiempo a nivel más fundamental y microscópico. Esta “pre-geometría” a escala de Planck daría lugar a la Relatividad General en el límite clásico (algo sobre lo que se ha especulado desde siempre) y las ecuaciones de Einstein se derivarían a partir de ese sistema microscópico. En una teoría pre-geométrica de este tipo la gravedad sería un fenómeno “colectivo”.
Liberati especula que la aceleración de la expansión del Universo no tendría por qué deberse a la energía oscura, sino que se daría simplemente con un espacio relleno de materia ordinaria. La dinámica gravitacional que emergiera de una teoría cuántica de gravedad microscópica podría explicar la aparición de esa constante cosmológica. La constante cosmológica sería una propiedad emergente del propio espacio-tiempo.
El modelo quizás pueda ayudar a cambiar de modo de pensar acerca de la constante cosmológica. Se ha especulado en años recientes con la idea de que el espacio es alguna forma de condensado y que el espacio-tiempo es el resultado final de una transición de fase de una miríada de constituyentes microscópicos (supuestamente a la escala de Planck) que serían algo así como “átomos” de espacio. Así por ejemplo, unos resultados rudimentarios de la Teoría Cuántica de Lazos indicaban que las singularidades no se darían porque habría el principio de exclusión de Pauli impediría a esos átomos de espacio ocupar todos el mismo estado (en este caso un comportamiento más bien fermiónico en lugar de bosónico).
Quizás trabajos como este, que usan conceptos como el condensado de Bose-Einstein, ayuden a determinar por donde hay que ir para encontrar una teoría cuántica de la gravedad. O no.


Sobre la interpretación del principio de Heisenberg

Un experimento permite distinguir entre dos interpretaciones distintas del principio de incertidumbre de Heisenberg.
Foto
Una de los principios más misteriosos e interesantes de la Mecánica Cuántica es el principio de incertidumbre (o indeterminación) de Heisenberg. Nos dice que hay límites a lo que podemos conocer sobre los sistemas cuánticos. 
Así por ejemplo, si nos fijamos en la versión que relaciona la cantidad de movimiento (o momento) de una partícula y su posición nos dice que cuanto mejor conozcamos la posición de una partícula peor conoceremos su cantidad de movimiento (el producto de su masa y velocidad o momento) y viceversa. Estas dos cantidades conjugadas (posición y momento) no son las únicas, así por ejemplo, el tiempo y la energía también tienen su propia relación de incertidumbre. Se pueden buscar otras cantidades conjugadas que sufran de lo mismo.
Se considera a Heisenberg el padre de la Mecánica Cuántica (MC). Cuando introdujo su famoso principio en 1927 imaginó en un experimento mental a un electrón que es observado con un microscopio basado en fotones de rayos gamma. De este modo cuando se quisiera medir la posición del mismo con un error ε(q) se podía alterar su momento en una cantidad η(p) que estarían regulados por la relación ε(q)η(p) ≥ h/4 π (siendo h la constante de Plank). Digamos que la medida altera el estado del sistema de tal modo que no podemos saber ciertas cantidades simultáneamente mejor de lo que nos dice esa relación. Esta relación tendría en cuanta el error en la medición.
Ese mismo año, Earle Kennard, propuso otra relación de incertidumbre muy similar en la forma, pero conceptualmente distinta. En esta formulación el principio de incertidumbre dice que σ(q)σ(p) ≥ h/4π. En este caso viene a decir que las fluctuaciones cuánticas de la posición y del momento no se pueden suprimir simultáneamente por debajo de cierto límite. Si reducimos las fluctuaciones en uno las aumentamos en el otro. Esto expresaría un concepto más estadístico y universal en el que se tendría en cuanta la dispersión (a través de la desviación típica).
Aunque desde entonces algunos han creído que ambas formulaciones son básicamente la misma y que ambas describen el mismo fenómeno, en realidad no es así. Como se puede observar, la ecuación es prácticamente la misma, pero conceptualmente son muy distintas. En el primer caso parece tratarse de una torpeza nuestra a la hora de medir y en la segunda a algo intrínseco al sistema. Los físicos usan la formulación de Kennard en la actualidad.
Este tipo de situaciones en las que hay varias interpretaciones son habituales en MC y no suelen solucionarse debido a que es muy difícil diseñar un experimento que las distinga. Pues bien, unos físicos de las universidades de Viena y Tokio dirigidos por Yuji Hasegawa han realizado un experimento con neutrones que permite distinguir entre estos dos casos. En lugar de medir la relación posición-momento han medido dos componentes ortogonales del estado de polarización del spin de los neutrones de un haz (algo equivalente bajo del principio de incertidumbre que mide otras dos cantidades conjugadas). La conclusión es que la interpretación de Heisenberg es incorrecta y que la correcta es la de Kennard, que es la que se viene usando en la Física moderna desde hace mucho tiempo.
En el experimento se preparó un haz de neutrones en el que se midió dos componentes spin simultáneamente en clara violación del principio de incertidumbre según la interpretación original. La otra interpretación se mantuvo. El resultado, de haber sido el contrario, hubiera sacudido los cimientos de la Mecánica Cuántica moderna.
Este resultado se ha conseguido gracias a que en 2003 Masanao Ozawa (Universidad de Nagoya) llegó a una expresión del principio que permitía describir tanto el error como las fluctuaciones: ε(q) η(p) + σ(q)η(p) + σ(p)ε(q) ≥ h/4π.
En el experimento se pudo precisamente distinguir entre errores en la medida y fluctuaciones. Algo sorprendente cuando muchos físicos habían pensado que la única manera de reducir los errores es suprimiendo las fluctuaciones. Pero la desigualdad de Ozawa sugiere que hay otra manera de reducir errores al permitir al sistema tener grandes fluctuaciones, aunque suene contradictorio.
Pero en el mundo real el error en la medida siempre está ahí, sumándose a las fluctuaciones, así que desde el punto de vista experimental y práctico la formulación de Ozawa resulta útil al tener en cuenta tanto fluctuaciones como errores en la medida y su alteración provocada por el acto de medida.
Cuando se divulga la MC se suele expresar la idea ingenua de que la relación de incertidumbre surge porque la medida experimental de una cantidad X da al traste con la medida de la cantidad complementaria Y. Este experimento ayudar a eliminar esa idea.
No es que seamos torpes a la hora de medir cantidades conjugadas, es que por muy bien que lo hagamos es imposible medirlas con precisión debido a sus fluctuaciones inherentes. Sí, la MC es tan rara como siempre se ha creído, incluso más de lo que cree la gente común.

Construyen un “micrófono cuántico”

Un dispositivo es capaz de detectar ondas de sonido con una amplitud mucho menor que el diámetro de un protón.
Foto
Ilustración del dispositivo. El tamaño de las ondas aparece exagerado en el dibujo. Fuente: Philip Krantz, Chalmers.
¿Cuál es el sonido más débil que se puede oír con la ayuda de algún dispositivo? ¿Y el más débil en producirse? El progreso tecnológico del ser humano ha ido acercando progresivamente el primero al segundo. 
En 2010 un grupo de la Universidad de California en Santa Bárbara (UCSB) demostró que se podían crear fonones individuales en un oscilador mecánico criogénico. Ahora Martin Gustafsson, de la Universidad tecnológica de Chalmers, y sus colaboradores han conseguido estudiar los ecos de ondas acústicas cerca del límite cuántico.
Este grupo de científicos suecos y alemanes han conseguido crear un detector de sonido capaz de registrar los sonidos muy débiles permitidos por la Mecánica Cuántica. En el régimen alcanzado el dispositivo puede tanto emitir como detectar oscilaciones mecánicas (fonones) de la manera similar a cómo los dispositivos optoelectrónicos emiten y detectan fotones de luz. El sistema ofrece nuevas perspectivas a la hora de crear circuitos híbridos que mezclen elementos acústicos y electrónicos, además de iluminar nuevos fenómenos cuánticos.
Este “micrófono cuántico” está basado en un transistor que sólo usa un solo electrón a la vez (este tipo de transistores ya se habían logrado crear en el pasado reciente). El chip de arseniuro de galio sobre el que va montado tiene unos trasductores en dos bordes opuestos que son los que generan las ondas acústicas. El arseniuro de galio es un material piezoeléctrico que, como otros similares, produce campos eléctricos al ser deformado mecánicamente o viceversa. Una deformación de este cristal causada por la presencia de una onda acústica induce una polarización eléctrica. Es precisamente esta polarización la que puede detectar el transistor. Obviamente todo el conjunto está enfriado a una temperatura muy baja: 0,2 K.
Las ondas acústicas estudiadas por este equipo de investigadores se propagan por la superficie cristalina del microchip y recuerdan a las ondas que se forman en una charca cuando se arroja una piedra (son diferentes a las estudiadas por el grupo de UCSB). La longitud de onda es en este caso de 3 micras, pero el detector es incluso más pequeño y es capaz de sentir las “olas acústicas” según pasan.
Sobre la superficie del chip fabricaron una cámara de eco de 3 mm de largo. Aunque la velocidad del sonido de este tipo de ondas es 10 veces superior a la del sonido en el aire, el detector mostró cómo los pulsos se reflejaban entre los muros de la cavidad, verificándose así la naturaleza acústica de las ondas. Las ondas eran generadas por un trasductor de un borde y se propagaban hasta rebotar en la pared opuesta, luego en la de procedencia y así sucesivamente. Este vaivén lo realizaban varias veces.
Este tipo de ondas superficiales no son mecánico-cuánticas en comportamiento, pero son tan débiles que se les puede considerar casi en el límite cuántico. El detector es sensible a ondas cuya amplitud es sólo un pequeño porcentaje el diámetro de un protón. Esta intensidad de sonido es tan baja que el fenómeno debería de estar gobernado por las leyes de la Mecánica Cuántica en lugar de la Mecánica Clásica, pero los autores admiten que el régimen es clásico.
En Física Cuántica se llama fonones a los cuántos de vibraciones sonoras. Se tienen muy en cuenta en Física del Estado Sólido a la hora de estudiar las propiedades de la materia. Así por ejemplo, la teoría BCS que explica la superconductividad se basa en la introducción fonones para la explicar la formación de pares de Cooper. La propagación del calor en los sólidos cristalinos se puede explicar usando fonones. Gracias a este tipo de dispositivo se podrán detectar pronto fonones individuales al igual que ya detectamos fotones individuales.
La frecuencia de estas ondas es muy alta como para que la pudiera detectar el oído humano si tuviera la suficiente amplitud, en concreto es de casi 1 GHz, unas 21 octaves por encima de la nota “La”. Esto hace de este detector el más sensible del mundo en esa gama de frecuencias.
Gustafsson cree que se puede usar esta aproximación para crear una versión acústica de los qubits basados en fotones de microondas en dispositivos superconductores.



                                           



                 gracias.