martes, 14 de febrero de 2012


Descubrimiento de nuevas partículas

Científicos de la Universidad de Pittsburgh y de la Universidad Carnegie Mellon anunciaron hace un par de días que en el curso de sus investigaciones en el detector del acelerador de partículas Fermilab (CDF) descubrieron la existencia de dos nuevas partículas subatómicas previstas en la teoría pero de cuya existencia real no se tenían noticias hasta este momento.
Las partículas, denominadas sigma sub b y, al igual que los protones y los neutrones, están formados por tres quarks, por lo que se encuadran dentro del grupo de los bariones. Ambos tienen más de seis veces la masa de un protón.
Existen seis tipos de quarks: up, down, strange, charm, bottom y top (u, d, s, c, b y t, respectivamente). Los dos tipos de bariones descubiertos por el CDF tienen la estructura u-u-b y d-d-b, mientras que los protones están formados por u-u-d y los neutrones por d-d-u. La vida de las “nuevas” partículas es extremadamente corta, minúsculas fracciones de segundo.
En las instalaciones del Fermilab, el acelerador de partículas más importante del mundo, se intentan recrear las condiciones de la materia previas al big bang, creando materia exótica, a la que pertenecen las partículas sigma sub b. A diferencia de la materia actual, que sólo contiene quarks u y d, en la exótica están presentes también los otros tipos.
En sus experimentos, el CDF identificó 103 partículas u-u-b, o sigma sub b con carga positiva, y 134 d-d-b, o sigma sub b con carga negativa. Para esto fueron necesarios cientos de miles de millones de colisiones entre protones y antiprotones a lo largo de cinco años.
Según la presentación del físico Petar Maksimovic, de la Universidad Johns Hopkins, que los dos tipos de partículas sigma sub b presentan dos combinaciones de spin: J=1/2 y J=3/2, lo que confirma la teoría de la existencia de un estado basal y un estado excitado.
La teoría de los quarks postula seis tipos diferentes de bariones con un quark bottom y spin J=3/2, como se puede ver en el gráfico que reproducimos a continuación. Con el experimento del CDF ya conocemos a dos de esos bariones.


Descubierta una nueva partícula en el LHC con datos de ATLAS
Investigadores del experimento ATLAS publican en arXiv lo que se cree es la primera observación de una nueva partícula en el Gran Colisionador de Hadrones (LHC). La partícula, cb(3P), es un nuevo mesón, un estado combinado compuesto por un quark b y su antiquark. Este análisis se ha producido utilizando la ingente cantidad de datos acumulada por el detector ATLAS, 5 femtobarns inversos, y supone la confirmación de una predicción teórica asociada al Modelo Estándar de Física de Partículas, pero en ningún caso se trata de ‘nueva física’. De hecho, “compañeros” más ligeros de esta partícula fueron descubiertos hace 25 años, pero ahora el LHC ha sido capaz de producir un nuevo estado de esta partícula al producir colisiones a una energía nunca antes alcanzada en un acelerador.





Esta observación confirma el enorme potencial de descubrimiento del LHC, cuyos dos grandes experimentos, ATLAS y CMS, han acumulado una gran cantidad de datos desde que comenzaron las colisiones protón-protón en 2010. Entre sus objetivos principales está la confirmación o refutación de la existencia del bosón de Higgs, la partícula predicha por el Modelo Estándar que explicaría el origen de la masa, así como la búsqueda de partículas supersimétricas, otra teoría no confirmada hasta la fecha. Pero entre esa gran cantidad de datos se esconden otros hallazgos interesantes como este nuevo estado de la partícula cb(3P), que por otro lado confirman la validez del Modelo Estándar en esta escala de energías.





Radiactividad

Radiactividad
Es un fenómeno físico por el cual algunos cuerpos o elementos químicos, llamados radiactivos, emiten radiaciones que tienen la propiedad de impresionar placas fotográficas, ionizar gases, producir fluorescencia, atravesar cuerpos opacos a la luz ordinaria, entre otros. Debido a esa capacidad, se les suele denominar radiaciones ionizantes (en contraste con las no ionizantes). Las radiaciones emitidas pueden ser electromagnéticas, en forma de rayos X o rayos gamma, o bien corpusculares, como pueden ser núcleos de helio, electrones o positrones, protones u otras. En resumen, es un fenómeno que ocurre en los núcleos de ciertos elementos, inestables, que son capaces de transformarse, o decaer, espontáneamente, en núcleos atómicos de otros elementos más estables.
La radiactividad ioniza el medio que atraviesa. Una excepción lo constituye el neutrón, que no posee carga, pero ioniza la materia en forma indirecta. En las desintegraciones radiactivas se tienen varios tipos de radiación: alfa, beta, gamma y neutrones.
Alfa
Las partículas o rayos alfa (α) son núcleos completamente ionizados, es decir, sin su envoltura de electrones correspondiente, de helio-4 (4He). Estos núcleos están formados por dos protones y dos neutrones. Al carecer de electrones, su carga eléctrica es positiva (+2qe), mientras que su masa es de 4 unidad de masa atómica.




Partícula alfa.



Beta
Una partícula beta (β) es un electrón que sale despedido de un suceso radiactivo.




La radiación alfa está compuesta por un núcleo de helio y puede ser detenida por una hoja de papel. La radiación beta, compuesta por electrones, es detenida por una hoja de papel de aluminio. La radiación gamma es absorbida cuando penetra en un material denso.





Gamma
La radiación gamma o rayos gamma (γ) es un tipo de radiación electromagnética, y por tanto constituida por fotones, producida generalmente por elementos radiactivos o por procesos subatómicos como la aniquilación de un par positrón-electrón. También se genera en fenómenos astrofísicos de gran violencia.



Radiación gamma.

15 descubrimientos para llegar al Modelo atómico de Hoy



624-547 a. de C.
Thales de Mileto postula que el agua es la sustancia básica de la Tierra. También estaba enterado de la fuerza de atracción entre imanes y del efecto en el ámbar, al frotarlo.

460-370 a. de C.
Demócrito desarrolló la teoría de que el universo está formado por espacio vacío y un número (casi) infinito de partículas invisibles , que se diferencian unas de otras en su forma, posición, y disposición. Toda la materia está hecha de partículas indivisibles llamadas átomos.

1808
Modelo atomico de Dalton introduce la idea de la discontinuidad de la materia. Esta es la primera teoría científica que considera que la materia está dividida en átomos.

1898
Joseph Thompson midió el electrón, y desarrolló su modelo "de la torta con pasas" del átomo -- dice que el átomo es una esfera con carga positiva uniformemente distribuida, con pequeños electrones negativos como pasas adentro.

1900
Max Planck sugirió que la radiación está cuantificada (aparece en cantidades discretas.)

1905
Albert Einstein, uno de los pocos científicos que tomó en serio las ideas de Planck; propuso un cuanto de luz (el fotón) que se comporta como una partícula. Las otras teorías de Einstein explicaron la equivalencia entre la masa y la energía, la dualidad partícula-onda de los fotones, el principio de equivalencia, y especialmente la relatividad.

1911
Ernest Rutherford infirió la existencia del núcleo como resultado de la dispersión de las partículas alfa en el experimento realizado por Hans Geiger y Ernest Marsden.

1913
Niels Bohr tuvo éxito al construir una teoría de la estructura atómica, basándose en ideas cuánticas.

1919
Ernest Rutherford encontró la primer evidencia de un protón.

1925 (Enero)
Wolfgang Pauli formuló el principio de exclusión para los electrones de un átomo.

1926
Erwin Schroedinger desarrolló la mecánica ondulatoria, que describe el comportamiento de sistemas cuánticos constituidos por bosones. Max Born le dio una interpretación probabilística a la mecánica cuántica. G.N. Lewis propuso el nombre de "fotón" para el cuanto de luz.

1927
Werner Heisenberg formuló el principio de incerteza: cuanto más sabe usted sobre la energía de una partícula, menos sabrá sobre el tiempo en el que tiene esa energía (y viceversa.) La misma incertidumbre se aplica al ímpetu y la coordenada.

1951
Se descubren dos nuevos tipos de partículas en los rayos cósmicos. Son descubiertas mientras se observan unas trazas en forma de V; se las descubre al reconstruir los objetos eléctricamente neutros, que tenían que haber decaído, para producir los dos objetos cargados, que dejaron las trazas. Las partículas fueron llamadas la lambda0 y la K0.

1952
Descubrimiento de la partícula delta: eran cuatro partículas similares (delta++, delta+, delta0, y delta-.)


Modelo atómico actual

-Números cuánticos En el modelo mecano-cuántico actual se utilizan los mismos números cuánticos que en el modelo de Böhr, pero cambia su significado físico (orbitales). Los números cuánticos se utilizan para describir el comportamiento de los electrones dentreo del átomo. Hay cuatro números cuánticos: Principal (n): energía del electrón, toma valores del 1 al 7. Secundario/ azimutal (l): subnivel de energía, sus valores son (n-1). Magnético (m): orientación en el espacio, sus valores van del -l a +l. Espín (s): sentido del giro del electrón sobre su propio eje, sus valores son el -1/2 y +1/2.

Los números cuánticos se encargan del comportamiento de los electrones, y la configuración electrónica de su distribución. Órbita: cada una de las trayectorias descrita por los electrones alrededor del núcleo. Orbital: región del espacio alrededor del núcleo donde hay la máxima probabilidad de encontrar un electrón

Teoría Cuántica


La Teoría Cuántica es una teoría netamente probabilista: describe la probabilidad de que un suceso dado acontezca en un momento determinado, sin especificar cuándo ocurrirá. A diferencia de lo que ocurre en la Física Clásica, en la Teoría Cuántica la probabilidad posee un valor objetivo esencial, y no se halla supeditada al estado de conocimiento del sujeto, sino que, en cierto modo, lo determina.


La Teoría Cuántica es uno de los pilares fundamentales de la Física actual. Se trata de una teoría que reúne un formalismo matemático y conceptual, y recoge un conjunto de nuevas ideas introducidas a lo largo del primer tercio del siglo XX, para dar explicación a procesos cuya comprensión se hallaba en conflicto con las concepciones físicas vigentes. 




Las ideas que sustentan la Teoría Cuántica surgieron como alternativa al tratar de explicar el comportamiento de sistemas en los que el aparato conceptual de la Física Clásica se mostraba insuficiente. Es decir, una serie de observaciones empíricas cuya explicación no era abordable a través de los métodos existentes, propició la aparición de las nuevas ideas. 

Hay que destacar el fuerte enfrentamiento que surgió entre las ideas de la Física Cuántica, y aquéllas válidas hasta entonces, digamos de la Física Clásica. Lo cual se agudiza aún más si se tiene en cuenta el notable éxito experimental que éstas habían mostrado a lo largo del siglo XIX, apoyándose básicamente en la mecánica de Newton y la teoría electromagnética de Maxwell (1865). 

“Dos nubecillas”


 
William Thompson

Era tal el grado de satisfacción de la comunidad científica que algunos físicos, entre ellos uno de los más ilustres del siglo XIX, William Thompson (Lord Kelvin), llegó a afirmar: 




Hoy día la Física forma, esencialmente, un conjunto perfectamente armonioso, ¡un conjunto prácticamente acabado! ... Aun quedan “dos nubecillas” que oscurecen el esplendor de este conjunto. La primera es el resultado negativo del experimento de Michelson-Morley. La segunda, las profundas discrepancias entre la experiencia y la Ley de Rayleigh-Jeans.

La disipación de la primera de esas “dos nubecillas” condujo a la creación de la Teoría Especial de la Relatividad por Einstein (1905), es decir, al hundimiento de los conceptos absolutos de espacio y tiempo, propios de la mecánica de Newton, y a la introducción del “relativismo” en la descripción física de la realidad. La segunda “nubecilla” descargó la tormenta de las primeras ideas cuánticas, debidas al físico alemán Max Planck (1900). 


El origen de la Teoría Cuántica

Un fenómeno físico denominado radiación del cuerpo negro, es decir, el proceso que describe la interacción entre la materia y la radiación, el modo en que la materia intercambia energía, emitiéndola o absorbiéndola, con una fuente de radiación. Pero además de la Ley de Rayleigh-Jeans había otra ley, la Ley de Wien (1893), que pretendía también explicar el mismo fenómeno. 

 Max Planck




En 1900, Max Planck puso la primera piedra del edificio de la Teoría Cuántica. Postuló una ley (la Ley de Planck que explicaba de manera unificada la radiación del cuerpo negro, a través de todo el espectro de frecuencias. 


La hipótesis de Planck

¿Qué aportaba la ley de Planck que no se hallase ya implícito en las leyes de Wien y de Rayleigh-Jeans? Un ingrediente tan importante como novedoso. Tanto que es el responsable de la primera gran crisis provocada por la Teoría Cuántica sobre el marco conceptual de la Física Clásica. Ésta suponía que el intercambio de energía entre la radiación y la materia ocurría a través de un proceso continuo, es decir, una radiación de frecuencia f podía ceder cualquier cantidad de energía al ser absorbida por la materia. 

Lo que postuló Planck al introducir su ley es que la única manera de obtener una fórmula experimentalmente correcta exigía la novedosa y atrevida suposición de que dicho intercambio de energía debía suceder de una manera discontinua, es decir, a través de la emisión y absorción de cantidades discretas de energía, que hoy denominamos “quantums” de radiación. La cantidad de energía E propia de un quantum de radiación de frecuencia f se obtiene mediante la relación de Planck: E = h x f, siendo h la constante universal de Planck = 6’62 x 10 (expo-34) (unidades de “acción”). 

La hipótesis de Planck quedó confirmada experimentalmente, no sólo en el proceso de radiación del cuerpo negro, a raíz de cuya explicación surgió, sino también en las explicaciones del efecto fotoeléctrico, debida a Einstein (1905), y del efecto Compton, debida a Arthur Compton (1923). 


Marco de aplicación de la Teoría Cuántica

El marco de aplicación de la Teoría Cuántica se limita, casi exclusivamente, a los niveles atómico, subatómico y nuclear, donde resulta totalmente imprescindible. Pero también lo es en otros ámbitos, como la electrónica (en el diseño de transistores, microprocesadores y todo tipo de componentes electrónicos), en la física de nuevos materiales, (semiconductores y superconductores), en la física de altas energías, en el diseño de instrumentación médica (láseres, tomógrafos, etc.), en la criptografía y la computación cuánticas, y en la Cosmología teórica del Universo temprano. De manera que la Teoría Cuántica se extiende con éxito a contextos muy diferentes, lo que refuerza su validez. 




Breve cronología de la Teoría Cuántica


1900. “Hipótesis cuántica de Planck” (Premio Nobel de Física, 1918). Carácter corpuscular de la radiación. 

1905. Einstein (Premio Nobel de Física, 1921) explica el “efecto fotoeléctrico” aplicando la hipótesis de Planck. 

1911. Experimentos de Rutherford, que establecen el modelo planetario átomo, con núcleo (protones) y órbitas externas (electrones). 

1913. Modelo atómico de Niels Bohr (Premio Nobel de Física, 1922). Tiene en cuenta los resultados de Rutherford, pero añade además la hipótesis cuántica de Planck. Una característica esencial del modelo de Bohr es que los electrones pueden ocupar sólo un conjunto discontinuo de órbitas y niveles de energía. 

1923. Arthrur Comptom (Premio Nobel de Física, 1927) presenta una nueva verificación de la hipótesis de Planck, a través de la explicación del efecto que lleva su nombre. 

1924. Hipótesis de De Broglie (Premio Nobel de Física, 1929). Asocia a cada partícula material una onda, de manera complementaria a cómo la hipótesis de Planck dota de propiedades corpusculares a la radiación. 

1925. Werner Heisenberg (Premio Nobel de Física, 1932) plantea un formalismo matemático que permite calcular las magnitudes experimentales asociadas a los estados cuánticos. 

1926. Erwin Schrödinger (Premio Nobel de Física, 1933) plantea la ecuación ondulatoria cuyas soluciones son las ondas postuladas teóricamente por De Broglie en 1924. 

1927. V Congreso Solvay de Física, dedicado al tema “Electrones y fotones”. En él se produce el debate entre Einstein y Bohr, como defensores de posturas antagónicas, sobre los problemas interpretativos que plantea la Teoría Cuántica. 

1928. Experimentos de difracción de partículas (electrones) que confirman la hipótesis de de Broglie, referente a las propiedades ondulatorias asociadas a las partículas. El fenómeno de difracción es propio de las ondas. 

1932. Aparición del trabajo de fundamentación de la Teoría Cuántica elaborado por el matemático Jon von Neumann.

 Albert Einstein





La probabilidad en la Teoría Cuántica

La Teoría Cuántica es una teoría netamente probabilista. Nos habla de la probabilidad de que un suceso dado acontezca en un momento determinado, no de cuándo ocurrirá ciertamente el suceso en cuestión. La importancia de la probabilidad dentro de su formalismo supuso el punto principal de conflicto entre Einstein y Bohr en el V Congreso Solvay de Física de 1927. 

Einstein argumentaba que la fuerte presencia de la probabilidad en la Teoría Cuántica hacía de ella una teoría incompleta reemplazable por una hipotética teoría mejor, carente de predicciones probabilistas, y por lo tanto determinista. Acuñó esta opinión en su ya famosa frase, “Dios no juega a los dados con el Universo”. 

La postura de Einstein se basa en que el papel asignado a la probabilidad en la Teoría Cuántica es muy distinto del que desempeña en la Física Clásica. En ésta, la probabilidad se considera como una medida de la ignorancia del sujeto, por falta de información, sobre algunas propiedades del sistema sometido a estudio. Podríamos hablar, entonces, de un valor subjetivo de la probabilidad. Pero en la Teoría Cuántica la probabilidad posee un valor objetivo esencial, y no se halla supeditada al estado de conocimiento del sujeto, sino que, en cierto modo, lo determina. 

En opinión de Einstein, habría que completar la Teoría Cuántica introduciendo en su formalismo un conjunto adicional de elementos de realidad (a los que se denominó “variables ocultas”), supuestamente obviados por la teoría, que al ser tenidos en cuenta aportarían la información faltante que convertiría sus predicciones probabilistas en predicciones deterministas. 



Max Planck y Albert Einstein