Blogia
petalofucsia

Ciencia6

CIENCIA6: ELECTROQUÍMICA. Electroquímica es una rama de la química que estudia la transformación entre la energía eléctrica y la energía química.[1] En otras palabras, las reacciones químicas que se dan en la interface de un conductor eléctrico (llamado electrodo, que puede ser un metal o un semiconductor) y un conductor iónico (el electrolito) pudiendo ser una disolución y en algunos casos especiales, un sólido.

Electroquímica

De Wikipedia, la enciclopedia libre
Michael Faraday, Químico inglés considerado el fundador de la electroquímica actual.

Electroquímica es una rama de la química que estudia la transformación entre la energía eléctrica y la energía química.[1] En otras palabras, las reacciones químicas que se dan en la interface de un conductor eléctrico (llamado electrodo, que puede ser un metal o un semiconductor) y un conductor iónico (el electrolito) pudiendo ser una disolución y en algunos casos especiales, un sólido.[2]

Si una reacción química es conducida mediante una diferencia de potencial aplicada externamente, se hace referencia a una electrólisis. En cambio, si la caída de potencial eléctrico, es creada como consecuencia de la reacción química , se conoce como un "acumulador de energía eléctrica", también llamado batería o celda galvánica.

Las reacciones químicas donde se produce una transferencia de electrones entre moléculas se conocen como reacciones redox, y su importancia en la electroquímica es vital, pues mediante este tipo de reacciones se llevan a cabo los procesos que generan electricidad o en caso contrario, son producidos como consecuencia de ella.

En general, la electroquímica se encarga de estudiar las situaciones donde se dan reacciones de oxidación y reducción encontrándose separadas, físicamente o temporalmente, se encuentran en un entorno conectado a un circuito eléctrico. Esto último es motivo de estudio de la química analítica, en una subdisciplina conocida como análisis potenciométrico.

Contenido

[ocultar]
//

[editar] Historia

Artículo principal: Historia de la electroquímica

Es muy difícil conocer el nacimiento de la electroquímica, pues existen evidencias que indican, la existencia de baterías y acumuladores de energía eléctrica, desde la antigüedad. Estudios realizados en los años 1930 demostraron la existencia de baterías en el imperio Parto, que probablemente fueron empleadas para la electrodeposición o galvanizado de piezas metálicas. (véase baterías de Bagdad-siglo III d.C).

Los antecedentes acerca del conocimiento de la electricidad en términos científicos vinieron muchos siglos después, gracias a los trabajos con el magnetismo y los principios de la electricidad de los siglos XVII y XVIII dados tanto por William Gilbert llamado el padre del magnetismo y por Otto von Guericke quien creó el primer generador eléctrico, que producía electricidad estática generando fricción en un aparato en forma de esfera. Todo ello sumado a los aportes de Charles François de Cisternay du Fay (teoría de la polaridad), Benjamin Franklin (electricidad atmosférica), Charles-Augustin de Coulomb (teoría de atracción electrostática) en 1781 y los estudios de Joseph Priestley en inglaterra, se logró pavimentar el camino para el nacimiento científico de la electroquímica.

Es entonces que, durante finales del siglo XVIII (Ilustración), el anatomista y médico italiano Luigi Galvani marcó el nacimiento de la electroquímica de forma científica al descubrir el fenómeno que ocurría, al pasar electricidad por las ancas de rana y nuevamente al tocar ambos extremos de los nervios empleando el mismo escalpelo descargado. Dichas observaciones las publicó en su ensayo "De Viribus Electricitatis in Motu Musculari Commentarius" (del Latín por, Comentario acerca del efecto de la electricidad en el movimiento muscular). Es de esta forma que en 1791 propuso la existencia de una sustancia "nervio-eléctrica" existente en toda forma de vida.

Galvani pensó que esta nueva fuerza vital, era una nueva forma de generación de electricidad natural, además de las ya conocidas por el hombre como la existente en los truenos y relámpagos o en algunos animales como la anguila eléctrica o las rayas eléctricas.

Los aportes posteriores en la fabricación de la primera batería de la época moderna dada por Alessandro Volta permitieron que durante la revolución industrial, científicos connotados como William Nicholson y Johann Wilhelm Ritter fundaran la disciplina de la galvanoplastia. Años más tarde todo ello desembocaría en el descubrimiento de la termoelectricidad por Thomas Johann Seebeck.

Para mediados del siglo XIX, el modelamiento y estudio de la electroquímica, se vieron aclarados por Michael Faraday (leyes de la electrólisis) y John Daniell (pila dependiente solo de iones metálicos Zinc-Cobre). Hacia finales de siglo, dicha disciplina comenzó a influenciar campos tan importantes como las teorías de conductividad de electrolitos, presentado por Svante August Arrhenius y Friedrich Ostwald y subsecuentemente en el modelamiento matemático de las baterías por Walther Hermann Nernst.

A partir del siglo XX, la electroquímica permitió el descubrimiento de la carga del electrón por Millikan, y el establecimiento de la moderna teoría de ácidos y bases de Brønsted y Lowry, así como el estudio de disciplinas tan importantes como las áreas médicas y biológicas con la electroforesis, desarrollada por Arne Tiselius en 1937.

Dichas contribuciones han permitido que en la actualidad la electroquímica se emparente a temas tan diversos que van desde la electroquímica cuántica de Revaz Dogonadze o Rudolph A. Marcus, hasta las celdas fotovoltáicas y quimiluminiscencia.

[editar] Principios

[editar] Reacciones de Reducción-Oxidación

Artículo principal: Reducción-oxidación

Las reacciones de reducción-oxidación son las reacciones de transferencia de electrones. Esta transferencia se produce entre un conjunto de elementos químicos, uno oxidante y uno reductor (una forma reducida y una forma oxidada respectivamente). En dichas reacciones la energía liberada de una reacción espontánea se convierte en electricidad o bien se puede aprovechar para inducir una reacción química no espontánea.

[editar] Balanceo de las ecuaciones Redox

Artículo principal: Ecuación química

Las reacciones electroquímicas se pueden balancear por el método ión-electrón donde la reacción global se divide en dos semirreacciones (una de oxidación y otra de reducción), se efectúa el balance de carga y elemento, agregando H+, OH, H2O y/o electrones para compensar los cambios de oxidación. Antes de empezar a balancear se tiene que determinar en que medio ocurre la reacción, debido a que se procede de una manera en particular para cada medio.

[editar] Medio Ácido

Se explicará por medio de un ejemplo, cuando una sal magnésica reacciona con Bismutato de Sodio.

  • El primer paso es escribir la reacción sin balancear:
mbox{Reacción sin balancear: }mbox{Mn}^{2+}(aq) + mbox{NaBiO}_3(s)rightarrowmbox{Bi}^{3+}(aq) + mbox{MnO}_4^{-}(aq),
  • Luego se divide en dos semirreacciones:
mbox{Semirreacción de oxidación: }mbox{Mn}^{2+}(aq)rightarrowmbox{MnO}_4^{-}(aq),mbox{Semirreacción de reducción: }mbox{BiO}_3^{-}(s)rightarrowmbox{Bi}^{3+}(aq),
  • Cada semirreación se balancea de acuerdo con el número y tipo de átomos y cargas. Como estamos en medio ácido los iones H+ se agregan para balancear los átomos de H y se agrega H2O para balancear los átomos de O.
mbox{4H}_2mbox{O}(l)+mbox{Mn}^{2+}(aq)rightarrowmbox{MnO}_4^{-}(aq) + mbox{8H}^{+}(aq)+mbox{5e}^{-},mbox{2e}^{-}+ mbox{6H}^{+}(aq) + mbox{BiO}_3^{-}(s)rightarrowmbox{Bi}^{3+}(aq) + mbox{3H}_2mbox{O}(l),
  • Finalmente se multiplica cada semirreacción por un factor para que se cancelen los electrones cuando se sumen ambas semireacciones.
mbox{8H}_2mbox{O}(l)+mbox{2Mn}^{2+}(aq)rightarrowmbox{2MnO}_4^{-}(aq) + mbox{16H}^{+}(aq)+mbox{10e}^{-},mbox{10e}^{-}+ mbox{30H}^{+}(aq) + mbox{5BiO}_3^{-}(s)rightarrowmbox{5Bi}^{3+}(aq) + mbox{15H}_2mbox{O}(l),
  • Reacción Balanceada:
mbox{14H}^{+}(aq) + mbox{2Mn}^{2+}(aq)+ mbox{5NaBiO}_3(s)rightarrowmbox{7H}_2mbox{O}(l) + mbox{2MnO}_4^{-}(aq)+mbox{5Bi}^{3+}(aq)+mbox{5Na}^{+}(aq),
  • En algunos casos es necesario agregar contraiones para terminar de balancear la ecuación. Para este caso, si se conociera el anión de la sal magnésica, ese seria el contraión. Se agrega por igual de ambos lados de la ecuación lo necesario para terminar de balancearla.

[editar] Medio Alcalino

También se explicará por medio de un ejemplo, cuando el Permanganato de potasio reacciona con el Sulfito de sodio.

  • El primer paso es escribir la reacción sin balancear:
mbox{Reacción sin balancear: }mbox{KMnO}_{4}+mbox{Na}_{2}mbox{SO}_3+mbox{H}_2mbox{O}rightarrowmbox{MnO}_{2}+mbox{Na}_{2}mbox{SO}_{4}+mbox{KOH},
  • Luego se divide en dos semirreacciones:
mbox{Semirreacción de Reducción: }mbox{MnO}_{4}^{-}rightarrowmbox{MnO}_{2},mbox{Semirreacción de Oxidacción: }mbox{SO}^{2-}_{3}rightarrowmbox{SO}^{2-}_{4},
  • Cada semirreación se balancea de acuerdo con el número y tipo de átomos y cargas. Como estamos en medio alcalino los OH se agregan para balancear los átomos de H y normalmente se agrega la mitad de moléculas de H2O del otro lado de la semirreacción para balancear los átomos de O.
mbox{3e}^{-}+mbox{2H}_{2}mbox{O}+mbox{MnO}_{4}^{-}rightarrowmbox{MnO}_{2}+mbox{4OH}^{-},mbox{2OH}^{-}+mbox{SO}^{2-}_{3}rightarrowmbox{SO}^{2-}_{4}+mbox{H}_{2}mbox{O}+mbox{2e}^{-},
  • Finalmente se multiplica cada semirreación por un factor para que se cancelen los electrones cuando se sumen ambas semireacciones.
mbox{6e}^{-}+mbox{4H}_{2}mbox{O}+mbox{2MnO}_{4}^{-}rightarrowmbox{2MnO}_{2}+mbox{8OH}^{-},mbox{6OH}^{-}+mbox{3SO}^{2-}_{3}rightarrowmbox{3SO}^{2-}_{4}+mbox{3H}_{2}mbox{O}+mbox{6e}^{-},

Equation balanced:

  • Reacción Balanceada:
mbox{2KMnO}_{4}+mbox{3Na}_{2}mbox{SO}_3+mbox{H}_2mbox{O}rightarrowmbox{2MnO}_{2}+mbox{3Na}_{2}mbox{SO}_{4}+mbox{2KOH},
  • En este caso se agregaron contraiones para terminar de balancear la ecuación (los cationes K+ y Na+)

[editar] Celdas Electroquímicas

Artículo principal: célula electrolítica

La Celda Electroquímica es el dispositivo utilizado para la descomposición mediante corriente eléctrica de sustancias ionizadas denominadas electrolitos. También se conoce como celda galvánica o voltaica, en honor de los científicos Luigi Galvani y Alessandro Volta, quienes fabricaron las primeras de este tipo a fines del S. XVIII.[1]

Esquema de la Pila de Daniell. El puente salino (representado por el tubo en forma de U invertida) contiene una disolución de KCl permitiendo la interacción eléctrica entre el ánodo y el cátodo. Las puntas de éste deben estar tapadas con pedazos de algodón para evitar que la disolución de KCl contamine los otros contenedores.

Las celdas electroquímicas tienen dos electrodos: El Ánodo y el Cátodo. El ánodo se define como el electrodo en el que se lleva a cabo la oxidación y el cátodo donde se efectúa la reducción. Los electrodos pueden ser de cualquier material que sea un conductor eléctrico, como metales, semiconductores. También se usa mucho el grafito debido a su conductividad y a su bajo costo. Para completar el circuito eléctrico, las disoluciones se conectan mediante un conductor por el que pasan los cationes y aniones, conocido como puente de sal (o como puente salino). Los cationes disueltos se mueven hacia el Cátodo y los aniones hacia el Ánodo. La corriente eléctrica fluye del ánodo al cátodo por que existe una diferencia de potencial eléctrico entre ambos electrolitos. Esa diferencia se mide con la ayuda de un voltímetro y es conocida como el voltaje de la celda. También se denomina fuerza electromotriz (fem) o bien como potencial de celda.[1] En una celda galvánica donde el ánodo sea una barra de Zinc y el cátodo sea una barra de Cobre, ambas sumergidas en soluciones de sus respectivos sulfatos, y unidas por un puente salino se la conoce como Pila de Daniell. Sus semi-reacciones son estas:

mbox{Reacción Anódica: }mbox{Zn}(s)rightarrowmbox{Zn}^{2+}(aq)+mbox{2e}^{-},mbox{Reacción Catódica: }mbox{Cu}^{2+}(aq)+mbox{2e}^{-}rightarrowmbox{Cu}(s),mbox{Reacción Neta: }mbox{Zn}(s)+mbox{Cu}^{2+}(aq)rightarrowmbox{Cu}(s)+mbox{Zn}^{2+}(aq),

La notación convencional para representar las celdas electroquímicas es un diagrama de celda. En condiciones normales, para la pila de Daniell el diagrama sería:

mbox{Zn}(s)|mbox{Zn}^{2+}(1M)||mbox{Cu}^{2+}(1M)|mbox{Cu}(s),

La linea vertical representa el limite entre dos fases. La doble linea vertical representa el puente salino. Por convención, el ánodo se escribe primero a la izquierda y los demás componentes aparecen en el mismo orden en que se encuentran al moverse de ánodo a cátodo.[1]

[editar] Potenciales estándar de reducción

Esquema del EEH. 1. Electrodo de Platino 2. Gas Hidrógeno 3. Solución de HCl (1M) 4. Sifón para prevenir la contaminación de oxígeno 5. Conector donde el segundo elemento de la celda debería ser conectada

Es posible calcular el potencial estándar de reducción de una celda determinada comparando con un electrodo de referencia. Básicamente el cálculo relaciona el potencial de reducción con la redox. Arbitrariamente se le asignó el valor cero al electrodo de Hidrógeno, cuando se encuentra en condiciones estándar. En dicho electrodo ocurre la siguiente reacción:

mbox{H}_{2}rightarrowmbox{2H}^{+}(aq) + mbox{2e}^{-} ,

La reacción se lleva a cabo burbujeando gas hidrógeno en una disolución de HCl, sobre un electrodo de Platino. Las condiciones de este experimento se denominan estándar cuando la presión de los gases involucrados es igual a 1 Atm., trabajando a una temperatura de 25 °C y las concentraciones de las disoluciones involucradas son igual a 1M.[1] En este caso se denota que:

mbox{2H}^{+}(aq)(1M) + mbox{2e}^{-} rightarrow mbox{H}_{2}(1 Atm),mbox{E}^{o}=0,0000V,

Este electrodo también se conoce como electrodo estándar de hidrógeno (EEH) y puede ser conectado a otra celda electroquímica de interés para calcular su potencial de reducción.[1] La polaridad del potencial estándar del electrodo determina si el mismo se esta reduciendo u oxidando con respecto al EEH. Cuando se efectúa la medición del potencial de la celda:

  • Si el electrodo tiene un potencial positivo significa que se está reduciendo indicando que el EEH está actuando como el ánodo en la celda (Por ejemplo: el Cu en disolución acuosa de CuSO4 con un potencial estándar de reducción de 0,337V)
  • Si el electrodo tiene un potencial Negativo significa que se está oxidando indicando que el EEH está actuando como el Cátodo en la celda (Por ejemplo: el Zn en disolución acuosa de ZnSO4 con un potencial estándar de reducción de -0,763 V)

Sin embargo, las reacciones son reversíbles y el rol de un electrodo en una celda electroquímica en particular depende de la relación del potencial de reducción de ambos electrodos. El potencial estándar de una celda puede ser determinado buscando en una tabla de potenciales de reducción para los electrodos involucrados en la experiencia y se calcula aplicando la siguiente fórmula:

mbox{E}^{o}_{celda}=mbox{E}^{o}_{red}(catodo)-mbox{E}^{o}_{red}(anodo),[1]

Por ejemplo, para calcular el potencial estándar del electrodo de Cobre:

mbox{Diagrama de Celda},mbox{Pt}(s)|mbox{H}_{2}(1 atm)|mbox{H}^{+}(1 M)||mbox{Cu}^{2+}(1 M)|mbox{Cu}(s),

En condiciones estándar la fem (medida con la ayuda de un multímetro) es 0,34 V (este valor representa el potencial de reducción de la celda) y por definición, el potencial del EEH es cero. Entonces el potencial de la celda se calcula resolviendo la siguiente ecuación:

mbox{E}_{celda}=mbox{E}^{o}_{mbox{Cu}^{2+}/mbox{Cu}}{-}mbox{E}^{o}_{mbox{H}^{+}/mbox{H}_{2}}mbox{E}^{o}_{mbox{Cu}^{2+}/mbox{Cu}} = mbox{0,34 V}

El potencial de oxidación de una celda tiene el mismo modulo que el de reducción pero con signo contrario. Cambios estequiometricos en la ecuación de la celda no afectaran el valor del mbox{E}^{0}_{red}, por que el el potencial estándar de reducción es una propiedad intensiva.

[editar] Espontaneidad de una reacción redox

Artículo principal: Proceso espontáneo

Relacionando el mbox{E}_{celda}, con algunas cantidades termodinámicas permiten saber la espontaneidad de un proceso determinado. En una celda electroquímica toda la energía química se transforma en energía eléctrica. La carga eléctrica total que pasa a través de la celda es calculada por:

mbox {C} =mbox{n}{mbox{F}},

Siendo mbox{F}, la Constante de Faraday y mbox{n}, el número de moles de e⁻. Como la fem es el potencial máximo de la celda y el trabajo eléctrico es la cantidad máxima de trabajo (mbox{w},) que se puede hacer, se llega a la siguiente igualdad:

mbox{w}_{electrico}=mbox {C}{mbox {E}^{0}_{celda}},mbox{w}_{max}=mbox{w}_{electrico},mbox{w}_{max}= -mbox{nFE}_{cell},

La energía libre de Gibbs es la energía libre para hacer trabajo, eso significa que el cambio de energía libre representa la cantidad máxima de trabajo útil que se obtiene de la reacción:[1]

Delta G=-mbox{nFE}_{celda},

Si Delta G, es negativo significa que hay energía libre y por lo tanto la reacción es espontanea. Para que ocurra eso el mbox{E}_{celda}, debe ser positivo. Caso contrario la reacción no procede. Para valores negativos de Delta G, muy próximos a cero es posible que la reacción tampoco proceda debido a factores secundarios, como por ejemplo el fenómeno de sobretensión. Una reacción espontánea puede ser utilizada para generar energía eléctrica, no es nada más ni nada menos que una Pila de combustible. Mientras que a una reacción no espontánea se le debe aplicar un suficiente potencial eléctrico para que la misma se lleve a cabo. Este fenomeno es conocido como Electrólisis.[1] En una celda electroquímica, la relación entre la Constante de equilibrio, K, y la energía libre de Gibbs se puede expresar de la siguiente manera:

Delta G=mbox{-RT ln K}= mbox{-nFE}_{celda},

Despejando la mbox{E}_{celda}, se obtiene:

mbox{E}_{celda}={mbox{RT} over mbox{nF}} mbox{ln K},

Aplicando el logaritmo K en base base 10 y suponiendo que la reacción se lleva a cabo a T=298K (25 °C), finalmente llegamos a la siguiente expresión:

mbox{E}_{celda}={0,0592 mbox{V} over mbox{n}} mbox{log K},[1]

[editar] Corrosión

Artículo principal: Corrosión
Oxidación del metal.

La corrosión es definida como el deterioro de un material a consecuencia de un ataque electroquímico por su entorno. De manera más general puede entenderse como la tendencia general que tienen los materiales a buscar su forma más estable o de menor energía interna. Siempre que la corrosión esté originada por una reacción electroquímica (oxidación), la velocidad a la que tiene lugar dependerá en alguna medida de la temperatura, la salinidad del fluido en contacto con el metal y las propiedades de los metales en cuestión. Otros materiales no metálicos también sufren corrosión mediante otros mecanismos.

La corrosión puede ser mediante una reacción química (redox) en la que intervienen dos factores:

  • la pieza manufacturada (la concepción de la pieza: forma, tratamiento, montaje)
  • el ambiente (por ejemplo, un ambiente cerrado es menos propenso a la corrosión que un ambiente abierto)

O por medio de una reacción electroquímica

Los más conocidos son las alteraciones químicas de los metales a causa del aire, como la herrumbre del hierro y el acero o la formación de pátina verde en el cobre y sus aleaciones (bronce, latón).

[editar] Corrosión del Hierro

En condiciones atmosféricas ambientales, el hierro se cubre de una capa de solución electrolítica (humedad y aire del ambiente) y la película de óxido no lo protege adecuadamente porque no es capaz de evitar el acceso de los iones hasta el metal. Además esta capa es quebradiza y permite la penetración de la solución electrolítica.[3] Cuando esto ocurre esto se cree que se llevan a cabo los siguientes procesos electroquímicos:

  • Cuando una parte de la película metálica se quiebra actúa como ánodo liberando electrones, y la corrosión procede:
Fe(s)rightarrow Fe^{2+}(aq) + 2e^{-},
  • Los electrones son transferidos desde el hierro reduciendo el oxígeno atmosférico en agua en el cátodo en otra región de la película metálica:
O_{2}(g) + 4H^{+}(aq) + 4e^{-} rightarrow 2H_{2}O(l),
  • Reacción Global:
2Fe(s) + O_{2}(g) + 4H^{+}(aq) rightarrow 2Fe^{2+}(aq) + 2H_{2}O(l),
  • La fem estándar para la oxidación del hierro:
E^{o}=E^{o}_{catodo}-E^{o}_{anodo},E^{o}=1,23V-(-0,44V)=1,67V,

La corrosión del hierro se lleva a cabo en medio ácido; los H+ provienen de la reacción entre el dióxido de carbono y del agua de la atmósfera, formando Ácido carbónico. Los iones Fe2+ se oxidan según la siguiente ecuación:

4Fe^{2+}(aq) + O_{2}(g) + (4+2x)H_{2}O(l) rightarrow 2Fe_{2}O_{3}.xH_{2}O + 8H^{+}(aq),

[editar] Aproximación a la corrosión de los metales

La corrosión de los metales es un fenómeno natural que ocurre debido a la inestabilidad termodinámica de la mayoría de los metales. En efecto, salvo raras excepciones (el oro, el hierro de origen meteorítico) los metales están presentes en la Tierra en forma de óxido, en los minerales (como la bauxita si es aluminio, la hematita si es hierro...). Desde la prehistoria, toda la metalurgia ha consistido en reducir los óxidos en bajos hornos, luego en altos hornos, para fabricar el metal. La corrosión, de hecho, es el regreso del metal a su estado natural, el óxido.

[editar] Protección contra la corrosión

Es conveniente proteger a los materiales (metales principalmente) de la corrosión ya que la misma genera pérdidas económicas importantes. Una de las formas de protección son las películas protectoras, que deben cumplir ciertas condiciones. Estas películas deben ser: inertes continuas, estar firmemente adheridas al material y ser capaces de regenerarse a sí mismas en caso de ruptura.[3] Se pueden influir en los parámetros que alteren la velocidad de la corrosión (como la concepción de la pieza y el ambiente) y también en la reacción química misma para proteger al material. Además, la presencia de Inhibidores de la corrosión, de ánodos de sacrificio y de la aplicación de procesos como la Galvanoplastía ayudan a proteger al material de la corrosión.

[editar] Aplicaciones

Hay varias aplicaciones electroquímicas importantes en el marco de la naturaleza y de la industria. La generación de energía química en la fotosíntesis es también un proceso electroquímico, así como la producción de metales como aluminio y titanio y en el proceso de galvanización con metales.

En el mecanismo de los alcoholímetros también aparece la electroquímica, donde un metal se oxida mediante electro deposición y se detecta el nivel de alcohol de los conductores ebrios gracias a la redox del etanol.

Los impulsos nerviosos en las neuronas están basados en la energía eléctrica generada por el movimiento de los iones de sodio y potasio hacia dentro y hacia afuera de las células. Ciertas especies de animales, como las anguilas, pueden generar un fuerte potencial eléctrico capaz de incapacitar animales mucho mayores que las mismas.

[editar] Véase también

[editar] Bibliografía

  1. a b c d e f g h i j Chang, Raymond (2007). «Electroquímica». Química (Novena Edición edición). McGraw Hill. pp. 1100. ISBN 0-07-298060-5. 
  2. García Andrade, David Gabriel. Manual de laboratorio de Fisicoquímica de los Materiales. Universidad Autónoma Metropolitana. 
  3. a b Naveira, Alicia Alba (2008). «Corrosión». Química Inórganica para estudiantes de ingeniería química (Tercera Edición edición). Editorial Ceit. pp. 278. ISBN 978-987-1063-10-9. 

CIENCIA6: EL SIGNIFICADO DE LOS COLORES. El color es una parte del espectro lumínico, y, al fin, es energía vibratoria. Esta energía afecta de diferente forma al ser humano, dependiendo de su longitud de onda (del color en concreto) produciendo diferentes sensaciones de las que normalmente no somos conscientes.

EL SIGNIFICADO DE LOS COLORES

Círculo Estándar de Color

El color es una parte del espectro lumínico, y, al fin, es energía vibratoria.

Esta energía afecta de diferente forma al ser humano, dependiendo de su longitud de onda (del color en concreto) produciendo diferentes sensaciones de las que normalmente no somos conscientes.

Pero la gente que trabaja en agencias de marketing y publicidad, los asesores de imagen de empresa, los diseñadores industriales y de moda, etc., son bien conscientes de ello, y utilizan los colores para asociarlos coherentemente al tipo de producto que quieren hacer llegar.

La cosa, como no podría ser de otra forma, funciona. Desde hace años se han hecho todo tipo de pruebas para analizar las sensaciones que sugieren los colores y hay bastante bibliografía al respecto.

¿Y qué es un sitio web si no un escaparate personal, de empresa, de comunidad, etc.? Además de muchas otras funciones que cada sitio pueda tener, ante todo intenta comunicar y lo hace con palabras, con imágenes y, en primera instancia, con colores.

Cuando un sitio web está diseñado por profesionales con sólidos conocimientos de diseño gráfico, normalmente las pautas seguidas con los colores no son aleatorias.

Vamos a mostrar a continuación las propiedades de los colores básicos generalmente aceptadas. Puede haber discrepancias según autores, pero en lo fundamental, prácticamente todos están de acuerdo.

  • El significado de los colores:
    Blanco:
    • El blanco se asocia a la luz, la bondad, la inocencia, la pureza y la virginidad. Se le considera el color de la perfección.
    • El blanco significa seguridad, pureza y limpieza. A diferencia del negro, el blanco por lo general tiene una connotación positiva. Puede representar un inicio afortunado.
    • En heráldica, el blanco representa fe y pureza.
    • En publicidad, al blanco se le asocia con la frescura y la limpieza porque es el color de nieve. En la promoción de productos de alta tecnología, el blanco puede utilizarse para comunicar simplicidad.
    • Es un color apropiado para organizaciones caritativas. Por asociación indirecta, a los ángeles se les suele representar como imágenes vestidas con ropas blancas.
    • El blanco se le asocia con hospitales, médicos y esterilidad. Puede usarse por tanto para sugerir para anunciar productos médicos o que estén directamente relacionados con la salud.
    • A menudo se asocia a con la pérdida de peso, productos bajos en calorías y los productos lácteos.
    Amarillo:
    • El amarillo simboliza la luz del sol. Representa la alegría, la felicidad, la inteligencia y la energía.
    • El amarillo sugiere el efecto de entrar en calor, provoca alegría, estimula la actividad mental y genera energía muscular. Con frecuencia se le asocia a la comida.
    • El amarillo puro y brillante es un reclamo de atención, por lo que es frecuente que los taxis sean de este color en algunas ciudades. En exceso, puede tener un efecto perturbador, inquietante. Es conocido que los bebés lloran más en habitaciones amarillas.
    • Cuando se sitúan varios colores en contraposición al negro, el amarillo es en el que primero se fija la atención. Por eso, la combinación amarillo y negro es usada para resaltar avisos o reclamos de atención.
    • En heráldica el amarillo representa honor y lealtad.
    • En los últimos tiempos al amarillo también se le asocia con la cobardía.
    • Es recomendable utilizar amarillo para provocar sensaciones agradables, alegres. Es muy adecuado para promocionar productos para los niños y para el ocio.
    • Por su eficacia para atraer la atención, es muy útil para destacar los aspectos más importantes de una página web.
    • Los hombres normalmente encuentran el amarillo como muy desenfadado, por lo que no es muy recomendable para promocionar productos caros, prestigiosos o específicos para hombres. Ningún hombre de negocios compraría un reloj caro con correa amarilla.
    • El amarillo es un color espontáneo, variable, por lo que no es adecuado para sugerir seguridad o estabilidad.
    • El amarillo claro tiende a diluirse en el blanco, por lo que suele ser conveniente utilizar algún borde o motivo oscuro para resaltarlo. Sin embargo, no es recomendable utilizar una sombra porque lo hacen poco atrayente, pierden la alegría y lo convierten en sórdido.
    • El amarillo pálido es lúgubre y representa precaución, deterioro, enfermedad y envidia o celos.
    • EL amarillo claro representa inteligencia, originalidad y alegría.
    Naranja:
    • El naranja combina la energía del rojo con la felicidad del amarillo. Se le asocia a la alegría, el sol brillante y el trópico.
    • Representa el entusiasmo, la felicidad, la atracción, la creatividad, la determinación, el éxito, el ánimo y el estímulo.
    • Es un color muy caliente, por lo que produce sensación de calor. Sin embargo, el naranja no es un color agresivo como el rojo.
    • La visión del color naranja produce la sensación de mayor aporte de oxígeno al cerebro, produciendo un efecto vigorizante y de estimulación de la actividad mental.
    • Es un color que encaja muy bien con la gente joven, por lo que es muy recomendable para comunicar con ellos.
    • Color cítrico, se asocia a la alimentación sana y al estímulo del apetito. Es muy adecuado para promocionar productos alimenticios y juguetes
    • Es el color de la caída de la hoja y de la cosecha.
    • En heráldica el naranja representa la fortaleza y la resistencia.
    • El color naranja tiene una visibilidad muy alta, por lo que es muy útil para captar atención y subrayar los aspectos más destacables de una página web.
    • El naranja combina la energía del rojo con la felicidad del amarillo. Se le asocia a la alegría, el sol brillante y el trópico.
    • El naranja oscuro puede sugerir engaño y desconfianza.
    • El naranja rojizo evoca deseo, pasión sexual , placer, dominio, deseo de acción y agresividad
    • El dorado produce sensación de prestigio. El dorado significa sabiduría, claridad de ideas, y riqueza. Con frecuencia el dorado representa alta calidad.
    Rojo:
    • El color rojo es el del fuego y el de la sangre, por lo que se le asocia al peligro, la guerra, la energía, la fortaleza, la determinación, así como a la pasión, al deseo y al amor.
    • Es un color muy intenso a nivel emocional. Mejora el metabolismo humano, aumenta el ritmo respiratorio y eleva la presión sanguínea.
    • Tiene una visibilidad muy alta, por lo que se suele utilizar en avisos importantes, prohibiciones y llamadas de precaución.
    • Trae el texto o las imágenes con este color a primer plano resaltándolas sobre el resto de colores. Es muy recomendable para encaminar a las personas a tomar decisiones rápidas durante su estancia en un sitio web.
    • En publicidad se utiliza el rojo para provocar sentimientos eróticos. Símbolos como labios o uñas rojos, zapatos, vestidos, etc., son arquetipos en la comunicación visual sugerente.
    • El rojo es el color para indicar peligro por antonomasia.
    • Como está muy relacionado con la energía, es muy adecuado para anunciar coches motos, bebidas energéticas, juegos, deportes y actividades de riesgo.
    • En heráldica el rojo simboliza valor y coraje. Es un color muy utilizado en las banderas de muchos países.
    • El rojo claro simboliza alegría, sensualidad, pasión, amor y sensibilidad.
    • El rosa evoca romance, amor y amistad. Representa cualidades femeninas y pasividad.
    • El rojo oscuro evoca energía, vigor, furia, fuerza de voluntad, cólera, ira, malicia, valor, capacidad de liderazgo. En otro sentido, también representa añoranza.
    • El marrón evoca estabilidad y representa cualidades masculinas.
    • El marrón rojizo se asocia a la caída de la hoja y a la cosecha.
    Púrpura:
    • El púrpura aporta la estabilidad del azul y la energía del rojo.
    • Se asocia a la realeza y simboliza poder, nobleza, lujo y ambición. Sugiere riqueza y extravagancia.
    • El color púrpura también está asociado con la sabiduría, la creatividad, la independencia, la dignidad.
    • Hay encuestas que indican que es el color preferido del 75% de los niños antes de la adolescencia. El púrpura representa la magia y el misterio.
    • Debido a que es un color muy poco frecuente en la naturaleza, hay quien opina que es un color artificial.
    • El púrpura brillante es un color ideal para diseños drigidos a la mujer. También es muy adecuado para promocionar artículos dirigidos a los niños.
    • El púrpura claro produce sentimientos nostálgicos y románticos.
    • El púrpura oscuro evoca melancolía y tristeza. Puede producir sensación de frustración.
    Azul:
    • El azul es el color del cielo y del mar, por lo que se suele asociar con la estabilidad y la profundidad.
    • Representa la lealtad, la confianza, la sabiduría, la inteligencia, la fe, la verdad y el cielo eterno.
    • Se le considera un color beneficioso tanto para el cuerpo como para la mente. Retarda el metabolismo y produce un efecto relajante. Es un color fuertemente ligado a la tranquilidad y la calma.
    • En heráldica el azul simboliza la sinceridad y la piedad.
    • Es muy adecuado para presentar productos relacionados con la limpieza (personal, hogar o industrial), y todo aquello relacionado directamente con:
      • El cielo (líneas aéreas, aeropuertos)
      • El aire (acondicionadores paracaidismo)
      • El mar (cruceros, vacaciones y deportes marítimos)
      • El agua (agua mineral, parques acuáticos, balnearios)
    • Es adecuado para promocionar productos de alta tecnología o de alta precisión.
    • Al contrario de los colores emocionalmente calientes como rojo, naranja y amarillo, el azul es un color frío ligado a la inteligencia y la conciencia.
    • El azul es un color típicamente masculino, muy bien aceptado por los hombres, por lo que en general será un buen color para asociar a productos para estos.
    • Sin embargo se debe evitar para productos alimenticios y relacionados con la cocina en general, porque es un supresor del apetito.
    • Cuando se usa junto a colores cálidos (amarillo, naranja), la mezcla suele ser llamativa. Puede ser recomendable para producir impacto, alteración.
    • El azul claro se asocia a la salud, la curación, el entendimiento, la suavidad y la tranquilidad.
    • El azul oscuro representa el conocimiento, la integridad, la seriedad y el poder.
    Verde:
    • El verde es el color de la naturaleza por excelencia. Representa armonía, crecimiento, exuberancia, fertilidad y frescura.
    • Tiene una fuerte relación a nivel emocional con la seguridad. Por eso en contraposición al rojo (connotación de peligro), se utiliza en el sentido de "vía libre" en señalización.
    • El verde oscuro tiene también una correspondencia social con el dinero.
    • El color verde tiene un gran poder de curación. Es el color más relajante para el ojo humano y puede ayudar a mejorar la vista.
    • El verde sugiere estabilidad y resistencia.
    • En ocasiones se asocia también a la falta de experiencia: "está muy verde" para describir a un novato, se utiliza en varios idiomas, no sólo en español.
    • En heráldica el verde representa el crecimiento y la esperanza.
    • Es recomendable utilizar el verde asociado a productos médicos o medicinas.
    • Por su asociación a la naturaleza es ideal para promocionar productos de jardinería, turismo rural, actividades al aire libre o productos ecológicos.
    • El verde apagado y oscuro, por su asociación al dinero, es ideal para promocionar productos financieros, banca y economía.
    • El verde "Agua" se asocia con la protección y la curación emocional.
    • El verde amarillento se asocia con la enfermedad, la discordia, la cobardía y la envidia.
    • El verde oscuro se relaciona con la ambición, la codicia, la avaricia y la envidia.
    • El verde oliva es el color de la paz.
    Negro:
    • El negro representa el poder, la elegancia, la formalidad, la muerte y el misterio.
    • Es el color más enigmático y se asocia al miedo y a lo desconocido ("el futuro se presenta muy negro", "agujeros negros"...).
    • El negro representa también autoridad, fortaleza, intransigencia. También se asocia al prestigio y la seriedad.
    • En heráldica el negro representa el dolor y la pena.
    • En una página web puede dar imagen de elegancia, y aumenta la sensación de profundidad y perspectiva. Sin embargo, no es recomendable utilizarlo como fondo ya que disminuye la legibilidad.
    • Es conocido el efecto de hacer más delgado a las personas cuando visten ropa negra. Por la misma razón puede ayudar a disminuir el efecto de abigarramiento de áreas de contenido, utilizado debidamente como fondo.
    • Es típico su uso en museos, galerías o colecciones de fotos on-line, debido a que hace resaltar mucho el resto de colores. Contrasta muy bien con colores brillantes.
    • Combinado con colores vivos y poderosos como el naranja o el rojo, produce un efecto agresivo y vigoroso.
  • Tabla de propiedades de los colores:

    En la siguiente tabla vamos a resumir, para los principales colores, qué simbolizan, así como su efecto psicológico o acción terapéutica, tanto en positivo, como en negativo:

    ColorSignificadoSu uso aportaEl exceso produce
    BLANCOPureza, inocencia, optimismoPurifica la mente a los más altos niveles---
    LAVANDAEquilibrioAyuda a la curación espiritualCansado y desorientado
    PLATAPaz, tenacidadQuita dolencias y enfermedades---
    GRISEstabilidadInspira la creatividad
    Simboliza el éxito
    ---
    AMARILLOInteligencia, alentador, tibieza, precaución, innovaciónAyuda a la estimulación mental
    Aclara una mente confusa
    Produce agotamiento
    Genera demasiada actividad mental
    OROFortalezaFortalece el cuerpo y el espírituDemasiado fuerte para muchas personas
    NARANJAEnergíaTiene un agradable efecto de tibieza
    Aumenta la inmunidad y la potencia
    Aumenta la ansiedad
    ROJOEnergía, vitalidad, poder, fuerza, apasionamiento, valor, agresividad, impulsivoUsado para intensificar el metabolismo del cuerpo con efervescencia y apasionamiento
    Ayuda a superar la depresión
    Ansiedad de aumentos, agitación, tensión
    PÚRPURASerenidadÚtil para problemas mentales y nerviososPensamientos negativos
    AZULVerdad, serenidad, armonía, fidelidad, sinceridad, responsabilidadTranquiliza la mente
    Disipa temores
    Depresión, aflicción, pesadumbre
    AÑILVerdadAyuda a despejar el camino a la conciencia del yo espiritualDolor de cabeza
    VERDEEcuanimidad inexperta, acaudalado, celos, moderado, equilibrado, tradicionalÚtil para el agotamiento nervioso
    Equilibra emociones
    Revitaliza el espíritu
    Estimula a sentir compasión
    Crea energía negativa
    NEGROSilencio, elegancia, poderPaz. SilencioDistante, intimidatorio

     

     

  • Tabla de sensaciones:

    Ahora vamos a plantear el ejercicio inverso: supongamos que estamos diseñando un nuevo sitio web. Y supongamos que en determinadas situaciones queremos sugerir, promover determinados sentimientos entre nuestros visitantes. En la siguiente tabla esquematizamos como:

    SensaciónColoresMuestras
    Calidez, tibiezaColores tibios asociados al fuego: Marrón, Rojo, Naranja, Amarillo
     
     
     
     
     
     
     
    Fascinación, emociónEl amarillo dorado deja una sensación perdurable, brillante, fuerte.
     
     
     
    SorpresaEl granate, sorprende por poco usado. 
    FeminidadLa variedad de tonos alrededor del rosa y lavanda
     
     
     
     
     
     
    DramatismoVerde oscuro, poderoso.
     
     
     
     
    NaturalidadSutiles tonos de gris y verde
     
     
     
     
     
     
     
    MasculinidadMarrones, piel curtida y azules
     
     
     
     
     
     
     
     
    JuvenilColores saturados, brillantes, extremos, con el máximo contraste
     
     
     
     
     
     
     
     
    SerenidadSombras frescas, del violeta al verde
     
     
     
     
     
     
     
     
    FrescuraTonos neutros de azul violeta y gris
     
     
     
     
     
     
     
     
  • Autor: WebUsable
    http://www.webusable.com/coloursMean.htm

    Obtenido de http://www.webtaller.com/maletin/articulos/significado_de_los_colores.php

    CIENCIA6: ¿QUÉ SON LAS MICROMOLÉCULAS?

    Pregunta resuelta

    Ver otra »

    ¿que son las micromoleculas?

    quiero saber que son las micromoleculas desde un enfoque bioquimico , que son dodne estan, y para que sirven
    +
    • hace 2 años
    FraN C by FraN C Miembro desde el 19 agosto 2008 Puntos totales: 837 (Nivel 2)

    Mejor respuesta - Elegida por la comunidad

    De manera resumida, podríamos decir que las micromoléculas, ya sean aminoácidos, ácidos grasos, monosacáridos, son las responsables de las síntesis prebiológicas que más tarde originaron las macromoléculas.

    En muchas ocasiones podríamos llamar a las micromoléculas, a aquellos monomeros, o a la versión más simple de una macromolécula, ya que una macromolécula es la unión de multiples moléculas, lo que podríamos llamar polímeros.

    Por lo tanto, las micromoléculas son las responsables del nacimiento de todo lo que conocemos por vías de síntesis prebiológica, bioquímica, química orgánica e inorgánica.

    Fuente(s):

    Licenciado en Química e Investigador
    • hace 2 años

    Obtenido de http://es.answers.yahoo.com/question/index?qid=20080831213748AATO50h

    CIENCIA6: FOTONES. En física moderna, el fotón (Griego φῶς, φωτός [luz], y -ón) es la partícula elemental responsable de las manifestaciones cuánticas del fenómeno electromagnético. Es la partícula portadora de todas las formas de radiación electromagnética, incluyendo a los rayos gamma, los rayos X, la luz ultravioleta, la luz visible (espectro electromagnético), la luz infrarroja, las microondas, y las ondas de radio. El fotón tiene una masa invariante cero,[1] y viaja en el vacío con una velocidad constante c. Como todos los cuantos, el fotón presenta tanto propiedades corpusculares como ondulatorias ("dualidad onda-corpúsculo"). Se comporta como una onda en fenómenos como la refracción que tiene lugar en una lente, o en la cancelación por interferencia destructiva de ondas reflejadas; sin embargo, se comporta como una partícula cuando interacciona con la materia para transferir una cantidad fija de energía, que viene dada por la expresión. donde h es la constante de Planck, c es la velocidad de la luz, y λ es la longitud de onda. Esto difiere de lo que ocurre con las ondas clásicas, que pueden ganar o perder cantidades arbitrarias de energía. Para la luz visible, la energía portada por un fotón es de alrededor de 4×10–19 joules; esta energía es suficiente para excitar un ojo y dar lugar a la visión.

    Fotón

    De Wikipedia, la enciclopedia libre
    Para otros usos de este término, véase Fotón (desambiguación).
     
     
    Fotón (γ)
    Military laser experiment.jpg
    Fotones emitidos en un rayo coherente por un láser
    ClasificaciónPartícula elemental
    FamiliaBosón
    GrupoBosón de gauge
    InteracciónElectromagnetismo
    Símbolo(s)γ, hν, o ħω
    AntipartículaElla misma
    TeorizadaAlbert Einstein
    Masa0
    Vida mediaEstable
    Carga eléctrica0
    Espín1 hbar;

    En física moderna, el fotón (Griego φῶς, φωτός [luz], y -ón) es la partícula elemental responsable de las manifestaciones cuánticas del fenómeno electromagnético. Es la partícula portadora de todas las formas de radiación electromagnética, incluyendo a los rayos gamma, los rayos X, la luz ultravioleta, la luz visible (espectro electromagnético), la luz infrarroja, las microondas, y las ondas de radio. El fotón tiene una masa invariante cero,[1] y viaja en el vacío con una velocidad constante c. Como todos los cuantos, el fotón presenta tanto propiedades corpusculares como ondulatorias ("dualidad onda-corpúsculo"). Se comporta como una onda en fenómenos como la refracción que tiene lugar en una lente, o en la cancelación por interferencia destructiva de ondas reflejadas; sin embargo, se comporta como una partícula cuando interacciona con la materia para transferir una cantidad fija de energía, que viene dada por la expresión.

    E = frac{h c}{lambda}

    donde h es la constante de Planck, c es la velocidad de la luz, y λ es la longitud de onda. Esto difiere de lo que ocurre con las ondas clásicas, que pueden ganar o perder cantidades arbitrarias de energía. Para la luz visible, la energía portada por un fotón es de alrededor de 4×10–19 joules; esta energía es suficiente para excitar un ojo y dar lugar a la visión.[2]

    Además de energía, los fotones llevan también asociada una cantidad de movimiento o momento lineal, y tienen una polarización. Siguen las leyes de la mecánica cuántica, lo que significa que a menudo estas propiedades no tienen un valor bien definido para un fotón dado. En su lugar se habla de las probabilidades de que tenga una cierta polarización, posición, o cantidad de movimiento. Por ejemplo, aunque un fotón puede excitar a una molécula, a menudo es imposible predecir cuál será la molécula excitada.

    La descripción anterior de un fotón como un portador de radiación electromagnética es utilizada con frecuencia por los físicos. Sin embargo, en física teórica, un fotón puede considerarse como un mediador para cualquier tipo de interacción electromagnética.

    La discusión sobre la naturaleza de la luz se remonta hasta la antigüedad. En el siglo XVII, Newton se inclinó por una interpretación corpuscular de la luz, mientras que sus contemporáneos Huygens y Hooke apoyaron la hipótesis de la luz como onda. Experimentos de interferencia, como el realizado por Young en el siglo XIX, confirmaron el modelo ondulatorio de la luz.

    La idea de la luz como partícula retornó con el concepto moderno de fotón, que fue desarrollado gradualmente entre 1905 y 1917 por Albert Einstein[3] [4] [5] [6] apoyándose en trabajos anteriores de Planck, en los cuales se introdujo el concepto de cuanto. Con el modelo de fotón podían explicarse observaciones experimentales que no encajaban con el modelo ondulatorio clásico de la luz. En particular, explicaba cómo la energía de la luz dependía de la frecuencia (dependencia observada en el efecto fotoeléctrico) y la capacidad de la materia y la radiación electromagnética para permanecer en equilibrio térmico.

    Otros físicos trataron de explicar las observaciones anómalas mediante modelos "semiclásicos", en los que la luz era descrita todavía mediante las ecuaciones de Maxwell, aunque los objetos materiales que emitían y absorbían luz estaban cuantizados. Aunque estos modelos semiclásicos contribuyeron al desarrollo de la mecánica cuántica, experimentos posteriores han probado las hipótesis de Einstein sobre la cuantización de la luz (los cuantos de luz son los fotones).

    El concepto de fotón ha llevado a avances muy importantes en física teórica y experimental, tales como la teoría cuántica de campos, el condensado de Bose-Einstein y la interpretación probabilística de la mecánica cuántica, y a inventos como el láser.

    De acuerdo con el modelo estándar de física de partículas los fotones son los responsables de producir todos los campos eléctricos y magnéticos, y a su vez son el resultado de que las leyes físicas tengan cierta simetría en todos los puntos del espacio-tiempo. Las propiedades intrínsecas de los fotones (masa invariante y espín ) están determinadas por las propiedades de la simetría de Gauge.

    Los fotones se aplican a muchas áreas, como la fotoquímica, el microscopio fotónico y la medición de distancias moleculares. Incluso se los ha estudiado como componentes de computadoras cuánticas y en aplicaciones sofisticadas de comunicación óptica como por ejemplo en criptografía cuántica.

    Contenido

    [ocultar]

    [editar] Nomenclatura

    El fotón fue llamado originalmente por Albert Einstein[3] "cuanto de luz” (en alemán: das Lichtquant). El nombre moderno “fotón” proviene de la palabra griega φῶς (que se transcribe como phôs), que significa luz, y fue acuñado en 1926 por el físico Gilbert N. Lewis, quien publicó una teoría especulativa[7] en la que los fotones no se podían “crear ni destruir". Aunque la teoría de Lewis nunca fue aceptada —siendo contradicha en muchos experimentos— el nuevo nombre "fotón" fue adoptado enseguida por la mayoría de los científicos.

    En física, el fotón se representa normalmente con el símbolo gamma ! (la letra griega gamma). Este símbolo proviene posiblemente de los rayos gamma, descubiertos y bautizados con ese nombre en 1900 por Villard[8] [9] y que resultaron ser una forma de radiación electromagnética según demostraron Rutherford y Andrade[10] en 1914. En química e ingeniería óptica, los fotones se simbolizan habitualmente por h nu !, que representa también la energía asociada a un fotón, donde h ! es la constante de Planck y la letra griega nu ! es la frecuencia de la partícula. Con mucha menor asiduidad, el fotón también se representa por hf !, siendo f !, en este caso, la frecuencia.

    [editar] Propiedades físicas

    Diagrama de Feynman mostrando el intercambio de un fotón virtual (simbolizado por una línea ondulada y gamma ,) entre un positrón y un electrón.

    El fotón no tiene masa,[1] tampoco posee carga eléctrica[11] y no se desintegra espontáneamente en el vacío. El fotón tiene dos estados posibles de polarización que pueden describirse mediante tres parámetros continuos: las componentes de su vector de onda, que determinan su longitud de onda lambda ! y su dirección de propagación. El fotón es el bosón de gauge de la interacción electromagnética, y por tanto todos los otros números cuánticos —como el número leptónico, el número bariónico, o la extrañeza— son exactamente cero.

    [editar] Emisión

    Los fotones se emiten en muchos procesos naturales, por ejemplo, cuando se acelera una partícula con carga eléctrica, durante una transición molecular, atómica o nuclear a un nivel de energía más bajo, o cuando se aniquila una partícula con su antipartícula.

    [editar] Absorción

    Los fotones se absorben en los procesos de reversión temporal que se corresponden con los ya mencionados: por ejemplo, en la producción de pares partícula-antipartícula o en las transiciones moleculares, atómicas o nucleares a un nivel de energía más alto.

    [editar] Energía y movimiento

    En el espacio vacío, los fotones se mueven a la velocidad de la luz c, y su energía E y momento lineal p están relacionados mediante la expresión E = cp, donde p es el módulo del momento lineal. En comparación, la ecuación correspondiente a partículas con una masa m es E2 = c2p2 + m2c4, como se demuestra en la relatividad especial.

    La energía y el momento lineal de un fotón dependen únicamente de su frecuencia nu ! o, lo que es equivalente, de su longitud de onda lambda !.

    E = hbar omega = h nu = frac{h c}{lambda}mathbf{p} = hbar mathbf{k}

    y en consecuencia el módulo del momento lineal es:

    p = hbar k = frac{h}{lambda} = frac{h nu}{c}

    donde hbar = h/2pi ! (conocida como constante de Dirac o constante reducida de Planck); k es el vector de onda (de módulo k = 2 pi/ lambda !) y omega = 2 pi nu ! es la frecuencia angular. Debe tenerse en cuenta que k apunta en la dirección de propagación del fotón. Este tiene además momento angular de espín que no depende de la frecuencia. El módulo de tal espín es sqrt{2} hbar, y la componente medida a lo largo de su dirección de movimiento, su helicidad, tiene que ser pm hbar. Estos dos posibles valores corresponden a los dos posibles estados de polarización circular del fotón (en sentido horario o antihorario).

    Para ilustrar la importancia de estas fórmulas, la aniquilación de una partícula con su antipartícula tiene que dar lugar a la creación de al menos dos fotones por la siguiente razón: en el sistema de referencia fijo en el centro de masas, las antipartículas que colisionan no tienen momento lineal neto, mientras que un fotón aislado siempre lo tiene. En consecuencia, la ley de conservación del momento lineal requiere que al menos se creen dos fotones, para que el momento lineal resultante pueda ser igual a cero. Las energías de los dos fotones —o lo que es equivalente, sus frecuencias— pueden determinarse por las leyes de conservación. El proceso inverso, la creación de pares, es el mecanismo principal por el que los fotones de alta energía (como los rayos gamma) pierden energía al pasar a través de la materia.

    Las fórmulas clásicas para la energía y el momento lineal de la radiación electromagnética pueden ser expresadas también en términos de eventos fotónicos. Por ejemplo, la presión de radiación electromagnética sobre un objeto es debida a la trasferencia de momento lineal de los fotones por unidad de tiempo y unidad de superficie del objeto, ya que la presión es fuerza por unidad de superficie y la fuerza, a su vez, es la variación del momento lineal por unidad de tiempo.

    [editar] Desarrollo histórico del concepto

    Artículo principal: Luz
    El experimento de la doble rendija de Thomas Young en 1805 demostró que la luz se comportaba como una onda, lo que ayudó a rechazar las anteriores teorías corpusculares.

    En la mayoría de las teorías hasta el siglo XVIII, la luz se consideraba formada por partículas. El hecho de que los modelos de partículas no pudieran explicar fenómenos como la difracción, la refracción o la birrefringencia de la luz, hizo que René Descartes en 1637,[12] Robert Hooke en 1665,[13] y Christian Huygens en 1678,[14] propusieran teorías ondulatorias para la luz; sin embargo, los modelos de partículas permanecieron vigentes, principalmente debido a la influencia de Isaac Newton.[15]

    A principios del siglo XIX Thomas Young y August Fresnel demostraron con claridad que los fenómenos de interferencia y difracción se daban también para la luz, y para 1850 los modelos ondulatorios habían sido generalmente aceptados.[16] En 1865, las predicciones de Maxwell[17] sobre la naturaleza de la luz como onda electromagnética, que serían posteriormente confirmadas experimentalmente por Heinrich Hertz en 1888,[18] parecieron significar el final del modelo de partículas.

    En 1900, el modelo teórico de la luz de Maxwell, como dos campos oscilatorios (uno eléctrico y otro magnético) pareció completo. Sin embargo, diversas observaciones no podían explicarse según los modelos de radiación electromagnética, lo que llevó a la conclusión de que la energía lumínica estaba empaquetada en cuantos descritos por E = hν. Experimentos posteriores mostraron que estos cuantos de luz también poseían momento lineal y en consecuencia podían ser considerados partículas. Nacía así el concepto de fotón, que llevaría a un conocimiento más profundo de los campos eléctricos y magnéticos..

    Sin embargo, la teoría ondulatoria de Maxwell no explicaba todas las propiedades de la luz. Predecía que la energía de una onda luminosa dependía solamente de su intensidad, no de su frecuencia, pero diversos experimentos demostraron que la energía aportada por la luz a los átomos dependía sólo de su frecuencia, y no de su intensidad. Por ejemplo, algunas reacciones químicas eran provocadas únicamente por luz con una frecuencia mayor que un valor determinado; si la frecuencia no alcanzaba dicho valor, la reacción no se producía, independientemente de la intensidad que tuviera la luz. De forma similar, se podían extraer electrones de una placa metálica iluminándola con radiación de una frecuencia suficientemente alta (efecto fotoeléctrico), y la energía con la que los electrones abandonaban la placa era función únicamente de la frecuencia de la luz incidente, y no de su intensidad.

    Al mismo tiempo, las investigaciones realizadas a lo largo de cuatro décadas (1860-1900) por varios investigadores[19] sobre la radiación de un cuerpo negro, culminaron con la hipótesis de Max Planck,[20] [21] que proponía que la energía de cualquier sistema que absorbe o emite radiación electromagnética de frecuencia ν, era un número entero de veces la energía de un cuanto: E = hν. Como demostró Albert Einstein,[3] [4] debía aceptarse alguna forma de cuantización de la energía para explicar el equilibrio térmico observado entre la materia y la radiación electromagnética. Por esta explicación del efecto fotoeléctrico, Einstein recibió el Premio Nobel de física en 1921.

    Puesto que la teoría de Maxwell permitía todas las posibles energías de radiación electromagnética, la mayoría de los físicos asumieron inicialmente que la cuantización de la energía era el resultado de alguna restricción desconocida sobre la materia que absorbía o emitía la radiación. En 1905, Einstein fue el primero en proponer que la cuantización de la energía era una propiedad intrínseca de la radiación electromagnética.[3] Aunque aceptaba la validez de la teoría de Maxwell, Einstein apuntó que las anomalías observadas en muchos experimentos podían explicarse si la energía de una onda de luz maxweliana estuviera localizada en unos puntos cuánticos que se movieran independientemente unos de otros, incluso aunque la onda se difundiera de forma continua por el espacio.[3] En 1909[4] y 1916[6] Einstein demostró que si era aceptada la teoría de Planck sobre la radiación de los cuerpos negros, los cuantos de energía tenían también que poseer momento lineal p = h / λ, con lo que los convertía en partículas en todo el sentido de la palabra.

    El momento lineal de los fotones fue observado experimentalmente por Arthur Compton,[22] quien por este descubrimiento recibió el Premio Nobel en 1927. La pregunta fundamental entonces paso a ser: ¿cómo unificar la teoría ondulatoria de Maxwell con la naturaleza corpuscular observada experimentalmente? La respuesta a esta pregunta mantuvo ocupado a Einstein el resto de su vida,[23] y fue resuelta dentro de la electrodinámica cuántica y de su sucesor, el modelo estándar de la física de partículas.

    [editar] Primeras objeciones

    Hasta 1923 la mayoría de los físicos eran reacios a aceptar que la radiación electromagnética fuera intrínsecamente cuantizable. En su lugar, trataron de justificar el comportamiento del fotón cuantizando la materia, como en el modelo de Bohr del átomo de hidrógeno (mostrado aquí). Aunque todos los modelos semiclásicos del átomo han quedado descartados por la experimentación, permitieron la evolución hacia la mecánica cuántica.

    Las predicciones de Einstein de 1905 fueron verificadas experimentalmente de varias formas dentro de las dos primeras décadas del siglo XX, como reseñó Robert Millikan en su conferencia por la obtención del Premio Nobel.[24] Sin embargo, antes de que los experimentos de Compton[22] mostraran que los fotones poseían un momento lineal proporcional a su frecuencia (1922), la mayoría de los físicos eran reacios a creer que la radiación electromagnética pudiera estar formada por partículas. (véanse por ejemplo las conferencias por la obtención del Nobel de Wien,[19] Planck[21] y Millikan.[24] ). Estas reticencias eran comprensibles dado el éxito y verosimilitud del modelo ondulatorio de Maxwell. Por ello, la mayoría de los físicos sostenían, en su lugar, que la cuantización de la energía era consecuencia de alguna restricción desconocida sobre la materia que absorbía o emitía radiación. Niels Bohr, Arnold Sommerfeld y otros, desarrollaron modelos atómicos con niveles discretos de energía que pudieran explicar cualitativamente las finas líneas espectrales y la cuantización de la energía observada en la emisión y absorción de la luz por parte de los átomos. Estos modelos coincidían muy bien con el espectro del hidrógeno, pero no con el de otros elementos. Únicamente el experimento de Compton sobre la dispersión de fotones por un electrón libre (el cual no podía tener niveles de energía, al no tener una estructura interna) fue capaz de convencer a la mayoría de los investigadores sobre el hecho de que la propia luz estuviera cuantizada.

    Incluso después del experimento de Compton, Bohr, Hendrik Kramers y John Slater hicieron un último intento por preservar el modelo de campo electromagnético continuo de Maxwell, que se conoció como el modelo BKS[25] Para justificar los datos disponibles, había que efectuar dos hipótesis drásticas:

    • Energía y momento lineal se conservan sólo en promedio en las interacciones entre materia y radiación, no en los procesos elementales como la absorción y la emisión. Esto permite reconciliar los cambios discontínuos de la energía del átomo (salto entre niveles de energía) con la emisión continua de energía en forma de radiación.
    • La causalidad se abandona. Por ejemplo las emisiones espontáneas son simplemente emisiones inducidas por un campo electromagnético virtual.

    Sin embargo, experimentos de Compton refinados mostraron que el par energía-momento lineal se conservaba extraordinariamente bien en los procesos elementales, y también que la excitación del electrón y la generación de un nuevo fotón en la dispersión de Compton obedecían a una causalidad del orden de 10 ps. Como consecuencia, Bohr y sus colegas dieron a su modelo «un funeral tan honorable como fue posible».[23] En cualquier caso, el modelo BKS inspiró a Werner Heisenberg en su desarrollo[26] de la mecánica cuántica.

    Unos cuantos físicos persistieron[27] en el desarrollo de modelos semiclásicos, en los cuales la radiación electromagnética no estaba cuantizada, aunque la materia obedecía las leyes de la mecánica cuántica. Aunque la evidencia de los fotones, a partir de los experimentos físicos y químicos, era aplastante hacia 1970, esta evidencia no podía considerarse absolutamente definitiva; puesto que recaía en la interacción de la luz con la materia, una teoría de la materia suficientemente complicada podía explicar la evidencia. Sin embargo, todas las teorías semiclásicas fueron refutadas definitivamente en los años 70 y 80 del siglo XX por elegantes experimentos de correlación de fotones.[28] [29] [30] Con ellos, se consideró probada la hipótesis de Einstein que indicaba que la cuantización era una propiedad intrínseca de la luz.

    [editar] Dualidad onda-corpúsculo y principio de incertidumbre

    Los fotones, como todos los objetos cuánticos, presentan tanto propiedades ondulatorias como corpusculares. Su naturaleza dual onda-partícula puede ser difícil de visualizar. El fotón muestra sus propiedades ondulatorias en fenómenos como la difracción y las interferencias. Por ejemplo, en un experimento de la doble rejilla, un fotón individual pasando a través de éstas incidiría en la pantalla con una distribución de probabilidad dada por sus patrones de interferencia determinados por las ecuaciones de Maxwell.[31] Sin embargo, los experimentos confirman que el fotón no es un corto pulso de radiación electromagnética; no se dispersa al propagarse, ni se divide al encontrarse con un divisor de haz. En vez de esto, el fotón se comporta como una partícula puntual, puesto que es absorbido o emitido en su conjunto por sistemas arbitrariamente pequeños, sistemas mucho más pequeños que sus longitudes de onda, tales como un núcleo atómico (≈10–15 m de diámetro) o incluso un electrón. Sin embargo, el fotón no es una partícula puntual cuya trayectoria sea determinada probabilísticamente por el campo electromagnético, según fue concebido por Einstein y otros; esa hipótesis fue también refutada por los experimentos de correlación de fotones ya mencionados anteriormente. De acuerdo con los conocimientos actuales, los propios campos electromagnéticos son producidos por fotones, los cuales a su vez resultan de una simetría de gauge local y las leyes de la teoría cuántica de campos.

    Experimento mental de Heisenberg para localizar un electrón (representado en azul) con un microscopio de rayos gamma de alta resolución. El rayo gamma incidente (mostrado en verde) es desviado hacia arriba por el electrón dentro de la apertura angular θ del microscopio. El rayo gamma desviado se muestra en rojo. La óptica clásica demuestra que la posición del electrón sólo puede determinarse con una incertidumbre Δx que depende de θ y de la longitud de onda λ del rayo de luz incidente.

    Un elemento clave de la mecánica cuántica es el principio de incertidumbre de Heisenberg, que prohíbe el conocimiento simultáneo de la posición y el momento lineal de una partícula. Hay que destacar que el principio de incertidumbre para partículas materiales cargadas, requiere la cuantización de la luz en fotones, e incluso que la energía y el momento lineal de los fotones dependan de la frecuencia.

    Una ilustración elegante es el experimento mental de Heisenberg para localizar un electrón con un microscopio ideal.[32] La posición del electrón puede determinarse dentro de la resolución óptica del microscopio, que viene dada por la fórmula de óptica clásica

    Delta x sim frac{lambda}{text{sen}, theta}

    donde θ es la apertura angular del microscopio. Por tanto, la incertidumbre en la posición Δx puede hacerse arbitrariamente pequeña reduciendo la longitud de onda. El momento lineal del electrón es incierto, Δp, puesto que sufrió un “choque” con la luz que resultó desviada al interior del microscopio. Si la luz no estuviera cuantizada en fotones, la incertidumbre Δp podría hacerse arbitrariamente pequeña mediante la reducción de la intensidad de la luz. En ese caso, puesto que la longitud de onda y la intensidad de la luz pueden variarse de forma independiente, uno podría determinar de forma simultánea la posición y el momento lineal con una precisión arbitrariamente alta, violando el principio de incertidumbre. Como contraste, la fórmula de Einstein para el momento lineal del fotón preserva el principio de incertidumbre; puesto que el fotón es desviado a cualquier sitio dentro de la abertura, la incertidumbre del momento lineal transferido es

    Delta p sim p_{text{foton}} , text{sen},theta = frac{h}{lambda} text{sen},theta

    obteniéndose el producto Delta x Delta p , sim , h, que es el principio de incertidumbre de Heisenberg. De esta forma, todo resulta cuantizado; tanto la materia como los campos tienen que obedecer un conjunto consistente de leyes cuánticas, si alguno de ellos va a ser cuantizado.

    El principio de incertidumbre correspondiente para los fotones prohíbe la determinación simultánea del número n ! de fotones (véase estado de Fock y la sección Segunda cuantización más abajo) en una onda electromagnética y la fase phi ! de esa onda

    Delta n cdot Delta phi > 1 !

    Tanto los fotones como las partículas materiales (p. ej.: los electrones) crean patrones de interferencia análogos cuando pasan por una doble rendija. Para los fotones, esto corresponde a la interferencia de una onda electromagnética de Maxwell mientras que, para partículas materiales, corresponde a la interferencia de la ecuación de ondas de Schrödinger. Aunque esta similitud podría sugerir que las ecuaciones de Maxwell son simplemente la ecuación de Schrödinger para los fotones, la mayoría de los físicos no están de acuerdo con esto.[33] [34] Por un lado, son matemáticamente diferentes; lo más obvio es que la ecuación de Schrödinger se resuelve para un campo complejo, mientras que las cuatro ecuaciones de Maxwell se resuelven para campos reales. Con mayor generalidad, el concepto habitual de una función de onda de probabilidad de Schrödinger no puede aplicarse a los fotones.[35] Al no tener masa, no pueden localizarse sin ser destruidos; técnicamente, los fotones no pueden tener un eigenestado de posición |mathbf{r} rangle, y, por tanto, el principio de incertidumbre habitual de Heisenberg ΔxΔp > h / 2 no es aplicable a los fotones. Se han sugerido algunas funciones de onda sustitutorias para el fotón,[36] [37] [38] [39] pero no han llegado a usarse de forma generalizada. En su lugar, los físicos aceptan generalmente la teoría de la segunda cuantización de los fotones que se describirá más abajo, en la cual los fotones son excitaciones cuantizadas de modos electromagnéticos.

    [editar] Modelo de Bose-Einstein de un gas de fotones

    En 1924, Satyendra Nath Bose derivó la ley de Planck de la radiación del cuerpo negro sin utilizar el electromagnetismo, mediante una especie de recuento en el espacio de fase.[40] Einstein demostró que esta modificación era equivalente a asumir que los fotones son rigurosamente idénticos y que ello implicaba una "misteriosa interacción no local",[41] [42] ahora entendida como la exigencia de un estado simétrico mecánico cuántico. Este trabajo dio lugar al concepto de los estados coherentes y al desarrollo del láser. En los mismos artículos, Einstein amplió el formalismo de Bose a partículas no materiales (bosones), y predijo que a temperaturas lo suficientemente bajas se condensarían en su estado cuántico fundamental; este condensado de Bose-Einstein se observó experimentalmente en 1995.[43]

    Los fotones deben obedecer la estadística de Bose-Einstein si van a permitir el principio de superposición de los campos electromagnéticos, la condición es que las ecuaciones de Maxwell sean lineales. Todas las partículas se dividen en fermiones y bosones, en función de si su espín es semi-entero o entero respectivamente. El teorema de la estadística del espín pone de manifiesto que todos los bosones deben obedecer la estadística de Bose-Einstein, mientras que todos los fermiones obedecen la estadística de Fermi-Dirac o, de forma equivalente, el principio de exclusión de Pauli, que establece que, como máximo, una única partícula puede ocupar un estado cuántico. Así, si el fotón fuera un fermión, en un instante de tiempo sólo un fotón podría moverse en una dirección determinada. Esto es incompatible con la observación experimental de que los láseres pueden producir luz coherente de intensidad arbitraria, es decir, con muchos fotones desplazándose en la misma dirección. Por lo tanto, el fotón debe ser un bosón y obedecer la estadística de Bose-Einstein.

    [editar] Emisión estimulada y espontánea

    Emisión estimulada (en la cual los fotones se "clonan" a si mismos) fue predicho por Einstein en su derivación de E=hν, y condujo al desarrollo del láser.

    En 1916, Einstein demostró que la hipótesis cuántica de Planck E = hν podría derivarse de un tipo de ecuación cinética.[5] Considere una cavidad en equilibrio térmico y llena de radiación electromagnética y de sistemas que pueden emitir y absorber la radiación. El equilibrio térmico requiere que la densidad ρ(ν) de fotones con frecuencia ν sea constante en el tiempo, por lo cual, la tasa de emisión de fotones a una determinada frecuencia debe ser igual a la tasa de absorción de ellos.

    Einstein teorizó que el ritmo de absorción de un fotón de frecuencia ν y transicionar de un estado de energía más bajo Ej a otro más alto Ei era proporcional al número Nj de moléculas con energía Ej y a la densidad ρ(ν) de fotones en el ambiente con tal frecuencia.

    R_{ji} = N_{j} B_{ji} rho(nu) !

    donde Bji es la constante para el ritmo de absorción Rji de los niveles energéticos Ej a Ei.

    De manera más atrevida, Einstein teorizó que el ritmo inverso Rij para que el sistema emitiera un fotón de frecuencia ν y transicionara desde Ei a Ej se componía de dos términos:

    R_{ij} = N_{i} A_{ij} + N_{i} B_{ij} rho(nu) !

    donde Aij es el ritmo de emisión espontánea de un fotón y Bij es la constante para el ritmo de emisión en respuesta a los fotones presentes en el ambiente (emisión inducida o estimulada). Einstein demostró que la fórmula de Planck E = hν es una consecuencia necesaria de estas dos ecuaciones teóricas y de los requerimientos básicos de que la radiación ambiente esté en equilibrio térmico con los sistemas que absorben y emiten la radiación y que sea independiente de la composición del material del sistema.

    Este sencillo modelo cinético fue un estímulo poderoso para la investigación. Einstein pudo mostrar que Bij = Bji, esto es ambas constantes para los ritmos de absorción y emisión inducida eran iguales, y más sorprendente aún:

    A_{ij} = frac{8 pi h nu^{3}}{c^{3}} B_{ij}.

    Einstein no trató de justificar sus dos ecuaciones pero hizo notar que Aij y Bij deberían poder derivarse de la mecánica y la electrodinámica modificadas para acomodadar la hipótesis cuántica. Esta predicción fue confirmada en la mecánica cuántica y en la electrodinámica cuántica, respectivamente, y ambas son necesarias para obtener las constantes de velocidad de Einstein a partir de primeros principios. Paul Dirac derivó las constantes de velocidad Bij en 1926 utilizando un enfoque semiclásico,[44] y, en 1927, logró derivar todas las constantes de velocidad a partir de primeros principios.[45] [46]

    El trabajo de Dirac representó el fundamento de la electrodinámica cuántica, es decir, la cuantización del mismo campo electromagnético. El enfoque de Dirac también se le llama segunda cuantización o teoría cuántica de campos,[47] [48] [49] la anterior mecánica cuántica (la cuantificación de las partículas materiales moviéndose en un potencial) representa la "primera cuantización".

    Véanse también: Emisión estimulada y Láser

    [editar] Segunda cuantización

    Artículo principal: Teoría cuántica de campos
    Diferentes modos electromagnéticos (como los descritos aquí) pueden tratarse como osciladores armónicos simples independientes. Un fotón corresponde a una unidad de energía E = hν en su modo electromagnético.

    En 1910, Peter Debye dedujo la ley de Planck de radiación de un cuerpo negro a partir de una suposición relativamente simple.[50] Descompuso correctamente el campo electromagnético en una cavidad, en sus modos de Fourier, y asumió que la energía en cualquier modo era un múltiplo entero de hν, donde ν es la frecuencia del modo electromagnético. La ley de Planck de la radiación del cuerpo negro se obtiene inmediatamente como una suma geométrica. Sin embargo, la aproximación de Debye falló a la hora de dar la fórmula correcta para las fluctuaciones de energía de la radiación del cuerpo negro, que fue obtenida por Einstein en 1909.[4]

    En 1925, Born, Heisenberg y Jordan reinterpretaron el concepto de Debye en una forma clave.[51] Como puede demostrarse clásicamente, los modos de Fourier del campo electromagnético —un conjunto completo de ondas electromagnéticas planas caracterizadas por sus vectores de onda k y sus estados de polarización— son equivalentes a un conjunto de osciladores armónicos simples desacoplados. Tratado de un modo mecano-cuántico, se demuestra que los niveles de energía de dichos osciladores son E = nhν, donde ν es la frecuencia del oscilador. El paso clave fue identificar un modo electromagnético con energía E = nhν, como un estado con n fotones, cada uno de ellos con energía hν. Esta aproximación sí da la fórmula para la correcta fluctuación de energía.

    En la teoría de campos cuántica, la probabilidad de los eventos se calcula mediante la suma de todas las posibles formas en las que pueden suceder, como en el diagrama de Feynman mostrado aquí.

    Dirac dio un paso más.[45] [46] Él trató la interacción entre una carga y un campo electromagnético como una pequeña perturbación que induce transiciones en los estados de los fotones, cambiando el número de fotones de los modos, mientras se conservan la energía y el momento lineal total. Dirac pudo obtener los coeficientes Aij y Bij de Einstein a partir de los principios fundamentales, y demostró que la estadística de Bose-Einstein de los fotones es consecuencia natural de cuantizar correctamente los campos electromagnéticos (el razonamiento de Bose fue en el sentido opuesto; él dedujo la ley de Planck de la radiación del cuerpo negro a partir de la estadística de BE). En la época de Dirac, no era aún conocido que todos los bosones, incluidos los fotones, tienen que obedecer la estadística de BE.

    La teoría de perturbaciones de segundo orden de Dirac puede involucrar a fotones virtuales, estados intermedios transitorios del campo electromagnético; dichos fotones virtuales actúan como mediadores en la electricidad estática y las interacciones magnéticas. En la teoría cuántica de campos, la amplitud de probabilidad de eventos observables se calcula mediante la suma de todos los posibles pasos intermedios, incluso aquellos que son no-fisicos; por tanto, los fotones virtuales no se limitan a satisfacer E = pc, y pueden tener estados de polarización extra; dependiendo del gauge utilizado, los fotones virtuales pueden tener tres o cuatro estados de polarización, en lugar de los dos estados de los fotones reales. Aunque estos fotones virtuales transitorios nunca pueden ser observados, contribuyen de forma apreciable a las probabilidades de eventos observables. De hecho, dichos cálculos de perturbaciones de segundo orden y órdenes superiores pueden proporcionar aparentemente infinitas contribuciones a la suma. Los resultados no-físicos se corrigen mediante técnicas de renormalización. Otras partículas virtuales pueden contribuir también a la suma; por ejemplo, dos fotones pueden interaccionar de forma indirecta por medio de pares electrón-positrón virtuales.

    En notación de física moderna, el estado cuántico del campo electromagnético se escribe como un estado de Fock, un producto tensorial de los estados para cada modo electromagnético

    |n_{k_0}rangleotimes|n_{k_1}rangleotimesdotsotimes|n_{k_n}rangledots

    donde |n_{k_i}rangle representa el estado en el cual , n_{k_i} fotones están en el modo ki. En esta notación, la creación de un nuevo fotón en modo ki (p. ej., el emitido desde una transición atómica) se escribe como |n_{k_i}rangle rightarrow |n_{k_i}+1rangle. Esta notación simplemente expresa el concepto de Born, Heisenberg y Jordan descrito arriba, y no añade nada de física.

    [editar] El fotón como un bosón gauge

    Artículo principal: Teoría gauge

    El campo electromagnético se puede entender por medio de una teoría gauge como un campo resultado de exigir que unas simetrías sean independientes para cada posición en el espacio-tiempo.[52] Para el campo electromagnético, esta simetría es la simetría Abeliana U(1) de los números complejos, que refleja la capacidad de variar la fase de un número complejo sin afectar números reales construidos del mismo, tales como la energía o el lagrangiano.

    El cuanto en el campo gauge abeliano debe ser tipo bosón sin carga ni masa, mientras no se rompa la simetría; por ello se predice que el fotón no tiene masa, y tener cero carga eléctrica y spin entero. La forma particular de la interacción electromagnética especifica que el fotón debe tener spin ± 1, por lo que su helicidad debe ser pm hbar. Estos dos componentes del spin corresponden a los conceptos clásicos de luz polarizada circularmente a la derecha y a la izquierda.

    En el Modelo estándar de física de partículas, el fotón es una de los cuatro bosones gauge en la interacción electrodébil, siendo los otros tres los bosones W+, W y Z0 que son responsables de la interacción débil. A diferencia de los fotones, estos bosones tienen una masa invariante debido a un mecanismo que rompe su simetría gauge SU(2) particular. La unificación de los fotones con los mencionados bosones en la interacción electrodébil fue realizada por Sheldon Glashow, Abdus Salam y Steven Weinberg, por el que fueron galardonados con el Premio Nobel de física 1979.[53] [54] [55]

    Los físicos continúan buscando hipótesis sobre grandes teorías de unificación que conecten estos cuatro bosones gauge con los ocho bosones gauge gluones de la cromodinámica cuántica. Sin embargo, varias predicciones importantes de estas teorías, tales como la desintegración de protones, no se han observado experimentalmente.

    [editar] Estructura del fotón

    Artículo principal: Cromodinámica cuántica

    De acuerdo con la cromodinámica cuántica, un fotón real puede interactuar como una partícula puntual, o como una colección de quarks y gluones, esto es, como un hadrón. La estrucutra de los fotones no se determina por las tradicionales distribuciones de quarks de valencia como en un protón, sino por fluctuaciones del fotón puntual en una colección de partones.[56]

    [editar] Contribución a la masa de un sistema

    La energía de un sistema que emite un fotón se reduce en una cantidad igual a la energía E del fotón medida en el sistema de referencia en reposo del sistema emisor, lo cual resulta en una reducción de la masa por un valor E / c2. Del mismo modo, la masa de un sistema que absorbe un fotón se incrementa por la misma cantidad correspondiente.

    Este concepto se aplica en un factor clave predicho por la QED, la teoría de la electrodinámica cuántica iniciada por Dirac (descrita anteriormente). QED es capaz de predecir el momento dipolar magnético de los leptones con una exactitud muy alta; las mediciones experimentales de los momentos de los dipolos magnéticos están perfectamente de acuerdo con estas predicciones. Las predicciones, sin embargo, requieren contar las contribuciones de fotones virtuales a la masa del leptón. Otro ejemplo de este tipo de contribuciones que están comprobadas experimentalmente es la predicción de la QED del efecto Lamb observado en la estructura hiperfina de pares de leptones ligados, tales como el muonio y el positronio.

    Dado que los fotones contribuyen al tensor de energía-impulso, ejercen una atracción gravitatoria sobre otros objetos, de acuerdo con la teoría general de la relatividad. A su vez, la gravedad afecta los fotones; normalmente sus trayectorias rectas pueden ser dobladas por un espacio-tiempo deformado, como ocurre en las lentes gravitacionales, y sus frecuencias disminuyen al pasar a un potencial gravitatorio más alto, como en el experimento de Pound y Rebka. Sin embargo, estos efectos no son específicos de los fotones; los mismos efectos se predecirían para las ondas electromagnéticas clásicas.

    Véase también: Gravitación

    [editar] Fotones y materia

    Nombre y carga eléctrica de los componentes de la materia.

    La luz que viaja a través de materia transparente, lo hace a una velocidad menor que c, la velocidad de la luz en el vacío. Por ejemplo, los fotones en su viaje desde el centro del Sol sufren tantas colisiones, que la energía radiante tarda aproximadamente un millón de años en llegar a la superficie;[57] sin embargo, una vez en el espacio abierto, un fotón tarda únicamente 8,3 minutos en llegar a la Tierra. El factor por el cual disminuye la velocidad se conoce como índice de refracción del material. Desde la óptica clásica, la reducción de velocidad puede explicarse a partir de la polarización eléctrica que produce la luz en la materia: la materia polarizada radia nueva luz que interfiere con la luz original para formar una onda retardada. Viendo al fotón como una partícula, la disminución de la velocidad puede describirse en su lugar como una combinación del fotón con excitaciones cuánticas de la materia (cuasipartículas como fonones y excitones) para formar un polaritón; este polaritón tiene una masa efectiva distinta de cero, lo que significa que no puede viajar con velocidad c. Las diferentes frecuencias de la luz pueden viajar a través de la materia con distintas velocidades; esto se conoce como dispersión. La velocidad de propagación del polaritón v es igual a su velocidad de grupo, que es la derivada de la energía con respecto al momento lineal.

    v = frac{domega}{dk} = frac{dE}{dp}
    Transformación en el retinal tras la absorción de un fotón γ de longitud de onda correcta.

    donde, E y p son la energía y el módulo del momento lineal del polaritón, y ω y k son su frecuencia angular y número de onda, respectivamente. En algunos casos, la dispersión puede dar lugar a velocidades de la luz extremadamente lentas. Los efectos de las interacciones de los fotones con otras cuasipartículas puede observarse directamente en la dispersión Raman y la dispersión Brillouin.

    Los fotones pueden también ser absorbidos por núcleos, átomos o moléculas, provocando transiciones entre sus niveles de energía. Un ejemplo clásico es la transición molecular del retinal (C20H28O, figura de la derecha), que es responsable de la visión, como descubrieron el premio Nobel George Wald y su colaboradores en 1958. Como se muestra aquí, la absorción provoca una isomerización cis-trans que, en combinación con otras transiciones, dan lugar a impulsos nerviosos. La absorción de fotones puede incluso romper enlaces químicos, como en la fotólisis del cloro; éste es un tema de fotoquímica.

    Véanse también: Velocidad de grupo y Fotoquímica

    [editar] Aplicaciones tecnológicas

    Los fotones tienen muchas aplicaciones en tecnología. Se han elegido ejemplos que ilustran las aplicaciones de los fotones per se, y no otros dispositivos ópticos como lentes, etc. cuyo funcionamiento puede explicarse bajo una teoría clásica de la luz. El láser es una aplicación extremadamente importante.

    Los fotones individuales pueden detectarse por varios métodos. El tubo fotomultiplicador clásico se basa en el efecto fotoeléctrico; un fotón que incide sobre una lámina de metal arranca un electrón, que inicia a su vez una avalancha de electrones. Los circuitos integrados CCD utilizan un efecto similar en semiconductores; un fotón incidente genera una carga detectable en un condensador microscópico. Otros detectores como los contadores Geiger utilizan la capacidad de los fotones para ionizar moléculas de gas, lo que da lugar a un cambio detectable en su conductividad.

    La fórmula de la energía de Planck E = hν es utilizada a menudo por ingenieros y químicos en diseño, tanto para calcular el cambio de energía resultante de la absorción de un fotón, como para predecir la frecuencia de la luz emitida en una transición de energía dada. Por ejemplo, el espectro de emisión de una lámpara fluorescente puede diseñarse utilizando moléculas de gas con diferentes niveles de energía electrónica y ajustando la energía típica con la cual un electrón choca con las moléculas de gas en el interior de la lámpara.

    Bajo algunas condiciones, se puede excitar una transición de energía por medio de dos fotones, no ocurriendo dicha transición con los fotones por separado. Esto permite microscopios con mayores resoluciones, porque la muestra absorbe energía únicamente en la región en la que los dos rayos de colores diferentes se solapan de forma significativa, que puede ser mucho menor que el volumen de excitación de un rayo individual. Además, estos fotones causan un menor daño a la muestra, puesto que son de menor energía.

    En algunos casos, pueden acoplarse dos transiciones de energía de modo que, cuando un sistema absorbe un fotón, otro sistema cercano roba su energía y re-emite un fotón con una frecuencia diferente. Esta es la base de la transferencia de energía por resonancia entre moléculas fluorescentes, que se utiliza para medir distancias moleculares.

    [editar] Investigación reciente

    Actualmente se cree comprender teóricamente la naturaleza fundamental del fotón. El modelo estándar predice que el fotón es un bosón de gauge de spin 1, sin masa ni carga, que media la interacción electromagnética y que resulta de la simetría gauge local U(1). Sin embargo, los físicos continúan buscando discrepancias entre los experimentos y las predicciones del modelo estándar, buscando nuevas posibilidades para la física más allá del modelo estándar. En particular, hay cotas de mayor precisión en los experimentos para los límites superiores para una hipotética carga y masa del fotón. Hasta ahora, todos los datos experimentales son consistentes con el fotón de carga y masa cero[11] [58] Los límites superiores aceptados universalmente en la carga y masa del fotón son 5×10−52 C (o 3×10−33 por la carga elemental) y 1.1×10−52 kg (6×10-17 eV/c2), respectivamente.[59]

    Se ha investigado mucho las posibles aplicaciones de los fotones en óptica cuántica. Los fotones parecen adecuados como elementos de un ordenador cuántico, y el entrelazamiento cuántico de los fotones es un campo de investigación. Otra área de investigación activa son los procesos ópticos no lineales, con tópicos tales como la absorción de dos fotones, auto modulación de fases y los osciladores ópticos parametrizados. Finalmente, los fotones son esenciales en algunos aspectos de la comunicación óptica, especialmente en criptografía cuántica.

    Véase también: Óptica cuántica

    [editar] Véase también

    [editar] Referencias y notas al pie

    1. a b a diferencia de otras partículas como el electrón o el quark. Debido a los resultados de experimentos y a consideraciones teóricas descritas en este artículo, se cree que la masa del fotón es exactamente cero. Algunas fuentes utilizan también el concepto de masa relativista para la energía expresada con unidades de masa. Para un fotón con longitud de onda λ o energía E, su masa relativista es h/λc o E/c2. Este uso del término "masa" no es común actualmente en la literatura científica.
    2. Vimal, R. L. P., Pokorny, J., Smith, V. C., & Shevell, S. K. (1989). Foveal cone thresholds. Vision Res, 29(1), 61-78.http://www.geocities.com/vri98/Vimal-foveal-cone-ratio-VR-1989 (en inglés)
    3. a b c d e Einstein, A (1905). «Über einen die Erzeugung und Verwandlung des Lichtes betreffenden heuristischen Gesichtspunkt (trad. Modelo heurístico de la creación y transformación de la luz)». Annalen der Physik 17:  pp. 132–148 (en alemán).  Una traducción inglesa del trabajo de Einstein se encuentra disponible en Wikisource.
    4. a b c d Einstein, A (1909). «Über die Entwicklung unserer Anschauungen über das Wesen und die Konstitution der Strahlung (trad. Evolución de nuestro concepto sobre la composición y esencia de la radiación)». Physikalische Zeitschrift 10:  pp. 817–825 (en alemán).  Una traducción inglesa se encuentra disponible en Wikisource.
    5. a b Einstein, A (1916a). «Strahlungs-emission und -absorption nach der Quantentheorie». Verhandlungen der Deutschen Physikalischen Gesellschaft 18:  pp. 318 (en alemán). 
    6. a b Einstein, A (1916b). «Zur Quantentheorie der Strahlung». Mitteilungen der Physikalischen Geselschaft zu Zürich 16:  pp. 47.  También Physikalische Zeitschrift, 18, 121–128 (1917) (en alemán).
    7. Lewis, GN (1926). «The conservation of photons». Nature 118:  pp. 874–875. (en inglés)
    8. Villard, P (1900). «Sur la réflexion et la réfraction des rayons cathodiques et des rayons déviables du radium». Comptes Rendus 130:  pp. 1010–1012. (en francés)
    9. Villard, P (1900). «Sur le rayonnement du radium». Comptes Rendus 130:  pp. 1178–1179. (en francés)
    10. Rutherford, E; Andrade ENC (1914). «The Wavelength of the Soft Gamma Rays from Radium B». Philosophical Magazine 27:  pp. 854–868. (en inglés)
    11. a b Kobychev, V V; Popov, S B (2005). «Constraints on the photon charge from observations of extragalactic sources». Astronomy Letters 31:  pp. 147–151. doi:10.1134/1.1883345.  (en inglés)
    12. Descartes, R (1637). Discours de la méthode (Discurso sobre método). (en francés)
    13. Hooke, R (1665). ' "Micrographia: or some physiological descriptions of minute bodies made by magnifying glasses with observations and inquiries thereupon.... http://digital.library.wisc.edu/1711.dl/HistSciTech.HookeMicro '. (en inglés)
    14. Huygens, C (1678). Traite de la lumiere (trans. Treatise on Light).  (en francés)
    15. Newton, I (1730). Opticks (4th edition edición). Dover Publications. pp. Book II, Part III, Propositions XII–XX; Queries 25–29. ISBN 0-486-60205-2.  (en inglés)
    16. Buchwald, Jed Z. (1989). The Rise of the Wave Theory of Light: Optical Theory and Experiment in the Early Nineteenth Century. University of Chicago Press. ISBN 0-226-07886-8.  (en inglés)
    17. Maxwell, JC (1865). «A Dynamical Theory of the Electromagnetic Field». Philosophical Transactions of the Royal Society of London 155:  pp. 459–512.  Este artículo siguió a una presentacion de Maxwell en la Royal Society el 8 de diciembre de 1864.
    18. Hertz, H (1888). «Über Strahlen elektrischer Kraft». Sitzungsberichte der Preussischen Akademie der Wissenschaften (Berlin) 1888:  pp. 1297–1307.  (en alemán)
    19. a b «Wilhelm Wien Nobel Lecture». Pronunciado el 11 de diciembre de 1911.(en inglés)
    20. Planck, M (1901). «Über das Gesetz der Energieverteilung im Normalspectrum». Annalen der Physik 4:  pp. 553–563.  (en alemán)
    21. a b «Max Planck's Nobel Lecture». (en alemán) Publicada 2 de junio 1920.
    22. a b Compton, A (1923). «A Quantum Theory of the Scattering of X-rays by Light Elements». Physical Review 21:  pp. 483–502. (en inglés)
    23. a b Pais, A (1982). Subtle is the Lord: The Science and the Life of Albert Einstein. Oxford University Press. (en inglés)
    24. a b «Robert A. Millikan's Nobel Lecture». (en inglés) publicada el 23 de mayo de 1924.
    25. Bohr, N; Kramers HA and Slater JC (1924). «The Quantum Theory of Radiation». Philosophical Magazine 47:  pp. 785–802.  También Zeitschrift für Physik, 24, 69 (1924).
    26. Heisenberg Nobel lecture, publicado 11 de diciembre 1933.
    27. Mandel, L (1976). E. Wolf, ed.. ed. «The case for and against semiclassical radiation theory». Progress in Optics (North-Holland) XIII:  pp. 27–69. 
    28. Clauser, JF. (1974). Experimental distinction between the quantum and classical field-theoretic predictions for the photoelectric effect. Phys. Rev. D 9: 853–860.
    29. Kimble, HJ; Dagenais M, and Mandel L. (1977). Photon Anti-bunching in Resonance Fluorescence. Phys. Rev. Lett. 39: 691–695.
    30. Grangier, P; Roger G, and Aspect A. (1986). Experimental Evidence for a Photon Anticorrelation Effect on a Beam Splitter: A New Light on Single-Photon Interferences. Europhysics Letters 1: 501–504.
    31. Taylor, GI (1909). «Interference fringes with feeble light». Proceedings of the Cambridge Philosophical Society 15:  pp. 114–115. 
    32. Heisenberg, W (1927). «Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik». Zeitschrift für Physik 43:  pp. 172–198.  (en alemán)
    33. Kramers, HA (1958). Quantum Mechanics. Amsterdam: North-Holland. 
    34. Bohm, D (1954). Quantum Theory. London: Constable. 
    35. Newton, TD; Wigner EP (1949). «Localized states for elementary particles». Reviews of Modern Physics 21:  pp. 400–406. 
    36. Bialynicki-Birula, I (1994). «On the wave function of the photon». Acta Physica Polonica A 86:  pp. 97–116. 
    37. Sipe, JE (1995). «Photon wave functions». Physical Review A 52:  pp. 1875–1883. 
    38. Bialynicki-Birula, I (1996). «Photon wave function». Progress in Optics 36:  pp. 245–294. 
    39. Scully, MO; Zubairy MS (1997). Quantum Optics. Cambridge: Cambridge University Press. 
    40. Bose, SN (1924). «Plancks Gesetz und Lichtquantenhypothese». Zeitschrift für Physik 26:  pp. 178–181.  (en alemán)
    41. Einstein, A (1924). «Quantentheorie des einatomigen idealen Gases». Sitzungsberichte der Preussischen Akademie der Wissenschaften (Berlin), Physikalisch-mathematische Klasse 1924:  pp. 261–267.  (en alemán)
    42. Einstein, A (1925). «Quantentheorie des einatomigen idealen Gases, Zweite Abhandlung». Sitzungsberichte der Preussischen Akademie der Wissenschaften (Berlin), Physikalisch-mathematische Klasse 1925:  pp. 3–14.  (en alemán)
    43. Anderson, MH; Ensher JR, Matthews MR, Wieman CE, and Cornell EA (1995). «Observation of Bose–Einstein Condensation in a Dilute Atomic Vapor». Science 269:  pp. 198–201. http://links.jstor.org/sici?sici=0036-8075%2819950714%293%3A269%3A5221%3C198%3AOOBCIA%3E2.0.CO%3B2-G. 
    44. Dirac, PAM (1926). «On the Theory of Quantum Mechanics». Proc. Roy. Soc. A 112:  pp. 661–677.  (en inglés)
    45. a b Dirac, PAM (1927a). «The Quantum Theory of the Emission and Absorption of Radiation». Proc. Roy. Soc. A 114:  pp. 243–265. 
    46. a b Dirac, PAM (1927b). «The Quantum Theory of Dispersion». Proc. Roy. Soc. A 114:  pp. 710–728.  (en inglés)
    47. Heisenberg, W; Pauli W (1929). «Zur Quantentheorie der Wellenfelder». Zeitschrift für Physik 56:  pp. 1.  (en alemán)
    48. Heisenberg, W; Pauli W (1930). «Zur Quantentheorie der Wellenfelder». Zeitschrift für Physik 59:  pp. 139.  (en alemán)
    49. Fermi, E (1932). «Quantum Theory of Radiation». Reviews of Modern Physics 4:  pp. 87. 
    50. Debye, P (1910). «Der Wahrscheinlichkeitsbegriff in der Theorie der Strahlung». Annalen der Physik 33:  pp. 1427–34.  Plantilla:En alemán
    51. Born, M; Heisenberg W and Jordan P (1925). «Quantenmechanik II». Zeitschrift für Physik 35:  pp. 557–615.  Plantilla:En alemán
    52. Ryder, LH (1996). Quantum field theory (2nd edition edición). Cambridge University Press. ISBN 0-521-47814-6. 
    53. Dicurso de Sheldon Glashow, dado el 8 Diciembre 1979.
    54. Dicurso de Abdus Salam, dado el 8 Diciembre 1979.
    55. Dicurso de Steven Weinberg, dado el 8 Diciembre 1979.
    56. QCD and Two-Photon Physics, in Linear Collider Physics Resource Book for Snowmass 2001, Chapter 7, LC-REV-2001-074-US.(en inglés)
    57. Robert Naeye (1998). (en inglés) Through the Eyes of Hubble: Birth, Life and Violent Death of Stars. CRC Press. ISBN 0750304847. http://books.google.com/books?id=06_9B7S_q_YC&pg=PA16&dq=million-year+surface+sun+photon&as_brr=3&ei=gYsyR6iELpLgtgOkttmvAQ&sig=70D3g1ajnoVyvnoY1qBAIV0yIf4 (en inglés). 
    58. (a) Goldhaber, AS (1971). «Terrestrial and Extraterrestrial Limits on The Photon Mass». Reviews of Modern Physics 43:  pp. 277–96.. 
      (b) Fischbach, E; Kloor H, Langel RA, Lui ATY, and Peredo M (1994). «New Geomagnetic Limits on the Photon Mass and on Long-Range Forces Coexisting with Electromagnetism». Physical Review Letters 73:  pp. 514–17.. 
      (c) Official particle table for gauge and Higgs bosons S. Eidelman et al. (Particle Data Group) Physics Letters B 592, 1 (2004)
      (d) Davis, L; Goldhaber AS and Nieto MM (1975). «Limit on Photon Mass Deduced from Pioneer-10 Observations of Jupiter's Magnetic Field». Physical Review Letters 35:  pp. 1402–1405.. 
      (e) Luo, J; Shao CG, Liu ZZ, and Hu ZK (1999). «Determination of the limit of photon mass and cosmic magnetic vector with rotating torsion balance». Physical Review A 270:  pp. 288–292.. 
      (f) Schaeffer, BE (1999). «Severe limits on variations of the speed of light with frequency». Physical Review Letters 82:  pp. 4964–4966.. 
      (g) Luo, J; Tu LC, Hu ZK, and Luan EJ (2003). «New experimental limit on the photon rest mass with a rotating torsion balance». Physical Review Letters 90:  pp. Art. No. 081801. 
      (h) Williams, ER; Faller JE and Hill HA (1971). «New Experimental Test of Coulomb's Law: A Laboratory Upper Limit on the Photon Rest Mass». Physical Review Letters 26:  pp. 721–724. 
      (i) Lakes, R (1998). «Experimental Limits on the Photon Mass and Cosmic Magnetic Vector Potential». Physical Review Letters 80:  pp. 1826. 
      (j) 2006 PDG listing for photon W.-M. Yao et al. (Particle Data Group) Journal of Physics G 33, 1 (2006).
      (k) Adelberger, E; Dvali, G and Gruzinov, A. «Photon Mass Bound Destroyed by Vortices». Physical Review Letters 98:  pp. Art. No. 010402. 
    59. Tabla oficial de partículas para bosones gauge y de Higgs

    [editar] Enlaces externos

    Obtenido de "http://es.wikipedia.org/wiki/Fot%C3%B3n"

    CIENCIA6: MASA. La masa, en física, es la medida de la inercia, que únicamente para algunos casos puede entenderse como la magnitud que cuantifica la cantidad de materia de un cuerpo. La unidad de masa, en el Sistema Internacional de Unidades es el kilogramo (kg). Es una cantidad escalar y no debe confundirse con el peso, que es una cantidad vectorial que representa una fuerza.

    Masa

    De Wikipedia, la enciclopedia libre
    Patrón de un kilogramo masa.
    Para otros usos de este término, véase Masa (desambiguación).

    La masa, en física, es la medida de la inercia, que únicamente para algunos casos puede entenderse como la magnitud que cuantifica la cantidad de materia de un cuerpo. La unidad de masa, en el Sistema Internacional de Unidades es el kilogramo (kg). Es una cantidad escalar y no debe confundirse con el peso, que es una cantidad vectorial que representa una fuerza.

    Contenido

    [ocultar]

    [editar] Historia

    El concepto de masa surge de la confluencia de dos leyes: la ley Gravitación Universal de Newton y la 2ª Ley de Newton (o 2º "Principio"). Según la ley de la Gravitación de Newton, la atracción entre dos cuerpos es proporcional al producto de dos constantes, denominadas masa gravitacional —una de cada uno de ellos—, siendo así la masa gravitatoria una propiedad de la materia en virtud de la cual dos cuerpos se atraen; por la 2ª ley (o principio) de Newton, la fuerza aplicada sobre un cuerpo es directamente proporcional a la aceleración que experimenta, denominándose a la constante de proporcionalidad: masa inercial del cuerpo.

    Para Einstein la gravedad no es una propiedad de la materia, sino una propiedad del espacio-tiempo.[cita requerida]

    No es obvio que la masa inercial y la masa gravitatoria coincidan. Sin embargo todos los experimentos muestran que sí. Para la física clásica esta identidad era accidental. Ya Newton, para quien peso e inercia eran propiedades independientes de la materia, propuso que ambas cualidades son proporcionales a la cantidad de materia, a la cual denominó "masa". Sin embargo, para Einstein, la coincidencia de masa inercial y masa gravitacional fue un dato crucial y uno de los puntos de partida para su teoría de la Relatividad y, por tanto, para poder comprender mejor el comportamiento de la naturaleza. Según Einstein, esa identidad significa que: «la misma cualidad de un cuerpo se manifiesta, de acuerdo con las circunstancias, como inercia o como peso.»

    Esto llevó a Einstein a enunciar el Principio de equivalencia: «las leyes de la naturaleza deben expresarse de modo que sea imposible distinguir entre un campo gravitatorio uniforme y un sistema referencial acelerado.» Así pues, «masa inercial» y «masa gravitatoria» son indistinguibles y, consecuentemente, cabe un único concepto de «masa» como sinónimo de «cantidad de materia», según formuló Newton.

    En palabras de D. M. McMaster: «la masa es la expresión de la cantidad de materia de un cuerpo, revelada por su peso, o por la cantidad de fuerza necesaria para producir en un cuerpo cierta cantidad de movimiento en un tiempo dado[1]

    En la física clásica, la masa es una constante de un cuerpo. En física relativista, la masa es función de la velocidad que el cuerpo posee respecto al observador. Además, la física relativista demostró la relación de la masa con la energía, quedando probada en las reacciones nucleares; por ejemplo, en la explosión de una bomba atómica queda patente que la masa es una magnitud que trasciende a la masa inercial y a la masa gravitacional.

    Es un concepto central en física, química, astronomía y otras disciplinas afines.

    [editar] Masa inercial

    Artículo principal: Masa inercial

    La masa inercial para la física clásica viene determinada por la Segunda y Tercera Ley de Newton. Dados dos cuerpos, A y B, con masas inerciales mA (conocida) y mB (que se desea determinar), en la hipótesis dice que las masas son constantes y que ambos cuerpos están aislados de otras influencias físicas, de forma que la única fuerza presente sobre A es la que ejerce B, denominada FAB, y la única fuerza presente sobre B es la que ejerce A, denominada FBA, de acuerdo con la Segunda Ley de Newton:

    F_{AB} = m_A a_A ,!F_{BA} = m_B a_B ,!.

    donde aA y aB son las aceleraciones de A y B, respectivamente. Es necesario que estas aceleraciones no sean nulas, es decir, que las fuerzas entre los dos objetos no sean iguales a cero. Una forma de lograrlo es, por ejemplo, hacer colisionar los dos cuerpos y efectuar las mediciones durante el choque.

    La Tercera Ley de Newton afirma que las dos fuerzas son iguales y opuestas:

    F_{AB} = - F_{BA} ,!.

    Sustituyendo en las ecuaciones anteriores, se obtiene la masa de B como

    m_B = {a_A over a_B} m_A ,!.

    Así, el medir aA y aB permite determinar mB en relación con mA, que era lo buscado. El requisito de que aB sea distinto de cero hace que esta ecuación quede bien definida.

    En el razonamiento anterior se ha supuesto que las masas de A y B son constantes. Se trata de una suposición fundamental, conocida como la conservación de la masa, y se basa en la hipótesis de que la materia no puede ser creada ni destruida, sólo transformada (dividida o recombinada). Sin embargo, a veces es útil considerar la variación de la masa del cuerpo en el tiempo; por ejemplo, la masa de un cohete decrece durante su lanzamiento. Esta aproximación se hace ignorando la materia que entra y sale del sistema. En el caso del cohete, esta materia se corresponde con el combustible que es expulsado; la masa conjunta del cohete y del combustible es constante.

    [editar] Masa gravitacional

    Artículo principal: Masa gravitacional

    Considérense dos cuerpos A y B con masas gravitacionales MA y MB, separados por una distancia |rAB|. La Ley de la Gravitación de Newton dice que la magnitud de la fuerza gravitatoria que cada cuerpo ejerce sobre el otro es

    |F| = {G M_A M_B over |r_{AB}|^2}

    donde G es la constante de gravitación universal. La sentencia anterior se puede reformular de la siguiente manera: dada la aceleración g de una masa de referencia en un campo gravitacional (como el campo gravitatorio de la Tierra), la fuerza de la gravedad en un objeto con masa gravitacional M es de la magnitud

    |F| = Mg ,!.

    Esta es la base según la cual las masas se determinan en las balanzas. En las balanzas de baño, por ejemplo, la fuerza |F| es proporcional al desplazamiento del muelle debajo de la plataforma de pesado (véase Ley de Hooke), y la escala está calibrada para tener en cuenta g de forma que se pueda leer la masa M.

    [editar] Equivalencia de la masa inercial y la masa gravitatoria

    Se demuestra experimentalmente que la masa inercial y la masa gravitacional son iguales —con un grado de precisión muy alto—. Estos experimentos son esencialmente pruebas del fenómeno ya observado por Galileo de que los objetos caen con una aceleración independiente de sus masas (en ausencia de factores externos como el rozamiento).

    Supóngase un objeto con masas inercial y gravitacional m y M, respectivamente. Si la gravedad es la única fuerza que actúa sobre el cuerpo, la combinación de la segunda ley de Newton y la ley de la gravedad proporciona su aceleración como:

    a = {M over m}g

    Por tanto, todos los objetos situados en el mismo campo gravitatorio caen con la misma aceleración si y sólo si la proporción entre masa gravitacional e inercial es igual a una constante. Por definición, se puede tomar esta proporción como 1.

    [editar] Consecuencias de la Relatividad

    En la teoría especial de la relatividad la "masa" se refiere a la masa inercial de un objeto medida en el sistema de referencia en el que está en reposo (conocido como "sistema de reposo"). El método anterior para obtener la masa inercial sigue siendo válido, siempre que la velocidad del objeto sea mucho menor que la velocidad de la luz, de forma que la mecánica clásica siga siendo válida.

    Históricamente, se ha usado el término "masa" para describir a la magnitud E/c², (que se denominaba "masa relativista") y a m, que se denominaba "masa en reposo". Los físicos no recomiendan seguir esta terminología, porque no es necesario tener dos términos para la energía de una partícula y porque crea confusión cuando se habla de partículas "sin masa". En este artículo, siempre se hace referencia a la "masa en reposo". Para más información, véase el 'Usenet Relativity FAQ' en la sección de Enlaces externos.

    En la mecánica relativista, la masa de una partícula libre está relacionada con su energía y su momento lineal según la siguiente ecuación:

    {E^2 over c^2} = m^2 c^2 + p^2.

    Que se puede reordenar de la siguiente manera:

    E = mc^2 sqrt{1 + left({p over mc}right)^2}

    El límite clásico se corresponde con la situación en la que el momento p es mucho menor que mc, en cuyo caso se puede desarrollar la raíz cuadrada en una serie de Taylor:

    E = mc^2 + {p^2 over 2m} + ...

    El término principal, que es el mayor, es la energía en reposo de la partícula. Si la masa es distinta de cero, una partícula siempre tiene como mínimo esta cantidad de energía, independientemente de su momentum. La energía en reposo, normalmente, es inaccesible, pero puede liberarse dividiendo o combinando partículas, como en la fusión y fisión nucleares. El segundo término es la energía cinética clásica, que se demuestra usando la definición clásica de momento cinético o momento lineal:

    p = mv ,!

    y sustituyendo para obtener:

    E = mc^2 + {mv^2 over 2} + ...

    La relación relativista entre energía, masa y momento también se cumple para partículas que no tienen masa (que es un concepto mal definido en términos de mecánica clásica). Cuando m = 0, la relación se simplifica en

    E = pc ,!

    donde p es el momento relativista.

    Esta ecuación define la mecánica de las partículas sin masa como el fotón, que son las partículas de la luz.

    [editar] Masa Convencional

    Según el documento D28 "Conventional value of the result of weighing in air" de la Organización Internacional de Metrología Legal (OIML), la masa convencional de un cuerpo es igual a la masa de un patrón de densidad igual a 8.000 kg/m3 que equilibra en el aire a dicho cuerpo en condiciones convencionalmente escogidas: temperatura del aire igual a 20 °C y densidad del aire igual a 0,0012 g/cm3

    Esta definición es fundamental para un comercio internacional sin controversias sobre pesajes realizados bajo distintas condiciones de densidad del aire y densidad de los objetos. Si se pretendiera que las balanzas midan masa, sería necesario contar con patrones de masa de la misma densidad que los objetos cuya masa interese determinar, lo que no es práctico y es la razón por la que se definió la Masa Convencional, la cual es la magnitud que miden las balanzas con mayor exactitud que masa.

    [editar] Véase también

    [editar] Referencias

    1. MacMasters, D.M. (1964). Gran Enciclopedia del Mundo. Bilbao: Durvan, S.A. de Ediciones. B1.-1.021-1964. 

    [editar] Enlaces externos

    Obtenido de "http://es.wikipedia.org/wiki/Masa"

    CIENCIA6: FÍSICA ATÓMICA. La física atómica es un campo de la física que estudia las propiedades y el comportamiento de los átomos (electrones y núcleos atómicos). El estudio de la física atómica incluye a los iones así como a los átomos neutros y a cualquier otra partícula que sea considerada parte de los átomos.

    Física atómica

    De Wikipedia, la enciclopedia libre
    Modelo de explicación de la emisión alfa.

    La física atómica es un campo de la física que estudia las propiedades y el comportamiento de los átomos (electrones y núcleos atómicos). El estudio de la física atómica incluye a los iones así como a los átomos neutros y a cualquier otra partícula que sea considerada parte de los átomos.

    La física atómica y la física nuclear tratan cuestiones distintas, la primera trata con todas las partes del átomo, mientras que la segunda lo hace sólo con el núcleo del átomo, siendo este último especial por su complejidad. Se podría decir que la física atómica trata con las fuerzas electromagnéticas del átomo y convierte al núcleo en un partícula puntual, con determinadas propiedades intrínsecas de masa, carga y espín.

    Contenido

    [ocultar]
    //

    [editar] Historia

    Artículo principal: Teoría atómica

    En los inicios su estudio se dedicó a las capas electrónicas exteriores de los átomos y a los procesos que se deducían en cambios de esa capa. John Dalton (1766-1844), generalmente reconocido como el fundador de la teoría atómica de la materia, pese a que el atomismo tuvo continuados exponentes desde el tiempo de Demócrito. Dalton dio a la teoría contenido científico sólido y

    [editar] Véase también

    [editar] Bibliografía

    • Bransden, BH; Joachain, CJ (2002). Physics of Atoms and Molecules (2nd Edition edición). Prentice Hall. ISBN 0-582-35692-X. 
    • Foot, CJ (2004). Atomic Physics. Oxford University Press. ISBN 0-19-850696-1. 

    [editar] Enlaces externos

    CIENCIA6: QUARKS. En física de partículas, los quarks, junto con los leptones, son los constituyentes fundamentales de la materia. Varias especies de quarks se combinan de manera específica para formar partículas tales como protones y neutrones.

    Quark

    De Wikipedia, la enciclopedia libre
    Para el alimento, véase queso quark.
    Quark
    Quark structure neutron.svg
    Un neutrón, compuesto por dos quark abajo (d) y un quark arriba (u).
    ComposiciónPartícula elemental
    FamiliaFermión
    Generación1.ª, 2.ª, 3.ª
    InteracciónGravedad,
    Núclear débil,
    Núclear fuerte,
    Electromagnetismo
    Símbolo(s)q
    AntipartículaAntiquark q
    TeorizadaMurray Gell-Mann (1964)
    George Zweig (1964)
    DescubiertaSLAC (~1968)
    Tipos6 (up (arriba), down (abajo), charm (encantado), strange (extraño), top (cima), y bottom (fondo))
    Carga eléctrica+2/3 e, −1/3 e
    Carga de color
    Espín1/2

    En física de partículas, los quarks, junto con los leptones, son los constituyentes fundamentales de la materia. Varias especies de quarks se combinan de manera específica para formar partículas tales como protones y neutrones.

    Los quarks son las únicas partículas fundamentales que interactúan con las cuatro fuerzas fundamentales. Los quarks son partículas parecidas a los gluones en peso y tamaño, esto se refleja en la fuerza de cohesión que estas partículas ejercen sobre ellas mismas. Son partículas de espín 1/2, por lo que son fermiones. Forman, junto a los leptones, la materia visible.

    Hay seis tipos distintos de quarks que los físicos de partículas han denominado de la siguiente manera:

    Fueron nombrados arbitrariamente basados en la necesidad de nombrarlos de una manera fácil de recordar y usar, además de los correspondientes antiquarks. Las variedades extraña, encanto, fondo y cima son muy inestables y se desintegraron en una fracción de segundo después del Big Bang, pero los físicos de partículas pueden recrearlos y estudiarlos. Las variedades arriba y abajo sí se mantienen, y se distinguen entre otras cosas por su carga eléctrica.

    En la naturaleza no se encuentran quarks aislados. Estos siempre se encuentran en grupos, llamados hadrones, de dos o tres quarks, conocidos como mesones y bariones respectivamente. Esto es una consecuencia directa del confinamiento del color. En el año 2003 se encontró evidencia experimental de una nueva asociación de cinco quarks, los pentaquark[1] aunque su existencia aún es controvertida.[2]

    Contenido

    [ocultar]

    [editar] Historia

    [editar] Uso en el modelo estándar

    Véase también: Modelo de quarks
    Murray Gell-Mann, nacido en Nueva York en el año 1929, recibió el premio Nobel de Física en 1969 por su aporte en la teoría de las partículas atómicas.

    La noción de quark teórica nace del intento de clasificar a los hadrones, ahora explicados gracias al modelo de quarks. Murray Gell-Mann y Kazuhiko Nishijima realizaron esa clasificación de manera independiente en 1964.[3]

    Cuadro general con nombres y carga eléctrica: quarks y leptones.
    Diferencia entre los bariones y los mesones.
    Tamaño relativo de las diferentes partículas atómicas.

    Los quarks son la conclusión de los intentos para encontrar los fundamentos de la construcción de la materia. Con el triunfo de la teoría atómica en el siglo XIX se concluía que los átomos eran los componentes últimos de la materia y de ahí su nombre por ser indivisibles. Con el modelo atómico de Rutherford se demostró que el átomo no era indivisible, constaba de un núcleo y de una nube electrónica. El núcleo atómico se demostró posteriormente que estaba conformado de protones y neutrones. Con sólo cinco partículas elementales, fuera de los protones, neutrones y electrones, en la década de 1930 comenzaron a aparecer los muones de alta radiación y algunos neutrinos de forma indirecta. La confirmación de más mesones y bariones, primero en experimentos con alta radiación y luego en aceleradores de partículas, dieron la impresión de que nos enfrentábamos a un zoológico de partículas y fueron el impulso para buscar cada vez más partículas elementales.

    El esquema usado por Gell-Mann para unir a las partículas era mediante su isospín y su extrañeza. Utilizó una unidad simétrica derivada del álgebra actual, que se la conoce como una aproximación de la simetría quiral de la cromodinámica cuántica (QCD). Esta es una simetría global de sabor SU(3) que no debe confundirse con la simetría gaugeana de la cromodinámica cuántica. En este esquema, los mesones ligeros (de espín 0) y los bariones (espín -1/2) estaban agrupados juntos en octetos de simetría de sabor. Una clasificación de los bariones de espín -3/2 en una representación 10 arrojó la predicción de una nueva partícula, la Ω-. Su descubrimiento en 1964 llevó a la aceptación de este modelo. La representación 3 que faltaba fue identificada como los quarks.[cita requerida]

    El esquema fue llamado por Gell-Mann como de ocho maneras (eightfold way en inglés), una inteligente asociación de los octetos del modelo con los ocho caminos o maneras del budismo.

    [editar] Descubrimiento experimental

    A mediados de la década de 1960 había un cierto consenso en que el protón poseía un tamaño aproximado de 10–15 m con una distribución suave de carga en su interior. Los análisis de ciertas propiedades de reacciones de altas energías de hadrones llevó a Richard Feynman a postular subestructuras de hadrones, a los que él llamo partones (porque eran parte de los hadrones).[4]

    La serie de experimentos en el SLAC (Stanford Linear Accelerator Center) entre 1967 y 1973 tenían como objetivo estudiar la dispersión electrón-protón y ver la distribución de carga en el protón.[5] Estos experimentos eran muy parecidos a los realizados por Rutherford años atrás para confirmar la existencia del núcleo atómico. El SLAC es un acelerador de partículas lineal donde partículas como los electrones pueden alcanzar energías de hasta 50 GeV, lo suficiente para que estos puedan traspasar nucleones.

    El análisis teórico de las colisiones inelásticas que tuvieran lugar entre el electrón y el protón lo había trabajado James Bjorken. Este consideró varias hipótesis para explicar la función de forma de la dispersión. De todas ellas, la más especulativa era considerar al protón compuesto por partículas puntuales cargadas y con espín 1 / 2. Al analizar los datos para diferentes cantidades de momento transferidos al protón, se comprobó que el ajuste de Bjorken con tal hipótesis era el adecuado.[5] Se habían descubierto los quarks de manera experimental lo que permitió obtener el premio Nobel de Física de 1990 a Taylor, Kendall y Friedmann, líderes de los experimentos en el SLAC.

    Más adelante, otros experimentos de colisiones inelásticas con neutrinos hechas en el CERN sirvieron para confirmar los resultados del SLAC. Se confirmó que los partones de Feynmann y los quarks eran exactamente la misma cosa. Con la prueba de la libertad asintótica en la cromodinámica cuántica que realizaron en 1973 David Gross, Frank Wilczek y David Politzer, la conexión se hizo estable. A estos científicos se les concedió el premio Nobel de Física en el 2004 por este trabajo. Kendall dijo sobre el hallazgo:

    ...el descubrimiento específico fue un descubrimiento. No sabíamos si estaría ahí, y tampoco nadie en este mundo - ni la gente que inventó el quark ni toda la comunidad teórica. Nadie podía decir especifica y unívocamente: hey amigos vayan por el quark. Esperamos que esté en los nucleones.[5]

    [editar] Diferentes sabores

    Al principio se creía que sólo existían el quark arriba, abajo y extraño. En 1970, Sheldon Glashow, John Iliopoulos y Luciano Maianicon postularon la existencia del quark encantado para impedir cambios no físicos de sabor en las desintegraciones débiles que podrían aparecer en el modelo estándar. El descubrimiento del mesón J/ψ en 1974 llevó al reconocimiento de que éste estaba hecho de un quark encantado y su antiquark.[6]

    Luego, se planteó la hipótesis del quinto y sexto quark, llamados quark cima y fondo. La existencia de una tercera generación de quarks fue predicha por Makoto Kobayashi y Toshihide Maskawa en 1973, ellos se dieron cuenta que la violación de la simetría CP por kaones neutros no podría acomodarse en el modelo estándar con las dos generaciones hasta ese momento existentes de quarks. El quark fondo fue descubierto en 1977 y el quark cima en 1996.[7]

    [editar] Significado de quark

    Los elementos básicos de la materia son 3.

    La palabra fue originalmente designada por Murray Gell-Mann como una palabra sin sentido que rimaba con pork,[8] pero sin ortografía.[9] Después, él encontró la palabra «quark» en un libro de James Joyce titulado Finnegans Wake y de ahí se usó su ortografía:

    Three quarks for Muster Mark!  Sure he has not got much of a barkAnd sure any he has it's all beside the mark.

    Gell-Mann dijo sobre esto que[10]

    En 1963, cuando asigné el nombre de quark a los constituyentes fundamentales de los nucleones, yo tenía el primer sonido, sin ortografía, que podría haber sido kwork. Luego, en uno de sus ocasionales lecturas de Finnegans Wake, por James Joyce, me crucé con la palabra quark en la frase Three quarks for Muster Mark. Entonces quark (que significa, por un lado, el grito de la gaviota) fue el claro intento de rimar con Mark, como con bark y otras palabras parecidas. Yo tuve que encontrar una excusa para pronunciarla así como kwork. Pero el libro representa el sueño de un publicano llamado Humphrey Chimpden Earwicker. Las palabras en el texto suelen proceder de varias fuentes a la vez, como la palabra portmanteau en Through the Looking Glass. De vez en cuando, las frases que aparecen en el libro son determinadas para denominar a las bebidas en un bar. Yo argumenté, por lo tanto, que uno de los múltiples recursos de la frase Three quarks for Muster Mark podría ser Three quarts for Mister Mark, en ese caso la pronunciación de "kwork" podría justificarse totalmente. En cualquier caso, el número tres encaja perfectamente en el camino como el quark apareció en la naturaleza.

    La frase tres quarks (three quarks en inglés) encajaba particularmente bien (como se menciona en la cita) ya que en ese tiempo sólo había tres quarks conocidos y entonces los quarks estaban en grupos de tres en los bariones.

    En el libro de Joyce, se da a las aves marinas tres quarks, quark toma un significado como el grito de las gaviotas (probablemente onomatopeya como quack para los patos). La palabra es también un juego de palabras en entre Munster y su capital provincial Cork.

    [editar] Generación

    Características de todas las partículas y fuerzas fundamentales conocidas.

    Los físicos han ido separando a las partículas que, primero teóricas, han ido hallando experimentalmente en los aceleradores de partículas. Las dividieron en generaciones de dos leptones y dos quarks. Entre ellos varía la masa que va aumentando de acuerdo al número de la generación, siendo la tercera la más pesada hasta el momento. El modelo estándar predice las tres generaciones de quarks y leptones que conocemos pero no podría descartarse del todo la posibilidad de una cuarta generación.

    En el caso de los quarks tenemos como primera generación a los quarks arriba y abajo; los de segunda son los quarks encantado y extraño; y los de tercera generación son los quarks fondo y cima.

    [editar] Propiedades

    Los quarks no se encuentran libres en la naturaleza sino que se agrupan formando hadrones. Éstos se dividen en dos tipos:

    Existen 6 tipos de quarks, cada uno con su sabor, su carga, su isospín débil y su masa (entre las propiedades más importantes). Una lista de estas propiedades para cada quark sería:[11] [12]

    NombreSímboloGeneraciónIsospín débilSaborCargaMasa
    arriba (up)u1Iz=+½+⅔1,5 – 4,0
    abajo (down)d1Iz=-½-⅓4 – 8
    extraño (strange)s2S=-1-⅓80 – 130
    encantado (charm)c2C=1+⅔1150 – 1350
    fondo (bottom)b3B'=-1-⅓4100 – 4400
    cima (top)t3T=1+⅔170900 ± 1800

    Junto a los leptones, los quarks forman prácticamente toda la materia de la que estamos rodeados. En concreto la constituyen los dos primeros quarks ya que forman los protones y neutrones que a su vez forman los núcleos atómicos.

    [editar] Carga

    Véase también: Carga eléctrica

    La carga -⅓ o +⅔ de la carga elemental. Por esto siempre las partículas compuestas (bariones y mesones) tienen una carga entera. Experimentalmente (por ejemplo en el experimento de la gota de aceite de Millikan) no hay información de cargas fraccionarias de partículas aisladas. La tercera parte de la carga en los hadrones es debido a la presencia de los quarks. Actualmente se desconoce por qué la suma de las cargas de los quarks en un protón se corresponde exactamente a la del electrón, un leptón, con signo opuesto.

    [editar] Masa

    Aunque si bien se habla de la masa de los quarks en el mismo sentido que la masa de cualquier otra partícula, la noción de masa para un quark es complicada por el hecho que los quarks no pueden encontrarse solos en la naturaleza, siempre se encuentran acompañados de un gluón, por lo general. Como resultado, la noción de la masa de un quark es una construcción teórica que tiene sentido sólo cuando se especifica exactamente que se usará para definirla.

    La simetría quiral aproximada de la cromodinámica cuántica, por ejemplo, permite definir el radio entre varias masas de quarks a través de combinaciones de las masas de los octetos pseudoescalares de los mesones en el modelo de quarks por la teoría de perturbación quiral, tenemos:

    frac{m_u}{m_d}=0,56qquad{rm y}qquadfrac{m_s}{m_d}=20,1.

    El hecho de que el quark arriba tenga masa es importante porque había un problema con la violación CP si éstos no tenían masa. Los valores absolutos de las masas son determinados por las reglas de suma de funciones espectrales (o también las reglas de suma de la cromodinámica cuántica).

    Otro método para especificar las masas de los quarks fue usada por Gell-Mann y Nishijima en el modelo de quarks que conectaba la masa del hadrón con la masa de los quarks. Estas masas, llamadas masas constituyentes de quarks, son considerablemente diferentes de las masas definidas anteriormente. Las masas constituyentes no tienen ningún significado dinámico posterior.

    Por otro lado, las masas de los quarks más masivos, el encantado y el fondo, se obtuvieron de las masas de los hadrones que contenían un quark pesado (y un antiquark ligero o dos quarks ligeros) y del análisis de quarkonios. Los cálculos del enrejado de la cromodinámica cuántica usando una teoría efectiva de quarks pesados o cronodinámica cuántica no relativista son usadas actualmente para determinar la masa de esos quarks.

    El quark cima es lo suficientemente pesado que la perturbación de la QCD puede ser usada para determinar su masa. Antes de su descubrimiento en 1995, la mejor teoría estimaba que la masa del quark cima podía obtenerse del análisis global de test de precisión del modelo estándar. El quark cima, sin embargo, tiene la única cantidad de quarks que se desintegran antes de hadronizarse. Entonces, la masa puede ser directamente medida de los productos desintegrados resultantes. Estos sólo pueden ser hechos en el Tevatrón que es el único acelerador de partículas con la suficiente energía para producir quarks cima en abundancia.

    [editar] Isospín débil

    Artículo principal: Isospín débil

    El valor de esta propiedad para los quarks es de 1/2, y su signo depende de qué tipo de quark es. Para los quarks tipo u (u, c y t) es de +1/2, mientras que para los otros, llamados quarks tipo d (d, s, b), es de -1/2. De acuerdo con el isospín débil, un quark tipo u deberá desintegrarse para obtener un quark tipo d y viceversa. No se admiten desintegraciones entre quarks del mismo tipo. Las partículas que permiten estos cambios de carga del isospín débil son los bosones W y Z.

    [editar] Sabor

    Artículo principal: Sabor (física)
    Diferencia entre fermiones y bosones.

    Debido a la interacción débil todos los fermiones, y en este caso los quarks, pueden cambiar de tipo; a este cambio se le denomina sabor.[13] Los bosones W y Z son los que permiten el cambio de sabor en los quarks, estos bosones son los causantes de la interacción débil. Cada quark tiene un sabor diferente que interactuará con los bosones de una manera única.

    El sabor de los quarks arriba y abajo es el isospín débil, antes mencionado. El quark extraño, tendrá un número cuántico o sabor, homónimo, llamado extrañeza y tiene el valor de -1. Para el quark encantado es encantado y tiene el valor de 1; y así sucesivamente con los otros dos como se puede ver en la tabla anterior.

    [editar] Carga de color

    Artículo principal: Carga de color

    Los quarks al ser fermiones deben seguir el principio de exclusión de Pauli. Este principio implica que los tres quarks en un barión deben estar en una combinación antisimétrica. Sin embargo la carga Q=2 del barión Δ++ (que es un cuarto del isospín Iz  =  3/2 de los bariones) puede ser realizado sólo por quarks con espín paralelo. Esta configuración es simétrica bajo intercambio de quarks, esto implica que existe otro número cuántico interno para que pueda hacerse esa combinación antisimétrica. A esta propiedad, o número cuántico, se le denominó color. El color no tiene nada que ver con la percepción de la frecuencia de la luz, por el contrario, el color es la carga envuelta en la teoría de gauge, más conocida como cromodinámica cuántica.

    El color es una simetría de gauge SU(3). Los quarks están localizados en la representación fundamental 3 y por lo tanto tienen tres colores, análogo con los tres colores fundamentales rojo, verde y azul, de ahí viene su nombre. Es por eso que se suele decir que existen 18 tipos de quarks, 6 con sabor y cada uno con 3 colores.

    [editar] Subestructura

    Artículo principal: Preón

    Nuevas extensiones del modelo estándar de física de partículas indican que los quarks podrían estar compuestos de subestructuras. Esto asume que las partículas elementales del modelo estándar de física de partículas son partículas compuestas; estas hipótesis están siendo evaluadas, aunque actualmente no se ha descubierto tal estructura. Las llamadas subestructuras de los quarks se denominan preones.

    [editar] Antiquark

    El antiquark es la antipartícula que corresponde a un quark. El número de tipos de quarks y antiquarks en la materia es el mismo. Se representan con los mismos símbolos que aquellos, pero con una barra encima de la letra correspondiente, por ejemplo, si un quark se representa mathrm{u},, un antiquark se escribe bar{mathrm{u}}.

    [editar] Véase también

    [editar] Notas

    1. The SAPHIR Collaboration, J. Barth, et al. «Evidence for the positive-strangeness pentaquark» (en inglés). Consultado el 08/01/2008.
    2. Sonia Kabana. «Review of the experimental evidence on pentaquarks and critical discussion» (en inglés). Consultado el 08/01/2008.
    3. «Quarks». Consultado el 08/01/2008.
    4. «SLAC» (en inglés). Consultado el 08/01/2008.
    5. a b c Premio Nobel por la primera evidencia de un quark
    6. «Mesons» (en inglés). Consultado el 08/01/2008.
    7. «Quark». Consultado el 08/01/2008.
    8. Gribbin, John. "Richard Feynman: A Life in Science" Dutton 1997, pg 194.
    9. Proveniencia de la palabra quark
    10. Gell-Mann, Murray (1995). EL QUARK Y EL JAGUAR. Barcelona: Tusquet. 84-7223-844-X. 
    11. «Summary of Top Mass Results - March 2007». Consultado el 08/01/2008.
    12. «La masa de los quarks» (en inglés). Consultado el 08/01/2008.
    13. «Interacción débil». Consultado el 08/01/2008.

    [editar] Enlaces externos

    CIENCIA6: LA TEORÍA DE CUERDAS. "EL UNIVERSO ELEGANTE": un gran documental científico sobre la Teoría de las Supercuerdas. Una visión científica del Universo más allá de todo lo imaginable. Versión en castellano. La teoría de cuerdas es un modelo fundamental de la física que básicamente asume que las partículas materiales aparentemente puntuales son en realidad "estados vibracionales" de un objeto extendido más básico llamado "cuerda" o "filamento".

     

    Teoría de cuerdas

    De Wikipedia, la enciclopedia libre
    ¿Cómo son las interacciones en el mundo sub-atómico?: líneas espacio-tiempo como las partículas subatómicas. en el Modelo estándar (izquierda) o Cuerda cerrada sin extremos y en forma de círculo como afirma la teoría de cuerdas (derecha).

    La teoría de cuerdas es un modelo fundamental de la física que básicamente asume que las partículas materiales aparentemente puntuales son en realidad "estados vibracionales" de un objeto extendido más básico llamado "cuerda" o "filamento".

    De acuerdo con esta propuesta, un electrón no es un "punto" sin estructura interna y de dimensión cero, sino una cuerda minúscula que vibra en un espacio-tiempo de más de cuatro dimensiones. Un punto no puede hacer nada más que moverse en un espacio tridimensional. De acuerdo con esta teoría, a nivel "microscópico" se percibiría que el electrón no es en realidad un punto, sino una cuerda en forma de lazo. Una cuerda puede hacer algo además de moverse; puede oscilar de diferentes maneras. Si oscila de cierta manera, entonces, macroscópicamente veríamos un electrón; pero si oscila de otra manera, entonces veríamos un fotón, o un quark, o cualquier otra partícula del modelo estándar. Esta teoría, ampliada con otras como la de las supercuerdas o la Teoría M, pretende alejarse de la concepción del punto-partícula.

    La primera formulación de una teoría de cuerdas se debe a Jöel Scherk y John Schwuarz, que en 1974 publicaron un artículo en el que demostraban que una teoría basada en objetos unidimensionales o "cuerdas" en lugar de partículas puntuales podía describir la fuerza gravitatoria. Aunque estas ideas no recibieron en ese momento mucha atención hasta la Primera revolución de supercuerdas de 1984. De acuerdo con la formulación de la teoría de cuerdas surgida de esta revolución, las teorías de cuerdas pueden considerarse de hecho un caso general de teoría de Kaluza-Klein cuantizada. Las ideas fundamentales son dos:

    • Los objetos básicos de la teoría no serían partículas puntuales sino objetos unidimensionales extendidos (en las cinco teorías de cuerdas convencionales estos objetos eran unidimensionales o "cuerdas"; actualmente en la teoría-M se admiten también de dimensión superior o "p-branas"). Esto renormaliza algunos infinitos de los cálculos perturbativos.
    • El espacio-tiempo en el que se mueven las cuerdas y p-branas de la teoría no sería el espacio-tiempo ordinario de 4 dimensiones sino un espacio de tipo Kaluza-Klein, en el que a las cuatro dimensiones convencionales se añaden 6 dimensiones compactificadas en forma de variedad de Calabi-Yau. Por tanto convencionalmente en la teoría de cuerdas existe 1 dimensión temporal, 3 dimensiones espaciales ordinarias y 6 dimensiones compactificadas e inobservables en la práctica.

    La inobservabilidad de las dimensiones adicionales está ligada al hecho de que éstas estarían compactificadas, y sólo serían relevantes a escalas tan pequeñas como la longitud de Planck. Igualmente, con la precisión de medida convencional las cuerdas cerradas con una longitud similar a la longitud de Planck se asemejarían a partículas puntuales.

    Contenido

    [ocultar]
    //

    [editar] Desarrollos posteriores

    Posteriormente a la introducción de las teorías de cuerdas, se consideró la necesidad y conveniencia de introducir el principio de que la teoría fuera supersimétrica; es decir, que admitiera una simetría abstracta que relacionara fermiones y bosones. Actualmente la mayoría de teóricos de cuerdas trabajan en teorías supersimétricas; de ahí que la teoría de cuerdas actualmente se llame teoría de supercuerdas. Esta última teoría es básicamente una teoría de cuerdas supersimétrica; es decir, que es invariante bajo transformaciones de supersimetría.

    Actualmente existen cinco teorías de [super]cuerdas relacionadas con los cinco modos que se conocen de implementar la supersimetría en el modelo de cuerdas. Aunque dicha multiplicidad de teorías desconcertó a los especialistas durante más de una década, el saber convencional actual sugiere que las cinco teorías son casos límites de una teoría única sobre un espacio de 11 dimensiones (las 3 del espacio, 1 temporal y 6 adicionales resabiadas o "compactadas" y 1 que las engloba formando "membranas" de las cuales se podría escapar parte de la gravedad de ellas en forma de "gravitones"). Esta teoría única, llamada teoría M, de la que sólo se conocerían algunos aspectos, fue conjeturada en 1995.

    [editar] Variantes de la teoría

    La teoría de supercuerdas del espacio exterior es algo actual. En sus principios (mediados de los años 1980) aparecieron unas cinco teorías de cuerdas, las cuales después fueron identificadas como límites particulares de una sola teoría: la Teoría M. Las cinco versiones de la teoría actualmente existentes, entre las que pueden establecerse varias relaciones de dualidad son:

    1. La teoría tipo I, donde aparecen tanto "cuerdas" y D-branas abiertas como cerradas, que se mueven sobre un espacio-tiempo de 10 dimensiones. Las D-branas tienen 1, 5 y 9 dimensiones espaciales.
    2. La teoría tipo IIA, es también una teoría de 10 dimensiones pero que emplea sólo cuerdas y D-branas cerradas. Incorpora dos gravitines (partículas teóricas asociadas al gravitón mediante relaciones de supersimetría). Usa D-branas de dimensión 0, 2, 4, 6, y 8.
    3. La teoría tipo IIB.
    4. La teoría heterótica-O, basada en el grupo de simetría O(32).
    5. La teoría heterótica-E, basada en el grupo de Lie excepcional E8. Fue propuesta en 1987 por Gross, Harvey, Martinec y Rohm.

    El término teoría de cuerda floja se refiere en realidad a las teorías de cuerdas bosónicas de 26 dimensiones y la teoría de supercuerdas de 10 dimensiones, esta última descubierta al añadir supersimetría a la teoría de cuerdas bosónica. Hoy en día la teoría de cuerdas se suele referir a la variante supersimétrica, mientras que la antigua se conoce por el nombre completo de "teoría de cuerdas bosónicas". En 1995, Edward Witten conjeturó que las cinco diferentes teorías de supercuerdas son casos límite de una desconocida teoría de 11 dimensiones llamada Teoría-M. La conferencia donde Witten mostró algunos de sus resultados inició la llamada Segunda revolución de supercuerdas.

    En esta teoría M intervienen como objetos animados físicos fundamentales no sólo cuerdas unidimensionales, sino toda una variedad de objetos no perturbativos, extendidos en varias dimensiones, que se llaman colectivamente p-branas (este nombre es un apócope de "membrana").

    [editar] Controversia sobre la teoría

    Aunque la teoría de cuerdas, según sus defensores, pudiera llegar a convertirse en una de las teorías físicas más predictivas, capaz de explicar algunas de las propiedades más fundamentales de la naturaleza en términos geométricos, los físicos que han trabajado en ese campo hasta la fecha no han podido hacer predicciones concretas con la precisión necesaria para confrontarlas con datos experimentales. Dichos problemas de predicción se deberían, según el autor, a que el modelo no es falsable, y por tanto, no es científico,[1] o bien a que «La teoría de las supercuerdas es tan ambiciosa que sólo puede ser del todo correcta o del todo equivocada. El único problema es que sus matemáticas son tan nuevas y tan difíciles que durante varias décadas no sabremos cuáles son».[2]

    [editar] Falsacionismo y Teoría de cuerdas

    Artículo principal: Criterio de demarcación

    La Teoría de cuerdas o la Teoría M podrían no ser falsables, según sus críticos.[3] [4] [5] [6] [7] Diversos autores han declarado su preocupación de que la Teoría de cuerdas no sea falsable y como tal, siguiendo las tesis del filósofo de la ciencia Karl Popper, la Teoría de cuerdas sería equivalente a una pseudociencia.[8] [9] [10] [11] [12] [13]

    El filósofo de la ciencia Mario Bunge ha manifestado recientemente:

    • La consistencia, la sofisticación y la belleza nunca son suficientes en la investigación científica.
    • La Teoría de cuerdas es sospechosa (de pseudociencia). Parece científica porque aborda un problema abierto que es a la vez importante y difícil, el de construir una teoría cuántica de la gravitación. Pero la teoría postula que el espacio físico tiene seis o siete dimensiones, en lugar de tres, simplemente para asegurarse consistencia matemática. Puesto que estas dimensiones extra son inobservables, y puesto que la teoría se ha resistido a la confirmación experimental durante más de tres décadas, parece ciencia ficción, o al menos, ciencia fallida.
    • La física de partículas está inflada con sofisticadas teorías matemáticas que postulan la existencia de entidades extrañas que no interactúan de forma apreciable, o para nada en absoluto, con la materia ordinaria, y como consecuencia, quedan a salvo al ser indetectables. Puesto que estas teorías se encuentran en discrepancia con el conjunto de la Física, y violan el requerimiento de falsacionismo, pueden calificarse de pseudocientíficas, incluso aunque lleven pululando un cuarto de siglo y se sigan publicando en las revistas científicas más prestigiosas.


    No obstante, en el estado actual de la ciencia, se ha dado el paso tecnológico que puede por fin iniciar la búsqueda de evidencias sobre la existencia de más de tres dimensiones espaciales, ya que en el CERN y su nuevo acelerador de partículas se intentará, entre otras cosas, descubrir si existe el bosón de Higgs y si esa partícula se expande solo en 3 dimensiones o si lo hace en más de 3 dimensiones, y se pretende lograr estudiando las discordancias en las medidas y observaciones de la masa de dicha partícula si finalmente se encuentra, por lo que en conclusión la teoría de cuerdas estaría, recientemente, intentando entrar en el campo de la falsabilidad.

    [editar] Referencias

    1. Sheldon Glashow, Interactions, Warner Books, New York, 1988, p. 355
    2. Sheldon Glashow en The Superworld I, ed. A. Zichichi, Plenum, New York, 1990, p. 250
    3. Smolin, Lee. Mariner Books, 2007. The trouble with Physics. ISBN 0-618-91868-X
    4. Woit, Peter. Basic Books, 2007. Not even wrong. ISBN 0-465-09276-4
    5. Sheldon Glashow & Paul Ginsparg, "Desperately Seeking Superstrings", Physics Today, mayo de 1986, p.7.
    6. Howard Georgi, en The New Physics,ed. Paul Davies, Cambridge University Press, Cambridge, 1989, p. 446
    7. a b Mario Bunge. Skeptical Inquirer, July/Aug, 2006.
    8. Peter Woit's Not Even Wrong weblog
    9. P. Woit (Columbia University) String theory: An Evaluation,Feb 2001, e-Print: physics/0102051
    10. P. Woit, Is String Theory Testable? INFN Rome March 2007
    11. Lee Smolin's The Trouble With Physics webpage
    12. The Trouble With String Theory.
    13. The Great String debate. Wisecracks fly when Brian Greene and Lawrence Krauss tangle over string theory.

    [editar] Bibliografía de divulgación

    [editar] Artículos sobre teoría de cuerdas

    [editar] Véase también

    [editar] Enlaces externos

    Obtenido de "http://es.wikipedia.org/wiki/Teor%C3%ADa_de_cuerdas"