Divergencia del haz

En electromagnetismo , especialmente en óptica , la divergencia del haz (beam divergence) es la medida angular del aumento en el diámetro o radio de un haz a medida que uno se aleja de la apertura óptica o de la antena de la que emerge el haz. El término solo es relevante en la región del " campo lejano ", lejos del foco del haz. Sin embargo, en la práctica, el campo lejano puede comenzar físicamente cerca de la apertura emisora, dependiendo del diámetro de la apertura y la longitud de onda operativa.

La divergencia del haz se utiliza a menudo para caracterizar los haces electromagnéticos en el modo óptico en los casos en que la apertura de la que emerge el haz es muy grande en comparación con la longitud de onda . Sin embargo, también se utiliza en el rango de radiofrecuencia (RF) para casos en los que la antena es muy grande en comparación con la longitud de onda.

La divergencia del haz generalmente se entiende como un haz con una sección transversal circular, pero este no es necesariamente el caso. El haz puede, por ejemplo, tener una sección transversal elíptica, en cuyo caso debe especificarse la orientación de la divergencia del haz, por ejemplo, con respecto al eje mayor o menor de la sección transversal elíptica.

La divergencia del haz se puede calcular conociendo el diámetro del haz en dos puntos separados lejos de cualquier foco ( D i , D f ) y la distancia ( l ) entre estos puntos. La divergencia del haz, , se da como

Si el rayo colimado es enfocado por una lente , entonces el diámetro del rayo en el plano focal posterior de la lente está relacionado con la divergencia del rayo original por la relación

donde f  es la distancia focal de la lente [1] . Tenga en cuenta que esta medida solo es válida cuando el tamaño del haz se mide en el plano focal posterior de la lente, es decir, donde estaría el foco para un haz verdaderamente colimado, y no en el foco real del haz, que estaría detrás de la parte posterior. del plano focal para un haz divergente.

Como todos los rayos electromagnéticos, los láseres están sujetos a divergencia, que se mide en miliradianes (mrad) o grados . Para muchas aplicaciones, se prefiere un haz con menos divergencia. Despreciando la divergencia debida a la mala calidad del rayo, la divergencia de un rayo láser es proporcional a su longitud de onda e inversamente proporcional al diámetro del rayo en su punto más estrecho. Por ejemplo, un láser ultravioleta que emite a 308 nm tendrá menos divergencia que un láser infrarrojo a 808 nm si ambos tienen el mismo diámetro de haz mínimo. La divergencia de los rayos láser de buena calidad se modela utilizando matemáticas de rayos gaussianos .

Los rayos láser gaussianos se denominan de difracción limitada si su divergencia radial está cerca del valor mínimo posible dado por [2]

donde  es la longitud de onda del láser y  es el radio del haz en su punto más estrecho, que se denomina "cintura del haz". Este tipo de divergencia del haz se observa en cavidades láser optimizadas. La información sobre la divergencia de difracción de un haz coherente viene dada esencialmente por una ecuación interferométrica con rendijas N [2] .

Notas

 

  1. Medición de la divergencia del rayo láser . Consultado el 30 de marzo de 2015. Archivado desde el original el 20 de noviembre de 2015.
  2. 1 2 Duarte, Francisco J. Capítulo 3 // Óptica láser sintonizable . — 2do. — Nueva York: CRC, 2015. — ISBN 9781482245295 . Archivado el 2 de abril de 2015 en Wayback Machine .

Enlaces