einstein@casa | |
---|---|
| |
Plataforma | BOINC |
Tamaño de descarga de software | 43-147 MB |
Tamaño cargado de datos de trabajo | 6-100 MB |
Cantidad de datos de trabajo enviados | 15 KB |
Espacio en disco | 120 MB |
Cantidad de memoria utilizada | 80-184 MB |
interfaz gráfica de usuario | Sí |
Tiempo promedio de cálculo de tareas | 4-13 horas |
plazo | 14 dias |
Posibilidad de usar GPU | nVidia , AMD / ATI (BRPx) |
Archivos multimedia en Wikimedia Commons |
Einstein@Home es un proyecto de computación voluntario en la plataforma BOINC para probar la hipótesis de Einstein sobre la existencia de ondas gravitacionales , que fueron descubiertas 100 años después (en septiembre de 2015). Durante el transcurso del proyecto, se amplió el objetivo original: el proyecto ahora también busca púlsares utilizando telescopios de radio y rayos gamma. El proyecto se inició en el marco del Año Mundial de la Física 2005 y está coordinado por la Universidad de Wisconsin-Milwaukee ( Milwaukee , EE . UU .) y el Instituto de Física Gravitacional de la Sociedad Max Planck ( Hannover , Alemania ), líder es Bruce Allen . Para probar la hipótesis, se ha elaborado un atlas de ondas gravitacionales emitidas por estrellas de neutrones no axisimétricas que giran rápidamente ( pulsares ), wobblers ( ing. estrella oscilante ), acrecentadas ( ing. estrella acreciente ) y estrellas pulsantes ( ing. estrella oscilante ) . siendo compilado [1] . Los datos para el análisis provienen del Observatorio de ondas gravitacionales interferométricas láser (LIGO) y GEO600 . Además de probar la teoría general de la relatividad de Einstein y obtener respuestas a las preguntas "¿Se propagan las ondas gravitacionales a la velocidad de la luz ?" y "¿En qué se diferencian de las ondas electromagnéticas ?" [2] , la detección directa de ondas gravitatorias también representará una nueva e importante herramienta astronómica (la mayoría de las estrellas de neutrones no irradian en el rango electromagnético y los detectores gravitacionales pueden llevar al descubrimiento de toda una serie de estrellas de neutrones previamente desconocidas [3] ). La presencia de evidencia experimental de la ausencia de ondas gravitatorias de amplitud conocida de fuentes conocidas arrojará dudas sobre la muy general teoría de la relatividad y la comprensión de la esencia de la gravitación .
Desde marzo de 2009, parte de la potencia de cómputo del proyecto se ha utilizado para analizar los datos obtenidos por el consorcio PALFA del radiotelescopio del Observatorio de Arecibo ( Puerto Rico ) con el fin de buscar radio púlsares en sistemas estelares binarios [4] [5] . Durante el análisis, se descubrieron 2 nuevos púlsares de radio previamente desconocidos: PSR J2007+2722 (2010) y PSR J1952+2630 (2011). El análisis de los datos del radiotelescopio del Observatorio Parkes ( Australia ) permitió descubrir 23 radio púlsares previamente desconocidos en 2011-2012 [6] . Al procesar una nueva porción de datos obtenidos por el Observatorio de Arecibo en 2011–2012. utilizando el espectrómetro de banda ancha Mock, se descubrieron 28 nuevos púlsares de radio en 2011-2015 [7] . El número total de púlsares de radio abiertos es de 54. En 2013-2016. Durante el análisis de los datos del telescopio de rayos gamma GLAST , se descubrieron 18 púlsares de rayos gamma [8] [9] . Los voluntarios cuyas computadoras participaron en el descubrimiento de púlsares reciben un certificado conmemorativo de los organizadores del proyecto [10] .
Los cálculos dentro del proyecto comenzaron en la plataforma BOINC en noviembre de 2004 [11] . Al 15 de diciembre de 2013, participaron en él 355 367 usuarios (2 471 906 computadoras) de 222 países, lo que proporcionó un rendimiento integrado de alrededor de 1 peta flops [12] . Cualquier persona con una computadora conectada a Internet puede participar en el proyecto . Para hacer esto, debe instalar el programa BOINC Manager y conectarse al proyecto Einstein@home.
La tarea principal de los cálculos es extraer una señal útil ( patrón de interferencia ) del ruido, que es consecuencia de las vibraciones térmicas de los átomos en los espejos, la naturaleza cuántica de la luz , los movimientos sísmicos de la corteza terrestre o las vibraciones resonantes de los hilos en que se suspenden las ópticas. El proceso de detección también se complica por la influencia de la rotación de la Tierra alrededor del Sol y alrededor de su eje, que en conjunto provocan un cambio de frecuencia de la señal debido al efecto Doppler . Durante el procesamiento de datos, se realiza un filtrado de señal constante, que requiere la comparación de una muestra ruidosa con una de referencia, y se realiza una comparación de segmentos de diez horas de observaciones ("segmentos") en el interferómetro con un patrón predicho teóricamente que debería ser creado por ondas gravitacionales provenientes de estrellas de neutrones en rotación, presumiblemente ubicadas en ciertas áreas de la esfera celeste. Tales ondas gravitacionales son continuas ( en inglés , Continuous-wave, CW ), tienen una amplitud constante y son casi monocromáticas (tienen una ligera disminución de frecuencia con el tiempo). En el curso de los cálculos, se utiliza una cuadrícula bastante densa (30 000 nodos), que cubre todo el cielo (se supone que el púlsar se puede ubicar en cualquier punto de la esfera celeste en los nodos de la cuadrícula), y varias frecuencias y sus tasas de cambio (de hecho , derivados de frecuencia) se clasifican.
Usando la transformada corta de Fourier ( SFT ), los fragmentos de datos de media hora del telescopio gravitacional se dividen en un conjunto de 2901 archivos SFT (cada archivo procesado en la máquina del usuario cubre la frecuencia del espectro de 0,8 Hz: datos útiles de 0,5 Hz más lóbulos laterales) , que juntos cubren el rango de frecuencia de 50 a 1500,5 Hz. La interferencia generada por el propio instrumento se elimina en la medida de lo posible (sustituida por ruido blanco gaussiano ) a lo largo de líneas conocidas a priori en el espectro específico de cada uno de los detectores. Como resultado del análisis, la información sobre los posibles solicitantes identificados durante los cálculos utilizando el criterio de Fisher se transmite al servidor del proyecto (el ruido del instrumento obedece a la distribución gaussiana normal , el criterio de Fisher calculado tiene una distribución con cuatro grados de libertad y su parámetro Distribución chi-cuadrada no centrada es proporcional al cuadrado de la amplitud de la onda gravitacional). Los candidatos seleccionados cumplen la desigualdad (cuando se usa la transformada de Hough, los requisitos para los candidatos se pueden relajar a [15] ). El procedimiento descrito se realiza para dos bloques de datos diferentes de diez horas, después de lo cual se comparan los resultados y se filtran algunos de ellos, que difieren en más de 1 MHz en frecuencia y en 0,02 rad en posición en la esfera celeste. Luego, los resultados se envían al servidor del proyecto para su posprocesamiento, que consiste en verificar que para la mayoría de los conjuntos de datos, se deben obtener resultados coincidentes (en este caso, en algunos casos, se pueden detectar falsos candidatos a púlsar debido a la presencia de ruido). El procesamiento posterior de los resultados se realiza en el clúster de computación Atlas [16] ubicado en el Instituto Albert Einstein en Hannover y que contiene 6720 núcleos de procesador Xeon QC 32xx de 2,4 GHz (rendimiento máximo: 52 teraflops, real: 32,8 teraflops) [15] .
De manera similar, no solo se pueden analizar datos de detectores gravitacionales, sino también observaciones en los rangos de radio , rayos X y gamma con la detección de púlsares de los tipos correspondientes [17] .
El 17 de agosto de 2011 se lanzó el proyecto Albert@Home [18] , cuyo objetivo es probar nuevas versiones de aplicaciones computacionales para el proyecto Einstein@home. El 23 de diciembre de 2011 aparecieron las primeras tareas de cálculo en el proyecto.
Los primeros cálculos, realizados del 22 de febrero de 2005 al 2 de agosto de 2005 , se realizaron en el marco del proyecto durante el análisis de datos del "tercer lanzamiento científico" (S3) del telescopio gravitacional LIGO [14] . Se procesaron 60 segmentos registrados de datos del detector LIGO de 4 km en Hanford , cada uno con una duración de 10 horas. Cada segmento de 10 horas se analizó utilizando computadoras voluntarias para detectar la presencia de señales de ondas gravitacionales utilizando algoritmos de filtrado coincidentes . Luego, los resultados de varios segmentos se combinaron durante el procesamiento posterior en los servidores del proyecto para aumentar la sensibilidad de la búsqueda y se publicaron [19] .
El procesamiento de datos del conjunto S4 (la "cuarta ejecución científica" de LIGO) se inició el 28 de junio de 2005 (durante el procesamiento de datos del conjunto S3 anterior) y se completó en julio de 2006 . Este experimento utilizó 10 segmentos de 30 horas de datos del detector LIGO de 4 km en Hanford y 7 segmentos de 30 horas del detector LIGO de 4 km en Livingston , Luisiana . Además del hecho de que los datos recopilados de los detectores eran más precisos, se utilizó un esquema más preciso para combinar los resultados de los cálculos durante el procesamiento posterior. Los resultados se publicaron en la revista Physical Review [20] .
Para probar los algoritmos de procesamiento, es posible agregar perturbaciones de hardware ( Hardware-Injected Signals ) y software ( Soft Injections ) a los datos experimentales , imitando la presencia de ondas gravitacionales en la señal . Para una fuente hardware se realiza el desplazamiento físico de los espejos detectores, simulando el paso de una onda gravitacional; Los programas se basan en la modificación programática de los datos grabados. Después de tomar los datos principales del experimento S4, se agregaron a la señal perturbaciones de 10 púlsares hipotéticos aislados. De estos, solo 4 se detectaron durante el procesamiento (las señales de 4 resultaron ser demasiado débiles en el contexto del ruido, otros 2 se identificaron incorrectamente).
El proyecto atrajo una mayor atención entre los participantes en computación distribuida voluntaria en marzo de 2006 en relación con el lanzamiento de una versión optimizada del módulo de cálculo para analizar el conjunto de datos S4, desarrollado por el participante del proyecto, el programador húngaro Akos Fekete ( inglés Akos Fekete ) [ 21] . Fekete mejoró la versión oficial de la aplicación usando extensiones vectoriales SSE , 3DNow! y los sistemas de instrucción del procesador SSE3 , lo que llevó a un aumento en el rendimiento del proyecto hasta en un 800 % [22] . Posteriormente fue invitado a participar en el desarrollo de la nueva aplicación S5 [23] . En julio de 2006, la nueva aplicación optimizada pasó a ser ampliamente distribuida entre los participantes del proyecto, lo que duplicó aproximadamente la productividad integral del proyecto en comparación con S4 [24] .
El 15 de junio de 2006 se inició el análisis de la primera parte de los datos del "quinto lanzamiento científico" (S5R1) del telescopio gravitacional LIGO, durante el cual se logró por primera vez la sensibilidad de diseño del interferómetro . En este experimento, se analizaron 22 segmentos de 30 horas cada uno del detector LIGO de 4 km en Hanford y 6 segmentos de 30 horas del detector LIGO de 4 km en Livingston de manera similar al experimento anterior. Los resultados obtenidos, también publicados en Physical Review, son más precisos (aproximadamente 3 veces) debido al uso de una mayor cantidad de datos experimentales en comparación con S4 (el más preciso conocido en el momento de la publicación) [25] .
La segunda porción de los datos del experimento S5[ ¿cuándo? ] (S5R3) también aumenta ligeramente la sensibilidad [26] . El procesamiento de datos del experimento se completó el 25 de septiembre de 2008 . A diferencia de los experimentos anteriores, este utiliza filtrado combinado de 84 segmentos de datos de 25 horas cada uno de los telescopios gravitacionales LIGO en Hanford y Livingston, combinados directamente en las computadoras de los participantes usando la transformada de Hough .
Del 13 de enero de 2009 al 30 de octubre de 2009 se procesaron los datos del experimento S5R5 (rango de frecuencia hasta 1000 Hz). No se detectaron señales de ondas gravitacionales estadísticamente significativas, la limitación de la amplitud máxima de ondas gravitacionales que los detectores pueden detectar aumenta aproximadamente 3 veces (a una frecuencia de 152,5 Hz es 7,6⋅10 −25 m), el rango máximo de detección de neutrones que emiten las estrellas de ondas gravitacionales se estima en 4 kilo parsecs (13.000 años luz) para una estrella con elipticidad [15] .
En octubre de 2009 se inició la continuación del experimento (S5R6), en el que se amplió el rango de frecuencia a 1250 Hz.
El 7 de mayo de 2010, utilizando una metodología mejorada (búsqueda de correlaciones globales en el espacio de parámetros para combinar de manera más efectiva los resultados de diferentes segmentos), se lanzó una nueva fase de la búsqueda (S5GC1), durante la cual 205 segmentos de datos de 25 horas cada uno de los dos telescopios gravitacionales deben ser analizados LIGO en Hanford y Livingston [3] [17] . El 26 de noviembre de 2010 se anunció la ampliación del rango de frecuencia analizado de 1200 a 1500 Hz (S5GC1HF) [27] .
En mayo de 2011 se inició el análisis de un nuevo dato (S6Bucket). El 5 de marzo de 2012 se anunció la implementación de un nuevo módulo computacional y el lanzamiento del experimento correspondiente (S6LV1, "LineVeto") [28] . El 14 de enero de 2013 se lanzó el experimento S6BucketLVE. El 17 de julio de 2013 se puso en marcha el experimento S6CasA [29] , cuyo objetivo es la búsqueda "dirigida" de ondas gravitacionales desde la dirección correspondiente a la supernova Cassiopeia A.
El 24 de marzo de 2009 se anunció que el proyecto estaba comenzando a analizar datos del consorcio PALFA del Observatorio de Arecibo en Puerto Rico (ABPS, ABP1, ABP2). Los datos que se procesan se obtuvieron utilizando un espectrómetro WAPP (el ancho de banda recibido es de 100 MHz, 256 canales).
Durante el análisis de los datos recopilados entre 2005 y 2007, se descubrieron dos púlsares de radio previamente desconocidos.
El 26 de noviembre de 2009, se anunció una aplicación (BRP3) compatible con la tecnología CUDA para buscar púlsares de radio dobles mientras se procesaba una nueva porción de datos recibidos del radiotelescopio Parkes Multibeam Pulsar Survey (PMPS [ 30 ] ). Durante los cálculos, utiliza tanto la CPU (que realiza la parte principal de los cálculos) como la GPU NVIDIA ( transformada de Fourier ), lo que reduce el tiempo total de cálculo unas 20 veces [31] . Durante el análisis, se descubrieron 23 nuevos radio-púlsares [6] y se redescubrieron más de 100 conocidos, incluidos púlsares de 8 milisegundos [32] .
El 1 de junio de 2011, se anunció el lanzamiento de un nuevo módulo computacional (FGRP1) para analizar datos del telescopio GLAST que opera en el rango de rayos gamma [33] . A finales de 2012 aparecieron las primeras tareas de cálculo para el experimento FGRP2, durante cuyo análisis se descubrieron 4 púlsares de rayos gamma en 2013 [8] . En enero de 2014, como parte del experimento FGRP3, se implementó un módulo computacional para buscar púlsares de rayos gamma utilizando una GPU. En 2015, se descubrió 1 púlsar de rayos gamma [34] .
El 21 de julio de 2011, se lanzó un nuevo experimento (BRP4) para procesar un nuevo lote de datos del observatorio de Arecibo. Los datos se obtuvieron utilizando un nuevo espectrómetro Jeff Mock de banda ancha (ancho de banda recibido: 300 MHz, 1024 canales), que lleva el nombre de su creador [35] . Al procesar trabajos, es posible utilizar tecnologías CUDA y OpenCL. En la actualidad, durante el procesamiento de datos experimentales, se han descubierto y redescubierto 24 y varias decenas de radio púlsares ya conocidos [7] . En 2013 se puso en marcha el experimento BRP5, cuyo objetivo es un estudio detallado del brazo de Perseo para la búsqueda de radio púlsares. En febrero de 2015 se lanzó el experimento BRP6 (PMPS XT), cuyo objetivo es ampliar el área de búsqueda de radio púlsares hacia frecuencias de rotación más altas.
15 radio púlsares descubiertos _ _ _ _ _ _ _ _ _ _ _ _ _ _ -1047 , PSR J1838-1848 , PSR J1821-0325 , PSR J1950+24 , PSR J1952+25 , PSR J1910+10 , PSR J1907+05 ).
30 púlsares de radio descubiertos _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ J1601-5023 , PSR J1726-3156 , PSR J1855+03 , PSR J1857+0259 , PSR J1901+0510 , PSR J1851+02 , PSR J1900+0439 , PSR J1953+24 , PSR J1305-66 , PSR J1637-46 J1652-48 , PSR J1838-01 , PSR J0811-38 , PSR J1750-25 , PSR J1858-07 , PSR J1748-30 , PSR J1626- 44 , PSR J1644-46 , PSR J1908+0831 , PSR J1903+06 , PSR J1912+09 ).
Se descubrieron 1 radio púlsar ( PSR J1859+03 ) y 4 púlsares de rayos gamma ( PSR J0554+3107 , PSR J1422-6138 , PSR J1522-5735 , PSR J1932+1916 ).
1 radio púlsar descubierto ( PSR J1910+07 ).
Se han descubierto 5 radio púlsares ( PSR J1948+28 , PSR J1953+28 , PSR J1955+29 , PSR J1853+00 , PSR J1853+0029 ) y 1 púlsar de rayos gamma ( PSR J1906+0722 ).
13 púlsares de rayos gamma descubiertos _ _ _ _ _ _ _ _ _ _ _ _ , PSR J1650-4601 , PSR J1827-1446 , PSR J1844-0346 , PSR J2017+3625 )
Discusión del proyecto en los foros:
Voluntarios de Informática | Proyectos|
---|---|
Astronomía |
|
biología y medicina |
|
cognitivo |
|
Climatizado |
|
Matemáticas |
|
Físico y técnico |
|
De múltiples fines |
|
Otro |
|
Utilidades |
|
Astronomía de ondas gravitacionales : detectores y telescopios | ||
---|---|---|
Interferométrico subterráneo (en funcionamiento) |
| |
Interferométrico terrestre (en funcionamiento) | ||
Conexión a tierra de otros (en funcionamiento) | ||
Terreno (planeado) | ||
Espacio (planificado) | LISA | |
histórico |
| |
Análisis de los datos | einstein@casa | |
Señales ( lista ) |