Astronomie

Existe-t-il un logiciel pour calculer/tracer des courbes de rotation décomposées à partir de données d'observation (FITS, etc.) ?

Existe-t-il un logiciel pour calculer/tracer des courbes de rotation décomposées à partir de données d'observation (FITS, etc.) ?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

J'ai des données d'observation des galaxies (au format FITS). À partir des données FITS, je souhaite calculer et tracer les courbes de rotation décomposées comme illustré ci-dessous. Existe-t-il un progiciel qui le fera (de préférence en Python) ?

Contexte : Je suis intéressé à trouver la distribution de masse radiale de la matière noire dans chaque galaxie. S'il existe déjà une base de données ou un catalogue de cela, alors me dire que ce serait encore mieux.

[Image de : Roos, Matts. (2010). Matière noire : Les preuves de l'astronomie, de l'astrophysique et de la cosmologie. ]


le Langage de données interactif (IDL) est un système logiciel propriétaire distribué par Solutions d'informations visuelles Exelis, Inc. (http://www.exelisvis.com), à l'origine Research Systems, Inc. IDL est né de programmes écrits pour l'analyse des données des missions de la NASA telles que Mariner et International Ultraviolet Explorer. Il est donc orienté vers une utilisation par les scientifiques et les ingénieurs dans l'analyse d'ensembles de données à une, deux ou trois dimensions. Exelis revendique plus de 150 000 utilisateurs.

IDL est actuellement disponible dans les versions LINUX, UNIX/Solaris, Windows et Macintosh. Les pilotes de périphérique IDL sont disponibles pour la plupart du matériel standard (terminaux, affichages d'images, imprimantes) pour l'affichage interactif de données d'images ou graphiques.

IDL n'est pas simplement un ensemble de routines orientées tâches dans le style des systèmes logiciels astronomiques tels que l'IRAF ou la CIAO. Au lieu de cela, c'est vraiment un ordinateur Langue, facilement compréhensible par tout utilisateur connaissant l'informatique. Il offre toute la puissance, la polyvalence et la programmabilité des langages de haut niveau tels que FORTRAN et C. Mais il intègre trois capacités spéciales qui sont essentielles pour l'analyse de données moderne :

Les utilisateurs familiarisés avec FORTRAN, C, C++ ou d'autres langages de haut niveau auront peu de mal à comprendre IDL. Sa syntaxe et son fonctionnement sont clairs, sensés et pratiques (très similaires à ceux du FORTRAN). Parce qu'il est interactif, l'apprentissage de l'IDL par essais et erreurs en ligne est rapide.

IDL offre au scientifique une meilleure compréhension et un meilleur contrôle des calculs et de l'analyse des données grâce à un grand nombre de fonctionnalités spéciales :

    • réponse rapide et itération,
    • accès immédiat à toutes les variables (stockées en RAM),
    • accès immédiat à tout le code source (à l'exception des routines propriétaires écrites par Exelis),
    • opérations de tableaux optimisées,
    • typage dynamique des variables et allocation mémoire,
    • compilation à la demande et enchaînement de routines,
    • routines de traçage et graphiques intégrées polyvalentes,
    • tenue d'un journal de session interactive,
    • rappel/modification de commande,
    • scripts de commandes,
    • structures de données,
    • spécification flexible des paramètres dans les appels de sous-programmes,
    • syntaxe structurée,
    • intégration complète avec les systèmes Windows,
    • prise en charge de tous les protocoles d'E/S scientifiques courants,
    • Widgit (GUI) et programmation orientée objet, et
    • une grande suite de routines mathématiques, d'analyse de données et d'utilitaires interactifs spéciaux.

    Huit versions d'IDL sont parues à ce jour. La version 8.1 est la dernière.


    Résumé en langage clair

    La mission Origins, Spectral Interpretation, Resource Identification, Security, Regolith Explorer (OSIRIS-REx) a découvert que l'astéroïde proche de la Terre (101955) Bennu éjecte périodiquement de petites particules de sa surface, le plaçant dans la classe peu commune des « astéroïdes actifs ». Nous avons relié les détections individuelles de particules éjectées et utilisé des modèles numériques des forces agissant sur elles pour déterminer leurs trajectoires et leurs destins. Nous avons découvert que la plupart des particules ont des trajectoires suborbitales, ce qui signifie qu'elles retombent à la surface de Bennu peu de temps après avoir été éjectées, mais certaines orbitent autour de Bennu pendant des jours et d'autres s'échappent directement dans l'espace. A partir des trajectoires des particules, nous sommes en mesure d'estimer leurs tailles (comparables à des cailloux, de quelques millimètres à quelques centimètres de diamètre) et leurs formes (probablement des flocons). Leurs trajectoires permettent également d'estimer le champ de gravité de Bennu plus précisément que les mesures des engins spatiaux et aident à faire la lumière sur les causes possibles des éjections.


    2. SUPPORT DE PRESSION POUR LA ROTATION

    La vitesse circulaire d'une particule d'essai sur une orbite circulaire est définie comme

    pour un système axisymétrique, où (r) est le potentiel gravitationnel. Si le système est en équilibre, la force radiale vers l'intérieur due à la gravité doit être équilibrée par une force extérieure égale. Traditionnellement, on suppose que la force vers l'extérieur est entièrement dominée par la force centripète due à la rotation avec une vitesse Vθ, tel que

    M(<r) est la masse contenue avec un rayon r, en supposant que le potentiel est approximativement sphéroïdal et donc qu'il n'y a pas de force gravitationnelle significative de la masse à des rayons plus grands. Cette équation suppose implicitement que tout le matériau à un rayon donné se déplace avec la vitesse circulaire et que la vitesse tangentielle observée Vθ obéit

    Cependant, dans la plupart des cas Vθ(r) (la "courbe de rotation") est mesurée en utilisant le gaz comme traceur. Contrairement aux particules d'essai idéales, le gaz (généralement H i neutre ou H ii ionisé ) peut subir une force extérieure supplémentaire due à la pression. Cette pression de gaz peut potentiellement fournir un support radial supplémentaire au disque gazeux en rotation. La force vers l'extérieur qui en résulte permet au gaz dans le disque de tourner plus lentement que la vitesse circulaire, tout en maintenant une orbite circulaire stable. Dans de tels cas, l'interprétation de la vitesse angulaire observée Vθ comme la vitesse circulaire Vc conduirait à sous-estimer la masse à l'intérieur r.

    Estimer l'importance de l'aide inspiratoire dans la modification Vθ, on considère une parcelle de gaz au rayon r à l'intérieur d'un disque en rotation. On suppose que le gaz a une densité dans un volume dV = docteur dA (où dA est la surface du volume normal au rayon), donnant une masse dM = docteur dA. Pour une orbite circulaire stable, les forces radiales doivent être en équilibre, donnant

    Fgrave, Fpourrir, et FP sont les forces dues à la gravité, à l'accélération centripète et au gradient de pression, respectivement.

    Si nous supposons que le potentiel gravitationnel est dominé par une composante de masse approximativement sphéroïdale (comme on pourrait s'y attendre pour les galaxies de type tardif avec des disques à faible densité de surface), alors la force gravitationnelle radiale Fgrave = −∇rest

    La force due à l'accélération centripète est

    et la force due au gradient de pression est

    Remplacement dans l'équation d'équilibre des forces, annulation dM, et réorganiser les rendements

    Pour calculer le gradient de pression radial, nous supposons que la pression du gaz est dominée par des mouvements turbulents, plutôt que par des processus thermiques. On peut ainsi approximer la pression de gaz locale comme

    gaz est la densité du gaz et 2 est la dispersion de vitesse unidimensionnelle. La densité du gaz et la dispersion de la vitesse ont tendance à diminuer avec le rayon, conduisant à un gradient radial de la pression, qui produit une force vers l'extérieur. Si l'on suppose que le disque de gaz a une épaisseur constante (par exemple, Kregel et al. 2004 Bottema et al. 1986) 2 , alors ρ(r) ∝ Σ(r) où (r) est la masse volumique surfacique du disque de gaz. L'équation (9) devient alors

    r est la composante radiale de l'ellipsoïde de dispersion de la vitesse du gaz.

    L'équation (11) peut être utilisée pour calculer la vraie vitesse circulaire Vc à partir des grandeurs observables Vθ, Σ et σ, en supposant que l'on puisse estimer σr à partir de la dispersion de vitesse H i. Nous discuterons de cette dernière hypothèse dans la section 5.1 ci-dessous. Notez également que la taille de la correction à Vc ne dépend pas de la valeur absolue de la densité surfacique du gaz et dépend uniquement de son taux de variation fractionnaire avec le rayon.

    L'équation (11) suggère que la vitesse tangentielle observée peut différer significativement de la vraie vitesse circulaire dans les régions où les vitesses turbulentes sont du même ordre que la vitesse de rotation. De plus, il montre que la force du support de pression dépend du taux fractionnaire de changement des vitesses turbulentes et de la densité de surface du gaz avec le rayon. Galaxies avec des valeurs de en déclin rapider ou Σ aura un appui inspiratoire plus important, pour le même σr.

    Dans la plupart des applications, les expressions complètes pour σr(r) et (r) peut être utilisé dans l'équation (11). Cependant, il est instructif de simplifier l'expression en supposant que la densité de surface du gaz et la vitesse turbulente unidimensionnelle diminuent radialement comme des exponentielles avec des longueurs d'échelle hr et hσ, respectivement. Si c'est le cas, alors l'équation d'équilibre des forces devient

    où nous avons défini une longueur d'échelle de pression hP comme

    Empiriquement, la densité du gaz diminue beaucoup plus fortement avec le rayon que la dispersion de la vitesse (section 3.1.1). Par conséquent, la r/hr terme dominera généralement, de sorte que hPhr.

    Alternativement, nous pouvons tenter d'estimer la pression directement à partir de la densité de surface du gaz. Jung et al. (2009) utilisent des simulations de grille hydrodynamique pour calculer la pression turbulente dans les couches de gaz stratifiées, après avoir adopté une relation de loi de puissance entre la densité de gaz et le taux de formation d'étoiles. Ils constatent que la pression turbulente évolue avec le taux de formation d'étoiles par unité de surface Σsfr aimer

    qui, pour une loi de Schmidt (Σsfr ∝ Σ 1.4 Kennicutt 1998), donne une relation de loi de puissance entre la pression turbulente et la densité surfacique locale du gaz :

    Notez que l'exposant diffère de l'équation de Joung et al. (20) pour la relation entre la pression turbulente et la densité du gaz ρ, en raison des variations de la hauteur de l'échelle de gaz avec la densité du gaz et le taux de formation d'étoiles. Avec l'équation (15), nous convertissons l'équation (9) en une forme où la force du σ 2 r terme dépend uniquement de la densité du gaz :

    Pour une distribution de gaz exponentielle, cette équation se réduit à

    qui est comparable à l'équation (12) si hPhr/0,92. A titre de comparaison, notre première dérivation de la correction de Vc (Équation (13)) suggère que hPhr/1.4 pour hσ ≈ 5hr (Section 3.1.1 ci-dessous). Le Jung et al. (2009) la prescription devrait donc produire des changements de Vθ qui sont plus petits que ceux de l'équation (12) par

    60%, pour la même dispersion de vitesse et le même profil de densité de surface de gaz. Notez, cependant, que l'étude de Joung et al. (2009) la prescription dans l'équation (14) n'a pas encore été calibrée dans le régime d'efficacité de formation d'étoiles faible, dans lequel l'exposant sur la relation entre la densité de surface du gaz et le taux de formation d'étoiles est généralement beaucoup plus raide que celui adopté pour une loi de Schmidt (par exemple , Bigiel et al. 2008).

    Sauf indication contraire, cependant, nous conserverons la forme plus générale de l'équation (11) lors du calcul des effets du support de pression.


    3. SÉLECTION D'ÉTOILES VARIABLES

    Pour rechercher des variations périodiques, nous utilisons l'algorithme d'ajustement harmonique AoVHarm (Schwarzenberg-Czerny 1996) et l'algorithme Box-Least-Squares (BLS Kovács et al. 2002) tels qu'implémentés dans le programme VARTOOLS 6 (Hartman et al. 2008). Nous effectuons également une recherche d'événements de type flare dans les courbes de lumière. Nous appliquons les algorithmes AoVHarm et BLS aux courbes de lumière EPD et TFA des sources, lorsqu'elles sont disponibles. Pour la recherche des reflets, nous utilisons uniquement les courbes de lumière EPD car l'écrêtage appliqué aux courbes de lumière TFA peut supprimer les véritables reflets.

    En plus des recherches mentionnées ci-dessus, nous avons également testé le périodogramme AoV à division de phase (AoV Schwarzenberg-Czerny 1989) et la fonction d'auto-corrélation discrète (DACF Edelson & Krolik 1988) pour rechercher des signaux périodiques et quasi-périodiques. Nous avons constaté que ces deux techniques produisent un nombre substantiel de détections de fausses alarmes qui doivent ensuite être éliminées à l'œil nu (pour la technique DACF, plus de la moitié des variables potentielles sélectionnées ont été déterminées comme étant de fausses alarmes lors d'une inspection visuelle des courbes lumineuses) , et seulement un nombre relativement faible de détections qui sont visuellement jugées robustes et qui ne sont pas également sélectionnées par la technique AoVHarm. Nous n'allons donc pas nous intéresser davantage à ces méthodes.

    Dans les sous-sections suivantes, nous discutons tour à tour des recherches AoVHarm, BLS et flare. Le catalogue d'étoiles variables qui en résulte est présenté en annexe.

    3.1. AoV harmonique

    Nous exécutons l'algorithme AoVHarm (Schwarzenberg-Czerny 1996) sur l'échantillon complet d'étoiles. Nous appliquons d'abord un écrêtage itératif de 5σ sur la courbe de lumière avant de rechercher des périodes comprises entre 0,1 et 100 jours. Nous exécutons l'algorithme en utilisant un modèle sinusoïdal sans harmoniques supérieures (il est donc comparable aux méthodes DFT, ou à la technique populaire Lomb-Scargle Lomb 1976 Scargle 1982), et générons le périodogramme à une résolution de fréquence de 0,1/T, où T est la durée totale couverte par une courbe de lumière donnée. Nous déterminons ensuite le pic à une résolution 10 fois plus élevée. Comme figure de mérite, nous utilisons le S/N, avec un écrêtage itératif de 5σ appliqué au périodogramme dans le calcul du bruit (la valeur efficace du périodogramme).

    Pour sélectionner les variables, nous regroupons les courbes de lumière par le post-traitement appliqué (EPD ou TFA), le format CCD (2k ou 4k), et la magnitude de la source. Nous adoptons un seuil de sélection distinct sur le S/N pour chaque groupe. Les seuils ont la forme

    Les valeurs adoptées de S/N0 vont de 20 à 40, tandis que les valeurs adoptées de vont de 0 à 0,5. Nous utilisons P0 = 4 jours pour tous les groupes. Pour établir la probabilité de fausse alarme (FAP) associée à ces seuils S/N, nous avons simulé des courbes lumineuses de bruit blanc avec un échantillonnage temporel tiré au hasard à partir des courbes lumineuses HATNet, calculé le périodogramme AoVHarm pour chaque simulation et déterminé le S/N du pic le plus élevé dans chaque périodogramme en utilisant la même procédure que pour les courbes de lumière réelle. Nous trouvons que le FAP en fonction du S/N est bien ajusté par une fonction de la forme :

    Une coupure à S/N >20 correspond donc à un FAP de

    2 × 10 -5 tandis qu'une coupure à S/N >40 correspond à un FAP de

    4 × 10 -13 . Le nombre total attendu de fausses alarmes pour notre échantillon d'étoiles est donc inférieur à 1. La figure 4 montre le S/N AoVHarm en fonction de la période de pointe pour différents groupes de courbes lumineuses. Les seuils adoptés augmentent en fonction de la période pour tenir compte des erreurs systématiques temporellement corrélées dans la photométrie. En plus de cette sélection, nous rejetons également les détections avec des périodes proches de 1 jour sidéral, d'une de ses harmoniques, ou d'autres périodes qui apparaissent comme des pointes dans l'histogramme des périodes détectées (ce dernier comprend des périodes entre 5,71 et 5,80 jours). Pour les courbes de lumière composites qui contiennent à la fois des observations 2k et 4k, nous prenons

    où et sont la fraction des points de la courbe de lumière qui proviennent des observations 2k et 4k, et S/N et S/N sont les seuils 2k et 4k à la période de la courbe de lumière composite.

    Figure 4. Période vs S/N de AoVHarm pour quatre groupes de courbes de lumière représentatifs. Nous montrons les courbes de lumière qui réussissent la sélection automatique et sont signalées comme des détections fiables lors de l'inspection oculaire (points remplis de noir) et les courbes de lumière qui ne passent pas la sélection ou sont signalées comme des détections non fiables (points remplis de gris) séparément. Les lignes montrent la coupure S/N adoptée en fonction de la période. A noter qu'en plus de la coupure indiquée par le trait, on rejette aussi automatiquement les courbes de lumière pour lesquelles la période de pointe est proche d'un jour sidéral ou d'une harmonique d'un jour sidéral.

    Notre seuil de sélection dépasse un total de 1337 courbes de lumière EPD et 1717 courbes de lumière TFA. Ceux-ci sont inspectés à l'œil nu pour rejeter les fausses alarmes évidentes et pour identifier les EB. Il y a 1082 courbes de lumière EPD que nous jugeons montrer une variabilité claire, continue et périodique, 34 qui montrent des éclipses, 185 que nous considérons comme douteuses (celles-ci sont incluses dans le catalogue, mais signalées comme douteuses) et 36 que nous rejetons. Pour les courbes de lumière TFA, les nombres respectifs sont 1443, 43, 217 et 14. Notez que la distinction entre la variabilité "claire" et les cas "discutables" est assez subjective. Généralement nous exigeons que les variations soient évidentes à l'œil pour des périodes de 30 jours pour des périodes plus courtes nous considérons que la sélection est discutable s'il apparaît que la sélection de variabilité peut être due à une dispersion accrue sur quelques nuits.

    3.2. BLS : recherche d'éclipses

    L'algorithme BLS, principalement utilisé dans la recherche de planètes en transit, détecte les creux périodiques en forme de boîte dans une courbe de lumière. Cet algorithme peut être plus sensible aux binaires détachés avec des courbes de lumière nettes que les autres méthodes utilisées. Pour notre implémentation de l'algorithme BLS, nous recherchons 9000 points de fréquence régulièrement espacés couvrant une plage de période de 0,1 à 1,0 jour et 100 000 points de fréquence régulièrement espacés couvrant une plage de période de 1,0 à 20,0 jours. À chaque fréquence d'essai, nous répartissons la courbe de lumière phasée en 200 cases et recherchons des durées d'éclipse fractionnaires allant de 0,01 à 0,1 en phase. La figure 5 montre le S/N en fonction de la période pour les courbes de lumière EPD et TFA. Nous sélectionnons 752 étoiles avec S/N > 10,0 et avec une période non proche d'un jour sidéral ou d'une harmonique d'un jour sidéral comme systèmes potentiellement éclipsants. Les courbes de lumière sélectionnées sont inspectées à l'œil nu pour identifier les systèmes d'éclipse. Un total de 89 systèmes EB candidats sont trouvés de cette manière, huit sont trouvés dans les courbes de lumière EPD uniquement, 29 sont trouvés dans les courbes de lumière TFA uniquement, et 52 sont trouvés dans les courbes de lumière EPD et TFA.

    Figure 5. Période vs. S/N de BLS pour les courbes de lumière EPD et TFA. Les points sombres montrent des courbes claires qui dépassent le seuil S/N > 10, n'ont pas de période proche d'un jour sidéral ou de l'un de ses harmoniques, et sont sélectionnés comme binaires à éclipse lors de l'inspection visuelle. Les points gris montrent toutes les autres courbes de lumière.

    3.3. Rechercher des fusées éclairantes

    Comme indiqué dans l'introduction, le torchage est un phénomène courant chez les naines K et M. Pendant que nous inspections les courbes de lumière des étoiles variables candidates, nous avons remarqué un certain nombre d'étoiles montrant des éruptions importantes. Nous avons donc décidé de mener une recherche systématique des événements de flare dans les courbes de lumière. La plupart des éruptions stellaires optiques montrent une montée très abrupte qui dure généralement de quelques secondes à plusieurs minutes.Krautter (1996) note que les éruptions peuvent être divisées en deux classes en fonction de leurs temps de décroissance : les éruptions "impulsives" ont des temps de décroissance de quelques minutes à quelques dizaines de minutes, tandis que les éruptions "à décroissance longue" ont des temps de décroissance allant jusqu'à quelques heures. En raison de l'échantillonnage de 5 minutes des courbes de lumière HATNet, les éruptions du premier type n'affecteront qu'une ou deux observations dans une courbe de lumière, à moins que la hauteur du pic ne soit exceptionnellement grande, tandis que les éruptions de ce dernier type peuvent affecter des dizaines d'observations. En général, il est très difficile de déterminer si une valeur aberrante donnée dans une courbe de lumière est due à un flare ou à une mauvaise photométrie sans inspecter les images à partir desquelles une observation a été obtenue. C'est peu pratique à faire pour des dizaines de milliers de courbes de lumière lorsque chaque courbe de lumière peut contenir des dizaines à des centaines de valeurs aberrantes. Alors que les observations potentiellement corrompues sont signalées, dans la pratique, les routines automatisées qui génèrent ces indicateurs ne détectent pas tous les cas de mauvaise photométrie. Nous n'essayons donc pas d'identifier des flares individuels « impulsifs » affectant seulement quelques points des courbes lumineuses. Cependant, les éruptions à longue décroissance ou les éruptions impulsives de très haute amplitude peuvent être recherchées de manière automatisée si une forme fonctionnelle de la décroissance est supposée (cela est similaire à la recherche d'événements de microlentille voir, par exemple, Nataf et al. 2009 ). Pour rechercher des éruptions à longue décroissance, nous avons utilisé l'algorithme suivant.

    Nous appliquons l'algorithme ci-dessus aux courbes de lumière EPD non composites (c'est-à-dire que les courbes de lumière de chaque champ sont traitées indépendamment pour les étoiles avec des courbes de lumière provenant de plusieurs champs). L'algorithme est appliqué à la fois sur les courbes de lumière EPD brutes et sur les courbes de lumière EPD qui sont filtrées passe-haut en soustrayant de chaque point la médiane de tous les points qui se trouvent à moins de 0,1 jour de ce point. Il y a un total de 23 589 étoiles avec des courbes de lumière EPD qui sont analysées. Nous excluons de l'analyse 3971 étoiles de l'échantillon complet pour lesquelles seules les courbes de lumière TFA -écrêtées sont disponibles. Un total de 320 événements candidats d'éruption provenant de 281 étoiles sont sélectionnés. Ceux-ci sont inspectés à l'œil nu pour fournir l'échantillon final de 64 événements d'éruption provenant de 60 étoiles. Au cours de l'inspection visuelle, nous avons amélioré l'ajustement automatisé de certains des évasements en ajustant manuellement la plage de points utilisés dans l'ajustement. La figure 6 montre deux exemples de ces éruptions de grande amplitude et à longue décroissance. Les éruptions identifiées ont des intensités maximales qui vont de UNE = 0,07 à UNE = 4,21 et des échelles de temps de décroissance allant de τ

    Figure 6. Trois exemples de fusées éclairantes vues dans les courbes de lumière HATNet. Dans chaque cas, la ligne continue montre l'ajustement de l'équation (9) à la courbe de lumière.

    3.4. Recherche indépendante de variables périodiques dans un sous-ensemble de l'échantillon nain K/M

    Afin de vérifier la fiabilité de nos détections d'étoiles variables, une sélection indépendante de variables a été effectuée sur un sous-ensemble de l'échantillon de naines K/M. Au total, 3187 courbes de lumière ont été analysées à partir de sept champs HATNet différents à l'aide de la méthode DFT décrite par Szulágyi et al. (2009). Les courbes lumineuses ont été nettoyées des tendances en utilisant 700 courbes lumineuses modèles TFA pour chaque champ, et un polynôme est ajusté et soustrait du spectre de puissance DFT pour chaque courbe lumineuse afin de corriger davantage le bruit rouge. Les courbes de lumière avec S/N >8 ont été sélectionnées comme variables. Une recherche itérative de fréquences de variabilité supplémentaires a été menée sur chacune de ces courbes de lumière en ajustant successivement une série de Fourier à la courbe de lumière et en calculant le spectre de puissance DFT du résidu. Deux exemples de variables multipériodiques ainsi identifiées sont discutés à la section 6.4. Un total de 4,6% des courbes de lumière analysées ont été sélectionnées par cette méthode, 80% d'entre elles ont également été sélectionnées comme variables par la méthode AoVHarm. En revanche, 40% des variables sélectionnées par AoVHarm appliquées aux courbes de lumière TFA de ces champs n'ont pas été sélectionnées par DFT. Plusieurs facteurs contribuent à ces différences. Les différences dans le nombre de modèles TFA utilisés, dans les seuils de sélection adoptés, dans le filtrage appliqué au spectre de puissance et dans l'utilisation des courbes de lumière composites (l'analyse DFT n'a pas utilisé de courbes de lumière composites pour les étoiles observées dans plus de un champ). En général, les courbes de lumière TFA avec AoVHarm S/N 100 sont sélectionnées à la fois par les méthodes DFT et AoVHarm.


    Comprendre les e-mails et les crimes sur Internet

    Littlejohn Shinder , Michael Cross , dans Scene of the Cybercrime (deuxième édition) , 2008

    Déterminer si quelque chose est légalement de la pornographie juvénile

    Dans le cas de 1996 États-Unis c. Dost, un juge fédéral a suggéré une méthode d'évaluation des images en six étapes afin de déterminer si l'image nue d'un enfant pouvait être considérée comme légale ou illégale. Les critères étaient les suivants :

    Si le point focal était les organes génitaux ou le pubis de l'enfant

    Si le cadre de la représentation visuelle était sexuellement suggestif

    Si l'enfant portait une tenue inappropriée ou une pose non naturelle

    Si l'enfant était entièrement, partiellement ou complètement nu

    Si la représentation visuelle suggérait de la timidité ou une volonté de s'engager dans une activité sexuelle

    Si la représentation visuelle était destinée ou conçue pour susciter une réponse sexuelle de la personne qui la regarde

    Bien que la liste des facteurs ne soit pas exhaustive et que d'autres aspects d'une image puissent être pertinents, les facteurs Dost fournissent une bonne mesure pour déterminer si une image est illégale. Ils abordent le fait que, simplement parce que la nudité est présente, l'étiqueter comme de la pornographie juvénile peut ne pas être applicable.

    Sites de modélisation pour enfants

    Comme avec la plupart des sites de mannequins pour enfants, les enfants apparaissent avec la permission du parent ou du tuteur légal, car l'enfant est trop jeune pour donner son consentement. La raison pour laquelle les parents ont autorisé les photographies allait de la collecte de fonds pour l'université (comme dans le cas du site défunt Lil' Amber qui présentait une fille de 9 ans) à l'obtention d'une exposition pour des emplois de mannequin légitimes - ni l'un ni l'autre n'étant particulièrement bonne raison de créer des images sexualisées d'un enfant. En 2002, le représentant Mark Foley s'est engagé dans la lutte contre ce type d'exploitation et a présenté un projet de loi intitulé Child Modelling Exploitation Prevention Act, qui interdirait la vente de photographies de mineurs. Inutile de dire que cela aurait un impact sur les sociétés de mannequins légitimes et d'autres entreprises, et en raison de l'opposition, le projet de loi n'a jamais quitté le comité. Quant au représentant Mark Foley, il a démissionné en 2006 après qu'ABC News ait signalé ses e-mails inappropriés et ses messages instantanés (IM) sexuellement explicites à des pages d'adolescents.


    Contenu

    L'ACP a été inventée en 1901 par Karl Pearson, [7] en tant qu'analogue du théorème de l'axe principal en mécanique, il a ensuite été développé indépendamment et nommé par Harold Hotelling dans les années 1930. [8] Selon le domaine d'application, on l'appelle également la transformée de Karhunen-Loève discrète (KLT) en traitement du signal, la transformée de Hotelling en contrôle qualité multivarié, la décomposition orthogonale appropriée (POD) en génie mécanique, la décomposition en valeurs singulières (SVD ) de X (inventé dans le dernier quart du 19ème siècle [9] ), la décomposition en valeurs propres (EVD) de X T X en algèbre linéaire, l'analyse factorielle (pour une discussion des différences entre l'ACP et l'analyse factorielle, voir Ch. 7 de Jolliffe's Analyse des composants principaux), [10] Théorème d'Eckart-Young (Harman, 1960), ou fonctions orthogonales empiriques (EOF) en science météorologique, décomposition empirique des fonctions propres (Sirovich, 1987), analyse des composantes empiriques (Lorenz, 1956), modes quasiharmoniques (Brooks et al ., 1988), la décomposition spectrale en bruit et vibration, et l'analyse modale empirique en dynamique des structures.

    L'ACP peut être considérée comme s'adaptant à un pellipsoïde -dimensionnel aux données, où chaque axe de l'ellipsoïde représente une composante principale. Si un axe de l'ellipsoïde est petit, alors la variance le long de cet axe est également petite.

    Pour trouver les axes de l'ellipsoïde, nous devons d'abord soustraire la moyenne de chaque variable de l'ensemble de données pour centrer les données autour de l'origine. Ensuite, nous calculons la matrice de covariance des données et calculons les valeurs propres et les vecteurs propres correspondants de cette matrice de covariance. Ensuite, nous devons normaliser chacun des vecteurs propres orthogonaux pour les transformer en vecteurs unitaires. Une fois cela fait, chacun des vecteurs propres unitaires mutuellement orthogonaux peut être interprété comme un axe de l'ellipsoïde ajusté aux données. Ce choix de base transformera notre matrice de covariance en une forme diagonalisée avec les éléments diagonaux représentant la variance de chaque axe. La proportion de la variance que chaque vecteur propre représente peut être calculée en divisant la valeur propre correspondant à ce vecteur propre par la somme de toutes les valeurs propres.

    L'ACP est définie comme une transformation linéaire orthogonale qui transforme les données en un nouveau système de coordonnées de telle sorte que la plus grande variance par une projection scalaire des données se situe sur la première coordonnée (appelée la première composante principale), la deuxième plus grande variance sur le deuxième coordonnée, et ainsi de suite. [dix] [ page nécessaire ]

    Considérons une matrice de données n × p , X, avec une moyenne empirique nulle par colonne (la moyenne d'échantillon de chaque colonne a été décalée à zéro), où chacun des m lignes représente une répétition différente de l'expérience, et chacun des p colonnes donne un type particulier de caractéristique (par exemple, les résultats d'un capteur particulier).

    Premier composant Modifier

    Afin de maximiser la variance, le premier vecteur de poids w(1) doit donc satisfaire

    De manière équivalente, écrire ceci sous forme matricielle donne

    Depuis w(1) a été défini comme un vecteur unitaire, il satisfait également de manière équivalente

    La quantité à maximiser peut être reconnue comme un quotient de Rayleigh. Un résultat standard pour une matrice semi-définie positive telle que X T X est que la valeur maximale possible du quotient est la plus grande valeur propre de la matrice, ce qui se produit lorsque w est le vecteur propre correspondant.

    Avec w(1) trouvé, la première composante principale d'un vecteur de données X(je) peut alors être donné comme un score t1(je) = X(je)w(1) dans les coordonnées transformées, ou comme vecteur correspondant dans les variables d'origine, <X(je)w(1)> w(1).

    Autres composants Modifier

    le k-ème composant peut être trouvé en soustrayant le premier k − 1 composants principaux de X:

    puis trouver le vecteur de poids qui extrait la variance maximale de cette nouvelle matrice de données

    Il s'avère que cela donne les vecteurs propres restants de X T X, avec les valeurs maximales de la quantité entre parenthèses données par leurs valeurs propres correspondantes. Ainsi, les vecteurs de poids sont des vecteurs propres de X T X.

    le k-ième composante principale d'un vecteur de données X(je) peut donc être donné comme un score tk(je) = X(je)w(k) dans les coordonnées transformées, ou comme vecteur correspondant dans l'espace des variables d'origine, <X(je)w(k)> w(k), où w(k) est le kle vecteur propre de X T X.

    La décomposition complète des principaux composants de X peut donc être donné comme

    W est un p-par-p matrice de poids dont les colonnes sont les vecteurs propres de X T X. La transposition de W est parfois appelée transformation de blanchiment ou de sphère. Colonnes de W multiplié par la racine carrée des valeurs propres correspondantes, c'est-à-dire les vecteurs propres agrandis par les variances, sont appelés chargements en ACP ou en Analyse factorielle.

    Covariances Modifier

    X T X lui-même peut être reconnu comme proportionnel à la matrice de covariance de l'échantillon empirique de l'ensemble de données X T . [10] : 30–31

    La covariance de l'échantillon Q entre deux des différentes composantes principales sur l'ensemble de données est donnée par :

    où la propriété aux valeurs propres de w(k) a été utilisé pour passer de la ligne 2 à la ligne 3. Cependant les vecteurs propres w(j) et w(k) correspondant aux valeurs propres d'une matrice symétrique sont orthogonales (si les valeurs propres sont différentes), ou peuvent être orthogonalisées (si les vecteurs partagent une valeur répétée égale). Le produit de la ligne finale est donc nul, il n'y a donc pas de covariance d'échantillon entre les différentes composantes principales sur l'ensemble de données.

    Une autre façon de caractériser la transformation des composantes principales est donc la transformation en coordonnées qui diagonalisent la matrice de covariance de l'échantillon empirique.

    Sous forme matricielle, la matrice de covariance empirique pour les variables d'origine peut être écrite

    La matrice de covariance empirique entre les composantes principales devient

    Λ est la matrice diagonale des valeurs propres λ(k) de X T X. λ(k) est égal à la somme des carrés sur l'ensemble de données associé à chaque composant k, C'est, λ(k) = ∑je tk 2 (je) = ∑je (X(je)w(k)) 2 .

    Réduction de la dimensionnalité Modifier

    La transformation T = X W mappe un vecteur de données X(je) d'un espace original de p variables vers un nouvel espace de p variables non corrélées sur l'ensemble de données. Cependant, tous les composants principaux ne doivent pas être conservés. Ne garder que le premier L composants principaux, produits en utilisant uniquement les premiers L vecteurs propres, donne la transformation tronquée

    où la matrice TL a maintenant m lignes mais seulement L Colonnes. En d'autres termes, PCA apprend une transformation linéaire t = W L T x , x R p , t R L , ^>x,xdans R^

    ,tdans R^,> où les colonnes de p × L matrice W L > former une base orthogonale pour le L caractéristiques (les composants de la représentation t) qui sont décorrélés. [11] Par construction, de toutes les matrices de données transformées avec seulement L colonnes, cette matrice de scores maximise la variance des données originales qui ont été préservées, tout en minimisant l'erreur de reconstruction quadratique totale ‖ T W T − T L W L T ‖ 2 2 mathbf ^-mathbf _mathbf _^|_<2>^<2>> ou ‖ X − X L ‖ 2 2 -mathbf _|_<2>^<2>> .

    Une telle réduction de dimensionnalité peut être une étape très utile pour visualiser et traiter des ensembles de données de grande dimension, tout en conservant autant de variance que possible dans l'ensemble de données. Par exemple, en sélectionnant L = 2 et en ne gardant que les deux premiers composants principaux, on trouve le plan bidimensionnel à travers l'ensemble de données de grande dimension dans lequel les données sont le plus dispersées, donc si les données contiennent des clusters, ceux-ci peuvent également être les plus dispersés, et donc les plus visibles pour être tracées dans un diagramme à deux dimensions alors que si deux directions à travers les données (ou deux des variables d'origine) sont choisies au hasard, les grappes peuvent être beaucoup moins éloignées les unes des autres, et peuvent en fait être beaucoup plus susceptibles de se superposent sensiblement, ce qui les rend indiscernables.

    De même, dans l'analyse de régression, plus le nombre de variables explicatives autorisées est grand, plus le risque de surajustement du modèle est grand, produisant des conclusions qui ne peuvent pas être généralisées à d'autres ensembles de données. Une approche, en particulier lorsqu'il existe de fortes corrélations entre différentes variables explicatives possibles, consiste à les réduire à quelques composantes principales, puis à exécuter la régression par rapport à elles, une méthode appelée régression en composantes principales.

    La réduction de la dimensionnalité peut également être appropriée lorsque les variables d'un ensemble de données sont bruitées. Si chaque colonne de l'ensemble de données contient un bruit gaussien indépendant distribué de manière identique, alors les colonnes de T contiendra également un bruit gaussien distribué de manière similaire (une telle distribution est invariante sous les effets de la matrice W, qui peut être considérée comme une rotation de grande dimension des axes de coordonnées). Cependant, avec une plus grande partie de la variance totale concentrée dans les premières composantes principales par rapport à la même variance de bruit, l'effet proportionnel du bruit est moindre : les premières composantes atteignent un rapport signal/bruit plus élevé. L'ACP peut ainsi avoir pour effet de concentrer une grande partie du signal dans les premières composantes principales, qui peuvent être utilement capturées par réduction de dimensionnalité tandis que les dernières composantes principales peuvent être dominées par le bruit, et donc éliminées sans grande perte. Si l'ensemble de données n'est pas trop volumineux, la signification des composantes principales peut être testée à l'aide d'un bootstrap paramétrique, pour aider à déterminer le nombre de composantes principales à retenir. [12]

    Décomposition en valeur singulière Modifier

    La transformation en composantes principales peut également être associée à une autre factorisation matricielle, la décomposition en valeur singulière (SVD) de X,

    Ici Σ est un m-par-p matrice diagonale rectangulaire de nombres positifs σ(k), appelées valeurs singulières de X U est un m-par-m matrice dont les colonnes sont des vecteurs unitaires orthogonaux de longueur m appelé vecteurs singuliers à gauche de X et W est un p-par-p dont les colonnes sont des vecteurs unitaires orthogonaux de longueur p et appelé les bons vecteurs singuliers de X.

    Au regard de cette factorisation, la matrice X T X peut être écrit

    En utilisant la décomposition en valeurs singulières de la matrice des scores T peut être écrit

    donc chaque colonne de T est donnée par l'un des vecteurs singuliers à gauche de X multiplié par la valeur singulière correspondante. Cette forme est aussi la décomposition polaire de T.

    Des algorithmes efficaces existent pour calculer le SVD de X sans avoir à former la matrice X T X, donc le calcul du SVD est maintenant le moyen standard de calculer une analyse en composantes principales à partir d'une matrice de données [ citation requise ] , à moins que seule une poignée de composants soit requise.

    Comme pour la décomposition propre, une m × L matrice de scores TL peut être obtenu en ne considérant que les L premières plus grandes valeurs singulières et leurs vecteurs singuliers :

    La troncature d'une matrice M ou alors T l'utilisation d'une décomposition en valeur singulière tronquée de cette manière produit une matrice tronquée qui est la matrice de rang la plus proche possible L à la matrice d'origine, au sens de la différence entre les deux ayant la plus petite norme de Frobenius possible, un résultat connu sous le nom de théorème d'Eckart-Young [1936].

    Étant donné un ensemble de points dans l'espace euclidien, la première composante principale correspond à une droite qui passe par la moyenne multidimensionnelle et minimise la somme des carrés des distances des points à la droite. La deuxième composante principale correspond au même concept après que toute corrélation avec la première composante principale a été soustraite des points. Les valeurs singulières (en Σ) sont les racines carrées des valeurs propres de la matrice X T X. Chaque valeur propre est proportionnelle à la portion de la « variance » (plus exactement de la somme des carrés des distances des points à leur moyenne multidimensionnelle) qui est associée à chaque vecteur propre. La somme de toutes les valeurs propres est égale à la somme des carrés des distances des points à leur moyenne multidimensionnelle. L'ACP fait essentiellement pivoter l'ensemble de points autour de leur moyenne afin de s'aligner sur les composants principaux. Cela déplace autant de variance que possible (en utilisant une transformation orthogonale) dans les premières dimensions. Les valeurs dans les dimensions restantes ont donc tendance à être petites et peuvent être supprimées avec une perte d'information minimale (voir ci-dessous). L'ACP est souvent utilisé de cette manière pour la réduction de la dimensionnalité. L'ACP a la particularité d'être la transformation orthogonale optimale pour conserver le sous-espace qui a la plus grande "variance" (telle que définie ci-dessus). Cet avantage se fait cependant au prix d'exigences de calcul plus importantes si on le compare, par exemple, et le cas échéant, à la transformée en cosinus discrète, et en particulier à la DCT-II qui est simplement connue sous le nom de "DCT". Les techniques de réduction de dimensionnalité non linéaire ont tendance à être plus exigeantes en termes de calcul que l'ACP.

    L'ACP est sensible à la mise à l'échelle des variables. Si nous n'avons que deux variables et qu'elles ont la même variance d'échantillon et sont positivement corrélées, alors l'ACP entraînera une rotation de 45° et les « poids » (ce sont les cosinus de rotation) pour les deux variables par rapport au principal composant sera égal. Mais si nous multiplions toutes les valeurs de la première variable par 100, alors la première composante principale sera presque la même que cette variable, avec une petite contribution de l'autre variable, tandis que la deuxième composante sera presque alignée sur la deuxième variable d'origine. Cela signifie que chaque fois que les différentes variables ont des unités différentes (comme la température et la masse), l'ACP est une méthode d'analyse quelque peu arbitraire. (Des résultats différents seraient obtenus si l'on utilisait Fahrenheit plutôt que Celsius par exemple.) L'article original de Pearson était intitulé "On Lines and Planes of Closet Fit to Systems of Points in Space" - "in space" implique l'espace euclidien physique où de telles préoccupations ne pas surgir. Une façon de rendre l'ACP moins arbitraire est d'utiliser des variables mises à l'échelle de manière à avoir une variance unitaire, en standardisant les données et donc d'utiliser la matrice d'autocorrélation au lieu de la matrice d'autocovariance comme base de l'ACP. Cependant, cela compresse (ou étend) les fluctuations dans toutes les dimensions de l'espace du signal à la variance unitaire.

    La soustraction moyenne (alias "centrage moyen") est nécessaire pour effectuer une ACP classique afin de s'assurer que la première composante principale décrit la direction de la variance maximale. Si la soustraction moyenne n'est pas effectuée, la première composante principale pourrait plutôt correspondre plus ou moins à la moyenne des données. Une moyenne de zéro est nécessaire pour trouver une base qui minimise l'erreur quadratique moyenne de l'approximation des données. [13]

    Le centrage moyen n'est pas nécessaire si vous effectuez une analyse en composantes principales sur une matrice de corrélation, car les données sont déjà centrées après le calcul des corrélations. Les corrélations sont dérivées du produit croisé de deux scores standard (Z-scores) ou moments statistiques (d'où le nom : Corrélation produit-moment de Pearson). Voir aussi l'article de Kromrey & Foster-Johnson (1998) sur "Mean-centering dans la régression modérée : beaucoup de bruit pour rien".

    L'ACP est une technique primaire populaire dans la reconnaissance de formes. Il n'est cependant pas optimisé pour la séparabilité des classes. [14] Cependant, il a été utilisé pour quantifier la distance entre deux ou plusieurs classes en calculant le centre de masse pour chaque classe dans l'espace des composants principaux et en rapportant la distance euclidienne entre le centre de masse de deux ou plusieurs classes. [15] L'analyse discriminante linéaire est une alternative optimisée pour la séparabilité des classes.

    symbole Sens Dimensions Indices
    X = < X i j > =<>>> matrice de données, constituée de l'ensemble de tous les vecteurs de données, un vecteur par ligne n × p i = 1 … n
    j = 1 … p
    m le nombre de vecteurs de ligne dans l'ensemble de données 1 × 1 scalaire
    p le nombre d'éléments dans chaque vecteur ligne (dimension) 1 × 1 scalaire
    L le nombre de dimensions dans le sous-espace dimensionnellement réduit, 1 ≤ L ≤ p 1 × 1 scalaire
    u = < u j > =<>>> vecteur de moyennes empiriques, une moyenne pour chaque colonne j de la matrice de données p × 1 j = 1 … p
    s = < s j > =<>>> vecteur d'écarts types empiriques, un écart type pour chaque colonne j de la matrice de données p × 1 j = 1 … p
    h = < h i > =<>>> vecteur de tous les 1 1 × n i = 1 … n
    B = < B i j > =<>>> écarts par rapport à la moyenne de chaque colonne j de la matrice de données n × p i = 1 … n
    j = 1 … p
    Z = < Z i j > =<>>> Scores z, calculés à l'aide de la moyenne et de l'écart type pour chaque ligne m de la matrice de données n × p i = 1 … n
    j = 1 … p
    C = < C j j ′ > =<>>> matrice de covariance p × p j = 1 … p
    j = 1 … p
    R = < R j j ′ > =<>>> matrice de corrélation p × p j = 1 … p
    j = 1 … p
    V = < V j j ′ > =<>>> matrice constituée de l'ensemble de tous les vecteurs propres de C, un vecteur propre par colonne p × p j = 1 … p
    j = 1 … p
    D = < D j j ′ > =<>>> matrice diagonale constituée de l'ensemble de toutes les valeurs propres de C le long de sa diagonale principale, et 0 pour tous les autres éléments p × p j = 1 … p
    j = 1 … p
    W = < W j l > =<>>> matrice de vecteurs de base, un vecteur par colonne, où chaque vecteur de base est l'un des vecteurs propres de C, et où les vecteurs dans W sont un sous-ensemble de ceux dans V p × L j = 1 … p
    l = 1 … L
    T = < T i l > =<>>> matrice composée de m vecteurs de ligne, où chaque vecteur est la projection du vecteur de données correspondant à partir de la matrice X sur les vecteurs de base contenus dans les colonnes de la matrice W. n × L i = 1 … n
    l = 1 … L

    Propriétés Modifier

    Certaines propriétés de l'ACP comprennent : [10] [ page nécessaire ]

    L'implication statistique de cette propriété est que les derniers PC ne sont pas simplement des restes non structurés après avoir supprimé les PC importants. Parce que ces derniers PC ont des variances aussi petites que possible, ils sont utiles en eux-mêmes. Ils peuvent aider à détecter des relations linéaires quasi constantes insoupçonnées entre les éléments de x , et ils peuvent également être utiles dans la régression, dans la sélection d'un sous-ensemble de variables de x , et dans la détection des valeurs aberrantes.

    Avant d'examiner son utilisation, nous examinons d'abord les éléments diagonaux,

    Limitations Modifier

    Comme indiqué ci-dessus, les résultats de l'ACP dépendent de la mise à l'échelle des variables. Cela peut être corrigé en mettant à l'échelle chaque caractéristique par son écart type, de sorte que l'on se retrouve avec des caractéristiques sans dimension avec une variance unitaire. [16]

    L'applicabilité de l'ACP telle que décrite ci-dessus est limitée par certaines hypothèses (tacites) [17] faites dans sa dérivation. En particulier, l'ACP peut capturer des corrélations linéaires entre les caractéristiques mais échoue lorsque cette hypothèse est violée (voir la figure 6a dans la référence). Dans certains cas, des transformations de coordonnées peuvent restaurer l'hypothèse de linéarité et l'ACP peut alors être appliquée (voir l'ACP noyau).

    Une autre limitation est le processus d'élimination de la moyenne avant la construction de la matrice de covariance pour l'ACP. Dans des domaines tels que l'astronomie, tous les signaux sont non négatifs et le processus d'élimination de la moyenne forcera la moyenne de certaines expositions astrophysiques à être nulle, ce qui crée par conséquent des flux négatifs non physiques [18] et une modélisation avancée doit être effectuée pour récupérer la véritable amplitude des signaux. [19] Comme méthode alternative, la factorisation matricielle non négative se concentrant uniquement sur les éléments non négatifs dans les matrices, ce qui est bien adapté aux observations astrophysiques. [20] [21] [22] Voir plus à Relation entre l'ACP et la factorisation matricielle non négative.

    L'ACP est un inconvénient si les données n'ont pas été standardisées avant l'application de l'ACP. L'ACP transforme les données d'origine en données pertinentes pour les principales composantes de ces données, ce qui signifie que les nouvelles variables de données ne peuvent pas être interprétées de la même manière que les originaux. Ce sont des interprétations linéaires des variables originales. De plus, si l'ACP n'est pas effectuée correctement, il existe une forte probabilité de perte d'informations. [23]

    L'ACP repose sur un modèle linéaire. Si un ensemble de données contient un motif non linéaire caché, alors l'ACP peut en fait orienter l'analyse dans le sens complètement opposé de la progression. [24] [ page nécessaire ] Des chercheurs de la Kansas State University ont découvert que l'erreur d'échantillonnage dans leurs expériences avait un impact sur le biais des résultats de l'ACP. "Si le nombre de sujets ou de blocs est inférieur à 30, et/ou que le chercheur s'intéresse aux PC au-delà du premier, il peut être préférable de corriger d'abord la corrélation en série, avant de procéder à l'ACP". [25] Les chercheurs de l'État du Kansas ont également constaté que l'ACP pourrait être "sérieusement biaisée si la structure d'autocorrélation des données n'est pas correctement gérée". [25]

    L'ACP et la théorie de l'information Modifier

    La réduction de la dimensionnalité perd de l'information, en général. La réduction de dimensionnalité basée sur l'ACP tend à minimiser cette perte d'informations, sous certains modèles de signal et de bruit.

    Sous l'hypothèse que

    Si le bruit est toujours gaussien et a une matrice de covariance proportionnelle à la matrice identité (c'est-à-dire les composantes du vecteur n > sont iid), mais le signal porteur d'informations s > est non gaussien (ce qui est un scénario courant), PCA minimise au moins une borne supérieure sur le perte d'informations, qui est défini comme [27] [28]

    L'optimalité de PCA est également conservée si le bruit n > est iid et au moins plus gaussien (en termes de divergence Kullback-Leibler) que le signal porteur d'information s > . [29] En général, même si le modèle de signal ci-dessus tient, l'ACP perd son optimalité théorique de l'information dès que le bruit n > devient dépendant.

    Ce qui suit est une description détaillée de l'ACP utilisant la méthode de covariance (voir aussi ici) par opposition à la méthode de corrélation. [30]

    Le but est de transformer un ensemble de données donné X de dimension p à un jeu de données alternatif Oui de plus petite dimension L. De manière équivalente, on cherche à trouver la matrice Oui, où Oui est la transformée de Karhunen-Loève (KLT) de la matrice X:

    Organiser l'ensemble de données Modifier

    Supposer vous disposez de données comprenant un ensemble d'observations de p variables, et vous voulez réduire les données afin que chaque observation puisse être décrite avec seulement L variables, L < p. Supposons en outre que les données soient organisées comme un ensemble de m vecteurs de données x 1 … x n _<1>ldots mathbf _> avec chaque x i _> représentant une seule observation groupée de la p variables.

    Calculer la moyenne empirique Modifier

    • Trouver la moyenne empirique le long de chaque colonne j = 1, …, p.
    • Placer les valeurs moyennes calculées dans un vecteur moyen empirique vous de dimensions p × 1. u j = 1 n ∑ i = 1 n X i j =>somme _^X_>

    Calculer les écarts par rapport à la moyenne Modifier

    La soustraction moyenne fait partie intégrante de la solution pour trouver une base de composante principale qui minimise l'erreur quadratique moyenne d'approximation des données. [31] On procède donc en centrant les données comme suit :

    • Soustraire le vecteur moyen empirique u T ^> à partir de chaque ligne de la matrice de données X.
    • Stockez les données soustraites de la moyenne dans le m × p matrice B. B = X − h u T =mathbf -mathbf mathbf ^> où h est un m × 1 vecteur colonne de tous les 1 : h i = 1 pour i = 1 , … , n =1,qquad qquad < ext>i=1,ldots ,n>

    Dans certaines applications, chaque variable (colonne de B) peut également être mis à l'échelle pour avoir une variance égale à 1 (voir Z-score). [32] Cette étape affecte les composantes principales calculées, mais les rend indépendantes des unités utilisées pour mesurer les différentes variables.


    6. Conclusions

    L'évolution de Meddies a été étudiée à l'aide d'expériences de flotteurs AMUSE (1993-1995) et d'analyses de données multicapteurs. L'évolution d'un Meddy au cours du temps a été examinée en utilisant le signal moyen annuel de l'Outflow Méditerranéen et des Meddies, dérivé d'une analyse multicapteurs. Nos résultats peuvent être résumés comme suit : puisque les Meddies sont couplés à de fortes caractéristiques de surface anticycloniques, ils produisent une signature de surface indirecte détectable par des observations multicapteurs et des observations de flotteurs. En conséquence, les trois paramètres (équation 2) (variations de vitesse de rotation (ε′), variations thermiques intérieures (α′), et les mouvements verticaux (λ′) de Meddies) à partir des expériences AMUSE ont été estimées afin de comprendre chaque contribution à la modification des surfaces isopycnales comme le montre l'équation 3.

    Afin d'analyser les mouvements de Meddy horizontaux et verticaux observés par les flotteurs, les périodes dominantes ont été obtenues à l'aide de HHT et se sont avérées être d'environ 4 jours, 29 jours et 200 jours pour le mouvement horizontal et d'environ 3 jours, 7 jours, 20 jours, et 200 jours pour le mouvement vertical. On pense que les sources motrices correspondantes sont l'inclinaison horizontale (pas) du Meddy lors de sa rotation (3 à 7 jours), la double modulation bimensuelle (20 à 29 jours) et la baroclinicité (200 jours). Afin de comprendre les fréquences dominantes dans les mouvements méridiens et verticaux du Meddy, nous avons appliqué le HHT au gradient méridien de la hauteur de la surface de la mer et de la variabilité de la hauteur de la surface de la mer, respectivement. Nous avons constaté que les séries chronologiques décomposées (figures 4 et 5 ainsi que figures 8 et 9) sont étroitement liées. Les périodes de déplacement horizontal et vertical et celles des fluctuations de température intérieure avec le temps sont étroitement liées (non représentées).

    La dissipation de viscosité horizontale et verticale de Meddies a été étudiée à l'aide de vitesses angulaires mesurées par des flotteurs, et a été comparée à un modèle analytique [Zheng et Yuan, 1981]. Les meddies se sont décomposés de façon exponentielle après leur formation, mais ont également duré longtemps (O (2 ans)) avec un tourbillon minimum, qui est fourni par l'eau de fond et la surface de la mer. Nous nous attendons à ce que la dissipation de viscosité turbulente horizontale et verticale puisse être utilisée comme un paramètre important pour les études numériques.

    Les résultats de la recherche nous permettront de comprendre comment la surface isopycnale est liée à l'évolution des Meddies, quelles fréquences sont dominantes pour les mouvements horizontaux et verticaux des Meddies, et quelles sont les viscosités de Foucault appropriées pour une application à la modélisation numérique.


    Sujet : Réduisez de moitié la constante de Hubble ! (semble toujours être à 72 km/s/Mpc)

    La tentative de faire correspondre ces données dans le modèle CDM lamda grand public conduit à des « preuves » que l'oméga (matière) est d'environ 0,29, ligne en gras. Cependant, comme ils ont un paramètre variable supplémentaire, une correspondance aurait été trouvée.

    La nouvelle relation de facteur d'échelle de redshift 1+z = (a(0)/a(1))^2 correspond aux données sans aucun paramètre variable supplémentaire, un diagramme similaire est dans le pdf et ici (la ligne rouge provient de la nouvelle relation omega(m) =1.0) https://www.desmos.com/calculator/aof8ao1stj
    Ainsi, les « preuves » des supernovae pour « l'énergie noire » donnent un argument encore meilleur pour modifier la relation redshift-facteur d'échelle.

    Valeurs de devis de données Planck et WMAP pour, par ex. oméga(matière)*h^2 = 0,134 de cela, ils en déduisent que oméga(matière) env. 0,25 et paramètre d'énergie noire = 0,75. Cependant, comme ils utilisent une valeur de h qui est le double de la vraie valeur, la conclusion de 0,25 est fausse et devrait être de 1,0

    Le gâchis malchanceux dans lequel les cosmologistes traditionnels se sont retrouvés est dû à deux méthodes distinctes (données de supernovae et WMAP, etc.) donnant des valeurs similaires pour oméga(m) de 0,25. L'avantage de considérer la nouvelle relation redshift-facteur d'échelle est que ces deux éléments de « preuves » pour l'énergie noire soutiennent également la nouvelle relation

    Enfin tu as lu mon message. Ce qui conduit à la question de suivi :
    IF02a: Savez-vous que le H dans ces équations n'est pas la constante de Hubble?

    Toujours pas tout à fait correct (et encore pire avec une recherche Google !) mais assez proche pour IF01. Les courbes de lumière sont ajustées (non assorties) de sorte que leur forme, leur luminosité et leur couleur transforment la supernova en bougies standard.

    Vous savez que cette phrase est fausse puisque vous avez lu les articles appropriés. C'est le Succès en faisant correspondre les données de supernova de type 1a à l'aide du modèle Lambda-CDM grand public qui est la preuve sans citations cet oméga (matière) est d'environ 0,29.

    Malgré ce que vous imaginez sur le fait de brancher de "mauvaises valeurs", les données WMAP ont donné 4,6% de matière ordinaire, 24,0% de matière noire et 71,4% d'énergie noire et les données de Planck ont ​​donné 4,9% de matière ordinaire, 26,8% de matière noire et 68,3% d'énergie noire.
    IF06: Indiquez les mesures de la constante de Hubble étant de 36 km/s/Mpc.

    1. Données de supernova de type 1a.
    2. Fond de micro-ondes cosmique
    3. Structure à grande échelle
    4. Effet Sachs-Wolfe intégré tardif
    5. Données de constante de Hubble observationnelles qui mesurent le paramètre de Hubble H(z).
    1. Données de supernova de type 1a.
    2. Fond de micro-ondes cosmique
    3. Structure à grande échelle
    4. Effet Sachs-Wolfe intégré tardif
    5. Données de constante de Hubble observationnelles qui mesurent le paramètre de Hubble H(z).

    L'énergie noire par rapport à a(dot)/a étant la moitié de la valeur dominante.

    1) Données Supernovae de type 1a : ce graphique https://www.desmos.com/calculator/aof8ao1stj correspond aux données avec un paramètre de Hubble constant, pas d'accélération, oméga(matière)=1, avec une formule dérivée du nouveau redshift- relation de facteur d'échelle. L'énergie noire a également une correspondance, mais avec un paramètre variable supplémentaire.

    2) CMB cite des valeurs par ex. oméga(m)h^2 =0,135 puis dérive oméga(m) à environ 0,25, en utilisant une valeur pour h qui est le double de la vraie valeur. Si la valeur correcte est utilisée oméga(m)=1,0

    4) Effet Sachs-Wolfe intégré tardif :

    Un article important sur l'ISW est https://arxiv.org/abs/1209.2125

    Cependant, cet article n'est pas indépendant des autres méthodes

    À la page 5 vers le début de la section 3, ils énoncent leurs hypothèses “Dans l'analyse suivante…nous supposons une cosmologie MDP lambda plate…WMAP7 + BAO + H(0)…Komatsu et al ,2011” ils énumèrent également quelques valeurs mais pas toutes, H(0) doit être trouvé à partir de https://arxiv.org/abs/1001.4635 colonne de droite du tableau 1, haut de la page 3. Maintenant, nous pouvons voir que l'analyse ISW a supposé H(0 )=70,2 et oméga(m)h^2 =0,1352, c'est-à-dire qu'une hypothèse pour oméga(m)=0,274 a été introduite au début, (et planéité, total=1) afin qu'ils trouvent des « preuves » pour l'énergie noire , quelle surprise!

    5. Données de constante de Hubble observationnelles qui mesurent le paramètre de Hubble H(z).

    cet article https://arxiv.org/abs/1507.02517 contient un tableau (page 2) qui répertorie z et H(z). Ils ont alors un graphique (page 3) qui montre H(z) croissant et a celui prédit par lambda CDM. Le match n'est pas génial.

    Les observations sont d'une grandeur dz/dt à partir de laquelle H(z) est calculé à partir de (-1/(1+z))*dz/dt. Ceci utilise la relation facteur d'échelle-décalage vers le rouge.

    Avec la nouvelle relation redshift-facteur d'échelle H(z) = (-1/2(1+z))*dz/dt, les données peuvent donc être interprétées pour montrer une quantité 2H(z).

    Un univers avec un taux d'expansion constant aurait une ligne droite sur le diagramme (grâce à la section Q & A) de la forme H(z)=H(0)(1+z) , qui correspond très bien aux données, avec H(0) d'environ 64, donc ces données peuvent être interprétées comme support pour un taux d'expansion constant avec 2(a(dot)/a) = 64 et a(dot)/a = 32km/s/Mpc

    (La donnée H(z) divisée par 1+z est
    64.4, 63.3, 61.25, 70.9, 63.6
    62.6, 60.8, 64.3, 60.6, 69.4
    60.8, 62.5, 61.4, 67.9, 60.5
    57.4, 65.5, 58.9, 65.3, 54.9
    54.7, 56.2, 59.0, 66.7, 47.9
    61.6, 75.6, 73.0, 67.7, 72.8
    55.3, 73.5, 62.9, 67.9, 66.5, 67.3)

    1) est irrévérencieux que vous devez savoir parce que vous avez lu Riess 1998 et Perlmutter 1998.
    Le point entier de ces articles est que les courbes avec une constante cosmologique non nulle mieux adapter les données que des courbes à constante cosmologique nulle.
    Une seule courbe qui passe par les points de données est inutile. Nous savons qu'une telle courbe peut être tracée pour un univers sans énergie noire. La perspective d'un meilleur ajustement à plus de données est la raison pour laquelle Riess 1998 et Perlmutter 1998 ont été écrits.

    2) La répétition d'une affirmation non étayée ne la rend pas vraie.

    Lisez le tableau que vous citez, john chasseur. Ce sont mesuré valeurs de H(z). Ceux mesuré les valeurs de h(z) sont toutes supérieures à 68,6. Ils soufflent votre affirmation selon laquelle H(z) ou H0 est la moitié de la valeur mesurée (36) hors de l'eau 36 fois !
    C'est le problème des mesures. Il est ridicule d'affirmer qu'une mesure est la moitié de ce qu'elle est mesurée sans aucune preuve. Pensez à la distance mesurée de la Terre à la Lune. Que penseriez-vous de quelqu'un affirmant que la distance à la Lune est la moitié de ce qui est mesuré ? J'espère que vous exigerez des preuves de cette affirmation. Vous devriez être capable d'imaginer de nombreux autres exemples. Est-il valable d'affirmer que la taille de quelqu'un est la moitié de ce qui est mesuré ? Qu'en est-il de la longueur d'un terrain de football ? La masse d'un électron ? Alors qu'en est-il de la valeur mesurée de H0 ou H(z) ?

    Quelqu'un doit être irrévérencieux, pour ramener les cosmologistes/physiciens d'aujourd'hui sur terre ! (énergie noire ! Pouvez-vous imaginer l'apporter comme une nouvelle idée et essayer de la défendre sur ATM). ou vouliez-vous dire sans importance ?

    Citer "les courbes avec une constante cosmologique non nulle mieux adapter les données que les courbes avec une constante cosmologique nulle" est probablement vrai, mais uniquement en utilisant la relation habituelle et incorrecte de décalage vers le rouge-facteur d'échelle. La correspondance avec les données est tout aussi bonne, avec une constante cosmologique nulle (et moins de paramètres variables) lorsque la bonne relation redshift-facteur d'échelle est utilisée.
    Ce graphique https://www.desmos.com/calculator/aof8ao1stj reste donc un élément de preuve important à l'appui de la nouvelle relation.

    concernant le reste de votre article 35 sur l'ISW, les hypothèses qu'ils ont utilisées et intégrées dans leur modèle ont été mentionnées dans l'article 33, à savoir "H(0)=70.2 et omega(m)h^2 =0.1352 c'est-à-dire une hypothèse pour omega( m)=0.274 a été mis au début, (et planéité, total=1), donc toute "preuve" pour l'énergie noire de ce type d'étude n'est pas valide.

    re: post 37 Le simple fait de continuer à faire référence à l'utilisation du terme "constante de Hubble" ou "mesure" n'est pas un argument contre l'objectif principal du PO. Ce qui était une citation & un changement de quota par rapport à la relation habituelle facteur d'échelle-décalage vers le rouge, qui peut supprimer les principaux arguments en faveur d'un univers en accélération. " qui conduit à ce que le taux d'expansion a(point)/a soit la moitié de la valeur acceptée par le courant dominant.

    Votre collègue Shaula a expliqué dans un récent fil de discussion Q&A qu'une ligne droite sur le diagramme H(z) vs z serait la preuve d'un taux d'expansion constant. ainsi le graphique, page 3 de https://arxiv.org/abs/1507.02517 (qui peut être bien ajusté avec une droite H(0)(1+z) avec H(0) environ 64 ou 66 peut être considéré comme preuve d'un taux d'expansion constant a(point)/a de la moitié de la valeur habituellement acceptée.

    Dans le fil Q&A. https://forum.cosmoquest.org/showthr. -H(z)-mesuré . après le 9, Shaula a mentionné que le LCDM donnait un meilleur ajustement, mais a déclaré que les données étaient cohérentes avec les deux modèles. Étant donné que LCDM a plus de paramètres variables pour obtenir l'ajustement, la prise en charge de la constante a(point)/a est bonne, puisque seul H(0) peut varier.

    Shaula. re: dilatation du temps. Étant donné que toute mesure au redshift z a une lumière étirée par le facteur (1 + z), dans les deux modèles, il y aurait la dilatation temporelle des supernovae, etc. La nouvelle relation redshift-scalefactor n'est pas censée être un argument contre l'univers en expansion, ou contre Big Bang. Juste que le taux d'expansion est de moitié et qu'il est constant.

    Mon point était que le redshift est défini comme un rapport de fréquences. Votre argument semble être que ce rapport de fréquences est lié au facteur d'échelle et que la constante de Hubble est une manière quadratique plutôt que linéaire. Ma question est de savoir pourquoi la dilatation du temps, qui est un contrôle indépendant à ce sujet, soutient apparemment la vitesse de récession plus élevée. J'essaie de déterminer si vous avez des idées sur la raison pour laquelle cette relation pourrait être quadratique, sur ce que vous pensez qu'elle affecte, etc. Parce que nous voyons et mesurons le décalage vers le rouge et la dilatation du temps en laboratoire et nous aurions remarqué une différence d'un facteur deux.

    Ainsi, par exemple, si nous devions prendre la rotation des galaxies. Vous attendriez-vous à ce que le décalage vers le rouge différentiel entre chaque côté d'un disque en rotation montre également ce type de dépendance quadratique de la vitesse ?

    En ce moment, vous semblez dire que si nous adoptons votre relation seulement au fur et à mesure que vous le dites, cela donne de bons résultats - ce qui me semble un peu ad hoc.

    Mon point était que le redshift est défini comme un rapport de fréquences. Votre argument semble être que ce rapport de fréquences est lié au facteur d'échelle et que la constante de Hubble est une manière quadratique plutôt que linéaire. Ma question est de savoir pourquoi la dilatation du temps, qui est un contrôle indépendant à ce sujet, soutient apparemment la vitesse de récession plus élevée. J'essaie de déterminer si vous avez des idées sur la raison pour laquelle cette relation pourrait être quadratique, sur ce que vous pensez qu'elle affecte, etc. Parce que nous voyons et mesurons le décalage vers le rouge et la dilatation du temps en laboratoire et nous aurions remarqué une différence d'un facteur deux.

    Ainsi, par exemple, si nous devions prendre la rotation des galaxies. Vous attendriez-vous à ce que le décalage vers le rouge différentiel entre chaque côté d'un disque en rotation montre également ce type de dépendance quadratique de la vitesse ?

    Il y a quelques choses ici.

    a) Premièrement, le décalage vers le rouge dû à l'expansion de l'univers n'est pas vraiment dû à une « vitesse » de décalage Doppler, bien qu'il soit souvent décrit ainsi. La nouvelle relation est que 1+z = f(1)/f(0) = (a(0)/a(1))^2 (où le 1 représente une quantité au moment de l'émission d'une source distante et le 0 est pour l'arrivée.)

    b) La rotation d'une galaxie produirait le décalage Doppler normal et pour ce df/f=v/c où df est un changement de fréquence, v est la vitesse du bord de la galaxie.

    La raison des différents traitements a) et b) est que l'un est dû à l'expansion cosmologique, au changement de facteur d'échelle de l'univers, mais l'autre ne l'est pas.

    La dilatation du temps à partir d'une source distante de décalage vers le rouge z serait d'un facteur (1+z), car le temps nécessaire pour que chaque longueur d'onde arrive est lambda/c et lambda a augmenté du facteur (1+z)

    À propos du facteur 2, je ne sais pas exactement ce que vous vouliez dire, mais puisque, en théorie, le taux d'expansion a(point)/a est la moitié de la valeur courante (abréviation H),
    alors 1+z = [(a(1)+da)/a(1)]^2 = (1+Hdt)^2 = 1+2Hdt +(Hdt)^2. puisque le dernier terme est négligeable z=2Hdt donc v/c = 2Hdt et v=2Hcdt et v=2Hd, où d est la distance à la source, cela équivaut à la loi de Hubble habituelle puisque H est la moitié de la valeur principale c'est-à-dire H (0)=2H, donc v=H(0)d, et la différence n'a pas pu être facilement remarquée.

    La non-pertinence est toujours une perte non seulement de votre temps mais du temps des autres affiches. Si l'énergie noire n'existait pas et que quelqu'un la présentait comme une idée "ATM" avec les mêmes preuves que dans Riess 1998 et Perlmutter 1998, alors elle serait acceptée immédiatement. Ce serait assez simple - le modèle de cosmologie standard et grand public ajuster mieux les données avec une constante cosmologique non nulle, donc de l'énergie noire !

    Les courbes avec une constante cosmologique non nulle correspondent mieux aux données que les courbes avec une constante cosmologique nulle, c'est un fait. Lisez à nouveau Riess 1998 et Perlmutter 1998 et l'analyse complète dans les journaux. Ils ne tracent pas une seule courbe et disent qu'elle correspond aux données. Ils ne tracent pas de courbes et affirment que celles qui contiennent de l'énergie noire correspondent mieux aux données. Ils calculent les résidus entre les courbes et les données. La courbe avec les résidus les plus faibles est mieux ajustée aux données. C'est une science abordée dans les cours de physique de première année et même un peu au niveau secondaire.

    Un fantasme de " La correspondance avec les données est tout aussi bonne", c'est juste cela jusqu'à ce que vous fassiez la même analyse. Il y a même une suggestion que votre courbe est fausse. Vous divisez arbitrairement par deux la constante de Hubble pour avoir une valeur qu'elle n'est pas mesurée. Cela réduira de moitié la pente de votre courbe à faible z (c'est la loi de Hubble). Cela ne peut pas correspondre aux données de supernova qui ont une pente de H0

    72 à faible z !
    IF06: Indiquez les mesures de la constante de Hubble étant de 36 km/s/Mpc.
    IF08: Affichez la pente de votre courbe à faible z (elle doit être

    72 pour ajuster les données de supernova).

    J'ai déjà lu et répondu à votre message. Une fois de plus : ils connectent les valeurs mesurées pour H0 (pas H(0)) et omega(m)h^2 et voyez si la constante cosmologique est non nulle en ajustant les données.

    Un fait que vous n'arrêtez pas de nier : la constante de Hubble est une mesure et comme je l'ai écrit :

    Je vais donc faire tis une question formelle:
    IF09: Est-il valable de diviser par deux la distance mesurée De la Terre à la Lune ?

    Shaula était incorrect comme vous auriez dû le souligner! En tant que proposant d'une idée de guichet automatique, vous devez connaître le courant dominant contre lequel vous vous disputez. Ce qui est pire, vous connaissez l'article de loi de Wikipedia Hubble depuis au moins quelques jours.

    Pour info : que "quelques centaines de mégaparsecs" est un décalage vers le rouge de z < 0,1 qui correspond aux données de Hamuy et al, 1996 tracées dans Reiss et. Al. (1998) Fig 2 où les courbes et les données sont approximativement une ligne droite.
    Lisez l'article Wikipédia sur la loi de Hubble, section Dérivation du paramètre de Hubble. Notez que H(z) n'est pas une droite sans énergie sombre sauf à faible z (z << 1).

    Autre source : le didacticiel de cosmologie de Ned Wright et notez l'approximation utilisée pour relier le décalage vers le rouge et la vitesse :

    Les données de Hubble en 1929 sont en fait assez pauvres, car les galaxies individuelles ont des vitesses particulières de plusieurs centaines de km/sec, et les données de Hubble ne sont allées qu'à 1200 km/sec. Cela a conduit certaines personnes à proposer des lois quadratiques de distance de décalage vers le rouge, mais les données présentées ci-dessous sur le type Ia SNe de Riess, Press et Kirshner (1996)
    [sa silhouette]
    s'étendre au-delà de 30 000 km/sec et fournir une confirmation dramatique de la loi de Hubble, v = dD/dt = H*D

    La droite ajustée de ce graphique a une pente de 64 km/sec/Mpc. Puisque nous mesurons la vitesse radiale à l'aide du décalage Doppler, on l'appelle souvent le décalage vers le rouge. Le redshift z est défini tel que : 1 + z = lambda(observé)/lambda(émis)
    où lambda est la longueur d'onde d'une ligne ou d'une caractéristique dans le spectre d'un objet. En relativité restreinte, nous savons que le redshift est donné par 1 + z = sqrt((1+v/c)/(1-v/c)) donc v = cz + .
    mais les corrections d'ordre supérieur (le ".") en cosmologie dépendent de la relativité générale et du modèle spécifique de l'Univers.

    Oui, c'est vrai, mais la courbe qui a la meilleure correspondance (c'est-à-dire pour laquelle le paramètre variable supplémentaire donne la meilleure correspondance) est choisie. Ce n'est pas une bonne preuve que le modèle est correct car une correspondance est presque inévitablement trouvée. On peut affirmer que parce que les courbes correspondent aux données uniquement avec une constante cosmologique non nulle, c'est une indication que quelque chose ne va pas avec la compréhension générale. La force de la nouvelle proposition est qu'il n'y a qu'un seul paramètre variable.

    Vous ne dites pas par qui. Veuillez leur montrer le pdf avec l'annexe qui établit la formule D=2c/H(1+z)[sqrt(1+z)-1]. puis montrez-leur ce https://www.desmos.com/calculator/aof8ao1stj et mentionnez qu'en cliquant sur l'onglet en haut à gauche, toutes les données sont affichées pour 186 points de l'équipe High-Z. Au bas des données se trouve la formule de la ligne rouge qui est la même que celle ci-dessus, mise en DM = 25 +5 log(D) Ils pourraient remarquer le nombre 70 sur le dénominateur.

    Une autre citation de toi
    "Halving H(0) divisera par deux la pente de votre courbe à faible z (c'est la loi de Hubble). Cela ne peut pas correspondre aux données de supernova qui ont une pente de H0

    Mais la courbe correspond aux données.

    Au-dessus du 70 est 600000 qui est 2c en km/s. c'est-à-dire que le début de la formule est c/(H(0)/2). La courbe correspond aux données avec une valeur a(dot)/a de la moitié du courant dominant, si vous le souhaitez ou non. Il y a juste une théorie différente. peut-être devriez-vous regarder la fin du message au-dessus du vôtre, numéro 42.

    Le moins que les modérateurs puissent faire est de ne pas remettre en question les données correctes lorsqu'elles sont présentées, c'est ce qu'ils demandent habituellement.

    Vous ne comprenez toujours pas. Il n'y a pas de "paramètre variable supplémentaire". Une constante cosmologique a toujours été en GR. Il a été supposé être nul pendant longtemps parce qu'il n'y avait aucune preuve qu'il était différent de zéro. C'est la courbe qui correspond le mieux aux données qui sont correctes comme correspondance. Cette courbe a une constante cosmologique non nulle.

    je suggère que votre courbe est fausse. Les données réelles ont une pente de H0 = 72 à faible z. Vous ne pouvez pas faire correspondre cette pente avec la moitié de H0. Vous ne pouvez pas non plus arbitrairement réduire de moitié un la mesure.
    IF06: Indiquez les mesures de la constante de Hubble étant de 36 km/s/Mpc.
    IF08: Affichez la pente de votre courbe à faible z (elle doit être

    Et la question suivante. Pourquoi diviser une valeur mesurée par 2 est-il plus valable que de la diviser par n'importe quelle autre valeur (qu'en est-il de pi ). Ainsi:
    IF10: Qu'arrive-t-il à votre ajustement aux données si vous divisez H0 par 10 ou le multiplier par 10 ?

    Oui, désolé, je le sais. En regardant mes messages, ce n'est pas évident d'après la façon dont j'ai formulé les choses et il semble que j'ai besoin d'une Cosmologie 101 !

    D'accord, donc votre effet est uniquement lié à l'expansion métrique et non à une tentative de modifier l'un des GR sous-jacents. C'est ce à quoi j'essayais, maladroitement, d'arriver. Principalement comme un moyen simple de déterminer ce que nous pouvons et ne pouvons pas tester à ce sujet. On dirait que nous ne pouvons rien tester localement.

    Si vous suggérez que les données ou la courbe du graphique pour la nouvelle relation ont été falsifiées - c'est-à-dire inventées ou falsifiées, de manière à induire en erreur, une plainte officielle sera adressée à CosmoQuest au sujet de la modération de ce fil.

    Re: messages 43󈟾 et 48
    IF08 : La pente du graphique et de la ligne est de 70 km/s/Mpc - elle correspond aux données, pente = 2H (définie ci-dessous), sur le graphique de données complet publié précédemment.

    Voici la partie basse z, ligne de meilleur ajustement telle que réalisée par Desmos

    https://www.desmos.com/calculator/c7nnitv3da il correspond (le mieux) avec 2H = 65,95km/s/Mpc. Tout cela peut être vu en regardant les données à gauche et la formule en bas.


    Il a été précisé dès le début (à partir du post 7, et répété) que le terme constante de Hubble faisait référence au taux d'expansion a(dot)/a. Si vous vous plaignez toujours de l'utilisation du terme « constante de Hubble » pour désigner le taux d'expansion de l'univers, vous manquez la vue d'ensemble. Cependant, cela est clarifié ci-dessous.

    Ce qui se passe ici peut être illustré par un exemple similaire à votre IF09

    IF09 : Est-il valable de diviser par deux la distance mesurée De la Terre à la Lune (H0 est une valeur mesurée comme cette longueur) ?

    Imaginez une civilisation hypothétique qui voulait mesurer la distance à la lune. Ils ont mesuré à l'aide de Lunar Laser Ranging une quantité appelée M ‘Moon Time’, qui était censée être le temps nécessaire à la lumière pour aller de la terre à la lune.

    Ils savent que la distance doit être D=Mc. Pendant des années, ils mesurent M et affinent leurs mesures, publient des livres et des articles qui contiennent M et des dictionnaires qui définissent M. Habituellement, il est défini comme le rapport dans l'équation, c'est-à-dire M = D/c, mais les gens le considèrent comme le temps pris pour lumière pour aller de la terre à la lune.

    Puis un jour, ils se rendent compte qu'il y a eu une grosse erreur. Ils ont chronométré du moment où le laser a quitté la terre jusqu'au moment où il est revenu.

    Oh non! Que devraient-ils faire.

    Décidèrent-ils que M devrait être divisé par deux ? Dans quel cas M est alors le temps réel (aller simple) pour que la lumière atteigne la lune ? Ou disent-ils que M est une quantité mesurée et puisqu'il a été mesuré pour avoir une valeur, il ne peut pas être divisé par deux ?

    Rusé?! C'est une question d'opinion.

    A partir de maintenant, le symbole H représente a(point)/a , qui, dans cette idée ATM, est constant. Il est maintenant postulé comme étant une constante fondamentale de la physique d'une valeur d'environ 1*10^-18 s-1


    Combiner les observations avec AstroDrizzle

    Toutes les informations nécessaires pour combiner avec succès les données d'entrée sont à portée de main à ce stade. L'en-tête WCS de chaque image a été mis à jour et cette information fournit les corrections à l'alignement des images pour permettre à AstroDrizzle d'identifier et de supprimer correctement les rayons cosmiques. AstroDrizzle est une enveloppe de plusieurs algorithmes qui produiront l'image finale alignée et nettoyée aux rayons cosmiques. Il est organisé en sept étapes qui peuvent être activées ou désactivées par l'utilisateur en fonction de vos besoins.

    Étant donné que les paramètres par défaut d'AstroDrizzle peuvent ne pas fournir des produits de données optimaux pour tous les instruments HST, il est fortement conseillé à l'utilisateur d'inspecter la qualité du rejet des rayons cosmiques et d'expérimenter avec différentes valeurs de paramètres.

    Dans les sections suivantes, nous présentons un exemple qui nécessite un changement de valeur de paramètre.

    AstroDrizzle : premier run

    Nous commençons par exécuter toutes les étapes dans AstroDrizzle, à l'exception de la dernière, en vérifiant la sortie et en vérifiant le bon alignement. Nous réinitialisons la tâche astrodrizzle et examinons les paramètres à l'aide de l'interface TEAL :

    Nous modifions les paramètres suivants :

    Dans la barre d'outils TEAL (située sous la barre de menu), nous cliquons sur le bouton Exécuter. Cela utilisera les paramètres actuels et exécutera la tâche. Les valeurs des paramètres sont enregistrées dans le fichier de configuration répertorié en haut de la fenêtre.La tâche doit exécuter les six premières étapes en moins de 10 minutes.

    AD crée un masque de mauvais pixels statique à partir des données.

    signifie que AD soustraira le ciel de chaque image bruinée. La soustraction du ciel est recommandée pour un signalement et une suppression efficaces des rayons cosmiques, mais uniquement si un ciel vierge suffisant est disponible pour effectuer une détermination précise. La valeur du ciel est calculée indépendamment pour chacune des deux puces ACS, et la valeur la plus basse est prise pour représenter la vraie valeur pour les deux puces.

    signifie que AD créera une image médiane à partir des images d'entrée séparées par bruine, permettant une variété d'algorithmes de combinaison et de rejet. La valeur par défaut

    est conçu pour fonctionner de manière optimale dans le cas de la combinaison de quelques images seulement, comme dans notre exemple actuel.

    signifie que l'image médiane est retransformée dans le cadre de référence de chaque image d'entrée d'origine. AD comparera les images médianes originales et effacées pour identifier les rayons cosmiques à l'étape suivante.

    AD utilise les images d'entrée d'origine, l'image médiane effacée et la dérivée de l'image effacée pour créer un masque de rayons cosmiques pour chaque image d'entrée. C'est une bonne pratique de faire clignoter les fichiers scientifiques FITS (*_flt.fits) avec leurs masques de rayons cosmiques correspondants (*_sc1_crmask.fits et *_sc2_crmask.fits) afin de vérifier que les rayons cosmiques visibles sont effectivement masqués.

    AstroDrizzle : deuxième manche

    Maintenant que les masques de rayons cosmiques ont été calculés, nous pouvons créer la mosaïque finale en exécutant l'étape 7 uniquement et en désactivant toutes les étapes de traitement intermédiaires.

    Dans l'interface TEAL, nous modifions les paramètres suivants :

    Notez que le ciel n'est pas supprimé dans ce second passage car nous effectuerons une photométrie d'ouverture sur le produit final et nous comparerons la photométrie avec celle obtenue à l'aide des images FLT originales qui contiennent le ciel original. Notez également que les unités de l'image de bruine finale seront en électrons. Nous y parvenons en définissant les unités finales sur les comptes.

    AD prend les images FLT d'entrée d'origine, ainsi que les masques finaux, et les dépose sur une seule image de sortie appelée f814w_drz_sci.fits. Par défaut, l'échelle de l'image ACS/WFC de sortie est de 0,05"/pixel. Cette image contient la science qui a été corrigée pour la distorsion et représente la combinaison des trois images FLT d'entrée. Chaque pixel couvre une surface égale sur le ciel. La figure 2 montre l'image de sortie f814w_drz_sci.fits.

    Le deuxième produit AD important est le fichier f814w_drz_wht.fits qui est illustré à la figure 2. Les lacunes des puces sont clairement visibles, tout comme les défauts de colonne et les caractéristiques des rayons cosmiques. Il est important d'examiner l'image du poids, en particulier les centres des étoiles qui seront soumis à la photométrie d'ouverture. Ceci peut être réalisé en faisant clignoter le produit scientifique et l'image du poids ensemble. Par exemple, avec SAOImage DS9, nous pouvons afficher les deux images dans deux cadres, tvmark --> et activer la table des pixels depuis le menu :

    Zoomez sur un petit champ, faites correspondre les deux cadres et faites-les clignoter. Si une empreinte des sources est observée sur l'image pondérale, cela signifie qu'un problème de réjection des rayons cosmiques s'est produit et ce problème se traduira par une perte apparente de flux et une estimation erronée des grandeurs. Cet effet peut être très subtil mais avec des conséquences dévastatrices sur la photométrie finale. Ceci est également utile pour identifier les sources qui ont pu être touchées par un rayon cosmique ou qui tombent sur une mauvaise colonne. Nous devons éviter ces sources pour la photométrie finale.

    Figure 3 : Caricature d'une seule étoile (à gauche) et détail des pixels centraux (à droite) auxquels un faible poids a été attribué. Ce problème est résolu en utilisant des paramètres de rejet des rayons cosmiques très stricts. Voir le texte sur la façon d'éviter ce problème.

    La figure 3 montre un dessin animé d'une étoile qui présente des pixels centraux marqués. Le graphique de gauche montre la carte de pixels réelle de l'étoile dans l'image scientifique finale. Le tracé à droite représente la carte centrale de 7x7 pixels de l'image de poids. Les nombres représentent la valeur entière du poids. Notez que certains des pixels centraux ont une valeur de poids plus faible que le reste. Il s'agit d'un effet indésirable qui doit être évité et qui a été causé par un algorithme de rejet des rayons cosmiques très conservateur.

    Dans la première exécution AD, nous avons utilisé les valeurs par défaut

    qui sont trop strictes et provoquent dans ce cas le marquage de certains pixels au centre de certaines étoiles d'intérêt. Cela entraîne une dégradation de l'image finale, et nous pouvons l'améliorer en relâchant ce paramètre pour

    AstroDrizzle : troisième manche

    On recommence tout. Nous effaçons les fichiers actuels et récupérons les images modifiées que nous avions enregistrées dans un dossier différent et nous exécutons à nouveau AD dessus.

    Dans l'interface TEAL, nous modifions les paramètres suivants :

    Ce processus créera des masques de rayons cosmiques plus détendus pour nos images.

    AstroDrizzle : quatrième manche

    Dans la dernière étape, nous exécutons l'étape 7 dans AD, désactivons la soustraction du ciel et définissons les unités d'image sur les électrons :


    Voir la vidéo: Kirahvin piirtäminen (Février 2023).