Astronomie

Luminosité d'Eddington dans divers plasmas

Luminosité d'Eddington dans divers plasmas


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Je sais donc que la luminosité d'Eddington est donnée par :

$L_{Eddington} = 4pi GMc/kappa$.

Je veux calculer cette luminosité pour un plasma d'hélium purement ionisé, ainsi que pour un plasma électron-positon.

Comment puis-je trouver $kappa$ dans chacun de ces cas ? Je sais que parfois c'est approximatif comme $m/sigma_T$, mais je ne sais pas quand invoquer cette approximation et quelle serait la masse respective.


Je pense que tu veux dire que kappa = sigma / m. Le sigma est la « section transversale », comme la zone que vous exposez lorsque vous coupez une pastèque en deux. Le m est la masse de la particule qui a la section efficace en question (ce n'est pas littéralement la section efficace de la particule physique, mais une section efficace pour l'interaction avec la lumière), ou plus souvent, la masse de toutes les particules qui viennent ainsi que la section efficace en question (souvent il y a une particule contribuant à la majeure partie de la section efficace, mais plusieurs particules qui l'accompagnent qui fournissent la masse). Par exemple, si vous mélangez des protons et des électrons, les électrons ont une section transversale plus grande car leur faible masse les fait interagir plus facilement avec la lumière, mais cette masse plus faible signifie également que ce ne sont pas les électrons, mais les protons, qui fournissent le "m " dans la formule ci-dessus.

Ces quantités dépendent donc de la composition du gaz que vous avez en tête. C'est facile pour un plasma électron-proton [édité], car si vous ne vous inquiétez pas des interactions résonantes dans le plasma, vous pouvez simplement considérer les sections efficaces des particules individuelles, et vous obtenez une "opacité de Thomson" de 0,4 centimètre carré par gramme (c'est sigma/m pour le sigma d'un électron et le m d'un proton, arrondi à un chiffre significatif car rien n'est jamais vraiment un pur plasma électron-proton). L'hélium purement ionisé est également facile, car si vous ignorez encore une fois les interactions résonantes entre les électrons et les noyaux, c'est exactement la même opacité de Thomson, sauf réduite par les neutrons supplémentaires [édités] dans les noyaux d'hélium lourd. Puisqu'il y a un neutron par proton, cela réduit de 0,4 par un facteur de 2, ce qui donne 0,2. [édité pour oublier que le 0.4 inclut déjà les protons.]


Luminosité d'Eddington dans divers plasmas - Astronomie

Le saint patron [des astronomes] du cyclisme

Arthur Stanley Eddington (1882-1944) était l'un des plus grands astrophysiciens du vingtième siècle, apportant des contributions fondamentales à notre compréhension de la relativité générale, ainsi que de la structure interne des étoiles et de la méthode par laquelle elles génèrent de l'énergie. Son texte "La constitution interne des étoiles" est remarquable non seulement pour sa prose fluide, mais aussi pour ses implications de grande envergure pour le développement de l'astrophysique stellaire. La fameuse "relation masse-luminosité", qui décrit la relation entre la masse d'une étoile saine et sa luminosité intrinsèque, a été imaginée par ce brillant scientifique.

Progrès de cyclisme à vie

Lorsqu'il ne faisait pas d'astrophysique, Eddington était un cycliste passionné, faisant de longues tournées en Angleterre chaque printemps et automne. Il a gardé une trace de tous ses itinéraires en les traçant sur une grande carte et a conçu un critère pour suivre les progrès du cyclisme à vie. Ce critère était le plus grand entier n tel que l'on ait pédalé au moins m miles sur m jours différents. Cette idée a été portée à mon attention par le Dr Richard Wade, l'un de mes membres du comité de thèse, pendant mes études supérieures à Penn State. Ci-dessous se trouvent deux extraits des lettres d'Eddington à Subrahmanyan Chandrasekhar, citées par ce dernier dans Eddington : l'astrophysicien le plus éminent de son temps (1984, Cambridge : Cambridge, p. 6).

Mon vélo n est toujours de 75. J'ai été plutôt malchanceux à Pâques car j'ai fait deux tours, soixante-quatorze milles et trois quarts, ce qui ne compte pas, il me faut encore quatre tours pour le prochain saut quantique. Cependant, j'ai eu un temps merveilleusement beau et un pays splendide, principalement le sud du Pays de Galles (4 juillet 1938).

n est maintenant 77. Je pense que c'était 75 quand vous étiez ici. Il a fait le dernier saut il y a quelques jours lorsque j'ai fait un tour de 80 milles dans le pays des marais. Je n'ai pas pu faire de tour à vélo depuis 1940 car il est impossible de compter sur l'obtention d'un hébergement pour la nuit donc mes records avancent lentement (2 sept. 1943).

La deuxième citation n'est pas seulement un commentaire sur l'état du monde en 1943, mais montre également qu'Eddington parcourait 80 milles ou plus à 61 ans, pas beaucoup plus d'un an avant sa mort.

Le critère mis au point par Eddington est simple mais intéressant. Par exemple, vous pourriez atteindre un nombre de 30 en faisant trente trajets de 30 milles. Mais dans la mesure où m=31 était concerné, ce serait comme si vous n'aviez jamais parcouru un seul mile. Le critère vous encourage à planifier des itinéraires, en faisant des boucles pour obtenir une distance supplémentaire qui fournit des « crédits » vers des nombres plus élevés. Au lieu de faire les 30 miles, vous pouvez explorer l'autre côté d'une colline de plus pour pousser la distance jusqu'à 37 miles, puis vous obtiendrez un crédit vers les numéros 31 à 37, ainsi que tout en dessous de 31 que vous n'aviez pas encore atteint. Et avec m=30, si vous faites un trajet de 29 miles, vous n'obtenez aucun crédit supplémentaire. (Aujourd'hui, les scientifiques qui publient des articles et sont cités par leurs pairs pourraient trouver cela un peu familier.)

Eddington n'a certainement pas qualifié cette quantité de Numéro d'Eddington cependant, je pense que c'est un titre approprié et je m'y réfère par la lettre E. Au cours de mes études supérieures, j'ai atteint un E de 27 ans, mais en déménageant en Arizona en 1992, j'ai perdu mes records. Que faire?

Si j'envoyais un article à un journal de recherche sur ce sujet, je pourrais écrire : Lors de la relocalisation du matériel du système, un problème technique s'est produit, entraînant une perte de données importante. Cependant, il a été démontré que cela a un impact négligeable sur le programme en utilisant l'algorithme de reconstruction statistique de Sammartini et Vermicelli (1979), nous avons pu récupérer le nombre d'Eddington, trouvant sa valeur à 27,2 +/- 29,0.

Ou, je peux baser le nombre sur des données concrètes et recommencer. C'est ce que j'ai fait, et mon nouveau courant E est de retour à 28.


Autres fichiers et liens

  • APA
  • Auteur
  • BIBTEX
  • Harvard
  • Standard
  • SIF
  • Vancouver

Résultats de recherche : Contribution à la revue › Article › peer-review

T1 - La plupart des noyaux galactiques actifs à faible luminosité sont-ils vraiment obscurcis ?

N2 - Aux faibles rapports d'Eddington, deux effets rendent plus difficile la détection de certains noyaux galactiques actifs (AGN) compte tenu d'un ensemble particulier de méthodes de sélection. Premièrement, même en tenant compte de la physique de l'accrétion fixe, à faible AGN, ils deviennent moins lumineux par rapport à leurs hôtes, en diluant leur émission, l'amplitude de la dilution dépend des propriétés de l'hôte et, par conséquent, de la luminosité et du décalage vers le rouge. Deuxièmement, on s'attend à ce que les systèmes bas passent à un état radiatif inefficace, ce qui modifie la forme de la distribution spectrale de l'énergie (SED) et diminue considérablement la luminosité aux longueurs d'onde optiques à infrarouges (IR). Les effets de la dilution sont inévitables, tandis que les changements précis de la physique de l'accrétion à basse température sont quelque peu incertains, mais potentiellement très importants pour notre compréhension de l'AGN. Ces effets auront des implications différentes pour des échantillons avec des critères de sélection différents, et conduiront génériquement à des différences dans les populations d'AGN récupérées dans les échantillons observés, même à luminosité bolométrique fixe et après correction de l'obscurcissement. Bien que la vraie distribution du rapport d'Eddington puisse dépendre fortement de la masse/luminosité, cela ne sera visible que dans les enquêtes robustes à la dilution et à l'inefficacité radiative, telles que les échantillons aux rayons X ou à ligne étroite par contraste, les effets de sélection impliquent que l'AGN dans les échantillons optiques ont des rapports d'Eddington uniformément élevés, avec peu de dépendance vis-à-vis de la luminosité, même à faible L bol où la médiane « vrai » 0,01. Ces mêmes effets de sélection impliquent également que des critères de sélection différents sélectionnent des systèmes avec des hôtes différents : en conséquence, le regroupement des sources optiques/IR de faible luminosité sera plus faible que celui des sources de rayons X, et les Seyferts optiques/IR résideront dans plus de galaxies dominées par les disques, tandis que les Seyferts sélectionnés par rayons X seront préférentiellement dans les systèmes de type précoce. Pris ensemble, ces effets peuvent naturellement expliquer les affirmations de longue date, apparemment contradictoires dans la littérature concernant les distributions du rapport AGN Eddington, les populations d'hôtes et le regroupement. Enfin, nous montrons que si les distributions du rapport d'Eddington observées actuellement sont correctes, une grande partie des AGN à faible luminosité actuellement classés comme « obscurcis » sont en fait radiativement dilués et/ou radiativement inefficaces, non obscurcis par le gaz ou la poussière. Ceci est également vrai si la dureté aux rayons X est utilisée comme proxy pour l'obscurcissement, car les SED à proximité radiativement inefficaces sont typiquement durs aux rayons X. Ces effets peuvent expliquer la majeure partie de la dépendance prétendue luminosité/décalage vers le rouge dans la population AGN « obscurcie », avec la vraie fraction obscurcie aussi faible que 20 %.

AB - Aux faibles rapports d'Eddington, deux effets rendent plus difficile la détection de certains noyaux galactiques actifs (AGN) compte tenu d'un ensemble particulier de méthodes de sélection. Premièrement, même en tenant compte de la physique de l'accrétion fixe, à faible AGN, ils deviennent moins lumineux par rapport à leurs hôtes, en diluant leur émission, l'amplitude de la dilution dépend des propriétés de l'hôte et, par conséquent, de la luminosité et du décalage vers le rouge. Deuxièmement, on s'attend à ce que les systèmes bas passent à un état radiatif inefficace, ce qui modifie la forme de la distribution spectrale de l'énergie (SED) et diminue considérablement la luminosité aux longueurs d'onde optiques à infrarouges (IR). Les effets de la dilution sont inévitables, tandis que les changements précis de la physique de l'accrétion à basse température sont quelque peu incertains, mais potentiellement très importants pour notre compréhension de l'AGN. Ces effets auront des implications différentes pour des échantillons avec des critères de sélection différents, et conduiront génériquement à des différences dans les populations d'AGN récupérées dans les échantillons observés, même à luminosité bolométrique fixe et après correction de l'obscurcissement. Bien que la vraie distribution du rapport d'Eddington puisse dépendre fortement de la masse/luminosité, cela ne sera visible que dans les enquêtes robustes à la dilution et à l'inefficacité radiative, telles que les échantillons aux rayons X ou à ligne étroite par contraste, les effets de sélection impliquent que l'AGN dans les échantillons optiques ont des rapports d'Eddington uniformément élevés, avec peu de dépendance vis-à-vis de la luminosité, même à faible L bol où la médiane « vrai » 0,01. Ces mêmes effets de sélection impliquent également que des critères de sélection différents sélectionnent des systèmes avec des hôtes différents : en conséquence, le regroupement des sources optiques/IR de faible luminosité sera plus faible que celui des sources de rayons X, et les Seyferts optiques/IR résideront dans plus de galaxies dominées par les disques, tandis que les Seyferts sélectionnés par rayons X seront préférentiellement dans les systèmes de type précoce. Pris ensemble, ces effets peuvent naturellement expliquer les affirmations de longue date, apparemment contradictoires dans la littérature concernant les distributions du rapport AGN Eddington, les populations d'hôtes et le regroupement. Enfin, nous montrons que si les distributions du rapport d'Eddington observées actuellement sont correctes, une grande partie des AGN à faible luminosité actuellement classés comme « obscurcis » sont en fait radiativement dilués et/ou radiativement inefficaces, non obscurcis par le gaz ou la poussière. Ceci est également vrai si la dureté aux rayons X est utilisée comme proxy pour l'obscurcissement, car les SED à proximité radiativement inefficaces sont typiquement durs aux rayons X. Ces effets peuvent expliquer la majeure partie de la dépendance prétendue luminosité/décalage vers le rouge dans la population AGN « obscurcie », avec la vraie fraction obscurcie aussi faible que 20 %.


Le pouvoir choquant d'un pulsar

L'accrétion sur les étoiles à neutrons peut générer des luminosités photoniques bien supérieures à la limite d'Eddington. Maintenant, il a été montré qu'il peut également produire des écoulements avec une puissance mécanique similaire, ce qui nécessite de repenser l'interaction entre les flux d'accrétion et les magnétosphères des étoiles à neutrons.

Les binaires à rayons X sont constitués d'un objet compact (trou noir ou étoile à neutrons) et d'une étoile donneuse. La matière est perdue par l'étoile et capturée par l'objet compact. Les photons de haute énergie (principalement des rayons X), les vents et parfois les jets relativistes sont alimentés par la libération d'énergie potentielle gravitationnelle par la matière tombante. L'efficacité de la libération d'énergie est similaire pour les trous noirs et les étoiles à neutrons (environ 10 à 20 % de l'énergie de la masse au repos). Cependant, dans une approximation sphérique, il existe une limite supérieure (appelée limite d'Eddington) au taux d'accrétion, proportionnelle à la masse de l'accréteur. Ainsi, l'hypothèse la plus sûre était que les systèmes les plus lumineux (« sources de rayons X ultralumineux ») contenaient un trou noir, car ils sont plus massifs. Cette hypothèse a été brisée ces dernières années par la découverte de l'émission pulsée (la signature révélatrice d'une étoile à neutrons) dans certaines sources de rayons X ultralumineuses 2,4,5,6,7 — les étoiles à neutrons peuvent ouvertement bafouer la limite d'Eddington.


Introduction

Pendant longtemps, la découverte des émissions d'ondes gravitationnelles (GW) du système binaire compact avec deux étoiles à neutrons PSR1913+16 [1] a été la motivation ultime pour la conception, la mise en œuvre et l'avancement d'une technologie de détection GW extrêmement sophistiquée. Les physiciens travaillant dans ce domaine de recherche ont besoin de cette technologie pour mener des enquêtes approfondies sur les GW afin de faire avancer la science. L'observation de GW à partir d'une fusion de trous noirs binaires (BH) (événement GW150914) [2], qui s'est produite à l'occasion du 100e anniversaire de la prédiction d'Albert Einstein sur les GW [3], a récemment montré que ce défi ambitieux a été gagné. L'événement GW150914 a représenté une pierre angulaire pour la science et pour la physique gravitationnelle en particulier. En fait, cet événement remarquable a donné aux scientifiques les moyens de donner la preuve définitive de l'existence des GW, de l'existence de BH ayant une masse supérieure à 25 masses solaires et de l'existence de systèmes binaires de BH qui fusionnent en un temps inférieur à l'âge de l'Univers [2]. Après l'événement GW150914, LIGO a détecté une deuxième salve de GW provenant de la fusion de BH, l'événement GW151226 [4]. Le grand espoir est que de telles détections, également grâce à la collaboration avec d'autres détecteurs [5, 6], deviendront bientôt routinières et feront partie d'une astronomie GW naissante.

L'astronomie GW sera importante pour une meilleure connaissance de l'Univers et aussi pour confirmer ou infirmer la cohérence physique de la théorie de la relativité générale (GTR) ou de toute autre théorie de la gravitation [7]. En effet, dans le contexte des théories étendues de la gravité (ETG), certaines différences entre la GTR et les autres théories peuvent être signalées à partir de la théorie linéarisée de la gravité [7]. Dans cette image, les détecteurs de GW sont en principe sensibles également à une hypothétique scalaire composante du rayonnement gravitationnel, qui apparaît dans ETG comme la gravité scalaire-tenseur et F(R) théories [7]. Précisons quelques motivations importantes qui conduisent à une potentielle extension et généralisation du GTR.

Bien que la GTR d'Einstein [8] ait connu un grand succès (voir par exemple l'opinion de Landau qui dit que la GTR est, avec la théorie quantique des champs, la meilleure théorie scientifique de toutes [9]) et a résisté à de nombreux tests expérimentaux, elle a également affiché de nombreux lacunes et défauts qui amènent aujourd'hui les théoriciens à se demander s'il s'agit de la théorie définitive de la gravité voir les revues [10, 11, 42] et les références qui y sont contenues. Contrairement aux autres théories des champs, comme la théorie électromagnétique, le GTR est très difficile à quantifier. Ce fait exclut la possibilité de traiter la gravitation comme d'autres théories quantiques, et exclut l'unification de la gravité avec d'autres interactions. A l'heure actuelle, il n'est pas possible de réaliser une théorie quantique cohérente de la gravité (QTG) qui conduit à l'unification de la gravitation avec les autres forces. D'un point de vue historique, Einstein croyait que, dans la voie de l'unification des théories, la mécanique quantique devait être soumise à une théorie déterministe plus générale, qu'il appelait théorie généralisée de la gravitation, mais il n'obtint pas les équations finales de telles une théorie (voir par exemple la biographie d'Einstein dans [12]). À l'heure actuelle, ce point de vue est partiellement récupéré par certains théoriciens, à commencer par le prix Nobel 't Hooft [13].

Cependant, il faut se rappeler qu'au cours des 30 dernières années, une discussion critique forte à la fois sur la GTR et la mécanique quantique a été menée par les théoriciens de la communauté scientifique. La première motivation de cette discussion historique vient du fait que l'un des objectifs les plus importants de la physique moderne est d'obtenir une théorie qui pourrait, en principe, montrer les interactions fondamentales comme différentes formes du même symétrie [10, 11, 42]. Considérant ce point de vue, on observe et teste aujourd'hui les résultats d'une ou plusieurs brisures de symétrie. De cette façon, il est possible de dire que nous vivons dans un asymétrique monde. Au cours des 60 dernières années, l'idée dominante a été qu'une description fondamentale des interactions physiques découle de la théorie quantique des champs. Dans cette tapisserie, différents états d'un système physique sont représentés par des vecteurs dans un espace de Hilbert défini dans un espace-temps, tandis que les champs physiques sont représentés par des opérateurs (c'est-à-dire des transformations linéaires) sur un tel espace de Hilbert. Le plus gros problème est qu'un tel cadre de mécanique quantique n'est pas compatible avec la gravitation, car ce champ particulier, c'est-à-dire la métrique (h_) , décrit à la fois les aspects dynamiques de la gravité et le fond de l'espace-temps. En d'autres termes, on dit que la quantification des degrés de liberté dynamiques du champ gravitationnel est censée donner une description quantique de l'espace-temps. C'est un problème sans égal dans le contexte des théories quantiques des champs, car les autres théories sont fondées sur un fond spatio-temporel fixe, qui est traité comme un continuum classique. Ainsi, à l'heure actuelle, un QTG absolu, ce qui implique une unification totale des différentes interactions n'a pas été obtenu. De plus, le GTR suppose une description classique de la matière qui est totalement inappropriée aux échelles subatomiques, qui sont les échelles de l'Univers relique [14, 15, 42].

Dans les approches d'unification, d'un point de vue initial, on suppose que les champs de matériaux observés proviennent de superstructures comme les bosons de Higgs ou les supercordes qui, subissant des transitions de phase, génèrent de véritables particules. D'un autre point de vue, on suppose que la géométrie (par exemple le scalaire de courbure de Ricci R) interagit avec des champs quantiques matériels générant des contre-réactions qui modifient l'action gravitationnelle en ajoutant des termes d'interaction (des exemples sont des termes d'ordre élevé dans le scalaire de Ricci et/ou dans le tenseur de Ricci et un couplage non minimal entre la matière et la gravité voir ci-dessous). Diverses approches d'unification ont été suggérées, mais sans preuve d'observation palpable dans un environnement de laboratoire sur Terre. Au lieu de cela, en cosmologie, certaines preuves observationnelles pourraient être obtenues avec une approche de perturbation [15, 42]. A partir de ces considérations, on peut définir comme ETG les théories semi-classiques où le lagrangien est modifié, par rapport au lagrangien gravitationnel d'Einstein-Hilbert standard, en ajoutant des termes d'ordre élevé dans les invariants de courbure (termes comme (R^<2 >) , (R^R_) , (R^R_ ) , (RBoîte R) , (RBoîte ^R) ) ou des termes avec des champs scalaires non couplés au minimum à la géométrie (termes comme (phi ^<2>R) ) voir [10, 11, 42] et les références qu'il contient. En général, il faut souligner que des termes comme ceux-là sont présents dans toutes les approches du problème de l'unification entre la gravité et les autres interactions. De plus, d'un point de vue cosmologique, de telles modifications du GTR génèrent des cadres inflationnistes très importants car ils résolvent de nombreux problèmes du modèle standard de l'Univers [14,15,16,42].

Dans le contexte général des preuves cosmologiques, il y a aussi d'autres considérations qui suggèrent une extension du GTR. En fait, l'expansion accélérée de l'Univers, qui est observée aujourd'hui, implique que la dynamique cosmologique est dominée par ce qu'on appelle l'Énergie Noire, qui donne une grande pression négative. C'est l'image standard, dans laquelle ce nouvel ingrédient est considéré comme une source du côté droit des équations de champ. Il devrait avoir une certaine forme d'énergie du vide non regroupée et non nulle qui, avec la matière noire regroupée, dirige la dynamique mondiale. C'est ce que l'on appelle le « modèle de concordance » ( (Lambda ) CDM) qui donne, en accord avec les données CMBR, LSS et SNeIa, une bonne image de l'Univers observé aujourd'hui, mais présente plusieurs lacunes telles que le bien- problèmes connus de « coïncidence » et de « constante cosmologique » [17]. Une approche alternative consiste à changer le côté gauche des équations de champ, pour voir si la dynamique cosmique observée peut être obtenue en étendant GTR voir [7, 10, 11, 42] et les références qu'il contient. Dans ce contexte différent, il n'est pas nécessaire de trouver des candidats à l'Energie Noire et à la Matière Noire qui, jusqu'à présent, n'ont pas été trouvés, seuls les ingrédients « observés », que sont la courbure et la matière baryonique, doivent être pris en compte. Compte tenu de ce point de vue, on peut penser que la gravité est différente à différentes échelles et qu'il y a place pour des théories alternatives. En principe, les modèles Dark Energy et Dark Matter les plus populaires peuvent être obtenus en considérant F(R) théories de la gravité, où R est la courbure de Ricci [7, 10, 11, 42]. Dans cette image, l'astronomie GW naissante pourrait, en principe, être importante. En fait, une astronomie GW cohérente sera le test définitif pour le GTR ou, alternativement, une forte approbation pour ETG [7, 42].

Selon le GTR, un système avec un moment de masse variant dans le temps perdra son énergie en rayonnant les GW [3, 9, 18]. Cette perte d'énergie, à l'ordre le plus bas, est proportionnelle à la dérivée temporelle du troisième ordre du moment quadripolaire de la distribution masse-énergie [18]. Dans (R^<2>) -gravity, qui est l'extension la plus simple de F(R)-gravité, du fait de la présence du troisième mode de polarisation issu du terme de courbure (R^<2>), la situation est différente : la contribution extra massive du mode conduit à une perte d'énergie supplémentaire qui est proportionnelle au temps de quatrième ordre dérivée du moment quadripolaire [19].

En comparant les considérations théoriques avec le taux de décroissance observé des systèmes binaires PSR B1913+16 [1] et PSR J0348+0432 [20] certaines contraintes sur la force du terme dépendant (R^<2>) sont obtenues [ 19, 21, 22]. Dans de nombreuses situations astrophysiques, le plasma chaud d'atomes ionisés émet un rayonnement électromagnétique et gravitationnel à travers les collisions coulombiennes entre les électrons et les ions [23,24,25,26]. Ainsi, l'étude de la luminosité gravitationnelle d'un plasma est d'intérêt général et peut être un autre test pour la validité de F(R) théorie de la gravité. Dans [27], une expression a été dérivée pour la quantité d'énergie rayonnée dans un bremsstrahlung gravitationnel classique en (R^<2>) -gravité, en supposant l'approximation de la diffusion aux petits angles. Dans le présent article, nous l'appliquons pour dériver la luminosité gravitationnelle d'un plasma chaud avec le bremsstrahlung gravitationnel comme mécanisme de la perte d'énergie. Dans la Sect. 2, nous linéarisons la théorie de la (R^<2>) -gravité et, après cela, nous discutons brièvement du rayonnement quadripolaire en (R^<2>) -gravité et de la perte d'énergie due au bremsstrahlung gravitationnel dans un seul Collision coulombienne entre deux particules chargées. La section 3 est consacrée au calcul du rayonnement thermique gravitationnel du plasma d'hydrogène. Dans la Sect. 4 nous illustrons enfin la correction avec une application au Soleil. Un résumé des principaux résultats est présenté dans la Sect. 5.


Le Slog AstroStat

Au cours de la préparation de son récent discours sur logN-logS, Andreas a mentionné à quel point les gens sont parfois confus quant à la variété des biais statistiques qui affligent les enquêtes. Ils savent généralement quels sont les préjugés, mais ont souvent tendance à mal les étiqueter, en particulier les types Eddington et Malmquist. Un peu comme utiliser “your” et “you’re” indifféremment, ce qui pour moi est comme des clous sur un tableau noir. Voici donc un bref résumé :

Biais d'Eddington : Ce que vous obtenez en raison des fluctuations statistiques de la mesure (Eddington 1913). Un ensemble de sources à luminosité unique va, à l'observation, s'étaler en raison d'une erreur de mesure. Lorsque vous avez deux ensembles de sources avec des luminosités différentes, la distribution observée se chevauchera. S'il y a plus d'objets d'une luminosité que l'autre, vous risquez de mal sous-estimer la fraction dans cet ensemble car plus de ceux-ci se dispersent dans l'autre domaine que l'inverse. Une autre complication - si la dispersion statistique se heurte à une sorte de seuil de détection, alors la luminosité inférée basée uniquement sur les sources détectées finira par être surestimée.

Biais de Malmquist : Ce que vous obtenez parce que vous pouvez voir des sources plus lumineuses à des distances plus éloignées. Cela signifie que si votre enquête est limitée en flux (comme la plupart le sont), alors les sources intrinsèquement plus lumineuses sembleront être plus nombreuses qu'elles ne devraient l'être parce que vous les voyez dans un volume plus important. C'est la raison, par exemple, qu'il y a 10 fois plus d'étoiles A dans le catalogue SAO que d'étoiles M. Il s'agit d'un effet statistique uniquement dans le sens où un ensemble de données « vrai » est filtré en raison d'un seuil de détectabilité. Quiconque travaille avec des échantillons à volume limité n'a pas du tout à s'inquiéter à ce sujet.

3 commentaires

Le biais de Malmquist semble équivalent à un modèle de données manquantes : en connaissant un modèle cosmologique (FMI ou une distribution de masse ?), on connaît à peu près la proportion d'observables, bien que je comprenne que la FIM ou certains indicateurs pertinents de l'univers matériel sont liés à la complexité de ce biais.

Le biais d'Eddington ne semble pas seulement un problème manquant, mais combiné à une censure manquante et aléatoire. Si la magnitude d'une étoile est petite, il n'y a pas de biais. Si la magnitude d'une étoile est grande, alors elle pourrait ne pas être observée (manquante) mais lorsqu'elle est observée, c'est la limite des magnitudes observables (ou en dessous de la limite des magnitudes), pas la vraie magnitude de l'étoile (censure) .

[Notez que les étoiles de plus petites magnitudes sont plus brillantes que les plus grandes et que les étoiles de même magnitude (en magnitude absolue) peuvent être observées ou non en fonction de leurs distances - Biais de Malmquist]

Au fait, qu'est-ce que le catalogue SAO ?

Le biais d'Eddington, tel que formulé par l'homme lui-même, s'applique à toutes les intensités. La supprimer revient essentiellement à déconvoluer avec la distribution de Poisson (ou gaussienne). Il est important et ne peut être ignoré pour les sources faibles proches de la limite de détection.

Juste pour clarifier, le biais de Malmquist n'est pas cosmologique. (Le catalogue d'étoiles SAO est sur http://webviz.u-strasbg.fr/viz-bin/VizieR?-source=I/131A ) Pour que cela fonctionne comme une augmentation de données, votre modèle devra s'étendre à la plus grande distance que votre source la plus brillante imaginable pourrait être vue. À ce stade, votre code deviendra extrêmement inefficace.

Ce SAO est le SAO que je connais. Observatoire d'astrophysique Smithsonian


Processus d'astrophysique

Ce livre a été cité par les publications suivantes. Cette liste est générée à partir des données fournies par CrossRef.
  • Editeur : Cambridge University Press
  • Date de publication en ligne : juin 2012
  • Année de publication imprimée : 2008
  • ISBN en ligne : 9780511802249
  • DOI : https://doi.org/10.1017/CBO9780511802249
  • Matières : Physique et Astronomie, Astrophysique

Envoyez un e-mail à votre bibliothécaire ou à votre administrateur pour lui recommander d'ajouter ce livre à la collection de votre organisation.

Description du livre

Comblant le fossé entre les manuels de physique et d'astronomie, ce livre fournit un développement physique et mathématique étape par étape des processus astrophysiques fondamentaux sous-jacents à un large éventail de phénomènes en astronomie stellaire, galactique et extragalactique. Le livre a été écrit pour les étudiants de premier cycle et les étudiants de deuxième cycle débutants, et sa solide pédagogie garantit une solide maîtrise de chaque processus et application. Il contient plus de 150 figures didactiques, de nombreux exemples de mesures astronomiques et 201 exercices. Les sujets abordés incluent le problème Kepler-Newton, la structure stellaire, l'évolution binaire, les processus de rayonnement, la relativité restreinte en astronomie, la propagation radio dans le milieu interstellaire et la lentille gravitationnelle. Les applications présentées incluent la longueur de Jeans, la luminosité d'Eddington, le refroidissement du fond diffus cosmologique (CMB), l'effet Sunyaev-Zeldovich, l'amplification Doppler dans les jets et les déterminations de la constante de Hubble. Ce texte est un tremplin vers des livres plus spécialisés et de la littérature primaire. Des solutions protégées par mot de passe pour les exercices sont disponibles pour les instructeurs sur www.cambridge.org/9780521846561.

Commentaires

« Le style d'écriture engageant de l'auteur en fait un livre très agréable. Chaque sujet commence par un matériel d'observation intéressant, puis passe à une discussion des concepts physiques, amplifiés par les mathématiques, et de très bonnes figures, puis le rattache en terminant par des applications plus observationnelles, soit en résolvant le problème posé au début du chapitre ou en présenter de nouveaux. C'est un livre parfait pour les seniors.

Marc L. Kutner - auteur de Astronomy: A Physical Perspective

«Une introduction lucide à une sélection de sujets de base en astronomie, expliquant la physique derrière l'astrophysique. Les processus radiatifs sont traités avec juste le bon niveau de rigueur pour que les étudiants apprennent à effectuer des calculs utiles tout en développant leur intuition physique. J'ai utilisé avec succès des parties de ce livre pour mon cours de première année.'

Eugene Chiang - Professeur agrégé d'astronomie, Université de Californie, Berkeley

«Cet excellent livre aborde 12 domaines de l'astrophysique, en commençant par Newton et Kepler et se terminant par les lentilles gravitationnelles, et expose clairement la physique sous-jacente. … Hautement recommandé.'

Guy Pooley Source : L'Observatoire

Review of Astronomy Methods, également par Hale Bradt : « … un ajout brillant à la pédagogie. Il est opportun, ciblé, bien écrit et au niveau approprié… Les méthodes d'astronomie seront utiles à tous les étudiants en astronomie et en astrophysique, qu'ils aient ou non l'intention de se spécialiser en astronomie d'observation. Le matériel peut être facilement adapté à divers cours connexes, ce qui rend le livre encore plus précieux.'


Quelle est la limite d'Eddington ? (avec photo)

La limite d'Eddington, également appelée luminosité d'Eddington, est le point auquel la luminosité émise par une étoile ou une galaxie active est si extrême qu'elle commence à souffler sur les couches externes de l'objet. Physiquement parlant, c'est la plus grande luminosité qui peut traverser un gaz en équilibre hydrostatique, ce qui signifie que des luminosités plus élevées détruisent l'équilibre. L'équilibre hydrostatique est la qualité qui maintient une étoile ronde et approximativement de la même taille dans le temps.

The Eddington limit is named after the British astrophyicist Sir Arthur Stanley Eddington, a contemporary of Einstein who was famous for confirming the general theory of relativity using eclipse observations. In an actual star, the Eddington limit is likely reached around 120 solar masses, at which point a star starts ejecting its envelope through intense solar wind. Wolf-Rayet stars are massive stars showing Eddington limit effects, ejecting .001% of their mass through solar wind per year.

Nuclear reactions in stars are often highly dependent on temperature and pressure in the core. In more massive stars, the core is hotter and denser, causing an increased rate of reactions. These reactions produce copious heat, and above the Eddington limit, the outwards radiant pressure exceeds the force of gravitational contraction. However, there are different models for where the Eddington mass limit is precisely, differing by as much as a factor of two. We aren't sure whether the observed stellar mass limit of

150 solar masses is a true limit, or we just haven't found more massive stars yet.

It is thought that in the early years of the universe, about 300 million years after the Big Bang, extremely massive stars containing several hundred solar masses were able to form. This is because these stars had practically no carbon, nitrogen, or oxygen (just hydrogen and helium), substances which catalyze hydrogen-fusing reactions, increasing a star's luminosity. These early stars still fused hydrogen very rapidly, and had lifetimes of no more than a million years.

Michael est un contributeur de longue date d'InfoBloom spécialisé dans les sujets liés à la paléontologie, la physique, la biologie, l'astronomie, la chimie et le futurisme. In addition to being an avid blogger, Michael is particularly passionate about stem cell research, regenerative medicine, and life extension therapies. He has also worked for the Methuselah Foundation, the Singularity Institute for Artificial Intelligence, and the Lifeboat Foundation.

Michael est un contributeur de longue date d'InfoBloom spécialisé dans les sujets liés à la paléontologie, la physique, la biologie, l'astronomie, la chimie et le futurisme. In addition to being an avid blogger, Michael is particularly passionate about stem cell research, regenerative medicine, and life extension therapies. He has also worked for the Methuselah Foundation, the Singularity Institute for Artificial Intelligence, and the Lifeboat Foundation.


10 Most Influential Astronomers Of All Time

While it is almost impossible to list all the astronomers that have made valuable contributions to the science of astronomy through the ages, it becomes merely difficult to list the ten most important astronomers of recent times. However, the work of modern astronomers rests largely upon the discoveries and insights of previous generations of scientists, so in this list, we will take a closer a look at the ten most important astronomers of the last several hundred years, in chronological order.

Claudius Ptolemy (2nd Century AD)

Renowned throughout the ancient world as an outstanding star gazer, Ptolemy constructed an accurate geocentric model of the solar system. The Almagest, which is revered even today, used a series of deferents and epicycles to describe planetary motions, and it was the foundation of observational astronomy for 1,500 years, until the work of Copernicus superseded it as a working heliocentric model of the solar system.

Tycho Brahe (1546 – 1601)

Known as a brilliant mathematician, Brahe plotted the motions of the planets so accurately that his calculations formed the basis from which Johannes Kepler formulated his famous laws on planetary motion. While chronicling the supernova of 1572, Brahe also proved that since it showed no diurnal parallax, the supernova must therefore lay beyond the Moon. In addition to all this, Brahe also accurately plotted the orbit of the comet of 1577.

Galileo Galilei (1564-1642)

Although Galilei did not invent the telescope as is commonly believed, he was the first to actually resolve the Milky Way into individual stars. Galilei was also the first to observe, and make sketches of the phases of Venus, apart from discovering sunspots, and four moons of Jupiter, hence the term, “Galilean moons,” which are Io, Europa, Ganymede, and Calisto. Not quite done, Galilei also calculated the rate of the Sun’s rotation, made sketches of prominent features of the Moon, and measured lunar libration, or the amount of “wobble” the Moon displays in its rotation.

Johannes Kepler (1571 – 1630)

Although the reasoning behind Kepler’s Laws is for the most part no longer accepted as valid, his Laws are in themselves still as valid as when he formulated them. Below is a summary of his Laws that describe the elliptical motion of any planet, and any satellite, or moon.

• The Law of Ellipses: The path of the planets about the sun is elliptical in shape, with the center of the sun being located at one focus.
• The Law of Equal Areas: An imaginary line drawn from the center of the sun to the center of the planet will sweep out equal areas in equal intervals of time.
• The Law of Harmonies: The ratio of the squares of the periods of any two planets is equal to the ratio of the cubes of their average distances from the Sun.

In addition, Kepler also explained the formation of images when seen through very small apertures, such as pinholes, and supplied the first articulation of an inverse square law that relates to the intensity of the illumination of objects.

William Herschel (1738 – 1822)

Apart from being known as an expert observer and a maker of excellent telescopes, the most important discovery made by Herschel was the existence of infrared radiation, through the use of a prism and three common mercury-filled thermometers. In addition, Herschel discovered the planet Uranus in 1781, but the name he proposed for his discovery Georgium Sidus, or George’s Star, after his patron, King George III, was rejected in favor of the name we know today. Not discouraged, Herschel went on to discover several satellites of both Saturn and Uranus, that some stars exist in binary systems, and made unsuccessful attempts to map the shape of the Milky Way Galaxy. Sir William Herschel is also remembered for the catalogues of stars he compiled such as The Catalogue of Nebulae and Clusters of Stars, which was published in 1786.

Pierre-Simon Laplace (1749 – 1827)

Apart from fixing the masses of Jupiter, Saturn, and Uranus, and publishing many differential equations that described planetary orbits and tides, Laplace was the first to postulate the theory that the solar system was formed from a large, flattened disc, which was only comparatively recently proven to be the case. Furthermore, Laplace successfully applied probability theory to errors in astronomical observations, and the French mathematician was also the first person to propose the idea of black holes.

Sir Arthur Eddington (1882 – 1944)

Apart from carrying out the experiment that proved Einstein right with regard to the fact that extreme masses can, and in fact do bend light, Eddington also provided a description of the mechanism whereby massive stars pulsate- the well known Eddington Valve Mechanism. Moreover, Eddington showed that that there exists a close relationship between the mass of a star and its luminosity, and also formulated the Eddington Limit, which is complicated set of rules that directly relate a star’s maximum brightness to the effect of its own gravity on its temperature, and thus its luminosity.

Edwin Hubble (1889 – 1953)

Using several Cepheid variable stars, some in the Andromeda Galaxy ( M31), and some in the Triangulum Galaxy ( M33), Hubble was able to conclusively show that the Milky Way galaxy was only one of billions of other galaxies in the Universe, and not the only one, as was the popular belief at the time. More importantly though, Hubble showed that at cosmological scales all matter in the Universe is distributed evenly, and that there was a close relationship between the distance of an object from Earth, and the velocity at which the object is receding from us. This relationship, known as Hubble’s Law, shows that the further away an object is, the higher its recessional velocity, which fact provided a basis for the development of cosmology as a science.

Gerhard Kuiper (1905 – 73)

Regarded as the first planetary scientist, Kuiper used the relatively new science of spectroscopy to identify CH4 (methane) on Saturn’s moon Titan, and CO2 (carbon dioxide) on Mars. In addition, Kuiper is credited with the postulation, and subsequent discovery of the Kuiper Belt, a belt of debris surrounding the solar system that is thought to be material that failed to coalesce into planets during the formation of the solar system.

Carl Sagan (1934 – 1996)

Many people might remember Sagan as the co-author and narrator of the TV series Cosmos, but the truth is that he was much more than that, so much so that Isaac Asimov, who published several hundred books on science topics, once described Sagan as “…one of only two people he has ever met that has a higher IQ than himself.” Which is high praise indeed. Sagan was an astronomer, cosmologist, astrophysicist, and astro-biologist, Pulitzer Prize winning author, and a hugely successful populariser of science in general- apart from authoring and publishing more than 600 scientific research papers. Apart from designing and building mechanical devices such as tools for use in space flight, Sagan also predicted that Venus would be very hot, and that what was seen as patches of vegetation on Mars, was in fact gigantic dust storms both theories was proven correct with subsequent space missions to Venus and Mars.

Sagan was also part of the development team of Voyager II, and the Pioneer II craft that made close approaches to Saturn and Jupiter, apart from making huge contributions to SETI, the Search for Extra-terrestrial Intelligence program. But Sagan is perhaps best remembered for his view of the human race and it’s place in the Universe, when he said that “The universe is not required to be in perfect harmony with human ambition.”


Xinyu Dai

My research interests lie in understanding astronomical objects such as gravitational lenses, galaxy clusters, active galactic nuclei, and gamma-ray bursts.

Since the discovery of the first cosmological gravitational lens in 1979, gravitational lensing has become an important tool in many astrophysical applications. In particular, quasar microlensing provides a novel method to map the quasar accretion disk structure. Utilizing the dependence of microlensing variability on the source size, we are able to resolve the disk structure that is several orders of magnitude smaller than the angular resolution of our current telescopes. Beside quasar microlensing, I am also interested in probing the interstellar medium of lens galaxies, and exploring the embedded lensing model.

Galaxy clusters are the largest gravitationally bound objects in the universe. They are ideal sites to constrain cosmological parameters and study structure formation. I am currently working on the Swift soft X-ray serendipitous cluster survey. The survey has the potential to find one of the largest X-ray selected cluster catalog to date. I also study the missing Baryon problem in the universe.

Active galactic nuclei (AGNs) are very energetic sources in the universe powered by supermassive black holes. I am interested in the feedback process of AGNs to their host galaxies, in particular, the kinetic feedback carried out by winds. I am working on measuring the intrinsic fractions of broad absorption line quasars of various species and the average absorption column densities of these objects. In addition, I also study the relationships between various AGN parameters such as the broadband spectral index, X-ray spectral index, luminosity, Eddington ratio, and variability with the aim to constrain AGN physics.

Gamma-ray bursts (GRBs) are the biggest explosions in the universe after the Big Bang. I am working on the population studies of GRBs, which include constraining the GRB jet structure from both observational and theoretical approaches.

Selected Publications

"The Sizes of the X-ray and Optical Emission Regions of RXJ1131-1231," X. Dai, C. S. Kochanek, G. Chartas, S. Kozlowski, C. W. Morgan, G. Garmire, E. Agol, ApJ , 709 , 278, (2010) ADS: 2010ApJ. 709..278D

"On the Baryon Fractions in Clusters and Groups of Galaxies," X. Dai, J. N. Bregman, C. S. Kochanek, E. Rasia, ApJ , 719 , 119, (2010) ADS: 2010ApJ. 719..119D

"2MASS Reveals a Large Intrinsic Fraction of BALQSOs," X. Dai, F. Shankar, G. R. Sivakoff, ApJ , 672 , 108, (2008) ADS: 2008ApJ. 672..108D

"Optical and X-ray Observations of GRB 060526: A Complex Afterglow Consistent with An Achromatic Jet Break," X. Dai, J. P. Halpern, N. D. Morgan, E. Armstrong, N. Mirabal, J. B. Haislip, D. E. Reichart, K. Z. Stanek, ApJ , 658 , 509, (2007) ADS: 2007ApJ. 658..509D


Voir la vidéo: A3 L4 V03 Eddington (Février 2023).