Astronomie

Les trous noirs devraient-ils contenir le même rapport de matière noire à matière ordinaire que le reste de l'univers ?

Les trous noirs devraient-ils contenir le même rapport de matière noire à matière ordinaire que le reste de l'univers ?



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Les trous noirs devraient-ils contenir le même rapport de matière noire à matière ordinaire que le reste de l'univers ? J'ai entendu dire que la matière noire est distribuée en halos autour des galaxies. Cela le rend-il moins susceptible d'être ingéré dans un trou noir ?


(Réponse courte : non, faites défiler jusqu'au dernier point.)

  • Il importe peu à un observateur extérieur de savoir si la matière qui est tombée dans le trou noir était de la matière noire ou baryonique, selon le théorème de l'absence de cheveux. Les seules propriétés d'un trou noir de notre point de vue sont la masse, la charge électrique et le moment cinétique. (Mais bien sûr, nous ne comprenons pas la gravité quantique.)
  • Du point de vue de la matière tombée dans le trou noir, il ne se passe rien de spécial en traversant l'horizon des événements. Cela signifie que la matière noire reste noire et que la matière baryonique reste baryonique lorsqu'elle est vue de l'intérieur du trou noir.
  • Il y a une certaine controverse sur la quantité de matière noire qui existe dans l'univers. Cet article récent, par exemple, indique dans l'abstrait qu'une modélisation plus précise des courbes de rotation galactique pourrait éliminer un grand pourcentage de la matière noire non baryonique attendue. (Notez, comme @pela l'a indiqué dans les commentaires, que les articles de cet auteur n'ont pas été évalués par des pairs et pourraient être suspects.) De toute évidence, la quantité de matière noire dans l'univers affecterait grandement la réponse à la question. Je dois noter que la controverse est principalement composée d'un petit nombre de scientifiques de la voix qui apparaissent de manière disproportionnée dans les médias. En suivant les rubriques scientifiques de l'actualité grand public, j'ai l'impression que la mort de la matière noire semble être annoncée une fois par mois environ.
  • La formation des trous noirs supermassifs est mal comprise. Une hypothèse est qu'ils peuvent se former par fusion successive de trous noirs de masse stellaire. Comme il y a eu récemment des observations d'ondes gravitationnelles de telles fusions, et comme des candidats pour les trous noirs de masse intermédiaire ont également été observés récemment, je supposerai ici que c'est ainsi qu'ils se forment et que les trous noirs supermassifs sont donc faits à peu près de la même substance que trous noirs de masse stellaire.
  • Les trous noirs perdent la majeure partie de leur masse au cours du processus de formation. Il est important de toujours garder à l'esprit s'il s'agit de la masse du noyau stellaire qui s'est effondré pour former le trou noir (c'est souvent la "masse" d'un trou noir à laquelle on fait référence lorsque l'on parle par exemple de la taille minimale du trou noir trou qui peut se former à partir de l'effondrement du noyau) ou la masse du trou noir vue par un observateur distant après la supernova.
  • Les particules de matière noire ne peuvent pas perdre beaucoup d'énergie orbitale en interagissant avec d'autres matières ni par rayonnement, elles resteront donc en orbite autour d'un trou noir plutôt que d'y tomber, à moins qu'elles n'arrivent par chance improbable de le frapper près de l'horizon des événements. Cet article indique que les trous noirs supermassifs simulés ne tirent pas plus d'environ 10 % de leur masse de la matière noire.

Cependant, il faut dire que certains scientifiques soupçonnent que la matière noire est en premier lieu constituée de trous noirs primordiaux. Il existe également la théorie des MACHO (Massive Compact Halo Objects), selon laquelle la matière noire est composée de grands corps compacts tels que les trous noirs, mais la plupart pensent que cette théorie ne peut pas expliquer la matière noire dans l'univers.


La matière noire est (pensée être) dans des halos qui s'étendent à la fois au centre des galaxies et en dehors de la plupart de la matière normale dans les galaxies (gaz, étoiles, poussières). Donc un trou noir à l'intérieur d'une galaxie pourrait et ingérera sans aucun doute de la matière noire. Pourtant:

Les trous noirs de masse stellaire se forment à partir de l'effondrement du noyau d'une étoile massive. Puisque les étoiles sont presque entièrement constituées de matière régulière, le reste BH initialement formé aurait lui-même été constitué presque entièrement de matière régulière. De tels BH pourraient plus tard se développer en accrétant du gaz (par exemple, à partir d'une étoile compagne binaire proche), auquel cas ils gagnent de la masse sous forme de matière régulière. Il y aurait inévitablement quelque matière noire avalée par le BH alors qu'il orbitait dans sa galaxie parente - tout comme le BH avalerait de la poussière interstellaire, par exemple. Mais il serait encore massivement formé de matière régulière.

Les trous noirs supermassifs dans les centres des galaxies commenceraient probablement par une sorte d'effondrement de l'univers primitif d'un nuage de gaz ou d'une étoile très massive, qui serait à nouveau principalement de la matière ordinaire. La croissance ultérieure des BH supermassifs provient principalement du gaz interstellaire alimentant un disque d'accrétion autour du BH, ainsi que de l'étoile occasionnelle qui erre trop près – donc encore une fois, c'est principalement de la matière ordinaire qui tombe dans le trou noir. (Les régions centrales des galaxies fais ont de la matière noire, mais ils sont dominés par la matière ordinaire. De plus, la matière ordinaire sous forme de nuages ​​de gaz peut facilement perdre de l'énergie via des collisions nuage-nuage et couler au centre de la galaxie, où elle pourrait alimenter un BH supermassif ; la matière noire ne peut pas faire ça.)

(Bien sûr, comme le souligne user25972, cela n'a pratiquement aucun intérêt pour les étrangers comme nous quelle genre de matière entre dans la fabrication d'un BH. Un trou noir formé de matière noire se comporterait de la même manière qu'un trou noir formé de matière ordinaire.)


Les trous noirs devraient-ils contenir le même rapport de matière noire à matière ordinaire que le reste de l'univers ? - Astronomie

Les galaxies sont nées de fluctuations primordiales avec une évolution probablement entraînée par la gravitation comme effet dominant. La gravitation, en tant que concept géométrique, a le même effet sur les différents types de particules. Certaines forces autres que la gravitation, telles que l'interaction avec les photons, les effets dissipatifs, les champs magnétiques, etc., pourraient également avoir une influence et agir différemment sur les particules impliquées, mais une tendance globale pour les galaxies et les amas à avoir une composition similaire à la la composition générale de l'Univers est à prévoir.

Nos connaissances sur la composition de l'Univers ont changé ces derniers temps par rapport à la vision classique, résumée, par exemple, par Schramm (1992). Cette nouvelle conception a été revue, par exemple, par Turner (1999a, b). La matière dominante est considérée comme la matière noire froide (CDM), constituée de particules se déplaçant lentement, de sorte que la densité d'énergie CDM est principalement due à la masse au repos de la particule, il existe une grande série de candidats pour les particules CDM, mais les axions et neutralinos étant les possibilités les plus attrayantes.

Les études de nucléosynthèse du Big Bang ont permis de déterminer avec précision la densité de baryons en (0,019۪.0012) h -2 . La densité des baryons d'amas a également été déterminée avec précision par les rayons X et l'effet Sunyaev-Zeldovich comme étant f B = (0,07۪.007) h -3/2 et, en supposant que les amas riches fournissent un bon échantillon de matière dans l'Univers , aussi / = f B , d'où il résulte = (0,27۪,05) h -1/2 . L'Univers est cependant plat, = 1, le spectre CMB étant un indicateur sensible. Donc = 1 = + , où

0,7 représente la contribution de l'énergie du vide, ou plutôt la contribution du terme cosmologique . Avec cette valeur élevée de l'Univers devrait être en expansion accélérée, ce qui a été confirmé par l'étude des supernovae à redshift élevé, qui suggèrent également

0,7 (Perlmutter, Turner et White, 1999 Perlmutter et al. 1999). La matière stellaire ou visible est estimée à = 0,003 - 0,006. Toutes ces valeurs peuvent être écrites dans une liste plus facile à retenir, avec des valeurs compatibles avec les chiffres ci-dessus, en adoptant les valeurs de H 0 = 65 kms -1 Mpc -1 h=0.65 :

moins précis mais utile pour les calculs exploratoires rapides.

Un gros amas devrait avoir plus ou moins cette composition, y compris le halo bien sûr, même si un halo pouvait contenir plusieurs concentrations baryoniques ou simplement aucune. Par conséquent, une première approche directe du problème suggère que les halos ne sont pas baryoniques, la matière baryonique étant un constituant mineur.

C'est également le point de vue adopté par la plupart des modèles théoriques actuels (cela sera examiné plus loin, dans la section 4.2.2), qui font suite aux articles fondateurs de Press et Schechter (1974) et de White et Rees (1978). Nous avançons le commentaire que, dans ces modèles, une matière noire froide non dissipative sans collision dominante est l'ingrédient principal des halos tandis que les baryons, probablement simplement du gaz, constituent le composant dissipatif, capable de refroidir, de se concentrer, de fragmenter et de produire des étoiles. Certains gaz peuvent être retenus mélangés dans le halo, et donc les halos seraient constitués de matière non baryonique plus de petites quantités de gaz, sa fraction diminuant avec le temps, tandis que les fusions et l'accrétion fourniraient des quantités croissantes aux disques et renflements visibles. Par conséquent, une première approche suggère que la matière noire galactique est principalement non baryonique, ce qui serait considéré comme la description standard. Les baryons, et donc la matière visible, peuvent ne pas s'être complètement condensés dans un grand halo DM, et donc le rapport baryon/DM devrait être similaire dans les plus grands halos et dans tout l'Univers, bien que ce rapport puisse être différent dans les galaxies normales.

Cependant, d'autres possibilités intéressantes ont également été proposées. La fraction galactique visible/matière noire dépend beaucoup du type de galaxie, mais une valeur typique pourrait être de 0,1. C'est aussi approximativement la fraction de matière visible/baryonique dans l'Univers, ce qui a conduit certains auteurs à penser que la matière noire galactique est baryonique (par exemple Freeman, 1997) auquel cas les meilleurs candidats seraient des nuages ​​de gaz, des restes stellaires ou des objets substellaires. . Les restes stellaires présentent quelques problèmes : les naines blanches nécessitent des fonctions de masse initiales injustifiées les étoiles à neutrons et les trous noirs auraient produit beaucoup plus d'enrichissement en métal. Nous ne pouvons pas expliquer les nombreuses possibilités différentes explorées. Les objets substellaires, comme les naines brunes, sont une identification intéressante des MACHO, les objets compacts produisant des microlentilles des étoiles de premier plan. Alcock et al. (1993), Aubourg et al. (1993) et d'autres ont suggéré que les MACHOS pourraient fournir une quantité substantielle de matière noire du halo, jusqu'à 50-60% pour des masses d'environ 0,25 M , mais les résultats dépendent beaucoup du modèle supposé pour la matière visible et noire. composants, et sont encore incertains. Honma et Kan-ya (1998) ont fait valoir que si la Voie lactée n'a pas de courbe de rotation plate jusqu'à 50 kpc, les naines brunes pourraient représenter tout le halo, et dans ce cas la masse de la Voie lactée n'est que de 1,1 × 10 11 M .

Commentons ensuite brièvement la possibilité de nuages ​​de gaz sombres, défendue par Pfenniger et Combes (1994), Pfenniger, Combes et Martinet (1994) et Pfenniger (1997). Ils ont proposé que les galaxies spirales évoluent de Sd à Sa, c'est-à-dire que le renflement et le disque augmentent et en même temps le rapport M/L diminue. Sd sont plus riches en gaz que Sa. Il est alors tentant de conclure que la matière noire se transforme progressivement en matière visible, c'est-à-dire en étoiles. Ensuite, la matière noire doit être identifiée au gaz. Pourquoi, alors, ne pouvons-nous pas voir ce gaz ? Un tel scénario pourrait être le cas si les nuages ​​moléculaires possédaient une structure fractale de 0,01 à 100 pc. Les nuages ​​seraient fragmentés en sous-amas plus petits, plus denses et plus froids, la dimension fractale étant de 1,6-2. Les radiotélescopes millimétriques disponibles sont incapables de détecter de si petits nuages. Cette hypothèse expliquerait aussi la relation de Bosma entre la matière noire et le gaz (section 2.3), car la matière noire serait en fait du gaz (le disque HI observable pourrait être l'atmosphère observable des nuages ​​moléculaires denses). Dans ce cas, la matière noire devrait avoir une distribution sur disque.

L'identification du gaz du disque en tant que matière noire galactique a été proposée pour la première fois par Valentijn (1991) et a ensuite été analysée par González-Serrano et Valentijn (1991), Lequeux, Allen et Guilloteau (1993), Pfenniger, Combes et Martinet (1994) , Gerhard et Silk (1996) et autres. H 2 pourrait être associé à de la poussière, produisant une dépendance de la couleur de la longueur d'échelle radiale compatible avec de grandes quantités de H 2 . Récemment, Valentijn et van der Werf (1999) ont détecté des raies de rotation de H 2 à 28,2 et 17,0 m dans NGC 891 à bord d'ISO, qui sont compatibles avec la matière noire requise. Si elle était confirmée, cette expérience serait cruciale, démontrant qu'une composante visible baryonique du disque est responsable de la courbe de rotation anormale et de la fragilité des théories apparemment solides. La confirmation dans d'autres galaxies pourrait être difficile car H 2 dans NGC 891 semble être exceptionnellement chaud (80-90 K).

Une distribution sur disque est, en effet, l'affirmation la plus audacieuse de ce scénario. Olling (1996) a déduit que la galaxie NGC 4244 a un évasement qui nécessite un halo aplati. Cependant, cette analyse nécessite de nombreuses hypothèses théoriques, par exemple, la condition d'équilibre hydrostatique vertical nécessite une justification supplémentaire, en particulier si l'on considère que NGC 4244 est une galaxie Scd, les écoulements verticaux étant plus importants dans les galaxies de type tardif. Des chaînes ont également été utilisées pour déduire la forme du halo. Encore une fois, Hofner et Sparke (1994) ont constaté qu'une seule galaxie NGC 2903, sur les cinq étudiées, avait un halo aplati. Dans cet article, un modèle particulier de funes est supposé (Sparke et Casertano, 1988), mais il existe d'autres alternatives (Binney 1991, 1992). Le modèle de Sparke et Casertano semble échouer une fois que la réponse du halo à la précession du disque est prise en compte (Nelson et Tremaine, 1995 Dubinski et Kuijken, 1995). Kuijken (1997) conclut que « peut-être que la réponse réside dans la génération magnétique de distorsions » (Battaner, Florido et Sanchez-Saavedra 1990). D'autre part, si les funes sont une déformation de la partie du disque qui est déjà dominée gravitationnellement par le halo, la déformation du disque serait une conséquence des écarts de symétrie dans le halo. Isoler les perturbations du disque intégrées dans un halo parfait non perturbé est irréaliste. De nombreuses autres propositions ont été faites pour étudier la forme du halo, dont la plupart sont passées en revue dans les articles cités par Olling et dans Ashman (1982), mais des formes très différentes ont été rapportées (voir section 3.4).

Il est également possible qu'une composante de halo visible ait pu être observée (Sackett et al. 1994 Rausher et al. 1997) mais en raison de la difficulté de travailler à ces faibles niveaux, cette découverte n'a pas encore été confirmée.

De nombreux autres auteurs proposent que le halo soit baryonique, même si de nouveaux modèles de formation et d'évolution galactiques devraient être développés (de Paolis et al. 1997). Ceci est en partie basé sur le fait que toute la matière noire "observée" dans les galaxies et les amas pourrait être expliquée par la seule matière baryonique. Selon l'interprétation de de Paolis et al. (1995) de petits nuages ​​denses d'H 2 pourraient aussi être identifiés à la matière noire, et même être responsables de la microlentille, mais au lieu d'être répartis dans le disque, ils se trouveraient dans un halo sphérique.


Théorie des fluides sombres

La nouvelle théorie de Farnes dit que 95% du cosmos est constitué d'un "fluide noir", et que la matière noire et l'énergie noire sont en fait les deux "symptômes" de ce phénomène sous-jacent. Il fait un bon travail pour décrire les deux, même s'il nécessite un peu de falsification des chiffres.

Ce fluide sombre devrait avoir une masse négative. Cela seul ressemble à un concept de science-fiction - comment quelque chose peut-il avoir une masse de -1 kg ? Mais selon la physique newtonienne, c'est tout à fait possible, bien que toujours hypothétique.

Quelque chose qui a une masse négative aurait des caractéristiques assez étranges. D'une part, les forces sont inversées, donc si vous poussiez une balle avec une masse négative, elle accélérerait envers votre main, au lieu de vous en éloigner. Cela signifie également qu'il présente une sorte de gravité négative, qui repousse les autres matériaux au lieu de les attirer.

Si le cosmos est rempli de fluide sombre, sa gravité négative éloignerait tout de tout le reste – exactement le phénomène observé pour lequel l'énergie noire a été inventée pour expliquer. Pendant ce temps, ce n'est pas l'attraction gravitationnelle d'un halo de matière noire qui maintient les galaxies ensemble - c'est la "poussée" négative du fluide sombre qui les entoure. Les galaxies de matière régulière sont essentiellement des bulles flottant dans un fluide cosmologique sombre.


Combien d'entre vous pensent que la matière noire n'est qu'une idée fausse ?

Je souhaite en savoir plus sur les pensées des gens concernant le rejet de la matière noire en tant que nouvelle substance inconnue plutôt que l'idée fausse de quelque chose que nous avons mal pensé.

Vous trouverez ci-dessous une approche historique des raisons pour lesquelles nous croyons en la matière noire. Je citerai également cet article pour l'étudiant sérieux qui veut en savoir plus, ou qui veut vérifier mes affirmations par rapport à la littérature.

Au début des années 1930, un scientifique néerlandais nommé Jan Oort a découvert à l'origine qu'il existe des objets dans les galaxies qui se déplacent plus rapidement que la vitesse de fuite des mêmes galaxies (étant donné la masse observée) et a conclu qu'il devait y avoir une masse inobservable contenant ces objets et publié sa théorie en 1932.

Preuve 1 : Les objets dans les galaxies se déplacent souvent plus vite que les vitesses d'échappement, mais ne s'échappent pas réellement.

Zwicky, également dans les années 1930, a découvert que les galaxies ont beaucoup plus d'énergie cinétique que ne pourrait l'expliquer la masse observée et a conclu qu'il devait y avoir une masse non observée qu'il a appelée matière noire. (Zwicky a ensuite inventé le terme "matière noire")

Preuve 2: Les galaxies ont plus d'énergie cinétique que la matière "normale" seule ne le permettrait.

Vera Rubin a alors décidé d'étudier ce que l'on appelle les "courbes de rotation" des galaxies et a trouvé ce tracé. Comme vous pouvez le voir, la vitesse loin du centre est très différente de ce qui est prédit à partir de la matière observée. Elle a conclu que quelque chose comme la matière noire proposée par Zwickey était nécessaire pour expliquer cela.

Preuve 3: Les galaxies tournent différemment de ce que la matière "normale" seule permettrait.

En 1979, D. Walsh et al. ont été parmi les premiers à détecter les lentilles gravitationnelles proposées par la relativité. Un problème : la quantité de lumière qui est lentille est bien supérieure à ce que l'on pourrait attendre de la matière observable connue. Cependant, si vous ajoutez la quantité exacte de matière noire qui fixe les courbes de rotation ci-dessus, vous obtenez la quantité exacte de lentille gravitationnelle attendue.

Preuve 4: Les galaxies courbent la lumière plus que la matière "normale" seule ne le permettrait. Et le montant « invisible » nécessaire est exactement le même montant qui résout 1-3 ci-dessus.

À cette époque, les gens prenaient la matière noire au sérieux, car il existait des moyens indépendants de vérifier la masse nécessaire.

Les MACHO ont été proposées comme solutions (qui sont essentiellement des étoiles normales qui sont juste à faible visibilité depuis la Terre), mais des études récentes ont exclu cela car, à mesure que notre sensibilité pour ces objets augmente, nous ne voyons aucune étoile "manquante" qui pourrait expliquer le problème. .

Preuve 5: Nos télescopes sont des ordres de grandeur meilleurs que dans les années 30. Et mieux nous regardons, plus cela confirme que la matière "normale" invisible ne résoudra jamais le problème

Le rapport du deutérium à l'hydrogène dans l'univers actuel est connu pour être proportionnel à la densité de l'univers. Le rapport observé dans l'univers s'est avéré incompatible avec la seule matière observée. mais c'était exactement ce qui était prédit si vous ajoutiez la même matière noire aux galaxies que les groupes ci-dessus.

Preuve 6 : Le rapport deutérium à hydrogène est complètement indépendant des preuves ci-dessus et confirme pourtant que la même quantité exacte de masse "manquante" est nécessaire.

Le spectre de puissance du fond diffus cosmologique est très sensible à la quantité de matière présente dans l'univers. Comme le montre ce graphique ici, seulement si la matière observable est

4% du budget énergétique total peuvent être expliqués.

Preuve 7 : Indépendamment de toutes les observations d'étoiles et de galaxies, la lumière du big bang demande également exactement la même quantité de masse "manquante".

Cette image peut être difficile à comprendre, mais il s'avère que nous pouvons quantifier la "forme" de la façon dont les galaxies se regroupent avec et sans matière noire. Le "splotchiness" du clustering de ces images SDSS correspond à la prédiction de la matière noire seul.

Preuve 8 : Indépendamment de la façon dont les galaxies tournent, de leur énergie cinétique, etc. se pose la question de savoir comment elles se regroupent. Et les observations de clustering confirment la nécessité de cuves de matière noire intermédiaire"

L'une des choses récentes les plus convaincantes était le groupe de balles tel que décrit ici. Nous avons vu deux galaxies entrer en collision où la matière « observée » a en fait subi une collision, mais la lentille gravitationnelle a continué à se déplacer sans entrave, ce qui correspond à la croyance que la majorité de la masse d'une galaxie est de la matière noire sans collision qui n'a ressenti aucune interaction de collision et est passée directement en apportant la la majeure partie de la lentille gravitationnelle avec elle.

Preuve 9 : Lorsque les galaxies fusionnent, nous pouvons littéralement regarder la matière noire sans collision passer de l'autre côté via une lentille gravitationnelle.

En 2009, Penny et al. ont montré que la matière noire est nécessaire pour que les galaxies à rotation rapide ne soient pas déchirées par les forces de marée. Et bien sûr, le montant requis est exactement le même que ce qui résout tous les autres problèmes ci-dessus.

Preuve 10 : Les galaxies subissent des forces de marée qui, selon la physique fondamentale, devraient les déchirer et pourtant elles restent stables. Et la quantité de matière invisible nécessaire pour les maintenir stables est exactement ce qui est nécessaire pour tout le reste.

11. Il existe des contre-théories, mais comme Sean Carroll le fait gentiment ici, il s'agit de montrer à quel point les contre-théories fonctionnent. Ils ne correspondent pas à toutes les données. Ils sont beaucoup plus désordonnés et compliqués. Ils continuent d'être falsifiés par de nouvelles expériences. Etc.

Au contraire, le modèle de matière noire proposé par Zwicky dans les années 1930 continue à la fois d'expliquer et de prédire tout ce que nous observons parfaitement sur plusieurs générations de scientifiques qui le testent indépendamment. Par conséquent, la matière noire est largement admise.

Preuve 11 : Les théories de la matière noire existent depuis plus de 80 ans, et aucune alternative n'a jamais été en mesure d'expliquer même la plupart de ce qui précède. Sauf la théorie originale qui a tout prédit.

Conclusion: Écoutez, je sais que les gens aiment exprimer leur scepticisme à l'égard de la matière noire pour une multitude de raisons, mais en fin de compte, les théories de la vanille sur la matière noire ont passé littéralement des dizaines de tests sans échec depuis de nombreuses décennies maintenant. Des tests très indépendants sur différents groupes de recherche et générations. Donc personnellement, je pense que nous sommes officiellement entrés dans un domaine où il est important que tout le monde soit sceptique quant à l'affirmation selon laquelle la matière noire n'est pas réelle. Ou l'affirmation selon laquelle les scientifiques ne savent pas ce qu'ils font.

Soyez également sceptique lorsque l'inévitable article des médias paraît mois après mois disant que quelqu'un a "démystifié" la matière noire parce que leur théorie explique une courbe de rotation des années 1930. Sceptique car les courbes de rotation font partie d'au moins une douzaine de tests indépendants, sans parler de 80 ans de solide prédictivité.

Alors voilà. Ce sont quelques raisons fondamentales pour prendre la matière noire au sérieux.


De nouvelles découvertes sur la composition de l'univers pourraient engendrer des recherches

De nouveaux domaines d'étude extragalactique pourraient émerger des recherches menées par les astrophysiciens de l'Université d'Alabama à Huntsville (UAH) utilisant les données du télescope spatial Chandra pour conclure que les baryons constituant toute la matière visible - autrefois considérée comme absente des amas - sont présents dans le ratios attendus dans de grands amas lumineux.

La nouvelle recherche a étudié de très grands amas de galaxies et conclut qu'ils contiennent en effet la proportion de matière visible qui est en cours d'élaboration dans le cadre de la théorie du Big Bang. L'article a été rédigé par l'étudiant diplômé David Landry avec le Dr Massimiliano (Max) Bonamente, professeur agrégé de physique UAH, Paul Giles et Ben Maughan de l'Université de Bristol, Royaume-Uni, et Marshall Joy du Marshall Space Flight Center de la NASA. Le Dr David Landry est maintenant un scientifique chez Corvid Technologies à Huntsville, Ala.

Le travail peut inciter à de nouveaux efforts pour expliquer les résultats des recherches antérieures selon lesquels certains groupes ont un déficit en baryons par rapport à ce qui est attendu. L'univers est composé d'environ 75 pour cent d'énergie noire et 25 pour cent de matière. De la partie qui est de la matière, environ 16% sont de la matière visible familière qui nous entoure et les 84% ​​restants sont de la matière noire.

"Nous l'appelons matière noire parce que nous ne savons pas de quoi elle est faite, mais elle est faite d'un certain type de particules et elle ne semble pas émettre d'énergie visible", a déclaré le Dr Bonamente. Ensemble, l'énergie noire, la matière noire et la matière baryonique ordinaire forment un diagramme circulaire de la masse de l'univers, où tout doit totaliser 100 %. "Nous ne savons pas ce qu'est la matière noire", a-t-il déclaré, "mais nous avons les moyens de rassembler le gâteau."

Alors que l'énergie noire a une énergie répulsive, la matière noire et la matière baryonique ont une force d'attraction où « tout aime s'agglomérer » pour former des étoiles, des planètes et des galaxies, a déclaré le Dr Bonamente. À l'aide de rayons X, les astrophysiciens ont découvert qu'il existe un gaz plasma chaud diffus qui remplit l'espace entre les galaxies.

"Fondamentalement, l'espace entre les galaxies est rempli de ce plasma chaud qui a une température de 100 millions de degrés", a déclaré le Dr Bonamente. Parce que le gaz est si diffus, il a une très faible capacité calorifique. "C'est comme si je vous posais cette question : dans laquelle préféreriez-vous mettre votre doigt, une tasse d'eau bouillante ou une pièce qui a été chauffée à 212 degrés Fahrenheit ? Vous choisissez la pièce parce que la température à l'intérieur est plus diffuse qu'il ne le serait dans une tasse d'eau concentrée, et vous pouvez donc le tolérer."

Alors pourquoi le gaz chaud ne s'échappe-t-il pas tout simplement ? "Il est lié à l'amas par gravité", a déclaré le Dr Bonamente. "Avec le gaz chaud, vous pouvez faire deux choses. Vous pouvez mesurer la matière ordinaire, qui est la teneur en baryon. Et deux, puisque le gaz chaud est lié, vous pouvez mesurer combien de matière il faudrait pour retenir le gaz et donc vous peut dire combien il y a de matière noire. "Tout d'un coup, il y a quelque chose de vraiment merveilleux dans les gaz chauds", a-t-il dit. "Vous pouvez avoir votre gâteau et le manger aussi."

Théoriquement, l'univers devrait contenir les mêmes proportions de matière visible et noire, quel que soit l'endroit où il est échantillonné. À l'aide de lectures de rayonnement cosmique micro-ondes, les astrophysiciens ont pu faire un type d'analyse médico-légale du passé de l'univers, et ces découvertes ont montré les proportions qui étaient présentes lors du Big Bang ou peu de temps après.

"Parce que cela a commencé dans le Big Bang, ce ratio devrait persister", a déclaré le Dr Bonamente. "C'est comme si j'allais à l'océan avec une cuillère. La cuillère d'eau que je reçois devrait avoir la même concentration de sel que le reste de l'océan, peu importe où je la trouve."

Mais des recherches antérieures avaient indiqué que certains clusters manquaient du pourcentage attendu de baryons, posant la question de savoir où ils se trouvaient.

"Depuis récemment, les gens pensaient que les grappes avaient moins de 16% de baryons, il manquait donc des baryons", a déclaré le Dr Bonamente. "Nous avons dit non, ils sont là. Alors, comment avons-nous trouvé des amas avec ce rapport correct ? Nous avons étudié les plus lumineux, car ils ont plus de masse et retiennent plus de baryons."

Les résultats pourraient ouvrir de nouveaux domaines d'investigation sur les raisons pour lesquelles les déficits en baryons ont été enregistrés dans des recherches antérieures. Le Dr Bonamente suggère une théorie. "Nous savons que certains amas plus petits ont des concentrations de baryons plus faibles que les plus grands", a-t-il déclaré. Peut-être à cause de forces gravitationnelles plus faibles, les gaz chauds se sont échappés de la même manière que les planètes sans atmosphère. "Peut-être que le gaz peut être lié, mais peut-être qu'un peu peut s'envoler s'il n'y a tout simplement pas assez de gravité."

Pour d'autres études sur les petits clusters, le Dr Bonamente attend avec impatience l'arrivée du nouveau membre du corps professoral, le Dr Ming Sun, anciennement à l'Université de Virginie, qui est un expert des groupes ayant moins de 16 pour cent de baryons.

"Je suis ravi que Ming ait décidé de rejoindre notre groupe de recherche", a déclaré le Dr Bonamente. "Avec lui à bord, UAH est sur le point de continuer à faire des découvertes sur la composition de l'univers, et c'est la question la plus excitante à laquelle répondre Je peux penser à."


Particules invisibles

Quelque chose d'autre a été créé pendant le Big Bang : la matière noire. "Mais nous ne pouvons pas dire quelle forme cela a pris, car nous n'avons pas détecté ces particules", a déclaré Bahcall à Live Science.

La matière noire ne peut pas être observée directement &mdash encore &mdash mais ses empreintes digitales sont conservées dans la première lumière de l'univers, ou le rayonnement de fond cosmique micro-ondes (CMB), sous forme de minuscules fluctuations de rayonnement, a déclaré Bahcall. Les scientifiques ont proposé pour la première fois l'existence de la matière noire dans les années 1930, théorisant que l'attraction invisible de la matière noire devait être ce qui maintenait ensemble les amas de galaxies en mouvement rapide. Des décennies plus tard, dans les années 1970, l'astronome américaine Vera Rubin a découvert des preuve de matière noire dans les taux de rotation des étoiles plus rapides que prévu.

Sur la base des découvertes de Rubin, les astrophysiciens ont calculé que la matière noire, même si elle ne pouvait pas être vue ou mesurée, doit constituer une partie importante de l'univers. Mais il y a environ 20 ans, les scientifiques ont découvert que l'univers contenait quelque chose d'encore plus étrange que l'énergie noire de la matière noire, qui serait nettement plus abondante que la matière ou la matière noire. [Galerie : La matière noire dans l'univers]


La matière et l'énergie disent à l'espace-temps comment être : la gravité sombre

La gravité est-elle fondamentale ou émergente ? L'électromagnétisme est un exemple de force fondamentale. La thermodynamique est un exemple de comportement statistique émergent.

Newton considérait la gravité comme une force mystérieuse agissant à distance entre deux objets, obéissant à la loi du carré inverse bien connue, et se produisant dans un espace-temps inflexible et ayant un seul cadre de référence.

Einstein s'est penché sur la nature de l'espace et du temps et s'est rendu compte qu'ils sont flexibles. Pourtant, la relativité générale reste une théorie classique, sans comportement quantique. Et cela suppose un tissu continu pour l'espace.

Comme l'a dit John Wheeler, "l'espace-temps dit à la matière comment se déplacer la matière dit à l'espace-temps comment se courber". Maintenant, Wheeler savait très bien que non seulement la matière, mais aussi l'énergie, courbent l'espace-temps.

Une modeste suggestion : inversez la phrase de Wheeler. Et puis généraliser. La matière et l'énergie disent à l'espace-temps comment être.

Qu'est-ce qui est le plus fondamental ? Matière ou espace-temps ?

Les théories quantiques de la gravité cherchent à coupler les champs quantiques connus avec la gravité, et on s'attend à ce qu'aux échelles de Planck extrêmement petites, le temps et l'espace perdent tous deux leur nature continue.

En physique, l'espace et le temps sont généralement considérés comme des toiles de fond continues.

Mais et si l'espace n'était pas du tout fondamental ? Et si le temps n'était pas fondamental ? Il n'est pas difficile de concevoir le temps comme un simple ordre d'événements. Mais l'espace et le temps sont dans une certaine mesure interchangeables, comme Einstein l'a montré avec la relativité restreinte.

Et l'espace alors ? Est-ce juste nous plaçant des règles entre les objets, entre les masses ?

Les physiciens des particules en viennent de plus en plus à considérer que l'espace et le temps sont émergent. Pas fondamental.

Si émergent, de quoi ? Le concept est que les particules, et les champs quantiques, d'ailleurs, sont intriqués les uns avec les autres. Leurs états quantiques microscopiques sont corrélés. Le phénomène d'intrication quantique a été étudié en laboratoire et est bien prouvé.

Des scientifiques chinois ont même, l'année dernière, démontré l'intrication quantique de photons sur une liaison montante par satellite avec un trajet total dépassant les 1200 kilomètres.

L'intrication quantique devient ainsi le fil que la Nature utilise pour tisser le tissu de l'espace. Et à mesure que le degré d'intrication quantique change, la courbure locale du tissu change. Au fur et à mesure que la courbure change, la matière suit des chemins différents. Et c'est la gravité en action.

Les lois de Newton sont une approximation de la relativité générale pour le cas des petites accélérations. Mais si l'espace n'est pas un tissu continu et résulte de l'intrication quantique, alors pour de très petites accélérations (dans une plage sous-newtonienne), la dynamique de Newton et la relativité générale peuvent être incomplètes.

Le lien entre la gravité et la thermodynamique existe depuis quatre décennies, grâce à la recherche sur les trous noirs et à la théorie des cordes. Jacob Bekenstein et Stephen Hawking ont déterminé qu'un trou noir possède une entropie proportionnelle à son aire divisée par la constante gravitationnelle G. Cette approche de l'entropie de la loi des aires peut être utilisée pour dériver la relativité générale comme Ted Jacobson l'a fait en 1995.

Mais il se peut que la composante supposée de la loi de surface soit insuffisante selon la nouvelle hypothèse de gravité émergente d'Erik Verlinde, il existe également une composante de loi de volume pour l'entropie, qui doit être considérée en raison de l'énergie noire et lorsque les accélérations sont très faibles.

Nous avons eu des indices sur cette description incomplète de la gravité dans les mesures de vitesse effectuées à la périphérie des galaxies au cours des huit dernières décennies. Des vitesses plus élevées que prévu sont observées, reflétant une accélération plus élevée des étoiles et du gaz que Newton (ou Einstein) ne le prédirait. Nous pouvons appeler cette gravité sombre.

Or, cette gravité noire pourrait être due à la matière noire. Ou cela pourrait simplement être une gravité modifiée, avec une gravité supplémentaire par rapport à ce à quoi nous nous attendions.

On a compris depuis les travaux de Mordehai Milgrom dans les années 1980 que les vitesses excessives qui sont observées sont mieux corrélées avec une accélération supplémentaire qu'avec la distance du centre galactique.

Stacey McGaugh et ses collaborateurs ont démontré une corrélation très étroite entre les accélérations observées et l'accélération newtonienne attendue, comme je l'ai expliqué dans un blog précédent ici. L'accélération supplémentaire démarre en dessous de quelques mètres par seconde par seconde (m/s²).

C'est étrangement proche de la vitesse de la lumière divisée par l'âge de l'univers ! Soit environ m/s².

Pourquoi cela devrait-il être? La densité masse/énergie (la masse et l'énergie contribuent à la gravité) de l'univers est aujourd'hui dominée par l'énergie noire.

Le modèle cosmologique canonique a 70 % d'énergie noire, 25 % de matière noire et 5 % de matière ordinaire. En fait, s'il n'y a pas de matière noire, juste une gravité noire ou une accélération sombre, cela pourrait ressembler davantage à une répartition de 95% et 5% entre l'énergie noire et les composants (ordinaires) de la matière.

Un univers homogène composé uniquement d'énergie noire en relativité générale est connu sous le nom d'univers de Sitter (dS). Notre univers est, à l'heure actuelle, essentiellement un univers dS « salé » de matière.

Ensuite, il faut se demander comment se comporte la gravité dans les domaines influencés par l'énergie noire ? Maintenant, contrairement à la matière ordinaire, l'énergie noire est distribuée de manière très uniforme sur les plus grandes échelles. Il entraîne une expansion accélérée de l'univers (le tissu de l'espace-temps !) et entraîne avec lui la matière ordinaire.

Mais là où la densité de la matière ordinaire est élevée, l'énergie noire est évacuée. Une pensée ironique, puisque l'énergie noire est considérée comme de l'énergie du vide. Mais là où il y a beaucoup de matière, le vide est écarté.

Ce concept général était ce qu'Erik Verlinde a utilisé pour dériver une formule d'accélération supplémentaire en 2016. Il a modélisé une gravité entropique émergente due à la matière ordinaire et également à l'interaction entre l'énergie noire et la matière ordinaire. Il a modélisé l'énergie noire comme répondant comme un milieu élastique lorsqu'elle est déplacée à proximité de la matière. En utilisant cette analogie avec l'élasticité, il a dérivé une accélération supplémentaire proportionnelle à la racine carrée du produit de l'accélération newtonienne habituelle et d'un terme lié à la vitesse de la lumière divisée par l'âge de l'univers. Cela conduit à une loi de force 1/r pour la composante supplémentaire puisque l'accélération newtonienne va jusqu'à 1/r².

La gravité noire de Verlinde dépend de la racine carrée du produit d'une accélération caractéristique a0 et gravité newtonienne ordinaire (baryonique), gB

L'idée est que le milieu élastique, de l'énergie sombre, se détend sur une échelle de temps cosmologique. La matière déplace l'énergie et l'entropie de ce milieu, et il y a une réaction inverse de l'énergie noire sur la matière qui s'exprime sous la forme d'une entropie de loi de volume. Verlinde est capable de montrer que cette interaction entre la matière et l'énergie noire conduit précisément à l'accélération caractéristique est , où H est le paramètre d'expansion de Hubble et est égal à un sur l'âge de l'univers pour un univers dS. Cela s'avère être la bonne valeur d'un peu plus de m/s² qui correspond aux observations.

Dans notre système solaire, et même dans les régions centrales des galaxies, nous voyons la gravité comme l'interaction de la matière ordinaire et d'autres matières ordinaires. Nous ne sommes pas habitués à cette autre danse.

Domaines de gravité

Trous noirs, étoiles à neutrons

Le tableau ci-dessus résume trois domaines de la gravité : la relativité générale, la gravité newtonienne et la gravité noire, cette dernière apparaissant à de très faibles accélérations. Nous calculons toujours la gravité de manière incorrecte ! Habituellement, comme dans notre système solaire, cela n'a aucune importance. Par exemple, à la surface de la Terre, la gravité est 11 ordres de grandeur supérieure au domaine d'accélération très faible où le terme supplémentaire entre en jeu.

Récemment, Alexander Peach, professeur de physique à l'Université de Durham, a adopté un angle différent basé sur l'exposition originale et beaucoup plus simple de Verlinde sur sa théorie émergente de la gravité dans son article de 2010. Il tire un résultat équivalent à celui de Verlinde d'une manière que je crois plus facile à comprendre. Il suppose que l'holographie (l'hypothèse selon laquelle toute l'entropie peut être calculée comme l'entropie de la loi des aires sur un écran sphérique entourant la masse) se décompose à une certaine échelle de longueur. Pour imiter l'effet de l'énergie noire dans la nouvelle hypothèse de Verlinde, Peach ajoute une contribution de loi de volume à l'entropie qui rivalise avec la loi de zone holographique à cette certaine échelle de longueur. Et il aboutit au même résultat, une force entropique supplémentaire de 1/r qui devrait être ajoutée pour la correction dans les domaines d'accélération très faibles.

Dans la figure 2 (ci-dessus) de l'article de Peach, il discute d'une particule de test située au-delà d'un rayon critique pour lequel l'entropie de la loi du volume doit également être considérée. Bien à l'intérieur (montré en b) l'énergie noire est entièrement déplacée par la masse attractive située à l'origine et le calcul de l'entropie de la loi des aires est précis (indiqué par la surface ombrée). Au-delà l'effet d'énergie noire est important, l'approximation de l'écran holographique s'effondre, et l'entropie de volume doit être incluse dans la contribution à la force gravitationnelle émergente (montré en c). C'est cette entropie de volume qui fournit un terme 1/r supplémentaire pour la force gravitationnelle.

Peach fait l'hypothèse que les systèmes de volume et de frontière sont en équilibre thermique. La masse est la source de l'entropie volumique. Dans son expérience de pensée, il modélise un seul bit d'information correspondant à la particule de test étant à une longueur d'onde de Compton de l'écran, tout comme Verlinde l'a initialement fait dans sa description de la gravité newtonienne émergente en 2010. La longueur d'onde de Compton est égale à la longueur d'onde d'un photon. aurait si son énergie était égale à l'énergie de masse au repos de la particule d'essai. Il quantifie la limitation de la mesure de la position d'une particule.

Ensuite, le changement d'entropie de frontière (écran) peut être lié au petit déplacement de la particule. En supposant l'équilibre thermique et l'équipartition au sein de chaque système et en adoptant la première loi de la thermodynamique, la force entropique supplémentaire peut être déterminée comme égale à la formule newtonienne, mais en remplaçant l'un des r termes du dénominateur par .

Pour comprendre , pour un système donné, c'est le rayon auquel la gravité supplémentaire est égale au calcul newtonien, en d'autres termes, la gravité est juste deux fois plus forte que ce à quoi on pourrait s'attendre à cet endroit. Cela revient à son tour au fait que, par définition, c'est l'échelle de longueur au-delà de laquelle le terme de loi de volume dépasse la loi de zone holographique.

C'est donc la distance à laquelle la gravité newtonienne seule chute à environ m/s², c'est-à-dire , pour un système donné.

Peach et Verlinde utilisent donc deux méthodes différentes mais avec des hypothèses cohérentes pour modéliser un terme de gravité sombre qui suit une loi de force 1/r. Et cela démarre à environ m/s².

Les ingrédients introduits par la configuration de Peach peuvent être suffisants pour dériver une théorie covariante, ce qui impliquerait une version modifiée de la relativité générale qui introduit de nouveaux champs, qui pourraient avoir de nouvelles interactions avec la matière ordinaire. Cela pourrait ajouter plus de détails à l'histoire de la gravité émergente covariante déjà considérée par Hossenfelder (2017), et permettre d'autres tests phénoménologiques de la gravité sombre émergente. Actuellement, on ne sait pas à quoi devraient ressembler les degrés de liberté supplémentaires dans la version covariante du modèle de Peach. Il se peut que l'introduction de variables élastiques par Verlinde soit la seule option sensée, ou cela pourrait être l'un de plusieurs choix cohérents.

Avec les travaux de Peach, les physiciens ont franchi une nouvelle étape dans la compréhension et la modélisation de la gravité noire d'une manière qui évite le besoin de matière noire pour expliquer notre univers.

Nous terminons avec une autre phrase de John Wheeler :

« La seule chose plus difficile à comprendre qu'une loi d'origine statistique serait une loi qui n'est pas d'origine statistique, car alors il n'y aurait aucun moyen pour elle - ou ses principes géniteurs - de se produire. D'un autre côté, lorsque nous considérons chacune des lois de la physique - et aucune loi n'est plus magnifique dans sa portée ou mieux testée - comme au fond de caractère statistique, alors nous pouvons enfin renoncer à l'idée d'une loi qui perdure depuis d'éternité à éternité. "

C'est un plaisir de remercier Alexander Peach pour ses commentaires et contributions à cet article.

https://arxiv.org/abs/gr-qc/9504004 "Thermodynamics of Spacetime: The Einstein Equation of State" 1995, Ted Jacobson

https://arxiv.org/pdf/1806.10195.pdf « Emergent Dark Gravity from (Non) Holographic Screens » 2018, Alexander Peach

https://arxiv.org/pdf/1703.01415.pdf "Une version covariante de la gravité émergente de Verlinde" Sabine Hossenfelder


LIGO a-t-il détecté la matière noire ?

Il a souvent été dit, y compris par moi, que l'un des aspects les plus intrigants de la matière noire est qu'elle nous fournit les meilleures preuves actuelles de la physique au-delà de la théorie fondamentale (relativité générale plus le modèle standard de la physique des particules). La base de cette affirmation est que nous avons de bonnes preuves d'au moins deux fronts - la nucléosynthèse du Big Bang et les perturbations du fond diffus cosmologique - que la densité totale de matière dans l'univers est bien supérieure à la densité de & #8220ordinaire” comme nous le trouvons dans le modèle standard.

Il y a une faille importante à cette idée. La théorie de base comprend non seulement le modèle standard, mais aussi la gravité. Les gravitons eux-mêmes ne peuvent pas être la matière noire, ce sont des particules sans masse, se déplaçant à la vitesse de la lumière, alors que nous savons d'après ses effets sur les galaxies que la matière noire est "froide" (se déplaçant lentement par rapport à la lumière). Mais il existe des objets massifs qui se déplacent lentement et qui sont constitués de gravité pure, à savoir des trous noirs. Les trous noirs pourraient-ils être la matière noire ?

Ça dépend. Les contraintes de la nucléosynthèse, par exemple, impliquent que la matière noire n'était pas constituée de particules ordinaires au moment où l'univers avait une minute. Vous ne pouvez donc pas avoir un univers avec juste de la matière régulière et ensuite former un trou noir-matière noire de manière conventionnelle (comme des étoiles qui s'effondrent) à des moments tardifs. Ce que vous pouvez faire, c'est imaginer que les trous noirs étaient là depuis presque le début, qu'ils sont primordiaux. Avoir des trous noirs primordiaux n'est pas la chose la plus naturelle au monde, mais il existe des moyens d'y parvenir, comme avoir de très fortes perturbations de densité à des échelles de longueur relativement petites (par opposition aux très faibles perturbations de densité que nous voyons dans l'univers. échelles de taille).

Récemment, bien sûr, les trous noirs ont fait l'actualité, lorsque LIGO a détecté des ondes gravitationnelles provenant de l'inspiration de deux trous noirs d'environ 30 masses solaires chacun. Cela soulève une question intéressante, du moins si vous êtes assez intelligent pour assembler les pièces : la matière noire pourrait-elle être constituée de trous noirs primordiaux d'environ 30 masses solaires, et deux d'entre eux auraient-ils pu se réunir pour produire le signal LIGO ? (Donc, la question n'est pas : « Les trous noirs sont-ils constitués de matière noire ? », c'est : « La matière noire est-elle constituée de trous noirs ?”)

Cette idée vient d'être examinée dans un nouvel article de Bird et al. :

LIGO a-t-il détecté de la matière noire ?

Simeon Bird, Ilias Cholis, Julian B. Muñoz, Yacine Ali-Haïmoud, Marc Kamionkowski, Ely D. Kovetz, Alvise Raccanelli, Adam G. Riess

Nous considérons la possibilité que le binaire du trou noir (BH) détecté par LIGO puisse être une signature de la matière noire. Chose intéressante, il reste une fenêtre pour les masses 10MMbh100M où les trous noirs primordiaux (PBH) peuvent constituer la matière noire. Si deux BH dans un halo galactique passent suffisamment près, ils peuvent émettre suffisamment d'énergie dans les ondes gravitationnelles pour devenir liés gravitationnellement. Les BH liés s'enrouleront alors rapidement vers l'intérieur en raison de l'émission de rayonnement gravitationnel et finiront par fusionner. Les incertitudes quant à la vitesse de tels événements proviennent de notre connaissance imprécise de la structure de l'espace des phases des halos galactiques aux plus petites échelles. Néanmoins, des estimations raisonnables couvrent une plage qui chevauche le taux de 2 à 53 Gpc -3 ans -1 estimé à partir de GW150914, soulevant ainsi la possibilité que LIGO ait détecté de la matière noire PBH. Les fusions de PBH sont susceptibles d'être distribuées spatialement plus comme de la matière noire que de la matière lumineuse et n'ont pas d'homologues optiques ni de neutrinos. Ils peuvent être distingués des fusions de BH provenant de sources astrophysiques plus traditionnelles par le spectre de masse observé, leurs ellipticités élevées ou leur fond d'onde gravitationnelle stochastique. Les expériences de la prochaine génération seront inestimables pour effectuer ces tests.

Compte tenu de cette idée intrigante, vous pouvez faire plusieurs choses. Tout d'abord, bien sûr, vous souhaitez vérifier que cela n'est pas exclu par d'autres données. Cela s'avère être une question très intéressante, car il existe de bonnes limites sur les masses autorisées pour la matière noire des trous noirs primordiaux, à partir de choses comme la microlentille gravitationnelle et le fait que des objets suffisamment massifs perturberaient les orbites d'étoiles binaires larges. Les auteurs affirment (et citent des articles à cet effet) que 30 masses solaires s'intègrent parfaitement dans la plage de valeurs qui sont ne pas exclu par les données.

L'autre chose que vous aimeriez faire est de déterminer combien de fusions comme celle que LIGO a vue devraient être attendues dans un tel scénario. Rappelez-vous, LIGO a semblé avoir de la chance en voyant un si grand et bel événement dès la sortie de la porte - l'idée était que la plupart des signaux détectables proviendraient de fusions relativement chétives d'étoiles à neutrons/étoiles à neutrons, pas celles d'un noir aussi glorieusement massif. des trous.

Le taux attendu de telles fusions, en supposant que la matière noire est constituée de si gros trous noirs, n'est pas facile à estimer, mais les auteurs font de leur mieux et arrivent à un chiffre d'environ 5 fusions par gigaparsec cube par an. . Vous pouvez alors demander quel devrait être le taux si LIGO n'a pas eu de chance, mais a simplement observé quelque chose qui se passe tout le temps, la réponse, remarquablement, se situe entre environ 2 et 50 par gigaparsec cube par an. Les chiffres ont du sens !

Le scénario serait assez remarquable et significatif, s'il s'avérait juste. Bonne nouvelle : nous avons trouvé cette matière noire ! Mauvaise nouvelle : les espoirs s'estomperaient considérablement pour trouver de nouvelles particules à des énergies accessibles aux accélérateurs de particules. La théorie du noyau s'avérerait encore plus triomphante que nous ne l'avions cru.

Heureusement, il existe des moyens de tester l'idée. Si des événements comme ceux que LIGO a vus provenaient de trous noirs de matière noire, il n'y aurait aucune raison pour qu'ils soient étroitement associés aux étoiles. Ils seraient distribués dans l'espace comme la matière noire plutôt que comme la matière ordinaire, et nous ne nous attendrions pas à voir de nombreux événements électromagnétiques homologues visibles (comme nous le pourrions si les trous noirs étaient entourés de gaz et de poussière).

Nous verrons. C'est un truisme populaire, en particulier parmi les amateurs d'ondes gravitationnelles, que chaque fois que nous regardons l'univers d'un nouveau genre, nous finissons par voir quelque chose que nous n'avions pas prévu. Si les trous noirs LIGO sont la matière noire de l'univers, ce serait un euphémisme.


Introduction

Les candidats à la matière noire (DM) doivent être au-delà des particules du modèle standard (SM), neutres et stables. Ayant jusqu'à présent échappé à la détection, ils doivent avoir de minuscules interactions avec les particules SM. Il serait même possible qu'ils n'interagissent que gravitationnellement.

Un mécanisme de production possible pour les particules DM, ayant lieu dans l'univers primitif, est via l'évaporation [1] des trous noirs primordiaux (BH), avec des masses dans la large gamme (10^<-5>) – (10^ 9) g. Dans ce cas, toutes les particules dont la masse est inférieure à la température de Hawking de la BH sont émises, avec des poids simplement donnés par leur nombre de degrés de liberté (ddl). Il a été proposé que les particules produites via le mécanisme d'évaporation pourraient être responsables de l'excès de baryons par rapport aux anti-baryons [2, 3], de l'abondance de matière noire observée [4,5,6] et, si elle est suffisamment claire, également pour le rayonnement sombre [5, 7,8,9]. Hormis le cas de la production de gravitino [10, 11], la densité de BH primordiale à la formation pour l'intervalle (10^<-5>) – (10^9) g est actuellement sans contrainte, comme nous l'avons vu, pour exemple, dans Réf. [12]. Cependant, Réf. [13] (voir aussi la réf. [14]) dérive une limite supérieure sur la fraction de l'univers effondrée en BH primordiaux dans cette plage de masse même à partir d'ondes gravitationnelles de réaction inverse des BH primordiaux. Réf. [15] considère les contraintes sur les particules DM chargées sous un groupe de jauge caché.

Selon la fraction de BH primordiaux à la formation par rapport au rayonnement (eta ) , il existe une possibilité que l'univers ait été dominé par BH avant l'évanescence des BH [4, 16, 17] : cette situation est appelée domination BH. Le cas dans lequel les BH s'évaporent avant de dominer le contenu énergétique de l'univers est appelé domination du rayonnement.

Fujita et al. [4] ont calculé la contribution au DM par l'évaporation primordiale de la BH en de nouvelles particules au-delà du SM : ils ont constaté qu'une contribution significative au DM pourrait provenir de particules stables qui sont soit superlourdes soit légères, c'est-à-dire avec des masses dans la gamme MeV. Dans le cas léger, les candidats DM seraient chauds, tandis que dans le cas superlourd, ils seraient froids. En exploitant les contraintes de vitesse DM chaudes disponibles à ce moment [18], Réf. [4] ont d'abord discuté également des limites inférieures de la masse des candidats DM légers, en utilisant un argument d'ordre de grandeur essentiellement basé sur l'approximation d'optique géométrique pour le rayonnement de Hawking. Cette approximation ignore la suppression de basse énergie dans les facteurs de corps gris [19, 20], expliquant assez bien le cas dans lequel le candidat DM chaud a (s=0) , mais manquant de reproduire le cas de spins différents. Pour une présentation à jour de cet argument, voir [21, 22].

Une analyse plus sophistiquée a été effectuée par Lennon et al. [5]. Ils ont également adopté l'approximation de l'optique géométrique, mais ont inclus l'effet de décalage vers le rouge dans le calcul de la distribution de la quantité de mouvement des particules émises. Leur résultat est une estimation du nombre de particules encore relativistes, avec une dépendance de spin réintroduite a postériori et basé sur des facteurs de corps gris dérivés de la littérature plus ancienne [20, 23]. Comme critère approximatif pour la formation réussie de la structure, ils imposent que lorsque la température de l'univers descend en dessous de 1 keV (étape à laquelle la masse de l'horizon est d'environ (10^9) masses solaires), moins de ( 10\%) du DM est relativiste. Le résultat de cet argument ingénieux, mais tout à fait arbitraire, est que, pour la domination BH, les candidats DM chauds avec (s le 1) sont exclus, ceux avec (s=3/2) sont marginalement autorisés, tandis que ceux avec (s=2) survivre naïvement. En résumé, pour les valeurs de spin inférieures (disons (s=0,1/2,1) ), les résultats de l'ordre de grandeur de la réf. [4] ont été confirmés par Réf. [5], mais cette dernière analyse n'était cependant pas totalement concluante pour les spins supérieurs ( (s=3/2,2) ).

L'analyse plus récente de Baldes et al. [22] va un peu plus loin. Comme suggéré dans [5], ils incluent l'effet de décalage vers le rouge dans la distribution de quantité de mouvement des particules émises lors de l'évaporation et dérivent la distribution de l'espace des phases associée comme entrée pour le code Boltzmann CLASS [24,25,26]. Ce dernier permet d'extraire le spectre de puissance de la matière pour le DM chaud des BH primordiales et de le comparer au cas standard du DM froid grâce à la fonction de transfert. Cela permet de contraindre le DM chaud des BH primordiaux en utilisant les limites de formation de structure à partir des données de Lyman déjà dérivées pour le cas bien connu des reliques thermiques DM. L'analyse de la Réf. [22], cependant, s'appuie sur l'approximation de l'optique géométrique et, en particulier, ne fournit des résultats quantitatifs que pour le cas (s=1/2), qui sont en accord avec les estimations d'ordre de grandeur précédentes [4, 21], également basé sur l'approximation d'optique géométrique. Le cas des spins supérieurs n'a donc pas pu être clarifié quantitativement (hormis une mention qualitative des effets de corps gris en annexe A de la réf. [22]) par rapport aux résultats de la réf. [5].

Étant donné le manque actuel de résultats solides sur le devenir des candidats DM chauds avec des valeurs de spin élevées, nous pensons qu'il serait utile et opportun de faire une étude dédiée. L'objectif de ce travail est précisément de fournir une étude complète et actualisée sur la viabilité des candidats DM chauds issus de l'évaporation des BH primordiaux.

Afin de prendre en compte numériquement les facteurs de corps gris associés aux différents spins, nous utilisons le code récemment développé et accessible au public BlackHawk [27]. Nous comparons également les résultats numériques de BlackHawk avec ceux analytiques dérivés dans l'approximation d'optique géométrique. En tenant compte des effets de redshift comme suggéré dans la Réf. [5], nous étudions l'impact sur la formation de la structure en calculant la fonction de transfert avec CLASS , comme suggéré dans la Réf. [22]. Nous dérivons la fonction de transfert pour toutes les valeurs de spins, constatant que, en supposant la domination de BH, le scénario de DM chaud des BH primordiaux est exclu pour tous les spins et pour toutes les masses de BH dans la plage (10^<-5>) – (10^9) g. Nos résultats pour le cas (s=0) sont en accord avec les estimations précédentes de l'ordre de grandeur [4, 21]. Pour la domination du rayonnement, nous dérivons les limites supérieures sur (eta ) (ou, de manière équivalente, sur la masse DM chaude) pour les différents spins DM chauds. Pour le cas (s=1/2) (le seul pour lequel la comparaison est possible), on retrouve des différences conceptuelles par rapport aux résultats de la Réf. [22], mais accord numérique substantiel.

Dans ce travail, nous considérons l'évaporation de BH comme le seul mécanisme de production. Les conséquences d'autoriser d'autres mécanismes de production ont été récemment explorées dans les références. [28] and [29, 30]. Pour un modèle mixte de production DM, Réf. [28] ont prouvé qu'une période de création de MS par évaporation dominée par la BH primordiale ne peut pas expliquer l'abondance observée aujourd'hui. Pour une analyse mise à jour de la possibilité que l'asymétrie matière-antimatière soit due à des particules produites par l'évaporation des BH primordiales, nous renvoyons le lecteur intéressé à la Réf. [31] pour la baryogenèse GUT et à Réf. [32] pour la leptogenèse. La DM et la baryogénèse dans le cas de vestiges stables de 2-2-trous thermiques ont été étudiées dans la Réf. [33].

L'article est organisé de la manière suivante. Dans la Sect. 2, nous introduisons notre notation et passons en revue les idées de base sur la formation et l'évaporation des BH primordiaux. Dans la Sect. 3, nous discutons du spectre primaire instantané des particules émises. Dans la Sect. 4, nous discutons de la dynamique de l'abondance primordiale de BH. Secte. 5 traite de la distribution de la quantité de mouvement à l'évaporation et la Sect. 6 avec le calcul de la distribution spatiale des phases DM. Le calcul de l'abondance de DM et l'impact sur la formation de la structure sont présentés dans les Sects. 7 et 8, respectivement. La discussion des résultats et nos conclusions sont présentées dans la Sect. 9.

Afin d'avoir une meilleure maîtrise de nos formules d'analyse dimensionnelle et de calculs numériques, nous n'utilisons pas d'unités naturelles.


Pourquoi la matière noire est-elle importante ?

Cette semaine - les choses mystérieuses qui vous traversent en ce moment, et qui maintiennent littéralement la galaxie ensemble. mais nous n'avons aucune idée de ce que c'est. Nous discutons avec les scientifiques qui tentent de le découvrir. De plus, dans l'actualité, la technologie vieille de 100 ans qui nous aide à lutter contre les infections que nous ne pouvons actuellement pas traiter. Et la preuve que les guêpes peuvent évaluer les choses.

Dans cet épisode

00:60 - Les phages traitent les bactéries résistantes aux antibiotiques

Les phages traitent les bactéries résistantes aux antibiotiques avec Graham Hatfull, Université de Pittsburgh

Une technologie mise au point il y a environ un siècle - mais ensuite largement abandonnée avec l'avènement des antibiotiques - a reçu une balle dans le bras et a sauvé la vie d'un patient à Great Ormond Street, grâce à la technologie moderne. C'est la « phagothérapie » - l'utilisation de virus qui tuent les bactéries - pour combattre les infections. Chris Smith s'est entretenu avec Graham Hatfull de l'Université de Pittsburgh.

Graham - Le titre est que nous avons utilisé des bactériophages pour traiter un patient atteint d'une infection par un organisme très méchant résistant aux antibiotiques. Nos collègues du Great Ormond Street Hospital à Londres, ils avaient des patients atteints de mucoviscidose, qui avaient subi une double transplantation pulmonaire, mais qui avaient ensuite souffert d'infections bactériennes très graves qui sont devenues, essentiellement, incurables parce qu'elles étaient résistantes à tous les antibiotiques qu'ils pourrait leur jeter. Et donc ce que nous avons fait, c'est trouver des bactériophages qui ont infecté la souche bactérienne très spécifique avec laquelle le patient était infecté, qui ont été administrés au patient et nous avons vu de très bons résultats cliniques et la survie du patient.

Chris - Où avez-vous obtenu le bactériophage que vous avez finalement utilisé ? Comment êtes-vous allé le trouver ?

Graham - Nous étudions ces bactériophages depuis assez longtemps et nous avons donc une bibliothèque d'environ 15 000 bactériophages individuels, et d'après ce que nous savons d'eux, nous avons pu réduire cela à une liste restreinte et nous avons pu identifier trois phages qui a bien fonctionné contre ce pathogène bactérien particulier.

Chris - Et combien de temps as-tu mis pour faire ça ? Parce que l'une des choses critiques avec quelqu'un qui est extrêmement malade, c'est que vous n'avez pas beaucoup de temps et si vous administrez des antibiotiques, c'est bien parce que vous pouvez généralement les obtenir sur le marché et les donner immédiatement au patient. Je suppose que vous ne pouvez tout simplement pas trouver un phage, le retourner et l'administrer dans le même genre de calendrier qu'avec un antibiotique actuellement ?

Graham - Oui. Cela a pris plusieurs mois, notamment parce que nous devions non seulement sélectionner parmi nos candidats préférés, mais nous devions faire du génie génétique pour prendre des candidats plutôt médiocres et les transformer en médicaments antibactériens efficaces. Ces types d'infections causées par les mycobactéries ont tendance à progresser relativement lentement, donc dans ce cas, nous avons eu une période de temps - c'était environ six mois - où le patient était essentiellement accroché là, et nous avons pu obtenir les phages dans un délai suffisant temps afin de pouvoir les administrer avec un bon résultat.

Chris - Et comment avez-vous manipulé les phages pour qu'ils atteignent le point idéal, pour ainsi dire, et éliminent la bonne bactérie ?

Graham - L'un des problèmes auxquels nous sommes confrontés est que tous les phages ne sont pas lytiques, ils ne tuent pas toujours lorsqu'ils infectent les bactéries. Ce que nous devions faire était d'utiliser le génie génétique pour éliminer un gène particulier qui causait ce problème, et ainsi convertir ce qui n'était vraiment pas un phage très utile en un phage qui allait être efficace sur le plan thérapeutique.

Chris - Comment avez-vous administré les phages une fois que vous aviez trouvé ceux que vous vouliez et que vous saviez que vous les aviez optimisés ?

Graham - Il y a vraiment deux voies d'administration : les administrer par voie intraveineuse, puis une solution de phage sur de la gaze a été ajoutée à la fois à la plaie sternale de la greffe ainsi qu'aux nodules cutanés qui apparaissent comme une sorte de manifestation courante de ce genre de maladies.

Chris - Et comment savez-vous que vous vous êtes réellement débarrassé de la bactérie ? Comment savez-vous qu'il n'y a pas de cachettes là-dedans qui sont maintenant résistantes à tous les antibiotiques connus et à votre phage et qui pourraient revenir ?

Graham - Encore une fois, c'est une excellente question et évidemment quelque chose qui nous préoccupe beaucoup. Plutôt que d'utiliser un phage, nous avons spécifiquement fait un cocktail de trois phages afin d'essayer de lutter contre ce problème de résistance. Les bactéries pourraient devenir résistantes contre un phage, mais elles devraient alors rester sensibles aux autres que nous donnons dans le cocktail.

Chris - Nous sommes dans ce qu'un médecin-chef du Royaume-Uni a décrit comme une situation "d'apocalypse des antibiotiques", alors pensez-vous qu'il va y avoir un grand retour pour les phages alors ?

Graham - Je pense qu'il y a une réelle opportunité d'essayer de trouver les types d'infections que les phages pourraient vraiment être utiles pour traiter. Il existe des types particuliers de maladies et d'infections où elles pourraient trouver une utilité. Et on peut imaginer utiliser des phages de manière intelligente en les combinant essentiellement avec des antibiotiques afin d'améliorer essentiellement l'utilité des antibiotiques et d'essayer de réduire l'incidence de la résistance aux antibiotiques.

Graham Hatfull, sur la façon dont le bactériophage, découvert pour la première fois en 1915 par le chercheur anglais Frederick Twort, pourrait nous aider à combattre les infections résistantes aux antibiotiques cent ans plus tard. Ces résultats ont été rapportés dans Nature Medicine.

05:57 - Réparer les poumons blessés pour la transplantation

Réparer les poumons blessés pour la transplantation avec Matthew Bacchetta, Université Vanderbilt

Des milliers de personnes meurent chaque année dans l'attente d'une greffe. Et les poumons sont particulièrement rares. Maintenant, les scientifiques ont peut-être trouvé un moyen d'augmenter le nombre d'organes de donneurs adaptés à la transplantation. Dans des expériences utilisant des porcs, qui ont des poumons très similaires aux nôtres, Matthew Bacchetta de l'Université de Vanderbuilt a découvert que s'il prenait des poumons blessés qui seraient normalement impropres à la transplantation, et les plongeait dans le système circulatoire d'un receveur potentiel pendant environ un jour - mais maintient les poumons à l'extérieur du corps dans une chambre d'organe spéciale - nourris par les effets curatifs de l'apport sanguin, ils récupèrent très rapidement à un état qui signifie qu'ils peuvent ensuite être déplacés à l'intérieur du receveur. Matthew a parlé à Chris Smith.

Matthew - Les poumons sont extrêmement sensibles aux blessures causées par l'aspiration gastrique, la contusion pulmonaire, ce qui signifie que le poumon est meurtri, s'infecte pendant que le patient est sous respirateur afin qu'il puisse développer une infection bactérienne comme la pneumonie, et ce sont les principales raisons pour lesquelles les organes sont jugé inacceptable pour la transplantation. L'idée maîtresse de ce que nous avons fait ici est de reproduire la blessure que nous voyons chez les humains. Nous avons utilisé ce que nous appelons une aspiration gastrique, ce qui signifie essentiellement que le patient a absorbé du contenu gastrique, très acide et caustique, dans ses poumons, ce qui provoque une inflammation comme une pneumonie grave, de sorte que l'organe ne peut pas être utilisé. Et ce que notre système a permis à l'organe de se régénérer ou de se réparer au fil du temps.

Chris - Comment avez-vous fait?

Matthew - Nous avons d'abord beaucoup échoué en essayant différents types de systèmes ex vivo, ce qui signifie que l'organe a été placé à l'extérieur du corps séparé dans une sorte de système de perfusion machine. Et après avoir été très frustrés et avoir échoué à plusieurs reprises, nous avons finalement eu en quelque sorte le moment « eureka » où nous avons dit que nous ne pouvions pas reproduire tout un système, mais que nous pouvons attacher l'organe à un hôte naturel ou à un receveur. En d'autres termes, l'organe pourrait être attaché à quelqu'un qui a potentiellement besoin d'une greffe de poumon et ce corps fournit tout le système naturel nécessaire à la cicatrisation des plaies. Ce que nous avons essentiellement fait, c'est sonder cet organe dans le receveur potentiel qui fournit tous les facteurs critiques dans son sang qui permettent à l'organe de guérir.

Chris - Alors où se trouvaient les poumons alors, sont-ils dans le bain à côté de ce que sera le patient ? Lorsque vous venez réellement faire cela, vous allez vous retrouver avec des tubes sortant de l'individu qui amènent le sang vers et depuis ces poumons qui vont être à l'extérieur de leur corps à côté d'eux?

Matthieu - C'est exact. C'est exactement ce que nous faisons. Ils sont dans un conteneur spécialisé - cela ressemble en fait beaucoup à ce que nous ferions pour un patient qui était sous dialyse, il y aurait du sang qui sortait, il irait dans la machine de dialyse, puis ce sang serait renvoyé au patient.

Chris - Est-ce que le poumon respire aussi bien ? Est-ce que vous poussez l'air dans et hors des poumons, vous faites cela pour le garder naturel et à quoi il s'attendrait s'il était à l'intérieur du corps, pour créer autant d'imitation de ce que serait l'environnement corporel réel ?

Matthieu - Oui. On le connecte à un ventilateur mécanique et on peut effectivement mesurer les performances de l'organe en temps réel.

Chris - Donc, vous regardez combien d'oxygène est poussé dans le sang que vous faites passer par cet ensemble de poumons, ce qui vous donne un marqueur de leur comportement et de l'amélioration ?

Matthew - C'est exact, exactement. Nous pouvons donc surveiller cela au fil du temps et cela nous donne une référence pour surveiller le processus d'amélioration et pour nous faire savoir également quand nous avons atteint un niveau normal.

Chris - Pourquoi est-ce mieux que de simplement mettre les poumons dans le point final individuel ? Parce que vous faites fondamentalement la même chose, vous leur envoyez un approvisionnement en sang, vous leur envoyez un approvisionnement en air, pourquoi est-ce mieux de le faire à l'extérieur du corps que de simplement les mettre dedans ?

Matthew - Ouais, c'est une excellente question. La différence majeure est que vous devez soumettre le patient à une procédure très invasive. Je dois retirer leurs poumons, je dois mettre de nouveaux poumons, et nous savons que les poumons sont endommagés, qu'ils ne sont pas vraiment acceptables pour une greffe. Et puis je dois soutenir ce patient dont les poumons sont endommagés, ce qui provoque un processus inflammatoire profond et donc le corps ne fonctionne pas aussi efficacement pour guérir ces poumons et le patient devient instable parce qu'il compte maintenant sur un organe blessé pour les garder vivant.

Chris - Et comment le receveur s'en est-il sorti alors qu'il avait cet ensemble supplémentaire de poumons attaché à lui, et pas n'importe quels vieux poumons, les poumons de quelqu'un d'autre, les poumons d'un autre animal et les poumons malades en plus ? Y avait-il un fardeau évident pour l'individu ou s'en est-il bien sorti?

Matthew - En fait, ils se sont remarquablement bien débrouillés. Ils étaient hémodynamiquement stables, ce qui signifie que leur tension artérielle, leur fréquence cardiaque et toutes les autres mesures physiologiques que nous utilisons étaient normales et stables.

12:35 - Prédire la maladie intestinale inflammatoire

Prédire les maladies inflammatoires de l'intestin avec Ken Smith, James Lee, Université de Cambridge

Les maladies inflammatoires de l'intestin peuvent causer des douleurs intenses et de graves problèmes chez ceux qui la subissent tous les jours. Mais qu'est-ce que cela signifie pour ceux qui en souffrent et comment pouvons-nous améliorer leur vie ? Adam Murphy a parlé à Ken Smith et James Lee de l'Université de Cambridge d'un nouveau test qu'ils ont développé, qui peut prédire la gravité future de la maladie inflammatoire de l'intestin chez ceux qui en souffrent. Mais d'abord, nous avons entendu Kate, une patiente atteinte d'une MII, qui fait face à cette maladie depuis de nombreuses années.

Kate - J'ai reçu un diagnostic de maladie de Crohn à 14 ans et rien n'indiquait que les choses allaient être si graves à long terme. Mon consultant à l'époque m'a dit que j'aurais besoin de me faire retirer des intestins, mais qu'il n'y avait aucune raison de penser que ce ne serait pas la fin avant longtemps. Malheureusement, au bout de neuf mois, j'étais à nouveau malade et pendant les années suivantes, j'ai subi une série de médicaments, qui ont tous causé des effets secondaires assez graves, mais n'ont pas fait grand-chose pour arrêter la progression de la maladie. Finalement, mon gros intestin a été trop endommagé pour être sauvé et après quelques mois avec une sonde d'alimentation pour essayer de prendre du poids avant la chirurgie, on m'a dit que j'aurais besoin d'un sac de colostomie permanent.

Adam - C'est Kate. Comme vous l'avez entendu, elle souffre de la maladie de Crohn, une maladie inflammatoire de l'intestin ou MII. Mais que se passe-t-il dans les corps des gens comme elle ? J'ai parlé à James Lee, gastro-entérologue à l'Université de Cambridge.

James - IBD est un terme générique. Il signifie maladie inflammatoire de l'intestin et englobe la maladie de Crohn et la colite ulcéreuse qui sont deux maladies différentes. Mais essentiellement dans les deux maladies, ce qui se passe, c'est que votre système immunitaire croise ses fils, le système immunitaire attaque en fait l'intestin, et le résultat est qu'il peut provoquer une ulcération et une inflammation dans l'intestin, ce qui peut entraîner des symptômes assez désagréables où vous avoir des saignements et des douleurs abdominales. Ce sont des maladies incurables qui durent toute la vie et l'un des gros problèmes est que certains patients contracteront une forme très sévère et agressive de la maladie, tandis que d'autres personnes atteintes de la même maladie peuvent en fait avoir une évolution très bénigne de la maladie. Et donc l'un des plus grands défis pour le traitement des patients atteints de colite ulcéreuse et de la maladie de Crohn en ce moment est d'identifier quels patients ont besoin de l'approche de traitement la plus agressive parce que leur maladie va être beaucoup plus agressive, et quels patients s'en tireraient très bien avec relativement thérapie minimale.

Adam - Et comment fais-tu ça ? Ken Smith, chef du département de médecine de l'université de Cambridge, m'a expliqué tout cela.

Ken - Nous avons commencé il y a environ 12 ans. Nous voulions déterminer quels facteurs étaient à l'origine de différents résultats à long terme pour les patients atteints de maladies telles que les maladies inflammatoires de l'intestin. Nous avons donc commencé par recruter de nombreux patients au moment du diagnostic, en mesurant l'expression des gènes dans leur sang ce jour-là, puis en comparant les modèles d'expression de ces gènes, appelés signatures, en les comparant à leurs résultats cliniques à long terme. , donc cette étude a pris de nombreuses années à faire.

Ce que nous avons trouvé était une signature qui était très fortement corrélée avec la façon dont les gens se débrouillaient à long terme. Nous avons ensuite pris cette signature et, au cours d'un processus complexe, avons développé un test fonctionnant sur du sang total qui a recréé l'effet de cette signature, ce qui nous a permis de diviser les patients en deux groupes dont les résultats à long terme étaient très différents.

Adam - Et la signature que tu as trouvée, c'était quoi ?

Ken - C'était une signature dans des choses appelées cellules T CD8, qui sont un sous-ensemble des globules blancs, et c'était essentiellement une mesure de quelque chose qui s'appelle l'épuisement des cellules T. Donc, si vous avez tendance à avoir des lymphocytes T épuisés, vous avez tendance à avoir de très bons résultats à long terme, alors que si vous n'avez pas d'épuisement, vous avez le contraire, vous avez tendance à avoir une évolution plus agressive de la maladie. Nous comprenons donc les voies biologiques qui sous-tendent en quelque sorte cette observation dans ce test.

Adam - Et qu'est-ce que cela pourrait signifier pour les patients ? Revenons à Jacques.

James - Cela pourrait vraiment changer la donne pour le traitement des patients atteints de MII. À l'heure actuelle, la plupart des patients reçoivent ce qui est ostensiblement une approche «taille unique» pour leur traitement et c'est simplement parce que nous n'avons tout simplement pas eu de bons moyens d'identifier les patients qui ont besoin d'un traitement plus agressif de ceux qui n'en ont pas. Ainsi, pour le moment, tout le monde au Royaume-Uni et dans de nombreuses autres parties du monde commencera un traitement initial. Si leur maladie continue à s'aggraver fréquemment, ils passeront à quelque chose de plus fort, et si elle continue à s'embraser, ils passeront à quelque chose de plus fort encore, et cette augmentation progressive du traitement continue jusqu'à ce que nous arrivions enfin au traitement. ils ont besoin.

Pour les patients qui ont la maladie la plus agressive qui pourrait ne pas être avant leur quatrième ou cinquième traitement de ligne et, entre-temps, ils ont été exposés à parfois des années de maladie active persistante avec tous les risques de complications qui vont ainsi que. À l'inverse, nous savons qu'en fait, si nous pouvions donner les traitements les plus efficaces dès le départ à ce type de patients, ce sont les patients qui auraient le plus à gagner en contrôlant rapidement leur maladie.

Donc, depuis longtemps dans les maladies inflammatoires de l'intestin et, d'ailleurs, dans d'autres domaines de la médecine, les gens ont cherché des moyens de faire correspondre le bon traitement au bon patient, donc si vous avez quelque chose qui vous permet de personnaliser le traitement de cette façon cela pourrait changer complètement la façon dont nous traitons les patients à l'avenir.

Adam - Et enfin, qu'est-ce que cela pourrait signifier pour des gens comme Kate ?

Kate - Pour moi, la maladie de Crohn a toujours été une maladie qui essaie constamment de gagner du terrain. Dans les années qui ont suivi mon diagnostic, échouant avec des médicaments plus ou moins puissants, j'ai perdu un terrain que je n'aurais peut-être jamais eu à abandonner si les personnes en charge de mes soins avaient un outil leur permettant de mieux comprendre ce que je besoin de rester bien. C'est incroyable de penser à ce qu'un test comme celui-ci pourrait épargner aux gens.

18:05 - Les guêpes peuvent-elles faire des comparaisons comme les humains ?

Les guêpes peuvent-elles faire des comparaisons comme les humains ? avec Elizabeth Tibbetts, Université du Michigan

Les êtres humains sont très doués pour utiliser une compétence cognitive appelée « inférence transitive » - utiliser des informations sur des choses que vous connaissez pour tirer des conclusions sur des choses que vous ne connaissez pas. Par exemple, si vous savez que A est plus grand que B et que B est plus grand que C, vous pouvez dire que A est plus grand que C sans avoir à les regarder côte à côte. Nous savons que les humains peuvent le faire, mais c'est une question ouverte de savoir si d'autres animaux peuvent le faire aussi. Le professeur Elizabeth Tibbetts de l'Université du Michigan a cherché à savoir si l'un des ennemis les plus décriés de l'humanité, la guêpe, est capable d'utiliser cette technique cognitive avancée. Elle a parlé à Ben McAllister.

Elizabeth - Il y a longtemps, les gens pensaient que l'inférence transitive était basée sur un raisonnement logique et nous pensions que seuls les humains étaient capables d'inférence transitive et, sans surprise, nous avons rapidement découvert que les humains n'étaient pas les seuls. Il s'avère qu'une vaste gamme de vertébrés peuvent faire une inférence transitive, donc les primates et les oiseaux et même les poissons.

Ben - Waouh. Il vit donc dans ce seau de choses que nous pensions être en quelque sorte uniques à l'expérience humaine, mais nous apprenons rapidement qu'il devient un seau beaucoup plus petit ?

Elizabeth - C'est un tout petit seau je pense. Il y avait eu une étude sur l'inférence transitive chez un non-vertébré et cela a été fait chez les abeilles, et ils ont découvert que les abeilles ne pouvaient pas faire d'inférence transitive. Et donc je pense que les guêpes sont bien plus intelligentes que les abeilles, donc je voulais tester si les guêpes pouvaient le faire.

Ben - Et pour tous ceux qui n'aiment pas beaucoup les guêpes, vous l'avez entendu ici en premier, les guêpes ne sont pas seulement plus effrayantes que les abeilles, elles sont aussi infiniment plus rusées, alors ajoutez cela à votre considération. Qu'avez-vous fait spécifiquement de cette étude pour déterminer si les guêpes pouvaient utiliser l'inférence transitive ?

Elizabeth - Ce que nous avons fait, c'est que nous les avons formés à un tas de couleurs. Ainsi, par exemple, nous leur apprendrions que le bleu est meilleur que le vert, puis nous leur apprendrions que le vert est meilleur que le violet, puis nous leur apprendrions que le violet est meilleur que le jaune. Donc ils avaient toutes ces informations et maintenant nous leur avons demandé de faire une inférence, alors leur a demandé ce que vous préférez le vert ou le jaune ?

Ben - D'accord. Et ils n'ont jamais vu le vert ou le jaune ensemble auparavant ?

Elisabeth - Exactement. Ils n'ont jamais vu de vert ou de jaune ensemble. Parfois, le vert a été bon, parfois le vert a été mauvais, il n'y a donc rien qui devrait être intrinsèquement différent dans les stimuli.

Ben - Comment fais-tu pour apprendre à une guêpe que le vert vaut mieux que n'importe quelle autre couleur ?

Elizabeth - Nous les formons dans ce tout petit maïs. Il doit être minuscule car les guêpes sont minuscules. Une partie du bas est électrifiée et une partie du bas ne l'est pas.Ainsi, lorsque nous les entraînons, le bleu est meilleur que le vert, le bleu est une zone sûre dans le labyrinthe et le vert leur donne un petit choc électrique.

Ben - Comment devinez-vous exactement ce qu'est un petit choc électrique pour une guêpe ?

Elizabeth - Je dirais que ce sont des essais et des erreurs. Mais je promets qu'aucune guêpe n'a été blessée dans cette expérience. Nous voulons qu'ils apprennent donc nous ne voulons pas qu'ils soient paniqués ou vraiment inquiets ou quoi que ce soit, n'est-ce pas. Donc, nous leur donnons juste assez de choc pour qu'ils agissent un peu mal à l'aise afin qu'ils commencent à se déplacer plus rapidement et essaient de s'en éloigner.

Ben - Et donc ils passent juste un peu de temps dans ce labyrinthe jusqu'à ce qu'ils finissent par atterrir sur la partie qui ne les choque pas et cette partie correspond à la couleur que tu veux les entraîner, c'est bien ?

Elisabeth - Exactement. Ils se déplacent dans le labyrinthe et finissent par se rendre dans la partie qui est sûre et ils sont comme oh mon dieu, c'est sûr et il y a la couleur verte - le vert est génial.

Ben - D'accord. Qu'avez-vous fait après les avoir entraînés ?

Elizabeth - Après les avoir entraînés, nous avons dû les tester, alors nous les avons mis au milieu d'une boîte et ensuite nous avons testé la couleur vers laquelle ils préfèrent aller.

Ben - Et tu n'avais pas de stimuli électriques ou était-ce encore présent ?

Elizabeth - Il y avait des couleurs à chaque extrémité et il n'y avait pas d'électricité pour les signaler, mais l'idée est qu'ils ont appris que le vert est bon, puis ils passeraient du côté vert. Nous les avons donc testés sur les couleurs sur lesquelles nous les avions initialement entraînés juste pour confirmer qu'ils avaient appris ce sur quoi nous les avions entraînés, puis nous les avons également testés sur ces nouvelles paires transitives.

Ben - D'accord. Et qu'as-tu trouvé ?

Elizabeth - Nous avons découvert que les guêpes ont une inférence transitive. Ils ont donc pris toutes ces paires entraînées et ils semblent les organiser dans leur esprit de manière linéaire, puis utilisent l'inférence transitive pour choisir entre des stimuli qui n'avaient jamais été côte à côte auparavant.

Ben - C'est fascinant parce que, comme vous l'avez mentionné auparavant, quelqu'un d'autre avait précédemment découvert que les abeilles étaient incapables de faire cela. Une abeille et une guêpe ont sûrement des cerveaux de taille assez similaire, non ?

Elisabeth - Ouais. Les abeilles et les guêpes ont toutes deux des cerveaux de taille similaire et leurs cerveaux sont vraiment minuscules, de la taille d'un grain de riz. Je pense que la différence entre les abeilles et les guêpes n'est pas vraiment que les guêpes ne sont que des génies et que les abeilles sont stupides, c'est plutôt à quoi ressemble la vie sociale des guêpes et des abeilles. Toutes les ouvrières d'une colonie d'abeilles sont à peu près les mêmes, elles passent leur temps à butiner, mais sur une colonie de guêpes, il existe toutes sortes de relations de dominance intéressantes. Ils ont une hiérarchie de dominance linéaire où la guêpe dominante fait la majeure partie de la reproduction et les guêpes subordonnées font la plupart du travail, et donc déterminer à quel point les autres guêpes sont dominantes dans le pays des guêpes est extrêmement important. Par exemple, si vous avez déjà battu Jane dans un combat et que vous voyez Jane battre Susan, vous pouvez en déduire que je vais probablement pouvoir battre Susan. Donc ce genre de chose est vraiment important pour les guêpes et pas important pour les abeilles.

Ben - Je dirais aussi probablement important pour les humains selon à qui vous demandez.

Elizabeth - Oui, c'est vraiment important pour les humains.

Ben - C'est une chose importante à savoir. Pensez-vous qu'il est possible d'étendre ce genre de raisonnement à d'autres animaux ou à d'autres types de cognition animale ?

Elizabeth - Je parie que beaucoup d'autres insectes sont capables d'inférence transitive. Je pense que nous ne les avons pas encore testés. Je pense que l'un des messages est que les animaux peuvent être très bons dans ce qui est important pour eux. Nous pensons que les humains sont les meilleurs en tout, mais beaucoup d'animaux sont incroyables dans des choses vraiment spécifiques qu'ils doivent faire pour réussir.

Ben - L'intelligence n'est pas forcément liée à la taille du cerveau mais aussi aux tâches à accomplir ?

Elisabeth - Exactement. Vous n'avez pas besoin d'un gros cerveau pour faire des choses compliquées. Même un tout petit cerveau peut faire des choses compliquées si l'animal doit être capable de le faire.

24:03 - Dans la boîte aux lettres de Naked Scientists

Dans la boîte aux lettres de Naked Scientists

Chris Smith et Katie Haylor ont ouvert le sac postal de Naked Scientists pour voir ce que les auditeurs nous demandent et nous disent.

Katie - Il s'avère que notre facteur, comme il remettait le courrier à l'extérieur du bureau l'autre jour, est un fan de l'émission, alors merci beaucoup. Maintenant, il veut en savoir plus sur la gravité. Qu'est-ce que la gravité et de quoi est-elle faite ? Ben, peux-tu nous aider avec celui-ci ?

Ben - C'est une excellente question. La réponse est essentiellement que nous ne savons pas. Personne ne sait vraiment, c'est pourquoi c'est une excellente question à poser. Nous savons qu'il y a quatre forces fondamentales dans la nature et restez à l'écoute de la moitié arrière de ce programme où vous en entendrez parler un peu plus en détail.

Je vais parler de deux en particulier la gravité est une force dont nous parlons ici. C'est quelque chose qui existe entre deux choses qui ont une masse, qui les rapproche. Et nous pouvons comparer cela à une autre force dont nous savons en quelque sorte de quoi elle est composée, c'est l'électromagnétisme, c'est la force que ressentent les aimants lorsqu'ils s'attirent. Cette force, si vous voulez dire, est constituée de quelque chose, elle est en fait constituée de ces particules appelées photons qui ne sont que de petits morceaux de lumière. Lorsque les aimants s'attirent, ils projettent en fait de petits morceaux de lumière dans les deux sens et c'est de cela que cette force est faite, si vous voulez.

Si nous devions introduire l'analogique à la gravité, nous ne savons pas s'il y a quelque chose comme ça avec la gravité. Certaines personnes pensent qu'il existe, pensent qu'il pourrait y avoir une particule appelée le graviton, bien que cela n'ait jamais été détecté. D'autres diraient qu'il n'y a rien, c'est en fait juste la courbure physique de l'espace-temps lui-même qui crée des effets comme la gravité. Réponse si courte - nous ne savons pas. Beaucoup de gens essaient de le savoir - excellente question.

Katie - C'est une grande question n'est-ce pas ?

Katie - Mais il semble que la seconde moitié de cette émission puisse nous aider à essayer de comprendre une partie de cette science.

Ben - Absolument. Une meilleure compréhension de la matière noire conduira certainement à une meilleure compréhension de la gravité.

Katie - Alors notre facteur a choisi une très bonne semaine pour poser des questions sur la gravité ?

Chris - Et voilà. Merci beaucoup Ben pour cette réponse de première classe pour notre facteur

26:40 - Qu'est-ce que la matière noire ?

Qu'est-ce que la matière noire ? avec le professeur Lord Martin Rees, Université de Cambridge

Nous allons nous plonger dans les éléments mystérieux qui constituent une grande partie de l'Univers. Mais nous ne pouvons pas le voir, et nous n'avons pas la moindre idée de ce que c'est. Alors, comment essayons-nous de le découvrir réellement, et comment savons-nous même que c'est là du tout ? Ben McAllister l'a découvert.

Ben - J'aimerais te raconter une histoire. C'est une histoire sur les galaxies, les trous noirs, les étoiles, les planètes, les gens et tout le reste de l'univers. Nous savons maintenant que toutes les grandes choses de l'univers - les gens, les planètes, les étoiles - sont composées d'une poignée de différents types de particules. Ces minuscules petites choses comme des atomes qui sont constitués de protons, de neutrons et d'électrons. Au cours des cent dernières années, nous avons appris beaucoup de choses sur ces petites choses et sur la façon dont elles composent de plus grandes choses. Collectivement, les astronomes appellent tout cela matière baryonique, et c'est un peu tout ce qu'il y a, n'est-ce pas ?

Je suis ici pour vous dire que ce n'est pas le cas. La matière baryonique - personnes, planètes, étoiles - n'est qu'une toute petite fraction de l'histoire. Dans l'émission d'aujourd'hui, nous allons entendre ce que nous savons du reste. Nous allons entendre parler de matière noire.

Pour vous donner un avant-goût, la matière noire est cette substance mystérieuse qui occupe l'univers. C'est énorme, il y en a cinq fois plus que de matière ordinaire, c'est partout. En ce moment, pendant que vous écoutez, cela traverse votre corps, nous ne pouvons pas le voir, le toucher ou le sentir. Mais avant d'en arriver à ce que c'est, il faut revenir un peu en arrière. Avez-vous déjà regardé les étoiles et vous êtes-vous demandé s'il y en avait d'autres ? Si vous l'avez fait, vous n'êtes vraiment pas seul, les humains le font depuis aussi longtemps qu'il y a eu des humains.

Professeur Lord Martin Rees, Astronome Royal.

Martin - C'est en fait dont certains ont émergé dans les années 30 grâce aux travaux de Fritz Zwicky, qui était un astronome américano-suisse et il étudiait la distribution des galaxies. Chaque galaxie est bien sûr aussi grande que notre Voie lactée, il regardait donc l'univers à très grande échelle. Il s'est rendu compte que les galaxies n'étaient pas distribuées au hasard, mais qu'il s'agissait d'amas, et ces amas semblent évidemment être maintenus ensemble par la gravité. Mais lorsqu'il a mesuré les vitesses de ces galaxies, il a découvert qu'il était surprenant qu'elles ne volent pas séparément, car l'énergie correspondant à ces vitesses dépasserait la force gravitationnelle maintenant l'amas si cette gravité était uniquement due aux galaxies. Il a déduit qu'il devait y avoir du matériel supplémentaire qui liait l'amas, et c'était la première preuve vraiment sérieuse qu'il y avait des choses sombres dans l'univers au-delà du gaz et des étoiles qui sont visibles.

Ben - Depuis des décennies, nous observons des choses comme ça. Mouvements étranges de grands corps dans l'espace qui ne peuvent être expliqués si l'on ne considère que la matière que nous pouvons voir. Tout se résume à la gravité. La gravité est la force principale qui régit la façon dont les choses se déplacent dans l'espace. C'est une force qui existe entre deux choses qui ont une masse et qui les rapproche. La gravité devient plus forte plus il y a de masse, mais surtout, elle devient plus faible plus les deux choses sont éloignées.

Dans l'espace, lorsque nous regardons ce que nous pouvons voir comme des étoiles, par exemple, nous pouvons estimer la masse qu'il y a dans le système et ensuite, en utilisant les lois de la gravité - ce que nous appelons la gravité newtonienne - nous pouvons modéliser la façon dont nous nous attendons à ce que la masse bouge. Quand les choses ne bougent pas comme nous l'espérions, disons qu'elles bougent beaucoup plus vite par exemple, cela implique qu'il manque quelque chose à notre image. Il y a une force supplémentaire qui fait bouger les choses plus rapidement, ce qui indique qu'il s'agit d'une masse supplémentaire pour fournir cette force supplémentaire.

Martin - Si vous aviez découvert, par exemple, que Jupiter tournait autour du Soleil aussi vite que la Terre, vous auriez dû en déduire qu'il y avait beaucoup de masse mystérieuse en dehors de l'orbite terrestre, mais à l'intérieur de l'orbite de Jupiter. Jupiter ressentait donc non seulement la masse du Soleil, mais quelque chose de plus que la Terre ne ressentait pas. Quelque chose comme ça, à une échelle bien plus grande bien sûr, s'est produit lorsque les gens ont étudié les parties externes des galaxies. Ils ont découvert que la matière tournait plus vite, que les étoiles périphériques et le gaz à de grandes distances allaient plus vite, ce qui impliquait que les étoiles d'une galaxie n'étaient pas le type de masse dominant, et que dans son ensemble, cette galaxie comme la nôtre était incrusté dans ce qu'on a appelé un halo de matière qui n'émettait aucune lumière mais exerçait une forte gravité et dominait l'attraction gravitationnelle dans les parties extérieures de la galaxie.

Ben - Nous sommes arrivés au point de l'histoire où, grâce aux observations de corps se déplaçant dans l'espace, nous sommes à peu près sûrs d'être entourés d'une quantité massive de matière noire. Encore une fois, cela se déplace dans votre corps en ce moment, et cela dépasse massivement la matière ordinaire que nous comprenons, nous ne savons tout simplement pas ce que c'est. Depuis, nous en avons compris un peu plus, mais pas tant que ça. C'est une nouvelle frontière, une nouvelle région à explorer. Nous avons des théories pour expliquer les phénomènes que nous voyons, dont certaines n'incluent en fait aucune matière noire.

Martin - Et il y a, bien sûr, l'idée qu'on se trompe sur la gravité. Et bien sûr, tous les arguments où vous déduisez une masse à partir des mouvements des planètes, des étoiles et des galaxies : cela suppose, dans un sens, la gravité newtonienne. Donc, certaines personnes proposent d'autres moyens où nous n'aurions pas du tout besoin de matière noire, et nous aurions simplement une théorie différente de la gravité. Mais je pense que la plupart des gens sont contre, parce que tout d'abord, il n'y a pas de raison particulière pour que nous soyons surpris par la matière noire. Il y a beaucoup de place pour les particules de matière noire. Et deuxièmement, nous rejetterions beaucoup de bonnes données si nous abandonnions l'idée que nous comprenons la gravité. Je parierais toujours qu'il est fort probable que la matière noire se trouve dans une sorte de particules.

Ben - Un certain nombre d'expériences dans le monde proposent d'essayer de détecter ces particules lorsqu'elles traversent la terre et nous en apprendrons plus sur certaines d'entre elles plus tard. Mais pourquoi devrions-nous nous en soucier ? Nous ne pouvons pas le voir, le toucher ou le sentir, c'est juste ce truc mystérieux qui flotte.

Martin - Eh bien, nous savons que tout le monde a regardé les étoiles tout au long de l'histoire de l'humanité et s'est interrogé sur elles. L'une des grandes réalisations de la cosmologie est de comprendre la structure de l'univers - pourquoi il y a des étoiles, pourquoi il y a des galaxies, pourquoi elles sont regroupées, et les détails de cela. Cela ne nous donne une histoire cohérente que si nous avons la présence de matière noire qui est, en moyenne dans l'univers, cinq fois plus dense que le gaz et les étoiles que nous voyons. Et je pense que ce succès est l'une des grandes réalisations de la science moderne. Je dirais que c'est là-haut avec le modèle standard de la physique des particules dans le génome. Quand l'histoire de la science est écrite, je pense que le fait que nous comprenions l'évolution cosmique, et pourquoi les galaxies existent, est vraiment une très grande réussite.

Ben - Si ça ne te convient pas, réfléchis à ça. Pensez à tout ce que les humains ont accompli avec une compréhension d'un sixième de la matière dans l'univers. Des ordinateurs. Médecine moderne et vols spatiaux. Toute la littérature d'art. Imaginez ce que nous pourrions faire si nous pouvions déverrouiller le reste.


Voir la vidéo: Eye In The Sky: Barkhad Abdi TIFF 2015 Movie Premiere Gala Arrival. ScreenSlam (Septembre 2022).