Je termine par 4 petits résumés et une traduction complète intéressante
--------------------------------------------------------------------------
14
Experiment is first to see kicking photons heat up nanoparticles
Breakthrough could lead to measurements of quantum-state evolution due to gravity
L'effet de réchauffement produit par de petits "coups" de photons entrant en collision avec une particule microscopique a été mesuré pour la première fois par des physiciens en Suisse. Ces collisions ont fixé une limite fondamentale sur la façon dont des particules peuvent être refroidies lorsqu'elles sont confinées dans des pièges optiques. Une meilleure compréhension de cet effet pourrait conduire à des expériences dans lesquelles une particule piégée serait d’abord mise dans un état quantique bien défini. De telles particules pourraient ensuite être utilisées pour étudier la façon dont ces états évoluent sous l'influence de la gravité.
L’expérience, est le fruit d’une équipe dirigée par Lukas Novotny de l'ETH Zurich sur des nanoparticules de silice d'approximativement 50 nm de rayon dans un piège optique utilisant un laser infrarouge, avant de vider la quasi-totalité de l'air pour créer un ultravide dans la chambre.
MON COMMENTAIRE /Confiner quelques particules et les refroidir un maximum pour essayer de voir si possible l effet de la gravité dans leur état fondamental me semble un programme difficile …
---------------------------------------------------------------------------
15 :
How LIGO's merging black holes formed from two massive stars
1 comment
Simulations give a backstory to the first ever detection of a gravitational wave
Krzysztof Belczynski et Tomasz Bulik de l'Université de Varsovie ont uni leurs forces avec celles de Daniel Holz de l'Université de Chicago et Richard O'Shaughnessy de l'Institut de technologie de Rochester pour utiliser un modèle numérique de l'évolution stellaire et esquisser les événements qui ont mené à la création de GW150914. Leurs simulations suggèrent que l'histoire de GW150914 a commencé il y a environ 12 milliards d'années - seulement deux milliards d'années après le Big Bang - avec la naissance de deux étoiles énormes, chacun ayant environ 40-100 masses solaires.
L'équipe estime que la conversion des étoiles en trous noirs est arrivée relativement rapidement - en un peu plus de cinq millions d'années. Ce système de trou noir binaire a existé pendant encore 10 milliards d'années, avec les deux objets en spirale lentement l un dans l'autre avant que la fusion ait eu lieu. Cela a créé GW150914, qui a ensuite pris 1,2 milliards d'années pour atteindre la Terre.
--------------------------------------------------------------------
MON COMMENTAIRE /Cela semble cohérent avec le modèle standard de la cosmologie sur l’évolution des très grosses étoiles d’hydrogène
-------------------------------------------------------------------------
16
UK physics faces huge uncertainty after EU referendum result
11 comments
Researchers voice concern over UK decision to leave the European Union
Les physiciens au Royaume-Uni viennent d’accepter la décision de choc prise par l'électorat britannique de quitter l'Union européenne (UE). Le retrait suit le référendum national d'hier, qui a abouti à 51,9% des électeurs qui choisissent de partir. Le verdict dramatique jette de nombreuses questions profondes et inquiétantes sur la façon dont la physique au Royaume-Uni se comportera en tant que membre non-UE.
MON COMMENTAIRE /L’article original en anglais de MICHAEL BANKS est tellement empli de données financières , budgétaires et même économiques que je me suis refusé à prendre cela pour de la physique de découverte !!!Je vous laisse par conséquent le soin de le traduire vous-même !!
---------------------------------------------------------------------------
17 :
KM3NeT neutrino sea-scope takes shape
Collaboration unveils detailed plans for world's largest neutrino array
Un consortium de physiciens européens envisage la construction d'un vaste détecteur de neutrinos sur le plancher de la mer Méditerranée (« Science »), . Le télescope cubique Kilomètrique à Neutrino (KM3NeT) va utiliser des chaînes de détecteurs de rayonnement disposés dans un réseau 3D pour mesurer la lumière émise lorsque les neutrinos très occasionnellement vont interagir avec l'eau de mer environnante.
----------------------------------------------------------------
MON COMMENTAIRE /Pour l instant nous avons déjà le US IceCube neutrino observatory at the South Pole, qui fonctionne .Mais les européens eux n' ont rien !(" la fourmi n est pas prêteuse , c est là son moindre défaut etc ..."
-----------------------------------------------------------------------
18 Une traduction complète poutr finir le mois de juin
----------------------------------------------------------------------------------------
Relativistic codes reveal a clumpy universe
(Courtesy: James Mertens)">(Courtesy: James Mertens)">
(Courtesy: James Mertens)">
(Courtesy: James Mertens)">
(Courtesy: James Mertens)">
(Courtesy: James Mertens)">General universe: visualization of the large-scale
structure of the universe
Un nouvel ensemble des codes qui, pour la première fois, seraient en mesure d'appliquer la théorie générale complète de la relativité d'Einstein pour simuler comment notre univers a évolué, vient d’être développé indépendamment par deux équipes internationales de physiciens. Ils ouvrent la voie aux cosmologistes pour confirmer si nos interprétations des observations de la structure à grande échelle et de l'expansion cosmique nous racontent une histoire vraie.
L'impulsion pour développer des codes conçus pour appliquer la relativité générale à la cosmologie découle des limites des simulations numériques traditionnelles de l'univers. Actuellement, ces modèles invoquent la gravité newtonienne et supposent un univers homogène pour décrire l'expansion cosmique, pour des raisons de simplicité et de puissance de calcul. Sur les plus grandes échelles l'univers est homogène et isotrope, ce qui signifie que la matière est répartie uniformément dans toutes les directions; mais sur de plus petites échelles l'univers est clairement inhomogène, avec de la matière agglomérée dans les chaînes de galaxies et des filaments de matière noire assemblés autour de vastes espaces vides.
L'expansion serait inégale?
Cependant, l'expansion de l'univers pourrait s'être déroulée à des vitesses différentes dans des régions différentes, en fonction de la densité de matière dans ces zones. Lorsque la matière est densément agglutinée, sa gravité ralentit l'expansion; alors que dans les volumes relativement vides, l'univers peut se développer sans entrave. Cela pourrait affecter la façon dont la lumière se propage à travers ces régions ;ce qui se manifesterait dans la relation entre la distance à des objets de luminosité intrinsèque connue (ce que font les astronomes qui se réfèrent à des bougies standard, par lequel nous mesurons la distance, sur la base de la luminosité avec laquelle ils nous apparaissent) et leur redshift cosmologique.
Dernièrement James Mertens et Glenn Starkman de Case Western Reserve University dans l'Ohio, en collaboration avec John T Giblin au Kenyon College, ont écrit un tel code; tandis que Eloisa Bentivegna de l'Université de Catane en Italie et Marco Bruni à l'Institut de Cosmologie et Gravitation à l'Université de Portsmouth ont développé indépendamment un second code similaire.
Volumes vides rapides et agroupements lents
Les distances des supernovae et leurs redshifts cosmologiques sont liés les uns aux autres d'une manière spécifique dans un univers homogène, mais la question est, selon Starkman: «Sont-ils liés de la même manière dans un univers grumeleux" La réponse à cela aurait des répercussions évidentes sur le taux d'expansion de l'univers et la force de l'énergie sombre, qui peut être mesurée en utilisant des bougies standard tels que les supernovae. (1A)
Le taux d'expansion de notre univers est décrit par le paramètre "Hubble". Sa valeur actuelle de 73 km / s / Mpc est calculée en supposant un univers homogène. Cependant, Bruni et Bentivegna ont montré que sur les échelles locales, il y a de larges variations, avec dans les vides une expansion jusqu'à 28% plus rapide que la valeur moyenne du paramètre Hubble. Ceci est contrebalancé par le ralentissement de l'expansion dans les amas de galaxies denses. Cependant, Bruni avertit qu'ils doivent "être prudents, car cette valeur dépend du système spécifique que nous avons utilisé pour la coordination". Alors que l'équipe américaine a utilisé le même système, il est possible que cela crée un biais de l'observateur et qu'un autre système puisse conduire à une interprétation différente de cette variation.
Les codes ont également été en mesure de se prononcer sur un phénomène connu sous le nom de «réaction de retour", qui est l'idée que la structure à grande échelle peut affecter l'univers autour de lui de telle façon que l'énergie en apparaisse masquée et sombre. En exécutant leurs codes, les deux équipes ont montré, dans les limites des simulations, que la quantité de réaction de retour est suffisamment faible pour ne pas tenir compte de l'énergie sombre.
La boîte à outils d'Einstein
Bien que le code de l'équipe américaine n'ait pas encore été publiquement libéré, le code développé par Bentivegna est lui disponible. Il fait usage d'une collection de logicielsgratuits appelé Toolkit Einstein, qui comprend un logiciel appelé Cactus. Cela permet au code d'être développé par le téléchargement de modules appelés "épines" qui effectuent chacun des tâches spécifiques, telles que la résolution des équations de champ d'Einstein ou le calcul des ondes gravitationnelles. Ces modules sont ensuite intégrés dans l'infrastructure de Cactus pour créer de nouvelles applications.
"Cactus était déjà en mesure d'intégrer les équations d'Einstein avant que je commence à travailler sur mes modifications en 2010", dit Bentivegna. "Ce que je devais approvisionner c’ était un module pour préparer les conditions initiales pour un modèle cosmologique où l'espace est rempli de matière qui est inhomogène sur des échelles plus petites, mais homogène sur les plus grandes."
Regarder vers l'avant
L'équipe américaine dit qu'elle publiera son code pour la communauté scientifique bientôt et indique qu'il fonctionnera encore mieux que le code Cactus. Cependant, Giblin estime que les deux codes sont susceptibles d'être utilisés également dans le futur, car ils peuvent fournir une vérification indépendante les uns des autres. "Ceci est important car nous commençons à être en mesure de faire des prédictions sur les mesures réelles qui seront faites à l'avenir et en ayant deux groupes indépendants qui travaillent avec différents outils c’est un contrôle important», dit-il.
Les jours des simulations numériques avec la gravité newtonienne sont ils désormais comptés? Pas nécessairement, dit Bruni. Même si les codes de la relativité générale sont très précis, les ressources informatiques immenses dont ils ont besoin signifient que pour la réalisation du détail de simulations de gravité newtonienne, il faudra encore beaucoup de développement de code supplémentaire.
"Cependant, ces simulations de la relativité générale devraient fournir un point de référence pour les simulations newtonienes», dit Bruni, "que l'on peut ensuite utiliser pour déterminer à quel point la méthode newtonienne est exacte. Ils représentent un grand pas en avant dans la modélisation de l'univers dans son ensemble ».
Le travail des équipes est publié dans Physical Review Letters (116 251301; 116 251302) et Physical Review D.
A propos de l'auteur
Keith Cooper est un journaliste scientifique basé au Royaume-Uni
----------------------------------------------------------------------
Mon commentaire :L’emploi des équations d’Einstein ne m’a toujours pas paru cohérent dans sa logique si appliqué à toutes les échelles et j’ai signé des articles militants pour m’écarter de l’hypothèse copernicienne ( homogénéité + Isotropie ) permanente ….Le grand ALBERT ne s’est jamais targué d’ être Normand et de pouvoir dire pour une échelle donnée ;p’tet ben qu’oui !p’tet ben qu’non. Or c’est peut être le raffinement que sont en train de choisir les auteurs de ces codes ……Alors expliquez-moi , comment un code bon pour un volume d’Espace restreint très inhomogène et même grumeleux peut soudain apparaitre comme impeccable pour une immensité étendue ….Oh je sais (pour m en être servi) que les mathématiciens ont méthodes et algorithmes pour lisser des courbes expérimentales « zigzagantes » ou des surfaces imparfaites …..Le tout est de savoir si LES LOIS parfois subtiles du réel ne disparaissent pas avec ce genre de traitement !!!