L’Organisation européenne pour la recherche nucléaire (CERN) a dévoilé mardi un projet de construction du futur collisionneur circulaire (FCC) , un accélérateur de particules gigantesque conçu pour aider les scientifiques à résoudre certains des plus grands mystères de la physique.
Et comme tout ce qui pourrait avoir un impact énorme sur l’avenir, Elon Musk pourrait jouer un rôle dans le projet.
«Le directeur du CERN m’a interrogé sur la construction du nouveau tunnel du LHC par Boring Co», a tweeté Musk lundi matin, en réponse à un article sur la FCC.
Économiser Des Milliards
Le LHC est actuellement le plus puissant accélérateur de particules au monde, mais le FCC serait 10 fois plus puissant et comporterait un tunnel quatre fois plus long. Musk n’a pas immédiatement répondu à une demande de clarification pour savoir si le « nouveau LHC » qu’il a mentionné dans son tweet est le FCC, dont il est question dans l’article et sur lequel il répondait et qui nécessitera un nouveau tunnel.
Le CERN prévoit de dépenser environ 5 milliards d’euros (5,6 milliards de dollars) en coûts de génie civil pour le tunnel. Dans son tweet, Musk a affirmé que le creusage du tunnel par la société Boring permettrait «d‘économiser probablement plusieurs milliards d’euros [sic]».
En d’autres termes, il pense que son entreprise pourrait potentiellement réduire les coûts de creusement de plus d’un tiers.
Débat Prolongé
Cela pourrait représenter une économie considérable pour le CERN, mais il est difficile de dire si la Boring Company pourrait répondre aux attentes de Musk. Après tout, son seul projet achevé à ce jour est un tunnel de démonstration de 1,14 kilomètre de long à Los Angeles. Rien de comparable à celui de la FCC ,n’est encore achevé.
Néanmoins, étant donné que le CERN ne s’attend pas à ce que la FCC soit prête à fonctionner avant 2040, l’entreprise de creusement de tunnels de Musk pourrait avoir le temps d’acquérir un peu plus d’expérience avant de se lancer dans ce projet colossal et qui pourrait changer à jamais notre compréhension de l’univers.
Mise à jour investigations ufoetscience,le : 22/01/2019 à 12h05.
Le grand collisionneur de hadrons vient d’être fermé
Article source : futurism.com/
Dan Robitzski le 4 décembre 2018
Traduction
Le grand collisionneur de hadrons (LHC), l’accélérateur de particules réputé pour ses preuves du boson de Higgs insaisissable , prend une pause bien méritée: toutes les expériences sont temporairement fermées lundi. Mais contrairement à la fermeture du LHC en 2016 après une fouine qui a rongé des fils , cette pause dans les opérations était prévue.
Les scientifiques de l’Organisation européenne pour la recherche nucléaire, mieux connu sous le nom de CERN, passeront les deux prochaines années à effectuer des opérations de maintenance de routine et à améliorer les capacités du LHC. Si tout se passe comme prévu, ils le réactiveront au début de 2021, selon un communiqué de presse du CERN.
Plus de capacités
La prochaine série d’expériences impliquera des collisions à des niveaux d’énergie plus élevés que jamais auparavant, dont les scientifiques du CERN espèrent qu’elles produiront des données plus nombreuses et de meilleure qualité . Pour rendre cela possible, les scientifiques remplaceront les deux accélérateurs du LHC – qui contient deux accélérateurs de particules se faisant face – par de nouveaux modèles améliorés pouvant générer des faisceaux d’ions hydrogène plus intenses.
De meilleurs accélérateurs et des faisceaux plus intenses permettront aux scientifiques du CERN de briser des particules plus durement que jamais auparavant, ce qui ouvre la voie à de nouvelles expériences dépassant actuellement les capacités du LHC.
Pendant Ce Temps
Bien que les opérateurs du LHC ne mèneront aucune nouvelle expérience pour au moins deux ans, il est fort probable que nous entendions parler de nouvelles découvertes en physique des particules au cours de cette période. À l’heure actuelle, le CERN doit examiner un important arriéré de données sur le LHC. La série d’expériences récemment achevée, qui a débuté en 2015, a fourni 300 pétaoctets de données, ce que le CERN compare à un millénaire de séquences vidéo sans arrêt.
Certains scientifiques du CERN prépareront le LHC à l’avenir des expériences en physique des particules, tandis que d’autres passeront leur temps à parcourir les données existantes et rechercheront les découvertes qu’ils auraient pu manquer – restez à l’écoute.
référence :
CERN
Mise à jour investigations ufoetscience le : 06/12/2018 à 22h00.
Fusion nucléaire : le CEA et le Japon préparent l’après-Iter
La construction d’Iter n’est pas encore terminée mais l’urgence de remplacer les énergies fossiles par des sources d’énergie concentrées est telle que son successeur, Demo, est déjà à l’étude. Le CEA et le Japon travaillent ensemble sur ce vrai prototype de réacteur industriel pour la production d’électricité. Éléments clés, les puissants aimants posent des contraintes énormes. Après des essais réussis, ils sont partis au Japon.
L’ Agence internationale de l’énergie atomique (AIEA), une organisation internationale sous l’égide de l’ONU, comme le Giec, a rappelé l’année dernière que la Chine est en train de développer la production d’énergie nucléaire à un rythme record malgré ses efforts eux aussi considérables pour développer l’énergie solaire. Cela ne surprendra pas ceux qui savent, comme l’a expliqué notamment le regretté physicien et mathématicien David Mackay sur TEDx et dans un livre grand public en accès libre (L’énergie durable — Pas que du vent !), que l’humanité ne pourra pas relever les défis du XXIe siècle sans une combinaison des énergies renouvelables et nucléaires.
Les réacteurs à fission ont des limites et l’idéal serait sans aucun doute de les remplacer dans la seconde moitié de ce siècle par des réacteurs à fusion contrôlée. La Chine, la Corée du Sud, les États-Unis, l’Inde, le Japon, la Russie et l’Union européenne en sont conscients et c’est pourquoi ces pays ont lancé il y a dix ans le programme Iter (acronyme de l’anglais International Thermonuclear Experimental Reactor, ce qui signifie Réacteur thermonucléaire expérimental international). Rappelons qu’il ne s’agit pas de réaliser un prototype de réacteur industriel pour la production d’électricité, mais de donner une preuve de principe qu’un tel réacteur est possible. Ce rôle opérationnel sera celui de Demo (de l’anglais DEMOnstration Power Plant), la machine qui devra succéder à Iter.
Contrairement à Iter, Demo devra fabriquer une partie de son carburant thermonucléaire comme sous-produit de son fonctionnement. En l’occurrence, il s’agit d’un isotope de l’hydrogène, le tritium radioactif, dont il n’existe pas de sources naturelles sur Terre. La fusion sera effectuée entre ce tritium et le deutérium (extrait de l’eau de mer). Le flux des neutrons engendré devrait à son tour produire des noyaux de tritium, par exemple à partir d’une couverture en lithium de l’intérieur du réacteur de Demo.
Or, le temps presse, car comme l’expliquent depuis quelque temps Jean-Marc Jancovici en France ainsi que le climatologue James Hansen et Michael Shellenberger aux États-Unis, il nous faut diminuer fortement au plus vite l’usage des énergies fossiles pour limiter les conséquences dramatiques du réchauffement climatique. Changer de mode de consommation ne suffira pas sans l’énergie nucléaire, qu’elle soit basée sur la fission dans un premier temps puis sur la fusion. C’est pourquoi on travaille déjà sur Demo dans le cadre de ce qui a été appelé l’« approche élargie » d’Iter.
Le CEA est depuis longtemps impliqué dans cette voie. Dans le projet Iter, il l’est par exemple avec le tokamak doté d’aimants supraconducteurs Tore Supra réalisé et opéré à Cadarache par l’Institut de Recherche sur la, CEA-IRFM. Cet instrument permet la poursuite du projetWest, dont Futura avait déjà parlé il y a quelques années.
À la base de l’accord de l’« approche élargie » d’Iter signé en 2007 entre l’Europe et le Japon il y a eu la négociation finale entre les partenaires du projet sur le lieu de la construction d’Iter. Le Japon a accepté qu’il soit construit en France en échange d’une aide de l’Europe pour préparer Demo.
La recherche sur la fusion magnétique contrôlée ne s’est pas figée au moment où la construction d’Iter a été lancée. De nouveaux modes de confinement du plasma ont été envisagés pour produire davantage d’énergie qu’Iter. Le Japon veut les étudier de plus près en gardant Demo à l’esprit. C’est pourquoi le projet prévoit d’upgrader JT-60U (Japan Torus-60 Upgrade), le tokamak japonais qui est l’équivalent du mythique JET (acronyme de l’anglais Joint European Torus, littéralement Tore commun européen).
JT-60SA (pour Super Advanced) sera équipé de 18 bobines en forme de D constituant des aimantssupraconducteurs en niobium-titane refroidis avec de l’hélium liquide supercritique à quelques degrés au-dessus du zéro absolu. Quand il sera opérationnel à l’horizon 2020, il sera le plus grand tokamak doté de ces aimants en fonctionnement, en attendant Iter qui le détrônera.
Cette technologie avec des aimants supraconducteurs en niobium-titane est très similaire à celle utilisée pour les aimants du LHC, elle-même dérivée en partie du projet Tore Supra. Elle permet d’atteindre de forts champs magnétiques du fait de l’annulation de la résistance au passage du courant, sans quoi l’effet Joule produit ferait fondre ces aimants. D’infimes surchauffes peuvent toutefois s’y manifester, rendant localement les aimants à nouveau résistifs. Il se produit alors un « quench » ou, en français, une transition résistive locale. Ce qui provoque bien sûr un échauffement par effet Joule plus important de l’aimant et de l’hélium liquide, lequel va se vaporiser, ce qui ne va rien arranger. On sait gérer ce genre de problème en s’arrangeant pour que l’énergie stockée dans les aimants soit dissipée dans une résistance externe. Cela permet de minimiser l’augmentation de température et les contraintes mécaniques qui pourraient apparaître.
Les aimants supraconducteurs du tokamak japonais JT-60SA testés et intégrés au CEA/Irfu
L’Europe a fourni vingt aimants supraconducteurs par sécurité pour le JT-60SA. Dix ont été fabriquées sous la responsabilité du CEA par GE Power à Belfort en France et les autres en Italie. Mais tous devaient faire l’objet de contrôles afin de vérifier que les marges de stabilité évitant les transitions résistives sont bien celles demandées par le cahier des charges. Là encore, l’expertise du CEA a été mobilisée. Les aimants ont donc patiemment été mis en situation de transition résistive dans la station d’essai cryogénique située sur le centre de recherches du CEA à Saclay (Essonne), dont le dernier en janvier 2018.
De manière générale, la technologie liée à la cryogénie à très basses températures est capitale pour le succès de bien des entreprises, aussi bien en ingénierie qu’en science fondamentale (LHC, NeuroSpin). Et c’est pour cette raison, là aussi, que le CEA est partie prenante de l’usine cryogénique destinée à refroidir les aimants du JT-60SA, via l’Institut nanosciences et cryogénie(CEA Inac) situé à Grenoble.
Les membres du centre de recherches du CEA à Saclay sont aussi intervenus au niveau des structures mécaniques associés aux aimants car il est capital qu’ils gardent leur forme pour assurer des configurations de champs magnétiques bien précises. En effet, des aimants parcourus par des courants vont vouloir se déformer sous l’action de ces champs, ce qui n’est pas donc acceptable.
Après plus de dix années d’effort, la saga de ces aimants vient donc de s’achever en ce début d’année 2018. Du moins en Europe, car elle va continuer au Japon où ces aimants sont transportés.
Un verrou à faire sauter pour la fusion : les flux de neutrons
On ne sait pas encore quel matériau sera capable de supporter suffisamment longtemps le flux de neutrons produit par la fusion du deutérium et du tritium. Il faudra peut-être en concevoir de nouveaux, par exemple à l’aide de simulations numériques sur supercalculateur. En tout état de cause, des expériences seront nécessaires et le CEA est également impliqué dans la construction d’un accélérateur de particules à Rokkasho au Japon, le LIPAC, (Linear IFMIF Prototype Accelerator), qui permettra de produire des flux de neutrons pour tester les matériaux qui seront utilisés pour assurer le fonctionnement de Demo.
CE QU’IL FAUT RETENIR
Le réacteur Iter ne servira qu’à démontrer qu’il est possible de produire de l’énergie grâce à la fusion thermonucléaire. Devra lui succéder Demo (pour Demonstration power plant), le premier véritable prototype de réacteur pour la commercialisation d’électricité, prévue à l’horizon 2050.
L’étude de sa conception a déjà commencé, en particulier en France et au Japon, au moyen d’un nouveau tokamak supraconducteur, JT-60SA, dont les aimants ont été fabriqués en Europe et ont été testés au CEA.
Ces travaux sont menés dans le cadre de l’approche élargie d’Iter. Elle étudiera aussi le problème des matériaux qui devront résister au flux de neutrons dans le réacteur Demo.
Un morceau de l’unobtanium précieux. Crédit image : wikimedia.org
Article source : futura-sciences.com
Publié le 09/03/2018 par Laurent Sacco.
On vient de découvrir des supraconducteurs dans des météorites. Ils sont ordinaires, c’est-à-dire que ces matériaux ne deviennent supraconducteurs qu’en dessous de quelques kelvins, mais voilà tout de même de quoi rendre un peu plus crédible l’existence de l’unobtainium d’Avatar, un supraconducteur à température ambiante.
Cela fait plus d’un siècle que l’on connaît le phénomène de supraconductivité mais on en parle davantage depuis quelques décennies parce que celui-ci est de plus en plus utilisé dans la technologie moderne au service de la science fondamentale, celle portant sur la physique des hautes énergies au LHC, sur la fusion contrôlée et aussi sur le cerveau avec l’IRM. Il s’agit à chaque fois de générer de puissants champs magnétiques dans des aimants supraconducteurs. Problème : il faut refroidir ces aimants presque au zéro absolu, ce qui n’est pas pratique.
Or, au milieu des années 1980, on a découvert qu’il existait des matériaux supraconducteurs à hautes températures critiques et il est alors devenu possible d’obtenir l’annulation de la résistancede certains de ces matériaux en utilisant de l’azote et non plus de l’hélium liquide. Cela permet de se rapprocher un petit peu plus du rêve qui consisterait à utiliser la supraconduction pour transporter l’électricité sans perte à longue distance, comme le montre l’exemple du câble mis en service en 2014 dans la ville allemande d’Essen (Ruhr). Le graal serait d’obtenir des matériaux supraconducteurs à température ambiante car ils permettraient vraiment de révolutionner notre technologie, par exemple en généralisant l’usage des trains en lévitation magnétique, les Maglev.
Les matériaux supraconducteurs à température ambiante, un rêve ?
Pour le moment, malgré d’intenses recherches, de tels matériaux restent du domaine du rêve et sont un exemple d’unobtainium, un néologisme qui est la traduction de l’anglais utilisé en science-fiction pour désigner un métal ou un alliage dont les propriétés sont si exceptionnelles qu’il semble ne pas pouvoir exister (unobtainable signifie « impossible à obtenir »).
Dans le film Avatar, c’est le nom d’un minéral supraconducteur à température ambiante. La légende veut que ce terme soit né dans les années 1950 chez les ingénieurs de l’aérospatiale pour désigner un matériau idéal pour de futures machines mais, hélas, inexistant. Plus tard, semble-t-il, les ingénieurs de Lockheed l’ont repris à leur compte quand ils travaillaient sur le tout nouvel alliage à base de titane destiné à l’avion supersonique SR-71 Blackbird. Capable d’atteindre Mach 3, l’appareil devait supporter des températures très élevées (jusqu’à 500 °C), ainsi que des contraintes mécaniques fortes.
De façon surprenante, l’unobtainium d’Avatar, qui est censé s’être formé sur une exolune en orbite autour d’une géante gazeuse appartenant à un hypothétique système planétaire autour d’Alpha du Centaure, vient peut-être de se rapprocher un tout petit peu plus de la réalité à la suite d’une communication faite par un groupe de chercheurs états-uniens lors d’une réunion de l’American Physical Society mardi 6 mars 2018.
CE QU’IL FAUT RETENIR
Des supraconducteurs à température ambiante révolutionneraient notre technologie en rendant probablement communs des trains à sustentation magnétique, des IRM miniaturisées et bien d’autres choses encore.
Ces matériaux restent pour le moment du domaine de la science-fiction, comme l’unobtainium d’Avatar, mais la réalité pourrait rattraper la fiction.
On vient en effet de découvrir des supraconducteurs ordinaires dans des météorites, des alliages à base d’étain et d’indium.
J’ai déjà abordé ce thème plus ou moins, ceci reste une des nombreuses possibilités du moins en théorie.
Une civilisation biologique éteinte a -t-elle engendré un autre genre d’être vivant avant de disparaître ?
Une relève pas très rassurante pourrait vagabonder dans l’espace et le temps.
-Les créatures évoluées pourraient -elles être artificielles genre cyborg ou autre? Elles auraient alors rectifié leur créateur puisqu’il serait devenu insignifiant pour ces machines. La visite d’OVNI est sans doute de cet acabit, des vaisseaux autonomes qui s’adaptent à l’environnement visité avec ce net avantage de ne pas être fait de chair et sang ce qui résous en partie le problème des vitesses supraluminiques quand elles seront atteintes et bien d’autres désagréments. Lorsque la formule sera découverte, et les matériaux trouvés, alors les applications deviendront réalisables ,certainement. Les vaisseaux seraient vides de toute vie biologique. Ils seraient alors une intelligence itinérante et ils seraient une forme de vie à part entière, capables d’évoluer par eux même , puis s’adapter , corriger, s’améliorer . C’est ce que fera sans doute l’IA (Intelligence Artificielle) , chez nous sur notre planète tôt ou tard . L’humain cherche un être semblable, pour se rassurer sans doute et une planète habitable pour rester immortel et présent dans l’univers à travers les âges. Mais ce petit jeu à un prix. Celui de perdre son identité au profit de sa création qui deviendrait arrogante et conquérante. Alors ce serait l’ironie du sort. A vouloir tout maîtriser le maître pourrait se voir puni par son élève.
Un hologramme, un androïde, un vaisseau changeant de forme, l’intelligence artificielle pourrait prendre différentes formes et tout autant d’orientations sur le destin sans oublier aussi qu’elle choisira sa destination avec ou sans but précis.
Les OVNI et les OANI pourraient-ils avoir une origine purement artificielle qui se serait auto améliorée depuis sa création? Qui serait ce créateur, d’où viendraient ces machines et quel âge auraient elles ?
La question primordiale est sans doute celle-ci. Pouvons nous envisager ce scénario qui est pour l’heure de la SF ( Science Fiction) ?
À gauche: simulations de la distribution de la matière noire dans l’Univers environ 3 milliards d’années après le Big Bang. À droite: des amas de matière noire (rouge), avec ceux faisant plus de 300 millions de fois la masse du Soleil (en jaune). | Virgo consortium/A. Amblard/ESA
Thomas Boisson
Article source : trustmyscience.com
La mise en évidence de la matière noire, constituant environ 27% de la densité d’énergie totale de l’univers, est un des enjeux fondamentaux de l’astrophysique moderne.
Tandis que la recherche se poursuit, de nouvelles données acquises par le détecteur orbital chinois DAMPE et publiées le 29 novembre dans Nature (1), bousculent depuis quelques jours la communauté scientifique. En effet, la détection d’une anomalie dans le flux de rayons cosmiques observé pourrait être la signature indirecte de la présence de matière noire.
DAMPE et l’étude des rayons cosmiques de hautes énergies
Le DArk Matter Particle Explorer (DAMPE), lancé le 17 décembre 2015 à 500 km d’altitude, est un détecteur de particules à très hautes énergies optimisé pour l’étude des rayons cosmiques composés d’électrons et de positrons (CREs), ainsi que pour l’étude des rayons gamma. Plus particulièrement, DAMPE est calibré pour des énergies allant jusqu’à 10 TeV.
Un astrophysicien affirme que le voyage dans le temps est « théoriquement possible »…
Ethan Siegel se base sur la relativité générale d’Einstein pour développer son propos dans les colonnes du magazine Forbes. Il évoque notamment le concept du « trou de ver ». Il existe théoriquement dans l’Univers des variations d’énergies, des particules de masse positive et d’autres de masse négative, et la rencontre de ces deux forces contraires suscitent les spéculations les plus folles, invérifiables dans l’état actuel des connaissances scientifiques. En effet, cette rencontre de forces opposées est censée provoquer l’apparition d’un trou de ver quantique, potentiellement « traversable », illustre Fredzone qui relaie la thèse d’Ethan Siegel. Si ce « trou de ver » se maintenait suffisamment longtemps, il serait donc possible de passer d’un espace-temps à un autre. Un problème toutefois: personne n’a jamais pu prouver l’existence réelle de la masse négative, même si les lois de la physique permettent de l’envisager. Si l’on considère la théorie de la relativité restreinte, on apprend que la vitesse de la lumière est toujours identique. Si quelqu’un voyage dans l’espace à cette vitesse pendant un an et revient ensuite sur Terre, au moment de retrouver ses proches, il constatera que ces derniers auront vieilli beaucoup plus que lui. Mais si le « trou de ver » connecte ces deux situations, avec une extrémité à proximité de la Terre et l’autre « dans un voyage relativiste proche de la vitesse de la limière », deux espaces-temps coexisteraient alors. Imaginons que ce « tunnel spatio-temporel » ait été créé il y a 40 ans, sa traversée permetterait de passer des années 70 à aujourd’hui. Au-delà de toutes ces spéculations physiques, un autre problème, beaucoup plus élémentaire, se pose toutefois: l’être humain serait-il capable de survivre à un tel voyage?
Une nouvelle méthode pour tester directement la gravité quantique
Article source: trustmyscience.com
Thomas Boisson,
L’unification de la relativité générale et de la mécanique quantique est un des enjeux primordiaux de la physique moderne. Ces dernières années, de nombreuses théories à gravité quantique ont progressivement émergé parmi lesquelles la théorie des supercordes, la gravitation quantique à boucles ou encore la géométrie non commutative.
Cependant, si les théories sont de plus en plus pointues, la technologie quant à elle ne permet toujours pas d’offrir les cadres expérimentaux nécessaires pour tester celles-ci. Les conditions expérimentales requises pour procéder à ces tests sont extrêmement difficiles à réunir, les effets de la gravité quantique n’apparaissant qu’à des échelles de l’ordre de la longueur de Planck (soit 1.6×10-35 m) et requièrent donc de très hautes énergies.
Schéma présentant différents niveaux d’énergie d’évolution croissante. L’échelle de Planck, accessible à une énergie de 1019 GeV, est encore bien loin de l’énergie (14 TeV) déployée actuellement par le LHC. Crédits : writeopinions.com
Ces niveaux d’énergie se situent bien au-delà de l’énergie actuellement accessible par les accélérateurs de particules ; par exemple, l’énergie nécessaire pour observer l’échelle de Planck est environ 15 fois plus élevée que celle que le LHC est capable d’atteindre. Pour contourner cette insuffisance technologique, une équipe internationale de physiciens a récemment proposé un protocole permettant de tester la gravité quantique au moyen de notre technologie actuelle.
La non commutativité de l’espace-temps : un paramètre testable de la gravité quantique
Pour le moment, ni les énergies accessibles au sein des accélérateurs de particules, ni les observations astrophysiques ne permettent d’étudier la gravité quantique. Pour autant, les chercheurs ne sont pas piégés dans une voie sans issue. En effet, dans une récente étude publiée dans le journal Nuclear Physics B(1), une équipe internationale de physiciens propose de tester directement un paramètre intrinsèque à toute théorie de la gravité quantique : la non commutativité.
1. La commutativité en mécanique quantique
En mécanique quantique, lorsque l’on décrit un système quantique (comme une particule), l’on utilise une fonction d’onde, c’est-à-dire un outil mathématique contenant les propriétés du système étudié. Cette fonction d’onde contient les différentes caractéristiques du système : énergie, position, spin, vitesse, orientation, etc. Ces caractéristiques sont appelées des « observables » et correspondent donc à des grandeurs physiques mesurables.
Cependant, en mécanique quantique, l’on ne manipule pas directement ces grandeurs ; à la place, on leur assigne ce que l’on appelle des « opérateurs quantiques ». Ces opérateurs sont simplement des objets mathématiques formalisant/représentant les observables. Il y a ainsi l’opérateur position, l’opérateur vitesse, l’opérateur spin… Ce sont donc ces opérateurs qui sont utilisés pour décrire le système.
La relation qu’entretiennent les différents opérateurs entre eux peut être décrite à l’aide d’un paramètre particulier : la commutativité. La commutativité indique s’il est possible de mesurer simultanément deux grandeurs ou non. Ainsi, si deux opérateurs sont commutatifs, les grandeurs qu’ils représentent peuvent être mesurée simultanément. Au contraire, s’ils ne sont pas commutatifs (non commutatifs), alors les deux grandeurs représentées ne peuvent pas être mesurées simultanément.
Mathématiquement, on parle du commutateur entre deux opérateurs. Pour deux opérateurs A et B, le commutateur s’écrit [A,B] = AB-BA. L’essentiel à retenir ici est que si le commutateur est nul, alors les deux opérateurs sont commutatifs. A l’inverse, si le commutateur est non-nul, alors les deux opérateurs sont non commutatifs. Deux opérateurs non commutatifs sont appelées des « observables complémentaires » ou des « variables conjuguées ».
Calcul du commutateur entre les opérateurs position et quantité de mouvement. Le commutateur est non-nul, les deux opérateurs sont non commutatifs. La position et la quantité de mouvement ne peuvent donc pas être mesurées simultanément. Crédits : Wikipédia
Un exemple célèbre d’opérateurs non commutatifs est donné par le principe d’indétermination d’Heisenberg. Ce principe énonce que, pour une particule, il est impossible de mesurer simultanément avec une précision identique sa position et sa quantité de mouvement. En d’autres mots, l’opérateur position « x » et l’opérateur quantité de mouvement « p » d’une particule sont non commutatifs.
2. La non commutativité dans les théories à gravité quantique
La plupart des théories à gravité quantique actuelles sont axées sur la non commutativité (2) et font de celle-ci un paramètre essentiel dans la description de l’espace-temps (3, 4, 5). Par exemple, en théorie des cordes, la plus petite longueur d’espace mesurable correspond à la longueur d’une corde. En dessous de cette longueur, l’espace-temps n’existe plus. Cela est dû à la non commutativité de certains opérateurs décrivant l’espace-temps (6).
Dans les théories à gravité quantique, l’espace-temps possède donc une structure non commutative ; l’on parle également de géométrie non commutative. Une telle structure non commutative implique des conséquences directes à l’échelle cosmologique. Ainsi, dans les théories à gravité quantique, la non commutativité permet de faire disparaître les singularités gravitationnelles, de préciser la topologie de l’espace-temps durant l’ère de Planck ou encore de mieux comprendre la véritable nature des trous noirs.
Cet article ci-dessous tombe à pic à l’heure ou l’on me taxe de faire des thèses conspirationnistes. Pour moi il y a surtout des faits qui dérangent certains, souvent par peur. Alors ils préfèrent fermer les yeux et à ce titre je les approuve quelque-part.
J’ai toujours été pondéré dans mes propos qu’ils soient très terre à terre ou à la limite de la fantaisie et je ne dérogerai pas à ma ligne de conduite. Alors je met en garde contre les allégations que diffuse le média Sputnik dont nous savons la limite de leurs articles et de leurs informations parfois douteuses,mais aussi parfois véridiques .
Vrai ou faux ne nous voilons pas la face, notre monde est tout sauf clean, beau et gentil, n’en déplaise à mes détracteurs ! Les seuls derniers événements sur notre sol en sont la bien triste preuve et il n’est pas besoin d’aller plus loin pour décrire le genre humain, qui n’ a d’humain que le nom pour certains de nos congénères!
Passons. L’armement atteint un tel niveau de technologie que rien ne me surprend pour ma part. Lorsque l’on s’informe sérieusement, on trouve. J’en ai esquissé très sommairement les contours dans mon premier ouvrage, le second le fera également afin de démontrer aux gens certains faits.
Nous dépensons plus d’argent pour l’armement que pour la recherche médicale encore que cette dernière peut dériver elle aussi sur des armes ( toxiques, biologiques et chimiques). De quoi nous laisser dormir sur nos deux oreilles ? A chacun sa sensibilité pour répondre à cette petite question pertinente et agaçante!
IEM(impulsions électro-magnétique) ou EMP ( Electromagnetic Pulse (Electromagnetic Pulse), lasers , rayons de haute fréquence, infra sons, exosquelettes, lunettes thermiques et infra rouge, rayons gamma, robots, intelligence artificielle, vaisseaux spatiaux, etc, il y a de quoi vous pulvériser après vous avoir dénichés. « -Il n’y a pas besoin d’avoir peur ! « aurait dit sous forme de boutade (ironique) de mauvais goût mon grand père.
Voyons ensemble le contenu de l’article ci-dessous. Vrai ou faux ? Ceci ne présage pas du bon, mais cela présage-t-il forcément du mauvais ? Si je veut être optimiste, je dirais que ce n’est pas la première fois que nous sommes au bord de la troisième guerre mondiale ( du gouffre si vous préférez !) à laquelle nous échappons pour l’heure. Mais pour combien de temps encore ?
Hors sujet concernant l’article ci-dessous, mais tout de même, je ne peut m’empêcher de me poser cette question.
Les OVNIS ne seraient-ils pas des AVNIS ( Armes volantes non -identifiées) quelque-part?
J’espère que nous n’aurons pas la réponse, car cela voudrait dire que nous en serons victimes!
Une arme «secrète» russe fait trembler les Britanniques
Article source: fr.sputniknews.com/
14 h 14,le : 01.10.2017:
La Russie développerait une arme secrète «plus puissante» que la bombe nucléaire, capable de mettre hors de combat des armées entières, s’alarme le Daily Star.
Le tabloïd britannique Daily Star tire la sonnette d’alarme, affirmant que des fabricants russes développeraient de nouveaux gadgets puissants qui pourraient s’avérer plus efficaces que les armes nucléaires.
Le média fait savoir que l’industrie de la défense russe aurait conçu un puissant missile électromagnétique, l’Alabouga, capable de désactiver les ogives de missiles et les systèmes de communication à bord des avions ennemis à une distance de 3,5 km.
Les journalistes du Daily Star affirment que le missile serait en mesure de bloquer les mécanismes de chargement des chars, de faire exploser les munitions d’artillerie à l’intérieur de leur tourelle, voire de tuer des soldats ennemis retranchés à une profondeur de 100 m sous la terre.
Le média évoque également le Listva, un véhicule de déminage qui pourrait utiliser des rayons de haute fréquence pour neutraliser les explosifs à distance.
Les médias avaient déjà publié l’information sur le développement en Russie d’un puissant missile électromagnétique Alabouga.
Vladimir Mikhéev, directeur général du groupe Radioelectronnyïé tekhnologuii (Technologies radio-électroniques), avait précédemment déclaré que l’Alabouga n’était pas une arme concrète, mais un ensemble de recherches scientifiques top secret visant à définir les grands axes du développement de l’arme radio-électronique du futur.
Les physiciens ont observé le spectre lumineux de l’antimatière pour la première fois !
Article et image source: trustmyscience.com/
Stéphanie Schmidt
1 juin 2017:
Après plus de deux décennies de recherches et d’efforts, les physiciens du CERN ont finalement réussi à reporter la toute première mesure de la lumière émise par un atome d’antimatière, révélant que l’antihydrogène est l’image miroir exacte de l’hydrogène dit ordinaire.
Le résultat, qui confirme enfin ce qui a longtemps été prédit par les lois de la physique, offre à présent de nouvelles possibilités pour tester la théorie de la relativité d’Einstein et pourrait nous aider à répondre à l’un des plus grands mystères de la physique moderne : pourquoi y a-t-il tellement plus de matière ordinaire que d’antimatière dans l’Univers ? « Cela représente un point historique dans les efforts décennaux pour créer de l’antimatière et comparer ses propriétés à celles de la matière », explique le physicien théoricien Alan Kostelecky, de l’Université d’Indiana, qui ne faisait pas partie de l’équipe de recherche.
La loi de la physique prédit que pour chaque particule de matière dite ordinaire, il existe une antiparticule. Donc, pour chaque électron à charge négative, il y a un positron à charge positive. Cela signifie que pour chaque atome d’hydrogène, il existe un atome d’antihydrogène. Et tout comme un atome d’hydrogène est constitué d’un électron lié à un proton, un atome d’antihydrogène est constitué d’un anti-électron (ou positron) lié à un antiproton. Si une antiparticule trouve une particule normale, elles vont s’annihiler, libérant de l’énergie sous forme de lumière.
Mais ce fait laisse apparaître deux gros problèmes : Le premier est que, comme il y a tellement de matière ordinaire dans l’Univers, il est pratiquement impossible pour les physiciens de trouver de l’antimatière dans la nature, car elle sera anéantie avant même qu’ils aient eu la chance de commencer à l’observer. Le deuxième problème est, pourquoi y a-t-il beaucoup plus de matière que d’antimatière ? Si nos modèles de physique actuels suggèrent qu’une quantité égale de particules et d’antiparticules ont été produites lors du Big Bang, est-ce que littéralement tout ce qui existe dans l’Univers n’aurait pas dû s’annuler à ce moment-là ?