Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Wikipédia:Sélection/Physique

Atome

L'atome est un composant de la matière. Le mot provient du grec ατομος, atomos, « que l'on ne peut diviser » et certains philosophes de la Grèce antique le définissaient comme le plus petit élément indivisible de la matière. La notion d'atome est maintenant largement utilisée dans les diverses théories permettant d'expliquer les propriétés de la matière.

En chimie, l'atome est l'élément de base : les atomes restent indivisibles au cours d'une réaction chimique. Cependant, depuis le début du XXe siècle, des expériences de physique nucléaire ont mis en évidence une structure complexe de son noyau. C'est en transformant cette structure que l'on peut, par exemple, produire l'énergie nucléaire.

La majeure partie de la masse de l'atome se trouve concentrée dans le noyau composé de deux sortes de particules semblables, appelées nucléons (les neutrons et les protons). Autour du noyau se trouve « un nuage » de particules identiques : les électrons ; ce nuage électronique est environ 100 000 fois plus grand que le noyau. Le comportement de l'atome et de ses constituants est régi par les lois de la mécanique quantique.


Thermoélectricité

Module Peltier.
Module Peltier.

L'effet thermoélectrique, découvert puis compris au cours du XIXe siècle grâce aux travaux de Seebeck, Peltier ou encore Lord Kelvin, est un phénomène physique présent dans certains matériaux : il y lie le flux de chaleur qui les traverse au courant électrique qui les parcourt. Cet effet est à la base d'applications, dont très majoritairement la thermométrie, puis la réfrigération (ex. module Peltier) et enfin, très marginalement, la génération d'électricité (aussi appelée « thermopile »).

Un matériau thermoélectrique transforme directement la chaleur en électricité, ou déplace des calories par l'application d'un courant électrique. Un grand nombre des matériaux possédant des propriétés thermoélectriques intéressantes ont été découverts au cours des décennies 1950 et 1960. C'est notamment le cas du tellurure de bismuth (Bi2Te3) utilisé dans les modules Peltier commerciaux, ou des alliages silicium-germanium (SiGe) utilisés pour l'alimentation des sondes spatiales dans des générateurs thermoélectriques à radioisotope.

L'utilisation de la thermoélectricité en thermométrie connaît un grand succès depuis le début du XXe siècle et en réfrigération portable depuis les années 2000. Par contre, la thermopile a du mal à émerger car son rendement est peu élevé et les coûts sont importants, cela les limite à des utilisations très ciblées en 2005 (il n'y a pas encore de marché de niche pour la thermopile). Cependant des progrès récents, ainsi qu'un nouvel intérêt pour la thermoélectricité dû à la fois à la hausse des coûts de l'énergie et aux exigences environnementales, ont conduit à un renouveau important des recherches scientifiques dans cette discipline.

Diagramme de phase

Un diagramme de phase est une expression utilisée en thermodynamique (voir Phase) ; elle indique une représentation graphique, généralement à deux ou trois dimensions, représentant les domaines de l'état physique (ou phase) d'un système (corps pur ou mélange de corps purs), en fonction de variables, choisies pour faciliter la compréhension des phénomènes étudiés.

Les diagrammes les plus simples concernent un corps pur avec pour variables la température et la pression ; les autres variables souvent utilisées sont l'enthalpie, l'entropie, le volume massique, ainsi que la concentration en masse ou en volume d'un des corps purs constituant un mélange.

Lorsque le système étudié est un mélange de n corps purs, son état physique est défini par les (n-1) proportions indépendantes de ses composants, ainsi que par la température et la pression. Ainsi, un diagramme à deux variables ne peut donc être établi qu'en fixant (n-1) variables du système.

C'est un diagramme à l'équilibre qui ne permet pas de décrire un système dans un état métastable comme, par exemple, de l'eau liquide à une température inférieure à 0 °C à la pression atmosphérique normale (surfusion).


Big Bang

Expansionde l'Univers.

Le Big Bang désigne l’époque dense et chaude qu’a connue l’univers il y a environ 13,7 milliards d’années, ainsi que l’ensemble des modèles cosmologiques qui la décrivent, sans que cela préjuge de l’existence d’un « instant initial » ou d’un commencement à son histoire.

Cette phase marquant le début de la dilatation et de l’expansion de l’univers, abusivement comparé à une explosion, a été désignée pour la première fois, et ce de façon assez dédaigneuse, sous ce terme de Big Bang par le physicien anglais Fred Hoyle lors d’un programme radio de la BBC, The Nature of Things (littéralement « La nature des choses »), dont le texte fut publié en 1950. Hoyle ne décrivait pas la théorie, mais se moquait du concept car il proposait un autre modèle cosmologique, aujourd’hui abandonné, la théorie de l’état stationnaire, dans lequel l’univers n’a pas connu de phase dense et chaude. Malgré ce côté initialement méprisant, l’expression est restée et a perdu sa connotation péjorative et ironique pour devenir le nom scientifique et vulgarisé de l’époque d’où est issu l’univers tel que nous le connaissons.

Le terme de Big Bang chaud (Hot Big Bang) est encore parfois utilisé pour souligner le fait que le modèle prédit que l’univers était plus chaud quand il était plus dense. Il se réfère au concept de Big Bang décrit ci-dessous. Le qualificatif de « chaud » était parfois ajouté car le fait que l’on puisse associer une notion de température à l’univers dans son ensemble n’était pas encore bien compris au moment où le modèle a été proposé au milieu du XXe siècle.

Lire la suite

Biréfringence

Double réfraction observée à travers un cristal de calcite

La biréfringence est la propriété physique d'un matériau dans lequel la lumière se propage de façon anisotrope. Dans un milieu biréfringent, la vitesse de la lumière n'est pas unique, elle dépend des directions de propagation et de polarisation du rayon lumineux.

Un effet spectaculaire de la biréfringence est la double réfraction par laquelle un rayon lumineux pénétrant dans le cristal est divisé en deux. C'est pourquoi, sur la photographie ci-contre, l'inscription apparaît en double après avoir traversé le cristal de calcite. Ce phénomène est caractéristique des milieux biréfringents.

On attribue généralement au danois Rasmus Bartholin la découverte de la biréfringence du spath d'Islande. Ce minéral possède une biréfringence très forte qui permet des observations à l’œil nu, observations que Bartholin décrit dans son ouvrage « Experimenta crystalli Islandici » en 1670. En 1690, le physicien hollandais Christiaan Huygens suppose que pour l'une des images observées à travers le cristal, les rayons suivent un trajet ordinaire. Mais, pour la seconde image, le trajet des rayons n'obéit pas aux lois normales de la réfraction et il propose d'utiliser des ellipsoïdes comme surfaces d'ondes. Il découvre également que la double réfraction disparaît, lorsque les rayons réfractés dans le plan de section principale sont parallèles à la direction de l'axe optique du cristal.

Lire l'article

Amplificateur opérationnel

Des amplificateurs opérationnels.
Des amplificateurs opérationnels.

Un amplificateur opérationnel (aussi dénommé ampli-op ou ampli op, AO, AOP, ALI ou AIL) est un amplificateur différentiel : c'est un amplificateur électronique qui amplifie une différence de potentiel électrique présente à ses entrées. Il a été initialement conçu pour effectuer des opérations mathématiques dans les calculateurs analogiques : il permettait de modéliser les opérations mathématiques de base comme l'addition, la soustraction, l'intégration, la dérivation et d'autres. Par la suite, l'amplificateur opérationnel est utilisé dans bien d'autres applications comme la commande de moteurs, la régulation de tension, les sources de courants ou encore les oscillateurs.

Physiquement, un amplificateur opérationnel est constitué de transistors, de tubes électroniques ou de n'importe quels autres composants amplificateurs. On le trouve communément sous la forme de circuit intégré.

Amplificateur électronique

Un amplificateur Hi-Fi à tubes.
Un amplificateur Hi-Fi à tubes.

Un amplificateur électronique est un système électronique augmentant la tension et/ou l’intensité d’un signal électrique. L’énergie nécessaire à l’amplification est tirée de l’alimentation du système. Un amplificateur parfait ne déforme pas le signal d’entrée : sa sortie est une réplique exacte de l’entrée mais d’amplitude majorée.

Les amplificateurs électroniques sont utilisés dans quasiment tous les circuits électroniques : ils permettent d’élever un signal électrique, comme la sortie d’un capteur, vers un niveau de tension exploitable par le reste du système. Ils permettent aussi d’augmenter la puissance maximale disponible que peut fournir un système afin d’alimenter une charge comme une antenne ou une enceinte.

Champ magnétique

Ferrofluide soumis à un champ magnétique dont l’instabilité provoque des pointes qui l’emportent sur la gravité et la tension superficielle du fluide.
Ferrofluide soumis à un champ magnétique dont l’instabilité provoque des pointes qui l’emportent sur la gravité et la tension superficielle du fluide.

En physique, le champ magnétique est une grandeur caractérisée par la donnée d’une intensité et d’une direction, définie en tout point de l’espace, et déterminée par la position et l’orientation d’aimants, d’électroaimants et le déplacement de charges électriques. La présence de ce champ se traduit par l’existence d’une force agissant sur les charges électriques en mouvement (dite force de Lorentz), et divers effets affectant certains matériaux (paramagnétisme, diamagnétisme ou ferromagnétisme selon les cas). La grandeur qui détermine l’interaction entre un matériau et un champ magnétique est la susceptibilité magnétique.

Le champ magnétique forme, avec le champ électrique les deux composantes du champ électromagnétique décrit par l’électromagnétisme. Des ondes de champs électrique et magnétique mêlées peuvent se propager librement dans l’espace, et dans la plupart des matériaux. Ces ondes sont appelées ondes électromagnétiques, et correspondent à toutes les manifestations de la lumière, dans tous les domaines de longueur d’onde (ondes radio, domaine micro-onde, infrarouge, domaine visible, ultraviolet, rayons X et rayons gamma). La discipline qui étudie les champs magnétiques statiques (ne dépendant pas du temps) est la magnétostatique.

Cristal

Neige

Selon l'Union internationale de cristallographie, tout solide dont le diffractogramme est essentiellement discret est un cristal. Sur la base d'une propriété structurelle essentielle, cette définition englobe les cristaux classiques mais aussi les quasi-cristaux. Les propriétés des cristaux s'expliquent par leur composition atomique et l'arrangement spatial des atomes.

Les cristaux les plus communs sont la neige, le sucre, les sels, les silicates, les oxydes, les sulfures, les métaux et les pierres précieuses (gemmes). Ainsi, traditionnellement, le cristal est un solide polyédrique, plus ou moins brillant, à structure régulière et périodique, formée d'un empilement ordonné d'un grand nombre d'atomes, de molécules ou d'ions.

On appelle phénocristal un cristal de taille exceptionnelle, mais la plupart des cristaux qu'on observe sont composés de plusieurs cristaux accolés (ou cristallites). Dans le premier cas on parle de « monocristal » et dans le second de « polycristal ».

Un cristal idéal ne comporte pas de défauts cristallins, mais les cristaux réels sont loin de cette perfection. Au-delà d'une certaine concentration des défauts, le concept de structure cristalline cesse d'être utile et l'on considère que c'est un matériau amorphe tel que le verre. L'état amorphe s'apparente fortement à l'état liquide mais il existe aussi des cristaux liquides.

Lire l'article

Cristaux liquides

Transition de phase smectique-nématique d'un cristal liquide

Un cristal liquide est un état de la matière qui combine des propriétés d'un liquide ordinaire et celles d'un solide cristallisé. On exprime son état par le terme de mésophase ou état mésomorphe (du grec « de forme intermédiaire »). La nature de la mésophase diffère suivant la nature et la structure du mésogène, molécule à l'origine de la mésophase, ainsi que des conditions de température, de pression et de concentration.

En 1888, le botaniste autrichien Friedrich Reinitzer travaille à l'université de Prague sur le benzoate de cholestéryle. Il veut en déterminer la formule et le poids moléculaire. En utilisant le point de fusion comme un indicateur important de la pureté de la substance, il observe l'existence de deux points de fusion et l'évolution de la substance en un liquide trouble puis coloré et enfin transparent. Il découvre ainsi un comportement étrange (existence de deux points de fusion, réflexion de la lumière polarisée circulairement et capacité à faire tourner le plan de polarisation de la lumière) dont il fait part à Lehmann.

Lehmann réalise qu'il s'agit là d'un nouveau phénomène. Il entame une étude systématique du benzoate de cholestéryle et de composés apparentés possédant le phénomène de double point de fusion. Avec son microscope, il est non seulement en mesure d'effectuer des observations en lumière polarisée, mais aussi d'effectuer des observations à haute température. L'article de Lehmann intitulé « Ueber Fliessende Krystalle » paru le 30 août 1889 dans Zeitschrift fur Physikalische Chemie est la première publication introduisant le concept de « cristal liquide ».


Francium

Modèle de Bohr du Francium
Modèle de Bohr du Francium

Le francium est un élément chimique de numéro atomique 87 connu pendant un temps sous les noms de eka-césium ou actinium K. C'est un métal alcalin radioactif de masse atomique 223 et de symbole Fr.

C'est le second élément le plus rare, après l’astate : il n'en existerait qu'une trentaine de grammes dans la croûte terrestre.
Cette rareté est due à son existence transitoire, en tant que produit de désintégration de l'actinium. La demi-vie de l'isotope le plus stable 223Fr est de 23 minutes, puis il se transforme lui-même en radium par désintégration bêta ou en astate par rayonnement alpha. Et c'est cette double radioactivité qui rend l'astate encore plus rare que le francium, même si l'astate a une demi-vie supérieure à celle du francium (8,1 h > 23 min).

Le francium a été découvert en 1939 à l'Institut Curie de Paris par Marguerite Perey, en purifiant du lanthane contenant de l'actinium. Il s'agit du dernier élément découvert dans la nature et non synthétisé (certains éléments tels le technétium ont été découverts dans la nature après avoir été synthétisés en laboratoire).

Il n'a pas d'utilisation connue.

Galaxie

Dans l’univers, les étoiles ne sont généralement pas isolées mais regroupées au sein de vastes ensembles appelés galaxies. Celles-ci incluent aussi les gaz et poussières du milieu interstellaire et probablement de grandes quantités de matière noire. De nombreux indices suggèrent que le centre de nombreuses galaxies est occupé par un trou noir de masse importante. Notre système solaire se trouve dans la « Voie lactée », une galaxie d’environ 100 000 années lumières de diamètre.

Lire l'article

Galileo Galilei

Portrait de Galilée.
Portrait de Galilée.

Galileo Galilei, dit Galilée, est un physicien et astronome italien, célèbre pour avoir jeté les fondements des sciences mécaniques ainsi que pour sa défense passionnée de la conception copernicienne de l’univers.

Parmi ses nombreux accomplissements figurent la découverte de la cycloïde, de la trajectoire parabolique des projectiles ou des phases de Vénus. On lui doit également la fabrication d’un compas règle à calcul, d’un thermoscope (premier appareil pour mesurer la température) et de la fameuse lunette astronomique. Il est aussi le traducteur en italien de la La Guerre des souris et des grenouilles, attribuée à Homère.

Il est souvent considéré comme le premier scientifique, au sens moderne du terme.

Lire l’article

Phonon

Longueur d’onde d’un phonon dans un réseau de particules
Longueur d’onde d’un phonon dans un réseau de particules

Un phonon (du grec ancien φονη, la voix) désigne, en physique de la matière condensée, un quantum de vibration dans un solide cristallin, c’est-à-dire un « paquet élémentaire de vibration » ou « paquet élémentaire de son » : lorsqu’un mode de vibration du cristal, de fréquence définie ν, cède ou gagne de l’énergie, il ne peut le faire que par paquets d’énergie , h étant la constante de Planck. Ce paquet est considéré comme une quasi-particule, à savoir une particule fictive associée au son. Le cristal est alors réputé échanger des phonons lorsqu’il perd ou gagne de l’énergie. Le concept permet une analogie avec la lumière qui possède des propriétés similaires : elle se manifeste tantôt comme une onde, tantôt comme un paquet d’énergie , qui correspond à une particule élémentaire — non fictive cette fois — appelée photon.

Lire la suite

Relativité générale

Courbure espace-temps

La relativité générale est une théorie relativiste de la gravitation, c’est-à-dire qu’elle décrit l’influence sur le mouvement des astres de la présence de matière et, plus généralement d'énergie, en tenant compte des principes de la relativité restreinte. La relativité générale englobe et supplante la théorie de la gravitation universelle d’Isaac Newton qui en représente la limite aux petites vitesses (comparées à la vitesse de la lumière) et aux champs gravitationnels faibles.

La relativité générale est principalement l’œuvre d'Albert Einstein, dont elle est considérée comme la réalisation majeure, qui l’a élaborée entre 1907 et 1915. Les noms de Marcel Grossmann et de David Hilbert lui sont également associés, le premier ayant aidé Einstein à se familiariser avec les outils mathématiques nécessaires à la compréhension de la théorie (la géométrie différentielle), le second ayant franchi conjointement avec Einstein les dernières étapes menant à la finalisation de la théorie après que ce dernier lui eut présenté dans le courant de l’année 1915 les idées générales de sa théorie.

La relativité générale est basée sur des concepts radicalement différents de ceux de la gravitation newtonienne. Elle stipule notamment que la gravitation n’est pas une force, mais est la manifestation de la courbure de l’espace (en fait de l’espace-temps), courbure elle-même produite par la distribution de matière. Cette théorie relativiste de la gravitation donne lieu à des effets absents de la théorie newtonienne mais vérifiés, comme l’expansion de l'Univers, ou potentiellement vérifiables, comme les ondes gravitationnelles et les trous noirs. Aucun des nombreux tests expérimentaux effectués à ce jour (2008) n’a pu la mettre en défaut, à l’exception possible de l’anomalie Pioneer qui pourrait être la première indication d’un écart entre les phénomènes observés et la relativité générale, quoique d’autres interprétations de ce phénomène soient envisageables.

Lire l’article

Semi-conducteur

de g. à d.: bandes électroniques d'un métal, d'un semi-conducteur et d'un isolant

Les semi-conducteurs sont des matériaux présentant une conductivité électrique intermédiaire entre les métaux et les isolants. Les propriétés d'un semi-conducteur (c'est-à-dire le nombre de porteurs, électrons ou trous) peuvent être contrôlées en le dopant avec des impuretés (autres matériaux). Un semi-conducteur présentant plus d'électrons que de trous est alors dit de type N, tandis qu'un semiconducteur présentant plus de trous que d'électrons est dit de type P.

Transistor bipolaire à grille isolée

Symbole usuel de l’IGBT
Symbole usuel de l’IGBT

Le transistor bipolaire à grille isolée (IGBT, de l’anglais Insulated Gate Bipolar Transistor) est un dispositif semi-conducteur de la famille des transistors qui est utilisé comme interrupteur électronique de puissance, principalement dans les montages de l’électronique de puissance.

Ce composant, qui combine les avantages des technologies précédentes — c’est-à-dire la grande simplicité de commande du transistor à effet de champ par rapport au transistor bipolaire, tout en conservant les faibles pertes par conduction de ce dernier —, a permis de nombreux progrès dans les applications de l’électronique de puissance, aussi bien en ce qui concerne la fiabilité que sur l’aspect économique.

Les transistors IGBT ont permis d’envisager des développements jusqu’alors non viables en particulier dans la vitesse variable ainsi que dans les applications des machines électriques et des convertisseurs de puissance qui nous accompagnent chaque jour et partout, sans que nous en soyons particulièrement conscients : automobiles, trains, métros, bus, avions, bateaux, ascenseurs, électroménager, télévision, domotique, etc.

William Henry Bragg

Sir William Henry Bragg

Sir William Henry Bragg ( à Westward, Cumberland, Angleterre - à Londres) était un physicien et un chimiste britannique. Il a partagé avec son fils, William Lawrence Bragg, le prix Nobel de physique de 1915. Ils découvrirent ensemble la loi de Bragg, qui interprète le processus de la diffraction des radiations sur un cristal.

Il a enseigné à l'université d'Adélaïde en Australie (1886-1908), à l'université de Leeds (1909-1915) et à l'université de Londres (1915-1923). À partir de 1923, il a été professeur Fullerien de chimie à la Royal Institution et directeur du laboratoire de recherche Davy-Faraday. Il est devenu Fellow de la Royal Society en 1906 et a aussi été président de cette société de 1935 à 1940. Il est lauréat de la Médaille Rumford en 1916 et de la Médaille Franklin en 1930.

À Leeds depuis 1909, Bragg invente le spectromètre et, avec son fils William Lawrence, il fonde une nouvelle discipline : l'analyse par rayons X des structures cristallines. En 1915, le père et le fils sont conjointement récompensés par le prix Nobel de physique « pour leurs travaux d'analyse des structures cristallines à l'aide des rayons X ». Leur somme, X-Rays and Crystal Structure, publiée la même année atteint la cinquième édition dix ans plus tard.


Épitaxie

Un wafer en silicium gravé

L'épitaxie est une technique de croissance orientée, l'un par rapport à l'autre, de deux cristaux possédant un certain nombre d'éléments de symétrie communs dans leurs réseaux cristallins. On distingue l'homo-épitaxie, qui consiste à faire croître un cristal sur un cristal de nature chimique identique, et l'hétéro-épitaxie, dans laquelle les deux cristaux sont de natures chimiques différentes.

L'épitaxie est utilisée pour faire croître des couches minces (quelques nanomètres d'épaisseur). On utilise pour cela une surface parfaitement polie d'un monocristal, le substrat, sur lequel seront déposés d'autres atomes. Le substrat est choisi de façon à avoir des paramètres de maille proches de ceux du cristal que l'on veut obtenir.

L'épitaxie en phase liquide utilise le principe de la méthode de Czochralski. Le substrat est mis en contact avec une phase liquide sursaturée en l'élément voulu, qui se précipite et cristallise sur le substrat. Cette technique a l'avantage d'être rapide, mais elle est moins précise que les épitaxies en phase vapeur.

L'épitaxie par jet moléculaire s'effectue sous ultra vide. Les éléments à déposer, contenus dans des creusets à haute température, sont évaporés et vont se déposer par transport thermique sur la surface du substrat, plus froide mais de température quand même assez élevée pour permettre le déplacement et le réarrangement des atomes.

Les applications de l'épitaxie sont multiples : jonctions semi-conductrices, wafers pour la micro-électronique, Silicon On Insulator...


Équation de Schrödinger

L'équation de Schrödinger conçue par le physicien autrichien Erwin Schrödinger en 1925, est une équation fondamentale en physique quantique. Elle décrit l'évolution dans le temps d'un système et remplit ainsi le même rôle que la relation fondamentale de la dynamique en mécanique classique. Cette équation est une généralisation des travaux de Louis de Broglie sur la dualité onde-corpuscule de la lumière, c'est-à-dire qu'elle peut se manifester, selon les circonstances, soit comme une particule, le photon, soit comme une onde électromagnétique.

Lire l’article

Histoire de la relativité restreinte

Albert Einstein vers 1905.
Albert Einstein vers 1905.

L'histoire de la relativité restreinte décrit le développement de propositions et constatations empiriques et conceptuelles, au sein de la physique théorique, qui ont permis d'aboutir à une nouvelle compréhension de l'espace et du temps. Cette théorie, nommée « relativité restreinte », se distingue des travaux ultérieurs d'Einstein, appelés « relativité générale ».

Dans ses Principia Mathematica publiés pour la première fois en 1687, qui influencent durablement la physique pendant 200 ans, Isaac Newton postule les notions d'espace et de temps absolus et pose la théorie corpusculaire de la lumière. Par la suite, des expériences démontrent que le modèle newtonien ne peut expliquer des phénomènes liés à la nature ondulatoire de la lumière.

En 1864, James Clerk Maxwell publie ses équations qui permettent « d'unifier en une même théorie l'électricité, le magnétisme et l'optique », c'est l'électrodynamique classique. En 1895, Hendrik Antoon Lorentz propose sa transformation pour expliquer la contraction des champs électrostatiques. L'« électrodynamique de Maxwell-Lorentz » avance notamment que la masse des électrons augmente lorsqu'ils sont en mouvement. De plus, ses travaux théoriques permettent d'expliquer les résultats de l'expérience de Michelson-Morley, qui n'a pu démontrer l'existence de l'éther. En 1898, par commodité, Henri Poincaré propose que la vitesse de la lumière soit constante dans toutes les directions. Il publiera d'autres articles qui faciliteront la venue de la relativité restreinte.

En 1905, Albert Einstein publie un article d'une trentaine de pages, Zur Elektrodynamik bewegter Körper, qui réconcilie plusieurs contradictions entre les théories de l'époque et les résultats expérimentaux. Pour y parvenir, il énonce deux postulats : le principe de relativité et la constance de la vitesse de la lumière dans tous les systèmes de référence en mouvement uniforme. Des expériences seront réalisées pour tenter d'invalider ou de confirmer les prédictions de la relativité restreinte. Sur le plan théorique, la théorie d'Einstein sera critiquée à plusieurs reprises. Mathématiquement formalisée, surtout grâce aux travaux de Hermann Minkowski, elle s'imposera définitivement pendant le XXe siècle.

Fond diffus cosmologique

Carte complète du CMB, selon une projection de Mollweide. Elle montre les fluctuations ou anisotropies de températures de l'Univers primordial. « Les régions bleues sont les plus froides, alors que les rouges sont les plus chaudes. La différence maximale de température est de l'ordre de 0,0001 degré Celsius. » Ces « légères fluctuations [seraient] le reflet de la première variation de densité à l'origine des galaxies » et des amas de galaxies. Photomontage de clichés pris par WMAP, satellite de la NASA, pendant neuf ans.
Carte complète du CMB, selon une projection de Mollweide. Elle montre les fluctuations ou anisotropies de températures de l'Univers primordial. « Les régions bleues sont les plus froides, alors que les rouges sont les plus chaudes. La différence maximale de température est de l'ordre de 0,0001 degré Celsius. » Ces « légères fluctuations [seraient] le reflet de la première variation de densité à l'origine des galaxies » et des amas de galaxies. Photomontage de clichés pris par WMAP, satellite de la NASA, pendant neuf ans.

Le fond diffus cosmologique (en anglais : Cosmic Microwave Background, CMB) est le nom donné à un rayonnement électromagnétique très homogène observé dans toutes les directions du ciel et dont le pic d'émission est situé dans le domaine des micro-ondes (microwaves). Découvert par hasard en 1964, le CMB permet à la communauté scientifique de départager les différents modèles cosmologiques, notamment en abandonnant les modèles fondés sur le principe cosmologique parfait et en priorisant les modèles basés sur l'idée de Big Bang, qui prédisent l'émission d'un tel rayonnement thermique à l'époque de l'Univers primordial.

Selon le modèle standard de la cosmologie, ce rayonnement fossile a été émis environ 380 000 ans après le Big Bang, lorsque l'Univers était à la fois beaucoup plus petit, dense et chaud. Il a ensuite été dilué et refroidi par l'expansion de l'Univers et possède désormais une température moyenne très basse, de l'ordre de 3 kelvins (K). Le CMB est un phénomène physique très étudié pour deux raisons : il correspond à la plus vieille image électromagnétique qu'il est possible d'obtenir de l'Univers et il présente d'infimes variations de température et d'intensité selon la direction observée, anisotropies détaillées depuis le début des années 1990 qui permettent de recueillir quantité d'informations sur la structure, l'âge et l'évolution de l'Univers.