LE CHAOS par M RIO André

 

LE CHAOS                                                                                118-1897_img

1.Le chaos et les sciences.

2.Les mathématiques et le chaos.

3.La physique et le chaos.

La mécanique.

La thermodynamique.

La physique quantique.

4.La vie et le chaos.

5.Le hasard et le déterminisme.

6.Comment le chaos crée-t-il de l’ordre?

7.Conclusions.

8.Références.

1.Le chaos et les sciences.

Toutes les sciences s’efforcent de faire des prévisions aussi rigoureuses que possible. Chacune dans son domaine tente d’établir des lois en espérant que les faits voudront bien s’y conformer .Des prévisions précises sont possibles tant que les phénomènes ne sont pas trop compliqués, et pendant longtemps on n’a pas trop voulu se préoccuper des cas qui paraissent inextricables, donc inabordables, c’est à dire le chaos.

Depuis quelques années, on tente de l’appréhender et de le circonscrire .La météorologie est un exemple caractéristique ;les mécanismes fondamentaux sont bien connus :l’atmosphère est un fluide qu’on peut définir localement par sa pression, sa température, sa vitesse, son degré d’humidité, l’apport d’énergie solaire, toutes grandeurs qu’on sait mesurer avec précision, mais dont on est incapable de prévoir l’évolution au delà d’un temps très limité.

Les phénomènes de la vie sont encore bien plus compliqués, et si un être vivant est structuré de façon très précise, son devenir ou celui d’une population sont très aléatoires.

Personne ne peut se satisfaire d’un futur tout à fait imprévisible ;les dictons populaires sont une façon naïve d’inventer des lois simplistes là où il ne peut y en avoir, dans la prévision du temps, des récoltes, de la santé, des comportements humains ou animaux.

On se prémunit contre les évènements aléatoires en s’efforçant d’en limiter les risques :protection contre les intempéries, machines et instruments aussi fiables que possible, dispositifs de sécurité…

Enfin, une meilleure compréhension des phénomènes chaotiques est apparue .Si on ne peut pas les décrire de façon précise, une approche plus globale, statistique, est possible :le chaos a aussi ses lois

2.Les mathématiques et le chaos.

Le chaos n’est pas une spécificité du monde matériel On peut dire qu’il existe en mathématiques chaque fois qu’on ne peut pas calculer un terme quelconque d’une suite pourtant parfaitement définie .La suite des nombres premiers par exemple(nombres divisibles seulement par eux mêmes ou par 1)est chaotique :il n’existe pas d’expression générale permettant de les calculer, aucune loi rigoureuse qui prédise l’ordre dans lequel ils se suivent .A la question :quelle est la valeur du nième nombre premier il n’existe pas de réponse directe.

Dans un autre exemple simple, on part d’un nombre irrationnel quelconque, log 2 par exemple, on le double et ainsi de suite, en retranchant 1 si le terme obtenu est plus grand que 1. l’opération est parfaitement déterministe ,mais les différents termes ne sont calculables que de proche en proche.

Attracteurs et fractales .L’attracteur de Hénon, exemple classique, définit deux variables x et y par les expressions suivantes:

x(t+1) = y(t) +1 – a x2(t)

y(t+1) = b x (t)

On les calcule en donnant successivement à t les valeurs 0,1,2,etc,en posant x(0) = 0,y(0) =0, et par exemple a = 1,4 et b = 0,3.Les valeurs successives de x et y, représentées graphiquement sur un plan(voir la figure)se situent sur une infinité de courbes proches les unes des autres, à quelque grossissement qu’on les observe, elles ont toujours le même aspect ;le chaos reste dans un domaine limité du plan :il est bridé, et ici encore on ne peut pas calculer directement un terme quelconque à cause des interactions entre x et y.

On peut obtenir des fractales par des opérations géométriques simples(voir les figures);en répétant indéfiniment la même opération à des échelles de plus en plus petites, on obtient des courbes continues formées de triangles de plus en plus petits.

On peut citer encore l’attracteur de Lorenz formé de courbes qui se développent dans l’espace(voir la figure)en forme d’ailes de papillon .Il est défini par les expressions suivantes:

dx/dt = -10 x + 10 y

dy / dt = -x z + 28 x -y

dz/dt = xy -1/3 z

On a ici un système d’équations différentielles non intégrables à cause des interactions entre les variables. On verra le même cas en physique dans les systèmes matériels qu’on peut décrire localement par des équations différentielles, mais non globalement parce que ces équations ne sont pas intégrables.

a-carre

  Les nombres premiers

b-image

Courbe de Van Koch

c-courbe-de-van-koch

Attracteur de Henon

d-attracteur-de-henon

Attracteur de Lorenz

e-attracteur-de-lorenz

3.La physique et le chaos.

La mécanique.

La mécanique décrit un système matériel et son évolution par des expressions mathématiques qui relient les différentes grandeurs qui le caractérisent .La mécanique de Newton par exemple permet de calculer le mouvement d’une planète autour du soleil ou d’un satellite autour d’une planète à partir de leurs masses, de leurs distances et de leurs vitesses à un moment donné, et le résultat est d’autant plus précis que les conditions initiales sont connues avec précision.

On s’était rendu compte qu’on ne savait pas faire un calcul exact dès que trois corps interagissent, par exemple dans un système binaire de deux étoiles et d’une planète, et encore moins pour l’ensemble du système solaire et de ses planètes ;on peut seulement faire un calcul approximatif pour une durée limitée .Dès le début du XXème siècle, Henri Poincaré avait montré qu’il ne s’agissait pas d’une insuffisance des techniques de calcul, mais qu’il n’existait réellement aucune solution mathématique possible de tels systèmes évoluent de façon totalement imprévisible parce qu’ils sont très sensibles aux conditions initiales, et une différence infime des vitesses ou des positions aboutit à long terme à des trajectoires complètement différentes :malgré son apparente stabilité, le système solaire est chaotique.

Le mouvement de la Lune, influencé par le Soleil et les grosses planètes, est irrégulier si on l’examine avec précision .Celui des astéroïdes est encore plus erratique .Des simulations numériques permettent de calculer l’évolution du système solaire sur de longues durées. L’orbite de Pluton est la plus instable, celles des grosses planètes les plus stables .Si l’on calcule l’évolution de la Terre à partir de deux positions distantes de 100 mètres, on constate un écart de 40 millions de kilomètres au bout de 100 millions d’années.

Cependant, les perturbations restent limitées :le chaos est bridé, et l’éjection d’une planète hors du système solaire, sans être tout à fait impossible, reste très improbable .Des phénomènes de stabilisation interviennent :Jupiter et Saturne sont en résonance, le rapport de leurs périodes est de 2/5,et leurs orbites suivent un cycle de 900 ans L’axe de rotation de la Terre est stabilisé par la présence de la Lune, sans laquelle il serait beaucoup plus instable, avec des effets catastrophiques sur le climat et la vie.

La thermodynamique.

La thermodynamique utilise des grandeurs directement accessibles des corps :pression, volume, température, et des lois où interviennent des notions plus abstraites :chaleur, entropie, énergie .Le premier principe de la thermodynamique considère la chaleur comme une forme d’énergie ;selon le second, toutes les formes d’énergie peuvent se transformer les unes dans les autres, avec une restriction pour la chaleur qui n’est que partiellement transformable en énergie mécanique, électrique ou chimique on peut obtenir de la chaleur en brûlant un combustible, la transformation inverse ne peut se faire spontanément à des équilibres on le refroidit.

La mécanique de Newton traite un nombre limité d’objets agissant les uns sur les autres(Soleil, planètes, satellites).Il n’en est pas de même de la thermodynamique :un gaz est constitué d’un très grand nombre de molécules animées de grandes vitesses et qui s’entrechoquent de façon désordonnée .Le comportement d’ensemble est le résultat statistique de cette agitation On peut définir la masse et la vitesse d’une molécule unique, non sa pression ou sa température qui n’ont de sens que pour un très grand ensemble de molécules en équilibre :la température est liée à leur vitesse moyenne, la pression aux chocs multiples exercés sur les parois du récipient qui les contient.

Un gaz est donc un système chaotique, mais qui obéit à des lois statistiques précises à condition de le traiter de façon globale sans se préoccuper du mouvement particulier de chacune des molécules qui le constituent.

Il apparaît donc que les lois fondamentales de la physique ne s’appliquent qu’à des cas idéaux exempts de toute perturbation et réversibles .Les faits réels sont au contraire généralement irréversibles, perturbés par de nombreuses interactions et ne peuvent être décrits exactement. Cependant, le désordre qui en résulte est souvent limité et une approche statistique est alors possible .C’est ainsi que les phénomènes météorologiques, extrêmement chaotiques, où des causes locales minimes(les battements d’aile d’un papillon!)peuvent(éventuellement)avoir des répercussions importantes à distance, permettent cependant des prévisions limitées relativement fiables.

Les réactions chimiques se font presque toujours jusqu’à épuisement progressif des réactifs ou jusqu’à un équilibre avec les produits formés .Il existe cependant des réactions auto catalytiques où, loin de l’équilibre, la concentration d’un produit intermédiaire oscille entre deux valeurs extrêmes tant que les réactifs ne sont pas consommés .On voit apparaître puis disparaître plusieurs fois une coloration jusqu’à épuisement des produits de départ ;en opérant en couche mince, on observe des figures concentriques qui se déplacent.

La physique quantique.

Si la théorie de la relativité, comme la physique classique, est rigoureusement déterministe, la physique quantique est de nature statistique :les objets quantiques, particules, atomes, molécules, sont représentés par l’équation fondamentale de Schrödinger qui permet de calculer leur fonction d’onde, mais cette fonction n’est qu’une probabilité de présence d’une particule en un point donné ;une particule quantique n’est pas un objet au sens habituel ,mais une onde, et on ne peut la localiser exactement que quand elle interagit avec un dispositif de détection d’onde .L’équation de Schrödinger est réversible, la réduction de la fonction d’onde ne l’est pas.

Un système quantique formé de particules corrélées :couple de particules, atome ou objet quelconque présente des caractéristiques paradoxales :dans ces systèmes, chaque particule ne possède pas d’individualité propre tant qu’elle n’a pas interagi; le chat de Schrödinger, à la fois vivant et mort, en est une image classique .Une autre illustration amusante a été proposée par S.Ortoli et J.P.Pharabod, ce sont les poissons quantiques.

Un poisson quantique introduit dans une mare se dilue aussitôt dans tout le volume d’eau, mais, s’il mord à l’appât d’un pêcheur, il se matérialise immédiatement au bout de la ligne .On partage ensuite l’eau entre deux autres mares ;chacune renferme à l’état latent les deux poissons, mais si l’un est pris par un pêcheur, son sexe, jusque là imprévisible, se détermine, et son partenaire jaillit aussitôt de l’autre mare .(Voir :Comprendre la physique).

Pour les objets macroscopiques, les effets quantiques s’atténuent d’autant plus rapidement qu’ils sont plus grands, sauf dans quelques phénomènes où toutes les particules sont étroitement corrélées :la supraconductivité, la superfluidité et les lasers, et le comportement des objets usuels décrit par la physique classique n’est finalement que l’aspect statistique global des phénomènes quantiques sous-jacents.

4.La vie et le chaos.

L’évolution des espèces comme celle des individus doivent beaucoup à une part de hasard. Dans la soupe moléculaire qui a précédé la vie, seule une infime partie des substances présentes était capable d’amorcer les mécanismes de reproduction indispensables, et pendant la très longue période de la vie exclusivement unicellulaire, il a fallu une lente maturation et la rencontre inopinée d’organismes rudimentaires pour préparer l’explosion des végétaux et des animaux .

L’évolution de chaque individu est aussi une série de tâtonnements orchestrés mais non rigoureusement prévus par son patrimoine génétique .Son ADN serait largement insuffisant pour commander tous les détails de son organisme :la croissance des alvéoles pulmonaires, des vaisseaux sanguins, des circuits de neurones du cerveau, ne se font pas selon un plan rigoureux comme le câblage d’un ordinateur mais au hasard des interactions locales :deux vrais jumeaux, ayant le même patrimoine génétique, ne sont pas rigoureusement identiques .Cette part d’imprévisibilité, loin d’être un défaut, est au contraire source de diversité, de souplesse et de possibilités accrues :le chaos est constructif.

L’environnement de chaque individu, de chaque espèce, est également une source d’imprévu, de diversité, et exige une adaptation suffisante, sous peine de disparaître Dans les sociétés humaines là encore, technique et intellectuel

A chaque étape de l’évolution de la vie, un état plus structuré apparaît donc spontanément au milieu d’un grand désordre.

5.Le hasard et le déterminisme.

ll existe plusieurs degrés dans l’impossibilité de faire des prévisions précises .Dans les jeux de pile ou face, la roulette, les loteries, le résultat de chaque coup est indépendant des précédents et tous les numéros ont une chance égale de sortir .Sur un grand nombre de coups, on peut faire des prévisions statistiques.

Le hasard des rencontres et l’interaction de séries d’évènements indépendants se produisent constamment et de façon tout à fait aléatoire comme pour le passant qui reçoit une tuile sur la tête .La part d’imprévu y est beaucoup plus grande que dans le cas précédent, mais un traitement statistique est encore possible .C’est ce que font par exemple les compagnies d’assurances, et leurs calculs leur permettent généralement plus de profits que de pertes.

ans tous les cas, les incertitudes sont dues à l’ignorance des détails qui commandent le résultat observé :mouvement imprévisible de la pièce, de la boule ou de la roue, ignorance de la succession des évènements qui provoquent une rencontre ou un accident et ses résultats, mais existe-t-il des cas où même une connaissance parfaite de toutes les circonstances ne permettrait pas de prévision ?C’est semble-t-il le cas en physique quantique où la durée de vie d’un noyau radioactif isolé par exemple semble indépendante de toute cause connaissable, mais la physique quantique n’est pas encore totalement comprise .A cette exception près, l’ignorance de toutes les données et des possibilités de calcul semblait la seule raison pour laquelle la prévision exacte n’est pas possible.

L’idée est donc apparue que si l’on connaissait exactement les lois de la nature et son état exact à un moment donné, le passé et le futur seraient parfaitement déterminables absolue .Son collègue, le démon de Maxwell, mettrait en défaut le deuxième principe de la thermodynamique en triant les molécules d’un gaz selon leur vitesse :mettant à part les plus rapides, il séparerait le gaz en deux parties, l’une plus chaude, l’autre plus froide, sans dépense d’énergie.

Ces exploits sont évidemment irréalisables, et pas seulement pour des raisons pratiques. Pour faire son tri, le démon de Maxwell aurait besoin d’informations, de mesurer la vitesse des molécules, ce qui ne peut se faire gratuitement :il faut payer en dépensant de l’énergie .Les prévisions du démon de Laplace se heurteraient aussi à un obstacle fondamental .L’évolution du monde avec ses innombrables interactions est tout à fait chaotique, mais le chaos est aussi créateur d’ordre et de structures de plus en plus compliquées comme celles de la vie et de la pensée qui entraînent de nouvelles interactions .La biologie ne se déduit pas logiquement des lois de la physique, et la connaissance parfaite de l’atome d’hydrogène, modèle de tous les autres, ne permet d’interpréter ni l’angoisse ni l’humour.

6.Comment le chaos crée-t-il de l’ordre?

Que serait le désordre absolu ?Ce serait celui où toutes les particules qui composent le monde seraient libres et agitées de façon statistiquement uniforme comme le sont les molécules d’un gaz à température constante, une situation plus proche de celle qu’on imagine peu après le Big-Bang que de la réalité actuelle .Cette situation n’était pas stable, car l’attraction universelle, la gravité, et les autres interactions fondamentales sont intervenues pour condenser localement ces particules, former des atomes, des agrégats, des étoiles et leurs cortèges d’astres et des galaxies.

L’échauffement résultant de cette condensation, puis des réactions nucléaires, est à l’origine des phénomènes géologiques, de la synthèse de molécules de plus en plus compliquées et finalement de la vie, mais la fraction la plus organisée de la matière n’en constitue qu’une partie infime.

La notion d’entropie, dont la définition mathématique est très simple, mais la signification physique beaucoup plus subtile, donne une interprétation globale de ces faits .Un système acquiert ou perd de l’entropie(S)quand il échange une quantité de chaleur(Q) à la température absolue(T) avec l’extérieur

S = Q/T

Par exemple, pour fondre de la glace, on lui fournit de la chaleur à 0°C, soit 273 °K, ce qui fait

S = 80/273 calories/degrés ou 19/273 joules/degrés

pour un kilogramme de glace (la chaleur de fusion de la glace étant de 80 calories).

L’expérience montre qu’on peut créer de l’entropie de bien des façons, par exemple en transformant en chaleur de l’énergie mécanique, chimique ou électrique, mais qu’il est impossible de la détruire Dans un système isolé, l’entropie ne peut donc que croître.

Un autre aspect de l’entropie, c’est la mesure du désordre d’un système :un système isolé ne peut qu’accroître globalement son désordre .Un système ouvert au contraire peut échanger de l’énergie et de l’entropie avec l’extérieur ;c’est le cas de la Terre qui reçoit de l’énergie lumineuse du Soleil et en renvoie à l’extérieur sous forme de chaleur .Elle peut donc se débarrasser constamment de son excès d’entropie, ce qui a pour effet de maintenir sa température moyenne à peu près constante, d’être agitée de phénomènes géologiques et météorologiques permanents, d’entretenir et de diversifier la vie .Globalement, la Terre crée plus d’entropie qu’elle n’en reçoit, mais elle en élimine constamment.

Globalement, la création et le maintien de structures de plus en plus organisées localement se paie en augmentant le désordre à l’extérieur.

7. Conclusions.

Les lois de la physique sont des approximations idéalisées de la réalité concrète .Elles sont déterministes et réversibles, la réalité ne l’est pas.Même en mathématiques, tout n’est pas calculable directement .De nombreuses suites de termes ne sont calculables que de proche en proche, et beaucoup d’équations différentielles ne sont pas intégrables et conduisent au chaos.

Le monde physique, plein d’interactions inextricables, n’est prévisible qu’approximativement et souvent seulement à court terme, mais une approche statistique permet d’en circonvenir l’indétermination

Cependant le chaos, quoique omniprésent, a ses limites ;il ne peut s’étendre indéfiniment :il est bridé, et paradoxalement, s’il est généralement créateur de désordre, il peut aussi créer localement de l’ordre, des structures de plus en plus diversifiées et organisées.

 

8. Références.

Les ouvrages et les articles suivants ont servi à la rédaction de ce travail .Les lecteurs pourront y trouver un complément d’informations et des développements beaucoup plus importants.

Ouvrages.

Ilya Prigogine .La fin des certitudes.(Odile Jacob).

Jorge Wagensberg .L’âme de la méduse.(Seuil).

Trinh Xuan Thuan .Le chaos et l’harmonie.(Fayard).

S.Ortoli et J.P.Pharabod.Le cantique des quantiques.(Editions la Découverte).

Articles.

Les attracteurs étranges .La Recherche 108 132 février 1980.

L’ordre chaotique .La Recherche 185 190 février 1987.

Le chaos déterministe .La Recherche 225 1248 octobre 1990.

L’universalité des formes fractales .Pour la Science 248 40 juin 1998.

LE BOSON DE HIGGS par M RIO André

LE BOSON DE HIGGS

M André RIO
M André RIO

 

La matière est elle divisible à l’infini ou formée de particules ?

L’idée d’atomes proposée par Démocrite, Epicure et Lucrèce a été combattue par Aristote, Platon et plus tard par Spinoza. Aucun ne disposait de données indiscutables, ce n’était que de la spéculation. Il a fallu attendre la fin du XVIIIème siècle avec Lavoisier pour identifier les véritables éléments et supposer avec Dalton qu’ils sont constitués d’atomes. ce qui explique qu’ils ne s’unissent entre eux que dans des proportions définies. Si pour les uns c’était la preuve de l’existence des atomes, d’autres s’en tenaient à la notion d’équivalents. Les deux écoles se sont opposées pendant tout le XIXème siècle, et c’est seulement au début du vingtième que la réalité des atomes s’est imposée.                       

   La physique quantique, née avec Planck et le rayonnement du corps noir, l’effet photoélectrique interprété par Einstein, ont établi que la lumière est formée de particules, les photons. La théorie du mouvement brownien établie aussi par Einstein et sa réalisation concrète effectuée par Perrin, ainsi que quelques autres expérimentations ont permis de déterminer la masse des atomes et la charge de l’électron. On s’est aperçu bientôt que les atomes sont principalement constitués de vide, d’un noyau compact minuscule et très dense et d’un nuage d’électrons. Le noyau lui même est formé de protons et de neutrons, puis on découvre toute une série d’autres particules, certaines inattendues, d’autres prévues ; c’est le cas du boson de Higgs.

         Pourquoi a-t-on recherché le boson de Higgs ? Il a été imaginé il y a une quarantaine d’années pour expliquer la masse des particules élémentaires en créant un champ analogue aux champs électrique ou magnétique, interagissant avec les particules selon leur masse.

La quête de ce boson (H) a été longue, car sa propre masse devait être élevée et exigeait une source d’énergie très importante produite par un collisionneur de particules. Le LEP du CERN (Centre européen de recherche nucléaire), qui utilisait des collisions électron positon, et le Tévatron du Fermilabo à Chicago, se sont révélés insuffisants, mais ont permis une estimation de sa masse. C’est le LHC (Large hadrons collider) qui y est récemment parvenu.

C’est un anneau de 27 km de circonférence à 100 m sous terre qui a atteint une énergie de 8 TeV (téra électron volts) et qui pourra être porté en 2014 à 15 TeV, qui y est parvenu en utilisant la collision de protons. La durée de vie du boson est excessivement brève, et il ne peut être détecté que par ses produits de décomposition, soit deux photons soit deux Z0 qui se décomposent à leur tour en deux électrons ou deux muons. Deux détecteurs ont été utilisés : le CMS (solénoïde compact à muons) et Atlas (appareil toroïdal pour le LHC) . Ils ont mobilisé 3000 personnes et ont donné des résultats concordants pour la masse du boson, soit 125,3  pour CMS et 126,5 Gev pour Atlas.

 

Le boson de Higgs et les particules élémentaires du modèle standard.

                            Les particules constituant la matière :

                                           Leptons                                   Quarks

électron e    neutrino électronique ne                    up u        down d

muon m       neutrino muonique nm               strange s  charm c

tau t                neutrino tauique nt                                top t        bottom b

Les particules des interactions :

Interaction électromagnétique             photon        g

Interaction forte                                 8 gluons      g

Interaction faible                                3 bosons     ww  z0

Gravité                                              graviton (hypothétique)

A toutes ces particules il faut ajouter leurs antiparticules  comme le positon ou électron positif. La théorie de la supersymétrie en prévoit encore toute une série dont aucune n’a encore été détectée.

Si le boson de Higgs explique la masse des particules, cette masse a trois aspects : la masse inerte qui intervient dans l’énergie cinétique

E = ½ m v2

La masse gravifique de l’attraction universelle

   F = G M m / d2

                               et la masse forme d’énergie selon la Relativité

E = m c2

  Exemples de masses      

 proton        0,938 GeV

neutron       0,940   GeV

électron      0,511   KeV

boson W    80        GeV

boson Z     91       GeV

1 eV = 1,78.10-33 gramme = 1,6. 10-19 joule.

Une particule est caractérisée par son spin, une propriété quantique qui s’interprète comme une rotation. On distingue les fermions, comme les leptons et les quarks qui ont un spin fractionnaire (s= ½ ), et les bosons, dont le photon et les bosons w et z qui ont un spin entier (s = 1). On ne connaît pas avec certitude le spin du boson de Higgs qui pourrait être 0 ou 2. Pour ce dernier bien des questions se posent encore. Y en a t-il un seul ou cinq ? A t-il un rapport avec la théorie de la super symétrie ? avec l’antimatière, la matière noire, l’énergie du vide ? Est- il vraiment élémentaire ou composite ? Apparenté avec les autres particules ?

Un nouveau projet apportera-t-il de nouvelles informations ? Il s’agit d’un collisionneur linéaire e+e- long de 31 km, d’une énergie de 0,5 à 1 TeV, inférieure à celle du LHC, mais plus facile à interpréter parce qu’il ne fait intervenir que des électrons.

 

Références: La Recherche, novembre 2008, p. 30. Si le boson de Higgs n’existait pas.septembre 2012, p. 8. Le boson de Higgs enfin dévoilé.Pour la science, septembre 2012. P. 22. La saga du boson de Higgs.

  1. 30. Le boson de Higgs, et après ?

LES TROUS NOIRS par M RIO André

M André RIO
M André RIO

LES TROUS NOIRS

 

A l’origine de la plupart des trous noirs, il y a des étoiles. Elles se forment par condensation d’un nuage de gaz et de poussière sous l’effet de la pesanteur, en particulier au centre des galaxies où la densité de matière est plus élevée. Cette condensation peut aussi être amorcée par l’explosion d’une supernova, fin de vie d’une étoile massive, ou par la collision de deux galaxies.

Une étoile se distingue d’une planète géante par sa masse : au cours de sa formation, l’échauffement produit lui permet d’atteindre une température suffisante pour amorcer une réaction nucléaire, la fusion de l’hydrogène et du deutérium en hélium. Cette dernière réaction est la plus facile, c’est la seule source d’énergie des plus petites étoiles, mais le deutérium est beaucoup moins abondant que l’hydrogène.

Le Soleil est une étoile moyenne. Les plus petites sont les plus nombreuses, les plus massives moins abondantes.

 

Evolution et fin de vie des étoiles.

         Les petites étoiles consomment lentement leur hydrogène et brillent peu mais longtemps. Le Soleil, qui est âgé d’environ 5 milliards d’années, doit se maintenir encore aussi longtemps, après quoi, ayant épuisé l’hydrogène en son centre, où se produit la fusion à une température de 15 millions de degrés, il subira une concentration de son cœur et un échauffement permettant la synthèse du carbone puis de l’oxygène, tandis que sa périphérie explosera en géante rouge, après quoi la masse restante se condensera en naine blanche ayant les dimensions de la Terre et une densité énorme. Sa température baissera peu à peu jusqu’à ce qu’il devienne une naine noire.

Les étoiles de quelques masses solaires ont une durée de vie plus courte . Après épuisement de l’hydrogène, elles subissent une série de contractions et d’échauffements qui conduisent à la synthèse d’éléments de plus en plus lourds jusqu’au fer, le plus stable des atomes. Cette synthèse productrice de chaleur achevée, elles subissent une nouvelle contraction du cœur et une explosion de la périphérie. C’est une supernova, brève, mais au cours de laquelle les éléments les plus lourds, jusqu’à l’uranium peuvent se former par bombardement de neutrons, ainsi que des éléments légers, lithium, glucinium et bore, par fractionnement d’atomes plus lourds. Si la masse subsistant au centre équivaut  à 1 ou 2 masses ,solaires, il se forme une étoile à neutrons. Une masse plus élevée aboutira à la création d’un trou noir.

Les étoiles à neutrons.

         On en a détecté ayant de 0,7 à 2 masses solaires, avec une moyenne de 1,4, et un rayon de 10 Km, donc une densité énorme, celle des noyaux atomiques. Elles possèdent une surface de fer solide à l’intérieur de laquelle protons et électrons ont fusionné en neutrons sous l’effet de la pression. D’autres particules, comme des mésons formés de deux quarks peuvent aussi être présents. On en trouve un exemple dans la nébuleuse du Crabe, reste d’une supernova observée en 1054 par des astronomes chinois. Comme  la plupart des étoiles à neutrons elle est en rotation très rapide, avec une période de l’ordre de la milliseconde, et possède un champ magnétique intense de 108 teslas, le champ magnétique terrestre étant de 10-( tesla.

 

Les étoiles étranges.

         Plus petites et plus denses que les étoiles à neutrons, mais avec des masses comparables, elles seraient constituées de quarks u, d et s

Les trous noirs.

Pourquoi noirs ? Rien, pas même la lumière ne peut s’en échapper, et toute matière qui passe à proximité du trou noir y tombe après avoir spiralé dans son environnement. A quelle distance peut-on échapper au trou noir, à condition d’être animé d’une vitesse suffisante dont la limite est la vitesse de la lumière. Cette distance est le rayon de Schwarzschild que l’on considère comme la frontière ou l’horizon du trou noir

r =  2 G m /  C2

G : constante de la gravité    m : masse  du trou noir   C vitesse de la lumière

D’ un rayon deux fois plus petit, la lumière peut au plus atteindre le rayon de Schwarzschild avant de retomber. Cependant, il n’existe pas de discontinuité dans la chute au centre du trou noir. Un voyageur imprudent qui passerait ce rayon ne percevrait rien de particulier, surtout si le trou noir est très massif. Il finirait cependant par être étiré, la différence de gravité devenant de plus en plus grande entre sa tête et ses pieds et il disparaîtrait finalement dans le trou noir.

On ne sait pas actuellement dans quel état se trouve la matière à l’intérieur d’un trou noir. Sa masse, sa charge électrique et sa vitesse de rotation sont conservés, mais sa densité doit être très supérieure à celle d’une étoile à neutrons et son volume beaucoup plus petit, mais les particules qui constituent la matière ordinaire, leptons et quarks, ne peuvent plus subsister.

Comment se calcule le rayon de  Schwarzschild ;

Un astre massif, étoile ou planète, exerce sur un objet une attraction exprimée par  la formule de Newton.

F = G M m / d2

                            F : force d’attraction

G : constante de la gravité = 6,672 10-11

M : masse de l’astre

m : masse de l’objet

d : distance entre l’astre et l’objet

L’objet possède deux formes d’énergie : l’énergie potentielle , qu’il peut libérer en tombant, comme une chute d’eau peut à produire de l’énergie électrique, et qu’il regagne en remontant au moyen d’un moteur, et l’énergie cinétique liée à sa vitesse. S’il tombe, sa vitesse et son énergie cinétique  s’accroissent et son énergie potentielle diminue d’autant. Au total, toute variation de son énergie potentielle est égale et opposée à sa variation d’énergie cinétique. Si l’objet tombe en chute libre de très loin avec une vitesse initiale nulle au départ, l’énergie cinétique acquise au bout d’un certain temps est liée à sa vitesse

Ec = 1/ 2 m v2

tandis que son énergie potentielle décroît à chaque instant de

dEp = GMm /r2 dr     d r  étant la petite variation de r correspondante,

où r est le rayon d’une sphère centrée sur l’astre, par exemple un trou noir, et au total sur une distance comprise entre deux valeurs r1et r2 , on obtient en intégrant

Ep = GMm ( 1/r1 – 1/r2 )

Si la distance de départ r2 est très grande, il reste :

Ep = G Mm / r

Et comme Ep = Ec

GMm /r  = 1/2  mv2

On voit que la vitesse est indépendante de la masse de l’objet, d’où :

GM / r = v/ 2     ou     r = 2 GM / v2

Et si l’on donne à la vitesse  la valeur la plus élevée, celle de la lumière C , on obtient le rayon de Schwarzschild :

r = 2 GM /  C2                C =  3. 108 mètres par seconde.

Exemples :  un trou noir d’ un milliard de tonnes aurait un rayon minuscule de 1,5 10-15 mètre ; un trou noir d’une masse solaire, (230 kg) un rayon de 3 km, et le trou noir le plus massif connu de 1010  masses solaires

un rayon de 1,5 1013 m, soit 46,4 heures lumière qu’ on peut comparer à la distance de Pluton, 6 heures 40 minutes, et à celle du nuage de Oort, 7000 heures lumière, soit près d’une année lumière, alors que l’étoile la plus proche est distante de près de 5 années lumière.

Vitesse de libération. 

La formule précédente  r = 2 GM/ v2  peut s’écrire  v2 = 2 GM/ r  ou

v = ( 2 GM / r )1/2

v est la vitesse minimale qu’ il faut communiquer à un objet, quelle que soit sa masse, partant de la surface d’un astre de masse M et de rayon R pour qu’il s’échappe définitivement et ne retombe jamais. A la surface de la Terre, l’accélération de la pesanteur est g = GM/R2 et v2  = 2 GM/R = 2g

g = 9, 81 m/s /s      R = 6,378 106 m    d’où v = 11,18 m/s

Vitesse de libération d’une étoile à neutrons de 10 km de rayon ;

Pour une masse solaire ( 2. 1030 kg )  v = 1,6 108 m/s, et pour 2 masses solaires  v = 2,28 108 m/s

Masse pour laquelle v = C, vitesse de la lumière  m = C2 r/ 2G                où r = 10 km        m = 3,3 masses solaires.

Température d’un trou noir.

Selon S. Hawking, les trous noirs ont une entropie proportionnelle à leur surface et donc une température T = K/M  où K = 2.1026

Exemples : pour quelques masses solaires,  T = 10-5  0K, et pour une masse de 10 tonnes T = 2. 1014 0K.

Les trous noirs s’évaporent en émettant le rayonnement de Hawking ; leur durée de vie dépend de leur masse. Pour une masse solaire, cette durée est de 1066 ans, et pour un trou noir primordial de 109 tonnes de 1010 ans, mais un trou noir de masse plus fable aurait une vie très brève : pour une masse de 1000 tonnes, il ne pourrait subsister plus d’une seconde.

Les différents trous noirs

Ils diffèrent par leur masse et leur histoire , du plus petit aux trous noirs primordiaux, stellaires, intermédiaires et supermassifs.

Le plus petit trou noir.

Selon la physique quantique, son rayon, r = Gm / C2 ne peut être plus petit que sa longueur d’onde donnée par la formule de Louis de Broglie l = h / mC , d’où  h / mC = Gm / C2, ce qui donne sa masse m = 2. 10-8 kg , soit 2 centièmes de milligramme , h , constante de Planck valant 6 , 61. 10-34. Son rayon est

r = Gm / C2 = 1,5. 10-35 m, longueur de Planck. Sa durée de vie serait très brève.

Remarque : à l’exception de la masse, très supérieure à celle des particules élémentaires, les grandeurs de Planck, longueur, température, densité, temps,  peuvent être considérées comme les limites de validité de la physique quantique.

Les trous noirs primordiaux.

Formés peu après le Big- Bang, quand la densité de matière était encore très élevée, leur masse serait d’environ 10 milliards de tonnes.

Les trous noirs stellaires.

Ayant pour origine l’explosion d’étoiles massives en fin de vie, leur masse équivaut à quelques masses solaires.

Les trous noirs intermédiaires.

On en a détecté quelques centaines dans des galaxies sans bulbe. Ils se seraient formés par condensation de nuages géants pauvres en métaux peu après le Big- Bang.

Les trous noirs supermassifs.

De quelques millions à quelques milliards de masses solaires, ils sont présents au centre de nombreuses galaxies, mais leur masse ne représente que 0,1% de la masse d’étoiles et de nuages de matière du bulbe qui les entoure. Celui de la Voie Lactée a une masse de 4 millions de masses solaires.           Leur présence favorise la formation de nouvelles étoiles dans un espace limité de quelques minutes lumière appelé noyau actif de galaxie. Ils émettent toute une gamme de radiations électromagnétiques, rayons gamma, X, UV, mais tous ne sont pas actifs, faute de matière pour les alimenter. Ils se formeraient en un temps relativement court, un million d’années, par fusion d’étoiles massives, de trous noirs plus petits et d’étoiles à neutrons, et s’établissent au centre des galaxies.

Les quasars sont des noyaux de galaxies anciens formés quand la densité de matière était plus grande, 2 à3 milliards d’années après le Big-Bang.

Que devient la matière dans un trou noir ? Sa masse et sa charge électrique sont conservée, mais on ne sait pas ce que deviennent les particules élémentaires qui la composaient, dans quel volume et avec quelle densité cette masse est enfermée.

 

Références :  Pour la Science . mars 2012 p. 34 . Les trous noirs intermédiaires . Dossier avril- juin 2012 . Les trous noirs.

Le Diben, juillet 2012.

LE PARADOXE DU MIROIR PLAN par M RIO André

LE PARADOXE DU MIROIR PLAN

118-1897_img 

Le miroir plan donne d’un objet une image inversée. On pense habituellement que, si un observateur se trouve devant un miroir, l’image de sa main droite est une main gauche. Comment se fait-il que le miroir n’inverse pas de la même façon le haut et le bas ?

La réponse n’est pas immédiate. La première pensée qui vient à l’esprit est celle d’un observateur debout devant un miroir vertical. L’image aussi est debout. Si maintenant le miroir est horizontal, au dessus ou au dessous de l’observateur debout, l’image a bien les pieds en haut et la tête en bas, mais sa main gauche est toujours l’image de la main droite de l’observateur. En modifiant seulement la position du miroir, a-t-on ajouté un élément de dissymétrie ?

Pour simplifier, ne tenons pas compte de la notion de verticale, et imaginons l’observateur et le miroir seuls dans l’espace, sans aucun repère extérieur, ce qui ne modifie évidemment pas la nature des images. On considère seulement la position de l’axe tête- pieds de l’observateur par rapport au miroir : l’axe peut être parallèle ou perpendiculaire au miroir ; les positions intermédiaires n’ont pas d’intérêt particulier.

Dans tous les cas, le miroir donne de l’observateur une image symétrique, non superposable, donc inversée, ceci parce que l’observateur est un objet à trois dimensions. S’il était plan, il serait superposable à son image

Il est commode de définir les trois dimensions par trois axes : tête- pieds, face- dos, main droite- main gauche. Pourquoi le miroir semble-t-il n’inverser que  l’axe main droite- main gauche quand l’axe tête- pieds est parallèle au miroir ? Cet axe joue-t-il un rôle particulier ?

En réalité, on donne intuitivement la priorité à l’axe tête- pieds, en considérant que tête et pieds sont les deux extrémités les plus dissymétriques. L’axe face- dos est aussi nettement dissymétrique, tandis que l’axe main droite- main gauche est apparemment symétrique, puisque le corps de l’observateur est approximativement symétrique par rapport au plan perpendiculaire à cet axe et passant par le centre du corps.

Si l’on imagine de superposer l’observateur et son image, on commence instinctivement par faire coïncider les axes tête- pieds puis face- dos, ce qui entraîne obligatoirement que les axes main droite- main gauche s’orientent en sens opposés. Ils ne le seraient plus si l’on acceptait d’inverser l’un des deux autres. Alors on pourrait faire coïncider chaque main de l’observateur avec celle de son image.

Il est vrai que si la tête et les pieds d’une part, la face et le dos d’autre part son complètement différents, une main droite et une main gauche, et plus généralement un côté droit et un côté gauche sont approximativement  symétriques l’un de l’autre, mais non superposables.

 

S’il n’avait aucune symétrie, par exemple si sa main gauche était remplacée par une pince ou un crochet, on verrait la situation autrement, parce qu’en face de cette pince ou de ce crochet on en aurait l’image, inversée bien entendu, et il n’y aurait pas plus de symétrie entre sa droite et sa gauche qu’entre sa tête et ses pieds.

En fait, c’est une symétrie d’ensemble que provoque le miroir, inversion qui s’étend à tous les moindres détails non symétriques. En toute rigueur, on ne peut pas dire que si l’observateur lève la main droite l’image lève la main gauche, mais la main qui se trouve à sa gauche. S’il avait étiqueté sa main «  main droite » , on verrait à sa gauche une main toujours étiquetée « main droite », l’écriture elle même étant inversée,.

Le miroir n’intervertit donc pas la droite et la gauche ; il donne une image d’ensemble inversée. De la main droite, il donne l’image inversée d’une main droite et non l’image d’une main gauche. Il se trouve seulement que, le corps de l’observateur étant à peu près symétrique, l’image de sa main droite et sa main gauche son à peu près superposables.

Les QUANTA par M RIO André

COMMENT  LES  QUANTA ONT REVOLUTIONNE  LA PHYSIQUE

 

M André RIO
M André RIO

 

Au début du vingtième siècle, la physique croyait avoir tout compris : les lois de Newton expliquaient le mouvement des astres, l’électromagnétisme rendait compte de tous les phénomènes électriques, magnétiques et optiques, la thermodynamique les transformations entre la chaleur et les autres formes d’énergie. Les physiciens pouvaient se reposer, leur mission accomplie, à l’exception de quelques faits gênants qui ne devaient pas tarder à être résolus. Ils l’ont été en effet, mais au prix d’une révolution.

Si tout s’était interprété jusque là par le bon sens et la pensée logique, à partir de notions conformes à notre intuition, il a fallu tout remettre en question. La première difficulté qui est  apparue concerne ce qu’on appelle le rayonnement du corps noir. Imaginez un four fermé à l’exception d’une petite ouverture qui permet d’observer l’intérieur. Au départ, le four est froid, et il y fait noir, comme dans un four évidemment. Cependant, si on l’examine avec un dispositif sensible à l’infra rouge, on constate que ses parois rayonnent : comme la lumière et les ondes radio, l’infra rouge est un rayonnement électromagnétique, et le rayonnement observé est formé d’un spectre continu de longueurs d’onde réparties de façon statistique autour d’un maximum.

On commence maintenant à chauffer progressivement le four. On constate que le maximum s’élève et se déplace vers les longueurs d’onde plus courtes. Un peu plus tard, le four commence à rougir : la lumière visible commence à apparaître et va s’intensifier à mesure que la température s’élève. Le maximum est de plus en plus aigu et sa longueur d’onde diminue. La couleur passe du rouge au jaune puis au blanc si l’on chauffe suffisamment; l’éclat est de plus en plus intense et il y a de moins en moins d’infra rouge ; l’ultra violet commence à apparaître.

Cela se passait à la fin du dix neuvième siècle ; restait à l’expliquer selon la seule physique connue à l’époque. Les vibrations électromagnétiques qui provoquent l’émission lumineuse proviennent des atomes et des molécules qui constituent la paroi du four. On peut essayer de les interpréter par une image : considérons un auditorium rempli de musiciens avec leurs instruments, puisque le son est aussi un phénomène vibratoire, mais il n’est pas électromagnétique.

Au début, la salle est froide. On commence par entendre des notes très graves qui sont jouées pianissimo. Peu à peu, la température s’élève, des notes de plus en plus aiguës se font entendre. L’orchestre joue moderato, forte, fortissimo, jusqu’à ce que les exécutants et leurs  instruments n’en puissent plus. Etait-ce la bonne interprétation ? Quand les physiciens  ont tenté d’interpréter mathématiquement les caractéristiques du rayonnement à partir de ce qu’on savait de l’électromagnétisme, ce fut un échec total, jusqu’à ce que Planck utilise ce qu’il considérait comme un artifice mathématique : au lieu de considérer que chaque source, atome ou molécule, émet en continu son rayonnement propre, il postule qu’elle émet de façon discontinue par paquets, les quanta, qui sont à leur tour absorbés par d’autres sources réglées sur la même longueur d’onde. Au  lieu du concert d’un orchestre, on a une partie de ping-pong, et l’équation ainsi calculée par Planck décrit exactement ce qu’on observe, mais on ne soupçonne pas encore la portée de ce résultat.

En 1905, Einstein publie entre autres un article interprétant un autre phénomène inexpliqué : l’effet photoélectrique. Un circuit conducteur comporte une cellule sous vide munie de deux électrodes dont l’une constituée d’un métal alcalin comme le sodium. Si on éclaire cette électrode, un courant s’établit dans le circuit, mais, quelle que soit l’intensité de l’éclairage, il existe un seuil : il faut une lumière d’une longueur d’onde inférieure à une valeur caractéristique du métal : là où une lumière rouge, aussi intense soit-elle ne donnera rien, une lumière bleue, de longueur d’onde plus courte, créera un courant.

On savait déjà que les électrons permettent le passage d’un courant dans le vide, à condition qu’ils soient suffisamment accélérés, mais comment la lumière pouvait-elle intervenir ? L’explication proposée par Einstein allait à l’encontre de ce qu’on pensait de la lumière, rayonnement électromagnétique. Einstein imagina qu’elle pouvait aussi se comporter comme un flux de particules, les photons, dont l’énergie est inversement  proportionnelle à leur  longueur d’onde. Si cette énergie est insuffisante pour arracher les électrons au métal, il n’y a pas de courant.

Le rapprochement avec le rayonnement du corps noir s’impose : dans les deux cas, la lumière apparaît comme formée de particules, en contradiction avec son aspect d’onde pourtant solidement établi. Une particule doit suivre une trajectoire précise, alors qu’une onde s’étale et se dilue ; un caillou qu’on lance ne se comporte pas comme des vagues sur l’eau. La lumière paraît être tantôt l’un tantôt l’autre : émise et absorbée comme une particule, elle se propage comme une onde.

Le comportement des atomes comme sources de lumière était aussi en contradiction avec l’électromagnétisme. On avait établi qu’ils sont formés d’un noyau massif chargé d’électricité positive et d’un certain nombre d’électrons dont les charges négatives équilibrent celles du noyau. On se représentait l’atome comme une planète avec ses satellites, l’interaction électrique remplaçant l’attraction de la pesanteur. Cependant, un électron tournant autour du noyau est l’équivalent d’un courant électrique. Or un courant circulaire émet un rayonnement électromagnétique, perd de l’énergie, et l’électron devrait tomber rapidement sur le noyau, comme un satellite freiné par l’atmosphère, mais il n’en est rien.

Pour qu’un atome émette un rayonnement, il faut l’exciter par la chaleur, la lumière ou une étincelle électrique, c’est à dire lui fournir de l’énergie. La lumière qu’il émet, examinée avec un spectromètre, est constituée d’un certain nombre de raies spécifiques qui peuvent servir à l’identifier. Il peut aussi absorber les mêmes longueurs d’onde émises par une source plus chaude, le soleil ou une étoile par exemple. Les raies lumineuses sont alors remplacées par des raies noires. Que se passe-t-il ?

Nous sommes maintenant dans les années vingt du vingtième siècle, et une nouvelle physique commence à s’ébaucher avec Bohr, animateur de l’Ecole de Copenhague. La lumière émise ou absorbée par un atome a été la clé qui a permis de comprendre sa structure. Au repos, les différents électrons qui le constituent se situent chacun à un niveau d’énergie constant qu’on peut se représenter comme une orbite fixe, les plus internes étant les plus stables. L’absorption d’un photon, l’effet d’un choc ou une excitation électrique provoque le saut d’un électron externe sur une orbite supérieure inoccupée. Il restitue spontanément l’énergie ainsi acquise sous forme d’un nouveau photon identique à celui qui aurait pu provoquer l’excitation, en retombant à son niveau initial.

Chaque type d’atome se caractérise donc par un spectre spécifique qui permet de l’identifier ; c’est ainsi que la lumière des étoiles nous renseigne sur leur composition.

Le noyau d’un atome, dans lequel presque toute la masse est concentrée, est environ 10 000 fois plus petit que le nuage d’électrons qui l’entoure. L’atome est donc surtout fait de vide, mais ses électrons constituent une barrière presque infranchissable pour tout autre atome ou toute particule chargée électriquement. On voit déjà que l’idée intuitive que nous avons de la matière est complètement dépassé pour l’atome. On peut encore lui attribuer une dimension , ainsi qu’au noyau, qui sont des composites de particules élémentaires , mais pour ces dernières, cela n’a plus de sens, et l’électron n’est pas une petite bille, comme la suite va le confirmer.

La lumière se comporte tantôt comme une onde, tantôt comme une particule, le photon qui, contrairement à l’électron, n’a pas de masse. Louis de Broglie a considéré que toute particule élémentaire, l’électron par exemple, doit aussi se propager comme une onde. L’expérience a rapidement confirmé son hypothèse : un faisceau d’électrons est diffracté par un cristal comme un faisceau de   rayons X de même longueur d’onde, et un électron se caractérise lui même par une longueur d’onde inversement proportionnelle à sa masse et à sa vitesse, cette vitesse dépendant du dispositif utilisé pour l’accélérer, alors que celle des rayons X, qui sont des ondes électromagnétiques est celle de la lumière, vitesse qu’une particule de masse non nulle ne peut atteindre.

La façon la plus simple d’observer les propriétés ondulatoires de la lumière est d’interposer devant une lampe un écran percé de deux fentes très rapprochés et de projeter la lumière qui a traversé le premier écran sur un second placé à une certaine distance. On peut s’attendre à voir deux taches de lumière, et c’est ce qu’on observe effectivement si les deux ouvertures ne sont pas assez proches. Si on les rapproche suffisamment, on observe cette fois au lieu de deux taches une série de bandes alternativement claires et sombres. Que se passe-t-il ? Les ondes provenant des deux fentes peuvent s’additionner si elles sont en phase, ou s’annuler si elles sont en opposition, et le phénomène se reproduit périodiquement d’un bord à l’autre de l’écran. On a une figure d’interférence, et c’est un moyen classique de démontrer que la lumière est une onde.

Le physicien américain Feynman a analysé le même phénomène produit par des électrons et en a montré le caractère paradoxal : chaque électron  passe-t-il par une seule fente et se comporte-t-il comme un projectile ou comme une onde ? Si on envoie un faisceau formé d’un grand nombre d’électrons, on observe bien une figure d’interférence, mais si on envoie les électrons un à un, chacun laisse une trace unique sur l’écran. Cependant, si on envoie successivement un nombre suffisant d’électrons, la trace des différents impacts dessine peu à peu une figure d’interférence sur l’écran. Chaque électron est-il passé à la fois par les deux fentes et a-t-il interféré avec lui même ?

On peut essayer de détecter par quel trou est passé chaque électron. Il faut pour le déceler l’éclairer au passage, ce qui le perturbe : on n’observe plus d’interférences mais deux impacts correspondant aux deux fentes. Cette fois, chaque électron se comporte comme une particule et non plus comme une onde. Le fait d’observer son passage a modifié son comportement ; on a réduit sa fonction d’onde, il s’est en quelque sorte matérialisé. Ces résultats qui choquent notre intuition montrent tout au moins que le bon sens ordinaire ne vaut plus rien dans le monde quantique. Il en est d’encore plus étonnants, mais il ne faudrait pas en conclure que ce monde est incohérent ; il obéit à des règles très précises qui n’ont jamais été mises en défaut mais qui ne sont pas conformes à notre expérience courante.

Quand une particule se comporte comme une onde, si on connaît sa vitesse, on ne peut plus lui attribuer une position précise, c’est le principe d’indétermination d’Heisenberg, et si deux particules interagissent à un certain moment puis se séparent, elles continuent à former un tout indissociable, quelle que soit la distance qui les sépare. Supposant qu’elles avaient au départ une certaine caractéristique, positive pour l’une, négative pour l’autre, il est impossible de prévoir laquelle a emporté l’un ou l’autre caractère ; en fait, chacune possède à la fois à l’état latent les deux possibilité . Si l’une est détectée, elle doit à ce moment révéler son signe que rien ne permettait de prévoir : c’est un pur hasard, mais instantanément l’autre acquiert le signe opposé, si éloignée qu’elle soit.

Ce paradoxe, cette indétermination fondamentale, Einstein ne pouvait l’admettre : Dieu ne joue pas aux dés. Il voulait que dès le départ les jeux soient faits et que chaque particule soit affectée d’un signe défini. Il a disparu des années avant qu’on démontre de façon certaine qu’il s’était trompé, mais avant de dire comment on l’a établi, l’histoire des poissons quantiques va nous en donner une image plus concrète, sinon plus intuitive.

Vous vous êtes procuré un poisson quantique, vous le tenez, il est là bien vivant. Vous le plongez dans un bassin plein d’eau ; il disparaît immédiatement. S’il était rouge, toute l’eau est devenue légèrement rose. Vous plongez dans le bassin une ligne avec un hameçon et un appât. Au bout d’un moment, il mord, reparaît  tout frétillant et l’eau s’est décolorée. Vous le libérez ; il replonge et disparaît de nouveau. Entre chaque apparition, il est partout et nulle part à la fois.

Vous avez maintenant  un couple de poissons, un mâle et une femelle. L’un est bleu, l’autre jaune. Plongés dans le bassin, ils disparaissent aussitôt. L’eau devient verte. Si l’un mord à l’appât il redevient visible et révèle son sexe et sa couleur, et l’autre apparaît aussi immédiatement. Vous pouvez faire mieux en partageant l’eau du bassin dans deux autres récipients que vous pouvez éloigner autant que vous voulez. Si dans l’un des deux un des poissons mord, cette fois encore l’autre apparaît immédiatement, quelle que soit la distance qui les sépare, mais rien ne permettait de savoir, tant qu’il n’avait pas mordu, où étaient le mâle et la femelle : en fait, ils étaient potentiellement dans les deux bassins à la fois, comme le montrait la couleur de l’eau.

Si nous revenons aux vrais objets quantiques, la conclusion qu’il faut en tirer, c’est qu’une particule n’a pas d’individualité propre tant qu’elle ne se manifeste pas, et qu’avant qu’elle se révèle elle est imprévisible.

Pendant plusieurs années, le paradoxe d’Einstein, appelé paradoxe EPR, ne pouvait être tranché, jusqu’à ce que le physicien Bell démontre théoriquement qu’une expérimentation était possible. Alain Aspect s’en est inspiré pour réaliser un dispositif dans lequel des photons corrélés sont émis dans des directions opposées ; Il a montré de façon indiscutable que toute perturbation de l’un se répercute instantanément sur l’autre quelle que soit la distance  qui les sépare, alors même qu’aucun signal du premier ne peut atteindre l’autre, même à la vitesse de la lumière, mais qu’ils forment un tout indissociable.

Comment donc se représenter une particule quantique ? Ce n’est certainement pas un objet au sens où nous l’entendons intuitivement. Il n’a ni forme ni dimension ; il n’est pas fait d’une matière quelconque puisque justement à ce niveau la notion de matière n’a plus de sens puisqu’elle suppose des atomes et des molécules. Par contre, elle possède des caractères parfaitement définis et mesurables avec une grande précision : elle peut avoir une masse, une charge électrique, un moment magnétique, un spin (propriété analogue à un sens de rotation) , une longueur d’onde liée à son énergie. Elle se déplace camouflée, mais quand elle interagit, le point d’impact est parfaitement défini.

Comment représenter mathématiquement son parcours ? Faute de notion plus concrète, Schrödinger la décrit par ce qu’on appelle sa fonction d’onde, expression abstraite liée à la probabilité de sa présence en un point. Cette fonction permet en particulier d’interpréter les orbites des électrons dans un atome et leur répartition par niveaux d’énergie distincts. L’équation de Schrödinger ne représente que l’aspect ondulatoire des particules, c‘est à dire leur comportement tant qu’elles ne se manifestent pas. Quand  se produit l’événement appelé réduction de la fonction d’onde, c’est alors que la particule apparaît en un point précis et révèle ses caractéristiques qui étaient jusque là à l’état latent.

Quand il s’agit d’un ensemble de particules corrélées, un objet quantique, la réduction se fait en un temps d’autant plus bref que le nombre de particules corrélées est plus grand. C’est l’exemple célèbre du chat de Schrödinger : un événement aléatoire, la désintégration d’un atome radioactif par exemple, peut déclencher un dispositif de mise à mort du chat, mais il reste un instant dans un  état indéterminé, à la fois mort et vivant. Un chat réel étant constitué d’un nombre énorme de particules, cet état ne durerait qu’un instant extrêmement court, mais un objet formé d’un très petit nombre de particules pourrait s’y maintenir pendant un temps mesurable.

La physique quantique concerne principalement des objets très petits : atomes et particules élémentaires, mais à très basse température, près du zéro absolu, quand l’agitation thermique est presque nulle, elle peut se manifester à un niveau macroscopique ; c’est le cas de l’hyper fluidité de l’hélium liquide, dont la viscosité devient nulle, et de la supraconductivité de métaux dont la résistance disparaît également.

En chimie, le comportement des molécules est aussi lié aux caractéristiques des nuages d’électrons qui assurent les liaisons entre les atomes et qui commandent leur réactivité.

Des objets monstrueux, les trous noirs, sont aussi concernés par la physique quantique. Les lois de Newton montrent que pour qu’un projectile puisse échapper définitivement à l’attraction d’un astre depuis sa surface, il faut lui communiquer une vitesse suffisante appelée vitesse de libération, qui dépend de la masse et du rayon de l’astre, mais reste la même pour n’importe quel projectile. Sur la Terre, cette vitesse est d’environ 11 km par seconde. Elle est plus faible sur la Lune ou sur Mars, plus grande sur le Soleil ou sur Jupiter.

La Relativité Restreinte nous apprend par ailleurs qu’un objet matériel ne peut atteindre la vitesse de la lumière, qui constitue une limite infranchissable. De plus, la Relativité Générale considère que l’attraction universelle équivaut à une déformation de l’espace et que même la lumière y est soumise. Il en résulte que si un astre est à la fois suffisamment lourd et suffisamment condensé, rien ne peut s’en échapper, même la lumière ; ces conditions supposent une densité énorme.

Même au centre de la Terre, la densité est inférieure à celle des métaux les plus lourds ; au centre du Soleil, elle est déjà très nettement supérieure car la pression est telle que la barrière que constituent les électrons des atomes est déjà largement franchie et qu’ils s’interpénètrent. Dans une naine blanche, destinée d’étoiles comme le Soleil en fin de vie, elle est encore beaucoup plus élevée, et dans les étoiles à neutrons, dont la masse est de 4 à 8 fois celle du Soleil, les neutrons occupent tout l’espace, la densité est de l’ordre de celle d’un noyau atomique, et un tel astre n’a qu’un rayon de quelques kilomètres.

Les plus grosses étoiles en fin de vie implosent et une nouvelle barrière est franchie ; elles atteignent cette fois et dépassent la densité limite et deviennent des trous noirs . Il n’y a pas de limite supérieure à la masse d’un trou noir. On en a détecté au centre des galaxies qui atteignent des millions de fois celle du Soleil, mais il existe une limite inférieure. La relativité n’a pas grand chose à nous dire sur les objets quantiques, sauf si leur vitesse approche celle de la lumière. La physique quantique au contraire fixe une limite à leur taille qui ne peut être inférieure à celle de la longueur d’onde qui leur est associée, et qui dépend elle même de leur masse et de leur vitesse. A leur vitesse maximale, celle de la lumière, correspond une dimension minimale appelée longueur de Planck, qui est extrêmement petite, beaucoup plus petite que celle d’un neutron ou d’un proton, et à cette longueur correspond la masse minimale d’un trou noir qui, si elle est petite, deux centièmes de milligramme, est énorme en comparaison de celle d’un atome.

On s’est demandé si  un trou noir aussi petit pouvait exister réellement. Il aurait été extrêmement dangereux, car il se serait nourri de toute matière passant à sa portée, et aurait pu engloutir une  planète ou une étoile en la traversant.

Stephen Hawkins a démontré que, conséquence du principe d’incertitude de Heisenberg, un trou noir peut s’évaporer, et d’autant plus vite qu’il est petit. Il lui faut avoir une masse très importante pour que sa durée de vie soit appréciable. Quant à ceux qu’ont détecté les astronomes, ils peuvent subsister extrêmement longtemps.

Les objets quantiques ayant un comportement fantomatique, on peut se demander comment ils peuvent constituer la matière qui nous est familière et dont nous sommes faits. C’est qu’ils exercent des interactions qui les lient solidement entre eux : l’interaction forte unit les quarks en protons et en neutrons ; elle lie également protons et neutrons entre eux dans le noyau des atomes et, à l’exception de ceux qui sont radioactifs, ces noyaux sont extrêmement stables. L’interaction électromagnétique, pour sa part, lie les électrons aux noyaux dans les atomes, et les atomes entre eux dans les molécules.

Le caractère surprenant des objets quantiques est donc la cause profonde des propriétés de la matière telle que nous l’observons quotidiennement, mais ces particules si déroutantes, que sont elles réellement, et la question a-t-elle un sens ?  car il est évident qu’elles sont tout à fait étrangères à notre expérience concrète et que nous ne pouvons les aborder que de façon abstraite à partir des données de l’expérimentation.

Leur existence semble liée aux propriétés de l’espace, qui à notre niveau paraît homogène, et vide s’il ne contient aucune matière. A une dimension extrêmement petite, celle de Planck, il semble au contraire finement structuré et peuplé d’une faune filiforme. Imaginez une toile d’araignée géante, mais à trois dimensions et remplissant tout l’espace. A chaque nœud de la toile, on a de plus un certain nombre de petits ressorts capables de vibrer. Un insecte pris dans la toile émet un signal qui se propage de nœud en nœud, excite aussi certains ressorts et alerte les araignées. Les petits ressorts les informent aussi sur la nature de la proie, mouche ou papillon. Les vibrations se propagent à la vitesse maximale, tandis que les araignée sont ralenties par leur masse.

Transposons maintenant cette image au monde quantique : les différents modes de vibration des petits ressorts sont les caractéristiques des particules : masse, charge électrique, moment magnétique, spin…La vitesse de propagation des vibrations est celle de la lumière, que les particules massives ne peuvent pas atteindre ; quant aux particules corrélées, imaginons qu’elles se séparent tout en maintenant un fil tendu entre elles qui leur permet de communiquer instantanément. Quand l’une interagit, le fil casse, et chacune retrouve une identité distincte.

Cette image est une représentation très libre des tentatives actuelles connues sous  le nom de théorie des cordes. Comme son modèle, elle est peut-être complètement fausse, et ce n’est au mieux qu’une approche très grossière pour nous donner le plaisir de tromper notre ignorance. Les progrès de la physique se font par bonds ; le dernier est encore plein d’incertitudes faute de données expérimentales. Les prochaines années nous permettront peut-être d’y voir plus clair en attendant que de nouvelles énigmes apparaissent.

Notre monde paraît en effet organisé avec une grande précision. Le moindre  changement de ses réglages le rendrait invivable, la matière complètement instable ou totalement inerte. Est- il le résultat d’une espèce de sélection naturelle ? Peut-il en exister d’autres complètements différents ? L’énergie, sans laquelle rien n’est possible, peut-elle se créer, se détruire, contrairement à tout ce que nous avons appris jusqu’ici ? Les théories trop abstraites ne sont elles pas des mythes comme ceux dont beaucoup se contentent, et qui ne donnent qu’une illusion d’explication ? La physique ne sera certainement pas achevée avant bien longtemps, et encore faudrait-il en avoir les moyens.

COMPRENDRE LA PHYSIQUE par M RIO André

COMPRENDRE LA PHYSIQUE

rio rio1.La Physique, science de la mesure.

2.La Mécanique de Newton, les grandeurs fondamentales et leurs unités.

3.La Chaleur et ses effets sur la matière .La Thermodynamique.

4.Les vibrations et les ondes .L’Acoustique et l’Optique.

5.L’Electricité et le Magnétisme.

6.Le bilan de la Physique classique.

7.La Relativité, bouquet final de la Physique classique.

8.La Physique quantique.

9.Philosophie de la Physique.

1.La Physique, science de la mesure.

Pour décrire les phénomènes qu’elle étudie, la physique utilise des notions, tantôt concrètes, c’est à dire directement accessibles à nos sens :longueur, masse, tantôt très abstraites : potentiel, entropie, nombres quantiques, mais qui peuvent s’exprimer par des nombres, être mesurables. Elle établit des relations entre ces grandeurs, pour mettre sous forme mathématique les phénomènes concernés.

Beaucoup de personnes considérées comme cultivées manifestent une grande aversion pour les mathématiques, et par conséquent pour la physique .Est-ce une entreprise impossible de leur montrer, sans aucun calcul, que la physique peut être comprise par tous, au moins dans ses principes, qu’on peut s’y intéresser, et qu’elle pose des questions philosophiques fondamentales et passionnantes ? C’est le défi que nous tentons de leur lancer.(Les formules données à titre d’exemples ne sont pas indispensables à la compréhension du texte).

A ceux qui sont curieux de trouver des explications au monde qui nous entoure, la Chimie, la Biologie, et avant tout la Physique apportent des réponses précises et sûres et des moyens d’action efficaces que les anciens penseurs ont recherchés en vain dans leurs cogitations, et que, de nos jours encore, des esprits fumeux, empruntant sans discernement le vocabulaire scientifique, prétendent indûment posséder.

Contrairement à eux, les physiciens ne prétendent pas tout expliquer tout de suite, et si leur science continue de progresser, c’est qu’ils auront toujours des progrès à faire, sans jamais sans doute en trouver les limites.

On distingue deux étapes dans l’histoire de la physique ;la première ,dite classique, remonte à Galilée(1564-1642) qui le premier, ne se contentant plus de discours, expérimente,fait des mesures sur la chute des corps et tente d’en dégager des lois.

Descartes(1596-1650),grand mathématicien, physicien et philosophe célèbre, contribue à la fondation de l’optique, mais s’égare en tentant prématurément d’expliquer les phénomènes de la vie .Newton, père de l’attraction universelle et du calcul intégral, s’intéresse aussi à l’optique .S’ils ont tous deux contribué de façon essentielle aux débuts de la physique, ils sont encore tout imprégnés de dogmatisme, et la méthode expérimentale ne se développera de façon rigoureuse qu’à la fin du XVIIIème siècle .Seule une partie de leur œuvre a survécu :la métaphysique de Descartes, l’alchimie de Newton n’ont plus qu’un intérêt historique.

La méthode expérimentale.

Ni dogme ni idéologie, la méthode expérimentale n’est rien de plus qu’une méthode de travail efficace, mais elle a rendu caducs les modes de pensée qui l’ont précédés.

Elle consiste à confronter en permanence les faits observés et les théories par lesquelles on tente de les expliquer .Elle exige avant tout une ascèse intellectuelle stricte, excluant la soumission à toute idée préconçue :seuls les faits s’imposent, et ils doivent être décrits de façon précise et reproductible .En physique, ils se décrivent au moyen de grandeurs mesurables bien définies .Il faut ensuite interpréter ces faits par des théories cohérentes et vérifiables .Une théorie est d’autant plus crédible qu’elle permet de prévoir plus de résultats, mais elle ne doit jamais être considérée comme absolue et définitive.

Qu’y a-t-il dans la physique classique ?

Elle concerne:

La matière, ses mouvements, ses changements, le déplacement des objets soumis à des forces, les vibrations, les changements d’état, solide, liquide et gaz.

La chaleur, ses différentes actions sur la matière, sa transformation en mouvement dans les machines à vapeur et les moteurs thermiques.

L’électricité : les charges statiques, les courants électriques et l’électronique.

Le magnétisme : le champ magnétique terrestre, les aimants, les électroaimants, l’induction électromagnétique et les moteurs électriques.

Les rayonnements : la lumière, les ondes radio.

L’énergie, notion fondamentale de la physique, est la monnaie commune à tous ces domaines, qui permet les transformations du mouvement en chaleur, en électricité, et toutes autres formes, sans qu’il y ait ni perte ni gain dans le bilan global : la quantité d’énergie reste constante.

2.La mécaniques de Newton, les grandeurs fondamentales de la Physique et leurs unités.

Pour décrire les phénomènes étudiés, il faut définir un certain nombre de grandeurs, et d’abord trois grandeurs fondamentales dont nous avons une notion intuitive. Les unités du système international(SI) et leurs multiples sont indiqués entre parenthèses.

La longueur(l) (le mètre).

La masse(m) (le kilogramme).

Le temps(t) (la seconde).

On sait mesurer ces grandeurs avec une extrême précision, et elles servent à définir toutes les autres par des relations simples :

La vitesse (v = l/t) (le mètre par seconde).

L’accélération(=v/t) (le mètre/seconde par seconde).

La force (F =m) (le newton) qui peut mettre une masse en mouvement ou provoquer une déformation. Le newton est la force exercée par la pesanteur à la surface de la Terre sur une masse d’environ 100 grammes.

L’énergie (E = f. l) (le joule et son multiple le Kwh=3,6.106 joules). L’énergie est l’effort à dépenser pour déplacer une masse ou l’accélérer.

La puissance(P=E/t) (le watt)est l’énergie dépensée ou fournie par seconde.

La pression (p = F /s) (le pascal=1 newton par m² et le bar=105pascals), force par unité de surface.

Au moyen de ces grandeurs, on peut interpréter mathématiquement un grand nombre de phénomènes grâce à deux notions fondamentales :

L’inertie : une masse qui n’est soumise à aucune force reste immobile ou garde une vitesse constante.

L’attraction universelle : deux masses s’attirent selon la loi de Newton :

F = G m 1m2/d²

G: constante de l’attraction universelle=6,672.10-11(SI).

d: distance des deux masses.

On peut ainsi calculer avec une grande précision la chute des corps, les mouvements des astres, des satellites artificiels et des sondes interplanétaires.

1-image

La masse, quantité de matière, se compte en kilogrammes 2-image-ane

La force se compte en newtons 3-image

Le poids, force due à la pesanteur, se compte en newtons

3.La chaleurs et ses effets sur la matière. La thermodynamique.

Le chaud et le froid n’ont pas toujours été compris comme ils le sont actuellement. Au XVIéme siècle encore, les minéraux et les végétaux étaient considérés comme chauds ou froids par nature (exemple : le diamant est froid). L’invention du thermomètre a permis une détermination chiffrée objective de la température, mais la notion de chaleur est restée ambiguë plus longtemps encore , jusqu’au XIXème siècle. Elle était considérée comme un fluide, une matière subtile qui pénétrait les corps.

La température peut être comparée au niveau de l’eau dans une retenue, la chaleur à la quantité d’eau en amont du barrage. Si la température, qui s’exprime en degrés, est une échelle qui permet de déterminer le niveau d’échauffement des objets, la chaleur est une quantité, comptée en calories, qui dépend de la masse de ces objets

La chaleur est une forme d’énergie.

Toutes les autres formes d’énergie peuvent être transformées entièrement en chaleur : énergie mécanique(les freins s’échauffent), électrique(les radiateurs électriques), chimique(les combustions), nucléaire(la radioactivité et les centrales nucléaires).

On peut donc aussi bien mesurer la chaleur en calories et en joules :

1 calorie = 4,18 joules

Ou en kilowatts.heure : 1 Kwh = 1000 x 3600/4,18 = 8,6.105 calories.

La chaleur est une forme dégradée d’énergie.

La transformation inverse ne peut jamais être complète : on ne peut pas transformer intégralement la chaleur en une autre forme d’énergie. C’est pourquoi les centrales thermiques ou nucléaires, les moteurs à combustion et les machines à vapeur ont un rendement limité : ils doivent fonctionner entre une source chaude qui fournit la chaleur(température T1) et une source froide (l’extérieur) qui en absorbe une partie(température T2), avec un rendement maximum théorique jamais atteint :

rendement (r) = (T1-T2)/T1

T est la température comptée au-dessus du zéro absolu(-273°C), à laquelle un corps ne renferme plus aucune chaleur.

Ce caractère de la chaleur a fait introduire une autre notion : l’entropie (S).

S = Quantité de chaleur/Température absolue = Q/T

4-machine-a-vapeur

Dans un système isolé de l’extérieur, l’entropie ne peut qu’augmenter, par exemple quand on transforme une autre forme d’énergie en chaleur, et elle ne peut jamais diminuer : on peut créer de l’entropie, mais non la détruire, alors que la quantité totale d’énergie reste constante. Quand on mélange deux substances différentes, on crée aussi de l’entropie, car l’opération inverse ne peut se faire spontanément et exige un apport d’énergie

Les effets de la chaleur.

La dilatation. Tous les corps se dilatent en s’échauffant ; c’est cette propriété qui est utilisée dans les thermomètres. Les gaz se dilatent beaucoup plus que les solides et les liquides, selon la formule :

p.v = R.T

p:pression ; v:volume ; R:constante des gaz parfaits = 8,3 (SI) ; T :température absolue.

Les changements d’état. La fusion exige un apport de chaleur(chaleur de fusion), qui est restituée à l’extérieur dans le phénomène inverse, la solidification. Il en est de même de la vaporisation d’un liquide, de la sublimation d’un solide.

Qu’est-ce que la chaleur ?

Tout ce qui précède n’apprend rien sur la nature de la chaleur. C’est à la fin du XIXème siècle qu’on a compris que la chaleur n’est rien d’autre que l’agitation désordonnée de la matière. Cette agitation est d’autant plus intense que la température est plus élevée.

Dans le cas le plus simple, celui des gaz, les molécules qui les constituent sont animées de vitesses désordonnées et s’entrechoquent continuellement. On peut définir une vitesse moyenne directement liée à la température :

1/2 m.v² = 3/2 R/N.T

m:masse d’une molécule ; v:vitesse moyenne des molécules ; R:constante des gaz parfaits ; N :nombre d’Avogadro = 6,02.1023 ; T: température absolue.

Dans les liquides, les molécules s’agitent également, se lient et se séparent constamment sous l’effet de liaisons faibles .Dans les solides, les liaisons sont permanentes, et l’agitation se traduit principalement par des vibrations .Une élévation de la température favorise la rupture des liaisons, entrainant la fusion des solides et la vaporisation des liquides.

4. Les vibrations et les ondes .L’acoustique et l’optique.

Les vibrations interviennent dans presque tous les domaines de la physique, chaque fois qu’un système oscille de part et d’autre de sa position d’équilibre .Il peut s’agir d’un ressort, d’une lame métallique, d’une corde ou d’un pendule, mais aussi de la pression de l’air, d’un courant électrique, d’un atome ou d’une grandeur abstraite :champ électromagnétique ou fonction d’onde.

Le cas le plus simple, celui d’une vibration sinusoïdale, s’exprime par la formule:

a = am sin 2 t

a:amplitude ; am:amplitude maximum ; fréquence ou nombre d’oscillations par seconde ; t:temps, et se caractérise donc par son amplitude et sa fréquence.

Une onde est une vibration qui se propage .C’est le cas des vagues sur l’eau, des sons, de la lumière et des ondes radio .Deux autres grandeurs caractérisent une onde :sa vitesse et sa longueur d’onde, c’est à dire la distance entre deux vagues ou deux maxima successifs.

Certaines ondes ont besoin d’un support matériel :le son se propage dans l’air ou dans un milieu solide ou liquide .D’autres peuvent se propager dans le vide, comme la lumière et les ondes radio.

L’acoustique.

Un son est provoqué par exemple par la vibration d’un instrument de musique à vent ou à corde, qui se propage dans l’air à environ 300 mètres par seconde, et qui peut être détecté par l’oreille ou par un microphone. Les ondes audibles ont des fréquences comprises environ entre 50(son grave)et quelques milliers(sons aigus).Au delà se situent les ultrasons .Un son pur correspond à une fréquence unique, mais il est généralement accompagné d’harmoniques qui en sont des multiples :Le premier harmonique a une fréquence double de celle du son principal .Ce sont les harmoniques qui donnent leur tonalité particulière aux instruments ;la fréquence du son est directement liée à la longueur de la corde ou du tuyau de l’instrument.

L’optique.

Comme dans le cas de la chaleur, on a étudié les propriétés de la lumière bien avant d’en connaître la nature.

Propriétés géométriques de la lumière.

1.La lumière se propage en ligne droite dans un milieu homogène.

2.La lumière se réfléchit sur un miroir selon un angle égal à l’angle d’incidence.

3.La lumière est déviée quand elle passe d’un milieu à un autre :elle se réfracte selon la loi de Descartes:

sin i = n sin r

i :angle d’incidence ; r :angle de réfraction ; n :indice de réfraction.(n = 1 dans le vide et pratiquement aussi dans l’air).

Les applications de ces propriétés sont nombreuses :utilisations de miroirs, de prismes, de lentilles convergentes ou divergentes, éléments des instruments d’optique :loupes,lunettes, jumelles, télescopes, microscopes.

Propriétés physiques de la lumière .Newton a montré que la lumière blanche est un mélange correspondant aux différentes couleurs ,du violet au rouge .Un prisme, qui les dévie différemment, permet de les séparer en un spectre analogue à un arc en ciel dans lequel le violet est le plus dévié .La lumière est une onde qui se propage dans le vide à la vitesse de 300 000 km par seconde .Aux différentes couleurs correspondent des longueurs d’onde comprises entre 0,4 µm(micromètre)pour le violet et 0,8 µm pour le rouge.

La lumière, phénomène vibratoire, peut donner lieu aussi à des interférences :quand on réunit deux faisceaux lumineux, il peut y avoir soit addition soit soustraction des vibrations, ce qui donne sur un écran une alternance de zones claires et sombres.

Contrairement aux sons, dont les vibrations se font parallèlement à la direction de propagation, les vibrations de la lumière lui sont perpendiculaires, comme les rayons d’une roue par rapport à son axe Dans la lumière ordinaire, les vibrations se font dans toutes les directions, mais on peut lui imposer une direction unique, comme si l’on gardait un seul rayon à la roue .La lumière est alors polarisée ;c’est le cas de la lumière des lasers.

Nature de la lumière.

On a montré au siècle dernier que la lumière est une onde électromagnétique .Au delà du rouge, le spectre électromagnétique comporte également l’infrarouge et les ondes radio aux longueurs d’onde plus grandes, et au delà du violet l’ultra-violet, les rayons X et les rayons aux plus courtes longueurs d’onde.

5. L’électricité et le magnétisme.

Electricité statique et courant électrique.

En frottant une substance isolante, on constate qu’elle peut ensuite attirer de petits débris :papier, poussière, mais on peut aussi observer des répulsions .Ces phénomènes s’expliquent par l’existence de charges électriques de deux sortes, positives et négatives .Les charges de même signe se repoussent, celles de signes contraires s’attirent, selon une loi analogue à celle de l’attraction universelle

f = q q’/d2x9.109 (en unités SI)

f :force d’attraction ou de répulsion(newton);q,q’ :charges électriques(coulomb);d :distance des charges(mètre).

Ces charges se déplacent dans des substances conductrices comme les métaux :ce sont des courants électriques.

Comme on fait circuler de l’eau entre deux niveaux différents, on crée un courant électrique au moyen d’une différence de potentiel, avec des piles ou des batteries ;Ce courant est défini par son intensité, nombre de charges passant par seconde, comme le débit d’une rivière, mais il est freiné par la résistance du conducteur:

I = E/R

I :intensité(ampère ou coulomb par seconde);E :différence de potentiel(volt);R :résistance(ohm).

Ce freinage dégage de la chaleur:

Q = RI2t

Q :chaleur(joule);t :temps(seconde).

L’énergie électrique est ainsi transformée en chaleur.

L’électrolyse.

Une autre propriété du courant électrique est de dissocier les composes ionisables, acides bases et sels .Au passage du courant dans une solution d’électrolyte, entre deux électrodes(anode positive et cathode négative)les ions positifs(H+,métaux)vont vers la cathode, et les ions négatifs(chlorure, sulfate, hydroxy)à l’anode .Cette propriété a de nombreuses applications :fabrication du chlore, de la soude, de l’hydrogène, de l’aluminium ;galvanoplastie.

Le magnétisme.

Le champ magnétique terrestre oriente les aiguilles aimantées, car la Terre se comporte comme un aimant. Tout aimant comporte deux pôles opposés, nord et sud .Ici encore, les pôles de même nom se repoussent et les pôles opposés s’attirent, selon une loi analogue:

f = m m’ / d2x107

m,m’ :masse magnétique(rien de commun avec les masses comptées en Kg);d :distance des masses, mais les masses magnétiques ne peuvent être isolées :si on coupe un aimant en deux, on obtient deux aimants plus petits ayant chacun un pôle nord et un pôle sud.

L’électromagnétisme.

Electricité et magnétisme sont deux aspects complémentaires de l’interaction électromagnétique :un courant électrique crée un champ magnétique qui dévie une aiguille aimantée(expérience d’Oerstedt),et une variation de champ magnétique dans un circuit électrique crée un courant .Un courant alternatif crée un autre courant dans un circuit voisin Les applications de ces propriétés sont très importantes:

Electro-aimants.

Dynamos produisant du courant continu.

Alternateurs produisant du courant alternatif.

Transformateurs abaissant ou élevant la différence de potentiel des courants alternatifs.

Moteurs électriques.

Les ondes électromagnétiques.

Toute variation du champ électrique fait varier le champ magnétique et réciproquement. L’oscillation simultanée de l’un et l’autre se propage dans l’espace :c’est une onde électromagnétique .Telles sont les ondes de la radio, de la télévision, mais aussi celles de plus courte longueur d’onde :infra-rouge ;lumière visible ;ultraviolet, rayons X et.

L’électron et l’électronique.

Les charges électriques négatives sont constituées de particules élémentaires, les électrons, qui se déplacent dans les métaux, mais aussi dans le vide des tubes(diodes, triodes)des récepteurs de télévision, des tubes à rayons X, et dans les semi conducteurs, éléments essentiels des applications de l’électronique .Les ions positifs ou négatifs, beaucoup plus lourds, sont peu mobiles, car formés d’atomes ayant acquis ou perdu des électrons, et se déplacent beaucoup plus lentement dans les électrolytes et dans le vide.

6. Le bilan de la physique classique.

A la fin du XIXème siècle, la physique avait expliqué tous les phénomènes de son domaine connus à l’époque, c’est à dire les avait traduits en équations et pouvait, au moins théoriquement, en calculer tous les effets .Elle avait amorcé une unification de ses différentes parties: optique, électricité et magnétisme avaient acquis une base commune :l’électromagnétisme de Maxwell confirmé expérimentalement par Hertz.

En réaction contre la métaphysique, considérée comme une spéculation stérile, elle s’était longtemps interdit de chercher des explications sous jacentes aux phénomènes directement accessibles, refusait les atomes et les molécules que les chimistes acceptaient de plus en plus.

Quelques percées allaient cependant dans ce sens :la théorie cinétique des gaz de Boltzmann considérait la chaleur comme l’énergie d’agitation des molécules, et les décharges électriques dans les tubes à vide mettaient en évidence l’existence de particules électrisées, les électrons et les ions.

Quelques faits restaient totalement inexplicables:

L’expérience de Michelson et Morley ne parvenait pas à mettre en évidence le mouvement relatif de la Terre par rapport à la lumière.

Les spectres des éléments sont formés de raies distinctes et non d’un fond continu.

Le rayonnement dit du corps noir, échange équilibré entre la lumière et la matière, que Plank n’avait pu interpréter qu’en admettant que cet échange se fait par quantités discontinues (quantas).S’agissait-il d’un simple artifice de calcul ou de la manifestation d’une réalité cachée?

L’effet photoélectrique :le seuil d’extraction d’un électron de la matière par la lumière dépend de sa longueur d’onde et non de son intensité.

La radioactivité :émission continue de rayonnements par l’uranium, source d’une énergie qui semblait inépuisable.

Considérées d’abord comme des anomalies curieuses mais anecdotiques, tous ces faits allaient entraîner une révolution et obliger à prendre en compte la structure intime de la matière et à revoir les notions fondamentales d’espace, de temps et de réalité physique.

7. La Relativité, bouquet final de la Physique classique.

Si l’on observe qu’un objet se déplace, c’est par rapport à un repère considéré comme fixe .On a longtemps pensé que la Terre était immobile, puis on a compris qu’elle tourne sur elle même et autour du soleil .Le soleil n’est pas fixe par rapport aux étoiles, ni les étoiles, ni les galaxies entre elles .Il n’y a pas de référence absolue, pas de mouvement absolu.

La composition des vitesses.

Quand un voyageur se déplace à l’intérieur d’un train ou d’un avion, son mouvement s’ajoute à celui du véhicule qui le transporte .Un projectile lancé d’un véhicule qui se déplace combine également sa vitesse propre à celle du véhicule.

Il s’agit chaque fois d’objets pesants, donc inertes, qu’il faut accélérer pour les mettre en mouvement, mais qu’en est-il de la lumière, onde sans masse ?On avait pensé que la lumière avait besoin d’un support, l’éther, qui aurait été la référence de son déplacement, mais dont les propriétés supposées étaient contradictoires .L’expérience de Michelson et Morley a montré qu’en fait la vitesse de la lumière était indépendante des mouvements de la source et de l’observateur :la lumière n’a besoin d’aucun support pour se propager, et les conséquences en paraissaient paradoxales .Pressenties par FitzGerald, Lorentz et H.Poincaré,elles ont été explicitées par Einstein.

La relativité restreinte.

Lorsque deux observateurs se déplacent l’un par rapport à l’autre à vitesse constante, les mesures que chacun peut faire sur son propre véhicule et sur celui de l’autre, en échangeant avec l’autre des signaux lumineux ne donnent pas les mêmes résultats :les longueurs, le temps et même les masses paraissent différents.

L’une des conséquences en est le paradoxe de Langevin :deux jumeaux dont l’un reste sur terre, tandis que l’autre se déplace à grande vitesse, puis revient, n’ont plus le même âge au retour.5-image-deplacmenet-dans-le-temps

Une autre conséquence de la théorie d’Einstein est que la masse est elle même une forme d’énergie:

E = m C2 C :vitesse de la lumière

Toutes ces déductions de la théorie ont été confirmées par les faits.

La relativité générale.

Einstein a été frappé par l’idée qu’un champ de gravité comme celui de la Terre a des effets identiques à ceux d’une accélération.

Une masse m peut être définie de deux façons: elle attire toute autre masse selon la loi de Newton

f = G M m / d2 c’est la masse gravifique.

Elle oppose son inertie à une force qui l’accélère:

f = m c’est la masse inerte.

L’expérience montre que ces deux masses sont équivalentes

Un objet loin de toute masse importante, qui ne subit aucune force, a une vitesse constante ou nulle .Il en est de même s’il est en chute libre à l’intérieur d’un véhicule prés de la Terre ou en orbite autour d’elle :c’est l’apesanteur .S’il est soumis à une accélération au moyen d’un moteur, il subit le même effet que s’il est immobile sur la Terre :il est attiré vers le bas ou dans la direction opposée à son accélération.

Les conséquences en sont surprenantes, mais ne sont perceptibles que pour de très grandes vitesses, proches de celle de la lumière.

Dans un véhicule animé d’une forte accélération, la somme des trois angles d’un triangle parait supérieure à 180°,et les cotés du triangle paraissent courbes .Le rapport entre la circonférence et le diamètre d’un cercle parait différent de . La lumière elle même semble suivre une trajectoire courbe.

Sur un disque en rotation très rapide au contraire, pour des observateurs situés sur le disque, la somme des angles d’un triangle parait inférieure à 180°,et le rapport de la circonférence au diamètre parait supérieur à .

Ces conséquences ont également été confirmées .On a vérifié que la lumière provenant d’une étoile est déviée au voisinage du soleil, conformément à la théorie.

La relativité générale donne une interprétation géométrique de la gravité :les masses déforment l’espace à leur voisinage.

Malgré ses aspects paradoxaux, la Relativité reste dans le cadre de la Physique classique :elle n’utilise que des grandeurs macroscopiques :longueur,masse, temps, vitesse, accélération ,et ne donne pas la cause profonde des phénomènes .Einstein recherchait avant tout une interprétation globale et harmonieuse du monde.

8.La physique quantique.

Pour interpréter ce que la physique classique ne pouvait pas expliquer, il a fallu créer une physique nouvelle.

Le rayonnement du corps noir.

La première formulation est due à Planck(1858-1947). Elle concerne le rayonnement dit du corps noir :la matière émet et absorbe continuellement de la lumière, ou tout autre rayonnement électromagnétique .On constate expérimentalement que l’énergie rayonnée présente un maximum qui dépend de la température :à température ambiante, il s’agit d’infra-rouge, à 1000°de lumière visible .Pour interpréter ce résultat, Planck dut admettre que les échanges d’énergie se font par quantités discontinues, les quanta, l’énergie d’un quantum étant:

E = h                                h :constante de Planck = 6,61 10-34(SI);     ,fréquence du rayonnement.

L’émission lumineuse des atomes.

La lumière émise par un atome excité se présente sous forme d’une série de raies caractéristiques de l’élément, et non d’un spectre continu perte d’un quantum d’énergie.

L’effet photoélectrique.

Certaines substances, en particulier les métaux alcalins, exposés à la lumière, libèrent des électrons et se comportent comme une pile produisant un courant, mais cet effet n’est possible qu’à partir d’une longueur d’onde suffisamment petite(ou d’une fréquence suffisamment grande):il existe un seuil indépendant de l’intensité de la lumière .Einstein(1879-1955)a considéré que la lumière est formée de particules, les photons, dont l’énergie dépend de la fréquence, selon la théorie de Plank .Cette interprétation allait à l’encontre de tous les résultats de l’optique classique qui considérait la lumière comme une onde.

La radioactivité.

Découverte par Becquerel(1852-1908) et étudiée par Pierre et Marie Curie, elle consiste en une émission de particules et de rayonnements par certains éléments comme l’uranium. Elle s’explique par la décomposition spontanée du noyau des atomes, formés eux mêmes de protons et de neutrons.

Les bases de la physique quantique.

Tous ces résultats sont liés à la nature intime de la matière et du rayonnement :la lumière se propage comme une onde, ce qui se manifeste par les effets d’interférences et de diffraction, mais elle interagit avec la matière comme une particule .La matière est composée d’atomes, constitués eux mêmes d’un noyau massif entouré d’un nuage d’électrons ;le noyau est lui même formé de protons et de neutrons.

Louis de Broglie(1892-1987) a généralisé aux particules matérielles la nature double des photons :à toute particule est associée une onde de longueur d’onde 

λ = h/mv         m :masse de la particule ;     v :sa vitesse ;  h:constante de Planck.

Cette hypothèse a été confirmée expérimentalement peu après par Davisson et Germer: comme la lumière, les électrons peuvent se diffracter et créer des interférences .Le microscope électronique, où les électrons remplacent la lumière, en est une application.

Schroedinger (1887-1961) a donné l’expression la plus générale de la physique quantique dans son équation qui permet de calculer la répartition des électrons dans un système, atome ou molécule .Cette équation s’établit à partir de deux données :la particule se déplace comme une onde ;la longueur d’onde est donnée par la formule de L .de Broglie.

Particules et nombres quantiques.

Une particule peut être caractérisée par des nombres quantiques, entiers ou fractionnaires, qui définissent son état dans un système donné .Par exemple, les électrons dans un atome sont caractérisés par quatre nombres qui précisent leur situation dans l’atome .Le principe de Pauli interdit que deux électrons dans un atome possèdent les quatre mêmes nombres quantiques, ce qui permet d’interpréter leur répartition aux différents niveaux .L’un de ces nombres quantiques est le spin qui, pour les électrons, les protons et les neutrons ne peut prendre que les valeurs +1/2 et-1/2.

D’autres particules peuvent avoir des spins de valeur 0,1ou 2.Le spin peut être interprété de façon imagée comme le sens de rotation de la particule sur elle même.

Les conséquences.

Développées par Bohr(1885-1962)et quelques autres physiciens, elles heurtent le sens commun, mais ont toujours été confirmées par l’expérience .En voici trois exemples:

Le principe d’incertitude(Heisenberg,1901-1976):on ne peut définir rigoureusement à la fois la position et la vitesse d’une particule, non par manque de précision de la théorie, mais à cause de sa nature ondulatoire.

Le chat de Schroedinger :Un chat est enfermé dans un dispositif de mise à mort qui peut être déclenché par une seule particule, mais une particule quantique peut être dans un état hybride entre deux possibilités(spin positif ou négatif par exemple),dont une seule serait efficace .Il en résulterait que l’arrivée de la particule mettrait le chat dans un état hybride également, à la fois mort et vivant. 66-image-du-chat

Ce paradoxe a été explicité tout récemment :on a montré que dans un système formé d’un très petit nombre de particules l’état hybride est effectivement observable, mais que quand le nombre de particules devient plus grand la durée de cet état devient vite pratiquement nulle.

Le paradoxe EPR (Einstein, Podolsky et Rosen). Une autre conséquence de l’équation de Schroedinger est que quand deux particules ont interagi, elles sont décrites par une même fonction d’onde :elles forment un tout indissociable quelle que soit leur distance .On dit qu’elles sont corrélées .Si elles ont par exemple des spins opposés, rien ne permet d’attribuer un signe à chacune tant qu’elles n’ont par interagi avec un dispositif de mesure ou tout autre obstacle ;mais dès que l’une a été observée et caractérisée, le spin de l’autre prend, et à ce moment seulement, une valeur définie .Cette conséquence choquait Einstein qui ne pouvait admettre qu’une particule n’ait pas dès le départ des propriétés définies .L’expérience d’Aspect a montré définitivement que l’interprétation d’Einstein n’était pas valable .Ce résultat a mis fin aux théories dites “à variable cachée”qui supposaient que la physique quantique était incomplète et que ses incertitudes pouvaient s’expliquer par l’existence d’un monde subquantique rigoureusement déterministe. 7-image-poisson-quantique

Les poissons quantiques, images des particules élémentaires, sont solubles dans l’eau tant qu’ils n’interagissent pas .Dès qu’ils interagissent, ils reparaissent en un endroit précis, mais le sexe de chacun est rigoureusement imprévisible .

La radioactivité, phénomène probabiliste.

On peut déterminer sur un échantillon d’un élément radioactif sa durée de demi vie :c’est le temps au bout duquel la moitié des atomes se sont désintégrés.

Exemples:

– Uranium U238 4,5                 109ans

– Plutonium Pu239                  24 000 ans

– Cobalt Co60                            5,9 ans

– Radon Rn222                         3,85 jours

mais il est impossible de prévoir à quel moment un atome isolé va se désintégrer :les données ci dessus sont des moyennes statistiques :la radioactivité est aussi un phénomène quantique.

Les effets quantiques macroscopiques.

Si la plupart des effets de la physique quantique sont à l’échelle des atomes et des particules, quelques uns concernent des quantités de matière beaucoup plus importantes.

La superfluidité, la supraconductivité, s’observent à très basse température, quand les effets quantiques ne sont pas masqués par l’agitation thermique, mais le fonctionnement des lasers et celui des semi-conducteurs sont aussi des phénomènes quantiques.

Les particules et leurs interactions.

Trois particules constituent la matière ordinaire, c’est à dire les atomes:

Particules      masse(en grammes)  masse(en GeV)     charge électrique

– électron     0,9 10-27                      0,511                              -1

– proton      1,6 10-24                       938,3                              +1

– neutron                                           939,6                               0

La masse étant une forme d’énergie peut être exprimée en Giga électronvolt (GeV);l’unité de charge électrique est celle de l’électron qui vaut 1,6 10-19 coulomb(unité SI).

Ces particules sont sensibles à quatre sortes d’interactions:

La gravité, interaction entre les masses selon la loi de l’attraction universelle .Cette interaction n’est appréciable que pour de très grandes masses et insignifiante entre deux particules (masse gravifique).Par contre, la masse inerte des particules intervient si elles sont soumises à une accélération .La relativité a donné une interprétation géométrique de la gravité qui parait actuellement étrangère à la physique quantique.

L’interaction électromagnétique agit uniquement sur les particules portant une charge électrique .Responsable des phénomènes électriques et magnétiques, de la structure électronique des atomes, son agent d’interaction est le photon qui n’a ni masse ni charge électrique.

L’interaction forte est nécessaire à la stabilité des noyaux atomiques formés de protons et de neutrons .Elle est donc plus puissante que l’interaction électromagnétique(les protons positifs se repoussent) et agit aussi sur les neutrons .Elle n’a aucun effet sur les électrons et les photons .Les gluons sont les intermédiaires de cette interaction.

L’interaction faible a été décelée dans la radioactivité ,où un neutron, instable s’il est isolé ou en excès dans un noyau, se dissocie:

n p+ + e +e

Le neutron étant insensible à l’interaction électromagnétique et l’électron à l’interaction forte, c’est l’interaction faible qui est responsable de ce mécanisme .Le bilan énergétique de la réaction a obligé à admettre l’existence d’une quatrième particule, le neutrino e(neutrino électronique),sans charge, de masse nulle ou très faible, et qui n’a été détecté que beaucoup plus tard, car il interagit très peu avec la matière. Les intermédiaires de l’interaction faibles, appelés bosons W+, W et Z0,prévus par la théorie, ont également été détectés récemment.

Le foisonnement des particules et la remise en ordre.

Quelques particules exotiques avaient été détectées dans le rayonnement cosmique provenant de l’espace, mais les accélérateurs géants de particules(électrons ou protons)permettant de créer des chocs très violents ont engendré une centaine de particules nouvelles, négatif.

On a constaté aussi que des particules comme le proton et le neutron ont une structure interne et ne sont donc pas vraiment élémentaires comme l’électron.

La clarification est venue avec Gell-Mann(né en 1929) qui a montré que la diversité des particules s’explique par l’existence d’un petit nombre d’éléments ,les quarks, qui peuvent s’associer par deux ou trois pour former un grand nombre de combinaisons liées par l’interaction forte

Leptons                                           Quarks

e       e                                                 u    d

                                                       s     c

                                                       t     b

Les leptons e, et portent les mêmes charges électriques(+1et-1) et ne diffèrent que par leurs masses .Les neutrinos n’ont pas de charge et une masse très faible ou nulle .Les quarks portent des charges fractionnaires(1/3 ou 2/3),ont une masse et de plus une charge dite de couleur, responsable de l’interaction forte .A ces particules, constituants de la matière, il faut ajouter celles qui assurent les différentes interactions:

Interaction                                          Particules

gravifique                                               graviton(hypothétique)

électromagnétique                                photon

faible                                                      bosons W et Z

forte                                                      gluons

Parmi les associations de quarks, on trouve: le proton (uud),le neutron (udd),et les pions:

                                                                                 u d)        ; (ud)                ;(d d)

Les autres quarks (s,c,t,b) participent à la structure d’autres particules très nombreuses et très instables, auxquelles les physiciens ont attribué des saveurs exotiques :étrangeté, charme, beauté, vérité, et des couleurs bleu, jaune, rouge et leurs anti couleurs, sans aucun rapport avec le sens habituel de ces mots.

La chromodynamique quantique.

On ne peut pas observer des quarks isolés, fortement unis à l’intérieur des baryons (proton, neutron).La force qui les lie, l’interaction forte, serait due à une propriété analogue à la charge électrique, et qu’on appelle charge de couleur .Comme en peinture, il existe trois couleurs fondamentales :rouge, jaune et bleu et les anticouleurs correspondantes, vert, violet et orangé. Chaque quark porte une couleur, et la neutralité est obtenue par association des trois couleurs:

u rouge + u jaune + d bleu p incolore

ou d’une couleur et de son anticouleur:

u rouge + dantirouge + incolore

Seules les particules incolores portent des charges électriques entières et peuvent être isolées:

u(+2/3) + u(+2/3) + d(-1/3) p(charge +1)

u(+2/3) + d(-1/3) + d(-1/3) n(charge 0)

et si l’on tente d’arracher un quark à un baryon, l’énergie mise en jeu crée une paire quark-antiquark.

Les particules d’interaction, les gluons, au nombre de huit, sans masse, sont porteurs chacun d’une couleur et d’une anti-couleur L’interaction forte qui lie les baryons entre eux dans le noyau des atomes,n’est qu’un effet secondaire, à courte portée, de cette force de couleur.

9.La philosophie de la physique.

L’évolution de la physique.

Partie de faits isolés, de disciplines distinctes, comme la mécanique, l’optique, l’électricité, et utilisant rigoureusement la méthode expérimentale, la physique s’est efforcée de s’unifier Elle y est remarquablement parvenue avec Maxwell, par la synthèse de l’électromagnétisme et de l’optique. L’unification consiste à rassembler une grande variété de connaissances dans différents domaines et à les interpréter par des théories plus générales et plus simples dans leur principe, .

Cette tendance s’est encore affirmée dans la physique moderne qui a réduit la variété de la matière à quelques particules élémentaires, et tous les phénomènes à quatre sortes d’interactions, peut-être seulement une ou deux dans une synthèse future.

Les quelques particules encore considérées comme fondamentales ont visiblement quelque chose de commun comme le montre le rapport de leurs charges électriques, et tous les phénomènes ont une monnaie d’échange commune, l’énergie :même la masse est une forme d’énergie .On peut créer des particules massives avec de l’énergie de rayonnement, et les théories actuelles considèrent que dans l’espace même vide se créent et s’annihilent constamment des paires électron-positron. Le vide est-il finement structuré, et tous les phénomènes ne sont-ils que la manifestation de cette structure?

Les questions qui se posent encore nous entraînent de plus en plus loin, mais jusqu’où?

La logique de la physique.

Pour la physique classique, la réalité tangible était un absolu .Elle était rigoureusement déterministe, objective;ses théories prétendaient décrire exactement les faits, et elle n’admettait pas que des systèmes séparés puissent interagir sans un intermédiaire décelable :onde ou objet matériel.

La physique quantique a dû renoncer à cette rigueur absolue :certains phénomènes sont imprévisibles, non par manque d’information, mais par nature, et l’expérience d’Aspect a confirmé que deux particules corrélées, même très éloignées, restent solidaires sans qu’on puisse définir un intermédiaire qui les relierait.

La physique quantique n’en est pas moins valable et très efficace :toutes ses prévisions ont été confirmées avec une grande précision .Si elle n’est pas rigoureusement déterministe, elle justifie le déterminisme de la physique classique qui concerne des objets macroscopiques.

Qu’est-ce que le réel?

Pour les philosophes traditionnels, la réalité est faite de mots qu’ils appellent pompeusement idées, essences…

Pour la physique classique, le monde est fait d’objets et d’actions sur ces objets.

La physique quantique a conduit à des analyses plus subtiles qui reviennent à considérer le réel comme l’ensemble des évènements observables et vérifiables, tels qu’ils nous apparaissent.

Aucune autre science ne pose des questions aussi fondamentales :la vie, malgré sa complexité, se ramène à des phénomènes physico-chimiques à notre portée, alors que les notions de temps, d’espace, d’énergie, de la nature intime des interactions et des particules dépassent encore largement nos connaissances et nos facultés de compréhension.

Si les métaphysiciens traditionnels sont totalement désarmés devant ces problèmes, il en est qui s’y attaquent avec compétence :ce sont les physiciens théoriciens qui font aussi à leur façon de la métaphysique en bâtissant des théories souvent audacieuses. Beaucoup de ces théories ne survivront pas, mais celles qui passent avec succès l’épreuve de l’expérimentation permettent à la physique de faire de nouveaux progrès.

PARADOXE ET IMPERATIFS DE L’ENERGIE par M RIO André

PARADOXE ET IMPERATIFS DE L’ENERGIE

M André RIO
M André RIO

 

L’énergie a quelque chose de paradoxal. C’est à la fois une notion physique abstraite et une préoccupation concrète de tous les temps. Mot emprunté au langage courant, donc subjectif (l’énergie du désespoir), elle se mesure sans états d’âme en mégajoules ou en kilowatts. heure.

L’énergie se définit d’abord en mécanique : c’est la dépense nécessaire pour effectuer un travail : soulever un poids, actionner une machine, ce qui exige une source d’énergie, effort musculaire, chute d’eau, ressort . La notion se généralise avec les autres agents physiques : l’énergie électrique fait tourner les moteurs, fournit de la lumière, et les appareils sont réversibles : si on leur fournit de l’énergie mécanique, ils la transforment en électricité et réciproquement. La lumière aussi peut se transformer en électricité dans les panneaux solaires. Dans les piles et les batteries, c’est l’énergie chimique qui intervient. La théorie de la Relativité considère que la masse, c’est à dire la matière, est aussi une forme d’énergie.

La chaleur aussi est une source d’énergie ; c’est elle qui fait tourner les machines à vapeur, les moteurs des voitures, des bateaux, des avions, les centrales électriques, et qui propulse les avion à réaction et les fusées.

Quel est le bilan de toutes ces transformations ? Dès les premiers temps des machines à vapeur, on s’est rendu compte qu’on ne pouvait pas transformer intégralement la chaleur en énergie mécanique : une partie reste à l’état de chaleur, c’est celle qu’on évacue dans les radiateurs des moteurs et dans les centrales thermiques. De plus, toutes les autres transformations créent plus ou moins de chaleur : les freins, les fils électriques s’échauffent, les réactions chimiques dégagent de la chaleur ; tous les mouvements non entretenus ralentissent et finissent par cesser sous l’effet des frottements. Inexorablement, toutes les formes d’énergie finissent par se transformer en chaleur et les températures par s’uniformiser, la chaleur passant des corps plus chauds aux plus froids.

Cependant, dans toutes les transformations possibles, réversibles ou non, la quantité totale d’énergie reste constante. Dans un système isolé, on ne peut ni en créer ni en détruire, même si elle se dégrade sous forme de chaleur. On ne peut que la faire passer d’une forme à une autre.

Qu’est finalement l’énergie ? On sait la définir et la mesurer sous toutes ses formes, mais qu’ont elles de commun ? Ce n’est pas une substance, un fluide qui imprégnerait la matière et qu’on pourrait isoler à l’état pur. C’est plutôt une monnaie de compte, une abstraction que nous ne pouvons nous représenter concrètement, mais qui s’impose inexorablement dans toutes nos activités. Sans énergie, on ne peut rien faire ; avec de l’énergie, tout est possible.

D’où vient l’énergie dont nous disposons ? L’univers entier peut être considéré comme un système isolé d’énergie constante, et le système solaire lui même reçoit relativement peu de l’extérieur. Le Soleil et les éléments radioactifs sont presque les seules sources appréciables d’énergie. C’est le rayonnement solaire qui a permis la vie et l’accumulation de combustibles fossiles et qui est à l’origine des phénomènes atmosphériques ; l’énergie des marées est empruntée au mouvement de la Terre, de la Lune et du Soleil.

La vie va à l’encontre de la tendance générale à l’uniformisation. Elle crée des êtres hautement structurés qui fabriquent des molécules extrêmement improbables dans un milieu inerte, comme les acides nucléiques et les protéines, mais ce n’est possible que localement, dans des circonstances exceptionnellement favorables, à condition de recevoir de l’extérieur un flux permanent d’énergie qui ne fait que différer l’échéance finale de la dégradation.

Nous avons un besoin vital d énergie, et d’abord de nourriture, mais il nous en faut bien davantage encore pour nous chauffer, nous éclairer, nous déplacer, faire fonctionner nos industries et répondre à toutes nos activités.

On n’a longtemps disposé que de l’énergie animale : bœufs et chevaux tirent les charrues ; les piétons vont à pied, et de moulins à vent ou à eau pour les installations fixes. L’énergie animale ne  fonctionne pas comme une machine thermique : elle transforme directement l’énergie chimique des aliments, d’origine essentiellement végétale, en énergie mécanique et ne crée qu’accessoirement de la chaleur. Son rendement serait meilleur, mais les organismes vivants se fatiguent et exigent de longues périodes de repos ;

Pour les sources d’énergie qu’on ne peut exploiter qu’avec des dispositifs artificiels, on distingue habituellement celles qui sont renouvelables et qui ont pour origine immédiate le Soleil ( à l’exception de l’énergie géothermique) , et les sources fossiles. Les combustibles fossiles sont de l’énergie d’origine solaire stockée au cours des temps géologiques. Quant aux éléments radioactifs, ils sont plus anciens que le système solaire.

La nécessité pressante de disposer de plus en plus d’énergie se heurte à de nombreuses difficultés techniques que viennent encore compliquer de graves conséquences sur l’environnement, des risques de conflits d’intérêts ou d’idéologies et des oppositions fanatiques et obscurantistes.

Les réserves de charbon sont encore très importantes, mais il présente des inconvénients dont l’un des principaux est d’être solide. Son extraction est pénible et dangereuse, sa manutention malaisée, sa transformation en combustibles gazeux ou liquides ou en matières de base pour l’industrie chimique laborieuse. Ses impuretés, comme le soufre, sont une source importante de pollution.

Il n’est pas étonnant qu’on lui ait préféré le pétrole d’emploi beaucoup plus commode et qui  permet un accès beaucoup plus facile à des matières essentielles à l’industrie comme l’éthylène et le propylène. Ses ressources ne sont malheureusement pas inépuisables, pas plus que celles du gaz naturel, et sa répartition géographique n’est pas de nature à assurer une exploitation paisible. Il faudra apprendre à s’en passer, ou tout au moins à en limiter fortement l’utilisation et à le considérer comme une source de matières premières plutôt que comme un combustible.

L’emploi massif  des combustibles fossiles, qui conduit à leur raréfaction, a pour résultat l’émission d’énormes quantités de gaz carbonique dans l’atmosphère, dont on commence à pressentir les conséquences hasardeuses sur le climat.

Que peut-on espérer des énergies renouvelables ? On s’en est longtemps contenté, mais elles ne suffisent plus et elles ont pour principal inconvénient d’être diluées et irrégulières. Il faut des milliers d’éoliennes pour produire autant qu’une centrale thermique ou un réacteur nucléaire, et le vent est très capricieux. La plupart des chutes d’eau utilisables sont déjà utilisées depuis longtemps, tout au moins dans les pays les plus industrialisés. Les panneaux solaires ont un rendement dérisoire, et les combustibles d’origine agricoles, les biocarburants, nécessitent des surfaces énormes, tout en consommant eux aussi de l’énergie pour leur production.

Aucune de ces sources d’énergie n’est à négliger. Elles sont un appoint appréciable mais sont loin de pouvoir satisfaire les besoins actuels. Il faut évidemment éviter les gaspillages, mais on ne fait pas tourner une machine avec des économies d’énergie ; il lui faut une source réelle.

Reste l’énergie nucléaire dont on dit tant de mal et qui soulève tant de passions que beaucoup de politiques n’osent pas en parler par crainte de déplaire. Elle a à la fois de grands avantages et de graves inconvénients. C’est une énergie très concentrée. Pour une même masse de matière, on peut en tirer environ mille fois plus d’énergie que d’un combustible classique, et sans rejeter de gaz carbonique dans l’atmosphère. La surrégénération , qu’on a hâtivement abandonnée en France pour des raisons électorales, permettrait d’en tirer encore cinquante à cent fois plus. Les réserves d’uranium ne sont pas inépuisables, mais elles sont suffisantes pour assurer un long usage, surtout avec les surrégénérateurs. On a proposé aussi l’emploi du thorium.

Le nucléaire a ses dangers qui peuvent être très graves comme on l’a vu à Tchernobyl et au Japon. C’est une technique très sophistiquée qui exige une grande rigueur. Ses opposants insistent beaucoup sur les risques dus aux déchets, mais ce n’est qu’un problème technique, donc maîtrisable, quoi qu’ils en disent. Le plus inquiétant est sa diffusion parmi des irresponsables qui, par incompétence et surtout par malveillance, pourraient provoquer des catastrophes. Il est donc vital qu’il soit étroitement encadré. L’autre version du nucléaire, la fusion, apparaît encore comme un objectif lointain et incertain.

Il ne suffit pas de savoir produire de l’énergie ; Il faut aussi pouvoir l’utiliser selon les différents besoins. Tant qu’il s’agit d’installations fixes, l’électricité peut répondre à la plupart des demandes. Il n’en est pas de même pour les transports, à l’exception des chemins de fer qui peuvent être alimentés en permanence. Pour tous les autres moyens de transport, il faut ou disposer d’une source mobile ou stocker une quantité d’énergie suffisante. Le pétrole répond jusqu’ici assez bien à la première condition, quoiqu’il exige de se ravitailler assez souvent, mais comment le remplacer ? Le nucléaire ne convient que pour de très gros engins : porte-avions, brise- glace, sous –marin. Son emploi reste très limité : aucun avion n’a volé, aucun cargo ou pétrolier n’a navigué, aucune fusée n’a décollé grâce à l’uranium, malgré la grande autonomie qu’il permettrait.

On a construit depuis longtemps des véhicules électriques. La disponibilité du pétrole en a beaucoup limité l’utilisation car, ne pouvant produire leur électricité, ils doivent la stocker, ce qui limite leur autonomie, et, faute de motivation, on n’a pas encore fait assez de progrès pour l’augmenter sensiblement : les batteries sont lourdes, encombrantes, les recharger prend beaucoup de temps et leur capacité est insuffisante, d’autant qu’elle est liée à la quantité d’ions métalliques qu’elle contient, et il peut paraître paradoxal qu’on ait surtout utilisé le plomb, très lourd, alors que le plus léger des métaux, le lithium, n’est pas encore parvenu à le détrôner. On peut espérer des progrès sensibles, mais il n’est pas certain que les batteries soient la meilleure solution.

Peut-on remplacer le pétrole par un autre combustible non polluant et ne dégageant pas de gaz carbonique ? Il n’en existe pratiquement qu’un, c’est l’hydrogène, dont la combustion ne donne que de l’eau et qu’on peut utiliser aussi dans les piles à combustibles où il fournit directement de l’électricité. Il a un autre avantage : c’est l’élément le plus léger, mais deux inconvénients majeurs : si c’est le constituant principal des planètes géantes comme Jupiter, il n’existe pas à l’état libre sur la Terre. Il faut le produire et le stocker.

Disposant d’énergie, on peut le produire par décomposition de l’eau, mais c’est un gaz très léger qu’on doit enfermer sous forte pression dans des récipients lourds et encombrants. Liquide à très basse température, il ne peut être gardé sous pression dans cet état car sa température critique est trop basse. A la pression atmosphérique, on ne peut le conserver liquide qu’un temps limité dans des récipients isolés d’où il s’évapore peu à peu. Sous forme d’hydrures métalliques ou sur des supports poreux, on peut augmenter sa capacité de stockage sous pression, mais au détriment du poids ; bref, on ne connaît pas actuellement de solution satisfaisante.

Au XVIIème siècle, on n’aurait pas imaginé ce que la machine à vapeur allait apporter au XIXème. Le XVIIIème n’a pas davantage prévu l’utilisation généralisée de l’électricité au XXème, et le XIXème l’apparition de l’énergie nucléaire. Le XXème ne nous a pas laissé espérer une source d’énergie plus conforme à nos désirs pour le XXI ème et au delà, sauf peut être la fusion, malgré l’explosion des connaissances et des techniques de plus en plus performantes. L’avenir sera-t-il un progrès ou une régression ? Le principal obstacle ne sera peut-être pas technique, mais l’obstruction des préjugés et des fanatismes dont nous avons des exemples tous les jours.

L’atome en pièces détachées par M RIO André

M André RIO
M André RIO

                               L’atome en pièces détachées

 

Chaque atome est constitué d’un noyau, formé lui même de protons positifs et de neutrons et entouré d’un nuage d’électrons de charge opposée en nombre égal à celui des protons. L’atome est neutre. Il existe une analogie entre l’atome et une planète avec son satellite. Dans un cas, c’est la gravité qui maintient l’ensemble, dans l’autre la charge électrique.

 

Planète et satellite                    Atome d’hydrogène ( 1 proton ; 1 électron )

 

Force centrifuge : f = G M m    / r2                               f = ε e2/ r2

Force centripète           f = 1 /2 m v2                            f = 1 / 2 m v2

G : constante de la gravité  M : masse de la planète  m : masse du satellite

e : charge de l’électron  : , m, sa masse     ε  constante de l’attraction électrique

dans les deux cas, la vitesse v  est liée au rayon  r de l’orbite.

Il faut remarquer que e est très grand et G très petit. Une autre différence fondamentale apparaît, car l’électron est soumis aux lois de la physique quantique. Sauf au moment où il interagit avec la matière il n’est pas bien localisé ; ce n’est pas une petite bille mais une onde diffuse dont la longueur d’onde est liée à son orbite, comme une corde vibrante dont la longueur d’onde dépend de sa longueur. L’équation de Schrödinger permet de définir les différentes possibilités. ( voir page 3 ). Il existe donc un nombre limité d’orbites, selon le nombre d’électrons, qui constituent des couches successives qui sz dédoublent en sous-couches à mesure qu’on a des atomes de plus en plus lourds. La longueur d’onde de l’électron sur son orbite est

l = h / m v       où h est la constante de Planck, clé de la physique quantique, m la masse et v la vitesse de l’électron. De plus, l’électron étant un fermion, il ne peut en exister qu’un seul sur chaque couche ou sous-couche (les bosons au contraire peuvent s’entasser sans contrainte) . Finalement, c’est l’équation de Schrödinger qui permet de déterminer toutes les couches et sous- couches possibles. La lettre psi est la fonction d’onde qui représente la situation de l’électron.

Les conséquences.

            Aux différentes couches et sous-couches correspondent 4 nombres quantiques :

n : fondamental de valeurs entières successives : 1, 2, 3, …

l : secondaire (orbites elliptiques)  0, 1, 2, 3 : …

m : magnétique : valeurs positives, nulle ou négatives –1 ; 0 , + 1…

s : spin  + 1/ 2 ou – 1 / 2

A chaque combinaison de ces quatre nombres correspond une orbite et un niveau d’énergie. La classification périodique des éléments est la conséquence de cette structure ; les éléments sont classés par masses croissantes : un élément possède un proton et un électron de plus que celui qui le précède, et aussi un nombre variable de neutrons, La dernière couche peut comporter de 1 à 8 électrons, mais à partir de n = 4, une nouvelle couche à 8 électrons commence à se remplir, alors que la couche 3 est encore incomplète et se remplit ensuite avec les éléments dits de transition. La cinquième couche comporte de plus 14 électrons correspondant aux lanthanides ou terres rares.            La couche la plus externe comportant 8 électrons au plus (électrons de valence, ces électrons sont mis en commun entre deux atomes, ce qui crée entre eux une liaison chimique, 2 électrons pour une liaison simple 4 pour une liaison double et 6 pour une liaison triple. La valence est le nombre de liaisons que peut contracter un atome. Ainsi le sodium, qui ne possède qu’un électron sur sa couche externe, ne peut se lier qu’une fois, tandis que le chlore, qui en possède 7, peut se lier 1,3,5 ou 7 fois.

Emission et absorption de lumière.

Un atome excité par un choc électrique, un photon ou une température élevée absorbe de l’énergie qui fait passer un électron périphérique de son niveau normal à une couche supérieure libre. Il retombe à son niveau initial en libérant cette énergie sous forme de lumière, un photon dont la fréquence (ou la longueur d’onde) correspond à cette énergie.

E = h n

Le spectre caractéristique d’un élément correspond à une série de sauts possibles. Il peut servir à identifier l’élément et ses différents niveaux d’énergie.

Exemple, la raie double du sodium à 588,99 et 589,59 nanomètres qui donne une lumière jaune.

Les constantes qui assurent l’existence de la matière.

            G : constante de la gravité = 6,672 . 10-11 SI (système international)

C : vitesse de la lumière.

K :constante de Boltzmann = 1,38 ; 10 –23                         K = R/N

                R ; constante des gaz parfaits = 8,04 joules

N : nombre d’Avogadro (nombre d’atomes dans un gramme d’hydrogène)                 = 6,02 ; 10 23 

                h : constante de Planck = 6,61 . 10 –23

Masse de l’électron : 0,9. 10 –30 kg  ou  0,511. 10-3 Gev (giga electronvolt )

Charge de l’électron : 1,6 10 –19 coulomb

e : constante de l’attraction électrique = 9 ;109

Masse du proton : 1,6, 10-27  kg    ou 938 Gev

Masse du neutron : 0,940 Gev.

Toutes ces constantes, et quelques autres, sont telles qu’il existe de la matière stable composée d’atomes stables. Est-ce un hasard ou le résultat d’une sélection ?

STRUCTURE DE LA MATIERE par M RIO André

rio rioSTRUCTURE DE LA MATIERE

Qu’est ce que la matière ? Il a fallu plus de deux millénaires pour avoir un début de réponse.

Le temps des philosophes.

Pendant très longtemps, seuls les philosophes se sont interrogés sur la nature de la matière. N’ayant d’autres connaissances que les données directement apparentes, ils n’imaginaient pas de moyens plus efficaces que la cogitation, méthode infaillible pour s’égarer.

Fluide ou solide, la matière a des aspects très divers, mais sous ces apparences existe-t-il des constituants fondamentaux, des éléments. Ces éléments sont- ils homogènes ou formés d’entités indivisibles, les atomes ?

Si telle était l’opinion des grecs Démocrite et Epicure, elle était rejetée par Aristote, dont les idées vont s’imposer à l’Occident jusqu’au XVIIIème siècle. Pour Aristote, il n’existe que quatre éléments : la terre, l’eau, l’air et le feu, auxquels il associe quatre qualités : le chaud et le froid, le sec et l’humide. Tout minéral, végétal ou animal doit par nature être chaud ou froid, sec ou humide, indépendamment de nos idées actuelles de température et de degré hygrométrique. Ainsi, le diamant est froid et sec, même s’il est plongé dans l’eau bouillante.

L’alchimie.

Des doutes sont apparus au Moyen Age avec le développement de l’alchimie, science empirique interprétant des opérations concrètes par toute une symbolique spiritualiste, mais préparant l’avènement de la chimie. Les alchimistes sont bien obligés de constater que si la terre est un élément, elle est constituée en réalité de nombreuses substances bien définies et bien différentes les unes des autres, des minéraux qu’on appelle alors des terres : la chaux, l’alumine, la silice, ou encore des substances cristallines comme le sel de mer, l’alun et le salpêtre, et aussi les métaux, qu’on rêve de transmuter sans évidemment y parvenir.

Au XVIIème siècle on parle encore d’atomes, mais, Aristote s’imposant toujours, c’est pour nier leur existence par des considérations métaphysiques. Descartes, qui, heureusement pour lui a d’autres mérites par ailleurs, ne croit ni aux atomes ni au vide, car la matière envahit obligatoirement tout espace disponible. Il soupçonne cependant que sous la variété de la matière il doit y avoir une unité cachée. Son disciple Spinoza, mal inspiré, ne retient de Descartes que le pire, et prétend démontrer par un raisonnement simpliste qu’il n’existe point d’atomes.

Le grand Newton lui même s’est égaré dans l’alchimie, y consacrant vainement beaucoup de temps, en tentant d’expliquer l’affinité des corps par l’attraction universelle. Les temps n’étaient pas encore mûrs pour commencer à y voir clair. C’est seulement au XVIIIème siècle que la chimie émerge de l’alchimie ; débarrassée de la métaphysique, elle devient strictement expérimentale.

Les éléments selon Lavoisier.

a-image-lavoisier

Le phlogistique.

Le charbon , le soufre et quelques métaux sont connus depuis longtemps. En 1669, Brandt découvre le phosphore. Au XVIIIème siècle, on se rend compte qu’il existe d’autres gaz que l’air. Le gaz carbonique a été identifié par Van Heltmont en 1648. L’hydrogène est découvert par Cavendish en 1766, l’azote par Rutherford en 1772, L’oxygène en 1773 par Priestley et Scheele, l’ammoniac par Priestley en 1774 et le chlore par Scheele la même année. Toutes ces substances sont-elles des éléments ou des dérivés de l’air, seul élément gazeux selon Aristote ?

Pour expliquer les combustions, Stahl avait imaginé en 1697 une nouvelle théorie avec un nouvel élément, le phlogistique. Un métal est la combinaison d’une terre avec le phlogistique. Quand il s’altère à l’air, c’est qu’il perd son phlogistique. De même, selon Cavendish, l’hydrogène (l’air inflammable) est une combinaison d’eau et de phlogistique ; en brûlant, il libère l’eau qui est un élément. L’azote est appelé air phlogistiqué, l’oxygène air déphlogistiqué. L’air contient-il donc du phlogistique ? Selon cette théorie, respectueuse d’Aristote, les vrais éléments sont l’air, l’eau et le phlogistique.

La théorie a un grave défaut : la perte de phlogistique s’accompagne d’une augmentation de la masse . Le phlogistique a-t-il une masse négative ? Pour sortir de ces incohérences et en finir avec Aristote, il fallait une révolution ; ce fût celle de Lavoisier.

Lavoisier contre Aristote.

Lavoisier montre d’abord que l’air est un mélange de deux éléments, l’oxygène et l’azote, puis que l’eau est une combinaison d’oxygène et d’hydrogène. Dans un mélange, chaque constituant garde son identité, et les proportions peuvent varier. Une combinaison est une substance nouvelle dont les propriétés sont complètement différentes de celles des constituants et dont les proportions sont rigoureusement définies. Il établit aussi que le gaz carbonique résultat de la combustion du charbon ou de la respiration est une combinaison de carbone et d’oxygène. ( le charbon est du carbone impur) . Il montre que les véritables éléments sont soit des métaux, soit des gaz, hydrogène, oxygène et azote, ou des solides  non métalliques : carbone, soufre, phosphore.

Lavoisier a établi aussi l’ébauche d’une nomenclature rationnelle : L’acide sulfurique, l’acide nitrique, les sulfates et les nitrates remplacent les appellations des alchimistes, vitriol, eau forte, sels divers. Cependant, sa fin tragique laisse son œuvre inachevée. Il n’a pas su que des terres, la chaux, l’alumine, la silice, sont les oxydes d’éléments encore inconnus, que le chlore est aussi un élément, et que la chaleur et la lumière (le feu d’Aristote ) n’en sont pas.

On reparle des atomes.

Dès les premières années du XIXème siècle les découvertes se succèdent. Grâce à la pile de Volta (1800) , l’électrolyse permet à Davy en 1808 de libérer de nouveaux métaux : sodium, potassium, calcium. Gay-Lussac et Thénard obtiennent le bore en 1809, Courtois découvre l’iode en 1811, Balard le brome en 1821, Berzelius le silicium en 1822, Wöhler l’aluminium en 1827 et Bussy le magnésium en 1829.

On doit aussi à Berzelius la notation moderne des éléments et de leurs combinaisons par des symboles et des formules. Dès cette époque, on distingue la

chimie minérale de la chimie organique, qui est en fait celle du carbone, beaucoup plus riche que celle de tous les autres éléments. C’est aussi l’époque ou les lois fondamentales de la chimie apparaissent : lois des proportions définies et des proportions multiples. Quand des éléments s’unissent pour former des composés, c’est toujours dans les mêmes proportions. Ainsi, 2 grammes d’hydrogène s’unissent à 16 grammes d’oxygène pour donner 18 grammes d’eau ; 3 grammes d’hydrogène à 14 grammes d’azote pour 17 grammes d’ammoniac. Gay-Lussac montre de plus en 1805 que quand les substances en jeu sont des gaz et qu’on détermine leurs volumes dans des conditions standard, on constate que 2 volumes d’hydrogène s’unissent à 1 volume d’oxygène pour donner de l’eau, et 3 volumes d’hydrogène à 1 volume d’azote pour 2 volumes d’ammoniac. Tous ces résultats suggèrent à Dalton en 1807 que les éléments sont formés d’objets définis, les atomes, qui s’unissent dans des rapports simples pour former des composés, des molécules, et en 1811, Avogadro propose l’hypothèse que toutes les molécules gazeuses occupent le même volume, quelle que soit leur masse. Il faut savoir aussi que les éléments gazeux ,à l’exception des gaz inertes comme l’hélium, existent normalement sous forme de molécules diatomiques :H; N2

En 1847, Berzelius définit les masses atomiques des éléments en tenant compte des proportions selon lesquelles ils s’unissent. Comme on ne connaît pas encore la masse réelle des atomes, on en définit un multiple arbitraire, l’atome-gramme, soit 1 gramme pour l’hydrogène, 12 pour le carbone, 14 pour l’azote, 16 pour l’oxygène et ainsi de suite jusqu’aux plus lourds. On remarque qu’avec une bonne approximation ces masses sont souvent des multiples de celle de l’hydrogène, ce qui laisse supposer une unité fondamentale de la matière qui sera confirmée plus tard.

Dès la première moitié du siècle, de nombreuses données indiquent donc déjà que la matière doit être faite de particules extrêmement petites capables de s’unir, et qu’il pourrait y avoir entre elles une unité fondamentale, mais l’existence des atomes reste encore une hypothèse contestée.

La classification périodique.

On ne pouvait manquer de constater que certains éléments possèdent des propriétés voisines et forment des familles comme les métaux alcalins, lithium, sodium et potassium , ou les halogènes : chlore, brome, iode. De diverses tentatives, c’est celle de Mendeleïev qui s’est imposée à partir de 1869. Les éléments y sont disposés horizontalement par masses atomiques croissantes et verticalement selon leurs ressemblances. A l’époque, on ne connaissait qu’une soixantaine d’éléments et la classification ne comportait que sept colonnes, car on ignorait encore l’existence des gaz inertes, hélium, néon, argon…et un certain nombre d’emplacements restaient vides. Il fallait aussi forcer un peu la classification pour y introduire ce qu’on appelle les éléments de transition comme le fer, ainsi que les terres rares, les lanthanides, mais à mesure qu’on découvrait de nouveaux éléments, ils venaient se placer dans les espaces libres et possédaient effectivement des propriétés conformes aux prévisions. Par la suite, toutes les anomalies apparentes vont s’expliquer grâce à une nouvelle physique, celle des quanta.

N, le nombre d’Avogadro.

Combien y a t-il d’atomes dans un gramme d’hydrogène ? C’est seulement au début du XXème siècle qu’on a connu la réponse, confirmant définitivement l’existence des atomes. Pour y parvenir, il a fallu utiliser des méthodes qui font

b-classification-franceintervenir des grandeurs liées aux caractéristiques des atomes ou des molécules : l’épaisseur d’un film monomoléculaire d’huile sur l’eau ou d’une bulle de savon, la charge électrique de l’électron, l’intensité de la lumière diffusée par les molécules d’un gaz (le bleu du ciel), la diffraction des rayons X, dont la longueur d’onde est de l’ordre de la dimension des atomes, la radioactivité, et le mouvement brownien. Ce dernier, dont la théorie est due à Einstein et la réalisation à J. Perrin a joué un rôle décisif . Il s’agit du mouvement désordonné de particules microscopiques dispersées dans un liquide, qui se comportent comme les molécules d’un gaz qui se déplacent à grande vitesse et s’entrechoquent continuellement. Toutes ces méthodes délicates et quelques autres ont abouti à des résultats convergents :

N = 6,02 10 23

Soit près d’un million de milliards de milliards d’atomes d’hydrogène, dans un volume de 11,2 litres dans les conditions standard, à 0° et à la pression atmosphérique.

La structure des atomes.

Contrairement à leur définition initiale, les atomes ne sont pas insécables, ce que vont révéler diverses expériences. Un filament métallique chauffé placé dans un champ électrique émet des particules négatives, les électrons, qui en sont un des constituants. Un élément radioactif comme le radium se dissocie spontanément en émettant : un rayonnement alpha constitué d’hélions, des noyaux d’hélium positifs ; un rayonnement bêta formé d’électrons et un rayonnement gamma sans charge ni masse, de même nature que les ondes radio, la lumière ou les rayons X , et qui n’est pas un constituant de l’atome mais une forme d’évacuation de l’énergie dégagée par la fission. Une expérience décisive due à Rutherford en 1910 a consisté à diriger un faisceau d’hélions sur une feuille d’or très fine. Si les atomes du métal avaient été formés d une masse homogène, la feuille aurait constitué un obstacle infranchissable. En réalité, presque tous les hélions la traversent sans être perturbés ; seuls quelques uns , 1 sur 2000 environ, sont fortement déviés. Un atome, électriquement neutre, est donc constitué d’un noyau positif extrêmement dense, 1000 fois plus petit que le nuage d’électrons qui l’entoure . Le noyau lui même est constitué de protons positifs en nombre égal à celui des électrons, et de neutrons en nombre variable indispensables pour compenser la répulsion électrique entre protons.

Fallait-il considérer l’atome comme un système solaire en miniature, où les électrons sont retenus par la charge positive du noyau et peuvent se placer à n’importe quelle distance ? S’il en était ainsi, les électrons perdraient de l’énergie sous forme de rayonnement et finiraient par tomber sur le noyau comme un satellite freiné par l’atmosphère, mais il n’en est rien, la structure de l’atome obéit à la physique quantique, et les échanges d’énergie se font par quantités discontinues. Les électrons ne peuvent se trouver que sur des orbites ou des niveaux d’énergie définis. Ils peuvent sauter d’un niveau à l’autre mais ne peuvent se placer nulle part ailleurs. La physique quantique définit une série de niveaux principaux qui se subdivisent en divers niveaux secondaires dont chacun ne peut porter qu’un seul électron. Cette répartition explique la classification périodique des éléments :

premier niveau :                                  2 électrons, 2 éléments .

deuxième et troisième :                      8 électrons, 8 éléments.

quatrième et cinquième :                 18 électrons, 18 éléments dont 10 éléments de transition.

sixième et septième : 32 électrons,32 éléments, dont 10 éléments de transition et 14 lanthanides ou actinides.

Un apport d ‘énergie permet à un électron périphérique de sauter sur un niveau supérieur inoccupé. Il retombe en restituant cette énergie sous forme de lumière, un photon. Chaque élément présente ainsi un spectre formé de raies caractéristiques correspondant chacune à un saut spécifique.

La plupart des éléments possèdent une couche extérieure d’électrons incomplète. Pour la compléter, ils s’associent entre eux en mettant en commun les électrons disponibles, ce qui crée entre eux des liaisons. Ainsi, la molécule d’hydrogène peut être symbolisée par H : H, puisque le premier niveau ne comporte que 2 électrons. Pour obtenir des couches complètes d’électrons, un autre mécanisme peut intervenir, l’ionisation : l’atome de chlore comporte 7 électrons périphériques, le sodium un seul., sur des couches qui peuvent porter 8 électrons. Le chlorure de sodium solide est un empilement d’atomes ionisés, Cl et Na+, qui se dissocie en solution. L’électron abandonné par le sodium complète à 8 la couche du chlore.

Interprétée par la physique quantique, la structure des atomes a donc permis d’expliquer les raies lumineuses qu’ils émettent, la classification périodique, l’association des atomes en molécules et l’unité fondamentale de la matière.

Les particules élémentaires et les interactions.

Trois particules suffisent pour constituer toute la matière : l’électron, découvert en 1897 par J.J. Thomson, et dont la charge électrique a été mesurée par Millikan en 1911 ; le proton, identifié par Rutherford en 1910 ; et le neutron découvert par Chadwick en 1932. Il y a aussi le photon, quantum de lumière, reconnu par Einstein en 1905, qui participe aux échanges d’énergie avec la matière.

Dès la première moitié du siècle, la recherche des rayons cosmiques, puis, quelques années plus tard, les accélérateurs de particules, en révèlent bien d’autres : l’antiélectron ou positon, l’antiproton négatif, des mésons, des neutrinos, prévus longtemps avant d’être détectés, puis une cascade de particules lourdes et instables, au total près d’une centaine, dont on ne comprend pas la raison d’être. C’est en 1960 que Gell-Mann et Zweig proposent une interprétation : la plupart de ces particules, y compris proton et neutron, ne sont pas élémentaires, mais constituées de quelques particules fondamentales les quarks. Comme Mendeleïev avait classé les éléments, on classe ces particules, et là encore des particules d’abord pressenties, puis découvertes, y trouvent leur place. Vers la fin du siècle, le classement est achevé. Il comporte deux sortes de particules, les leptons, dont l’électron, et les quarks, qui se répartissent en trois familles de masses croissantes, et on établit qu’il n’en existe pas d’autres. A chaque particule correspond également une antiparticule de même masse et de charge électrique opposée.

Quelles caractéristiques peut-on attribuer à une particule élémentaire constituant la matière? Elle possède une masse, et une charge électrique qui peut être nulle ou égale à celle de l’électron, ou fractionnaire pour les quarks : 1/3 ou 2/3, positive ou négative. Peut-on leur attribuer une dimension, un volume, une forme ? c’est le cas pour les particules composites comme le proton, non pour les particules réellement élémentaires, les leptons et les quarks. Un électron par exemple n’est pas une petite bille. Quand il se déplace, il se comporte comme une onde lumineuse, peut créer des interférences, et on ne peut lui attribuer une trajectoire définie. On ne peut le localiser que quand il a interagi avec un écran , exactement comme un photon.

Les constituants ultimes de la matière ont des caractéristiques et des propriétés très éloignées de nos intuitions. Ce sont cependant eux qui sont le soubassement de notre environnement familier. Ce qui est remarquable aussi c’est qu’un si petit nombre de particules aboutisse à l’extraordinaire variété de l’univers, grâce à leur possibilité de s’associer en atomes et en molécules.

Il existe quatre interactions fondamentales dont trois concernent directement le comportement des particules. L’interaction électromagnétique, transmise par le photon, particule sans masse ni charge, lie les électrons aux noyaux dans les atomes et les atomes entre eux . L’interaction forte unit les quarks dans les associations qu’ils forment, comme les protons et les neutrons, et ces derniers entre eux dans les noyaux. Elle est assurée par 8 particules sans masse, les gluons, auxquels on attribue des charges dites de couleur. L’interaction faible est incapable de créer des liaisons, mais elle intervient dans la dissociation du neutron en proton et dans la radioactivité. Trois particules y contribuent/ W+, W et Z°, qui avaient été prévus avant qu’on les obtiennent effectivement , et dont les masses avaient été estimées avec une bonne approximation.c-constituants-elementaires

La quatrième interaction, la gravité, n’intervient pratiquement pas dans les propriétés des particules élémentaires. Son quantum d’énergie, le graviton, reste hypothétique, et son statut entre la relativité générale et la physique quantique est encore incertain. Ce qui est remarquable, c’est que le moindre dérèglement dans l’intensité des interactions aboutirait à un univers complètement chaotique où aucun atome ne pourrait subsister. Le notre est-il dû à un concours de circonstances exceptionnel ?

Les liaisons et les états de la matière.

Toutes les liaisons entre les atomes sont assurées par leurs électrons périphériques. Les plus fortes contribuent à la stabilité des molécules, ce sont les liaisons covalentes, mises en commun d’électrons, comme dans la molécule d’hydrogène ou les composés du carbone ; la liaison ionique des sels comme le chlorure de sodium, et la troisième, la liaison semi-ionique, où au lieu d’une mise en commun de deux électrons, un seul des atomes en apporte deux. On trouve ces liaisons entre le soufre ou le phosphore et l’oxygène dans les sulfates et les phosphates. Toutes ces liaisons sont durables et contribuent à la stabilité de l’état solide, qui dépend aussi de la masse des molécules et de la température. Cet état est ordonné dans les cristaux, désordonné dans le verre et certaines matières plastiques. Dans les métaux, la cohérence est due à la mise en commun d’électrons libres qui assurent également la conductibilité électrique.

Il existe aussi d’autres liaisons beaucoup plus faibles : la liaison hydrogène, liaison éphémère entre l’atome d’hydrogène d’une molécule et un atome d’oxygène ou d’azote d’une autre, qui se fait et se défait constamment. C’est cette liaison qui fait que l’eau est liquide au dessus de 0°, contrairement à l’hydrogène sulfuré de constitution analogue qui est gazeux. Au dessous de 0°, cette liaison devient stable et l’eau gèle.

Une autre liaison faible, la liaison polaire, est due à ce que dans une molécule d’acétone par exemple, où il existe une double liaison entre un atome de carbone et un atome d’oxygène, le nuage d’électrons qui assure cette liaison est attiré plus fortement du côté de l’atome d’oxygène. La dissymétrie qui en résulte crée une attraction entre les molécules : l’acétone est liquide alors qu’un composé proche, le propane, est gazeux.

Une dernière attraction, plus faible, est due à ce qu’on appelle la force de Van der Waals : quand deux molécules se rapprochent, elles modifient légèrement la répartition des électrons qui assurent leur cohésion, faisant apparaître des charges de signes opposés qui provoquent une faible attraction entre des molécules d’hydrocarbures par exemple, insensibles aux liaisons hydrogène et polaire.

Toutes ces liaisons contribuent aussi à la solubilité ou à la miscibilité des solides et des liquides. Si huile et eau ne se mélangent pas, c’est qu’il n’existe pas d’attraction suffisante entre leurs molécules, alors que les molécules d’eau ou d’huile se lient facilement entre elles. Les émulsionnants, capables de se lier à la fois aux unes et aux autres, permettent de les mélanger intimement comme dans la mayonnaise.

Les limites de la physique quantique.

Si la physique quantique a expliqué un grand nombre de phénomènes, elle laisse des questions fondamentales sans réponse. Comme toute théorie, elle a ses limites qui s’expriment par exemple par les limites de Planck . Il s’agit de grandeurs qui s’expriment à partir de quatre constantes fondamentales exprimées ici en unités internationales :

G : constante de la gravité = 6,172.10-11

C : vitesse de la lumière = 3. 108

h : constante de Planck = 6,61. 10-34

K : constante de Boltzmann = 1,38. 10-23

Ces limites ont les valeurs suivantes :

Masse de Planck : 2.10-5 grammes

Longueur : 1,5. 10-33 centimètre

Temps : 10-43 seconde

Température : 1032 °K

Densité : 1093 grammes par millilitre

Energie : 1019 GeV, soit 1,8. 1014 joules ou 500 Kw.h.

Il s’agit de valeurs extrêmes qui bornent les prévisions de la théorie, sans qu’on puisse affirmer qu’il s’agit de ses propres limites ou d’un obstacle physique réel, La masse est le minimum nécessaire pour qu’une particule puisse s’effondrer sous son propre poids , sachant que toute particule est associée à une onde qui ne peut être confinée dans une volume de dimension inférieure à la longueur de Planck. Le temps de Planck est la période de vibration de cette onde, la densité celle de la masse concentrée dans le volume correspondant à la longueur d’onde ; l’énergie, celle de la masse de Planck selon la relativité (E = m C2) , et la température le niveau d’agitation provoqué par cette énergie. Ce sont donc les conditions les plus extrêmes que puisse décrire la physique quantique, mais qu’en est-il au delà ? On peut remarquer les valeurs énormes de la densité et de la température, et infimes de celles de la longueur et du temps.

On considère l’espace vide comme renfermant une énergie virtuelle capable de se matérialiser constamment en particules fugitives qui disparaissent aussitôt. Des théories encore non confirmées essaient d’aller plus loin : l’hypothétique boson de Higgs expliquerait la masse des particules et la théorie des cordes les assimile à des segments linéaires capables de vibrer de différentes façons correspondant aux diverses particules et tente de concilier quanta, gravité et relativité générale. La supersymétrie envisage de nouvelles particules encore non observées correspondant à celles connues par un changement de spin. Enfin l’astronomie a apporté des faits nouveaux dont les trous noirs, la matière noire et l’énergie sombre.

Les trous noirs. Pour chaque astre, on peut calculer une vitesse de libération, vitesse minimale pour qu’un objet à sa surface puisse échapper complètement à son attraction. Pour la Terre par exemple, cette vitesse est de 11 km par seconde, et pour un astre suffisamment massif et suffisamment condensé cette vitesse peut atteindre celle de la lumière : rien même la lumière ne peut lui échapper. L’astronomie a pu montrer que de tels astres existent effectivement. C’est le sort d’étoiles massives en fin de vie, mais il en existe de bien plus massifs au centre des galaxies qui peuvent atteindre des millions de masses solaires. Ils ne se manifestent que par l’attraction qu’ils exercent sur leur environnement.

La matière noire. L’observation du mouvement des étoiles dans les galaxies et des galaxies entre elles ne peut s’expliquer que par la présence d’une matière pesante qui enveloppe les galaxies mais n’interagit pas autrement avec la matière ordinaire et n’émet aucun rayonnement observable

L’énergie sombre, au contraire semble répartie uniformément dans l’espace et expliquerait que l’expansion de l’univers, que l’on pensait se ralentir peu à peu, s’accélère au contraire depuis quatre milliards d’années.

Au total, la matière ordinaire ne représenterait que 4% environ de l’énergie totale de l’univers et la matière noire un tiers, le reste étant constitué par l’énergie sombre dont la nature, comme celle de la matière noire, reste inconnue malgré diverses hypothèses à confirmer. L’évolution des connaissances se fait par sauts. Chaque fois qu’un phénomène est expliqué, c’est pour révéler de nouveaux inconnus dont l’ultime, au delà du Big-Bang, est peut-être l’origine de l’énergie qui constitue l’univers.

En conclusion, la physique quantique explique en grande partie les propriétés de la matière. Elle montre que les échanges d’énergie entre rayonnement et matière se font par quantités discontinues, les quanta ; que les particules élémentaires se comportent comme des ondes quand elles se déplacent et comme des objets ponctuels quand elles interagissent. Elle explique la structure et les propriétés des atomes et des liaisons qu’ils établissent entre eux pour former des molécules.

En contradiction avec notre intuition, mais confirmée par l’expérience, elle interprète le comportement des particules corrélées qui agissent comme un objet unique quelle que soit la distance qui les sépare.

Malgré ses succès remarquables elle a ses limites qui semblent indiquer que la nature profonde de l’espace et du temps réclament une nouvelle approche.

LA RADIOACTIVITE ET L’ENERGIE NUCLEAIRE par M André RIO

LA RADIOACTIVITE ET L’ENERGIE NUCLEAIRE

rio rio

   1.L’atome avant l’ère nucléaire.

   2.La classification périodique des éléments.

  3.Les grandes étapes de l’ère nucléaire.

 4.Structure de l’atome.

 5.Radioactivité et réactions nucléaires.

  6.La fission de l’uranium.

  7.Les applications.

   8.La fusion thermonucléaire.

  9.Conclusions.

 

       1.L’atome avant l’ère nucléaire.

Au début du XIXème siècle, on sait que toute matière est formée à partir de quelques dizaines d’éléments dont le carbone, l’hydrogène, l’azote, l’oxygène, le soufre, le phosphore…et les métaux, et que ces éléments ne peuvent être transformés les uns dans les autres .On commence à penser qu’ils sont formés de particules, les atomes, car ils se combinent entre eux selon des proportions définies et discontinues.

Dans la seconde moitié du siècle, les notions se précisent :chaque espèce d’atome est capable de se lier à d’autres un nombre défini de fois :c’est sa valence, et les molécules, associations d’atomes, ont une structure géométrique définie .On découvre de nouveaux éléments ;leur nombre double (d’une trentaine à une soixantaine) et on constate qu’ils forment des familles dont les propriétés sont voisines .On les définit par leurs masses atomiques en prenant par convention l’hydrogène de masse égale à 1 gramme ou le carbone de masse 12 grammes, dont on déduit les autres, selon les proportions dans lesquelles ils s’unissent. On remarque que beaucoup, parmi les plus légers, ont des masses atomiques multiples de celle de l’hydrogène.(Tableau.1).Cependant, on ne possède pas encore de preuve directe de l’existence des atomes, et beaucoup de physiciens et de chimistes de l’époque refusent d’y voir autre chose que des considérations philosophiques sans valeur scientifique.

MASSES ATOMIQUES

                                        H = 1,008            Na =22,98

                                        C = 12,01            Al=26,98                                                                                                                      N =14,00             P = 30,97

                                         O = 15,999         S = 32,06

2.La classification périodique.

En 1869, Mendéléïev propose une classification des éléments par masses atomiques croissantes, où se rassemblent en colonnes verticales ceux qui ont des propriétés communes, la valence en particulier .Dans les places encore vides, il prévoit l’existence et même les propriétés d’éléments encore à découvrir .Accueillie d’abord avec beaucoup de scepticisme, sa classification s’imposera de plus en plus par la suite avec la découverte des éléments manquants et de la structure intime des atomes.(Tableau 2).

A la fin du siècle, on peut donc considérer les atomes comme des particules absolument stables, qui peuvent s’associer entre elles pour former des molécules, mais qui ne peuvent être ni modifiées ni créées ni détruites.

                                   Classification périodique (extrait).

                        Colonnes        1    2                                      3    4    5    6    7    8

            Nombre d’éléments

 

                        2                      H                                                                             He                                              

                          8                      Li    Gl                                    B    C    N   O    F   Ne 

                        8                      Na   Mg                                 Al   Si   P    S    Cl  Ar

                        18         K…..                                                                                                                     

                                18            Rb ….                                                                                                                            

                                                Cs    Ba   La ….                       Tl   Pb  Bi  Po  At Rn

                        32                    Fr     Ra   Ac   Th   Pa   U….

  3.Les grandes étapes de l’ère nucléaire

Le tableau 3 donne les dates des découvertes fondamentales et des évènements qui ont marqué cette époque .La découverte des rayons X et des ondes hertziennes montre qu’il existe bien d’autres rayonnements que la lumière visible .Celle de la radioactivité établit que tous les atomes ne sont pas parfaitement stables, que des transmutations sont possibles, et qu’elles mettent en jeu des énergies considérables, bien supérieures à celles des réactions chimiques comme les combustions.

On découvre ensuite que les atomes sont eux mêmes formés d’un noyau massif entouré d’un nuage d’électrons, et que le noyau est constitué de deux sortes de particules, les protons et les neutrons .Leur structure obéit à des règles précises qui expliquent la classification périodique .Les noyaux peuvent se briser, spontanément pour les éléments radioactifs, sous l’effet d’un choc très violent pour les autres .Ainsi, le noyau d’uranium peut subir une fission avec un grand dégagement d’énergie, ce qui conduira à la bombe atomique et aux centrales nucléaires .La fusion des noyaux d’hydrogène en hélium est une source encore plus puissante d’énergie

1895.Roentgen;les rayons X.

1896.Becquerel.La radioactivité de l’uranium.

1898.Pierre et Marie Curie .Le radium.

1915.Bohr.Structure de l’atome.

1934.Chadwick.Le neutron.

1935.Irène et Frédéric Joliot-Curie .La radioactivité artificielle.

1938-1939.Hahn,Strassmann et L.Meitner.La fission de l’uranium.

1939.Lettre d’Einstein à Roosevelt pour l’avertir des possibilités de la fission.

1942.La pile de Fermi.

1943.Construction de l’usine d’Oak Ridge .

1945.16 juillet, Los Alamos;6 août, Hiroshima;9 août, Nagasaki.

1952.Eniwetok.La bombe H.

  4.Structure de l’atome.

Les atomes sont extrêmement petits, leur diamètre étant de l’ordre du dixmillionnième de millimètre ou 0,1 nanomètre .Leur masse atomique conventionnelle est leur masse réelle multipliée par le nombre d’Avogadro:

N = 6,02 .10puissance 23

C’est le nombre d’atomes contenus dans un gramme d’hydrogène ou 12 grammes de carbone .Ce nombre est très grand :un gramme d’uranium radioactif, dont la moitié exige pour se décomposer cinq milliards d’année, se dissocie au rythme de plusieurs centaines d’atomes par seconde.

Tout atome est constitué d’un noyau compact qui renferme l’essentiel de sa masse, chargé d’électricité positive, et d’un nuage d’électrons négatifs ,l’ensemble étant neutre .Le noyau est dix mille fois plus petit que l’atome ;sa densité est donc énorme (3 milliards de tonnes par millilitre). Il est formé de protons positifs et de neutrons sans charge .Protons et électrons sont nécessairement en nombre égal ;le nombre de neutrons est variable, ce qui fait qu’un même élément peut être formé d’atomes différents, les isotopes, dont les propriétés sont très voisines, à l’exception de la stabilité du noyau .Un atome est donc défini à la fois par son numéro atomique, égal au nombre de protons, et par la somme des protons et des neutrons, équivalent à sa masse atomique .Ainsi, le carbone, de numéro atomique 6,possède 3 isotopes, le carbone 12 ordinaire et ses isotopes 13 et14.

Un noyau ne peut être formé uniquement de protons dont les charges électriques se repoussent .La plupart des éléments légers possèdent des protons et des neutrons en nombre à peu près égal; les plus lourds sont plus riches en neutrons.

La force qui lie les électrons aux noyaux est l’interaction électromagnétique, régie par la physique quantique. Elle impose que chaque électron se situe à un niveau d’énergie particulier, et les échanges d’énergie se font par sauts entre ces niveaux avec émission ou absorption de rayonnement.

Les particules du noyau, protons et neutrons, sont liées par une force beaucoup plus intense, ’interaction forte. Il existe aussi une interaction faible, très insuffisante pour unir des particules, mais qui intervient dans les mécanismes de la radioactivité, par exemple la dissociation du neutron qui libère un proton, un électron et un neutrino. Cette dernière particule n’a pas de charge électrique et possède une masse excessivement faible. Elle interagit très peu avec les autres particules.

La structure de l’atome explique la classification périodique des éléments: le passage d’un élément au suivant correspond à l’addition d’un proton dans le noyau (éventuellement de neutrons) et d’un électron à l’extérieur. Les électrons se répartissent successivement sur des couches dont la première est saturée par deux électrons, les deux suivantes par 8,les quatrième et cinquième par 18 et les dernières par 32 électrons.

Les atomes dont la couche externe est incomplète s’unissent par mise en commun d’électrons afin d’atteindre un état stable. C’est ainsi que s’établissent les liaisons chimiques dans les molécules. Les noyaux ne jouent aucun rôle actif dans ces liaisons.

5.Radioactivité et réactions nucléaires.

Le radium, dont la durée de demi-vie est de 2440 ans, émet continuellement trois sortes de rayonnements: un rayonnement a, constitué de noyaux d’hélium ou hélions (He2+),à la vitesse de 2000 km par seconde. Ce rayonnement peut traverser quelques cm d’air, et il est faiblement dévié par un champ magnétique. Il est accompagné du rayonnement b formé d’électrons (e-) à la vitesse de 200 000 à 290 000 km par seconde, qui peut franchir quelques mètres d’air et qui est fortement dévié par un champ magnétique.

Ces rayonnements peuvent être détectés par divers moyens: films photographiques, compteurs Geiger sensibles à l’ionisation de l’air; écrans fluorescents; détecteurs à scintillation couplés à des photomultiplicateurs; les chambres de Wilson; les chambres à bulles et plus récemment les chambres à fils de Charpak.

Chaque isotope radioactif se caractérise par sa période ou durée de demi-vie: c’est le temps nécessaire pour que la moitié de ses atomes se dissocie, la durée de vie d’un atome isolé étant aléatoire.

            Périodes de quelques éléments radioactifs

                                   Neutron*                      13 minutes

                                   Carbone 14                   5700 ans

                                   Cobalt 60                       5,9 ans

                                   Radon 222                    3,85 jours

                                   Uranium 235              2 milliards d’années

                                   Uranium 238              4,5 milliards d’années

                                   Uranium 239               20 minutes

                                   Plutonium 239            24 000 ans

                                   *Les neutrons dans les noyaux sont stables

En se dissociant, les noyaux radioactifs se transforment en éléments plus légers. Il peut se produire une cascade de décompositions qui aboutit à un élément stable.  Exemples :

Transformation de quelques éléments radioactifs

                        U 238  ⇒ Ra 226 ⇒Rn 222 +He 4⇒… Pb 206 stable

                        U 235Ac ⇒…⇒Pb 207 stable

                        Th 232 ⇒…⇒ Pb 208 stable

                        Np 237 ⇒…⇒ Bi 209 stable

L’énergie libérée par la radioactivité est liée à une perte de masse. Einstein avait montré que la masse est une forme d’énergie

E = m.C2

C étant la vitesse de la lumière. Si l’on savait transformer intégralement la masse en énergie, une dizaine de kg suffirait à la production annuelle de l’Electricité de France. On en est loin, et seule une faible partie de la masse des matières radioactives est transformée. L’énergie libérée est emportée sous forme d’énergie cinétique des fragments obtenus. En les ralentissant, on récupère cette énergie sous forme de chaleur. La chaleur d’un fluide n’est rien d’autre en effet que l’agitation de ses molécules. Le tableau ci-dessous donne la vitesse moyenne de l’oxygène et de l’hélium à différentes températures. Cette vitesse dépend de la nature du gaz, les molécules plus lourdes étant plus lentes.

Température et vitesse moyenne des molécules

            T = 300°K (27°C)                  v = 500 m/sec (oxygène)

                                                                v = 1400 m/sec (hélium)       

            T = 600°K (327°C)                v = 700 m/sec   (oxygène)

                                                                 v = 2000 m/sec  (hélium)

            T = 600 millions (°K)         v = 2000 km/sec (hélium)

Avec leurs fourneaux à charbon de bois, les alchimistes étaient très loin de remplir les conditions, les centaines de millions de degrés, nécessaires pour provoquer des transmutations.

La radioactivité artificielle s’obtient en bombardant des noyaux stables avec des particules de haute énergie, c’est à dire animées de grandes vitesses, provenant de la radioactivité naturelle, des rayons cosmiques ou des accélérateurs de particules. Le tableau 7 en donne trois exemples.

            La radioactivité artificielle ou provoquée.

                                   Al 27 + He 4  P 30 + n “⇒ Si 30 + e+

                                   Co 59 + n Co 60 + g ⇒ Ni 60 + e + 2g

                                   N 14 + n  C 14 + H

Le premier exemple, qui transforme l’aluminium en phosphore radioactif et celui-ci en silicium est historique(Joliot-Curie). Le second sert à l’obtention du cobalt radioactif; le dernier se produit dans l’atmosphère sous l’effet des rayons cosmiques et transforme l’azote en carbone 14 radioactif utilisé pour la datation des matières carbonées. D’autres transmutations spontanées beaucoup plus lentes, comme celle du potassium radioactif en argon, sont utilisées pour dater des roches anciennes pouvant être âgées de milliards d’années.

    6.La fission de l’uranium.

L’uranium naturel renferme trois isotopes:

U 238              99,3%

U 235              0,7%

U 234              0,008%

L’uranium 238,le plus abondant, se transforme en plutonium après absorption d’un neutron:

U 238 + n ⇒ U 239 ⇒ Np 239 + e

Np 239 ⇒ Pu 239 + e

La durée de vie de l’uranium 239 est de 20 minutes, celle du neptunium 239 de 2,3 jours, et celle du plutonium 239 de 24 000 ans. C’est donc ce dernier qui subsiste en quantités importantes.

L’uranium 235 se comporte différemment: après absorption d’un neutron, il fissionne en éléments plus légers: xénon, césium, baryum, lanthane, cérium, molybdène, niobium…Certains de ces éléments, trop riches en neutrons, donc instables, libèrent de nouveaux neutrons qui provoquent de nouvelles fissions.  minutes) .La réaction se propage et peut s’emballer.

Il existe d’autres éléments fissibles: le plutonium 239 et l’uranium 233.Ce dernier peut s’obtenir par action d’un neutron sur le thorium 232. Le physicien Carlo Rubbia a proposé de construire sur cette base des réacteurs à thorium excités par une source extérieure de neutrons, ce qui supprimerait tout risque d’emballement.

La vitesse des neutrons a une grande influence sur leur comportement: on distingue les neutrons rapides, provenant directement de la fission, et qui favorisent la formation de plutonium à partir de l’uranium 238,et les neutrons lents dits thermiques obtenus après ralentissement, qui sont plus favorables à la fission de l’uranium 235.

7 Les applications.

Les bombes A (atomiques) ont été la première utilisation de la fission. Il fallait disposer de matériel fissile concentré(90% environ)en quantité critique(quelques kg),uranium 235 ou plutonium 239.Réunie brusquement en une masse compacte,  limitée par la masse critique.

Dans les piles et les réacteurs, la masse critique est diluée dans l’uranium 238 non fissile, et la réaction est contrôlée pour éviter l’emballement tout en maintenant la réaction. On a d’abord utilisé l’uranium naturel, puis l’uranium enrichi à environ 3% de l’isotope 235 ou avec du plutonium. Il existe différent dispositifs ou filières résumées dans le tableau                                         

             Les filières

  • Ralentisseurs: Eau; Eau lourde; Graphite.
  •  Refroidissement: Gaz carbonique; Eau; Eau lourde; Sodium.
  •  Contrôle de la fission: Cadmium; Bore.
  •  Combustibles: Uranium 235;Plutonium 239.
  • Neutrons thermiques ou rapides.      

                                               Exemples:

  • Eau lourde Uranium naturel: Pile EL expérimentale de Brennilis (démontée).
  • Graphite Gaz: Anciens réacteurs de l’EDF.
  • Graphite Eau: Tchernobyl.
  • Uranium enrichi Eau: Réacteurs actuels de l’EDF.

                        Ces quatre filières utilisent des neutrons thermiques.

            Uranium 238;Plutonium;Sodium:Phénix et Superphénix (Neutrons rapides).

Les centrales atomiques sont destinées essentiellement à la production d’électricité. Les réacteurs libèrent leur énergie sous forme de chaleur, transmise au moyen de vapeur d’eau comme dans les centrales thermiques classiques, et, comme dans ces dernières, la chaleur ne peut être transformée intégralement en énergie électrique. L’excès de chaleur doit donc être évacuée. On utilise le refroidissement par l’air, par l’eau d’un fleuve ou l’eau de mer, ou sous forme de vapeur d’eau comme dans la centrale du Bugey. Cette chaleur peut aussi être récupérée pour le chauffage urbain et les cultures, mais ne peut être transportée à longue distance, car les pertes seraient trop importantes.

La condition essentielle à réaliser pour le bon fonctionnement d’un réacteur est la gestion des neutrons: il faut se tenir à la limite entre l’arrêt de la réaction et son emballement. Ce contrôle est possible grâce aux neutrons retardés dont on commande la concentration au moyen d’éléments comme le bore ou le cadmium, absorbeurs de neutrons.

Les réacteurs à uranium naturel, pauvres en isotope 235, ne peuvent utiliser l’eau ordinaire comme ralentisseur, car elle absorbe trop les neutrons.  et elle est utilisable.

Le combustible des réacteurs s’empoisonne peu à peu avec les sous-produits de la réaction: il se forme de nombreux éléments capables d’absorber les neutrons, et de plus les enveloppes des barres de combustible se dégradent. Il faut donc les changer bien avant l’épuisement de la matière fissile. Le retraitement du combustible est possible; il permet de récupérer l’uranium restant et le plutonium formé, mais c’est une opération délicate et coûteuse à cause de la forte radioactivité résiduelle.

   8.La fusion thermonucléaire.

Les noyaux d’hydrogène, de ses isotopes le deutérium et le tritium, et de l’hélium 3, peuvent fusionner en hélium 4 .La masse de 4 atomes d’hydrogène est de 1,0079 x 4 = 4,032g; celle de l’atome d’hélium 4 de 4,003g. La différence, de 3% environ, correspond à la masse transformée en énergie. L’énergie libérée par la fission est de 0,8 MeV (mégaélectronvolt) par proton, celle de la fusion D + He3 de2,8 MeV. La fusion de 4 atomes d’hydrogène libèrerait 7 MeV par proton. La fusion est donc plus énergétique que la fission, mais sa réalisation contrôlée est beaucoup plus difficile. On a su réaliser assez rapidement des bombes H (bombes à hydrogène),dont la charge n’est pas limitée par une masse critique comme celles des bombes A, mais l’utilisation de la fusion pour la production d’électricité demandera  encore bien des années, si toutefois on y parvient.

Pour réaliser la fusion, il faut remplir simultanément trois conditions:

  • une concentration suffisante des réactifs,
  • une température et une durée suffisantes.

La température en particulier doit être de plusieurs millions de degrés. Deux sortes de dispositifs sont étudiés, les uns à faible concentration mais à durée plus longue,tels les TOMAWAK, appareils de grande taille où les réactifs gazeux sont concentrés par des champs magnétiques intenses au centre d’un tore et chauffés par des décharges électriques, les autres où les réactifs, enfermés dans un petit volume sont concentrés par implosion au moyen de lasers puissants. On a bien réalisé la fusion par ces procédés, mais on est encore très loin de disposer d’installations industrielles exploitables.

9.Conclusions.

L’énergie nucléaire présente par rapport aux énergies classiques des avantages et des inconvénients.

C’est une forme concentrée d’énergie qui permet d’obtenir dans des installations de dimensions beaucoup plus faibles des puissances très élevées, avec des tonnages de combustibles considérablement plus petits, et un approvisionnement garanti pour longtemps sans les aléas des ressources pétrolières. De plus, il n’y a pas de pollution massive de l’atmosphère par les gaz de combustion (gaz carbonique, oxyde de soufre, oxydes d’azote, fumées).

Elle peut être très dangereuse si elle est mal maîtrisée; les installations sont très complexes, les sous-produits radioactifs très nocifs même en faibles quantités. Le transport, le traitement et le stockage des déchets exigent des précautions extrêmes.

On ne disposera donc pas dans un avenir prévisible d’une source d’énergie qui soit à la fois abondante, peu coûteuse et sans danger.

MINERAUX, MINERAIS ET METAUX. par M André RIO

MINERAUX, MINERAIS ET METAUX.

par M 118-1897_imgAndré RIO

Nature des minéraux.

Les éléments et leurs combinaisons.

Les cristaux.

Les minerais.

Principaux minerais.

Origine géologique des minerais.

Traitement des minerais.

Des minerais aux métaux.

Réduction des oxydes.

Le plomb argentifère.

La sidérurgie.

L’aluminium.

.
La croûte terrestre renferme des quantités de minéraux, essentiellement des silicates, mais on y trouve aussi des gisements enrichis en différents composés métalliques, les minerais, à partir desquels on peut obtenir les métaux correspondants.

Nature des minéraux.

Il existe une centaine d’éléments dont la plupart sont des métaux, mais aussi des éléments non métalliques (Fig.1) qui se trouvent combinés aux métaux, et quelques éléments intermédiaires comme l’arsenic, l’antimoine, le bismuth, le silicium. es métaux se caractérisent par leur opacité, leur reflet, a conductibilité de l’électricité et de la chaleur.
ous les éléments non radioactifs sont extrêmement stables, et les rêves de transmutation des anciens alchimistes étaient totalement irréalisables avec les moyens dont ils disposaient. Une légende parmi les anciens mineurs des mines de plomb argentifère prétendait que le plomb se transformait lentement en argent et qu’il suffisait d’attendre, Le plus stable n’est d’ailleurs ni l’argent ni l’or mais le fer dont on dispose abondamment.
Les combinaisons d’éléments, les liaisons entre atomes, sont beaucoup moins stables, et quelques milliers de degrés suffisent pour les détruire toutes. Ce sont ces combinaisons qui font toute la variété des minéraux.(Fig.2).La plupart des métaux se trouvent dans la nature sous forme d’oxydes, e sulfures ou de chlorures.
La composition globale des combinaisons ne renseigne pas sur leur structure. Par exemple le gaz carbonique (CO2) et la silice (SiO2), Fig.3),sont l’un un gaz qui ne se condense qu’à -79°, l’autre un solide qui ne fond qu’à 1750°,mais si le premier est formé de petites molécules de trois atomes, Il en résulte évidemment des propriétés très différentes.
Les silicates d’aluminium et de magnésium, constituants essentiels des roches, ont des structures analogues à celle de la silice, dans laquelle s’intercalent les atomes de ces deux métaux. Il en existe une très grande variété qui peut avoir une forme fibreuse comme l’amiante, lamellaire comme le mica ou le talc, ou le plus souvent tridimensionnelle et rigide. Ces structures peuvent être désordonnées, donc amorphes, comme l’opale, l’agate ou le silex .C’est également le cas des matériaux artificiels: Les céramiques: poteries, faïences et porcelaines obtenues par cuisson d’argile ou de kaolin; des ciments, silicates d’aluminium et de calcium, à partir d’argile et de calcaire, et des verres, silicates de sodium et de calcium.
Cependant, la plupart des minéraux sont cristallins. Ils ont une structure ordonnée où les atomes sont rangés régulièrement, ce qui fait que leur surface présente des facettes planes et des angles définis. Il existe sept systèmes cristallins (Fig.4) qui présentent chacun des symétries particulières. Les cristaux naturels ont pu se former à partir de roches fondues ou de solutions minérales chaudes en profondeur ou froides comme pour les concrétions des grottes.
Les pierres précieuses sont soit des minéraux amorphes, soit des cristaux naturels d’aspect esthétique souvent colorés par des traces de métaux: le rubis est de l’alumine cristallisée colorée par du chrome, le saphir par du titane, ’émeraude par du glucinium. La silice est le constituant du cristal de roche(le quartz) et de l’améthyste ;le grenat est un silicate d’aluminium. Le diamant enfin est une variété de carbone cristallisé.
On sait reproduire artificiellement ces cristaux: le rubis et plus récemment l’émeraude ont été synthétisés, le diamant également, ainsi que le silicium utilisé dans les semi-conducteurs.

tab2tab-1

 

 

 

 

 

 

 

 

 

 

 

tab4tab3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 .

.

.

.

 

.

 .

 

 

Les principaux minerais.

Minerais de plomb: la galène, sulfure de plomb (SPb).
zinc: la blende, sulfure de zinc (SZn);peut accompagner la galène.
fer: la pyrite, sulfure de fer (SFe),”or des fous”; et des oxydes.
cuivre: la chalcosine, sulfure de cuivre (S2Cu);la chalcopyrite, sulfure double de fer et de cuivre (CuFeS2).
aluminium: bauxite, oxyde de fer et d’aluminium, du gisement des Baux de Provence.
On trouve aussi à l’état natif des métaux peu oxydables: le platine, l’or, et quelquefois l’argent, le cuivre, le mercure.

Géologie des minerais .

La terre s’est formée par accrétion de poussières et d’astéroïdes suivie de fusion, ce qui a provoqué une décantation. Les éléments les plus lourds comme le fer rassemblés au centre constituent la graine solide et le noyau liquide. Au dessus se trouvent le manteau, puis la croûte, constitués de silicates. Tous les autres éléments, beaucoup moins abondants, sont dispersés dans l’ensemble.(Fig.5 et 6).Cependant, des phénomènes géologiques tels que le volcanisme et l’érosion ont permis à certains éléments de se concentrer en divers endroits. L’eau, souterraine ou en surface, et des éléments comme le chlore et le soufre ont joué un rôle important: si la mer est salée, c’est à la suite du lessivage des roches par le ruissellement. L’existence du kaolin est due à la décomposition du feldspath des granites par l’eau, la formation des grottes et de leurs concrétions à la solubilisation puis au dépôt de calcaire par l’eau chargée de gaz carbonique. On a observé aussi au fond des océans la remontée d’eau très chaude et fortement minéralisée qui forme des dépôts au refroidissement, et des concrétions riches en métaux, les nodules, dispersés à grande profondeur.
La tectonique des plaques, déplacement des continents qui flottent sur le manteau, s’accompagne de la remontée de matériaux provenant des profondeurs et d’enfouissement de matières de surface accompagnées de produits volatiles(eau, carbonates, résidus biologiques)qui peuvent resurgir par le volcanisme.
Tous ces effets se conjuguent pour favoriser localement le dépôt de certains éléments; en particulier dans les failles des roches, lieux de passage des eaux ,et dans les sédiments. La solubilité, la densité des matériaux, peuvent favoriser ces dépôts. C’est ainsi que de nombreux métaux se trouvent concentrés dans des gisements exploitables, mais il faut compléter le travail de la nature, car on trouve rarement des minerais à la fois purs et abondants.
56

tab6tab-51

 

 

 

 

 

 

 

 

 

 

 

 

Traitement des minerais.

Les traitements dépendent beaucoup de la valeur, donc de la rareté, des métaux à extraire. Pour des éléments abondants comme le fer ou l’aluminium, on n’exploite que des gisements très riches, tandis que pour des métaux plus précieux comme le cuivre, l’argent ou l’or, dont les gisements riches sont rares, on exploite surtout des gisements pauvres, plus fréquents. Des éléments peu abondants mais concentrés dans des gisements riches comme le plomb et le zinc, sont plus facilement exploitables que des éléments abondants mais disséminés comme le titane. Pour enrichir les minerais, on utilise selon les cas des procédés physiques ou chimiques qui commencent généralement par un broyage suivi d’un tamisage. minerai et sa gangue; celle-ci, souvent plus légère, est entraînée par un courant d’eau. On utilise aussi le flottage qui repose sur la différence de mouillabilité: mélangé à de l’huile et à un produit mouillant, le minerai dispersé dans l’eau remonte en surface et la gangue tombe au fond. On peut aussi quelquefois dissoudre sélectivement le métal: c’est le cas de l’or, soluble dans le mercure ou dans une solution de cyanure. L’alumine est aussi purifiée par dissolution dans une lessive de soude.

 

Passage du minerai au métal.

Après ces traitements préliminaires, on dispose le plus souvent d’un oxyde ou d’un sulfure enrichis sinon purs. Les sulfures sont transformés en oxydes par grillage à l’air, le soufre s’oxydant en gaz sulfureux. Pour libérer le métal, il faut réduire l’oxyde; les métaux les plus oxydables sont les plus difficiles à libérer. L’agent de réduction le plus utilisé est le charbon qui permet d’obtenir très facilement le plomb, l’argent et le cuivre, assez facilement aussi le fer et le zinc. Pour les métaux difficiles à libérer comme l’aluminium, le magnésium et le sodium, on a le plus souvent recours à l’électrolyse, plus coûteuse et qui exige une matière première plus pure.

 

Quelques exemples.

On a longtemps exploité le plomb argentifère de Poullaouen, ainsi que la blende de Huelgoat. Présent sous forme de sulfure(la galène),il était d’abord grillé pour obtenir l’oxyde dont un traitement au charbon à chaud libérait le métal sous forme de plomb impur renfermant un peu d’argent. Le traitement suivant, la coupellation, consistait à ré oxyder le plomb fondu à l’air, ce qui laissait un résidu d’argent métallique moins oxydable. L’oxyde de plomb récupéré était réduit de nouveau pour obtenir le métal.
La sidérurgie produit le fer à partir de son oxyde en mélange avec du coke dans les hauts-fourneaux. Le fonctionnement est continu, et on soutire à la base la fonte surmontée des scories fondues, le laitier constitué de silicates. La fonte est du fer très impur contenant du carbone, du soufre, du phosphore et du silicium. Ces impuretés sont brûlées dans des convertisseurs dans lesquels on souffle de l’air jusqu’à obtenir un acier de qualité voulue.
L’aluminium est obtenu par électrolyse de l’alumine pure extraite de la bauxite, et mélangée avec un fondant, la cryolithe (fluorure d’aluminium et de sodium).Cette industrie est grosse consommatrice d’électricité.

Résumé.

Tous les minéraux sont des assemblages variés d’un petit nombre d’éléments: métaux, oxygène, silicium, soufre…Leurs propriétés sont liées à leur structure ,en particulier la cristallinité.
Les minerais sont des minéraux où se trouvent concentrés certains métaux par l’effet de phénomènes géologiques, ce qui permet leur exploitation.
Le traitement des minerais est à la fois physique: concentration, conditionnement, et chimique: obtention d’oxyde purifié et libération du métal.

La radioactivité et l’énergie nucléaire

LA RADIOACTIVITE ET L’ENERGIE NUCLEAIRE

riobravoArticle de M RIO

1.L’atome avant l’ère nucléaire.

2.La classification périodique des éléments.

3.Les grandes étapes de l’ère nucléaire.

4.Structure de l’atome.

5.Radioactivité et réactions nucléaires.

6.La fission de l’uranium.

7.Les applications.

8.La fusion thermonucléaire.

9.Conclusions.

1.L’atome avant l’ère nucléaire.

Au début du XIXème siècle, on sait que toute matière est formée à partir de quelques dizaines d’éléments dont le carbone, l’hydrogène, l’azote, l’oxygène, le soufre, le phosphore…et les métaux, et que ces éléments ne peuvent être transformés les uns dans les autres .On commence à penser qu’ils sont formés de particules, les atomes, car ils se combinent entre eux selon des proportions définies et discontinues.
(suite…)