DE L’ALCHIMIE A LA CHIMIE par M André RIO

M André RIO
M André RIO

DE L’ALCHIMIE A LA CHIMIE

 

Une courte histoire de la naissance de la chimie garantie sans formules, sauf celle de l’eau, que même les littéraires les plus endurcis ne peuvent plus ignorer.

De quoi est faite la matière ? Est-ce un miracle si une substance se transforme en une autre substance ? Pendant très longtemps, et encore maintenant pour beaucoup de nos contemporains, c’est quelque chose d’incompréhensible.

Il y a de bons et de mauvais miracles. Quand une graine germe, quand une plante, une bête, un homme se nourrit et transforme sa nourriture en sa propre matière, c’est un bon miracle, un cadeau des dieux. Quand de braves gens fabriquent du vin, de la bière, du fromage, de la chaux et bien d’autres choses encore, pour se désaltérer, se nourrir ou bâtir, c’est encore bien.

Mais si des sorciers ou  des alchimistes  dans des réduits obscurs fabriquent des poisons, des orviétans, prétendent faire de l’or par des procédés cabalistiques, c’est évidemment avec l’aide du diable. De toutes ces transformations, les hommes sont incapables par eux-mêmes, et les innombrables formes que peut prendre la matière ne peuvent être changées par des moyens naturels. Que l’eau, les métaux, puissent changer d’état sans changer de nature en fondant ou en se solidifiant, oui, mais transformer un minerai, une terre, en métal ne va pas sans quelque diablerie.

Les anciens philosophes, qui aimaient remplacer les choses par des mots, plus dociles, avaient décrété qu’il existait quatre éléments : la terre, malgré l’extrême diversité de ses composants, l’eau, modèle de l’état liquide, mais aussi l’air, invisible et impalpable, qui ne se manifeste sensiblement que par le vent ou le souffle de la respiration, mais qu’on peut voir se déplacer sous forme de bulles dans l’eau. Plus tard, la question s’est posée de savoir si l’air est pesant, donc matériel, comme les solides et les liquides, et si il n’existe pas plusieurs sortes d’air.

Le quatrième élément, le feu et ses différents aspects : la chaleur, la lumière et l’éclair des orages.

Une autre manière était de distinguer les trois règnes : minéral, végétal et animal.

Il ne parait pas que les penseurs grecs soient allés au delà de leurs cogitations ; ils ont imaginé les atomes, mais ils n’aimaient pas se salir les mains et ils laissaient les réalisations concrètes aux hommes de métier. Ce sont probablement les arabes qui sont passés aux opérations matérielles comme en témoignent les mots en »al » alchimie, alambic, alcool, alcali.

On peut comprendre le fonctionnement d’une horloge en examinant l’enchaînement de ses rouages, mais, contrairement aux actions mécaniques, l’intimité des transformations de la matière ne se voit pas. On constate seulement le résultat.

C’est au début du XVII ème siècle que commence à se constituer une physique véritablement scientifique avec Galilée, puis Newton. Pendant ce temps, la chimie piétine. On ressort la vieille idée d’atomes, mais c’est pour la condamner : Spinoza, disciple de Descartes, démontre  qu’il ne peut exister d’atomes. Ses raisons, traduites en clair, sont que les atomes, insécables par définition, doivent occuper un certain volume pour remplir l’espace, car le  vide est impossible, et s’ils ont un volume, on peut les découper en fragments plus petits, donc ils n’existent pas. Cette démonstration péremptoire et simpliste peut faire sourire à l’age de la  physique quantique.

Chez les Femmes Savantes, Bélise, qui, dans « cette grande lunette à faire peur aux gens », a vu clairement des hommes dans la Lune, a aussi son opinion sur les atomes :

Je m’accommode assez, pour moi, des petits corps

            Mais le vide à souffrir me semble difficile.     

Une science balbutiante commence par rassembler des matériaux avant d’en faire un ensemble cohérent. Elle risque aussi de se laisser influencer pas des idées préconçues dont beaucoup ne survivront pas. Il y a quelques siècles, les penseurs n’étaient pas plus stupides que nous, mais ils étaient imprégnés de croyances religieuses et métaphysiques intransigeantes. et les alchimistes se distinguaient des chimistes parce que  les premiers faisaient davantage appel au surnaturel pour interpréter leurs observations. Les tâtonnements des uns et des autres ont cependant abouti à une somme de connaissances et de recettes empiriques. Ils ont reconnu un grand nombre de substances aux noms évocateurs : esprit de vin ; esprit de sel ; huile de vitriol ; vitriol vert ; vitriol bleu, et toutes sortes de sels comme le salpêtre ou nitre. Ils utilisaient beaucoup le soufre, le mercure ou vif argent (quecksilber en allemand) ; ils connaissaient l’arsenic, l’antimoine, plusieurs métaux dont quelques uns étaient curieusement associés aux planètes et aux dieux de l’Iliade. L’un d’eux, Brandt, découvre le phosphore.

Le matériel, fourneaux à charbon de bois, creusets, cornues, mortiers, alambics, ne permet pas d’opérations précises. Si l’on se sert de balances, on ne sait pas mesurer précisément la température, notion confondue avec celle de chaleur, et on se contente d’appréciations vagues, tiède, bouillant, rouge sombre, rouge cerise, trop imprécises pour faire des opérations reproductibles.

Le grand Newton lui même s’est empêtré dans l’alchimie ; il y a consacré vainement beaucoup de temps et d’efforts en cherchant à interpréter l’affinité des corps qui réagissent par l’attraction universelle qui commande le mouvement des astres ; Le temps n’était pas mûr, les idées inadaptées ;  la chimie n’a véritablement pris naissance que près de deux siècles après la physique, et il y a fallu une révolution des concepts, celle de Lavoisier, malheureuse victime d’une autre révolution, celle de la Terreur.

Quelques uns de ses prédécesseurs immédiats ou de ses contemporains avaient apporté des résultats essentiels : Scheele avait découvert le chlore et quelques composés nouveaux dont l’acide prussique (acide cyanhydrique). Cavendish avait montré que la combustion de l’air inflammable (l’hydrogène) avec l’air déphlogistiqué ou air vital (l’oxygène) découvert simultanément par Priestley, donnait de l’eau, mais il interprétait ce résultat au moyen d’une théorie erronée. A l’époque en effet, une théorie dominait, celle du phlogistique. Les « terres » comme la terre, c’est à dire la chaux, l’alumine, la silice, étaient considérées comme des éléments, ainsi que les minerais dont provenaient les métaux. On pensait qu’un métal s’obtenait par combinaison de la terre correspondante avec un élément hypothétique, le phlogistique, et que s’il s’altérait à l’air, c’est qu’il perdait son phlogistique. La difficulté était  que cette perte s’accompagnait d’une augmentation de poids.

Lavoisier, riche amateur éclairé, n’était pas un universitaire mais un fermier général, c’est à dire un collecteur d’impôts, métier très impopulaire qui lui sera fatal.

Il utilise systématiquement la balance pour peser les corps  entrant en réaction et les produits qui en résultent et s’assure que la masse totale ne change pas : rien ne se perd, rien ne se crée ; brûler un élément comme le soufre n’est pas le détruire mais le transformer en une autre substance.

Dans une expérience fondamentale, il isole un volume d’air au contact de mercure chauffé qui se recouvre progressivement d’une poudre jaune. Après refroidissement, il constate que le volume s’est réduit d’un cinquième et que le résidu gazeux est tout à fait inerte : c’est de l’azote. La poudre, rassemblée et pesée, est décomposée par la chaleur, libérant le mercure et un gaz, de l’oxygène pur, correspondant au volume d’air disparu.

L’interprétation est claire : l’air est un mélange de quatre parties d’azote inerte, (d’où son nom signifiant qu’il n’entretient pas la vie ; stickstoff en allemand a le même sens) et une partie d’oxygène capable de s’unir aux métaux pour donner des oxydes ; la masse de l’oxyde est la somme de celles du métal et de l’oxygène.

Par la suite, il montre que l’eau n’est pas un élément mais une combinaison d’hydrogène (générateur d’eau ; l’allemand wasserstoff et le russe vodorod ont le même sens) et d’oxygène, reproduisant avec rigueur et réinterprétant correctement cette fois l’expérience de Cavendish.      De la même façon, le soufre, le phosphore, le charbon, brûlent dans l’air ou dans l’oxygène pour donner des composés qui dans l’eau ont un caractère acide : saveur (on ne craint pas de goûter les produits) changement de couleur de certaines substances végétales comme le sirop de violettes couramment utilisé, action sur les métaux et les alcalis donnant des sels.

L’appellation d’oxygène qui signifie générateur d’acides est le résultat d’une équivoque. Lavoisier considère qu’un acide résulte d’une combinaison avec l’oxygène (l’allemand sauerstoff et le russe kislorod ont le même sens). Il pense que l’acide muriatique (aujourd’hui chlorhydrique) et le chlore sont des composes oxygénés d’un élément inconnu. En réalité le chlore est un élément et l’acide chlorhydrique ne renferme pas d’oxygène ; c’est l’ion hydrogène qui apporte le caractère acide. L’erreur sera vite corrigée, mais seulement après la mort tragique de Lavoisier, et l’oxygène a gardé son nom.

L’azote, très peu réactif, n’est cependant pas inerte. Lavoisier sait que le nitre ou salpêtre en contient, d’où son nom de nitrogen en anglais, de même que l’eau forte, c’est à dire l’acide nitrique ou azotique, et aussi l’ammoniac ou alcali volatile, composé d’azote et d’hydrogène, et il en déduit à tort que les alcalis fixes, soude et potasse, pourraient être des composés azotés.

Il comprend aussi que la respiration est le résultat d’une oxydation : les êtres vivants absorbent l’oxygène de l’air et rejettent le gaz carbonique provenant de l’oxydation du carbone contenu dans les aliments.

Tous ces résultats  permettent à Lavoisier d’esquisser une liste de la trentaine d’éléments connus ou supposés à son époque. On considère comme élément toute substance dont on ne peut retirer rien d’autre. Avec une quinzaine de métaux, on y trouve l’hydrogène, le carbone, l’azote, l’oxygène, le soufre, le phosphore, l’arsenic et l’antimoine. Le chlore, pourtant connu, n’y figure pas. On y trouve par contre des « terres » : silice, alumine, magnésie, chaux, baryte, dont les éléments véritables ne sont pas encore connus, pas plus que les métaux alcalins, sodium et potassium. On s’étonne d’y trouver la lumière et la

chaleur, qui participent aux réactions mais qui n’ont pas de masse. Lavoisier considère que lumière et chaleur s’associent aux autres éléments et peuvent être libérés par la décomposition des substances qui les renferment.

Enfin, Lavoisier et ses disciples créent la première ébauche d’une nomenclature rationnelle qui remplace les appellations traditionnelles par des termes moins pittoresques mais qui expriment la nature des composés. C’est ainsi que l’huile de vitriol devient acide sulfurique, l’eau forte acide nitrique ou azotique, leurs sels des sulfates et des nitrates

Avant de disparaître, Lavoisier laisse à ses successeurs l’ébauche d’une science enfin cohérente : toute substance définie est soit un élément indestructible, soit une combinaison d’éléments ; il n’existe qu’un petit nombre d’éléments ; les combinaisons sont innombrables. La masse des éléments se conserve dans les associations qu’ils forment. Les techniques fondamentales  de la chimie sont l’analyse, décomposition d’une substance en ses éléments, et la synthèse, opération inverse qui permet de les recréer. A l’époque, les moyens sont encore très limités : la matière vivante en particulier, souvent très compliquée, et les composés dits organiques ne seront maîtrisés que beaucoup plus tard.

Dans les années qui suivent, dés le début du XIXème siècle, la voie ouverte par Lavoisier permet des progrès rapides. Grâce en particulier à la pile de Volta, premier générateur de courant électrique, et à l’électrolyse, Davy isole le sodium et le potassium, éléments des alcalis fixes. Ceux des « terres », aluminium, magnésium, calcium, baryum, silicium, sont isolés. Le chlore est reconnu comme élément ; le brome et l’iode, aux propriétés voisines, sont découverts.

On recommence à parler d’atomes, mais cette fois en s’appuyant sur des données concrètes. La balance est devenue l’instrument essentiel de la chimie, et l’on constate que les éléments s’unissent toujours selon des proportions définies. On peut mélanger l’eau et l’alcool, l’oxygène et l’hydrogène en proportions quelconques et chaque composant garde son identité, mais une combinaison, qui se fait souvent avec un dégagement de chaleur important, donne une substance complètement différente de ses constituants. Une étincelle suffit  pour provoquer la réaction de l’oxygène avec l’hydrogène, et l’eau formée renferme toujours                 1 gramme d’hydrogène pour 8 grammes d’oxygène, soit 2 volumes d’hydrogène pour             1 volume d’oxygène. Cette constatation suggère que les éléments sont constitués de particules, les atomes, qui s’unissent un à un, un à deux et ainsi de suite par quantités entières pour former des molécules.

Mais une équivoque surgit aussitôt et elle va entraîner une querelle violente pendant un siècle . Doit-on considérer seulement le rapport des masses ou aussi celui des volumes ? Doit on admettre que les atomes existent réellement ou que c’est une abstraction métaphysique ? Avogadro avance une hypothèse audacieuse : des volumes égaux de gaz renfermeraient le même nombre de molécules. La molécule d’eau serait donc constituée d’un atome d’oxygène et de deux atomes d’hydrogène. Les adversaires objectent que l’hypothèse atomique est invérifiable. On n’a aucun moyen par exemple de savoir combien d’atomes seraient contenus dans un gramme d’hydrogène, quelle est leur masse, leur volume. Leur unité, c’est l’équivalent : un gramme pour l’hydrogène, huit grammes pour l’oxygène, et ainsi de suite pour les autres éléments.

Pour les atomistes, la masse atomique c’est un gramme pour l’hydrogène, mais 16 grammes pour l’oxygène à cause du rapport des volumes. On a convenu de représenter les éléments par des symboles. Tous utilisent les mêmes mais divergent sur les masses à leur attribuer et sur la façon de noter les molécules : l’eau doit-elle s’écrire HO ou HO ?

La querelle se poursuit, mais les progrès continuent. Les méthodes d’analyse se perfectionnent. On peut s’attaquer aux matières organiques, déterminer leur composition. On pensait que seuls les êtres vivants pouvaient les produire quand on apprend par la synthèse fortuite de l’urée qu’on peut les reproduire  artificiellement à partir de composés minéraux. Berthelot, pionnier de la chimie organique et farouche adversaire des atomes, synthétise l’acétylène, l’alcool et d’autres substances encore.

De nouveaux éléments sont découverts. On a constaté qu’ils forment des familles aux propriétés voisines : chlore, brome et iode d’une part, sodium et potassium d’autre part, se ressemblent. Ces ressemblances manifestent-elles une filiation cachée ? La réponse viendra plus tard. Mendéléiev propose une classification où les éléments alors connus sont rangés en lignes et en colonnes par masses atomiques croissantes, ce qui fait apparaître dans une même colonne les éléments apparentés, d’où son nom de classification périodique.

La classification est accueillie avec scepticisme ou même avec ironie, mais elle s’impose peu à peu ; elle a laissé des places vides parmi la soixantaine d’éléments qu’elle contient, et ces places sont progressivement comblées par la découverte des nouveaux éléments ; une nouvelle famille apparaît, celle des gaz dits rares : hélium, argon …,

Cependant, les équivalentistes restent majoritaires, en particulier en France avec Berthelot, grand pontife de la chimie organique. C’est pourtant la chimie organique qui va faire apparaître l’insuffisance de la notation par les équivalents, qui ne tient compte que de la composition globale des molécules. Pendant qu’en France la querelle s’éternise, en Allemagne une industrie des colorants synthétiques prend naissance. D’abord empirique, elle parvient bientôt à reproduire par synthèse des colorants d’origine végétale, l’alizarine ou rouge turc et l’indigo, et une foule de colorants artificiels d’emploi beaucoup plus facile.

Si les équivalents suffisent pour représenter des molécules simples, ce n’est plus possible avec les colorants, les sucres et bien d’autres substances. A une même formule brute peuvent correspondre plusieurs molécules ayant des propriétés ou des couleurs différentes, et pour les représenter, il faut faire intervenir non seulement la composition globale mais aussi la structure géométrique et l’arrangement des atomes qui les constituent. L’Allemagne prend ainsi une avance considérable sur la France.

Au début du vingtième siècle, les atomes s’imposent enfin définitivement. Par une série de mesures délicates, on parvient enfin à déterminer le nombre d’Avogadro, c’est à dire le nombre d’atomes contenus dans un gramme d’hydrogène. Ce nombre est énorme :

N = 6,O2. 1023

soit six cent mille milliards de milliards.

Rapidement les preuves s’accumulent, mais si les atomes s’imposent, on s’aperçoit bientôt que, loin d’être indivisibles, ils sont en réalité un assemblage de particules élémentaires, protons, neutrons et électrons, mais ceci est une autre histoire.

  1. Brandt découvre le phosphore.
  1. Naissance de Lavoisier.
  1. L’azote, découvert par Rutherford, est identifié par Priestley sous le nom de gaz phlogistiqué.

Priestley découvre l’oxygène , air vital ou air déphlogistiqué.

  1. Lavoisier établit la composition de l’air.
  1. Scheele découvre le chlore.
  1. Cavendish identifie l’hydrogène, déjà connu des alchimistes sous le nom d’air inflammable.
  1. Cavendish réalise la synthèse de l’eau.
  1. Lavoisier publie son Traité élémentaire de Chimie avec sa liste des éléments.
  1. Leblanc met au point son procédé de fabrication de la soude.
  1. Mort de Lavoisier.
  1. La pile de Volta.
  1. Davy isole le sodium et le potassium.
  1. Davy isole le calcium et le baryum.
  1. Gay-Lussac et Thénard découvrent le bore.
  1. Courtois découvre l’iode.
  1. Hypothèse d’Avogadro.
  1. Berzélius isole le silicium.
  1. Balard découvre le brome.
  1. Wöhler obtient l’aluminium.
  1. Berzélius établit une table des équivalents et représente les éléments par des symboles.
  1. Mendéléiev propose sa classification périodique des éléments.
  1. Moissan isole le fluor.
  1. Rayleigh et Ramsay découvrent l’argon.
  1. Ramsay découvre l’hélium.

La naissance difficile de la chimie par M André RIO

M André RIO
M André RIO

La naissance difficile de la chimie

Les plantes prennent leur nourriture dans leur environnement et la transforment en leur propre substance. Les animaux, qui n’ont pas ce pouvoir, se nourrissent de plantes ou d’autres animaux qu’ils transforment eux-mêmes en leurs propres matières. Tout ce qui a vécu se décompose ou sert à son tour de nourriture. Le bois brûle et laisse de la fumée et des cendres. Presque toutes ces transformations sont irréversibles. Si l’on ne se satisfait pas d’explications surnaturelles, on peut penser que la matière est faite d’un petit nombre d’éléments qui peuvent s’associer pour donner toute la variété illimitée des substances existantes.
C’est ce qu’ont imaginé les philosophes grecs, mais ce n’est que bien plus tard qu’on a pu reconnaître les véritables éléments. Deux écoles s’opposaient : celle d’Aristote (- 384- 322 ) pour qui la matière était divisible à l’infini, et celle des atomistes qui supposaient que les éléments étaient formés de particules insécables et éternelles, les atomes. C’était l’opinion de Démocrite (- 460 –370 ) , d’Epicure ( -344 –270 ) et de Lucrèce (- 95- 53 ) , mais c’est la philosophie d’Aristote qui s’est imposée à la pensée occidentale et l’a fourvoyée dans une impasse dont elle a eu beaucoup de peine à se dégager. L’existence des atomes longtemps hypothétique n’a commencé à se préciser qu’au début du dix neuvième siècle et n’a été définitivement établie qu’au début du vingtième. Le monde entier en connaît maintenant les conséquences

Les éléments.

Si les éléments d’Aristote , l’air, l’eau, la terre et le feu, ne sont pas des éléments, on connaît depuis bien longtemps le charbon, carbone impur, le soufre des volcans, un certain nombre de métaux : cuivre, étain, fer, plomb, mercure, argent et or, ainsi que l’arsenic et l’antimoine, le phosphore obtenu par Brandt en 1662, qui a surpris par sa luminescence au contact de l’air (qui n’est pas de la phosphorescence ou fluorescence retardée) . Les vers luisants aussi sont luminescents, mais par un autre mécanisme.
Au dix huitième siècle, la chimie est encore empirique et peine à se dégager d’Aristote. L’air et l’eau, substances homogènes, sont encore tenus pour des éléments, mais la terre est visiblement hétérogène et composée de nombreuses substances et peut difficilement être considérée comme un élément, à moins de la considérer comme le symbole de l’état solide. On y distingue différentes « terres » comme la chaux, l’alumine, la silice, la magnésie et la baryte, et les minerais dont on extrait les différents métaux. Quant au feu, ce n’est pas une substance matérielle mais un phénomène dynamique et irréversible qui produit lumière et chaleur, qui ne sont pas non plus de la matière.

Les gaz.

On s ‘est rendu compte peu à peu qu’il existait des substances qui n’étaient pas de l’air tout en ayant certaines propriétés communes. Ils ne se manipulent pas aussi facilement que les liquides et la plupart son invisibles. Le gaz carbonique, dans lequel une flamme s’éteint a été identifié en 1648. Au dix huitième siècle, une série d’autres gaz sont découverts : l’hydrogène, l’azote, l’oxygène, le chlore, l’acide cyanhydrique et les oxydes d’azote.
Le phlogistique.
Une théorie erronée compromet le progrès. Imaginée par Stahl, elle est inspirée de la philosophie d’Aristote : les terres dont on extrait les métaux sont des éléments et les métaux sont des combinaisons de ces terres avec le phlogistique. Exposés à l’air et à la chaleur, les métaux perdent leur phlogistique et redeviennent des terres. L’eau, étant un élément, agit sur les métaux en libérant le phlogistique et les terres laisse un composé d’eau et de phlogistique.
Le défaut fondamental de cette théorie est que le phlogistique devrait avoir une masse négative : le métal pèse moins que la terre qui lui est associée. C’est à Lavoisier que l’on doit d’avoir rejeté cette conséquence de la philosophie d’Aristote.
Lavoisier, (1749-1794).
Au dix huitième siècle, quelques chimistes ouvrent la voie à une nouvelle chimie : Scheele (1742-1786) découvre le chlore en 1771. Priestley (1733-1804) l’oxygène et Cavendish (1731-1810) l’hydrogène. Ils ont contribué à la découverte de la composition de l’air et de l’eau, mais c’est Lavoisier qui a abandonné le phlogistique et reconnu que l’oxygène, l’hydrogène et l’azote sont les véritables éléments et que les »terres » sont en réalité des composés d’oxygène et de métal. Son expérience la plus célèbre est l’analyse de l’air par laquelle il démontre qu’il s’agit d’un mélange de 80% d’azote et de 20% d’oxygène. Par l’emploi de la balance, il peut établir un bilan des réactions chimiques et montre que la masse totale est conservée : rien ne se perd, rien ne se crée si tout se transforme, et il confirme un résultat de Cavendish : l’eau est une combinaison d’oxygène et d’hydrogène dans laquelle les composants gazeux donnent un composé liquide aux propriétés complètement différentes.
Dans l’expérience de l’analyse de l’air, il a montré qu’un métal chauffé en présence d’air, le mercure, se combine à l’oxygène pour donner un oxyde, une poudre jaune , qui se décompose à une température plus élevée en libérant l’oxygène et le mercure liquide. La plupart des métaux sont également oxydables.

Les éléments.

Rassemblant tous les éléments connus à l’époque, Lavoisier tente de les classer, mais l’entreprise est encore prématurée. Si l’on y trouve bien tous les métaux connus et les éléments non métalliques : hydrogène, azote, oxygène, soufre, phosphore, carbone, y figurent aussi les « terres », oxydes de métaux encore inconnus, et il y manque le chlore pourtant déjà connu, mas qu’il considère comme le composé oxygéné d’un élément inconnu. Plus surprenant encore, y figurent la lumière et la chaleur, réminiscence du feu d’Aristote. Sa fin prématurée et brutale ne lui a pas permis de rectifier ces erreurs, ce que ses survivants du début du dix neuvième siècle ont rapidement mené à bien.
Lavoisier n’avait fait qu’ébaucher une science encore balbutiante, mais il avait montré la voie à ses contemporains et à ses successeurs : qu’étaient ces terres qui rappelaient Aristote, ces alcalis qui donnaient des sels avec les acides, la lumière et la chaleur, le feu d’Aristote ; qu’est ce qui liait les éléments pour former des composés complètement différents ?
Il a fallu une technique nouvelle, l’électrolyse, pour libérer des éléments encore inconnus : sodium, potassium, magnésium, calcium, aluminium. D’autres éléments non métalliques sont découverts : l’iode, le brome, le bore, le silicium.
En 1815, Berzelius crée la nomenclature encore utilisée qui représente les éléments par des symboles.
Les lois fondamentales et le début d’une longue querelle.
Les éléments se combinent toujours selon des proportions bien définies : 2 grammes d’hydrogène se lient à 16 grammes d’oxygène pour donner 18 grammes d’eau. Il en est de même pour les volumes gazeux : un volume d’azote et 3 volumes d’hydrogène donnent 2 volumes d’ammoniac, d’où l’hypothèse d’Avogadro : un volume donné renferme toujours le même nombre de molécules quelle qui soit sa masse. Ces données laissent supposer que les éléments sont constitués d’unités distinctes, d’atomes, qui s’associent en molécules. Si les plus audacieux en sont convaincus, les plus prudents ne veulent pas admettre leur existence encore hypothétique inspirée par des élucubrations métaphysiques suspectes d’un manque d’esprit critique. Ils s’en tiennent à la notion d’équivalent qui ne présage en rien de leur nature et ne tient compte que des proportions des masses qui s’unissent. On peut ainsi accorder à chaque élément une masse en prenant par exemple pour l’hydrogène la masse de 1 gramme dont on déduit toutes les autres, ce qui met provisoirement d’accord atomistes et équivalentistes, mais les uns attribuent à l’eau la formule H2O et les autres HO. L’existence réelle des atomes ne sera établie que quand on aura répondu à la question : combien d’atomes dans un gramme d’hydrogène, soit le nombre d’Avogadro.

La classification périodique.

Au cours du dix neuvième siècle, de nouveaux éléments ont été découverts. En 1861, Mendeleïev propose sa classification qui les range par masses atomiques croissantes et par colonnes qui font apparaître l’existence de familles comme celles des métaux alcalins et des halogènes aux propriétés voisines. Quelques cases restaient encore vides car on ne connaissait à cette date qu’une soixantaine d’éléments, et les nouveaux venus y ont trouvé leur place. La querelle des équivalents n’en continuait pas moins, et ce n’est qu au début du vingtième siècle que l’existence des atomes sera définitivement établie, grâce en particulier à l’étude du mouvement brownien dont Einstein avait établi la théorie confirmée expérimentalement par Perrin en 1908, et à diverses autres techniques qui ont permis de déterminer le nombre d’Avogadro N = 6,02.1023 .
La chimie organique et la géométrie des molécules.
On avait cru qu’il était impossible de reproduire artificiellement les substances d’origine biologique jusqu’à ce que Wöhler synthétise par hasard l’urée en 1826. Berthelot, ( 1827-1907) considéré comme le père de la chimie organique, c’est à dire la chimie du carbone, était un adversaire résolu de l’existence des atomes. Il avait réalisé en particulier la synthèse de l’alcool éthylique, mais il classait les composés carbonés uniquement par leur composition globale ( Cn H2n+2 , Cn H2n , Cn H2n-2, etc.), vite insuffisante pour rendre compte de leur variété illimitée comportant des structures linéaires, ramifiées ou cycliques , de la nature des liaisons qui unissent les atomes et de leur valence, c’est à dire du nombre de liaisons qu’ils peuvent former, une seule pour l’hydrogène, 4 pour le carbone, 3 ou 5 pour l’azote, 2 ou 4 pour l’oxygène, etc, ces liaisons pouvant être simples, doubles ou triples . C’est ainsi que Kekulé (1829 – 1896 ) avait imaginé la forme cyclique de la molécule de benzène
aa-chimie

Une autre caractéristique de la chimie organique, c’est une chimie des températures modérées, avec une variété de liaisons des plus fortes au plus faibles qui permet une grande variété de réactions.

Les isomères.

Il existe des substances qui ont la même composition mais dont les atomes sont disposés différemment, ce qui entraîne des propriétés différentes. On connaît par exemple 3 dichlorobenzènes, ainsi que 2 acides , maléique et fumarique, qui ne diffèrent que par la répartition des liaisons de part et d’autre d’une double liaison. Dans le cas de l’acide tartrique, étudié par Pasteur, il en existe 3 formes : une symétrique et 2 asymétriques, droite et gauche. Les molécules d’origine biologique sont souvent asymétriques : les acides aminés constituants des protéines sont tous gauches et la plupart des sucres droits.
La chimie et les électrons.
C’est la mise en commun d’électrons entre deux atomes qui assure leur liaison : 2 électrons pour une liaison simple, 4 pour une liaison double, 6 pour une liaison triple. Une réaction chimique est le résultat d’une rupture de liaison et d’un réarrangement par d’autres liaisons. Il existe deux mécanismes, l’un ionique où les fragments après rupture des ions, portent une charge électrique, c’est le plus fréquent en chimie organique, et un mécanisme radicalaire où les fragments sont électriquement neutres mais comportent des couches électroniques incomplètes. C’est par exemple le cas de la décomposition de composés peroxydés et de la polymérisation de composés comportant une liaison double comme le styrène ou le chlorure de vinyle.
La chimie du silicium.
La chimie organique, chimie des composés carbonés, est beaucoup plus riche que celle de tous les autres éléments, grâce à la propriété du carbone de former une variété illimitée de molécules. Il existe cependant une chimie très riche, celle du silicium, qui ne comporte pas de liaisons Si – Si, très instables, mais des liaisons Si – O – Si très stables qui existent dans la silice et une grande variété de silicates parmi lesquelles les structures linéaires de l’amiante et des silicones, planes dans le mica et tridimensionnelles dans la plupart des autres minéraux. Contrairement à la chimie du carbone, c’est une chimie des hautes températures comportant des structures amorphes comme le verre ou le plus souvent cristallines.
La chimie macromoléculaire.
Au début du vingtième siècle, on n’imaginait pas qu’il puisse exister des molécules comportant plus de quelques dizaines d’atomes. Staudinger a montré en 1920 que la cellulose était constituée de très longues chaînes d’atomes. On a vite réalisé qu’on pouvait réaliser des molécules géantes par des mécanismes radicalaires ou ioniques, ce qui a permis lz développement des matières plastiques, des élastomères et des fibres synthétiques.

Les techniques d’analyse.

Comment peut-on établir la structure d’une molécule ? L’analyse élémentaire détermine les proportions des éléments qui la composent ; la microanalyse permet d’opérer sur un échantillon de l’ordre du milligramme. Les techniques spectroscopiques : infra rouge, résonance magnétique nucléaire, spectres de rayons x, contribuent à la détermination de la géométrie de la molécule.
En conclusion,
La chimie est inconcevable sans l’existence des atomes, mais il a fallu longtemps pour s’en assurer.

LES PROGRES DE L’ASTRONOMIE par M André RIO

M André RIO
M André RIO

LES PROGRES DE L’ASTRONOMIE

1.Evolution des connaissances.

2.Les planètes du système solaire et leurs satellites.

3Le soleil et les étoiles.

4.Les galaxies.

5.Histoire de l’univers.

1.Evolution des connaissances.

L’astronomie avant Copernic est contenue dans le système d’Aristote (-384 ; -322) et de Ptolémée (90 ;168) .A côté des observations et des théories astronomiques, on y trouve des considérations religieuses, mythologiques, astrologiques, philosophiques, dont l’astronomie moderne a dû se débarrasser pour progresser .Ce système considérait la Terre comme le centre du monde, et le ciel comme un décor tout proche et immatériel .On n’avait aucune idée de la distance des astres et de leurs dimensions, et le mouvement apparent des planètes s’interprétait par des trajectoires compliquées.

Le système de Copernic (1473; 1543) apporte une grande simplification et une interprétation plus réaliste : la Terre est une planète parmi les autres; toutes tournent autour du Soleil d’un mouvement circulaire uniforme.

Kepler (1571; 1630) précise les lois du mouvement des astres .S’appuyant sur des mesures plus rigoureuses, il montre que leurs trajectoires sont des ellipses et non des cercles.

Galilée (1564; 1642) le premier utilise la lunette astronomique .Préoccupé avant tout de données objectives, il observe des montagnes sur la Lune, des taches sur le Soleil, les phases de Vénus et de Mercure, analogues à celles de la Lune, et quatre satellites de Jupiter .Tous ces résultats vont à l’encontre des idées de l’époque .Copernic avait subi des tracasseries, Kepler une véritable persécution, et tous deux avaient dû adopter une attitude très discrète; avec Galilée, ce sera pire .L’Eglise, alors toute puissante, avait adopté le système d’Aristote qu’elle considérait comme seule conforme à sa doctrine, et elle réagît d’autant plus violemment que l’attitude de Galilée fût provocatrice.

Au XVIIème siècle, on commence à réaliser l’immensité de l’Univers (les espaces infinis de Pascal) .On mesure la distance et les dimensions de la Lune, et sans pouvoir préciser encore la distance du Soleil, on s’aperçoit qu’il est bien plus éloigné et bien plus grand et que c’est une étoile comme les autres,

Newton (1642; 1727) explique le mouvement des astres par l’attraction universelle .A partir d’une loi très simple, il établit une méthode générale, le calcul intégral, qui permet de déterminer les trajectoires des corps célestes.

Aux XVIIIème et XIXème siècles, de grands progrès sont accomplis .Le télescope , plus performant, remplace la lunette; on découvre de nouvelles planètes; les méthodes de calcul se perfectionnent et permettent à Le Verrier de prévoir l’existence de Neptune, observée peu après à l’endroit annoncé des astres: c’est l’astronomie de position.

L’astronomie physique commence au XIXème siècle .L’expérience de Foucault (1819; 1868) démontre expérimentalement la rotation de la Terre sur elle même, mais celle de Michelson (1852; 1931) , réalisée entre 1881 et 1887, ne parvient pas à mettre en évidence la rotation autour du Soleil, résultat que la théorie de la relativité expliquera.

La nature chimique des corps célestes, qu’Auguste Comte (1798; 1857) avait déclarée à jamais impossible à déterminer, a été élucidée peu après par l’analyse spectroscopique de la lumière qu’ils émettent .On trouve en particulier que le Soleil est principalement constitué d’hydrogène, d’un élément alors encore inconnu, l’hélium, et renferme en quantités plus faibles tous les autres éléments .Dès 1863, on détecte dans les étoiles du sodium, du fer, du calcium, du magnésium .Les météorites tombées du ciel se révèlent analogues aux roches terrestres.

De tous ces résultat, on conclut que les lois de la physique sont les mêmes partout, que l’Univers entier est fait des mêmes éléments que la Terre, et qu’il constitue pour les physiciens un immense laboratoire capable de fournir un grand nombre de renseignements dans des conditions irréalisables sur terre.

Au XXème siècle, la première moitié du siècle voit de nouveaux perfectionnements des techniques, et une double révolution de la physique avec la Relativité qui, concernant les grandes distances et les grandes vitesses, donne une idée d’ensemble nouvelle de l’univers, son expansion révélée par Hubble, et la physique quantique qui interprète les mécanismes intimes des particules, explique la source d’énergie du Soleil et des étoiles et le rayonnement cosmique.

Au cours de la seconde moitié du siècle, les moyens mis en oeuvre sont considérablement accrus. La lumière visible n’est plus la seule source d’information .Tout le spectre électromagnétique est exploité, avec la radioastronomie , les astronomies infrarouge , ultraviolet, X et . Les différentes particules provenant de l’espace: protons, noyaux d’atomes, neutrinos, sont également détectés et apportent de nouvelles connaissances.

L’obstacle de l’atmosphère, qui ne laisse passer que la lumière visible et les ondes radio, est franchi par les satellites et les sondes planétaires .L’exploration directe de la lune (Programme Apollo) , l’exploration des planètes du système solaire et de leur satellites par les sondes (Pioneer ;Viking ;Voyager Mariner…) fournissent une masse d’informations sensationnelles .On découvre ou on décèle des astres exotiques: les étoiles à neutrons et les trous noirs, et on peut enfin imaginer l’histoire et l’origine de l’univers avec le Big-Bang.

2.Les planètes du système solaire.

Diamètre Masse Densité Distance du Soleil Révolution Rotation Satellites

Km * moyenne U.A.* Temps/ lumière

Soleil 1.400.000 33.000 1,4 25 j.

Mercure 4.720 0,056 5,44 0,3-0,46 88 j. 59 j. 0

Vénus 12.340 0,817 5 0,72 224 j. 243 j. 0

Terre 12.756 1 5,5 1 8 min. 365 j. 24 h. 1

Mars 6.899 0,108 3,8 1,4-1,6 12,5 min. 1 an 321 j. 24 h.37 min. 2

Jupiter 142.113 318 1,36 4,9-5,4 43 min. 11 ans 312 j. 9 h.50 min. 14

Saturne 119.916 95 0,7 10 1 h.20 min. 29 ans 167 j. 10 h.14 min. 17

Uranus 51.028 14 1,3 20 2 h.46 min. 88 ans 17 h.24 min. 5

Neptune 44.650 17 2,3 30 4 h. 164 ans 15 h.48 min. 8

Pluton 2.200 0,1 2 env. 29-50 6 h.40 min. 241 ans 21 j. 6,39 j. 1

* La masse de la Terre est prise comme unité

** U.A. : Unité astronomique : distance moyenne de la Terre au Soleil (150 millions de km.)

La Lune.

Diamètre : 3500 km.

Masse : 0,0123 masse terrestre

Densité : 3,34

Distance à la Terre : minimum : 322.000 km.

moyenne : 353.000 km.

maximum : 384.000 km.

Révolution et rotation : 27 jours

Elle ne possède aucune atmosphère; il n’y a donc pas d’érosion ;sa surface conserve les traces du bombardement de météorites qu’elle a subi à son origine :elle est parsemée de cratères de toutes dimensions .Les taches sombres appelées improprement “mers” sont en réalité des épanchements de basalte anciens .Elle ne renferme pas d’eau liquide, mais on y a détecté récemment de la glace dans des cratères des pôles, à l’abri de la lumière solaire.

Mercure .Son aspect est analogue à celui de la Lune et il n’y a pas d’atmosphère .Sa température peut varier de 430° le jour à -180° la nuit .On y a également décelé de la glace aux pôles .

Vénus a été explorée par les sondes Venera et la sonde Pionneer dés 1978.Elle possède une atmosphère très dense (95 bars) constituée de gaz carbonique et d’azote, mais très peu de vapeur d’eau, et des nuages épais de gouttelettes d’acide sulfurique .Les vents sont très violents en altitude ;la température à la surface atteint environ 450°.Le relief a été obtenu au moyen des radars de sondes satellisées .Il est constitué d’une couche très épaisse et rigide de basalte et comporte trois grands massifs montagneux: Terra Ishtar, plateau rocheux à 3.000 m. au dessus du niveau moyen, surmonté d’un sommet à 11.000 m.; Terra Aphrodite à 9.000 m. et Bêta Regio .Il existe aussi une zone de plaines, une dépression analogue à un rift à -2.900 m. et un grand bassin à -2.700 m .Il est possible qu’il existe encore du volcanisme.

Mars a été exploré par des sondes en orbite et différents instruments au sol .Son atmosphère très ténue (0,01 bar) , formée d’azote et de gaz carbonique, produit cependant des tempêtes de poussières qui l’obscurcissent parfois .Sa température est le plus souvent négative et peut descendre la nuit à -125°;ses calottes polaires sont constituées de glace et de neige carbonique .Son relief, maintenant bien connu, fait apparaître un volcanisme et des évènements tectoniques anciens, de l’érosion et de la sédimentation .L’hémisphère nord renferme des plaines volcaniques et sédimentaires ;l’hémisphère sud des cratères d’impact et du volcanisme On y observe des vallées sinueuses et ramifiées qui indiquent que dans une période ancienne la température devait être plus élevée et l’eau liquide présente à la surface .Son état actuel est impropre à la vie .Mars possède deux satellites très petits: Phobos et Deimos.

Jupiter comme le soleil est composé essentiellement d’hydrogène et d’hélium et ne possède pas de surface solide .On y observe des nuages en zones et la tache rouge, qui est un énorme tourbillon .La température est très basse en surface et probablement très élevée en profondeur .Il est vraisemblable qu’il existe un noyau métallique et rocheux au centre .Jupiter est aussi un puissant émetteur d’ondes radio

Il possède des anneaux très ténus et de nombreux satellites .Le plus proche, Amalthée, est très petit (270 x 140 km.) ;sa révolution dure 0,49 jour .Io ensuite a une taille et une densité proches de celles de la Lune (révolution: 1,77 jour).Elle possède des volcans actifs, mais pas d’impacts, car sa surface, très colorée de noir, jaune et rouge est récente .On y a détecté du soufre, mais pas d’eau, et une atmosphère de gaz sulfureux.

Europe, de taille analogue, est couverte d’une couche de glace épaisse d’une centaine de kilomètres et très fracturée, récente car présentant peu d’impacts .Ganymède, deux fois plus éloigné qu’Europe, d’un diamètre de 5.000 km .Sa révolution est de 7 jours environ .Il est entièrement recouvert de glace avec de nombreux impacts .Callisto, un peu plus petite que Ganymède, semble formée essentiellement de glace .Sa surface sombre est criblée de cratères d’impact.

Saturne a une composition analogue à celle de Jupiter, mais une densité très faible (0,7). Ses anneaux, très fins et très nombreux, sont formés de débris .Ils sont limités par les orbites de petits satellites (satellites bergers) .Ils s’étendent jusqu’à 100.000 km de la planète .Au-delà se trouvent de nombreux satellites dont Mimas : 390 km. de diamètre, porte un très gros cratère. Encelade (490 km. de diamètre) dont la surface très brillante présente de petits cratères .Thétys, formée principalement de glace, avec de nombreux cratères et des failles Dioné, (diamètre : 1.100 km) avec des cratères et des traînées brillantes, et Rhéa (diamètre : 1.500 km.).

Au delà d’un million de kilomètres, on trouve Titan, le plus gros des satellites de Saturne, (diamètre : 5.150 km.) , entièrement couvert de nuages rougeâtres, possède une atmosphère d’azote à la pression d’environ 3 bars, une température en surface de -180°.On y a détecté de nombreuses molécules organiques (méthane ;acétylène acide cyanhydrique…) . Il pourrait y avoir de l’azote liquide .Sa surface, observée en infrarouge par le télescope Hubble, parait brillante.

Plus loin, on trouve Hyperion, petit et sombre, Japet, plus grand, présente une face claire et une autre sombre, et enfin Phoébé, à plus de 10 millions de kilomètres, en un an et demi.

Uranus, découvert en 1781 par Herschell, a été exploré par Voyager 2. De couleur bleue, son atmosphère est composée d’hydrogène et de méthane; sa température de surface est d’environ -200°.Son axe de rotation est incliné de 98°,donc presque parallèle au plan de l’écliptique, contrairement à toutes les autres planètes, ce qui fait que ses pôles se présentent alternativement face au Soleil en deux points de son orbite .On a observé 9 anneaux et 5 satellites rocheux couverts de glace dont Ariel, Oberon et Miranda.

Neptune a été détecté par Le Verrier d’après les perturbations du mouvement d’Uranus et observé en 1846 à la position prévue .On s’est aperçu récemment qu’il avait été signalé par Galilée prés des satellites de Jupiter et considéré alors comme une étoile .Observé par Voyager 2, de couleur bleue, son atmosphère comporte des nuages et des taches .On y a détecté du méthane, et sa température de surface est d’environ -230°.Il est entouré d’anneaux tronqués qu’on a appelés en 1989 Liberté, Egalité et Fraternité, et de 8 satellites dont Triton, très proche, de couleur rouge, et Néréide plus éloigné.

Pluton, découvert en 1930, a été longtemps mal connu et n’a pas encore été visité par des sondes .De petite taille(2.200 km.), sa température est d’environ -230°, il possède une atmosphère d’azote et une surface rougeâtre et tachetée .Son satellite Charon plus petit (1.180 km.),mais proche (19.640 km.), couvert de glace et grisâtre, orbite autour de Pluton en 6,39 jours.

Les autres objets du système solaire sont : des astéroïdes très nombreux ;on en connaît 18.000, la plupart entre Mars et Jupiter; des météorites, beaucoup plus petits, et des comètes. Ce sont des objets de petite taille (quelques kilomètres) dont les orbites sont très allongées. Elles sont constituées de glace, de débris rocheux et carbonés et de gaz. Lorsqu’elles s’approchent du Soleil, les matières volatiles échauffées s’échappent avec des poussières et constituent leurs queues qui s’étalent sur de très grandes distances .On admet qu’il en existe un très grand nombre dans le nuage de Oort situé à la limite du système solaire (50.000 unités astronomiques) et que le passage d’étoiles proches les précipite parfois vers le Soleil.

3.Le Soleil et les étoiles.

Le Soleil est une étoile quelconque, mais la plus proche et la mieux connue .C’est une masse gazeuse très chaude et ionisée ou plasma .Elle est constituée principalement d’hydrogène et d’hélium et renferme tous les autres éléments en quantités beaucoup plus faibles .L’énergie qu’elle dégage provient du centre où la température atteint 20 millions de degrés, ce qui permet la fusion de l’hydrogène en hélium, avec libération de photons X etet de neutrinos .Les photons n’atteignent la surface qu’au bout de 100 millions d’années, alors que les neutrinos s’échappent librement .A la surface, la température n’est plus que de 6.000° et la longueur d’onde des photons, qui se sont multipliés, a atteint celle de la lumière visible .L’intérieur du Soleil est opaque, car le gaz ionisé absorbe constamment les photons .Au dessus de la surface, la couronne constitue une atmosphère très ténue et très chaude .Le Soleil possède un champ magnétique moyen de 8 Gauss, dont la structure est très compliquée et très variable, et qui peut atteindre localement des milliers de Gauss (Le champ magnétique terrestre est d’environ 0,4 Gauss).La surface est granuleuse et présente des taches qui évoluent avec un rythme de 11 ans .L’intérieur est animé de mouvements de convection qui ramènent vers la surface la matière plus chaude des profondeurs.

Formation et évolution des étoiles .Des étoiles naissent constamment dans les galaxie, et on peut en suivre l’évolution (par exemple dans la nébuleuse d’Orion) .A l’origine, il y a des nuages de gaz (hydrogène et hélium) et de poussières, qui se condensent sous l’effet de leur masse .La contraction dégage une grande quantité de chaleur .Quand la température au centre atteint 20 millions de degrés, la réaction de fusion de l’hydrogène commence, et elle dure jusqu’à épuisement de l’hydrogène dans la région centrale .C’est une période de stabilité dont la durée dépend de la masse de l’étoile .Pour des étoiles comme le Soleil, c’est de l’ordre de 10 milliards d’années, mais les étoiles géantes ne durent que quelques millions d’années, car la fusion y est beaucoup plus rapide De nouvelles fusions se produisent aux dépends de l’hélium, avec formation d’éléments plus lourds : carbone, azote, oxygène …Le dernier effondrement provoque une explosion : l’étoile devient une géante rouge qui se condense ensuite en naine blanche, de la taille de la Terre, mais très dense (une tonne par millilitre) . Celle-ci se refroidira peu à peu en naine noire.

Les étoiles géantes subissent une série d’effondrements et de réchauffements qui portent leur coeur à des milliards de degrés, jusqu’à la formation de fer, élément le plus stable. L’effondrement final provoque l’explosion en supernova, aussi brillante qu’une galaxie, mais de courte durée .Le résidu peut être une étoile à neutrons, de quelques kilomètres de diamètre, mais très dense (un milliard de tonnes par millilitre) , ou un trou noir, encore plus massif, et qui ne laisse rien échapper, pas même la lumière .C’est au cours de cette explosion que les éléments plus lourds que le fer peuvent se former.

Les étoiles à neutrons sont aussi appelée pulsars, car elles émettent des ondes radio et parfois des rayons X à des fréquences qui vont de la seconde à la milliseconde.

Les différents types d’étoiles.

Les étoiles doubles sont très fréquentes. Les couples peuvent être constitués d’étoiles normales, naines, de pulsars ou de trous noirs. Il existe aussi:

Des étoiles variables comme les Céphéides, dont le diamètre et donc la luminosité varie sur des périodes de quelques jours à quelques centaines de jours.

Des étoiles de Wolf Rayet, découvertes pour la première fois en 1867.Ce sont des étoiles géantes en fin de vie qui ne renferment plus d’hydrogène, mais de l’hélium (98%) et de l’azote ou du carbone .Leur masse est de 20 à 50 fois celle du Soleil .Leur température de surface est de 40.000 à 60.000°; elles sont un million de fois plus brillantes que le Soleil. Elles sont très rares: on n’en connaît que 160 dans la Voie Lactée, et leur durée de vie n’est que de quelques centaines de milliers d’années .Elles s’achèvent en supernovae.

4.Les galaxies.

Les étoiles sont groupées en galaxies .Notre galaxie, la Voie Lactée renferme environ cent milliards d’étoiles .Elle a la forme d’un disque aplati avec des bras enroulés en spirale .Ses dimensions s’expriment en années-lumière (1 année lumière A.L.correspond environ à 10.000 milliards de kilomètres) . Son diamètre est de 150.000 A.L. et son épaisseur de 5.000 A.L.Le Soleil est à 30.000A.L.du centre .Il fait le tour de la galaxie en 200 millions d’années.

Outre les étoiles, les galaxies renferment des nuages de gaz, de poussières et de météorites. Dans ces nuages, on a détecté de nombreuses molécules : oxyde de carbone ;formaldéhyde ;eau; ammoniac ;acide cyanhydrique ;acide sulfhydrique ;acide formique ;alcool…et surtout de l’hydrogène .Ces nuages sont le lieu de formation d’étoiles nouvelles; on en a observé en particulier dans la nébuleuse d’Orion.

Notre voisine, la galaxie d’Andromède, située à 2 millions d’années lumières, est aussi une galaxie spirale, mais il existe également des galaxies elliptiques qui ne comportent pas de bras et renferment beaucoup moins de gaz .Dans les limites de l’univers observable, de 15 milliards d’années lumières, on estime qu’il existe quelques centaines de milliards de galaxies.

Les Quasars. Ce sont des astres très éloignés (quelques milliards d’années lumière), donc très anciens. Entouré d’un nuage de gaz, leur noyau a environ les dimensions du système solaire, mais il rayonne beaucoup plus que toute une galaxie ordinaire ;Il émet à la fois de la lumière, des ondes radio et des rayons X.Il pourrait avoir en son centre un trou noir géant.

Le rayonnement cosmique est constitué de noyaux d’atomes, principalement d’hydrogène, c’est à dire de protons animés d’une grande vitesse, proche de celle de la lumière, donc d’une grande énergie .Ils semblent avoir une origine très lointaine .En pénétrant dans l’atmosphère, ils percutent les atomes situés sur leur trajectoire en créant des gerbes de particules variées.

5.Histoire de l’univers.

Pour essayer de reconstituer cette histoire, on dispose d’observations abondantes d’évènements d’autant plus anciens qu’ils sont éloignés, puisque la lumière et les autres rayonnements ont dû parcourir un long chemin avant de nous parvenir, mais il ne s’agit pas de créer une nouvelle mythologie: il faut bien distinguer ce qu’on observe, qui est très fiable, et ce qu’on imagine, qui l’est beaucoup moins et peut être remis en question par des faits nouveaux.

L’expansion de l’univers a été suggérée par Hubble dés 1924.Il a constaté que la longueur d’onde de la lumière des galaxies lointaines est décalée vers le rouge, comme le bruit d’un véhicule qui s’éloigne est décalé vers les sons graves .Il en a déduit que ces galaxies s’éloignent d’autant plus vite qu’elles sont éloignées .L’univers serait donc né d’une explosion gigantesque, le Big-Bang .On a tenté de dater cet évènement par des méthodes indépendantes: l’âge des galaxies, l’âge des étoiles les plus anciennes et l’âge des atomes déterminé par la radioactivité .On observe une assez bonne concordance qui situe l’origine de l’univers à une quinzaine de milliards d’années environ.

La physique moderne tente d’interpréter cette histoire .A l’origine, l’univers aurait été minuscule et très chaud et n’aurait été constitué que de rayonnement .Le refroidissement accompagnant l’expansion aurait permis la formation de particules matérielles, quarks et électrons, puis de protons et de neutrons, ainsi que des antiparticules correspondantes ayant disparu .Cette matière était à l’origine composée essentiellement d’hydrogène, d’une proportion plus faible d’hélium et moins encore de deutérium et de lithium. L’effet de la gravité aurait ensuite condensé la matière en étoiles et en galaxies.

L’avenir de l’univers peut être imaginé selon deux scénarios possibles: une expansion indéfinie d’un univers de plus en plus froid ou une nouvelle contraction si l’expansion ne peut pas continuer indéfiniment .Tout dépend de la masse totale de l’univers .Si elle est insuffisante, rien n’arrêtera l’expansion .La masse visible paraît effectivement très insuffisante .On a bien détecté dans les galaxies une masse cachée importante, à laquelle pourrait s’ajouter celle des neutrinos ou d’autres particules inconnues, mais la question n’est pas encore résolue.

En conclusion, on ne prévoit pas de cataclysme universel dans les prochains milliards d’années, mais nous ne sommes pas à l’abri d’accidents locaux comme la chute d’astéroïdes, en attendant l’explosion du Soleil dans 5 milliards d’années.

SEULS DANS L’UNIVERS ? par M André RIO

 

M André RIO
M André RIO

SEULS DANS  L’UNIVERS ?

Sommes- nous seuls dans l’Univers, seuls êtres vivants, seuls êtres pensante ? Notre histoire nous apprend tous les aléas par lesquels nous sommes passés pour aboutir à notre situation actuelle.

La matière de la vie.

La première apparition de la matière qui constitue tout ce qui vit remonte à l’origine de l’Univers. Dans les minutes qui suivent le Big-Bang, il y a environ 13,7 milliards d’années, apparaissent l’hydrogène, puis le deutérium, l’hélium et un peu de lithium. Ensuite, il ne se crée plus rien pendant quelque 200 millions d’années, quand se forment les premières étoiles. Les plus massives produisent d’abord de l’hélium, comme le fait actuellement le Soleil, puis, en fin d’existence, par une série de contractions et d’échauffements, du carbone, de l’oxygène, et finalement tous les éléments jusqu’au plus stable, le fer. Enfin, pendant un temps très bref d’implosion suivi d’explosion, le bombardement des éléments existants par des neutrons crée les éléments plus lourds que le fer jusqu’à l’uranium et même au delà, ainsi que les plus légers, lithium, glucinium et bore, par une réaction appelée spallation. , tandis que les éléments radioactifs instables disparaissent peu à peu. Tous ces éléments se retrouvent dans des nuages de gaz et de poussières qui forment ensuite de nouvelles étoiles, des planètes et leurs satellites.

La vie sur Terre.

Le Soleil a 5 milliards d’années, la Terre 4,5 milliards. Encore jeune et chaude, elle a subi une collision dont les débris ont constitué la Lune, puis s’est refroidie, et de l’eau liquide s’est condensée à sa surface. C’est alors que la vie a pu apparaître. Dans les années 50, un étudiant, Miller, a entrepris une série d’expériences qui établissent qu’à partir de la matière qui pouvait constituer l’atmosphère de la Terre primitive : vapeur d’eau, azote, ammoniac, gaz carbonique, soumis à des décharges électriques capables de casser ces molécules et d’en créer de nouvelles. Il a observé en quelques jours la formation d’acides aminés, constituants des protéines. On a montré par la suite que sans ammoniac, mais en présence de calcaire pour neutraliser les acides azotés qui se forment dans ces conditions on aboutissait à des résultats analogues. La formation de bases azotées, constituants des acides nucléiques, a également été observée. Certaines de ces molécules ont été trouvées également dans des météorites, mais il y a loin de la formation d ‘acides aminés, molécules relativement simples, à l’apparition de la vie avec ses mécanismes précis et ses molécules géantes. Il y a fallu beaucoup de temps et de péripéties, mais , dès 3,5 milliards d’années, la vie existait, du moins sous une forme rudimentaire de bactéries. Tout ce qui vit actuellement, végétal ou animal, a un ancêtre commun appelé LUCA (Last Universal Commun Ancestor) et les mêmes mécanismes fondamentaux, comme le code génétique qui permet de traduire les acides nucléiques en protéines. Avant LUCA, il peut y avoir eu d’autres tentatives qui n’ont pas abouti ou ont été supplantées par les plus aptes.

Des êtres pluricellulaires existaient peut-être déjà il y a 1 milliard d’années, les éponges et les cnidaires de 650 à 630 millions, la faune d’Ediacara de 635 à 540 millions n’était pas encore très diversifiée, mais au Cambrien (500 à 400 millions), avec la faune de Burgess, c’est une explosion dans l’abondance et la diversité des espèces. Une série de catastrophes, volcanisme et météorites, ont provoqué des extinctions massives toujours suivies de l’apparition de nouvelles espèces provenant des survivants. Des végétaux terrestres descendants des algues se sont établis sur les continents en s’adaptant à des conditions de vie complètement différentes et ont été suivis par des vertébrés terrestres issus des poissons ; batraciens, reptiles, mammifères se diversifiant, et parmi ces derniers les primates, nos lointains ancêtres, puis les Australopithèques en Afrique il y a 2 à 4 millions d’années, le genre Homo, 1 à 2 millions et enfin notre propre espèce H. sapiens qui n’a que 200 000 ans.

La science moderne a débuté il y a seulement 400 ans, la production et la détection des ondes radio il y a à peine un siècle, seul moyen connu actuellement de communiquer à longue distance, mais combien de temps peut subsister une civilisation comme la notre ? Peut-elle faire encore des progrès importants, ou sa fragilité la condamne-t-elle à disparaître ? Une forme de culture comparable peut-elle exister ailleurs, où et quand ?

Une autre civilisation avancée ailleurs ?

Un article récent ( Pour la science, octobre 2011, p. 54) décrit les conditions qui paraissent nécessaires pour que la vie et une civilisation puissent apparaître sur une planète ou un satellite. Le plus important est la présence d’eau liquide, en surface ou en profondeur sous une couche de glace, comme c’est le cas pour la Terre, pour Europe, satellite de Jupiter et Titan, satellite de Saturne ; Dans le premier cas, une atmosphère est également nécessaire pour éviter l’évaporation de l’eau et permettre des échanges gazeux avec l’eau et le sol. La présence d’eau liquide en surface n’est possible sur une planète que si elle est située dans une bande étroite entourant son étoile, plus près pour une petite étoile, plus loin pour une étoile plus importante. La Terre est située au milieu d’une telle zone, Mars à l’extrémité. Toutes les autres planètes du système solaire sont trop prés ou trop loin. Il faut aussi que l’étoile ne soit pas trop massive, car sa durée de vie dépend de sa masse. Celle du Soleil est de 10 milliards d’années, celle d’une étoile deux fois plus massive n’est que de 1,8 milliard, et une étoile de 8 masses solaires ne dure que quelques dizaines de millions d’années, ce qui est très insuffisant pour laisser le temps à la vie d’apparaître et de se développer. Si l’étoile est trop petite, la zone favorable en est trop proche, et la planète qui s’y trouverait risque, par l’effet de la gravité, d’avoir un hémisphère constamment

éclairé et l’autre dans l’ombre.                                                                                              Plus de la moitié des étoiles constituent des systèmes doubles. C’est une circonstance défavorable pour qu’une planète puisse se maintenir longtemps sur une orbite stable. La présence de planètes géantes trop proches est également une cause de perturbations. Des conditions stables exigent également que l’orbite de la planète soit peu excentrée : une orbite elliptique  allongée entraîne de grandes différences de température à sa surface. Il faudrait aussi que l’obliquité de l’axe de rotation de la planète soit modéré pour que les saisons soient stables. Celle de la Terre, 23°, est stabilisée par l’influence gravitationnelle de la Lune. Enfin, l’existence de continents et d’iles permet à la vie de se développer hors de l’eau. La Terre a réuni toutes les conditions favorables, mais il n’est pas certain que si elles sont réunies ailleurs la vie soit apparue automatiquement. Une note récente (Pour la science, décembre 2011      p. 23) remarque que toutes les conditions ci-dessus ne sont pas nécessairement indispensables.

Une civilisation avancée ailleurs ?

L’existence d’une civilisation avancée est beaucoup plus aléatoire que celle de la vie. La notre a nécessité plus de 3,5 milliards d’années d’évolution et n’a émergé qu’à la suite d’une série de coups de chance. Notre espèce est apparue fortuitement, au départ d’un petit nombre d’individus dont la survie n’était pas assurée, et la science moderne, si récente, doit son existence à quelques personnages qui ont du lutter contre les idées reçues de leur époque au péril de leur liberté et de leur vie.

Peut-on espérer communiquer avec d’autres civilisations ? Les étoiles les plus proches du système solaire sont distantes de quelques années lumières, et tous les systèmes  qu’on a pu observer jusqu’ici sont très différents du notre. Il existe des centaines de milliards de galaxies à des millions ou des milliards d’années lumières. La notre, la Voie Lactée, est un disque de 150 000 années lumières, épais de 5000. Elle renferme plus de mille milliards d’étoiles. Le Soleil, qui se trouve à 25 000 années lumière du centre, en fait le tour en 250 millions d’années. Dans un rayon de 1250 années lumières autour du système solaire il y a environ 30 millions d’étoiles. Il est clair que tout échange avec une autre civilisation, même à la vitesse de la lumière,                 (300 000 Km par seconde) chaque signal nécessiterait pour parvenir à destination bien des années ou des siècles, et encore en supposant que l’on dispose de techniques suffisamment sensibles pour détecter un signal dilué dans l’espace.

Un ouvrage récent (C. Magnon. Le théorème du jardin) aborde également la question de notre existence dans l’univers. Il insiste sur le fait que l’apparition de la vie est le résultat d’une cascade d’évènements aléatoires, comme le sont les phénomènes météorologiques symbolisés par l’effet papillon, qui rendent toute prévision à long terme impossible. Il ignore les expériences de Miller citées ci-dessus, et il ne prend pas en compte les particularités de la chimie du carbone, seul élément capable de constituer des assemblages indéfiniment variés qui permettent de réaliser des molécules ni trop stables ni trop rigides ni trop fragiles. S’il cite la méthionine, un des acides aminés qui constituent les protéines, et qui comme les autres peut exister sous deux formes symétriques , une droite et une gauche, et dont seule la forme gauche est métabolisée par les cellules vivantes, il attribue cette préférence à des phénomènes interstellaires, alors qu’une explication locale paraît beaucoup plus vraisemblable. Par des considérations statistiques, l’auteur conclut que la vie, telle qu’elle existe sur Terre, n’est apparue nulle part ailleurs et que l’existence d’une civilisation comparable à la notre est tout à fait invraisemblable.

Conclusions.

Si la vie a pu apparaître et se développer, c’est que la Terre  a gardé presque depuis son origine de l’eau liquide à sa surface et une atmosphère. Il est établi que des acides aminés et d’autres molécules constituants de la vie se forment spontanément. Suffisamment stables pour se conserver mais suffisamment fragiles pour évoluer par cassures et réarrangements, les mélanges dans lesquels ils sont apparus ont été soumis à divers aléas : température et humidité variables, décharges électriques, émanations volcaniques, irradiation par les rayonnements ultra violets. Ils ont évolué constamment sous forme de masses visqueuses et brunâtres. Tout chimiste a pu faire l’expérience d’une réaction conduisant, au lieu du produit simple souhaité, à une masse d’aspect goudronneux de composition complexe. Cette évolution peut se produire sur n’importe quelle planète analogue à la Terre. Une longue période de temps peut faire apparaître localement  une organisation progressive protégée par un support solide ou une membrane, tout en pouvant échanger matière et énergie avec l’extérieur. Par contre, l’existence d’une civilisation avec laquelle nous pourrions communiquer, compte tenu du temps et de la distance qui nous en sépare, ne laisse actuellement aucun espoir, même si chaque galaxie en a vu apparaître un certain nombre.

Immunologie,mutations par M RIO André

Deux questions, une réponse

M André RIO
M André RIO


2 questions posées à M RIO :

  • à chaque attaque d’un organisme, on trouve normale la réaction de défense de celui qui est attaqué; existe-t-il une explication scientifique à ce phénomène?
  • mutation du papillon blanc en papillon noir ?

La méthode expérimentale confronte en permanence hypothèses et observations. Elle repose sur des faits observables et reproductibles, ce qui exclut toute interprétation mythique invérifiable qui équivaut à un refus de comprendre et de progresser. Son bilan justifie largement cette attitude : on lui doit tous les acquis des sciences et des techniques. Elle ne prétend pas tout expliquer tout de suite, mais le plus souvent elle finit par y parvenir.

La première question posée concerne l’immunologie. Dans le détail, c’est très compliqué, mais on peut en retenir l’essentiel : La sélection naturelle, qui opère par mutations aléatoires, a mis au point des mécanismes qui permettent à chaque espèce de se défendre contre les infections bactériennes ou virales. Chez l’Homme par exemple, un certain nombre de cellules spécialisées circulent dans le sang : leucocytes, cellules tueuses, macrophages…Elles reconnaissent la présence d’envahisseurs étrangers et agissent pour les neutraliser en les bloquant ou en les détruisant. Les vaccins ont pour effet de stimuler cette défense. Tous ces mécanismes reposent sur des interactions entre molécules et les contacts spécifiques qui leur permettent de s’emboîter comme une clé dans une serrure.

A chaque invasion, des cellules spécialisées synthétisent un grand nombre de molécules diverses, ce qui permet statistiquement d’en former qui soient capables de neutraliser l’agent étranger, mais une cellule vivante ne fonctionne pas avec la rigueur d’une horloge, et si le rôle de l’ADN est fondamental il n’explique pas tout. Imprévisible dans les détails , leur fonctionnement statistique global permet aux cellules de se maintenir en vie. Si la défense est quand même débordée, le patient tombe malade, mais s’il survit il garde en mémoire la structure moléculaire capable de le défendre et se trouve le plus souvent immunisé contre une nouvelle attaque

La deuxième question permet une réponse beaucoup plus simple : Les papillons anglais en question ont de tout temps comporté deux variétés d’une même espèce, l’une claire, l’autre sombre. Dans un milieu clair, les papillons sombres étaient facilement repérés par leurs prédateurs ; ils étaient donc très minoritaires. Quand l’industrialisation a assombri le milieu , les troncs d’arbres noircis par la suie, c’est la variété claire qui s’est trouvé défavorisée, sans être totalement éliminée, et la variété sombre a pu prospérer. La situation est réversible : un milieu redevenu plus clair entraîne la prolifération de la variété claire.

QUATRE SIECLES DE SCIENCES EXPERIMENTALES par M André RIO

QUATRE SIECLES  DE SCIENCES EXPERIMENTALES

M André RIO
M André RIO

Aucune autre civilisation ne l’avait fait ; les sciences expérimentales en Occident ont transformé les idées sur le monde et sur l’Homme dans le monde.

                                               Le XVIIème siècle

         Au début du siècle, tout est expliqué par la Genèse et la philosophie d’Aristote. Les pères de l’Eglise ont associé les deux conceptions qui se complètent : le monde a été créé en six jours, 4 000 ans avant Jésus-Christ. Au centre, le monde terrestre immobile mais imparfait à cause du péché et en perpétuel changement. Au delà , le monde céleste, celui de Dieu, parfait et immuable, où les astres sont répartis sur sept sphères de cristal en rotation, la dernière étant celle des étoiles fixes. Pour expliquer le mouvement des planètes les plus proches, Ptolémée doit supposer qu’elles se déplacent simultanément sur des épicycloïdes. Aristote considère également que la matière est faite de quatre éléments, la terre, l’eau, l’air et le feu et que la Nature a horreur du vide. L’apport chrétien concerne la morale : le Décalogue, le péché originel et la Rédemption, les châtiments et les récompenses : l’âme immortelle et la résurrection des corps, le Ciel au delà de la septième sphère, le Purgatoire, les Limbes, et l’Enfer au centre de la Terre.

L’astronomie. Trois noms, trois personnages vont tout remettre en question ; Copernic, Kepler et Galilée : il est beaucoup plus simple de considérer que toutes les planètes, dont la Terre, tournent autour du Soleil, et que c’est lui qui est le centre du monde. De plus, la lunette astronomique révèle des faits en contradiction totale avec Aristote : des montagnes sur la Lune, des taches sur le Soleil, les phases de Vénus et les satellites de Jupiter. Les dimensions de la Terre, estimées par Eratosthène, sont déterminées au moyen d’une méthode nouvelle, la triangulation, par Snell. D’autre découvertes se succèdent : la rotation du soleil sur lui-même (1630), les anneaux de Saturne (Huygens, 1655), les calottes polaires de Mars (1666) . En 1680, on mesure la parallaxe du Soleil, ce qui permet d’apprécier sa distance, et on réalise que c’est une étoile parmi les autres. En 1687, Newton publie la loi de l’attraction universelle qui explique à la fois la chute des corps, le mouvement des astres et la pression atmosphérique.

            Les mathématiques. Au XVIème siècle, on connaissait déjà l’algèbre et la trigonométrie. Au XVIIème, Napier (Neper) invente les logarithmes d’où découle la règle à calcul. Après Viète, Descartes crée la géométrie analytique, Pascal et Fermat le calcul des probabilités, Kepler introduit la notion de grandeur infinitésimale et enfin Newton et Leibniz apportent le calcul intégral, un des outils les plus puissants des mathématiques.

            La physique. Au début du siècle, Galilée fait des observations sur les oscillations du pendule et sur la chute des corps qui contredisent les idées d’Aristote, de même que les expériences sur le vide et la pression atmosphérique. Le baromètre de Torricelli montre que la pression diminue avec l’altitude. Les premières mesures sont faites au Puy de Dôme par Perrier sur les indications de Pascal. Cette pression est due au poids de l’air qui surmonte la Terre. Elle est illustrée par l’expérience des hémisphères de Magdeburg et la construction de pompes à vide. La compression des gaz est étudiée par Mariotte, et la vitesse du son dans l’air est mesurée par Mersenne en 1635. Enfin deux expériences riches d’avenir : le magnétisme de la Terre est assimilable à celui d’un aimant, et la réalisation par Otto von Guericke de la première machine électrostatique.

            La lumière et l’optique. Contrairement à Aristote qui pensait que la vision part de l’œil et se réfléchit sur les objets, l’expérience montre que c’est la lumière d’une source qui les éclaire et qu’ils les renvoient dans l’œil, mais la controverse sur la nature de la lumière commence et durera jusqu’au XXème siècle. Onde selon Huygens et Descartes ou corpuscule pour Newton, les lois de la réflexion et de la réfraction sont établies par Snell et Descartes.

            Aristote, encore lui, croyait que la lumière blanche est pure, contrairement aux lumières colorées. Newton, par des jeux de prismes, démontra au contraire que la lumière blanche est un mélange de lumières colorées, les couleurs de l’arc en ciel, du rouge au violet. Pour des raisons mystiques, il considérait qu’il existe sept couleurs. En réalité, le spectre de la lumière blanche du Soleil est continu. Un autre phénomène, la diffraction de la lumière, semblait indiquer, contrairement à l’opinion de Newton, que la lumière était un phénomène vibratoire. Enfin, Römer montra en 1676, grâce à l’observation des satellites de Jupiter, que la lumière a une vitesse très grande mais non infinie.

La   chimie. C’est encore une science empirique mal dégagée de l’alchimie, et pour laquelle on ne possède encore aucune interprétation cohérente. On sait que l’air est indispensable à la combustion et à la respiration ; c’est , avec la terre, l’eau et le feu, l’un des quatre éléments d’Aristote. On sait aussi dès 1631 que les métaux, en s’altérant à l’air, gagnent du poids. En 1640, on soupçonne qu’il existe d’autres gaz que l’air. En 1663, Brandt obtient le phosphore, et en 1697 Stahl imagine la théorie du phlogistique qui va aiguiller la chimie sur une fausse piste pendant près d’un siècle.

            La vie. Aristote, qui n’a manqué aucune occasion de se tromper par excès d’assurance, pensait que le cœur est le siège des émotions et de la pensée, et le cerveau un simple radiateur pour éliminer l’excès de chaleur. Les médecins du début du siècle croyaient avec Galien que le sang a sa source dans le cœur ou le foie et se répand ensuite dans tout le corps sans aucun retour. On pouvait leur objecter qu’il devait alors être produit et consommé constamment en grande quantité . En 1628, Harvey montra qu’en réalité le sang circule en permanence dans tout le corps et revient au cœur par les veines dont les valvules empêchent tout retour en arrière. Douze ans après la mort de Harvey on explique la différence de couleur entre le sang artériel et le sang veineux par le passage au contact de l’air dans les poumons.

            L’emploi du microscope par Leeuwenhoek (1632-1723) ouvre la voie à la structure submillimétrique du vivant. On sait déjà faire des microscopes à deux lentilles, l’objectif et l’oculaire, mais leurs performances sont encore médiocres à cause des aberrations chromatiques, et on préfère utiliser une seule lentille à fort grossissement. On découvre ainsi la cellule vivante et son noyau, les globules rouges et les spermatozoïdes.

 

Le XVIIème siècle est le premier siècle scientifique. Ses acquis peuvent nous paraître encore modestes en comparaison des suivants, mais dans tous les domaines il a amorcé les découvertes à venir, en substituant aux mythes et à l’autorité des Anciens la méthode expérimentale qui seule permet de trancher entre des théories conçues arbitrairement et la réalité des faits. Quelle portée ont eu ces résultats sur les contemporains ? Le siècle s’intéressait beaucoup plus aux lettres, aux arts, aux évènements historiques et aux disputes religieuses qu’à des sciences qui n’avaient pas encore de répercussions sur l’existence, mais qui marquaient une ouverture d’esprit : Pascal, s’adressant au Pape, reconnaît son autorité en matière de foi, mais non de faits, car il n’a pas le pouvoir d’empêcher la terre de tourner, et lui avec elle.

Dans les conversations de salon, il arrive aussi qu’on discute de sciences ; Descartes est à la mode, et si Molière met en scène des Femmes Savantes qui papotent sur les atomes et sur le vide, c’est qu’il y avait aussi des gens plus sérieux qui s’y intéressaient.

                                   Le XVIIIème siècle.

         L’astronomie . En 1706, Halley établit que les comètes décrivent des orbites elliptiques très allongées autour du Soleil, et reviennent donc périodiquement au voisinage de la Terre. En 1718, il observe le mouvement propre des étoiles, qui n’occupent donc pas des positions rigoureusement fixes les unes auprès des autres.

            Newton avait prédit que, du fait de sa rotation, la Terre devait être légèrement aplatie aux pôles. Cet avis étant contesté, l’Académie des Sciences en France décide d’envoyer deux expéditions , l’une en Laponie, au plus près du pole nord, dirigée par Maupertuis, l’autre au Pérou, alors colonie espagnole, sous la direction de Godin, Bouguer et La Condamine. La comparaison de la longueur des arcs de méridiens de ces sites et en Europe devait permettre de trancher. Les mesures étaient réalisées par triangulation. L’expédition de Maupertuis atteint son but rapidement ; il n’en est pas de même en Equateur qui pendant plusieurs années rencontre d’énormes difficultés. Finalement, tous les résultats concordent et justifient les prévisions de Newton.

En 1773, on parvint à mesurer la distance des planètes, et Herschel découvre Uranus en 1783. L’existence des aérolithes, des pierres tombées du ciel, est confirmée en 1794, et en 1796 Laplace avance sa théorie de formation du système solaire à partir d’un nuage de gaz et de poussières en rotation, qui a été largement confirmée par la suite.

La physique .La mesure des températures devient une pratique courante avec le thermomètre à mercure. Deux échelles thermométriques sont proposées : celle de Fahrenheit en 1715, et celle de Celsius en 1742. A partir de 1783, la théorie des réseaux cristallins explique les propriétés des cristaux, mais les résultats les plus marquants au cours du siècle concernent l’électricité statique, prélude aux découvertes du siècle suivant. On connaissait depuis l’antiquité l’électricité statique : un bâton d’ambre jaune ( elektron) frotté attire de petits débris, mais ce n’était qu’une curiosité sans conséquence. Au XVIIIème siècle, on commence à s’interroger, et on constate qu’il existe deux sortes d’électricité : l’électricité vitreuse (+) par frottement du verre et l’électricité résineuse (-) avec l’ambre ; de même signe, les charges se repoussent ; de signe contraire, elles s’attirent. On constate aussi que des matériaux dits isolants comme le verre conservent les charges, alors que des conducteurs comme les métaux leur permettent de s’écouler. Parmi les premiers instruments utilisés, on peut citer l’électroscope à feuilles d’or qui détecte les charges et la bouteille de Leyde, ancêtre des condensateurs, qui permet de les stocker.

            Franklin montre, non sans prendre de gros risques, que la foudre est un phénomène électrique résultant de la décharge des nuages entre eux ou vers la terre. Il invente le paratonnerre qui canalise ces charges et protège les édifices. Enfin, Coulomb, au moyen du pendule de torsion, fait des mesures et démontre qu’attraction et répulsion entre charges suivent des lois analogues à celles de l’attraction universelle de Newton : les forces électriques sont inversement proportionnelles au carré des distances. Son nom sera donné à l’unité de charge électrique, mais il faudra attendre le début du XIXème siècle pour savoir produire un courant électrique continu et en exploiter les applications, et celui du XXème pour en connaître le responsable, l’électron.

La chimie. Dans la première moitié du siècle, on découvre des substances nouvelles : l’acide borique, le bleu de Prusse, l’acide formique, l’alumine, la magnésie, et des métaux : le cobalt, le nickel et le platine, mais la chimie reste une pratique empirique, d’autant qu’elle s’appuie sur deux notions aberrantes, les quatre éléments d’Aristote et le phlogistique. Dans la seconde moitié, d’autres composants vont jouer un rôle décisif, les gaz, ou gas, du grec caos, mot inventé au siècle précédent. Dès cette époque, on connaissait le gaz carbonique sous le nom d’air fixe, et on avait observé que contrairement à l’air ordinaire il n’entretient pas le respiration et la combustion et qu’il est absorbé par la chaux, d’où son nom, Identifié plus précisément en 1755, il peut être obtenu par action d’un acide sur le calcaire ou par combustion du charbon. Peu après d’autres gaz sont découverts : l’hydrogène par Cavendish en 1766, appelé air inflammable,  l’azote par Rutherford en 1772 nommé air phlogistiqué et l’oxygène, air vital ou déphlogistiqué par Priestley en 1774. En 1784, Cavendish montre que la combustion de l’hydrogène donne de l’eau, mais tente de l’expliquer par l’intervention du phlogistique, ce qui n’aboutit qu’à une interprétation confuse . C’est l’intervention de Lavoisier qui permet enfin de clarifier la situation . En 1777, il montre que l’air est un mélange d’oxygène et d’azote, que l’oxygène s’unit aux métaux pour former des oxydes, et en 1787 que l’eau n’est pas un élément mais une combinaison d’oxygène et d’hydrogène. Les véritables éléments sont donc l’oxygène, l’azote et l’hydrogène, ainsi que le carbone et les métaux. Dans les dernières années du siècle, on découvre de nouveaux métaux dont le titane, et le chrome.

            Le système métrique. Le besoin s’en faisait sentir depuis longtemps, mais      l’Ancien Régime  s’était heurté à une telle inertie qu’il n’était pas parvenu à unifier les poids et mesures. En 1790 ; Talleyrand fait adopter par la Constituante l’unité fondamentale, le mètre, et en 1795 la Convention crée le système métrique . Le mètre est défini comme la dix millionième partie du quart du méridien terrestre. Ne se satisfaisant pas des résultats obtenus au début du siècle par Maupertuis en Laponie, Bouguer, Godin et la Condamine au Pérou, on charge Delambre et Méchain  de nouvelles mesures du nord de la France à l’Espagne. En 1840, le système devient seul légal et obligatoire.

            La vie. Dès le XVIIème siècle,  grâce au microscope, on connaissait la cellule vivante et les êtres unicellulaires. En 1737, Swammerdam étudie les métamorphoses des insectes. En 1752, Réaumur montre le rôle du suc gastrique dans la digestion des protéines. En 1777, Spallanzani réalise la fécondation artificielle des œufs de grenouille, et en 1779 on reconnaît la synthèse chlorophyllienne, le dégagement d’oxygène par les plantes et son rôle dans la respiration. A ces découvertes s’ajoutent la nature électrique de l’influx nerveux et le rôle du cerveau dans la conscience. En 1796, Jenner découvre la vaccination et on comprend l’effet de l’hyperglycémie dans le diabète. Il faut aussi citer deux grands noms : Buffon et son Histoire Naturelle, et Linné, fondateur de la nomenclature moderne.

            Si le siècle précédent avait  malheureusement imaginé le phlogistique, source de confusion et de retard dans le progrès, celui-ci avec Hahnemann invente l’homéopathie dont l’absurdité n’a toujours pas découragé les partisans . Le phlogistique n’intéressait que des chimistes et n’a pas survécu à Lavoisier ; L’homéopathie qui touche à la santé, séduit encore un public trop crédule.

Dans un siècle où les sciences ne concernent encore qu’un petit nombre d’universitaires et d’amateurs et n’ont pas encore d’applications pratiques notables, tout se prépare pour une épopée qui va commencer dans les premières années du siècle suivant. Si les sciences de la vie sont encore seulement descriptives et empiriques, la physique et la chimie sont maintenant établies sur des bases solides. Plus important encore, le Siècle des Lumières rompt avec les traditions de respect aveugle des Anciens, éveille l’esprit critique et l’espoir du progrès des connaissances.

                                        Le XIXème siècle

La physique

            Les gaz et la thermodynamique. Les gaz sont un état de la matière qui intéresse autant physiciens et chimistes. Leur étude est à l’origine de la création d’une science entièrement nouvelle : la thermodynamique, abstraite, ayant pour langage les mathématiques, mais créée aussi pour interpréter le fonctionnement des machines à vapeur. Les gaz sont compressibles et dilatables ; pression et volume dépendent de la température :

                                               P V = n R T

P : pression ; V : volume ; : nombre de molécules ; R : constante des                      gaz parfaits (R vaut environ 8 joules); T : température absolue en degrés K                       (0° K = – 273° C).

Une molécule-gramme ou mole d’un gaz, quel qu’il soit, occupe un volume de 22,4 litres sous 1 bar et à 0°C. Elle renferme en réalité N = 6,02. 1023 molécules élémentaires.

Les gaz sont solubles dans les liquides ; la solubilité dépend de leur nature, de celle du solvant, de la pression et de la température. Ils sont liquéfiables et solidifiables. On a d’abord liquéfié les plus faciles : gaz sulfureux, gaz carbonique, ammoniac. D’autres, considérés un temps comme gaz permanents ont finalement été liquéfiés, l’oxygène en 1883, l’hydrogène en 1892.

Il existe pour chaque gaz une température et une pression critiques au delà desquelles il n’y a plus de frontière entre gaz et liquide. On a alors un fluide de densité proche de celle d’un liquide, mais qui occupe tout le volume disponible comme un gaz.

Au cours du siècle une grandeur fondamentale s’est imposée, l’énergie, d’abord mécanique, travail nécessaire pour soulever une masse, mais aussi énergie électrique,  thermique et chimique. Toutes ces énergies peuvent se transformer les unes dans les autres, mais au total on ne peut ni en créer ni en détruire. On peut ainsi transformer de l’énergie mécanique en énergie électrique et réciproquement. Seule la chaleur ne peut être transformée  intégralement en une autre forme d’énergie ; une partie reste obligatoirement à l’état de chaleur, c’est une forme d’énergie dégradée. Les machines à vapeur, les centrales thermiques, rejettent à l’extérieur une partie de la chaleur produite. On a rendu compte de cette particularité au moyen d’une notion nouvelle, l’entropie :

S = Q / T

S : entropie ; Q : chaleur ; T : température absolue en °K.

Contrairement à l’énergie, l’entropie peut être créée mais ne peut être détruite. On en crée en particulier quand on transforme une autre énergie en chaleur, et on ne peut s’en débarrasser qu’en la cédant à l’extérieur. On peut aussi la considérer comme une mesure du désordre. Un gaz est un milieu désordonné où les molécules s’agitent en tous sens et avec des vitesses variables croissant avec la température. L’énergie d’un gaz est de l’énergie cinétique liée à la vitesse moyenne des molécules :

1 / 2 m v2 = 3 / 2. R / N. T

m : masse des molécules ; v: leur vitesse moyenne ; R : constante des gaz parfaits ; N : nombre d’Avogadro (  6,02 .1023 ) ; T : température absolue.

La chaleur n’est finalement que l’énergie d’agitation des molécules. Dans un liquide elles peuvent encore se déplacer  . Dans un solide, où elles sont liées, elles peuvent seulement vibrer. A 0°K, toute agitation cesse.

Une substance dissoute dans un solvant se comporte exactement comme un gaz et exerce une pression, la pression osmotique, qu’on peut observer en séparant le solvant pur et la solution par une membrane semi-perméable qui laisse passer le solvant mais pas le corps dissous. Une dénivellation correspondant à cette pression apparaît. Inversement, en exerçant une pression sur la solution, on force le solvant à passer tout en arrêtant la matière dissoute. C’est l’osmose inverse, qui permet en particulier de dessaler l’eau de mer.

 

La lumière.  Après Newton, le XVIIIème siècle n’avait pas apporté de découvertes fondamentales en optique. On savait que la lumière blanche était un mélange de lumières colorées du rouge au violet. On découvre par la suite qu’au delà du spectre visible il existe d’autres rayonnements invisibles mais que des instruments peuvent déceler : l’infra rouge et l’ultra violet, puis plus tard les rayons X en 1895.

            La nature de la lumière avait été un sujet de discussions : était-elle constituée d’ondes ou de particules ? Comme elle donne lieu au phénomène d’interférences, la question paraît tranchée : c’est une onde, c’est à dire un phénomène vibratoire qui se propage à grande vitesse. Une première approximation de sa vitesse est obtenue en 1849. Cette vibration se fait-elle parallèlement à sa propagation ou perpendiculairement ? La découverte de la polarisation, qui lui impose de vibrer dans une seule direction, ne s’explique que si la vibration est perpendiculaire à la propagation. En 1815, Biot montre que certaines substances organiques comme les sucres possèdent un pouvoir rotatoire et en  font tourner le sens.

Il restait à déterminer la nature de cette vibration . Maxwell en 1865 établit que c’est un phénomène électromagnétique : un champ électrique et un champ magnétique s’entretiennent mutuellement, perpendiculaires entre eux et à la direction de la propagation ; c’est au premier que notre œil est sensible.

Le spectre de la lumière émise par les atomes excités est constitué d’une série de raies spécifiques de chaque élément. C’est un moyen précieux  pour déceler leur présence, et les astronomes l’utilisent pour établir la composition chimique des corps célestes. Un autre phénomène, le rayonnement dit du corps noir, est de nature différente : un corps chaud émet un rayonnement dont le spectre continu présente un maximum lié à sa température. Pour expliquer le phénomène, Planck doit admettre que la lumière est émise par quantités discontinues les quanta, en contradiction apparente avec les conceptions qui avaient prévalu jusque là.

La lumière réservait une autre surprise aux physiciens : en 1887, Michelson et Morley tentent de mettre en évidence le mouvement de la Terre autour du Soleil. La lumière qui se propage dans la même direction que la Terre aurait du voir sa vitesse augmentée de celle de la Terre, par comparaison avec celle qui se dirige perpendiculairement, mais il n’en est rien .Ces deux surprises sont à l’origine d’une double révolution de la physique au début du XXème siècle .

Electricité et magnétisme ; radioactivité. Dès 1800, la pile de Volta fournit un courant électrique continu, bien différent de l’électricité statique, et dont les propriétés sont établies dans les années suivantes :

E = I . R

                        E : tension en volts ; I : intensité en ampères ; R :  résistance en ohms.

L’énergie électrique est transformée en chaleur W , exprimée en joules :

W = R I 2 t      t : temps en secondes

En 1820, Oersted observe qu’un courant électrique crée un champ magnétique qui dévie l’aiguille d’une boussole ce qui montre pour la première fois qu’électricité et magnétisme sont associés. L’interprétation est donnée par Ampère : si un courant électrique crée un champ magnétique, toute variation du champ magnétique crée un courant électrique dans un circuit conducteur ; c’est l’induction. De multiples applications en découlent : dynamo à courant continu, courant alternatif, moteur électrique, transformateurs, électroaimants, circuits oscillants. Une autre application du courant électrique, l ‘électrolyse, permet d’isoler des éléments encore inconnus comme le sodium. Elle est interprétée en 1833 par Faraday, puis plus tard par la théorie des ions : un électrolyte comme le chlorure de sodium se dissocie en solution en ions Na+ et Cl.

D’autres sources de courant électrique sont découvertes : l’effet thermoélectrique, la cellule photo voltaïque, la piézo électricité, créant de l’énergie électrique à partir respectivement de chaleur, de lumière et de pression mécanique.

En 1865, Maxwell établit sa théorie de l’électromagnétisme qui englobe la lumière dans les phénomènes électromagnétiques, et dès 1874 on prévoit que l’électricité est constituée de particules, les électrons, à la suite de la découverte des rayons cathodiques qui se propagent entre deux électrodes d’une cellule sous vide. En 1897, Thomson mesure le rapport  e \ m  entre la charge et la masse de l’électron. Entre temps, Hertz, s’inspirant de la théorie de Maxwell, montre qu’il existe des rayonnements électromagnétiques de longueur d’onde très supérieure à celle de la lumière, les ondes hertziennes à l’origine des télécommunications.

En 1896, Becquerel découvre un phénomène tout à fait inattendu : la radioactivité. En 1998 : Pierre et Marie Curie découvrent le polonium et le radium, et en 1899, on mesure la période des radioéléments.

 

L’astronomie.

            Les lois du mouvement des corps célestes sont connues depuis Newton, et les méthodes de calcul se perfectionnent. De nouvelles techniques apparaissent : la spectroscopie dès 1802 ; l’analyse spectrale en 1859, qui permet de connaître la composition des sources de lumière ; l’effet Doppler en 1868 permet de mesurer leur vitesse ; l’interférométrie, une technique d’avenir, en 1868 également , par Fizeau, dont la validité sera confirmée en 1889 par Michelson, mais qui ne se développera qu’un siècle plus tard. Les télescopes enfin se perfectionnent constamment.

En 1804, on constate, mais sans en avoir encore l’explication, que le spectre continu du Soleil comporte aussi de nombreuses raies noires. En 1840, on découvre la chromosphère, dont le spectre est établi en 1870. On observe la périodicité des taches solaires, et on comprend que le Soleil est une masse gazeuse. En 1868, on y détecte l’hélium encore inconnu sur terre.

La découverte la plus célèbre du siècle est celle de Neptune par Le Verrier, calculée à partir de l’observation des anomalies de l’orbite d’Uranus. En 1875, on découvre les satellites de Mars, mais aussi ses canaux dont l’existence ne sera démentie que bien plus tard. En 1873, Darwin suppose que la Lune serait d’origine terrestre, hypothèse qui sera reprise plus d’un siècle plus tard.

En 1838, Bessel commence à mesurer la distance des étoiles les plus proches par la méthode des parallaxes ; plus tard, on établit leur composition par spectroscopie. On observe des galaxies spirales, les nuages de Magellan , sans soupçonner encore qu’ils sont au delà de la Voie Lactée.

La chimie.

                        Les éléments. A la disparition de Lavoisier, on connaît une vingtaine d’éléments authentiques et quelques cas douteux qui seront résolus rapidement. L’électrolyse en particulier permet d’isoler les métaux alcalins et alcalino-terreux : lithium, sodium, potassium, calcium dès 1807. Suivent le bore(1809), l’iode( 1811), le silicium(1822), le brome(1826), l’aluminium(1827), le magnésium(1829), le fluor enfin en 1886, ainsi que de nombreux  métaux. En 1868, quand Mendéléiev propose sa classification, on en connaît une soixantaine, et on a constaté que quelques uns constituent des familles aux propriétés voisines. La classification est d’abord contestée, mais s’impose et s’explique par la suite. Les places encore manquantes sont remplies par la découvertes de nouveaux éléments, en particulier les gaz rares, et à la fin du siècle le tableau est presque complet.

            Les lois de la chimie.

Lavoisier a donné la bonne direction, mais après lui, tout reste à faire. Comment les éléments s’unissent-ils ? Dès 1806, on établit qu’ils se combinent toujours selon des proportions définies en masses, et aussi en volumes pour les gaz. Dalton en déduit en 1807 qu’ils doivent être constitués de particules, les atomes, qui s’assemblent en molécules. En 1811, Avogadro admet qu’un volume donné de gaz renferme le même nombre de molécules, quelle que soit leur masse. En effet, par exemple, un volume d’hydrogène s’unit à un même volume de chlore pour donner le même volume total d’acide chlorhydrique gazeux, tandis qu’un volume d’azote s’unit à trois volumes d’hydrogène pour donner deux volumes d’ammoniac, cette dernière réaction exigeant un catalyseur, notion apparue en1835. Il faudra attendre 1865 pour avoie une première valeur du nombre d’Avogadro : combien d’atomes dans un gramme d’hydrogène.

Une notion essentielle apparaît en 1853 : la valence, c’est le nombre de liaisons que peut établir un atome. Il est lié à sa place dans la classification périodique.

En 1887, Arrhénius propose l’idée qu’un électrolyte, un sel comme le chlorure de sodium est dissocié en ions Na+ et Cl en solution dans l’eau, idée qui choque d’abord, sachant que le sodium métallique réagit violemment sur l’eau, mais à l’état d’ion il est inerte.

 

La chimie organique

Elle est ainsi appelée à l’origine parce qu’on croit que les substances extraites de la matière vivante ne peuvent être formées que par les êtres vivants. Cependant, en 1828 Wohler obtient de façon imprévue de l’urée à partir de substances minérales. Cette chimie est en réalité celle du carbone, le seul élément capable de se lier à lui même pour former de longues chaînes, linéaires, ramifiées ou cycliques sur lesquelles se fixent d’autres éléments en particulier l’hydrogène, l’oxygène et l’azote. Dès 1823 ; Chevreul avait montré que les corps gras étaient formés de telles chaînes d’acides stéarique, palmitique ou oléiques combinés à la glycérine ou glycérol.

                               En 1830, Liebig effectue l’analyse des substances organiques en déterminant les proportions des éléments qui les constituent. On constate bientôt qu’il existe des molécules qui, ayant la même composition, diffèrent nettement par leurs propriétés, c’est l’isomérie, qui a pour cause la forme de ces molécules. Il existe plusieurs sortes d’isoméries dont l’une, étudiée en 1860 par Pasteur avec l’acide tartrique, l’isomérie optique. Il existe trois formes de cet acide, deux ayant des pouvoirs rotatoires opposés, la troisième un pouvoir nul. Les deux premières sont symétriques l’une de l’autre comme une main droite et une gauche, la troisième symétrique par elle même comme une chaise ou une cuillère. Ces notions, généralisées en 1874 par Lebel, montrent l’importance de l’arrangement géométrique des atomes dans la molécule. L’atome de carbone est tétravalent, c’est à dire qu’il doit se lier à quatre autres atomes, l’hydrogène monovalent, l’oxygène le plus souvent divalent et l’azote tri ou pentavalent.

Fixés sur le squelette carboné, les autres atomes apportent des propriétés et des fonctions nouvelles : l’oxygène les fonctions alcool, aldéhyde, cétone, acide, ester, éther; l’azote les fonctions amine, amide, nitrile. En 1865,  Kékulé montre que le benzène(ou benzine) est une molécule hexagonale plane qui possède des propriétés spécifiques qu’on retrouve également dans le naphtalène(ou naphtaline) . Ces propriétés sont la base d’une industrie naissante, celle des colorants. On utilisait beaucoup deux colorants extraits de plantes, la garance et l’indigotier . En 1856, un colorant artificiel, la mauvéine, avait été obtenu par hasard, mais le colorant de la garance, l’alizarine, est synthétisé en 1868 et l’indigo en 1880. De nombreuses molécules voisines sont obtenues ensuite, mais pour diriger leur synthèse, il faut connaître exactement la disposition des atomes dans ces molécules. Or, une querelle qui a commencé au début du siècle et qui va durer une centaine d’années oppose les atomistes aux équivalentistes ; ces derniers considèrent la théorie atomique comme une fiction métaphysique et ne veulent tenir compte que de la composition globale des produits. Le résultat est que si l’industrie chimique prospère en Allemagne, elle reste en retard en France où les équivalentistes font la loi.

Berthelot, farouche ennemi des atomes, avait cependant le premier synthétisé des molécules simples, l’alcool, l’acide acétique et l’acétylène, mais la synthèse de molécules plus compliquées ne pouvait se faire sans tenir compte de leur architecture, et donc des atomes qui les constituent.

 

Géologie et paléontologie.

            Dès le début du siècle on réalise que la Terre n’a pas été créée telle qu’elle est aujourd’hui, qu’elle a une histoire qui ne se limite pas au Déluge, que cette histoire est inscrite dans les couches géologiques et qu’elle peut être déchiffrée. Les couches d’origine sédimentaires ont été déposées, enfouies, souvent plissées et charriées, puis érodées quand elles réapparaissent en surface. Elles alternent avec des roches éruptives, basalte et granite d’origine plus profonde. Dès 1814, Smith établit le principe de la chronologie géologique, et en 1840 Agassiz reconnaît l’existence de périodes glaciaires.

Les couches sédimentaires renferment aussi des fossiles. En 1821, Cuvier crée la paléontologie, Brongniart en 1828 étudie des végétaux fossiles et en 1879, Renault décrit la flore fossile de la houille . On trouve aussi les premiers hommes fossiles ; l’Homme de Neandertal est découvert en 1856, et se pose la question de son origine. Dès 1809, Lamarck propose sa théorie du transformisme, et Darwin en 1859 celle de la sélection naturelle. En 1891, Huxley met en évidence la parenté de l’Homme et des grands singes.

Le XIXème siècle a ainsi bouleversé les idées sur le Monde, la vie et l’Homme, et sur leur origine., en dépit des protestations violentes des esprits traditionalistes.

La vie.

            La connaissance de la cellule se précise. On y distingue le noyau et le cytoplasme. En 1882, on observe les chromosomes, et leur séparation au cours de la méiose, quand la cellule se divise pour donner deux cellules nouvelles. En 1886, on constate que des mutations peuvent se produire, et en 1897 Ramon y Cajal décrit les neurones dans le cerveau.

Claude Bernard fonde la physiologie expérimentale et révèle en 1851 la fonction glycogénique du foie, c’est à dire la synthèse du glucose chez un chien nourri exclusivement de protéines.

En 1855, Boussingault montre que les végétaux se nourrissent uniquement de matières minérales, sels divers et gaz carboniques, qu’ils produisent de la matière organique grâce à la synthèse chlorophyllienne, dont la source d’énergie est la lumière, et qui libère de l’oxygène.

A partir de 1862, Pasteur étudie les fermentations et montre qu’elles sont dues à des microorganismes. A cette occasion il prouve qu’il n’y a pas de générations spontanées : un milieu fermentescible exempt de germes reste inaltéré. Ces résultats l ‘amènent ensuite à l’étude des maladies infectieuses et à la découverte des vaccins, celui de la rage en particulier en 1885.

 

Dans tous les domaines de la science, un siècle novateur et riche de découvertes prépare le suivant qui portera les connaissances encore bien au delà, ce qui permettra des réalisations concrètes encore inimaginées.

              Le XXème siècle.

         Les connaissances se sont considérablement enrichies au cours du siècle qui s’achève. Les siècles précédents, le XIXème en particulier, avaient préparé la voie, et le XXème a poursuivi , en perfectionnant les instruments et les techniques, en développant les savoirs déjà acquis, mais il a surtout vu apparaître des idées et des faits complètement imprévus qui ont bouleversé les opinions sur le monde physique et sur la vie.

Comment ces changements sont ils perçus et compris par les scientifiques eux mêmes et par tous ceux, plus ou moins cultivés, dont les préoccupations scientifiques ne sont pas le métier?

L’héritage des siècles précédents.

On peut situer l’origine de la méthode expérimentale au début du XVIIème siècle avec Kepler et Galilée. Elle s’est peu à peu précisée au cours du XVIIIème qui a commencé à se débarrasser des mythes et des dogmes pour ne retenir que les faits observables, mais c’est au XIXème que la pratique des sciences est devenue une profession, avec une exigence de rigueur qu’on ne trouvait pas toujours précédemment.

L’astronomie, pratiquée depuis des millénaires, a consacré la mécanique de Newton avec la découverte de Neptune, calculée par Le Verrier avant d’être observée à l’endroit prévu. Limitée longtemps à l’observation et à la prévision du mouvement des astres, elle a commencé à s’intéresser à leur nature, ce qu’Auguste Comte avait présomptueusement jugé impossible; l’analyse de la lumière émise par le soleil et les étoiles a montré qu’ils sont composés des mêmes éléments que la Terre.

Cependant, à la fin du XIXème siècle, on ignorait toujours la source d’énergie des étoiles, ainsi que leur âge. On avait reconnu que la Voie Lactée était un immense ensemble d’étoiles dont le soleil faisait partie, mais on n’imaginait rien au delà, et on considérait l’Univers comme immuable et éternel. Dans le système solaire, on connaissait la plupart des planètes et quelques uns de leurs satellites, mais on ne savait à peu près rien de leur nature et de celle des comètes, et on avait découvert avec surprise que des météorites pouvaient tomber du ciel.

La Terre elle même n’était connue que superficiellement. La géologie consistait principalement à reconnaître et à classer les différentes roches qui la constituent et à dresser des cartes de leur répartition, mais les phénomènes d’origine interne: séismes, volcanisme, formation des reliefs, origine des plissements, étaient mal compris, et on ne disposait pas de méthodes de datation absolues.

La plupart des physiciens de leur côté pensaient que leur science était pratiquement achevée: mécanique, thermodynamique, acoustique, optique, électricité et magnétisme, tout s’interprétait mathématiquement de façon très satisfaisante. Maxwell avait même réussi à unifier l’optique, l’électricité et le magnétisme en une synthèse cohérente confirmée par les résultats de Hertz qui découvrait les ondes radio, conséquence de la théorie électromagnétique du rayonnement. Les rayons X, découverts en 1895, rentraient également dans ce cadre.

Seuls quelques faits isolés restaient inexpliqués: le rayonnement du corps noir, le spectre discontinu de la lumière émise par les éléments, l’effet photoélectrique, la radioactivité, le résultat négatif de l’expérience de Michelson. Ils semblaient devoir être compris sous peu, et ils l’ont été en effet, mais au prix d’un bouleversement et d’un renouvellement complet de la physique.

La chimie aussi a beaucoup progressé au cours du XIXème siècle. A la fin du XVIIIème, Lavoisier avait transformé une pratique empirique en une science cohérente: la variété illimitée des substances matérielles est constituée par combinaison d’un nombre limité d’éléments indestructibles: hydrogène, carbone, azote, oxygène, soufre, métaux…Les 4 éléments des philosophes ne sont pas des éléments, mais des mélanges ou des combinaisons. La chimie minérale concerne les combinaisons de ces éléments.

On l’a distinguée au départ de la chimie organique, celle de la matière vivante, composée des mêmes éléments, mais on s’est rendu compte assez tôt qu’elle diffère en fait non par son origine biologique, mais par les propriétés du carbone qui permet d’obtenir une variété illimitée de combinaisons impossibles avec les autres éléments.

Dès le début du siècle, on avait envisagé que les éléments pouvaient être constitués d’atomes, particules insécables, indestructibles, capables de  se lier les uns aux autres, car les combinaisons se font selon des proportions définies. Au cours du siècle, on avait analysé de nombreuses substances d’origine biologique, et on en avait synthétisé aussi qu’on ne trouve pas dans la nature, mais l’idée d’atomes était farouchement combattue par des physiciens et des chimistes illustres comme Berthelot, qui les considéraient comme des élucubrations métaphysiques non scientifiques.

Cependant, d’autres chimistes comme Kekulé, Lebel, Vant Hoff, commençaient à imaginer que les combinaisons d’atomes, les molécules, constituaient des structures géométriques précises . Seules manquaient encore des méthodes d’investigation indiscutables. Mendéléiev de son côté proposait sa classification périodique des éléments basée sur le fait qu’on peut les grouper en familles dont les propriétés sont proches, et dont les bases théoriques devaient apparaître plus tard.

Les sciences de la vie ne se limitaient plus à la description et à la classification des espèces. Pasteur avait montré le rôle des microorganismes dans les fermentations et les maladies, et la physiologie avec Claude Bernard, expliquait le fonctionnement des différents organes des pluricellulaires, mais les mécanismes de la cellule vivante restaient totalement inconnus.

La génétique, esquissée par Mendel puis par de Vries, interprétait la transmission de certains caractères de génération en génération et admettait l’existence de gènes sans en connaître la nature. L’évolution des espèces, esquissée par Lamarck et précisée par Darwin permettait de concevoir une filiation de tous les êtres vivants depuis les plus primitifs jusqu’aux espèces actuelles les plus évolués. Elle s’appuyait à la fois sur la comparaison des espèces présentes et sur leur confrontation avec les fossiles de la paléontologie.

Si la sélection naturelle expliquait le tri entre des espèces plus ou moins bien adaptées à leur milieu, et ne pouvait plus considérer l’Homme comme une création à part, elle ne donnait pas la cause des mutations aléatoires qui font passer d’une espèce à l’autre. Pasteur avait démontré, non sans peine, qu’il n’existait pas de générations spontanées, et l’origine de la vie restait inexplicable.

Toutes les connaissances acquises au XIXème siècle et encore souvent mal consolidées n’allaient pas sans contestations et sans l’opposition farouche des partisans des croyances traditionnelles: l’existence des atomes et surtout l’origine animale de l’Homme étaient jugées scandaleuses. D’autres croyances anciennes comme l’astrologie étaient au contraire complètement discréditées, et les progrès de la physique dans son ensemble ne provoquaient pas de rejet mais n’étaient pas toujours bien compris: par abus de langage, on parlait de magnétisme animal, notion équivoque sans base expérimentale mais encore en usage, qui n’a rien à voir avec le magnétisme des physiciens, ni avec la sensibilité de certains animaux au champ magnétisme terrestre.

Comment le XIXème siècle finissant voyait le siècle à venir.

            Le bilan des connaissances acquises, considérable, était vu avec beaucoup d’optimisme. La confiance dans les sciences , la foi dans le progrès, pouvaient même être excessifs avec les délires du scientisme présenté comme la religion de l’avenir. On prévoyait évidemment que le progrès allait se poursuivre: progrès des connaissances, des techniques et des applications. L’œuvre de Jules Verne montre ce qu’on en attendait: exploration des pôles, du centre de la Terre, des continents encore mal connus, véhicules mécaniques, sous-marins, machines volantes, voyage dans la Lune, applications de l’électricité. Les sciences de la vie avaient beaucoup moins excité l’imagination de l’auteur, qui a pourtant consacré des pages à la description d’espèces marines. S’il a cru pressentir, à tort, l’homme invisible, il n’a pas prévu que le vivant pourrait être l’objet de manipulations génétiques.

En conclusion, le XIXème siècle finissant n’a prévu que l’extrapolation des connaissances du moment et ne pouvait imaginer les bouleversements pourtant déjà amorcés. . Siècle de paix relative en Europe après les guerres de Napoléon, et malgré celle, brève de 1970, et l’exacerbation des nationalismes, les pays avancés avaient bonne conscience après l’abolition de l’esclavage et considéraient le colonialisme comme une œuvre charitable apportant aux peuples sauvages les bienfaits de la civilisation et du progrès.

 

Le XXème siècle; première partie (1900-1939).

Les premiers bouleversements ont concerné la physique. Dans les dernières années du XIXème siècle, Michelson avait tenté de mettre en évidence le mouvement de la Terre autour du Soleil en comparant la vitesse de la lumière dans le sens de son déplacement et dans la direction perpendiculaire. Si la vitesse de la Terre s’était ajoutée à celle de la lumière, une différence serait apparue entre les deux, mais il n’en fût rien, et il fallut en conclure que, contrairement à celle des  objets matériels, la vitesse de la lumière est indépendante de celles de la source et de l’observateur. Ce résultat était contraire à la mécanique de Newton, mais implicitement contenu dans la théorie électromagnétique de Maxwell. Lorentz et Poincaré en avaient approché l’interprétation, mais c’est Einstein qui en a tiré toutes les conséquences dans la théorie de la Relativité restreinte: le temps et l’espace apparaissent différents pour des observateurs qui se déplacent à vitesse constante les uns par rapport aux autres, et la masse aussi est une forme d’énergie (E = m C2 ). La Relativité générale étend la théorie aux mouvements accélérés et à la gravité: les masses déforment l’espace et courbent les rayons lumineux.

Une série d’autres faits allait donner naissance à la physique quantique, et d’abord le rayonnement dit du corps noir: tout objet, incandescent ou non, émet un spectre continu de rayonnement électromagnétique dépendant de sa température. S’il est suffisamment chaud, il émet de la lumière visible; au dessous il émet de l’infrarouge, mais la physique classique ne pouvait expliquer la répartition des longueurs d’onde émises. Planck dût admettre pour l’interpréter que les échanges entre la matière et le rayonnement se font par quantités discontinues, des paquets d’énergie, les quanta. Une confirmation plus frappante concerne l’émission et l’absorption de la lumière par les atomes: chaque élément émet une série de raies discontinues de longueurs d’ondes spécifiques, et non un spectre continu. L’explication en a été donnée par Bohr: les électrons d’un atome ne peuvent se trouver qu’à des niveaux d’énergie discontinus caractéristiques de l’élément. Si l’électron reçoit une quantité convenable d’énergie, il saute à un niveau supérieur. Il restitue ensuite cette énergie en émettant un photon d’énergie correspondant à la différence des deux niveaux.

Einstein a interprété également l’effet photoélectrique: certains métaux émettent des électrons lorsqu’ils absorbent de la lumière, mais il existe un seuil au dessous duquel rien n’est émis, quelle que soit l’intensité de la lumière: les photons de lumière doivent avoir une énergie minimale suffisante, donc une longueur d’onde suffisamment petite, pour arracher un électron au métal. :

E = h n

ou  E est l’énergie, h la constante de Planck et n la fréquence de la lumière, c’est à dire le nombre d’oscillations par seconde.

Les développements de la physique quantique ont expliqué le comportement intime de la matière et des rayonnements, mais aussi bouleversé les idées  traditionnelles. Ils ont interprété la structure et  les propriétés des atomes, formés d’un nuage d’électrons autour d’un noyau beaucoup plus petit mais très dense constitué lui même de protons et de neutrons, mais toutes ces particules ne peuvent être considérés comme de petites billes solides. Ainsi que les photons, elles se comportent comme des ondes non localisées quand elles se déplacent, mais comme des paquets d’énergie localisés quand elles interagissent.

La lumière visible elle même ne représente qu’une zone étroite du spectre électromagnétique, allant des ultraviolets aux rayons X et g vers les petites longueurs d’onde, et de l’infrarouge aux ondes radio vers les grandes longueurs d’onde.

La radioactivité, découverte par Becquerel en 1897, étudiée par les Curie, est due à l’instabilité de certains noyaux atomiques comme l’uranium ou le radium, qui se manifeste par l’expulsion de particules et de rayonnement. En 1939, on a commencé à entrevoir la possibilité de provoquer une décomposition explosive de ces noyaux, libérant une énergie énorme, très supérieure à celle des explosifs chimiques.

La chimie a profité des progrès de la physique. Dès le début du siècle, celle-ci a, par diverses méthodes indépendantes, mis en évidence l’existence des atomes par la détermination du nombre d’Avogadro: combien y a-t-il d’atomes dans un gramme d’hydrogène? Toutes les mesures convergent vers la même valeur:

 

N = 6,02 . 1023

 

La notion d’atome devient la clef de la chimie, et la classification de Mendéléiev s’explique par leur structure électronique, liée elle même à la constitution des noyaux, et les atomes s’associent en molécules ou en cristaux selon des structures géométriques définies. Les réactions chimiques consistent à casser ou créer des liaisons entre eux. Ces structures et ces réactions rendent compte des propriétés de toutes les substances, naturelles ou synthétiques.

Si les atomes et les molécules sont électriquement neutres, il peut se faire des cassures donnant des fragments positifs ou négatifs, les ions, dont les propriétés sont complètement différentes. Ainsi, le sel ordinaire ou chlorure de sodium dissous dans l’eau est constitué d’ions chlore négatifs et d’ions sodium positifs qui cohabitent paisiblement, alors que le chlore et le sodium sont des éléments très réactifs qui agissent très violemment l’un sur l’autre.

Un peu plus tard, Staudinger a montré qu’il peut exister des molécules géantes formées de centaines de milliers d’atomes, les polymères, comme la cellulose , les protéines et les polymères, constituants des  matières plastiques, des fibres textiles et des élastomères synthétiques actuels.

En astronomie, la découverte essentielle est due à Hubble qui montre qu’au delà de notre galaxie, la Voie Lactée, existent des milliards d’autres galaxies, et que l’ensemble de l’univers n’est pas immuable mais en expansion, toutes les galaxies s’éloignant les unes des autres d’autant plus vite qu’elles sont plus éloignées.

La connaissance de la Terre s’approfondit: on découvre sa structure interne, son noyau, et Wegener imagine la dérive des continents sans en connaître encore le mécanisme, idée qui sera vivement combattue à l’époque par la plupart des géologues.

Le bilan scientifique du demi-siècle s’accompagne d’un développement important des techniques: la production et la distribution de l’électricité, d’abord utilisée surtout pour l’éclairage. Les transports sont révolutionnés par l’apparition des moteurs à combustion interne, les débuts de l’électrification des chemins de fer. L’aviation, les sous-marins, la navigation à vapeur s’imposent. Les télécommunications se développent: le téléphone, la radio, détrônent progressivement le télégraphe. La matière première principale de l’industrie et de l’énergie reste le charbon, mais le pétrole commence à prendre une place importante avec le développement de l’automobile.

L’attitude du public face aux sciences et aux techniques reste la confiance dans le progrès, bien que l’amélioration du confort reste limitée et les progrès de la médecine encore modestes après les travaux de Pasteur. Si l’ensemble du public s’intéresse au développement des techniques qui se mettent à sa portée, seule une petite minorité est consciente de l’importance des acquis des sciences fondamentales.

La cassure de la guerre de 1939-1945.

La guerre oblige à développer dans l’urgence des techniques d’applications militaires et ne favorise qu’indirectement le progrès des connaissances. On voit apparaître avec le Radar des sources d’ondes radio centimétriques et leurs détecteurs, ainsi que des appareils de transmission  sans fil. A la mélinite de la guerre de 1914-1918 succèdent le TNT et d’autres explosifs mieux adaptés. Les premiers avions à réaction apparaissent. Un textile nouveau, le Nylon, utilisé pour les parachutes est la première fibre synthétique créée par l’industrie. Pour les soins aux blessés, la pénicilline permet enfin que les combattants meurent moins de maladies que du fait des armes.

Enfin, la fission de l’uranium et du plutonium, tout juste découverte, et mise au point avec d’énormes moyens, aboutit à la bombe atomique qui voit la fin des hostilités.

La guerre terminée, les Etats-Unis, qui ont attiré une part importante de la compétence européenne, sont florissants. Leur industrie a fait un effort considérable et s’apprête à se reconvertir pour la paix, tandis que l’Europe est complètement ruinée.

Partout on se préoccupe de reconstruire, de retrouver la prospérité, et tous aspirent à un confort jusque là peu répandu. L’industrie rénovée va y parvenir: électroménager, sanitaire, chauffage, transports, matériaux nouveaux vont y contribuer, et l’agriculture va devoir se moderniser pour mettre fin à la pénurie.

Cette frénésie de croissance ne va pas sans un début de réticence envers les sciences: les moyens de destruction accrus font pressentir que les nouvelles techniques peuvent être plus dangereuses que profitables. Plus tard, les soucis de l’environnement vont aggraver cette tendance, mais une autre cause de désaffection se précise: les connaissances, les techniques deviennent de plus en plus touffues, plus compliquées, leur compréhension plus difficile malgré la généralisation d’un enseignement souvent trop scolaire et abstrait. Ce qu’on ne comprend pas inquiète.

La seconde moitié du XXème siècle.

            Ces cinquante années ont apporté beaucoup plus de connaissances nouvelles et imprévues que tous les siècles qui les ont précédées, grâce à des chercheurs de plus en plus nombreux, des moyens de plus en plus importants et des techniques de plus en plus puissantes.

L’astronomie ne se contente plus d’observations en lumière visible: tout le spectre électromagnétique, des rayons X et g à l’infrarouge et aux ondes radio, toutes les particules venant de l’espace: électrons, rayons cosmiques, neutrinos, sont détectés, souvent grâce à des engins hors de l’atmosphère terrestre: satellites et sondes spatiales.

A terre,  la lumière visible est captée par des télescopes de plus en plus puissants, de plus en plus nombreux. Des détecteurs de lumière extrêmement sensibles, des techniques de correction de la turbulence atmosphérique, et plus récemment des associations de télescopes couplés permettent d’améliorer considérablement les performances. La radioastronomie, à terre également, utilise des radiotélescopes de grandes dimensions.

Les résultats justifient ces énormes déploiements de moyens. L’univers est scruté jusqu’à ses extrêmes limites, soit plus de dix milliards d’années lumière. On découvre qu’il est peuplé de centaines de milliards de galaxies groupées en amas et en superamas séparés par d’immenses bulles vides. Il arrive que des galaxies fusionnent, se déforment. Certaines parmi les plus lointaines possèdent en leur centre un quasar, beaucoup plus lumineux à lui seul que toute une galaxie, et siège d’évènements cataclysmiques.

Les centaines de milliards d’étoiles qui constituent chaque galaxie ont des masses et des durées de vie très variables. Toutes ont pour source d’énergie principale la fusion de l’hydrogène en hélium. Les plus petites ont la durée de vie la plus longue, car elles ménagent leur combustible. Des étoiles moyennes comme le Soleil peuvent fonctionner environ dix milliards d’années, et finissent leur vie en géante rouge, puis en naine blanche. Les plus grosses ont une vie beaucoup plus brève qui se termine de façon beaucoup plus brutale: les supernovae. Elles produisent tous les éléments plus lourds que l’hélium et finissent, selon leur masse, en étoile à neutrons ou pulsars, très petits et très denses, ou en trous noirs dont rien, pas même la lumière, ne peut s’échapper.

L’exploration du système solaire, commencée avec les débarquements sur la Lune, a été poursuivie au moyen de sondes qui ont permis d’examiner de près les planètes et leurs satellites en passant à proximité ou en se satellisant autour de Mercure, Vénus, Mars et Jupiter. La surface des planètes solides est maintenant bien connue, et l’extrême diversité de ces astres est remarquable. Les uns sont brûlants, la plupart glacés. Seuls les plus gros possèdent une atmosphère, mais toujours différente de celle de la Terre. Jupiter, Saturne, Uranus et Neptune sont essentiellement des boules de gaz autour d’un noyau dense.

Le soleil lui même est constitué principalement d’hydrogène, et sa température varie de 6000°environ en surface à plus de 10 millions de degrés en son centre où se produit la fusion de l’hydrogène en hélium avec émission de neutrinos qu’on a pu observer sur terre.

On commence aussi à détecter des planètes autour des étoiles les plus proches.

Toutes les données recueillies renseignent sur les évènements qui se passent ou se sont passés dans l’univers, avec un décalage lié à la vitesse de la lumière. : il a une histoire, et la théorie du Big-Bang, confirmée par une série d’indices, en fait remonter l’origine à environ 15 milliards d’années. Il serait né d’une explosion gigantesque dont on retrouve encore les traces, et qui se poursuit toujours par son expansion. On n’a pas encore tranché: cette expansion sera-t-elle indéfinie ou suivie d’une période de contraction, le Big-Crunch.

La connaissance de la Terre ne se limite plus à sa surface. On sait que sous les continents et les océans elle est constitué d’un manteau de silicates chaud et visqueux, d’un noyau liquide métallique riche en fer, avec au centre une graine de fer cristallisé.

Les grands phénomènes géologiques ont pour origine la chaleur dégagée par les éléments  radioactifs du manteau et du noyau. Par convexion, il se produit des remontées des masses les plus chaudes. Les continents , flottant sur le manteau, sont entraînés dans des mouvements variés qui provoquent des cassures et des collisions. La dérive des continents est à l’origine des reliefs, des fossés, des séismes et du volcanisme.

La Terre comme tout le système solaire, s’est formée il y a environ 4,5 milliards d’années à partir de gaz et de poussières analogues aux météorites. On connaît assez bien son histoire des dernières centaines de millions d’années grâce à l’étude des diverses formations géologiques, et on commence à l’esquisser pour les périodes plus anciennes.

 

La physique quantique domine au XXème siècle, comme la physique classique au XIXème.Après avoir interprété la structure électronique des atomes, elle s’intéresse aux propriétés du noyau: la radioactivité, la fission, la fusion. Des accélérateurs de particules de plus en plus grands mettent en évidence des particules de plus en plus nombreuses et leurs interactions, puis une mise en ordre s’impose. La plupart des particules exotiques obtenues, dont la durée de vie est très brève, sont elles mêmes des assemblages de particules plus élémentaires regroupées en deux familles: les leptons et les quarks, et les antiparticules correspondantes. Seules trois particules stables constituent la matière ordinaire: les électrons et les quarks u et d.

A la gravité et à l’interaction électromagnétique s’ajoutent deux interactions fondamentales à courte portée: l’interaction forte unit les quarks en protons et en neutrons, et ces derniers entre eux dans le noyau des atomes. L’interaction faible intervient dans la radioactivité. Les interactions sont elles mêmes assurées par d’autres types de particules: le graviton encore hypothétique, le photon, les bosons W et Z° et les gluons. La chromodynamique quantique interprète ces interactions, et des tentatives de synthèse s’efforcent d’unifier interactions et particules en un modèle unique.

Une question est restée longtemps sans réponse : quand deux particules ont interagi, elles forment un tout indissociable, quelle que soit leur distance. On dit qu’elles sont corrélées. Si elles ont par exemple des spins opposés, rien ne permet d’attribuer un signe à chacune tant qu’elles n’ont pas interagi avec un dispositif de mesure ou tout autre obstacle, mais dès que l’une a été observée et caractérisée, le spin de l’autre prend, et à ce moment seulement, une valeur définie. Einstein ne voulait pas l’admettre et pensait que les jeux étaient faits dés la séparation des particules. Bell démontra qu’il était possible de trancher, et Alain Aspect réalisa l’expérience et prouva, bien après la mort d’Einstein, qu’il avait eu tort.

La théorie quantique participe aussi à la physique des solides avec les semi-conducteurs, la supraconductivité, ainsi que les lasers. Les applications ont bouleversé toutes les techniques, avec le développement de l’énergie nucléaire, de l’électronique, des télécommunications, l’ horlogerie à quartz, les calculatrices, les systèmes de positionnement (GPS) et par dessus tout l’informatique.

Après les microscopes électroniques, les microscopes à pointe permettent d’observer et de manipuler individuellement les atomes.

La chimie aussi a profité des progrès de la physique quantique: les liaisons, les réactions chimiques s’interprètent par des mécanismes électroniques et radicalaires, ce qui permet de mieux les prévoir  et mieux les maîtriser. Les méthodes physiques d’analyse: spectroscopie infrarouge, spectroscopie de masse, spectroscopie des rayons X, résonance magnétique nucléaire, donnent la structure détaillée des molécules et des cristaux. Associées aux méthodes fines de séparation: chromatographie en phase liquide ou gazeuse, elles permettent d’isoler et d’identifier des traces infimes de substances.

L’industrie chimique et pétrochimique fournit en quantité des produits de plus en plus nombreux et variés: matières plastiques, produits pharmaceutiques, détergents, fibres synthétiques…

La biologie s’éclaire enfin par la découverte des mécanismes fondamentaux de la vie. Crick et Watson établissent la structure en double hélice de l’acide désoxyribonucléique (ADN), constituant essentiel des chromosomes de la cellule, supports de l’hérédité. Leur rôle dans la synthèse des protéines, par l’intermédiaire de l’acide ribonucléique, est élucidé par Lwoff, Monod et Jacob. La structure et le rôle des enzymes, catalyseurs des réactions biologiques, se précise. Le code génétique, qui traduit les acides nucléiques en protéines, est déchiffré. Les mécanismes physico-chimiques très compliqués de la vie se dévoilent peu à peu, même ceux du cerveau, immense réseau de neurones dans lequel l’influx nerveux circule sous forme de potentiel électrique relayé dans les synapses par des neurotransmetteurs chimiques.

Grâce à des techniques nouvelles utilisant des enzymes, on apprend à couper, souder, remanier les brins d’ADN,les recopier et les multiplier, à modifier le patrimoine génétique des cellules. La médecine dispose de médicaments nouveaux plus spécifiques et plus efficaces, d’antibiotiques, et de techniques d’exploration de plus en plus puissantes: scanner, imagerie par résonance magnétique (IRM), échographie, et caméra à positons pour l’exploration du cerveau en activité.

On peut imaginer aussi comment la vie a pu apparaître à partir de molécules organiques formées spontanément, comme les acides aminés, constituants des protéines, et comment elle s’est développée et diversifiée. En 1953, Miller montre qu’à partir d’un mélange de méthane, d’ammoniac et de vapeur d’eau soumis à des décharges électriques, il se forme des acides aminés, constituants des protéines. Des variantes de son expérience produisent aussi des constituants des acides nucléiques. Comment a pu apparaître la vie, jeu entre les acides nucléiques, ADN et ARN et les protéines ? Si l’ADN, rigide et stable, n’a qu’une fonction unique, transmettre le message génétique, l’ARN(acide ribonucléique), plus souple et polyvalent, capable de s’associer aux acides aminés, pourrait avoir joué le rôle primordial. La comparaison des ADN de toutes les espèces vivantes montre que la vie a une origine unique. Après avoir longtemps subsisté sous une forme analogue aux bactéries actuelles, elle s’est diversifiée en végétaux et animaux dont la paléontologie permet de retracer les étapes.

Tant de résultats ont été possibles grâce aux moyens considérables mis en œuvre. Jamais il n’y avait eu autant de chercheurs, de techniciens, disposant de moyens aussi importants, dans les universités, les centres de recherche, les organismes privés et publics. Tantôt regroupés en très grosses équipes, en physique fondamentale autour des accélérateurs de particules, dans les centres d’études spatiales pour les fusées, les satellites et les sondes spatiales; tantôt plus dispersés dans l’informatique, la biologie moléculaire, le génie génétique, tous les participants ont travaillé en combinant coopération et compétition.

            Le bilan des idées.

Il a des aspects à la fois positifs et négatifs. Malgré le développement de l’éducation, et même dans les pays qui se prétendent les plus évolués, la grande majorité n’a conscience des progrès réalisés que par les moyens techniques mis à sa disposition, et ignore délibérément tout des connaissances sous-jacentes. S’il est évidemment impossible, et d’ailleurs sans intérêt, que chacun connaisse  tous les détails des techniques, affaire des spécialistes, il est regrettable que des gens qui se considèrent comme cultivés n’aient pas toujours une vue éclairée des connaissances actuelles.

Jamais on n’avait eu une vision aussi approfondie du monde, de la vie et des mécanismes de la pensée consciente, mais les croyances les plus naïves et archaïques n’en ont pas moins autant de succès: astrologie, magie, médecines imaginaires prospèrent, ainsi que les sectes aux doctrines délirantes qui exploitent la crédulité de leurs adhérents.

Les Etats-Unis en sont un exemple caricatural: pays techniquement le plus avancé et le plus puissant, c’est aussi la patrie des créationnistes et des opinions les plus rétrogrades.

Dans tous les pays les plus évolués aussi, des associations plus ou moins fanatiques refusent sans discernement, au nom de la Nature, des techniques dont elles ne veulent voir que les inconvénients, au besoin inventés, et proposent en échange des solutions utopiques.

Dans les pays moins évolués, dits en voie de développement, le contraste est encore plus net. L’évolution des connaissances s’est faite si vite que la plupart n’ont pas eu le temps de les assimiler.

C’est pourtant une véritable révolution des idées qu’ont entraîné les acquis des sciences expérimentales. Le rationalisme intransigeant du XIXème siècle a reculé: avec la Relativité, les notions de temps, d’espace, ne sont plus absolus. Avec les quanta, le sens du réel devient flou. Les objets quantiques, à la fois ondes et particules, ne peuvent être rigoureusement localisés, et leurs caractéristiques peuvent rester indéterminées tant qu’ils n’ont pas interagi.

Cependant, loin d’être en contradiction avec la physique classique, la physique quantique apparaît au contraire comme la cause profonde, microscopique, des phénomènes qui nous sont plus familiers. Rien n’est changé dans la vie courante, mais la leçon à en tirer est que le bon sens commun n’a plus cours au delà.

Des questions plus fondamentales restent sans réponses: pourquoi le monde est-il tel qu’il est et pas autrement? Les constantes fondamentales qui caractérisent les particules élémentaires et leurs interactions, et dont dépendent toutes les propriétés de la matière et du rayonnement pourraient elles être différentes ou non de ce qu’elles sont, et pourquoi? Si elles étaient différentes, nous ne serions pas là pour le constater, mais pourrait-il exister autre chose?

La théorie du Big-Bang, qui s’appuie sur une série de résultats concordants, reste une hypothèse cohérente mais indémontrable. Est-ce un évènement unique, ou une péripétie dans un univers beaucoup plus grand?

Le déterminisme rigoureux de la physique classique s’est trouvé tempéré par la physique quantique, mais l’une et l’autre ne se sont consacrées pendant longtemps qu’à des phénomènes qu’elles pouvaient décrire mathématiquement de façon exacte. Il existe cependant dans les mathématiques des suites d’expressions qu’on ne peut calculer que de proche en proche, et qui évoluent de façon imprévisible à long terme. . On peut seulement préciser que leur évolution reste contenue dans des limites, les”attracteurs étranges”. C’est ainsi que s’est développée une théorie du chaos, et, en fait, la plupart des phénomènes réels , comme la turbulence, la météorologie, ne peuvent être traités que de façon statistique.

Au XIXème siècle, la vie et la pensée consciente étaient certainement les phénomènes les plus incompréhensibles. On en ignorait totalement les mécanismes fondamentaux. Actuellement, si on ne sait pas encore de façon précise comment la vie est apparue, la question est circonscrite: elle n’a pu émerger qu’à partir de matières pré biotiques banales qui se forment spontanément et qu’on retrouve jusque dans les météorites. Dans un milieu ouvert recevant de l’énergie de l’extérieur, la lumière solaire, et où ils ne risquent pas de rester totalement figés ou d’être entièrement détruits, et c’est le cas en présence d’eau liquide, leur structure évolue inexorablement vers une complication croissante qu’une sélection spontanée amène à des formes de plus en plus organisées.

L’apparition et l’évolution de la vie, résultat d’un jeu entre les acides nucléiques et les protéines, a une origine unique, mais existe-t-il ailleurs d’autres possibilités amenant à l’existence d’êtres organisés autonomes?

La pensée consciente a paru longtemps un phénomène tout à fait immatériel. Toute la philosophie traditionnelle, qui ne nous a rien appris et a accumulé erreurs et non-sens, a toujours manifesté le plus grand mépris pour les choses matérielles, et a substitué à la réalité un monde de mots qu’elle manœuvre à sa fantaisie, faisant un emploi abusif de la logique. La pensée logique, qui ne s’applique en toute rigueur qu’aux mathématiques, n’a qu’un pouvoir très limité dans les choses concrètes qui ne sont jamais parfaitement définies et connues exactement, et convient encore plus mal dans les idées abstraites encore beaucoup plus équivoques.

Les connaissances actuelles sur le cerveau et son fonctionnement, bien qu’encore très incomplètes, sont une approche bien différente et autrement efficace et précise qui relègue celle des philosophes au rang de rêveries simplistes et stériles. Après les domaines de l’infiniment grand et de l’infiniment petit, l’organisation du cerveau est celui de l’extrême complexité, et il inspire déjà les futures machines de l’informatique qui elles aussi,  mais avec d’autres moyens, ont pour objet le traitement de l’information. Une convergence s’esquisse entre ces deux  disciplines.

Qu’en sera-t-il du XXIème siècle?

Il serait bien présomptueux de faire des pronostics précis. On peut prévoir sans trop de risques que des techniques de plus en plus efficaces vont se développer, que la physique va continuer à s’intéresser aux conditions extrêmes de température, de pression, d’énergie, que l’exploration de l’univers va se poursuivre, que la théorie du Big-Bang va être soumise à de nouvelles épreuves. Les possibilités de la biologie moléculaire, du génie génétique, paraissent illimitées, la connaissance du cerveau, le développement de l’informatique également.

Y aura-t-il aussi des percées actuellement insoupçonnées? Si l’on en juge par l’histoire des siècles précédents, ce n’est pas invraisemblable. On peut aussi s’inquiéter: les ressources de la Terre seront-elles menacées, la pollution, l’effet de serre, la violence seront-ils maîtrisés?

Enfin, la cassure va-t-elle s’aggraver entre les connaissances d’une petite minorité et une opinion publique dépassée?

LA CHIMIE , UNE SCIENCE NATURELLE par M André RIO

LA CHIMIE , UNE SCIENCE NATURELLE

M André RIO
M André RIO

 

La chimie a mauvaise réputation, mais pourquoi ? On l’accuse de fabriquer des poisons , des explosifs et des matières artificielles douteuses, en héritière d’une alchimie satanique . C’est que la plupart de nos contemporains n’en ont qu’une connaissance très sommaire ou nulle, au mieux de vagues souvenirs de quelques cours trop théoriques mal assimilés et vite oubliés. Beaucoup conçoivent ils qu’une substance puisse se transformer en une autre très différente, et ont ils une idée claire de ce que sont les éléments et leurs combinaisons ? Peut être savent ils que l’eau se représente par H2O et l’acide sulfurique par SO4H2. Quant au gaz carbonique, CO2, accusé du réchauffement climatique, personne ne peut plus l’ignorer.

La chimie est elle née à la fin du XVIIIème siècle avec Lavoisier ? En réalité elle est bien plus ancienne, puisqu’elle remonte au Big-Bang, il y a 13,7 milliards d’années, à une époque où il n’y avait pas encore de chimistes, et elle s’est développée depuis sans aucune intervention humaine. On ne sait pas ce qu’il y avait avant le Big-Bang, ou s’il n’y avait rien, mais très vite après, en quelques minutes, les premiers éléments sont apparus, d’abord l’hydrogène, puis le deutérium, l’hélium et un peu de lithium, sous forme d’une masse gazeuse très chaude et très dense qui s’est refroidie et est devenue transparente au bout de  380 000 ans. Ensuite, le refroidissement et l’expansion se sont poursuivis pendant quelques centaines de millions d’années jusqu’à la formation des premières étoiles. C’est alors seulement que de nouveaux éléments sont apparus, de plus en plus lourds. Les étoiles modestes comme le Soleil, en fin de vie, au bout de 10 milliards d’années, peuvent produire, en se contractant et s’échauffant, du carbone, de l’azote et de l’oxygène, mais les plus grosses, dont la durée de vie est beaucoup plus courte, vont bien au delà jusqu’au fer, le plus stable., et quand elles explosent finalement en supernova, les neutrons dont elles bombardent les éléments déjà présents, permettent d’atteindre jusqu’à l’uranium. Au delà, les éléments plus lourds qui peuvent se former sont instables et ont une durée de vie limitée.

La centaine d’éléments existants ne se sont pas créés au hasard ; tout atome est formé à partir de trois constituants seulement : protons et neutrons dans un noyau compact électriquement positif entouré d’un nuage négatif d’électrons. Sa structure obéit à des règles précises que concrétise la classification périodique de Mendeleïev : une place pour chacun, chacun à sa place numérotée : 1 pour l’hydrogène, 2 pour l’hélium, et ainsi de suite jusqu’à 92 pour l’uranium, chaque numéro correspondant au nombre de protons dans le noyau et d’électrons à la périphérie.

Tous ces éléments se rencontrent et s’unissent selon leurs affinités propres. L’oxygène, relativement abondant et réactif, donne de l’eau, du gaz carbonique, des oxydes métallique et de la silice. Ces matériaux sont recyclés dans de nouvelles étoiles, leurs planètes et les satellites, et constituent des atmosphères gazeuses, des roches et de l’eau dans ses différents états. Tandis que le Soleil produit de l’énergie en fusionnant l’hydrogène en hélium, une planète comme la Terre, alimentée en énergie par le rayonnement solaire et par sa chaleur interne, est le siège d’évènements géologiques complexes qui aboutissent à la formation d’innombrables minéraux plus ou moins cristallisés. Un cristal, qui est un arrangement régulier de ses constituants, atomes, molécules ou ions, se forme à partir de solutions aqueuses ou de roches fondues, et accepte difficilement d’incorporer des composants étrangers. La cristallisation est ainsi un moyen efficace pour obtenir des solides relativement purs à partir de mélanges liquides, mais il existe aussi des matériaux vitreux et argileux à structure désordonnée.

La chimie naturelle ne s’est pas limitée à fabriquer de l’eau, les gaz et les roches qui constituent la Terre et les autres corps célestes : elle a créé la vie sur terre et probablement aussi parfois ailleurs quand les conditions étaient favorables. La Terre a environ 4,5 milliards d’années, mais au bout seulement d’un milliard la vie existait déjà. Elle n’est évidemment pas apparue d’un coup. Le degré d’organisation des bactéries les plus rudimentaire est déjà considérable et n’a pu émerger que progressivement après bien des tâtonnements. Ce qui est certain, c’est que les matières premières nécessaires étaient là : les acides aminés et les bases constituants des protéines et des acides nucléiques se forment spontanément à partir de matières minérales sous l’effet de rayons ultra violets ou de décharges électriques, et on en trouve en particulier dans les météorites.

On a établi que tous les êtres vivants ont un ancêtre commun. L’évolution peut être  suivie à la trace grâce à l’ADN. Elle n’a longtemps été représentée que par des procaryotes, cellules sans noyau, les eubactéries et les archées. Il y a un milliard d’années environ, sont apparus les eucaryotes, cellules possédant un noyau, et, il y a quelques centaines de millions d’années, des êtres pluricellulaires se reproduisant par voie sexuelle, de plus en plus performants et diversifiés, jusqu’à l’époque actuelle.

Il y a seulement deux siècles, après des millénaires de pratiques empiriques, que des chimistes ont commencé à déchiffrer la structure de la matière et à en reproduire les mécanismes les plus simples.

Les êtres vivants produisent des quantités de substances dont certaines très compliquées, grâce à des catalyseurs très efficaces, les enzymes, véritables machines-outils, qui sont programmés dans leur ADN. La synthèse biologique d’une molécule, même simple, est le résultat d’une cascade de réactions étroitement contrôlées par d’autres substances également présentes. Un extrait de végétal peut renfermer des centaines de molécules différentes, dont beaucoup en proportions très faibles. C’est ainsi que les plantes synthétisent des parfums, des colorants, des insecticides, des médicaments et bien d’autres choses pour attirer les pollinisateurs, repousser leurs agresseurs ou se défendre contre un environnement défavorable.

Les chimistes ayant suffisamment progressé au cours du XIXème siècle ont appris peu à peu à analyser ces substances pour établir leur structure et à les synthétiser par des procédés plus simples. Les réactions dans les êtres vivants, si elles sont compliquées, se font en présence d’eau et à température ambiante, mais si les chimistes ne disposent pas de catalyseurs artificiels aussi performants, ils peuvent opérer dans des conditions de température, de pression et de milieu beaucoup plus variés et réglables. Pour le chimiste comme pour la nature, les lois fondamentales de la chimie sont les mêmes, seule la manière de les utiliser diffère, et la nature des substances produites est strictement la même, quelle que soit la voie de synthèse utilisée. Cependant, si la nature sert de modèle pour reproduire un colorant, un parfum, on peut aussi créer des variantes, ajoutant ou retranchant à une molécule des atomes ou des groupes d’atomes pour en modifier à volonté les propriétés. D’un colorant naturel comme l’indigo, qu’on produit avantageusement par synthèse, on a créé des quantité de variantes, modifiant la couleur, les propriétés tinctoriales, la résistance aux agents de nettoyage et à la lumière. Sur le modèle de l’aspirine, on produit également toute une gamme de médicaments apparentés comme le paracétamol.

Un autre avantage de la synthèse industrielle est qu’elle permet de produire massivement des substances utiles qu’on ne trouve dans la nature qu’à l’état de traces diluées dans une masse de composés étrangers inutiles ou indésirables. Cet avantage a son revers qui est à l’origine de la mauvaise réputation de la chimie : produire en quantité des matières dangereuses qui n’existent pas dans la nature ou seulement à l’état de traces est une source de risques qui doit être étroitement surveillée.

Il ne faut pas oublier tout de même que la nature aussi est une source de dangers qui eux sont incontrôlables : séismes, volcanisme, chute de météorites, ouragans, épidémies, ont produit au cours de l’histoire de la Terre des extinctions massives d’espèces, atteignant 90% à la fin du Permien, il y a 250 millions d’années, et la disparition des dinosaures  et de bien d’autres espèces il y a 65 millions d’années. Il est vrai que si ces extinctions n’avaient pas  eu lieu, l’évolution aurait suivi d’autres voies, et nous ne serions pas là pour en parler.

Y a-t-il d’autres formes de matière que celle que nous connaissons et qui est faite d’atomes ? Il y a bien sur les neutrinos, qu’on sait maintenant détecter, et qui nous renseignent en particulier sur ce qui se passe au cœur du Soleil. Il y a peut être aussi d’autres particules encore hypothétiques comme le boson de Higgs, les particules de la théorie de la supersymétrie dont le neutralino, candidat à constituer la matière noire détectée par les astronomes, et qui accompagne les galaxies, mais toutes ces particules n’interagissent presque pas avec la matière ordinaire, sauf par leur masse, qui influe sur la route des astres. Il y a aussi le rayonnement électromagnétique, qui interagit fortement avec la matière (attention aux coups de Soleil) mais il faut de la matière pour le produire : sans matière, pas de rayonnement.

Tout cela ôté, que reste- t-il dans l’espace ? Les astronomes comme les physiciens pressentent une énergie du vide, mais sont en total désaccord sur son importance ; tel est du moins l’état actuel des connaissances.

A côté de la chimie naturelle, celle des chimistes n’est qu’un petit bricolage local. Elles ont toutes deux un fond commun essentiel, tous les atomes et un très grand nombre de molécules. La première ne sait faire ni du polyéthylène ni du nylon, ni des silicones ; elle fait du caoutchouc que nous aussi savons faire, mais elle fait de la laine et du coton que nous ne savons pas faire, bien que nous en connaissions parfaitement la composition. Elles sont complémentaires et non rivales : des substances utiles extraites de plantes, dont on se passerait difficilement mais présentes en très faibles proportions, parfums, colorants ou médicaments ont pu, après analyse, servir de modèles qu’on a pu reproduire économiquement en quantité. Inversement, il est parfois plus facile d’utiliser des plantes, des microorganismes ou même des animaux éventuellement transgéniques pour produire des substances dont la synthèse est trop difficile ou impossible avec les techniques actuelles.

Si le traitement de l’information est apparu depuis quelques dizaines d’années avec les ordinateurs, la nature ne nous a pas attendu pour le réaliser à sa façon. Après avoir créé la vie, la chimie naturelle a permis l’évolution des animaux grâce à des dispositifs non moins performants, le système nerveux et le cerveau, sans lesquels ils ne pourraient ni se déplacer, ni se nourrir, ni se défendre ni se reproduire

Tout repose sur une cellule spécialisée, le neurone, avec son axone et ses dendrites, des fibres nerveuses qui transmettent les informations sous forme de signaux électriques. La chimie de cette transmission fait intervenir des ions, essentiellement ceux du sodium, du potassium, du calcium et du chlore. Il ne s’agit pas d’un courant d’électrons , comme dans un fil métallique, mais d’une onde de dépolarisation, beaucoup plus lente, qui se joue entre l’intérieur de la fibre et son enveloppe externe. D’un neurone à l’autre, dans la fente synaptique qui les sépare, d’autres agents interviennent, les neurotransmetteurs comme la dopamine, la sérotonine, l’adrénaline, l’acétylcholine et quelques autres. La nature a inventé l’ordinateur chimique que constitue le cerveau, avec ses capteurs, ses modules de traitement des données, sa mémoire vive et sa mémoire permanente, ses centres de décision et la commande de ses annexes les muscles. Ses possibilités sons évidemment très différentes de celles de nos ordinateurs électroniques, et l’évolution l’a adapté aux besoins de chacun de ses utilisateurs, les animaux et les hommes. Après le comportement réflexe inconscient est apparue la pensée consciente que nous sommes bien loin de savoir réaliser artificiellement.

 

La chimie ne suffit pas à tout expliquer, loin de là. Elle fournit la matière sous toutes ses formes, sans laquelle rien n’est possible, mais elle ne s’applique pas à ses constituants ultimes. Dans les atomes et les molécules, les chimistes ne font intervenir que les électrons les plus externes des atomes, ceux qui assurent les liaisons, ces liaisons qu’ils cassent pour en établir d’autres. Les noyaux n’y jouent directement aucun rôle. La structure interne des atomes est du domaine de la physique, mais elle est la cause profonde du caractère de chaque élément.

Les cascades de mécanismes dans la cellule vivante, si elles ont une base chimique, dépendent d’un niveau d’organisation plus élevé, comme une horloge dont le fonctionnement n’est possible que par l’arrangement précis de l’ensemble des pièces détachées dont elle est constituée.

Un physicien peut à la rigueur ignorer la chimie et un chimiste la biologie, mais un biologiste ne peut pas ignorer la chimie, ni un chimiste la physique. Pour assurer la transition, il existe des disciplines mixtes : la chimie physique et la biochimie. Autrefois, les naturalistes qui classaient les espèces n’avaient pas besoin de la chimie, et les chimistes ne se préoccupaient pas des électrons qui assurent les liaisons entre atomes ; maintenant toutes ces sciences sont interdépendantes.

La nature n’est pas une personne. Elle ne sait rien et n’a aucun projet. Elle n’est en fait, semble-t-il qu’un ensemble de particules dont les relations qu’elles ont ensemble sont le jeu de transformations continuelles et leur évolution est l’effet du hasard et de la nécessité, mais elle dispose de toute la matière de l’univers, de son énergie et des conditions extrêmes qui y règnent : températures et pressions très basses ou très élevées. Elle dispose aussi de beaucoup de temps, ce qui lui a permis de créer la vie et la pensée, qui n’étaient pas prévisibles dans le chaos des origines, tout en étant peut-être inévitables dans des conditions favorables : un système qui reçoit un flot permanent d’énergie de l’extérieur peut localement s’organiser spontanément de façon de plus en plus subtile, à contre courant de la tendance de l’entropie à croître jusqu’à l’uniformité. Dans cette évolution, la chimie joue un rôle essentiel en créant constamment de nouveaux arrangements de la matière.

Ceux pour qui naturel et chimique sont antagonistes trouvent un encouragement dans la publicité, forme élaborée de mensonge qui en fait un de ses arguments favoris. On vante des aliments, des boissons, des produits d’hygiène ou ceux dits de beauté, ou n’importe quoi d’autre en les proclamant exempts de tout produit chimique ; c’est à la fois une équivoque et une imposture. Tout produit dit naturel n’est qu’un mélange de substances qu’on peut dire chimiques quand on les désigne par une appellation chimique : le sel de cuisine s’appelle aussi chlorure de sodium, le sucre de canne ou de betterave saccharose et l’acide du vinaigre acide acétique. C’est une imposture quand on veut persuader que tout ce qui est naturel est bénéfique et tout ce qui est chimique dangereux.

Les adorateurs de la nature préconisent de se soigner par les plantes. Si les végétaux élaborent des centaines de substances, ce n’est pas par philanthropie pour nous soigner, c’est pour leur permettre de survivre. Il se trouve que certaines de ces substances peuvent avoir un effet bénéfique pour les humains, mais si un extrait de plante renferme un produit utile, il est généralement mélangé à d’autres substances inutiles ou indésirables, et il s’y trouve en proportions qui peuvent être très variables selon l’histoire de la plante dont il provient ; son dosage est donc aléatoire et on risque d’en prendre trop ou trop peu. Le risque est d’autant plus grand que le produit est plus actif.

Les substances issues des plantes n’en sont pas moins une source de molécules précieuses que souvent on n’aurait pas imaginées, et qu’on peut le plus souvent reproduire par synthèse et conditionner avec précision dans les médicaments, sans condamner pour autant les amateurs de tisanes. La médecine est le domaine où les produits synthétiques sont le mieux acceptés, car la santé des personnes est en jeu. Avec les génériques, le public commence à s’habituer à l’idée que sous des noms, des prix et des emballages différents on peut avoir exactement les mêmes remèdes.

On fait de la chimie sans le savoir. La cuisine est une chimie empirique aux mécanismes subtils. Les trois principaux constituants de nos aliments, protéines, sucres et graisses, résistent inégalement à la cuisson. Les protéines sont les plus fragiles, comme le montre la cuisson d’un œuf qui les dénature en modifiant leur structure et en les durcissant ; les sucres se combinent aux protéines ou se caramélisent ; les corps gras sont plus résistant mais peuvent rancir ou se dégrader dans les fritures. Les actions mécaniques : fouetter, écrémer, émulsionner, modifient la texture : l’huile se transforme en mayonnaise, le lait caille, les autres ingrédients comme le sel interviennent également en faisant ou défaisant des liaisons délicates entre tous les constituants présents. Les chimistes ont du mal à s’y retrouver et ne sont pas nécessairement les mieux placés pour apprécier le résultat.

La métallurgie a longtemps été un art . Comment comprendre qu’on obtient des métaux à partir de minerais, qui sont le plus souvent des oxydes, si on ignore l’existence de l’oxygène et le rôle du charbon. Pendant des siècles, cette ignorance n’a pas empêché les métallurgistes d’opérer, mais ne leur a pas non plus facilité la tâche.

Les teinturiers ont longtemps utilisé des colorants extraits de plantes et mis au point des recettes empiriques laborieuses pour les fixer sur les tissus. Il n’y a pas beaucoup plus d’un siècle qu’on a commencé à connaître la composition de ces colorants, par quelles liaisons ils se fixent sur les fils, à en synthétiser d’innombrables variantes et à maîtriser les techniques de teinture.

Il n’y a pas bien longtemps non plus que les agriculteurs connaissent le rôle exact des engrais. Pour croître, les plantes ont besoin principalement du gaz carbonique de l’air, d’eau, d’azote, de phosphore, de potassium et , en moindres quantités, d’une trentaine d’autres éléments. L’azote n’est connu que depuis la fin du XVIIIème siècle. Constituant principal de l’atmosphère, présent dans les protéines, il n’est directement assimilable que par quelques microorganismes fixés sur les racines des légumineuses, seule source naturelle, avec parfois les oxydes d’azote produits par la foudre, et il est recyclé par les déchets de l’agriculture. Quand l’industrie chimique l’extrait de l’air pour en faire de l’ammoniac ou des nitrates, c’est bien le même azote que celui du fumier.

Tout ce qui vit est  biologique par définition, et l’agriculture dite biologique n’en a pas le monopole. Les plantes qui poussent grâce aux engrais de synthèse n’en sont pas moins biologiques. Toute cellule vivante est une usine chimique avec ses plans de fabrication et ses machines-outils. Elle importe ses matières premières et livre ses produits finis. La digestion et la respiration sont des opérations chimique, et les plus virulents de ceux qui ne voient dans la chimie qu’une source de pollution perverse en font inconsciemment malgré eux. La biologie est finalement de la chimie avec un haut degré d’organisation.

S’ils fabriquent souvent les mêmes molécules, la nature et les chimistes procèdent de façon très différente. La nature opère sans projet, sans intention consciente. En s’en tenant à la Terre, il faut distinguer trois étapes très différentes : une première étape minérale, une seconde prébiotique et une dernière biochimique. L’étape minérale commence avec la formation de la Terre, à partir du nuage de gaz et de poussières à l’origine du Système Solaire. Ce nuage renferme tous les éléments, mais en proportions très variées. Les plus abondants sont l’hydrogène, l’oxygène, le fer, le carbone, le silicium et des métaux. Porté à haute température par l’accrétion, le mélange fond, les métaux décantent pour constituer le noyau, et au dessus surnagent le magma qui constitue le manteau et la croûte, puis l’eau et les gaz de l’atmosphère.

Les phénomènes géologiques : volcanisme, dérive des continents, subduction, infiltration d’eau en profondeur et érosion diversifient une composition au départ homogène : des éléments migrent et se concentrent localement, formant des gisements métallifères, le lessivage des sols accumule les composés solubles dans les océans, et l’assèchement des mers isolées provoque des dépôts  de sels. Ce sont ces gisements que nous exploitons maintenant et qui nous servent de matières premières.

La seconde étape met en jeu des quantités de matière beaucoup moins importantes : le carbone sous forme de gaz carbonique ou de méthane, l’azote et l’eau, soumis au rayonnement solaire ou aux décharges électriques des orages forment des masses goudronneuses renfermant entre autres des acides aminés et des bases azotées, matières premières de la vie.

Les premiers êtres vivants, des bactéries, sont apparus très tôt dans l’histoire de la Terre. S’isolant dans des cellules qui, grâce à leur membrane, contrôlent les échanges avec l’extérieur, réalisant progressivement la synthèse d’innombrables molécules nécessaires à leur survie et à leur reproduction, les êtres vivant, végétaux et animaux , envahissent les océans puis les continents, et s’accumulent après leur mort pour former les gisements de charbon, de gaz et de pétrole, autres sources de matières premières.

Un chimiste qui veut synthétiser une molécule a un projet et fait appel à ses connaissances et à sa documentation pour déterminer la marche à suivre, en quoi il se distingue de la nature, mais comme la cellule vivante il a aussi besoin de matériel, et avant tout de récipients pour isoler ses produits. Dans les deux cas, cet isolement est indispensable pour contrôler les différentes étapes de la synthèse et aboutir sélectivement au résultat. Hors de la matière vivante, la chimie naturelle évolue au hasard, alors que la cellule opère selon des mécanismes  précis et ne synthétise que des molécules préprogrammées par son matériel génétique.

Synthétiser des molécules et les concentrer plus ou moins pures en quantités notables sont deux opérations bien différentes. Des phénomènes géologiques peuvent rassembler des masses importantes  de substances minérales, mais les cellules vivantes produisent, en proportions souvent très faibles, de très nombreuses molécules différentes. Les chimistes ont des soucis que n’a pas la nature. Ils veulent obtenir des produits aussi purs que possible, et en quantités suffisantes pour leurs diverses applications. Les impuretés qui pourraient subsister sont souvent une gène, et les techniques de détection de traces et de purification continuent à progresser.

Les transformations de la matière peuvent donc s’effectuer soit au hasard soit selon un programme. Dans le premier cas, dans l’espace, dans la croûte terrestre, mais aussi selon les recettes empiriques de la cuisine et des métiers traditionnels, qui visent un résultat sans se préoccuper de la compréhension des mécanismes et de la composition chimique des produits, on aboutit le plus souvent à des mélanges plus ou moins hétérogènes. Les substances organiques, à base de carbone, soumises sans précautions à des températures de plus en plus élevées, se cassent, se recomposent, et aboutissent finalement à des mélanges de petites molécules volatiles qui s’échappent et à des résidus goudronneux de plus en plus riches en carbone, et finalement à du charbon.

La matière vivante et les chimistes au contraire opèrent selon un programme, l’ADN, qui commande rigoureusement la nature des produits formés, ou l’intention de l’opérateur qui vise à obtenir une molécule déterminée.

Cette fabrication massive de produits purs a aussi son revers. Elle est à l’origine de la mauvaise réputation de la chimie. Bien que la nature ne soit pas exempte de produits dangereux : toxines, venins et poisons de toutes sortes, et le grisou, qui s’appelle aussi gaz naturel ou méthane, il est plus facile de s’en prendre aux chimistes : des molécules qui, dispersées en faibles proportions ne présentent que peu de danger peuvent comporter des risques en quantités massives ; c’est le cas des engrais, naturels aussi bien que synthétiques. Inflammables, caustiques, toxiques, le stockage et l’emploi de nombreux produits de l’industrie exige des précautions. C’était aussi le cas, de tous temps, des meules de paille, de la poudre noire et de l’arsenic.

Cependant, le reproche que le public adresse plus ou moins consciemment aux produits de la chimie , c’est de n’être pas naturels. Tout ce qui précède montre que la chimie intervient partout dans la nature, mais qu’entend-t-on par naturel ? Une définition s’impose : est naturel tout ce qui exclut des interventions humaines délibérées. A ce compte, la seule façon de rester naturel est de vivre comme une bête sauvage : manger, dormir, se reproduire, jouer à la rigueur, et rien d’autre. Est-ce là l’idéal des plus passionnés défenseurs de la nature ? Une attitude plus nuancée mais plus équivoque est le retour au bon vieux temps : les pratiques du passé étaient naturelles : paysans et artisans traditionnels respectaient une nature que les techniques modernes outragent. Qu’en penseront nos lointains successeurs si des techniques encore inconnues ont modifié complètement leur mode de vie ? Les nôtres en seront-elles réhabilitées et considérées comme primitives, proches de la nature ? Seront-ils moins naïfs, moins perméables aux boniments et aux idées reçues qu’exploitent nos publicités ?

La défense de la nature est une nécessité vitale : les bouleversements du climat, la disparition massive d’espèces, la dégradation des sols, la surpopulation des régions pauvres, sont particulièrement inquiétants. Les plus bruyants de ceux qui prétendent défendre sa cause la discréditent malheureusement par leurs outrances, leur fanatisme et leur obscurantisme. Les produits dits chimiques sont une de leurs cibles favorites, et ils les opposent aux produits dits naturels, mais que connaissent-ils des rapports de la nature avec la chimie? La nature mérite de meilleurs défenseurs.

LE CHAOS par M RIO André

 

LE CHAOS                                                                                118-1897_img

1.Le chaos et les sciences.

2.Les mathématiques et le chaos.

3.La physique et le chaos.

La mécanique.

La thermodynamique.

La physique quantique.

4.La vie et le chaos.

5.Le hasard et le déterminisme.

6.Comment le chaos crée-t-il de l’ordre?

7.Conclusions.

8.Références.

1.Le chaos et les sciences.

Toutes les sciences s’efforcent de faire des prévisions aussi rigoureuses que possible. Chacune dans son domaine tente d’établir des lois en espérant que les faits voudront bien s’y conformer .Des prévisions précises sont possibles tant que les phénomènes ne sont pas trop compliqués, et pendant longtemps on n’a pas trop voulu se préoccuper des cas qui paraissent inextricables, donc inabordables, c’est à dire le chaos.

Depuis quelques années, on tente de l’appréhender et de le circonscrire .La météorologie est un exemple caractéristique ;les mécanismes fondamentaux sont bien connus :l’atmosphère est un fluide qu’on peut définir localement par sa pression, sa température, sa vitesse, son degré d’humidité, l’apport d’énergie solaire, toutes grandeurs qu’on sait mesurer avec précision, mais dont on est incapable de prévoir l’évolution au delà d’un temps très limité.

Les phénomènes de la vie sont encore bien plus compliqués, et si un être vivant est structuré de façon très précise, son devenir ou celui d’une population sont très aléatoires.

Personne ne peut se satisfaire d’un futur tout à fait imprévisible ;les dictons populaires sont une façon naïve d’inventer des lois simplistes là où il ne peut y en avoir, dans la prévision du temps, des récoltes, de la santé, des comportements humains ou animaux.

On se prémunit contre les évènements aléatoires en s’efforçant d’en limiter les risques :protection contre les intempéries, machines et instruments aussi fiables que possible, dispositifs de sécurité…

Enfin, une meilleure compréhension des phénomènes chaotiques est apparue .Si on ne peut pas les décrire de façon précise, une approche plus globale, statistique, est possible :le chaos a aussi ses lois

2.Les mathématiques et le chaos.

Le chaos n’est pas une spécificité du monde matériel On peut dire qu’il existe en mathématiques chaque fois qu’on ne peut pas calculer un terme quelconque d’une suite pourtant parfaitement définie .La suite des nombres premiers par exemple(nombres divisibles seulement par eux mêmes ou par 1)est chaotique :il n’existe pas d’expression générale permettant de les calculer, aucune loi rigoureuse qui prédise l’ordre dans lequel ils se suivent .A la question :quelle est la valeur du nième nombre premier il n’existe pas de réponse directe.

Dans un autre exemple simple, on part d’un nombre irrationnel quelconque, log 2 par exemple, on le double et ainsi de suite, en retranchant 1 si le terme obtenu est plus grand que 1. l’opération est parfaitement déterministe ,mais les différents termes ne sont calculables que de proche en proche.

Attracteurs et fractales .L’attracteur de Hénon, exemple classique, définit deux variables x et y par les expressions suivantes:

x(t+1) = y(t) +1 – a x2(t)

y(t+1) = b x (t)

On les calcule en donnant successivement à t les valeurs 0,1,2,etc,en posant x(0) = 0,y(0) =0, et par exemple a = 1,4 et b = 0,3.Les valeurs successives de x et y, représentées graphiquement sur un plan(voir la figure)se situent sur une infinité de courbes proches les unes des autres, à quelque grossissement qu’on les observe, elles ont toujours le même aspect ;le chaos reste dans un domaine limité du plan :il est bridé, et ici encore on ne peut pas calculer directement un terme quelconque à cause des interactions entre x et y.

On peut obtenir des fractales par des opérations géométriques simples(voir les figures);en répétant indéfiniment la même opération à des échelles de plus en plus petites, on obtient des courbes continues formées de triangles de plus en plus petits.

On peut citer encore l’attracteur de Lorenz formé de courbes qui se développent dans l’espace(voir la figure)en forme d’ailes de papillon .Il est défini par les expressions suivantes:

dx/dt = -10 x + 10 y

dy / dt = -x z + 28 x -y

dz/dt = xy -1/3 z

On a ici un système d’équations différentielles non intégrables à cause des interactions entre les variables. On verra le même cas en physique dans les systèmes matériels qu’on peut décrire localement par des équations différentielles, mais non globalement parce que ces équations ne sont pas intégrables.

a-carre

  Les nombres premiers

b-image

Courbe de Van Koch

c-courbe-de-van-koch

Attracteur de Henon

d-attracteur-de-henon

Attracteur de Lorenz

e-attracteur-de-lorenz

3.La physique et le chaos.

La mécanique.

La mécanique décrit un système matériel et son évolution par des expressions mathématiques qui relient les différentes grandeurs qui le caractérisent .La mécanique de Newton par exemple permet de calculer le mouvement d’une planète autour du soleil ou d’un satellite autour d’une planète à partir de leurs masses, de leurs distances et de leurs vitesses à un moment donné, et le résultat est d’autant plus précis que les conditions initiales sont connues avec précision.

On s’était rendu compte qu’on ne savait pas faire un calcul exact dès que trois corps interagissent, par exemple dans un système binaire de deux étoiles et d’une planète, et encore moins pour l’ensemble du système solaire et de ses planètes ;on peut seulement faire un calcul approximatif pour une durée limitée .Dès le début du XXème siècle, Henri Poincaré avait montré qu’il ne s’agissait pas d’une insuffisance des techniques de calcul, mais qu’il n’existait réellement aucune solution mathématique possible de tels systèmes évoluent de façon totalement imprévisible parce qu’ils sont très sensibles aux conditions initiales, et une différence infime des vitesses ou des positions aboutit à long terme à des trajectoires complètement différentes :malgré son apparente stabilité, le système solaire est chaotique.

Le mouvement de la Lune, influencé par le Soleil et les grosses planètes, est irrégulier si on l’examine avec précision .Celui des astéroïdes est encore plus erratique .Des simulations numériques permettent de calculer l’évolution du système solaire sur de longues durées. L’orbite de Pluton est la plus instable, celles des grosses planètes les plus stables .Si l’on calcule l’évolution de la Terre à partir de deux positions distantes de 100 mètres, on constate un écart de 40 millions de kilomètres au bout de 100 millions d’années.

Cependant, les perturbations restent limitées :le chaos est bridé, et l’éjection d’une planète hors du système solaire, sans être tout à fait impossible, reste très improbable .Des phénomènes de stabilisation interviennent :Jupiter et Saturne sont en résonance, le rapport de leurs périodes est de 2/5,et leurs orbites suivent un cycle de 900 ans L’axe de rotation de la Terre est stabilisé par la présence de la Lune, sans laquelle il serait beaucoup plus instable, avec des effets catastrophiques sur le climat et la vie.

La thermodynamique.

La thermodynamique utilise des grandeurs directement accessibles des corps :pression, volume, température, et des lois où interviennent des notions plus abstraites :chaleur, entropie, énergie .Le premier principe de la thermodynamique considère la chaleur comme une forme d’énergie ;selon le second, toutes les formes d’énergie peuvent se transformer les unes dans les autres, avec une restriction pour la chaleur qui n’est que partiellement transformable en énergie mécanique, électrique ou chimique on peut obtenir de la chaleur en brûlant un combustible, la transformation inverse ne peut se faire spontanément à des équilibres on le refroidit.

La mécanique de Newton traite un nombre limité d’objets agissant les uns sur les autres(Soleil, planètes, satellites).Il n’en est pas de même de la thermodynamique :un gaz est constitué d’un très grand nombre de molécules animées de grandes vitesses et qui s’entrechoquent de façon désordonnée .Le comportement d’ensemble est le résultat statistique de cette agitation On peut définir la masse et la vitesse d’une molécule unique, non sa pression ou sa température qui n’ont de sens que pour un très grand ensemble de molécules en équilibre :la température est liée à leur vitesse moyenne, la pression aux chocs multiples exercés sur les parois du récipient qui les contient.

Un gaz est donc un système chaotique, mais qui obéit à des lois statistiques précises à condition de le traiter de façon globale sans se préoccuper du mouvement particulier de chacune des molécules qui le constituent.

Il apparaît donc que les lois fondamentales de la physique ne s’appliquent qu’à des cas idéaux exempts de toute perturbation et réversibles .Les faits réels sont au contraire généralement irréversibles, perturbés par de nombreuses interactions et ne peuvent être décrits exactement. Cependant, le désordre qui en résulte est souvent limité et une approche statistique est alors possible .C’est ainsi que les phénomènes météorologiques, extrêmement chaotiques, où des causes locales minimes(les battements d’aile d’un papillon!)peuvent(éventuellement)avoir des répercussions importantes à distance, permettent cependant des prévisions limitées relativement fiables.

Les réactions chimiques se font presque toujours jusqu’à épuisement progressif des réactifs ou jusqu’à un équilibre avec les produits formés .Il existe cependant des réactions auto catalytiques où, loin de l’équilibre, la concentration d’un produit intermédiaire oscille entre deux valeurs extrêmes tant que les réactifs ne sont pas consommés .On voit apparaître puis disparaître plusieurs fois une coloration jusqu’à épuisement des produits de départ ;en opérant en couche mince, on observe des figures concentriques qui se déplacent.

La physique quantique.

Si la théorie de la relativité, comme la physique classique, est rigoureusement déterministe, la physique quantique est de nature statistique :les objets quantiques, particules, atomes, molécules, sont représentés par l’équation fondamentale de Schrödinger qui permet de calculer leur fonction d’onde, mais cette fonction n’est qu’une probabilité de présence d’une particule en un point donné ;une particule quantique n’est pas un objet au sens habituel ,mais une onde, et on ne peut la localiser exactement que quand elle interagit avec un dispositif de détection d’onde .L’équation de Schrödinger est réversible, la réduction de la fonction d’onde ne l’est pas.

Un système quantique formé de particules corrélées :couple de particules, atome ou objet quelconque présente des caractéristiques paradoxales :dans ces systèmes, chaque particule ne possède pas d’individualité propre tant qu’elle n’a pas interagi; le chat de Schrödinger, à la fois vivant et mort, en est une image classique .Une autre illustration amusante a été proposée par S.Ortoli et J.P.Pharabod, ce sont les poissons quantiques.

Un poisson quantique introduit dans une mare se dilue aussitôt dans tout le volume d’eau, mais, s’il mord à l’appât d’un pêcheur, il se matérialise immédiatement au bout de la ligne .On partage ensuite l’eau entre deux autres mares ;chacune renferme à l’état latent les deux poissons, mais si l’un est pris par un pêcheur, son sexe, jusque là imprévisible, se détermine, et son partenaire jaillit aussitôt de l’autre mare .(Voir :Comprendre la physique).

Pour les objets macroscopiques, les effets quantiques s’atténuent d’autant plus rapidement qu’ils sont plus grands, sauf dans quelques phénomènes où toutes les particules sont étroitement corrélées :la supraconductivité, la superfluidité et les lasers, et le comportement des objets usuels décrit par la physique classique n’est finalement que l’aspect statistique global des phénomènes quantiques sous-jacents.

4.La vie et le chaos.

L’évolution des espèces comme celle des individus doivent beaucoup à une part de hasard. Dans la soupe moléculaire qui a précédé la vie, seule une infime partie des substances présentes était capable d’amorcer les mécanismes de reproduction indispensables, et pendant la très longue période de la vie exclusivement unicellulaire, il a fallu une lente maturation et la rencontre inopinée d’organismes rudimentaires pour préparer l’explosion des végétaux et des animaux .

L’évolution de chaque individu est aussi une série de tâtonnements orchestrés mais non rigoureusement prévus par son patrimoine génétique .Son ADN serait largement insuffisant pour commander tous les détails de son organisme :la croissance des alvéoles pulmonaires, des vaisseaux sanguins, des circuits de neurones du cerveau, ne se font pas selon un plan rigoureux comme le câblage d’un ordinateur mais au hasard des interactions locales :deux vrais jumeaux, ayant le même patrimoine génétique, ne sont pas rigoureusement identiques .Cette part d’imprévisibilité, loin d’être un défaut, est au contraire source de diversité, de souplesse et de possibilités accrues :le chaos est constructif.

L’environnement de chaque individu, de chaque espèce, est également une source d’imprévu, de diversité, et exige une adaptation suffisante, sous peine de disparaître Dans les sociétés humaines là encore, technique et intellectuel

A chaque étape de l’évolution de la vie, un état plus structuré apparaît donc spontanément au milieu d’un grand désordre.

5.Le hasard et le déterminisme.

ll existe plusieurs degrés dans l’impossibilité de faire des prévisions précises .Dans les jeux de pile ou face, la roulette, les loteries, le résultat de chaque coup est indépendant des précédents et tous les numéros ont une chance égale de sortir .Sur un grand nombre de coups, on peut faire des prévisions statistiques.

Le hasard des rencontres et l’interaction de séries d’évènements indépendants se produisent constamment et de façon tout à fait aléatoire comme pour le passant qui reçoit une tuile sur la tête .La part d’imprévu y est beaucoup plus grande que dans le cas précédent, mais un traitement statistique est encore possible .C’est ce que font par exemple les compagnies d’assurances, et leurs calculs leur permettent généralement plus de profits que de pertes.

ans tous les cas, les incertitudes sont dues à l’ignorance des détails qui commandent le résultat observé :mouvement imprévisible de la pièce, de la boule ou de la roue, ignorance de la succession des évènements qui provoquent une rencontre ou un accident et ses résultats, mais existe-t-il des cas où même une connaissance parfaite de toutes les circonstances ne permettrait pas de prévision ?C’est semble-t-il le cas en physique quantique où la durée de vie d’un noyau radioactif isolé par exemple semble indépendante de toute cause connaissable, mais la physique quantique n’est pas encore totalement comprise .A cette exception près, l’ignorance de toutes les données et des possibilités de calcul semblait la seule raison pour laquelle la prévision exacte n’est pas possible.

L’idée est donc apparue que si l’on connaissait exactement les lois de la nature et son état exact à un moment donné, le passé et le futur seraient parfaitement déterminables absolue .Son collègue, le démon de Maxwell, mettrait en défaut le deuxième principe de la thermodynamique en triant les molécules d’un gaz selon leur vitesse :mettant à part les plus rapides, il séparerait le gaz en deux parties, l’une plus chaude, l’autre plus froide, sans dépense d’énergie.

Ces exploits sont évidemment irréalisables, et pas seulement pour des raisons pratiques. Pour faire son tri, le démon de Maxwell aurait besoin d’informations, de mesurer la vitesse des molécules, ce qui ne peut se faire gratuitement :il faut payer en dépensant de l’énergie .Les prévisions du démon de Laplace se heurteraient aussi à un obstacle fondamental .L’évolution du monde avec ses innombrables interactions est tout à fait chaotique, mais le chaos est aussi créateur d’ordre et de structures de plus en plus compliquées comme celles de la vie et de la pensée qui entraînent de nouvelles interactions .La biologie ne se déduit pas logiquement des lois de la physique, et la connaissance parfaite de l’atome d’hydrogène, modèle de tous les autres, ne permet d’interpréter ni l’angoisse ni l’humour.

6.Comment le chaos crée-t-il de l’ordre?

Que serait le désordre absolu ?Ce serait celui où toutes les particules qui composent le monde seraient libres et agitées de façon statistiquement uniforme comme le sont les molécules d’un gaz à température constante, une situation plus proche de celle qu’on imagine peu après le Big-Bang que de la réalité actuelle .Cette situation n’était pas stable, car l’attraction universelle, la gravité, et les autres interactions fondamentales sont intervenues pour condenser localement ces particules, former des atomes, des agrégats, des étoiles et leurs cortèges d’astres et des galaxies.

L’échauffement résultant de cette condensation, puis des réactions nucléaires, est à l’origine des phénomènes géologiques, de la synthèse de molécules de plus en plus compliquées et finalement de la vie, mais la fraction la plus organisée de la matière n’en constitue qu’une partie infime.

La notion d’entropie, dont la définition mathématique est très simple, mais la signification physique beaucoup plus subtile, donne une interprétation globale de ces faits .Un système acquiert ou perd de l’entropie(S)quand il échange une quantité de chaleur(Q) à la température absolue(T) avec l’extérieur

S = Q/T

Par exemple, pour fondre de la glace, on lui fournit de la chaleur à 0°C, soit 273 °K, ce qui fait

S = 80/273 calories/degrés ou 19/273 joules/degrés

pour un kilogramme de glace (la chaleur de fusion de la glace étant de 80 calories).

L’expérience montre qu’on peut créer de l’entropie de bien des façons, par exemple en transformant en chaleur de l’énergie mécanique, chimique ou électrique, mais qu’il est impossible de la détruire Dans un système isolé, l’entropie ne peut donc que croître.

Un autre aspect de l’entropie, c’est la mesure du désordre d’un système :un système isolé ne peut qu’accroître globalement son désordre .Un système ouvert au contraire peut échanger de l’énergie et de l’entropie avec l’extérieur ;c’est le cas de la Terre qui reçoit de l’énergie lumineuse du Soleil et en renvoie à l’extérieur sous forme de chaleur .Elle peut donc se débarrasser constamment de son excès d’entropie, ce qui a pour effet de maintenir sa température moyenne à peu près constante, d’être agitée de phénomènes géologiques et météorologiques permanents, d’entretenir et de diversifier la vie .Globalement, la Terre crée plus d’entropie qu’elle n’en reçoit, mais elle en élimine constamment.

Globalement, la création et le maintien de structures de plus en plus organisées localement se paie en augmentant le désordre à l’extérieur.

7. Conclusions.

Les lois de la physique sont des approximations idéalisées de la réalité concrète .Elles sont déterministes et réversibles, la réalité ne l’est pas.Même en mathématiques, tout n’est pas calculable directement .De nombreuses suites de termes ne sont calculables que de proche en proche, et beaucoup d’équations différentielles ne sont pas intégrables et conduisent au chaos.

Le monde physique, plein d’interactions inextricables, n’est prévisible qu’approximativement et souvent seulement à court terme, mais une approche statistique permet d’en circonvenir l’indétermination

Cependant le chaos, quoique omniprésent, a ses limites ;il ne peut s’étendre indéfiniment :il est bridé, et paradoxalement, s’il est généralement créateur de désordre, il peut aussi créer localement de l’ordre, des structures de plus en plus diversifiées et organisées.

 

8. Références.

Les ouvrages et les articles suivants ont servi à la rédaction de ce travail .Les lecteurs pourront y trouver un complément d’informations et des développements beaucoup plus importants.

Ouvrages.

Ilya Prigogine .La fin des certitudes.(Odile Jacob).

Jorge Wagensberg .L’âme de la méduse.(Seuil).

Trinh Xuan Thuan .Le chaos et l’harmonie.(Fayard).

S.Ortoli et J.P.Pharabod.Le cantique des quantiques.(Editions la Découverte).

Articles.

Les attracteurs étranges .La Recherche 108 132 février 1980.

L’ordre chaotique .La Recherche 185 190 février 1987.

Le chaos déterministe .La Recherche 225 1248 octobre 1990.

L’universalité des formes fractales .Pour la Science 248 40 juin 1998.

LE BOSON DE HIGGS par M RIO André

LE BOSON DE HIGGS

M André RIO
M André RIO

 

La matière est elle divisible à l’infini ou formée de particules ?

L’idée d’atomes proposée par Démocrite, Epicure et Lucrèce a été combattue par Aristote, Platon et plus tard par Spinoza. Aucun ne disposait de données indiscutables, ce n’était que de la spéculation. Il a fallu attendre la fin du XVIIIème siècle avec Lavoisier pour identifier les véritables éléments et supposer avec Dalton qu’ils sont constitués d’atomes. ce qui explique qu’ils ne s’unissent entre eux que dans des proportions définies. Si pour les uns c’était la preuve de l’existence des atomes, d’autres s’en tenaient à la notion d’équivalents. Les deux écoles se sont opposées pendant tout le XIXème siècle, et c’est seulement au début du vingtième que la réalité des atomes s’est imposée.                       

   La physique quantique, née avec Planck et le rayonnement du corps noir, l’effet photoélectrique interprété par Einstein, ont établi que la lumière est formée de particules, les photons. La théorie du mouvement brownien établie aussi par Einstein et sa réalisation concrète effectuée par Perrin, ainsi que quelques autres expérimentations ont permis de déterminer la masse des atomes et la charge de l’électron. On s’est aperçu bientôt que les atomes sont principalement constitués de vide, d’un noyau compact minuscule et très dense et d’un nuage d’électrons. Le noyau lui même est formé de protons et de neutrons, puis on découvre toute une série d’autres particules, certaines inattendues, d’autres prévues ; c’est le cas du boson de Higgs.

         Pourquoi a-t-on recherché le boson de Higgs ? Il a été imaginé il y a une quarantaine d’années pour expliquer la masse des particules élémentaires en créant un champ analogue aux champs électrique ou magnétique, interagissant avec les particules selon leur masse.

La quête de ce boson (H) a été longue, car sa propre masse devait être élevée et exigeait une source d’énergie très importante produite par un collisionneur de particules. Le LEP du CERN (Centre européen de recherche nucléaire), qui utilisait des collisions électron positon, et le Tévatron du Fermilabo à Chicago, se sont révélés insuffisants, mais ont permis une estimation de sa masse. C’est le LHC (Large hadrons collider) qui y est récemment parvenu.

C’est un anneau de 27 km de circonférence à 100 m sous terre qui a atteint une énergie de 8 TeV (téra électron volts) et qui pourra être porté en 2014 à 15 TeV, qui y est parvenu en utilisant la collision de protons. La durée de vie du boson est excessivement brève, et il ne peut être détecté que par ses produits de décomposition, soit deux photons soit deux Z0 qui se décomposent à leur tour en deux électrons ou deux muons. Deux détecteurs ont été utilisés : le CMS (solénoïde compact à muons) et Atlas (appareil toroïdal pour le LHC) . Ils ont mobilisé 3000 personnes et ont donné des résultats concordants pour la masse du boson, soit 125,3  pour CMS et 126,5 Gev pour Atlas.

 

Le boson de Higgs et les particules élémentaires du modèle standard.

                            Les particules constituant la matière :

                                           Leptons                                   Quarks

électron e    neutrino électronique ne                    up u        down d

muon m       neutrino muonique nm               strange s  charm c

tau t                neutrino tauique nt                                top t        bottom b

Les particules des interactions :

Interaction électromagnétique             photon        g

Interaction forte                                 8 gluons      g

Interaction faible                                3 bosons     ww  z0

Gravité                                              graviton (hypothétique)

A toutes ces particules il faut ajouter leurs antiparticules  comme le positon ou électron positif. La théorie de la supersymétrie en prévoit encore toute une série dont aucune n’a encore été détectée.

Si le boson de Higgs explique la masse des particules, cette masse a trois aspects : la masse inerte qui intervient dans l’énergie cinétique

E = ½ m v2

La masse gravifique de l’attraction universelle

   F = G M m / d2

                               et la masse forme d’énergie selon la Relativité

E = m c2

  Exemples de masses      

 proton        0,938 GeV

neutron       0,940   GeV

électron      0,511   KeV

boson W    80        GeV

boson Z     91       GeV

1 eV = 1,78.10-33 gramme = 1,6. 10-19 joule.

Une particule est caractérisée par son spin, une propriété quantique qui s’interprète comme une rotation. On distingue les fermions, comme les leptons et les quarks qui ont un spin fractionnaire (s= ½ ), et les bosons, dont le photon et les bosons w et z qui ont un spin entier (s = 1). On ne connaît pas avec certitude le spin du boson de Higgs qui pourrait être 0 ou 2. Pour ce dernier bien des questions se posent encore. Y en a t-il un seul ou cinq ? A t-il un rapport avec la théorie de la super symétrie ? avec l’antimatière, la matière noire, l’énergie du vide ? Est- il vraiment élémentaire ou composite ? Apparenté avec les autres particules ?

Un nouveau projet apportera-t-il de nouvelles informations ? Il s’agit d’un collisionneur linéaire e+e- long de 31 km, d’une énergie de 0,5 à 1 TeV, inférieure à celle du LHC, mais plus facile à interpréter parce qu’il ne fait intervenir que des électrons.

 

Références: La Recherche, novembre 2008, p. 30. Si le boson de Higgs n’existait pas.septembre 2012, p. 8. Le boson de Higgs enfin dévoilé.Pour la science, septembre 2012. P. 22. La saga du boson de Higgs.

  1. 30. Le boson de Higgs, et après ?

LES TROUS NOIRS par M RIO André

M André RIO
M André RIO

LES TROUS NOIRS

 

A l’origine de la plupart des trous noirs, il y a des étoiles. Elles se forment par condensation d’un nuage de gaz et de poussière sous l’effet de la pesanteur, en particulier au centre des galaxies où la densité de matière est plus élevée. Cette condensation peut aussi être amorcée par l’explosion d’une supernova, fin de vie d’une étoile massive, ou par la collision de deux galaxies.

Une étoile se distingue d’une planète géante par sa masse : au cours de sa formation, l’échauffement produit lui permet d’atteindre une température suffisante pour amorcer une réaction nucléaire, la fusion de l’hydrogène et du deutérium en hélium. Cette dernière réaction est la plus facile, c’est la seule source d’énergie des plus petites étoiles, mais le deutérium est beaucoup moins abondant que l’hydrogène.

Le Soleil est une étoile moyenne. Les plus petites sont les plus nombreuses, les plus massives moins abondantes.

 

Evolution et fin de vie des étoiles.

         Les petites étoiles consomment lentement leur hydrogène et brillent peu mais longtemps. Le Soleil, qui est âgé d’environ 5 milliards d’années, doit se maintenir encore aussi longtemps, après quoi, ayant épuisé l’hydrogène en son centre, où se produit la fusion à une température de 15 millions de degrés, il subira une concentration de son cœur et un échauffement permettant la synthèse du carbone puis de l’oxygène, tandis que sa périphérie explosera en géante rouge, après quoi la masse restante se condensera en naine blanche ayant les dimensions de la Terre et une densité énorme. Sa température baissera peu à peu jusqu’à ce qu’il devienne une naine noire.

Les étoiles de quelques masses solaires ont une durée de vie plus courte . Après épuisement de l’hydrogène, elles subissent une série de contractions et d’échauffements qui conduisent à la synthèse d’éléments de plus en plus lourds jusqu’au fer, le plus stable des atomes. Cette synthèse productrice de chaleur achevée, elles subissent une nouvelle contraction du cœur et une explosion de la périphérie. C’est une supernova, brève, mais au cours de laquelle les éléments les plus lourds, jusqu’à l’uranium peuvent se former par bombardement de neutrons, ainsi que des éléments légers, lithium, glucinium et bore, par fractionnement d’atomes plus lourds. Si la masse subsistant au centre équivaut  à 1 ou 2 masses ,solaires, il se forme une étoile à neutrons. Une masse plus élevée aboutira à la création d’un trou noir.

Les étoiles à neutrons.

         On en a détecté ayant de 0,7 à 2 masses solaires, avec une moyenne de 1,4, et un rayon de 10 Km, donc une densité énorme, celle des noyaux atomiques. Elles possèdent une surface de fer solide à l’intérieur de laquelle protons et électrons ont fusionné en neutrons sous l’effet de la pression. D’autres particules, comme des mésons formés de deux quarks peuvent aussi être présents. On en trouve un exemple dans la nébuleuse du Crabe, reste d’une supernova observée en 1054 par des astronomes chinois. Comme  la plupart des étoiles à neutrons elle est en rotation très rapide, avec une période de l’ordre de la milliseconde, et possède un champ magnétique intense de 108 teslas, le champ magnétique terrestre étant de 10-( tesla.

 

Les étoiles étranges.

         Plus petites et plus denses que les étoiles à neutrons, mais avec des masses comparables, elles seraient constituées de quarks u, d et s

Les trous noirs.

Pourquoi noirs ? Rien, pas même la lumière ne peut s’en échapper, et toute matière qui passe à proximité du trou noir y tombe après avoir spiralé dans son environnement. A quelle distance peut-on échapper au trou noir, à condition d’être animé d’une vitesse suffisante dont la limite est la vitesse de la lumière. Cette distance est le rayon de Schwarzschild que l’on considère comme la frontière ou l’horizon du trou noir

r =  2 G m /  C2

G : constante de la gravité    m : masse  du trou noir   C vitesse de la lumière

D’ un rayon deux fois plus petit, la lumière peut au plus atteindre le rayon de Schwarzschild avant de retomber. Cependant, il n’existe pas de discontinuité dans la chute au centre du trou noir. Un voyageur imprudent qui passerait ce rayon ne percevrait rien de particulier, surtout si le trou noir est très massif. Il finirait cependant par être étiré, la différence de gravité devenant de plus en plus grande entre sa tête et ses pieds et il disparaîtrait finalement dans le trou noir.

On ne sait pas actuellement dans quel état se trouve la matière à l’intérieur d’un trou noir. Sa masse, sa charge électrique et sa vitesse de rotation sont conservés, mais sa densité doit être très supérieure à celle d’une étoile à neutrons et son volume beaucoup plus petit, mais les particules qui constituent la matière ordinaire, leptons et quarks, ne peuvent plus subsister.

Comment se calcule le rayon de  Schwarzschild ;

Un astre massif, étoile ou planète, exerce sur un objet une attraction exprimée par  la formule de Newton.

F = G M m / d2

                            F : force d’attraction

G : constante de la gravité = 6,672 10-11

M : masse de l’astre

m : masse de l’objet

d : distance entre l’astre et l’objet

L’objet possède deux formes d’énergie : l’énergie potentielle , qu’il peut libérer en tombant, comme une chute d’eau peut à produire de l’énergie électrique, et qu’il regagne en remontant au moyen d’un moteur, et l’énergie cinétique liée à sa vitesse. S’il tombe, sa vitesse et son énergie cinétique  s’accroissent et son énergie potentielle diminue d’autant. Au total, toute variation de son énergie potentielle est égale et opposée à sa variation d’énergie cinétique. Si l’objet tombe en chute libre de très loin avec une vitesse initiale nulle au départ, l’énergie cinétique acquise au bout d’un certain temps est liée à sa vitesse

Ec = 1/ 2 m v2

tandis que son énergie potentielle décroît à chaque instant de

dEp = GMm /r2 dr     d r  étant la petite variation de r correspondante,

où r est le rayon d’une sphère centrée sur l’astre, par exemple un trou noir, et au total sur une distance comprise entre deux valeurs r1et r2 , on obtient en intégrant

Ep = GMm ( 1/r1 – 1/r2 )

Si la distance de départ r2 est très grande, il reste :

Ep = G Mm / r

Et comme Ep = Ec

GMm /r  = 1/2  mv2

On voit que la vitesse est indépendante de la masse de l’objet, d’où :

GM / r = v/ 2     ou     r = 2 GM / v2

Et si l’on donne à la vitesse  la valeur la plus élevée, celle de la lumière C , on obtient le rayon de Schwarzschild :

r = 2 GM /  C2                C =  3. 108 mètres par seconde.

Exemples :  un trou noir d’ un milliard de tonnes aurait un rayon minuscule de 1,5 10-15 mètre ; un trou noir d’une masse solaire, (230 kg) un rayon de 3 km, et le trou noir le plus massif connu de 1010  masses solaires

un rayon de 1,5 1013 m, soit 46,4 heures lumière qu’ on peut comparer à la distance de Pluton, 6 heures 40 minutes, et à celle du nuage de Oort, 7000 heures lumière, soit près d’une année lumière, alors que l’étoile la plus proche est distante de près de 5 années lumière.

Vitesse de libération. 

La formule précédente  r = 2 GM/ v2  peut s’écrire  v2 = 2 GM/ r  ou

v = ( 2 GM / r )1/2

v est la vitesse minimale qu’ il faut communiquer à un objet, quelle que soit sa masse, partant de la surface d’un astre de masse M et de rayon R pour qu’il s’échappe définitivement et ne retombe jamais. A la surface de la Terre, l’accélération de la pesanteur est g = GM/R2 et v2  = 2 GM/R = 2g

g = 9, 81 m/s /s      R = 6,378 106 m    d’où v = 11,18 m/s

Vitesse de libération d’une étoile à neutrons de 10 km de rayon ;

Pour une masse solaire ( 2. 1030 kg )  v = 1,6 108 m/s, et pour 2 masses solaires  v = 2,28 108 m/s

Masse pour laquelle v = C, vitesse de la lumière  m = C2 r/ 2G                où r = 10 km        m = 3,3 masses solaires.

Température d’un trou noir.

Selon S. Hawking, les trous noirs ont une entropie proportionnelle à leur surface et donc une température T = K/M  où K = 2.1026

Exemples : pour quelques masses solaires,  T = 10-5  0K, et pour une masse de 10 tonnes T = 2. 1014 0K.

Les trous noirs s’évaporent en émettant le rayonnement de Hawking ; leur durée de vie dépend de leur masse. Pour une masse solaire, cette durée est de 1066 ans, et pour un trou noir primordial de 109 tonnes de 1010 ans, mais un trou noir de masse plus fable aurait une vie très brève : pour une masse de 1000 tonnes, il ne pourrait subsister plus d’une seconde.

Les différents trous noirs

Ils diffèrent par leur masse et leur histoire , du plus petit aux trous noirs primordiaux, stellaires, intermédiaires et supermassifs.

Le plus petit trou noir.

Selon la physique quantique, son rayon, r = Gm / C2 ne peut être plus petit que sa longueur d’onde donnée par la formule de Louis de Broglie l = h / mC , d’où  h / mC = Gm / C2, ce qui donne sa masse m = 2. 10-8 kg , soit 2 centièmes de milligramme , h , constante de Planck valant 6 , 61. 10-34. Son rayon est

r = Gm / C2 = 1,5. 10-35 m, longueur de Planck. Sa durée de vie serait très brève.

Remarque : à l’exception de la masse, très supérieure à celle des particules élémentaires, les grandeurs de Planck, longueur, température, densité, temps,  peuvent être considérées comme les limites de validité de la physique quantique.

Les trous noirs primordiaux.

Formés peu après le Big- Bang, quand la densité de matière était encore très élevée, leur masse serait d’environ 10 milliards de tonnes.

Les trous noirs stellaires.

Ayant pour origine l’explosion d’étoiles massives en fin de vie, leur masse équivaut à quelques masses solaires.

Les trous noirs intermédiaires.

On en a détecté quelques centaines dans des galaxies sans bulbe. Ils se seraient formés par condensation de nuages géants pauvres en métaux peu après le Big- Bang.

Les trous noirs supermassifs.

De quelques millions à quelques milliards de masses solaires, ils sont présents au centre de nombreuses galaxies, mais leur masse ne représente que 0,1% de la masse d’étoiles et de nuages de matière du bulbe qui les entoure. Celui de la Voie Lactée a une masse de 4 millions de masses solaires.           Leur présence favorise la formation de nouvelles étoiles dans un espace limité de quelques minutes lumière appelé noyau actif de galaxie. Ils émettent toute une gamme de radiations électromagnétiques, rayons gamma, X, UV, mais tous ne sont pas actifs, faute de matière pour les alimenter. Ils se formeraient en un temps relativement court, un million d’années, par fusion d’étoiles massives, de trous noirs plus petits et d’étoiles à neutrons, et s’établissent au centre des galaxies.

Les quasars sont des noyaux de galaxies anciens formés quand la densité de matière était plus grande, 2 à3 milliards d’années après le Big-Bang.

Que devient la matière dans un trou noir ? Sa masse et sa charge électrique sont conservée, mais on ne sait pas ce que deviennent les particules élémentaires qui la composaient, dans quel volume et avec quelle densité cette masse est enfermée.

 

Références :  Pour la Science . mars 2012 p. 34 . Les trous noirs intermédiaires . Dossier avril- juin 2012 . Les trous noirs.

Le Diben, juillet 2012.