QUATRE SIECLES DE SCIENCES EXPERIMENTALES par M André RIO

QUATRE SIECLES  DE SCIENCES EXPERIMENTALES

M André RIO
M André RIO

Aucune autre civilisation ne l’avait fait ; les sciences expérimentales en Occident ont transformé les idées sur le monde et sur l’Homme dans le monde.

                                               Le XVIIème siècle

         Au début du siècle, tout est expliqué par la Genèse et la philosophie d’Aristote. Les pères de l’Eglise ont associé les deux conceptions qui se complètent : le monde a été créé en six jours, 4 000 ans avant Jésus-Christ. Au centre, le monde terrestre immobile mais imparfait à cause du péché et en perpétuel changement. Au delà , le monde céleste, celui de Dieu, parfait et immuable, où les astres sont répartis sur sept sphères de cristal en rotation, la dernière étant celle des étoiles fixes. Pour expliquer le mouvement des planètes les plus proches, Ptolémée doit supposer qu’elles se déplacent simultanément sur des épicycloïdes. Aristote considère également que la matière est faite de quatre éléments, la terre, l’eau, l’air et le feu et que la Nature a horreur du vide. L’apport chrétien concerne la morale : le Décalogue, le péché originel et la Rédemption, les châtiments et les récompenses : l’âme immortelle et la résurrection des corps, le Ciel au delà de la septième sphère, le Purgatoire, les Limbes, et l’Enfer au centre de la Terre.

L’astronomie. Trois noms, trois personnages vont tout remettre en question ; Copernic, Kepler et Galilée : il est beaucoup plus simple de considérer que toutes les planètes, dont la Terre, tournent autour du Soleil, et que c’est lui qui est le centre du monde. De plus, la lunette astronomique révèle des faits en contradiction totale avec Aristote : des montagnes sur la Lune, des taches sur le Soleil, les phases de Vénus et les satellites de Jupiter. Les dimensions de la Terre, estimées par Eratosthène, sont déterminées au moyen d’une méthode nouvelle, la triangulation, par Snell. D’autre découvertes se succèdent : la rotation du soleil sur lui-même (1630), les anneaux de Saturne (Huygens, 1655), les calottes polaires de Mars (1666) . En 1680, on mesure la parallaxe du Soleil, ce qui permet d’apprécier sa distance, et on réalise que c’est une étoile parmi les autres. En 1687, Newton publie la loi de l’attraction universelle qui explique à la fois la chute des corps, le mouvement des astres et la pression atmosphérique.

            Les mathématiques. Au XVIème siècle, on connaissait déjà l’algèbre et la trigonométrie. Au XVIIème, Napier (Neper) invente les logarithmes d’où découle la règle à calcul. Après Viète, Descartes crée la géométrie analytique, Pascal et Fermat le calcul des probabilités, Kepler introduit la notion de grandeur infinitésimale et enfin Newton et Leibniz apportent le calcul intégral, un des outils les plus puissants des mathématiques.

            La physique. Au début du siècle, Galilée fait des observations sur les oscillations du pendule et sur la chute des corps qui contredisent les idées d’Aristote, de même que les expériences sur le vide et la pression atmosphérique. Le baromètre de Torricelli montre que la pression diminue avec l’altitude. Les premières mesures sont faites au Puy de Dôme par Perrier sur les indications de Pascal. Cette pression est due au poids de l’air qui surmonte la Terre. Elle est illustrée par l’expérience des hémisphères de Magdeburg et la construction de pompes à vide. La compression des gaz est étudiée par Mariotte, et la vitesse du son dans l’air est mesurée par Mersenne en 1635. Enfin deux expériences riches d’avenir : le magnétisme de la Terre est assimilable à celui d’un aimant, et la réalisation par Otto von Guericke de la première machine électrostatique.

            La lumière et l’optique. Contrairement à Aristote qui pensait que la vision part de l’œil et se réfléchit sur les objets, l’expérience montre que c’est la lumière d’une source qui les éclaire et qu’ils les renvoient dans l’œil, mais la controverse sur la nature de la lumière commence et durera jusqu’au XXème siècle. Onde selon Huygens et Descartes ou corpuscule pour Newton, les lois de la réflexion et de la réfraction sont établies par Snell et Descartes.

            Aristote, encore lui, croyait que la lumière blanche est pure, contrairement aux lumières colorées. Newton, par des jeux de prismes, démontra au contraire que la lumière blanche est un mélange de lumières colorées, les couleurs de l’arc en ciel, du rouge au violet. Pour des raisons mystiques, il considérait qu’il existe sept couleurs. En réalité, le spectre de la lumière blanche du Soleil est continu. Un autre phénomène, la diffraction de la lumière, semblait indiquer, contrairement à l’opinion de Newton, que la lumière était un phénomène vibratoire. Enfin, Römer montra en 1676, grâce à l’observation des satellites de Jupiter, que la lumière a une vitesse très grande mais non infinie.

La   chimie. C’est encore une science empirique mal dégagée de l’alchimie, et pour laquelle on ne possède encore aucune interprétation cohérente. On sait que l’air est indispensable à la combustion et à la respiration ; c’est , avec la terre, l’eau et le feu, l’un des quatre éléments d’Aristote. On sait aussi dès 1631 que les métaux, en s’altérant à l’air, gagnent du poids. En 1640, on soupçonne qu’il existe d’autres gaz que l’air. En 1663, Brandt obtient le phosphore, et en 1697 Stahl imagine la théorie du phlogistique qui va aiguiller la chimie sur une fausse piste pendant près d’un siècle.

            La vie. Aristote, qui n’a manqué aucune occasion de se tromper par excès d’assurance, pensait que le cœur est le siège des émotions et de la pensée, et le cerveau un simple radiateur pour éliminer l’excès de chaleur. Les médecins du début du siècle croyaient avec Galien que le sang a sa source dans le cœur ou le foie et se répand ensuite dans tout le corps sans aucun retour. On pouvait leur objecter qu’il devait alors être produit et consommé constamment en grande quantité . En 1628, Harvey montra qu’en réalité le sang circule en permanence dans tout le corps et revient au cœur par les veines dont les valvules empêchent tout retour en arrière. Douze ans après la mort de Harvey on explique la différence de couleur entre le sang artériel et le sang veineux par le passage au contact de l’air dans les poumons.

            L’emploi du microscope par Leeuwenhoek (1632-1723) ouvre la voie à la structure submillimétrique du vivant. On sait déjà faire des microscopes à deux lentilles, l’objectif et l’oculaire, mais leurs performances sont encore médiocres à cause des aberrations chromatiques, et on préfère utiliser une seule lentille à fort grossissement. On découvre ainsi la cellule vivante et son noyau, les globules rouges et les spermatozoïdes.

 

Le XVIIème siècle est le premier siècle scientifique. Ses acquis peuvent nous paraître encore modestes en comparaison des suivants, mais dans tous les domaines il a amorcé les découvertes à venir, en substituant aux mythes et à l’autorité des Anciens la méthode expérimentale qui seule permet de trancher entre des théories conçues arbitrairement et la réalité des faits. Quelle portée ont eu ces résultats sur les contemporains ? Le siècle s’intéressait beaucoup plus aux lettres, aux arts, aux évènements historiques et aux disputes religieuses qu’à des sciences qui n’avaient pas encore de répercussions sur l’existence, mais qui marquaient une ouverture d’esprit : Pascal, s’adressant au Pape, reconnaît son autorité en matière de foi, mais non de faits, car il n’a pas le pouvoir d’empêcher la terre de tourner, et lui avec elle.

Dans les conversations de salon, il arrive aussi qu’on discute de sciences ; Descartes est à la mode, et si Molière met en scène des Femmes Savantes qui papotent sur les atomes et sur le vide, c’est qu’il y avait aussi des gens plus sérieux qui s’y intéressaient.

                                   Le XVIIIème siècle.

         L’astronomie . En 1706, Halley établit que les comètes décrivent des orbites elliptiques très allongées autour du Soleil, et reviennent donc périodiquement au voisinage de la Terre. En 1718, il observe le mouvement propre des étoiles, qui n’occupent donc pas des positions rigoureusement fixes les unes auprès des autres.

            Newton avait prédit que, du fait de sa rotation, la Terre devait être légèrement aplatie aux pôles. Cet avis étant contesté, l’Académie des Sciences en France décide d’envoyer deux expéditions , l’une en Laponie, au plus près du pole nord, dirigée par Maupertuis, l’autre au Pérou, alors colonie espagnole, sous la direction de Godin, Bouguer et La Condamine. La comparaison de la longueur des arcs de méridiens de ces sites et en Europe devait permettre de trancher. Les mesures étaient réalisées par triangulation. L’expédition de Maupertuis atteint son but rapidement ; il n’en est pas de même en Equateur qui pendant plusieurs années rencontre d’énormes difficultés. Finalement, tous les résultats concordent et justifient les prévisions de Newton.

En 1773, on parvint à mesurer la distance des planètes, et Herschel découvre Uranus en 1783. L’existence des aérolithes, des pierres tombées du ciel, est confirmée en 1794, et en 1796 Laplace avance sa théorie de formation du système solaire à partir d’un nuage de gaz et de poussières en rotation, qui a été largement confirmée par la suite.

La physique .La mesure des températures devient une pratique courante avec le thermomètre à mercure. Deux échelles thermométriques sont proposées : celle de Fahrenheit en 1715, et celle de Celsius en 1742. A partir de 1783, la théorie des réseaux cristallins explique les propriétés des cristaux, mais les résultats les plus marquants au cours du siècle concernent l’électricité statique, prélude aux découvertes du siècle suivant. On connaissait depuis l’antiquité l’électricité statique : un bâton d’ambre jaune ( elektron) frotté attire de petits débris, mais ce n’était qu’une curiosité sans conséquence. Au XVIIIème siècle, on commence à s’interroger, et on constate qu’il existe deux sortes d’électricité : l’électricité vitreuse (+) par frottement du verre et l’électricité résineuse (-) avec l’ambre ; de même signe, les charges se repoussent ; de signe contraire, elles s’attirent. On constate aussi que des matériaux dits isolants comme le verre conservent les charges, alors que des conducteurs comme les métaux leur permettent de s’écouler. Parmi les premiers instruments utilisés, on peut citer l’électroscope à feuilles d’or qui détecte les charges et la bouteille de Leyde, ancêtre des condensateurs, qui permet de les stocker.

            Franklin montre, non sans prendre de gros risques, que la foudre est un phénomène électrique résultant de la décharge des nuages entre eux ou vers la terre. Il invente le paratonnerre qui canalise ces charges et protège les édifices. Enfin, Coulomb, au moyen du pendule de torsion, fait des mesures et démontre qu’attraction et répulsion entre charges suivent des lois analogues à celles de l’attraction universelle de Newton : les forces électriques sont inversement proportionnelles au carré des distances. Son nom sera donné à l’unité de charge électrique, mais il faudra attendre le début du XIXème siècle pour savoir produire un courant électrique continu et en exploiter les applications, et celui du XXème pour en connaître le responsable, l’électron.

La chimie. Dans la première moitié du siècle, on découvre des substances nouvelles : l’acide borique, le bleu de Prusse, l’acide formique, l’alumine, la magnésie, et des métaux : le cobalt, le nickel et le platine, mais la chimie reste une pratique empirique, d’autant qu’elle s’appuie sur deux notions aberrantes, les quatre éléments d’Aristote et le phlogistique. Dans la seconde moitié, d’autres composants vont jouer un rôle décisif, les gaz, ou gas, du grec caos, mot inventé au siècle précédent. Dès cette époque, on connaissait le gaz carbonique sous le nom d’air fixe, et on avait observé que contrairement à l’air ordinaire il n’entretient pas le respiration et la combustion et qu’il est absorbé par la chaux, d’où son nom, Identifié plus précisément en 1755, il peut être obtenu par action d’un acide sur le calcaire ou par combustion du charbon. Peu après d’autres gaz sont découverts : l’hydrogène par Cavendish en 1766, appelé air inflammable,  l’azote par Rutherford en 1772 nommé air phlogistiqué et l’oxygène, air vital ou déphlogistiqué par Priestley en 1774. En 1784, Cavendish montre que la combustion de l’hydrogène donne de l’eau, mais tente de l’expliquer par l’intervention du phlogistique, ce qui n’aboutit qu’à une interprétation confuse . C’est l’intervention de Lavoisier qui permet enfin de clarifier la situation . En 1777, il montre que l’air est un mélange d’oxygène et d’azote, que l’oxygène s’unit aux métaux pour former des oxydes, et en 1787 que l’eau n’est pas un élément mais une combinaison d’oxygène et d’hydrogène. Les véritables éléments sont donc l’oxygène, l’azote et l’hydrogène, ainsi que le carbone et les métaux. Dans les dernières années du siècle, on découvre de nouveaux métaux dont le titane, et le chrome.

            Le système métrique. Le besoin s’en faisait sentir depuis longtemps, mais      l’Ancien Régime  s’était heurté à une telle inertie qu’il n’était pas parvenu à unifier les poids et mesures. En 1790 ; Talleyrand fait adopter par la Constituante l’unité fondamentale, le mètre, et en 1795 la Convention crée le système métrique . Le mètre est défini comme la dix millionième partie du quart du méridien terrestre. Ne se satisfaisant pas des résultats obtenus au début du siècle par Maupertuis en Laponie, Bouguer, Godin et la Condamine au Pérou, on charge Delambre et Méchain  de nouvelles mesures du nord de la France à l’Espagne. En 1840, le système devient seul légal et obligatoire.

            La vie. Dès le XVIIème siècle,  grâce au microscope, on connaissait la cellule vivante et les êtres unicellulaires. En 1737, Swammerdam étudie les métamorphoses des insectes. En 1752, Réaumur montre le rôle du suc gastrique dans la digestion des protéines. En 1777, Spallanzani réalise la fécondation artificielle des œufs de grenouille, et en 1779 on reconnaît la synthèse chlorophyllienne, le dégagement d’oxygène par les plantes et son rôle dans la respiration. A ces découvertes s’ajoutent la nature électrique de l’influx nerveux et le rôle du cerveau dans la conscience. En 1796, Jenner découvre la vaccination et on comprend l’effet de l’hyperglycémie dans le diabète. Il faut aussi citer deux grands noms : Buffon et son Histoire Naturelle, et Linné, fondateur de la nomenclature moderne.

            Si le siècle précédent avait  malheureusement imaginé le phlogistique, source de confusion et de retard dans le progrès, celui-ci avec Hahnemann invente l’homéopathie dont l’absurdité n’a toujours pas découragé les partisans . Le phlogistique n’intéressait que des chimistes et n’a pas survécu à Lavoisier ; L’homéopathie qui touche à la santé, séduit encore un public trop crédule.

Dans un siècle où les sciences ne concernent encore qu’un petit nombre d’universitaires et d’amateurs et n’ont pas encore d’applications pratiques notables, tout se prépare pour une épopée qui va commencer dans les premières années du siècle suivant. Si les sciences de la vie sont encore seulement descriptives et empiriques, la physique et la chimie sont maintenant établies sur des bases solides. Plus important encore, le Siècle des Lumières rompt avec les traditions de respect aveugle des Anciens, éveille l’esprit critique et l’espoir du progrès des connaissances.

                                        Le XIXème siècle

La physique

            Les gaz et la thermodynamique. Les gaz sont un état de la matière qui intéresse autant physiciens et chimistes. Leur étude est à l’origine de la création d’une science entièrement nouvelle : la thermodynamique, abstraite, ayant pour langage les mathématiques, mais créée aussi pour interpréter le fonctionnement des machines à vapeur. Les gaz sont compressibles et dilatables ; pression et volume dépendent de la température :

                                               P V = n R T

P : pression ; V : volume ; : nombre de molécules ; R : constante des                      gaz parfaits (R vaut environ 8 joules); T : température absolue en degrés K                       (0° K = – 273° C).

Une molécule-gramme ou mole d’un gaz, quel qu’il soit, occupe un volume de 22,4 litres sous 1 bar et à 0°C. Elle renferme en réalité N = 6,02. 1023 molécules élémentaires.

Les gaz sont solubles dans les liquides ; la solubilité dépend de leur nature, de celle du solvant, de la pression et de la température. Ils sont liquéfiables et solidifiables. On a d’abord liquéfié les plus faciles : gaz sulfureux, gaz carbonique, ammoniac. D’autres, considérés un temps comme gaz permanents ont finalement été liquéfiés, l’oxygène en 1883, l’hydrogène en 1892.

Il existe pour chaque gaz une température et une pression critiques au delà desquelles il n’y a plus de frontière entre gaz et liquide. On a alors un fluide de densité proche de celle d’un liquide, mais qui occupe tout le volume disponible comme un gaz.

Au cours du siècle une grandeur fondamentale s’est imposée, l’énergie, d’abord mécanique, travail nécessaire pour soulever une masse, mais aussi énergie électrique,  thermique et chimique. Toutes ces énergies peuvent se transformer les unes dans les autres, mais au total on ne peut ni en créer ni en détruire. On peut ainsi transformer de l’énergie mécanique en énergie électrique et réciproquement. Seule la chaleur ne peut être transformée  intégralement en une autre forme d’énergie ; une partie reste obligatoirement à l’état de chaleur, c’est une forme d’énergie dégradée. Les machines à vapeur, les centrales thermiques, rejettent à l’extérieur une partie de la chaleur produite. On a rendu compte de cette particularité au moyen d’une notion nouvelle, l’entropie :

S = Q / T

S : entropie ; Q : chaleur ; T : température absolue en °K.

Contrairement à l’énergie, l’entropie peut être créée mais ne peut être détruite. On en crée en particulier quand on transforme une autre énergie en chaleur, et on ne peut s’en débarrasser qu’en la cédant à l’extérieur. On peut aussi la considérer comme une mesure du désordre. Un gaz est un milieu désordonné où les molécules s’agitent en tous sens et avec des vitesses variables croissant avec la température. L’énergie d’un gaz est de l’énergie cinétique liée à la vitesse moyenne des molécules :

1 / 2 m v2 = 3 / 2. R / N. T

m : masse des molécules ; v: leur vitesse moyenne ; R : constante des gaz parfaits ; N : nombre d’Avogadro (  6,02 .1023 ) ; T : température absolue.

La chaleur n’est finalement que l’énergie d’agitation des molécules. Dans un liquide elles peuvent encore se déplacer  . Dans un solide, où elles sont liées, elles peuvent seulement vibrer. A 0°K, toute agitation cesse.

Une substance dissoute dans un solvant se comporte exactement comme un gaz et exerce une pression, la pression osmotique, qu’on peut observer en séparant le solvant pur et la solution par une membrane semi-perméable qui laisse passer le solvant mais pas le corps dissous. Une dénivellation correspondant à cette pression apparaît. Inversement, en exerçant une pression sur la solution, on force le solvant à passer tout en arrêtant la matière dissoute. C’est l’osmose inverse, qui permet en particulier de dessaler l’eau de mer.

 

La lumière.  Après Newton, le XVIIIème siècle n’avait pas apporté de découvertes fondamentales en optique. On savait que la lumière blanche était un mélange de lumières colorées du rouge au violet. On découvre par la suite qu’au delà du spectre visible il existe d’autres rayonnements invisibles mais que des instruments peuvent déceler : l’infra rouge et l’ultra violet, puis plus tard les rayons X en 1895.

            La nature de la lumière avait été un sujet de discussions : était-elle constituée d’ondes ou de particules ? Comme elle donne lieu au phénomène d’interférences, la question paraît tranchée : c’est une onde, c’est à dire un phénomène vibratoire qui se propage à grande vitesse. Une première approximation de sa vitesse est obtenue en 1849. Cette vibration se fait-elle parallèlement à sa propagation ou perpendiculairement ? La découverte de la polarisation, qui lui impose de vibrer dans une seule direction, ne s’explique que si la vibration est perpendiculaire à la propagation. En 1815, Biot montre que certaines substances organiques comme les sucres possèdent un pouvoir rotatoire et en  font tourner le sens.

Il restait à déterminer la nature de cette vibration . Maxwell en 1865 établit que c’est un phénomène électromagnétique : un champ électrique et un champ magnétique s’entretiennent mutuellement, perpendiculaires entre eux et à la direction de la propagation ; c’est au premier que notre œil est sensible.

Le spectre de la lumière émise par les atomes excités est constitué d’une série de raies spécifiques de chaque élément. C’est un moyen précieux  pour déceler leur présence, et les astronomes l’utilisent pour établir la composition chimique des corps célestes. Un autre phénomène, le rayonnement dit du corps noir, est de nature différente : un corps chaud émet un rayonnement dont le spectre continu présente un maximum lié à sa température. Pour expliquer le phénomène, Planck doit admettre que la lumière est émise par quantités discontinues les quanta, en contradiction apparente avec les conceptions qui avaient prévalu jusque là.

La lumière réservait une autre surprise aux physiciens : en 1887, Michelson et Morley tentent de mettre en évidence le mouvement de la Terre autour du Soleil. La lumière qui se propage dans la même direction que la Terre aurait du voir sa vitesse augmentée de celle de la Terre, par comparaison avec celle qui se dirige perpendiculairement, mais il n’en est rien .Ces deux surprises sont à l’origine d’une double révolution de la physique au début du XXème siècle .

Electricité et magnétisme ; radioactivité. Dès 1800, la pile de Volta fournit un courant électrique continu, bien différent de l’électricité statique, et dont les propriétés sont établies dans les années suivantes :

E = I . R

                        E : tension en volts ; I : intensité en ampères ; R :  résistance en ohms.

L’énergie électrique est transformée en chaleur W , exprimée en joules :

W = R I 2 t      t : temps en secondes

En 1820, Oersted observe qu’un courant électrique crée un champ magnétique qui dévie l’aiguille d’une boussole ce qui montre pour la première fois qu’électricité et magnétisme sont associés. L’interprétation est donnée par Ampère : si un courant électrique crée un champ magnétique, toute variation du champ magnétique crée un courant électrique dans un circuit conducteur ; c’est l’induction. De multiples applications en découlent : dynamo à courant continu, courant alternatif, moteur électrique, transformateurs, électroaimants, circuits oscillants. Une autre application du courant électrique, l ‘électrolyse, permet d’isoler des éléments encore inconnus comme le sodium. Elle est interprétée en 1833 par Faraday, puis plus tard par la théorie des ions : un électrolyte comme le chlorure de sodium se dissocie en solution en ions Na+ et Cl.

D’autres sources de courant électrique sont découvertes : l’effet thermoélectrique, la cellule photo voltaïque, la piézo électricité, créant de l’énergie électrique à partir respectivement de chaleur, de lumière et de pression mécanique.

En 1865, Maxwell établit sa théorie de l’électromagnétisme qui englobe la lumière dans les phénomènes électromagnétiques, et dès 1874 on prévoit que l’électricité est constituée de particules, les électrons, à la suite de la découverte des rayons cathodiques qui se propagent entre deux électrodes d’une cellule sous vide. En 1897, Thomson mesure le rapport  e \ m  entre la charge et la masse de l’électron. Entre temps, Hertz, s’inspirant de la théorie de Maxwell, montre qu’il existe des rayonnements électromagnétiques de longueur d’onde très supérieure à celle de la lumière, les ondes hertziennes à l’origine des télécommunications.

En 1896, Becquerel découvre un phénomène tout à fait inattendu : la radioactivité. En 1998 : Pierre et Marie Curie découvrent le polonium et le radium, et en 1899, on mesure la période des radioéléments.

 

L’astronomie.

            Les lois du mouvement des corps célestes sont connues depuis Newton, et les méthodes de calcul se perfectionnent. De nouvelles techniques apparaissent : la spectroscopie dès 1802 ; l’analyse spectrale en 1859, qui permet de connaître la composition des sources de lumière ; l’effet Doppler en 1868 permet de mesurer leur vitesse ; l’interférométrie, une technique d’avenir, en 1868 également , par Fizeau, dont la validité sera confirmée en 1889 par Michelson, mais qui ne se développera qu’un siècle plus tard. Les télescopes enfin se perfectionnent constamment.

En 1804, on constate, mais sans en avoir encore l’explication, que le spectre continu du Soleil comporte aussi de nombreuses raies noires. En 1840, on découvre la chromosphère, dont le spectre est établi en 1870. On observe la périodicité des taches solaires, et on comprend que le Soleil est une masse gazeuse. En 1868, on y détecte l’hélium encore inconnu sur terre.

La découverte la plus célèbre du siècle est celle de Neptune par Le Verrier, calculée à partir de l’observation des anomalies de l’orbite d’Uranus. En 1875, on découvre les satellites de Mars, mais aussi ses canaux dont l’existence ne sera démentie que bien plus tard. En 1873, Darwin suppose que la Lune serait d’origine terrestre, hypothèse qui sera reprise plus d’un siècle plus tard.

En 1838, Bessel commence à mesurer la distance des étoiles les plus proches par la méthode des parallaxes ; plus tard, on établit leur composition par spectroscopie. On observe des galaxies spirales, les nuages de Magellan , sans soupçonner encore qu’ils sont au delà de la Voie Lactée.

La chimie.

                        Les éléments. A la disparition de Lavoisier, on connaît une vingtaine d’éléments authentiques et quelques cas douteux qui seront résolus rapidement. L’électrolyse en particulier permet d’isoler les métaux alcalins et alcalino-terreux : lithium, sodium, potassium, calcium dès 1807. Suivent le bore(1809), l’iode( 1811), le silicium(1822), le brome(1826), l’aluminium(1827), le magnésium(1829), le fluor enfin en 1886, ainsi que de nombreux  métaux. En 1868, quand Mendéléiev propose sa classification, on en connaît une soixantaine, et on a constaté que quelques uns constituent des familles aux propriétés voisines. La classification est d’abord contestée, mais s’impose et s’explique par la suite. Les places encore manquantes sont remplies par la découvertes de nouveaux éléments, en particulier les gaz rares, et à la fin du siècle le tableau est presque complet.

            Les lois de la chimie.

Lavoisier a donné la bonne direction, mais après lui, tout reste à faire. Comment les éléments s’unissent-ils ? Dès 1806, on établit qu’ils se combinent toujours selon des proportions définies en masses, et aussi en volumes pour les gaz. Dalton en déduit en 1807 qu’ils doivent être constitués de particules, les atomes, qui s’assemblent en molécules. En 1811, Avogadro admet qu’un volume donné de gaz renferme le même nombre de molécules, quelle que soit leur masse. En effet, par exemple, un volume d’hydrogène s’unit à un même volume de chlore pour donner le même volume total d’acide chlorhydrique gazeux, tandis qu’un volume d’azote s’unit à trois volumes d’hydrogène pour donner deux volumes d’ammoniac, cette dernière réaction exigeant un catalyseur, notion apparue en1835. Il faudra attendre 1865 pour avoie une première valeur du nombre d’Avogadro : combien d’atomes dans un gramme d’hydrogène.

Une notion essentielle apparaît en 1853 : la valence, c’est le nombre de liaisons que peut établir un atome. Il est lié à sa place dans la classification périodique.

En 1887, Arrhénius propose l’idée qu’un électrolyte, un sel comme le chlorure de sodium est dissocié en ions Na+ et Cl en solution dans l’eau, idée qui choque d’abord, sachant que le sodium métallique réagit violemment sur l’eau, mais à l’état d’ion il est inerte.

 

La chimie organique

Elle est ainsi appelée à l’origine parce qu’on croit que les substances extraites de la matière vivante ne peuvent être formées que par les êtres vivants. Cependant, en 1828 Wohler obtient de façon imprévue de l’urée à partir de substances minérales. Cette chimie est en réalité celle du carbone, le seul élément capable de se lier à lui même pour former de longues chaînes, linéaires, ramifiées ou cycliques sur lesquelles se fixent d’autres éléments en particulier l’hydrogène, l’oxygène et l’azote. Dès 1823 ; Chevreul avait montré que les corps gras étaient formés de telles chaînes d’acides stéarique, palmitique ou oléiques combinés à la glycérine ou glycérol.

                               En 1830, Liebig effectue l’analyse des substances organiques en déterminant les proportions des éléments qui les constituent. On constate bientôt qu’il existe des molécules qui, ayant la même composition, diffèrent nettement par leurs propriétés, c’est l’isomérie, qui a pour cause la forme de ces molécules. Il existe plusieurs sortes d’isoméries dont l’une, étudiée en 1860 par Pasteur avec l’acide tartrique, l’isomérie optique. Il existe trois formes de cet acide, deux ayant des pouvoirs rotatoires opposés, la troisième un pouvoir nul. Les deux premières sont symétriques l’une de l’autre comme une main droite et une gauche, la troisième symétrique par elle même comme une chaise ou une cuillère. Ces notions, généralisées en 1874 par Lebel, montrent l’importance de l’arrangement géométrique des atomes dans la molécule. L’atome de carbone est tétravalent, c’est à dire qu’il doit se lier à quatre autres atomes, l’hydrogène monovalent, l’oxygène le plus souvent divalent et l’azote tri ou pentavalent.

Fixés sur le squelette carboné, les autres atomes apportent des propriétés et des fonctions nouvelles : l’oxygène les fonctions alcool, aldéhyde, cétone, acide, ester, éther; l’azote les fonctions amine, amide, nitrile. En 1865,  Kékulé montre que le benzène(ou benzine) est une molécule hexagonale plane qui possède des propriétés spécifiques qu’on retrouve également dans le naphtalène(ou naphtaline) . Ces propriétés sont la base d’une industrie naissante, celle des colorants. On utilisait beaucoup deux colorants extraits de plantes, la garance et l’indigotier . En 1856, un colorant artificiel, la mauvéine, avait été obtenu par hasard, mais le colorant de la garance, l’alizarine, est synthétisé en 1868 et l’indigo en 1880. De nombreuses molécules voisines sont obtenues ensuite, mais pour diriger leur synthèse, il faut connaître exactement la disposition des atomes dans ces molécules. Or, une querelle qui a commencé au début du siècle et qui va durer une centaine d’années oppose les atomistes aux équivalentistes ; ces derniers considèrent la théorie atomique comme une fiction métaphysique et ne veulent tenir compte que de la composition globale des produits. Le résultat est que si l’industrie chimique prospère en Allemagne, elle reste en retard en France où les équivalentistes font la loi.

Berthelot, farouche ennemi des atomes, avait cependant le premier synthétisé des molécules simples, l’alcool, l’acide acétique et l’acétylène, mais la synthèse de molécules plus compliquées ne pouvait se faire sans tenir compte de leur architecture, et donc des atomes qui les constituent.

 

Géologie et paléontologie.

            Dès le début du siècle on réalise que la Terre n’a pas été créée telle qu’elle est aujourd’hui, qu’elle a une histoire qui ne se limite pas au Déluge, que cette histoire est inscrite dans les couches géologiques et qu’elle peut être déchiffrée. Les couches d’origine sédimentaires ont été déposées, enfouies, souvent plissées et charriées, puis érodées quand elles réapparaissent en surface. Elles alternent avec des roches éruptives, basalte et granite d’origine plus profonde. Dès 1814, Smith établit le principe de la chronologie géologique, et en 1840 Agassiz reconnaît l’existence de périodes glaciaires.

Les couches sédimentaires renferment aussi des fossiles. En 1821, Cuvier crée la paléontologie, Brongniart en 1828 étudie des végétaux fossiles et en 1879, Renault décrit la flore fossile de la houille . On trouve aussi les premiers hommes fossiles ; l’Homme de Neandertal est découvert en 1856, et se pose la question de son origine. Dès 1809, Lamarck propose sa théorie du transformisme, et Darwin en 1859 celle de la sélection naturelle. En 1891, Huxley met en évidence la parenté de l’Homme et des grands singes.

Le XIXème siècle a ainsi bouleversé les idées sur le Monde, la vie et l’Homme, et sur leur origine., en dépit des protestations violentes des esprits traditionalistes.

La vie.

            La connaissance de la cellule se précise. On y distingue le noyau et le cytoplasme. En 1882, on observe les chromosomes, et leur séparation au cours de la méiose, quand la cellule se divise pour donner deux cellules nouvelles. En 1886, on constate que des mutations peuvent se produire, et en 1897 Ramon y Cajal décrit les neurones dans le cerveau.

Claude Bernard fonde la physiologie expérimentale et révèle en 1851 la fonction glycogénique du foie, c’est à dire la synthèse du glucose chez un chien nourri exclusivement de protéines.

En 1855, Boussingault montre que les végétaux se nourrissent uniquement de matières minérales, sels divers et gaz carboniques, qu’ils produisent de la matière organique grâce à la synthèse chlorophyllienne, dont la source d’énergie est la lumière, et qui libère de l’oxygène.

A partir de 1862, Pasteur étudie les fermentations et montre qu’elles sont dues à des microorganismes. A cette occasion il prouve qu’il n’y a pas de générations spontanées : un milieu fermentescible exempt de germes reste inaltéré. Ces résultats l ‘amènent ensuite à l’étude des maladies infectieuses et à la découverte des vaccins, celui de la rage en particulier en 1885.

 

Dans tous les domaines de la science, un siècle novateur et riche de découvertes prépare le suivant qui portera les connaissances encore bien au delà, ce qui permettra des réalisations concrètes encore inimaginées.

 

              Le XXème siècle.

         Les connaissances se sont considérablement enrichies au cours du siècle qui s’achève. Les siècles précédents, le XIXème en particulier, avaient préparé la voie, et le XXème a poursuivi , en perfectionnant les instruments et les techniques, en développant les savoirs déjà acquis, mais il a surtout vu apparaître des idées et des faits complètement imprévus qui ont bouleversé les opinions sur le monde physique et sur la vie.

Comment ces changements sont ils perçus et compris par les scientifiques eux mêmes et par tous ceux, plus ou moins cultivés, dont les préoccupations scientifiques ne sont pas le métier?

L’héritage des siècles précédents.

On peut situer l’origine de la méthode expérimentale au début du XVIIème siècle avec Kepler et Galilée. Elle s’est peu à peu précisée au cours du XVIIIème qui a commencé à se débarrasser des mythes et des dogmes pour ne retenir que les faits observables, mais c’est au XIXème que la pratique des sciences est devenue une profession, avec une exigence de rigueur qu’on ne trouvait pas toujours précédemment.

L’astronomie, pratiquée depuis des millénaires, a consacré la mécanique de Newton avec la découverte de Neptune, calculée par Le Verrier avant d’être observée à l’endroit prévu. Limitée longtemps à l’observation et à la prévision du mouvement des astres, elle a commencé à s’intéresser à leur nature, ce qu’Auguste Comte avait présomptueusement jugé impossible; l’analyse de la lumière émise par le soleil et les étoiles a montré qu’ils sont composés des mêmes éléments que la Terre.

Cependant, à la fin du XIXème siècle, on ignorait toujours la source d’énergie des étoiles, ainsi que leur âge. On avait reconnu que la Voie Lactée était un immense ensemble d’étoiles dont le soleil faisait partie, mais on n’imaginait rien au delà, et on considérait l’Univers comme immuable et éternel. Dans le système solaire, on connaissait la plupart des planètes et quelques uns de leurs satellites, mais on ne savait à peu près rien de leur nature et de celle des comètes, et on avait découvert avec surprise que des météorites pouvaient tomber du ciel.

La Terre elle même n’était connue que superficiellement. La géologie consistait principalement à reconnaître et à classer les différentes roches qui la constituent et à dresser des cartes de leur répartition, mais les phénomènes d’origine interne: séismes, volcanisme, formation des reliefs, origine des plissements, étaient mal compris, et on ne disposait pas de méthodes de datation absolues.

La plupart des physiciens de leur côté pensaient que leur science était pratiquement achevée: mécanique, thermodynamique, acoustique, optique, électricité et magnétisme, tout s’interprétait mathématiquement de façon très satisfaisante. Maxwell avait même réussi à unifier l’optique, l’électricité et le magnétisme en une synthèse cohérente confirmée par les résultats de Hertz qui découvrait les ondes radio, conséquence de la théorie électromagnétique du rayonnement. Les rayons X, découverts en 1895, rentraient également dans ce cadre.

Seuls quelques faits isolés restaient inexpliqués: le rayonnement du corps noir, le spectre discontinu de la lumière émise par les éléments, l’effet photoélectrique, la radioactivité, le résultat négatif de l’expérience de Michelson. Ils semblaient devoir être compris sous peu, et ils l’ont été en effet, mais au prix d’un bouleversement et d’un renouvellement complet de la physique.

La chimie aussi a beaucoup progressé au cours du XIXème siècle. A la fin du XVIIIème, Lavoisier avait transformé une pratique empirique en une science cohérente: la variété illimitée des substances matérielles est constituée par combinaison d’un nombre limité d’éléments indestructibles: hydrogène, carbone, azote, oxygène, soufre, métaux…Les 4 éléments des philosophes ne sont pas des éléments, mais des mélanges ou des combinaisons. La chimie minérale concerne les combinaisons de ces éléments.

On l’a distinguée au départ de la chimie organique, celle de la matière vivante, composée des mêmes éléments, mais on s’est rendu compte assez tôt qu’elle diffère en fait non par son origine biologique, mais par les propriétés du carbone qui permet d’obtenir une variété illimitée de combinaisons impossibles avec les autres éléments.

Dès le début du siècle, on avait envisagé que les éléments pouvaient être constitués d’atomes, particules insécables, indestructibles, capables de  se lier les uns aux autres, car les combinaisons se font selon des proportions définies. Au cours du siècle, on avait analysé de nombreuses substances d’origine biologique, et on en avait synthétisé aussi qu’on ne trouve pas dans la nature, mais l’idée d’atomes était farouchement combattue par des physiciens et des chimistes illustres comme Berthelot, qui les considéraient comme des élucubrations métaphysiques non scientifiques.

Cependant, d’autres chimistes comme Kekulé, Lebel, Vant Hoff, commençaient à imaginer que les combinaisons d’atomes, les molécules, constituaient des structures géométriques précises . Seules manquaient encore des méthodes d’investigation indiscutables. Mendéléiev de son côté proposait sa classification périodique des éléments basée sur le fait qu’on peut les grouper en familles dont les propriétés sont proches, et dont les bases théoriques devaient apparaître plus tard.

Les sciences de la vie ne se limitaient plus à la description et à la classification des espèces. Pasteur avait montré le rôle des microorganismes dans les fermentations et les maladies, et la physiologie avec Claude Bernard, expliquait le fonctionnement des différents organes des pluricellulaires, mais les mécanismes de la cellule vivante restaient totalement inconnus.

La génétique, esquissée par Mendel puis par de Vries, interprétait la transmission de certains caractères de génération en génération et admettait l’existence de gènes sans en connaître la nature. L’évolution des espèces, esquissée par Lamarck et précisée par Darwin permettait de concevoir une filiation de tous les êtres vivants depuis les plus primitifs jusqu’aux espèces actuelles les plus évolués. Elle s’appuyait à la fois sur la comparaison des espèces présentes et sur leur confrontation avec les fossiles de la paléontologie.

Si la sélection naturelle expliquait le tri entre des espèces plus ou moins bien adaptées à leur milieu, et ne pouvait plus considérer l’Homme comme une création à part, elle ne donnait pas la cause des mutations aléatoires qui font passer d’une espèce à l’autre. Pasteur avait démontré, non sans peine, qu’il n’existait pas de générations spontanées, et l’origine de la vie restait inexplicable.

Toutes les connaissances acquises au XIXème siècle et encore souvent mal consolidées n’allaient pas sans contestations et sans l’opposition farouche des partisans des croyances traditionnelles: l’existence des atomes et surtout l’origine animale de l’Homme étaient jugées scandaleuses. D’autres croyances anciennes comme l’astrologie étaient au contraire complètement discréditées, et les progrès de la physique dans son ensemble ne provoquaient pas de rejet mais n’étaient pas toujours bien compris: par abus de langage, on parlait de magnétisme animal, notion équivoque sans base expérimentale mais encore en usage, qui n’a rien à voir avec le magnétisme des physiciens, ni avec la sensibilité de certains animaux au champ magnétisme terrestre.

Comment le XIXème siècle finissant voyait le siècle à venir.

            Le bilan des connaissances acquises, considérable, était vu avec beaucoup d’optimisme. La confiance dans les sciences , la foi dans le progrès, pouvaient même être excessifs avec les délires du scientisme présenté comme la religion de l’avenir. On prévoyait évidemment que le progrès allait se poursuivre: progrès des connaissances, des techniques et des applications. L’œuvre de Jules Verne montre ce qu’on en attendait: exploration des pôles, du centre de la Terre, des continents encore mal connus, véhicules mécaniques, sous-marins, machines volantes, voyage dans la Lune, applications de l’électricité. Les sciences de la vie avaient beaucoup moins excité l’imagination de l’auteur, qui a pourtant consacré des pages à la description d’espèces marines. S’il a cru pressentir, à tort, l’homme invisible, il n’a pas prévu que le vivant pourrait être l’objet de manipulations génétiques.

En conclusion, le XIXème siècle finissant n’a prévu que l’extrapolation des connaissances du moment et ne pouvait imaginer les bouleversements pourtant déjà amorcés. . Siècle de paix relative en Europe après les guerres de Napoléon, et malgré celle, brève de 1970, et l’exacerbation des nationalismes, les pays avancés avaient bonne conscience après l’abolition de l’esclavage et considéraient le colonialisme comme une œuvre charitable apportant aux peuples sauvages les bienfaits de la civilisation et du progrès.

 

Le XXème siècle; première partie (1900-1939).

Les premiers bouleversements ont concerné la physique. Dans les dernières années du XIXème siècle, Michelson avait tenté de mettre en évidence le mouvement de la Terre autour du Soleil en comparant la vitesse de la lumière dans le sens de son déplacement et dans la direction perpendiculaire. Si la vitesse de la Terre s’était ajoutée à celle de la lumière, une différence serait apparue entre les deux, mais il n’en fût rien, et il fallut en conclure que, contrairement à celle des  objets matériels, la vitesse de la lumière est indépendante de celles de la source et de l’observateur. Ce résultat était contraire à la mécanique de Newton, mais implicitement contenu dans la théorie électromagnétique de Maxwell. Lorentz et Poincaré en avaient approché l’interprétation, mais c’est Einstein qui en a tiré toutes les conséquences dans la théorie de la Relativité restreinte: le temps et l’espace apparaissent différents pour des observateurs qui se déplacent à vitesse constante les uns par rapport aux autres, et la masse aussi est une forme d’énergie (E = m C2 ). La Relativité générale étend la théorie aux mouvements accélérés et à la gravité: les masses déforment l’espace et courbent les rayons lumineux.

Une série d’autres faits allait donner naissance à la physique quantique, et d’abord le rayonnement dit du corps noir: tout objet, incandescent ou non, émet un spectre continu de rayonnement électromagnétique dépendant de sa température. S’il est suffisamment chaud, il émet de la lumière visible; au dessous il émet de l’infrarouge, mais la physique classique ne pouvait expliquer la répartition des longueurs d’onde émises. Planck dût admettre pour l’interpréter que les échanges entre la matière et le rayonnement se font par quantités discontinues, des paquets d’énergie, les quanta. Une confirmation plus frappante concerne l’émission et l’absorption de la lumière par les atomes: chaque élément émet une série de raies discontinues de longueurs d’ondes spécifiques, et non un spectre continu. L’explication en a été donnée par Bohr: les électrons d’un atome ne peuvent se trouver qu’à des niveaux d’énergie discontinus caractéristiques de l’élément. Si l’électron reçoit une quantité convenable d’énergie, il saute à un niveau supérieur. Il restitue ensuite cette énergie en émettant un photon d’énergie correspondant à la différence des deux niveaux.

Einstein a interprété également l’effet photoélectrique: certains métaux émettent des électrons lorsqu’ils absorbent de la lumière, mais il existe un seuil au dessous duquel rien n’est émis, quelle que soit l’intensité de la lumière: les photons de lumière doivent avoir une énergie minimale suffisante, donc une longueur d’onde suffisamment petite, pour arracher un électron au métal. :

E = h n

ou  E est l’énergie, h la constante de Planck et n la fréquence de la lumière, c’est à dire le nombre d’oscillations par seconde.

Les développements de la physique quantique ont expliqué le comportement intime de la matière et des rayonnements, mais aussi bouleversé les idées  traditionnelles. Ils ont interprété la structure et  les propriétés des atomes, formés d’un nuage d’électrons autour d’un noyau beaucoup plus petit mais très dense constitué lui même de protons et de neutrons, mais toutes ces particules ne peuvent être considérés comme de petites billes solides. Ainsi que les photons, elles se comportent comme des ondes non localisées quand elles se déplacent, mais comme des paquets d’énergie localisés quand elles interagissent.

La lumière visible elle même ne représente qu’une zone étroite du spectre électromagnétique, allant des ultraviolets aux rayons X et g vers les petites longueurs d’onde, et de l’infrarouge aux ondes radio vers les grandes longueurs d’onde.

La radioactivité, découverte par Becquerel en 1897, étudiée par les Curie, est due à l’instabilité de certains noyaux atomiques comme l’uranium ou le radium, qui se manifeste par l’expulsion de particules et de rayonnement. En 1939, on a commencé à entrevoir la possibilité de provoquer une décomposition explosive de ces noyaux, libérant une énergie énorme, très supérieure à celle des explosifs chimiques.

La chimie a profité des progrès de la physique. Dès le début du siècle, celle-ci a, par diverses méthodes indépendantes, mis en évidence l’existence des atomes par la détermination du nombre d’Avogadro: combien y a-t-il d’atomes dans un gramme d’hydrogène? Toutes les mesures convergent vers la même valeur:

 

N = 6,02 . 1023

 

La notion d’atome devient la clef de la chimie, et la classification de Mendéléiev s’explique par leur structure électronique, liée elle même à la constitution des noyaux, et les atomes s’associent en molécules ou en cristaux selon des structures géométriques définies. Les réactions chimiques consistent à casser ou créer des liaisons entre eux. Ces structures et ces réactions rendent compte des propriétés de toutes les substances, naturelles ou synthétiques.

Si les atomes et les molécules sont électriquement neutres, il peut se faire des cassures donnant des fragments positifs ou négatifs, les ions, dont les propriétés sont complètement différentes. Ainsi, le sel ordinaire ou chlorure de sodium dissous dans l’eau est constitué d’ions chlore négatifs et d’ions sodium positifs qui cohabitent paisiblement, alors que le chlore et le sodium sont des éléments très réactifs qui agissent très violemment l’un sur l’autre.

Un peu plus tard, Staudinger a montré qu’il peut exister des molécules géantes formées de centaines de milliers d’atomes, les polymères, comme la cellulose , les protéines et les polymères, constituants des  matières plastiques, des fibres textiles et des élastomères synthétiques actuels.

En astronomie, la découverte essentielle est due à Hubble qui montre qu’au delà de notre galaxie, la Voie Lactée, existent des milliards d’autres galaxies, et que l’ensemble de l’univers n’est pas immuable mais en expansion, toutes les galaxies s’éloignant les unes des autres d’autant plus vite qu’elles sont plus éloignées.

La connaissance de la Terre s’approfondit: on découvre sa structure interne, son noyau, et Wegener imagine la dérive des continents sans en connaître encore le mécanisme, idée qui sera vivement combattue à l’époque par la plupart des géologues.

Le bilan scientifique du demi-siècle s’accompagne d’un développement important des techniques: la production et la distribution de l’électricité, d’abord utilisée surtout pour l’éclairage. Les transports sont révolutionnés par l’apparition des moteurs à combustion interne, les débuts de l’électrification des chemins de fer. L’aviation, les sous-marins, la navigation à vapeur s’imposent. Les télécommunications se développent: le téléphone, la radio, détrônent progressivement le télégraphe. La matière première principale de l’industrie et de l’énergie reste le charbon, mais le pétrole commence à prendre une place importante avec le développement de l’automobile.

L’attitude du public face aux sciences et aux techniques reste la confiance dans le progrès, bien que l’amélioration du confort reste limitée et les progrès de la médecine encore modestes après les travaux de Pasteur. Si l’ensemble du public s’intéresse au développement des techniques qui se mettent à sa portée, seule une petite minorité est consciente de l’importance des acquis des sciences fondamentales.

La cassure de la guerre de 1939-1945.

La guerre oblige à développer dans l’urgence des techniques d’applications militaires et ne favorise qu’indirectement le progrès des connaissances. On voit apparaître avec le Radar des sources d’ondes radio centimétriques et leurs détecteurs, ainsi que des appareils de transmission  sans fil. A la mélinite de la guerre de 1914-1918 succèdent le TNT et d’autres explosifs mieux adaptés. Les premiers avions à réaction apparaissent. Un textile nouveau, le Nylon, utilisé pour les parachutes est la première fibre synthétique créée par l’industrie. Pour les soins aux blessés, la pénicilline permet enfin que les combattants meurent moins de maladies que du fait des armes.

Enfin, la fission de l’uranium et du plutonium, tout juste découverte, et mise au point avec d’énormes moyens, aboutit à la bombe atomique qui voit la fin des hostilités.

La guerre terminée, les Etats-Unis, qui ont attiré une part importante de la compétence européenne, sont florissants. Leur industrie a fait un effort considérable et s’apprête à se reconvertir pour la paix, tandis que l’Europe est complètement ruinée.

Partout on se préoccupe de reconstruire, de retrouver la prospérité, et tous aspirent à un confort jusque là peu répandu. L’industrie rénovée va y parvenir: électroménager, sanitaire, chauffage, transports, matériaux nouveaux vont y contribuer, et l’agriculture va devoir se moderniser pour mettre fin à la pénurie.

Cette frénésie de croissance ne va pas sans un début de réticence envers les sciences: les moyens de destruction accrus font pressentir que les nouvelles techniques peuvent être plus dangereuses que profitables. Plus tard, les soucis de l’environnement vont aggraver cette tendance, mais une autre cause de désaffection se précise: les connaissances, les techniques deviennent de plus en plus touffues, plus compliquées, leur compréhension plus difficile malgré la généralisation d’un enseignement souvent trop scolaire et abstrait. Ce qu’on ne comprend pas inquiète.

La seconde moitié du XXème siècle.

            Ces cinquante années ont apporté beaucoup plus de connaissances nouvelles et imprévues que tous les siècles qui les ont précédées, grâce à des chercheurs de plus en plus nombreux, des moyens de plus en plus importants et des techniques de plus en plus puissantes.

L’astronomie ne se contente plus d’observations en lumière visible: tout le spectre électromagnétique, des rayons X et g à l’infrarouge et aux ondes radio, toutes les particules venant de l’espace: électrons, rayons cosmiques, neutrinos, sont détectés, souvent grâce à des engins hors de l’atmosphère terrestre: satellites et sondes spatiales.

A terre,  la lumière visible est captée par des télescopes de plus en plus puissants, de plus en plus nombreux. Des détecteurs de lumière extrêmement sensibles, des techniques de correction de la turbulence atmosphérique, et plus récemment des associations de télescopes couplés permettent d’améliorer considérablement les performances. La radioastronomie, à terre également, utilise des radiotélescopes de grandes dimensions.

Les résultats justifient ces énormes déploiements de moyens. L’univers est scruté jusqu’à ses extrêmes limites, soit plus de dix milliards d’années lumière. On découvre qu’il est peuplé de centaines de milliards de galaxies groupées en amas et en superamas séparés par d’immenses bulles vides. Il arrive que des galaxies fusionnent, se déforment. Certaines parmi les plus lointaines possèdent en leur centre un quasar, beaucoup plus lumineux à lui seul que toute une galaxie, et siège d’évènements cataclysmiques.

Les centaines de milliards d’étoiles qui constituent chaque galaxie ont des masses et des durées de vie très variables. Toutes ont pour source d’énergie principale la fusion de l’hydrogène en hélium. Les plus petites ont la durée de vie la plus longue, car elles ménagent leur combustible. Des étoiles moyennes comme le Soleil peuvent fonctionner environ dix milliards d’années, et finissent leur vie en géante rouge, puis en naine blanche. Les plus grosses ont une vie beaucoup plus brève qui se termine de façon beaucoup plus brutale: les supernovae. Elles produisent tous les éléments plus lourds que l’hélium et finissent, selon leur masse, en étoile à neutrons ou pulsars, très petits et très denses, ou en trous noirs dont rien, pas même la lumière, ne peut s’échapper.

L’exploration du système solaire, commencée avec les débarquements sur la Lune, a été poursuivie au moyen de sondes qui ont permis d’examiner de près les planètes et leurs satellites en passant à proximité ou en se satellisant autour de Mercure, Vénus, Mars et Jupiter. La surface des planètes solides est maintenant bien connue, et l’extrême diversité de ces astres est remarquable. Les uns sont brûlants, la plupart glacés. Seuls les plus gros possèdent une atmosphère, mais toujours différente de celle de la Terre. Jupiter, Saturne, Uranus et Neptune sont essentiellement des boules de gaz autour d’un noyau dense.

Le soleil lui même est constitué principalement d’hydrogène, et sa température varie de 6000°environ en surface à plus de 10 millions de degrés en son centre où se produit la fusion de l’hydrogène en hélium avec émission de neutrinos qu’on a pu observer sur terre.

On commence aussi à détecter des planètes autour des étoiles les plus proches.

Toutes les données recueillies renseignent sur les évènements qui se passent ou se sont passés dans l’univers, avec un décalage lié à la vitesse de la lumière. : il a une histoire, et la théorie du Big-Bang, confirmée par une série d’indices, en fait remonter l’origine à environ 15 milliards d’années. Il serait né d’une explosion gigantesque dont on retrouve encore les traces, et qui se poursuit toujours par son expansion. On n’a pas encore tranché: cette expansion sera-t-elle indéfinie ou suivie d’une période de contraction, le Big-Crunch.

La connaissance de la Terre ne se limite plus à sa surface. On sait que sous les continents et les océans elle est constitué d’un manteau de silicates chaud et visqueux, d’un noyau liquide métallique riche en fer, avec au centre une graine de fer cristallisé.

Les grands phénomènes géologiques ont pour origine la chaleur dégagée par les éléments  radioactifs du manteau et du noyau. Par convexion, il se produit des remontées des masses les plus chaudes. Les continents , flottant sur le manteau, sont entraînés dans des mouvements variés qui provoquent des cassures et des collisions. La dérive des continents est à l’origine des reliefs, des fossés, des séismes et du volcanisme.

La Terre comme tout le système solaire, s’est formée il y a environ 4,5 milliards d’années à partir de gaz et de poussières analogues aux météorites. On connaît assez bien son histoire des dernières centaines de millions d’années grâce à l’étude des diverses formations géologiques, et on commence à l’esquisser pour les périodes plus anciennes.

 

La physique quantique domine au XXème siècle, comme la physique classique au XIXème.Après avoir interprété la structure électronique des atomes, elle s’intéresse aux propriétés du noyau: la radioactivité, la fission, la fusion. Des accélérateurs de particules de plus en plus grands mettent en évidence des particules de plus en plus nombreuses et leurs interactions, puis une mise en ordre s’impose. La plupart des particules exotiques obtenues, dont la durée de vie est très brève, sont elles mêmes des assemblages de particules plus élémentaires regroupées en deux familles: les leptons et les quarks, et les antiparticules correspondantes. Seules trois particules stables constituent la matière ordinaire: les électrons et les quarks u et d.

A la gravité et à l’interaction électromagnétique s’ajoutent deux interactions fondamentales à courte portée: l’interaction forte unit les quarks en protons et en neutrons, et ces derniers entre eux dans le noyau des atomes. L’interaction faible intervient dans la radioactivité. Les interactions sont elles mêmes assurées par d’autres types de particules: le graviton encore hypothétique, le photon, les bosons W et Z° et les gluons. La chromodynamique quantique interprète ces interactions, et des tentatives de synthèse s’efforcent d’unifier interactions et particules en un modèle unique.

Une question est restée longtemps sans réponse : quand deux particules ont interagi, elles forment un tout indissociable, quelle que soit leur distance. On dit qu’elles sont corrélées. Si elles ont par exemple des spins opposés, rien ne permet d’attribuer un signe à chacune tant qu’elles n’ont pas interagi avec un dispositif de mesure ou tout autre obstacle, mais dès que l’une a été observée et caractérisée, le spin de l’autre prend, et à ce moment seulement, une valeur définie. Einstein ne voulait pas l’admettre et pensait que les jeux étaient faits dés la séparation des particules. Bell démontra qu’il était possible de trancher, et Alain Aspect réalisa l’expérience et prouva, bien après la mort d’Einstein, qu’il avait eu tort.

La théorie quantique participe aussi à la physique des solides avec les semi-conducteurs, la supraconductivité, ainsi que les lasers. Les applications ont bouleversé toutes les techniques, avec le développement de l’énergie nucléaire, de l’électronique, des télécommunications, l’ horlogerie à quartz, les calculatrices, les systèmes de positionnement (GPS) et par dessus tout l’informatique.

Après les microscopes électroniques, les microscopes à pointe permettent d’observer et de manipuler individuellement les atomes.

La chimie aussi a profité des progrès de la physique quantique: les liaisons, les réactions chimiques s’interprètent par des mécanismes électroniques et radicalaires, ce qui permet de mieux les prévoir  et mieux les maîtriser. Les méthodes physiques d’analyse: spectroscopie infrarouge, spectroscopie de masse, spectroscopie des rayons X, résonance magnétique nucléaire, donnent la structure détaillée des molécules et des cristaux. Associées aux méthodes fines de séparation: chromatographie en phase liquide ou gazeuse, elles permettent d’isoler et d’identifier des traces infimes de substances.

L’industrie chimique et pétrochimique fournit en quantité des produits de plus en plus nombreux et variés: matières plastiques, produits pharmaceutiques, détergents, fibres synthétiques…

La biologie s’éclaire enfin par la découverte des mécanismes fondamentaux de la vie. Crick et Watson établissent la structure en double hélice de l’acide désoxyribonucléique (ADN), constituant essentiel des chromosomes de la cellule, supports de l’hérédité. Leur rôle dans la synthèse des protéines, par l’intermédiaire de l’acide ribonucléique, est élucidé par Lwoff, Monod et Jacob. La structure et le rôle des enzymes, catalyseurs des réactions biologiques, se précise. Le code génétique, qui traduit les acides nucléiques en protéines, est déchiffré. Les mécanismes physico-chimiques très compliqués de la vie se dévoilent peu à peu, même ceux du cerveau, immense réseau de neurones dans lequel l’influx nerveux circule sous forme de potentiel électrique relayé dans les synapses par des neurotransmetteurs chimiques.

Grâce à des techniques nouvelles utilisant des enzymes, on apprend à couper, souder, remanier les brins d’ADN,les recopier et les multiplier, à modifier le patrimoine génétique des cellules. La médecine dispose de médicaments nouveaux plus spécifiques et plus efficaces, d’antibiotiques, et de techniques d’exploration de plus en plus puissantes: scanner, imagerie par résonance magnétique (IRM), échographie, et caméra à positons pour l’exploration du cerveau en activité.

On peut imaginer aussi comment la vie a pu apparaître à partir de molécules organiques formées spontanément, comme les acides aminés, constituants des protéines, et comment elle s’est développée et diversifiée. En 1953, Miller montre qu’à partir d’un mélange de méthane, d’ammoniac et de vapeur d’eau soumis à des décharges électriques, il se forme des acides aminés, constituants des protéines. Des variantes de son expérience produisent aussi des constituants des acides nucléiques. Comment a pu apparaître la vie, jeu entre les acides nucléiques, ADN et ARN et les protéines ? Si l’ADN, rigide et stable, n’a qu’une fonction unique, transmettre le message génétique, l’ARN(acide ribonucléique), plus souple et polyvalent, capable de s’associer aux acides aminés, pourrait avoir joué le rôle primordial. La comparaison des ADN de toutes les espèces vivantes montre que la vie a une origine unique. Après avoir longtemps subsisté sous une forme analogue aux bactéries actuelles, elle s’est diversifiée en végétaux et animaux dont la paléontologie permet de retracer les étapes.

Tant de résultats ont été possibles grâce aux moyens considérables mis en œuvre. Jamais il n’y avait eu autant de chercheurs, de techniciens, disposant de moyens aussi importants, dans les universités, les centres de recherche, les organismes privés et publics. Tantôt regroupés en très grosses équipes, en physique fondamentale autour des accélérateurs de particules, dans les centres d’études spatiales pour les fusées, les satellites et les sondes spatiales; tantôt plus dispersés dans l’informatique, la biologie moléculaire, le génie génétique, tous les participants ont travaillé en combinant coopération et compétition.

            Le bilan des idées.

Il a des aspects à la fois positifs et négatifs. Malgré le développement de l’éducation, et même dans les pays qui se prétendent les plus évolués, la grande majorité n’a conscience des progrès réalisés que par les moyens techniques mis à sa disposition, et ignore délibérément tout des connaissances sous-jacentes. S’il est évidemment impossible, et d’ailleurs sans intérêt, que chacun connaisse  tous les détails des techniques, affaire des spécialistes, il est regrettable que des gens qui se considèrent comme cultivés n’aient pas toujours une vue éclairée des connaissances actuelles.

Jamais on n’avait eu une vision aussi approfondie du monde, de la vie et des mécanismes de la pensée consciente, mais les croyances les plus naïves et archaïques n’en ont pas moins autant de succès: astrologie, magie, médecines imaginaires prospèrent, ainsi que les sectes aux doctrines délirantes qui exploitent la crédulité de leurs adhérents.

Les Etats-Unis en sont un exemple caricatural: pays techniquement le plus avancé et le plus puissant, c’est aussi la patrie des créationnistes et des opinions les plus rétrogrades.

Dans tous les pays les plus évolués aussi, des associations plus ou moins fanatiques refusent sans discernement, au nom de la Nature, des techniques dont elles ne veulent voir que les inconvénients, au besoin inventés, et proposent en échange des solutions utopiques.

Dans les pays moins évolués, dits en voie de développement, le contraste est encore plus net. L’évolution des connaissances s’est faite si vite que la plupart n’ont pas eu le temps de les assimiler.

C’est pourtant une véritable révolution des idées qu’ont entraîné les acquis des sciences expérimentales. Le rationalisme intransigeant du XIXème siècle a reculé: avec la Relativité, les notions de temps, d’espace, ne sont plus absolus. Avec les quanta, le sens du réel devient flou. Les objets quantiques, à la fois ondes et particules, ne peuvent être rigoureusement localisés, et leurs caractéristiques peuvent rester indéterminées tant qu’ils n’ont pas interagi.

Cependant, loin d’être en contradiction avec la physique classique, la physique quantique apparaît au contraire comme la cause profonde, microscopique, des phénomènes qui nous sont plus familiers. Rien n’est changé dans la vie courante, mais la leçon à en tirer est que le bon sens commun n’a plus cours au delà.

Des questions plus fondamentales restent sans réponses: pourquoi le monde est-il tel qu’il est et pas autrement? Les constantes fondamentales qui caractérisent les particules élémentaires et leurs interactions, et dont dépendent toutes les propriétés de la matière et du rayonnement pourraient elles être différentes ou non de ce qu’elles sont, et pourquoi? Si elles étaient différentes, nous ne serions pas là pour le constater, mais pourrait-il exister autre chose?

La théorie du Big-Bang, qui s’appuie sur une série de résultats concordants, reste une hypothèse cohérente mais indémontrable. Est-ce un évènement unique, ou une péripétie dans un univers beaucoup plus grand?

Le déterminisme rigoureux de la physique classique s’est trouvé tempéré par la physique quantique, mais l’une et l’autre ne se sont consacrées pendant longtemps qu’à des phénomènes qu’elles pouvaient décrire mathématiquement de façon exacte. Il existe cependant dans les mathématiques des suites d’expressions qu’on ne peut calculer que de proche en proche, et qui évoluent de façon imprévisible à long terme. . On peut seulement préciser que leur évolution reste contenue dans des limites, les”attracteurs étranges”. C’est ainsi que s’est développée une théorie du chaos, et, en fait, la plupart des phénomènes réels , comme la turbulence, la météorologie, ne peuvent être traités que de façon statistique.

Au XIXème siècle, la vie et la pensée consciente étaient certainement les phénomènes les plus incompréhensibles. On en ignorait totalement les mécanismes fondamentaux. Actuellement, si on ne sait pas encore de façon précise comment la vie est apparue, la question est circonscrite: elle n’a pu émerger qu’à partir de matières pré biotiques banales qui se forment spontanément et qu’on retrouve jusque dans les météorites. Dans un milieu ouvert recevant de l’énergie de l’extérieur, la lumière solaire, et où ils ne risquent pas de rester totalement figés ou d’être entièrement détruits, et c’est le cas en présence d’eau liquide, leur structure évolue inexorablement vers une complication croissante qu’une sélection spontanée amène à des formes de plus en plus organisées.

L’apparition et l’évolution de la vie, résultat d’un jeu entre les acides nucléiques et les protéines, a une origine unique, mais existe-t-il ailleurs d’autres possibilités amenant à l’existence d’êtres organisés autonomes?

La pensée consciente a paru longtemps un phénomène tout à fait immatériel. Toute la philosophie traditionnelle, qui ne nous a rien appris et a accumulé erreurs et non-sens, a toujours manifesté le plus grand mépris pour les choses matérielles, et a substitué à la réalité un monde de mots qu’elle manœuvre à sa fantaisie, faisant un emploi abusif de la logique. La pensée logique, qui ne s’applique en toute rigueur qu’aux mathématiques, n’a qu’un pouvoir très limité dans les choses concrètes qui ne sont jamais parfaitement définies et connues exactement, et convient encore plus mal dans les idées abstraites encore beaucoup plus équivoques.

Les connaissances actuelles sur le cerveau et son fonctionnement, bien qu’encore très incomplètes, sont une approche bien différente et autrement efficace et précise qui relègue celle des philosophes au rang de rêveries simplistes et stériles. Après les domaines de l’infiniment grand et de l’infiniment petit, l’organisation du cerveau est celui de l’extrême complexité, et il inspire déjà les futures machines de l’informatique qui elles aussi,  mais avec d’autres moyens, ont pour objet le traitement de l’information. Une convergence s’esquisse entre ces deux  disciplines.

Qu’en sera-t-il du XXIème siècle?

Il serait bien présomptueux de faire des pronostics précis. On peut prévoir sans trop de risques que des techniques de plus en plus efficaces vont se développer, que la physique va continuer à s’intéresser aux conditions extrêmes de température, de pression, d’énergie, que l’exploration de l’univers va se poursuivre, que la théorie du Big-Bang va être soumise à de nouvelles épreuves. Les possibilités de la biologie moléculaire, du génie génétique, paraissent illimitées, la connaissance du cerveau, le développement de l’informatique également.

Y aura-t-il aussi des percées actuellement insoupçonnées? Si l’on en juge par l’histoire des siècles précédents, ce n’est pas invraisemblable. On peut aussi s’inquiéter: les ressources de la Terre seront-elles menacées, la pollution, l’effet de serre, la violence seront-ils maîtrisés?

Enfin, la cassure va-t-elle s’aggraver entre les connaissances d’une petite minorité et une opinion publique dépassée?

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *