La 7ème fonction du langage de Laurent Binet avril 2017

La 7ème fonction du langage de Laurent Binet

 

Point de départ : la mort de Roland Barthes renversé par une camionnette en 1980.Assassinat ?

Roman policier eu plutôt d’espionnage. Il est beaucoup question de linguistique. Quel est cette 7ème fonction du langage? Les 6 premières sont bien expliquées mais la dernière ?

Laurent BiNEt lâche la bride à son imagination pour notre plus grand étonnement…si on veut bien le suivre. Comme 500 pages demandent du temps… Vous vous retrouverez en compagnie de Giscard d’Estaing, de Mitterrand, d’intellectuels connus, de gens qui vivent de leurs charmes, de malfrats de tous poils, et j’en passe.  Vous verrez également comment un professeur de faculté de Saint Denis(ex Vincennes produit de Mai 68) assez coincé et de gauche peut arriver à s’épanouir aux côtés d’un policier de droite qui a de l’entregent. Et je ne dévoile pas tout.

N’allez pas penser que je me suis ennuyée . Laurent Binet possède un tel sens de l’humour, tout en nous réservant aussi des moments de suspense.

Etrange ! et contente de l’avoir lu.

A MANANT

 

La jeune fille à la perle de Tracy Chevalier Avril 2017

La jeune fille à la perle de Tracy Chevalier

 

J’ai lu ce livre pour le 30 ème anniversaire du festival de musique ancienne de Lanvellec.

Griet, jeune fille engagée comme servante dans la maison du peintre Vermeer (Delft XVIIème siècle). Qu’il est difficile de trouver saplace entre l’épouse, la belle-mère, la gouvernante et la flopée d’enfants qui va croissante.

Quand le peintre accapare la jeune fille pour ses travaux personnels, cela n’arrange rien; mais Griet est tellement intéressée…par la peinture…par le peintre…

On est au XVIIème siècle : la vocation d’une domestique, ses sentiments , cela n’existe pas…

Bienheureuse encore quand un beau jeune homme simple, décidé, honnête est séduit par le charme de ses yeux.

A Manant

24/04/2017 Atelier Aimons la musique ensemble

Ce 24 avril, l’une d’entre nous présentait Dimitri Chostakovitch (1906-1975)

Elle nous a fait écouter le 1er mouvement de sa 1ère symphonie, des passage de son opéra Lady Macbeth et quelques extraits de la 7ème symphonie.

A la prochaine réunion  du 22 mai, elle continuera à nous parler de ce compositeur et nous permettra d’écouter quelques extraits de sa musique de chambre.

Annette

 

18 avril 2017 – Atelier lecture

Le 18 avril, nous avons donc parlé du livre « La confrérie des chasseurs de livres » de Raphaël Jerusalmy qui a été très contesté. Il n’a pas vraiment plu, sauf à 2 u 3 personnes dont moi, bien sûr pour l’avoir proposé.

Pour le 23 mai, date de notre prochaine réunion, nous lisons : le Horla de Guy de Maupassant. Je l’ai acheté dans une édition contenant les 2 versions 1886 et 1887 afin de les comparer.

A MANANT

Jusqu’où ira-t-on ? de Marcel Mescam

Jusqu’où ira-t-on ?

de Marcel Mescam

janvier 2014

Un titre du journal Le Point, daté du 5 avril 2013 attire mon regard et sa lecture me laisse perplexe.

Inde : un soutien-gorge « taser» pour lutter contre le viol.

Un soutien-gorge pour endiguer les viols en Inde, une drôle d’idée ? C’est en tout cas celle qu’ont eue trois étudiants (deux filles et un garçon) d’une école d’ingénieurs de Chennai, au sud de l’Inde, qui viennent de mettre au point un soutien-gorge quelque peu électrique. « Cette lingerie fine, dotée de capteurs de tension, peut envoyer des décharges de 3800 kilovolts ». Mais que les femmes se rassurent : aucun risque que le dispositif ne se retourne contre elles.

Derrière cette invention étonnante se cache un triste constat. En sortant de leur école pour jeunes filles, ces futures ingénieures ont été confrontées à la dure réalité de la rue : un « monde cruel », où un simple « sourire » peut menacer « leur intégrité physique et leur pureté », explique Manisha, l’une des étudiantes à l’origine du projet. Avec ses deux amis ils ont donc décidé d’agir. Et ce, afin que les femmes puissent « se défendre contre le harcèlement domestique, social et professionnel dont elles sont victimes ».

Grâce à cette invention aussi efficace qu’un taser, « quiconque essaierait de molester une femme prendrait le choc de sa vie », certifie la jeune femme. Jusqu’à 82 décharges d’affilée peuvent être envoyées pour éloigner l’agresseur, précise le descriptif du soutien-gorge. Cette lingerie High-tech équipée de puces GPS et GSM permet aussi de prévenir la police et les parents de la victime.

Ce soutien-gorge devait être commercialisé au cours du mois d’avril et ses inventeurs cherchent déjà des moyens de l’améliorer en le rendant résistant à l’eau et en réduisant sa taille. Il rejoint la liste des gadgets anti-viol, à côté de la montre qui alerte les forces de police indiennes en cas de problème… en attendant un durcissement et une meilleure application de la loi contre les agressions sexuelles.

Je ne connais pas la suite, mais cela laisse à réfléchir. Je pense qu’il en est de même en France pour ces odieuses agressions, devant lesquelles il y a peu de réaction.

Mais que sommes-nous devenus, et jusqu’où ira-t-on ?

SPINOZA penseur de la laïcité

SPINOZA penseur de la laïcité

par Bruno Streiff, conférencier-romancier

 

« Dieu, cet asile de l’ignorance » Spinoza

Philosophe hollandais d’origine juive et portugaise, né à Amsterdam. Baruch Spinoza (1632-1677)est séduit par la philosophie cartésienne. Pour pouvoir se consacrer à ses activités intellectuelles, ce concitoyen et contemporain de Rembrandt, frappé par un herem, élève de Franciscus van den Enden  a gagné sa vie en polissant des verres de microscope.

A) L’Ethique

L’œuvre majeure de Spinoza est écrite comme un traité de géométrie : à partir de définitions, axiomes et postulats, dans le but d’exprimer, de manière objective et rationnelle, l’essence fondamentale de toutes choses.
L’Ethique désigne la vraie connaissance du vrai Dieu, immanent au monde, « ce qui est », et ceci par tripartition

Ce qui est : Une seule substance, absolument infinie, dont nous ne sommes que des modes.
Dieu, n’étant qu’un Etre absolument infini, composé d’une infinité d’attributs.

Dans cette substance unique, de cette Nature ne faisant qu’un avec Dieu, l’intelligence humaine saisit seulement deux attributs, l’Etendue et la Pensée…. …

Vision panthéiste…

B)Traité théologico-politique (1670)

Spinoza ayant pris la mesure de l’enracinement anthropologique de la religion est un précurseur de la laïcité car son Traité théologico-politique (ou TTP) est un manifeste en faveur de l’autonomie du politique par rapport aux clergés. dessinant ainsi le destin des hommes libres, vivant sous le régime de la raison, dans une cité libre.. La « politique » de Spinoza vient se confondre avec son Ethique et l’achève.

.
Par l’analyse critique de la Bible, Il professe que seule une éthique rationnelle non religieuse peut mener l’homme à la liberté.Il peut être considéré comme l’un des précurseurs de l’athéisme.

Sur le plan politique, Spinoza développe une théorie de la liberté. Les religions doivent être soumises aux lois communes et l’Etat doit protéger la liberté de penser et d’opinion en vue de la paix civile. Il peut être considéré comme le fondateur de la laïcité.

 

Réf : CY-J2017iv27

herem : excommunication à la sauce juive

JE DANSERAI SI JE VEUX le lundi 24 avril à 14H30 à la SALAMANDRE

JE DANSERAI SI JE VEUX
de Maysaloun Hamoud (Palestine/Israel – 2017 – 1h42)  
Avec Mouna Hawa… 
Avertissement : des scènes, des propos ou des images peuvent heurter la sensibilité des spectateurs
Layla, Salma et Nour, 3 jeunes femmes palestiniennes, partagent un appartement à Tel Aviv, loin du carcan de leurs villes d’origine et à l’abri des regards réprobateurs. Mais le chemin vers la liberté est jalonné d’épreuves…

Immunologie,mutations par M RIO André

Deux questions, une réponse

M André RIO
M André RIO


2 questions posées à M RIO :

  • à chaque attaque d’un organisme, on trouve normale la réaction de défense de celui qui est attaqué; existe-t-il une explication scientifique à ce phénomène?
  • mutation du papillon blanc en papillon noir ?

La méthode expérimentale confronte en permanence hypothèses et observations. Elle repose sur des faits observables et reproductibles, ce qui exclut toute interprétation mythique invérifiable qui équivaut à un refus de comprendre et de progresser. Son bilan justifie largement cette attitude : on lui doit tous les acquis des sciences et des techniques. Elle ne prétend pas tout expliquer tout de suite, mais le plus souvent elle finit par y parvenir.

La première question posée concerne l’immunologie. Dans le détail, c’est très compliqué, mais on peut en retenir l’essentiel : La sélection naturelle, qui opère par mutations aléatoires, a mis au point des mécanismes qui permettent à chaque espèce de se défendre contre les infections bactériennes ou virales. Chez l’Homme par exemple, un certain nombre de cellules spécialisées circulent dans le sang : leucocytes, cellules tueuses, macrophages…Elles reconnaissent la présence d’envahisseurs étrangers et agissent pour les neutraliser en les bloquant ou en les détruisant. Les vaccins ont pour effet de stimuler cette défense. Tous ces mécanismes reposent sur des interactions entre molécules et les contacts spécifiques qui leur permettent de s’emboîter comme une clé dans une serrure.

A chaque invasion, des cellules spécialisées synthétisent un grand nombre de molécules diverses, ce qui permet statistiquement d’en former qui soient capables de neutraliser l’agent étranger, mais une cellule vivante ne fonctionne pas avec la rigueur d’une horloge, et si le rôle de l’ADN est fondamental il n’explique pas tout. Imprévisible dans les détails , leur fonctionnement statistique global permet aux cellules de se maintenir en vie. Si la défense est quand même débordée, le patient tombe malade, mais s’il survit il garde en mémoire la structure moléculaire capable de le défendre et se trouve le plus souvent immunisé contre une nouvelle attaque

La deuxième question permet une réponse beaucoup plus simple : Les papillons anglais en question ont de tout temps comporté deux variétés d’une même espèce, l’une claire, l’autre sombre. Dans un milieu clair, les papillons sombres étaient facilement repérés par leurs prédateurs ; ils étaient donc très minoritaires. Quand l’industrialisation a assombri le milieu , les troncs d’arbres noircis par la suie, c’est la variété claire qui s’est trouvé défavorisée, sans être totalement éliminée, et la variété sombre a pu prospérer. La situation est réversible : un milieu redevenu plus clair entraîne la prolifération de la variété claire.

La guerre de l’eau aura-t-elle lieu ?

La guerre de l’eau aura-t-elle lieu ?

par François Ars,docteur en histoire contemporaine et enseignant à l’U.B.S.

Depuis le choc pétrolier de 1973, les media attirent régulièrement notre attention sur la future pénurie de pétrole, qui quand elle interviendra ne devrait que modifier nos modes de vie.
Par contre, la pénurie d’eau douce pour les activités humaines s’annonce pour le siècle à venir voir les prochaines décennies ; or l’eau qui fait partie de notre quotidien nous est absolument indispensable … et non substituable.

A – L’EAU DOUCE

Source : ONU
a1 la disponibilité

Notre planète bleue contient une abondance d’eau mais :
98% est salée ; reste donc 2% d’eau douce
et seulement 0,02% est utilisable  pour l’usage de nos sociétés
– 70% de l’eau douce est retenue sous forme de neige ou de glaciers sur les montagnes, ou dans les inlandsis (couche de glace très épaisse, qui recouvre une terre, une île ou un continent).
– 30% sont des eaux souterraines, contenues dans des  aquifères ou dans des nappes phréatiques.

a2 les besoins per capita

les besoins par personne et par an sont globalement estimés à 6900 m3 et les besoins iront croissants avec l’occidentalisation des modes de vie (piscine, lavage voitures…) sur la planète.

a3 des inégalités devant l’accès à l’eau

Le monde occidental a un accès à l’eau potable de qualité d’une manière globale, mais il n’en va pas de même dans les pays pauvres ou en voie de développement où il est un véritable privilège : près de 700 millions de personnes n’ont toujours pas accès à une eau propre et salubre et 2 milliards d’Hommes auraient besoin d’accéder à un assainissement amélioré. Conséquences : la maladie, la malnutrition et l’échec de récolte ; 6000 personnes meurent chaque jour de maladies diarrhéiques dans l’indifférence la plus totale. D’ici 2020 , 135 millions de personnes mourront en raison d’une eau contaminée. Quel est l’Etat (ou l’institution) qui trainera devant un tribunal un pollueur, surtout dans les pays pauvres ?
Des inégalités spatiales
L’Asie regroupe 61 % de la population mondiale pour 36% des réserves d’eau utilisable, l’Europe 12% pour 8% et l’Amérique du Sud 6ù pour 26%
Au total, 1,7 milliard d’humains manquent d’eau potable vivant en dessous du seuil de 1000m3/an par personne

a4 puisement dans les réserves

Pour faire face à une demande toujours croissante, la tentation est forte de puiser dans les nappes aquifères profondes qui ont mis des milliers d’années à se constituer et qui mettront autant d’années à se refaire.

a5 l’évolution des besoins/l’augmentation de la population mondiale

Cette croissance augmentera les besoins en eau inévitablement
De 1950 à 2009, la population a été multipliée par 2,7 et le prélèvement en eau par 3,2
1 personne dans un pays développé consomme entre 30 et 50 fois le volume d’eau consommé par une personne vivant dans un pays pauvre

a5 besoins en eau et agriculture

L’agriculture absorbe 70% de l’eau consommée.

-1 kilogramme de blé consomme 150 litres d’eau.
-1 kilogramme de maïs plus de 200 litres d’eau.
-1 kilogramme de bœuf consomme 12000 litres d’eau.
Un pays qui manque d’eau est un pays qui ne peut ni nourrir sa population, ni se développer

a6 disponibilités et réchauffement climatique

Le réchauffement climatique observé contribue à l’assèchement de vastes zones sur la Terre.

Les organisations internationales estiment que si le prélèvement est supérieur à 40% de la ressource renouvelable, alors la région est en situation de stress hydrique : en 2017 30% des régions au monde vivent en stress hydrique, elles seront en 2025 45 % …

a7 la dégradation de la qualité de l’eau

De plus,la qualité de l’eau ne cesse de se dégrader,avec des risques sanitaires pour la population, même dans les pays développés. Dans les pays développés et émergents (la Chine et l’Inde), l’eau est polluée par les rejets industriels dans les fleuves, et par les produits chimiques utilisés par l’agriculture qui s’infiltrent dans le sol jusqu’aux nappes phréatiques. Dans les pays du sud, les installations d’assainissements manquent, la population doit utiliser une eau qui n’est pas saine.

B – UNE SITUATION PREOCCUPANTE

b1 les grands bassins céréaliers

Quelques grands bassins céréaliers mondiaux (USA, Chine , Russie) approvisionnent l’humanité
– Le bassin chinois situé au nord du pays a amorcé son déclin  à cause de la pénurie d’eau de qualité.
Face à cette évolution , la Chine a pris les devants en « achetant l’Afrique » mais son développement industriel peut être bloqué pour cette même raison. D’où également les projets du gouvernement pour pomper l’eau au sud afin de l’acheminer au nord-est grâce à de grands projets de canaux de dérivations  »
– aux USA, le pompage de la nappe d’Ogallala (580.000 km2, autant que le lac Supérieur), dans la zone des Hautes-Plaines a transformé ces plaines semi-arides en l’un des greniers à blé de la planète, qui produit près de la 1/2 du bœuf US. D’ici 30 ans, la surexploitation tarira cet aquifère ou en rendra l’exploitation prohibitive conduisant alors à un effondrement pour l’agriculture et l’élevage de ces six États.
La raréfaction du volume de céréales se traduira par une hausse de son prix avec les conséquences sur l’alimentation de la population mondiale.

B2 quelques unes des zones sous tension
  • le lac Tchad (Niger, Tchad, Cameroun, Nigeria)
    Ce lac couvrait en 1962 25 000 km2, il couvre de nos jours 2 000 km2 , amorçant la désertification de toute la zone
  • la mer d’Aral
    En s’asséchant, la mer d’Aral laisse à ciel ouvert 36.000 km2 de fonds marins, recouverts de sels que le vent emporte et dépose sur des milliers d’hectares de terres arables.
  • En Iran ,le niveau des eaux des lacs Hamouns alimentées par l’Afghanistan limitrophe ne cesse de baisser transformant en désert une zone marécageuse
  • Au Moyen-Orient, de nombreux ouvrages ont été réalisés sur les deux grands fleuves que sont le Tigre et l’Euphrate, que ce soit en Turquie, en Syrie ou en Irak., avec pour conséquence une réduction du débit de l’Euphrate en Syrie de 11 milliards de m3 et celui du Tigre de 6
  • Un traité de 1944 prévoyait un partage des eaux entre le Mexique et les États-Unis, le Mexique fournissant des eaux du Rio Grande et les USA garantissant un débit minimum au Colorado. Mais, le Rio Grande est à sec..
  • le Tibet, le « château d’eau de l’Asie »., stratégique
    L’Indus, le Gange, le Brahmapoutre et le Mékong y ont leur source. Puiser ou dériver l’eau de ces fleuves ne peut qu’aviver les tensions entre la Chine, l’Inde, le Bangladesh, et le Pakistan
  • le bassin du Nil vital pour l’Egypte. La construction par l’Ethiopie d’un grand barrage et de stations de retenues d’eau sur le Nil bleu va modifier les ressources disponibles en Egypte.
  • Israël et ses voisins se disputent les eaux du Jourdain, du Golan et des nappes aquifères profondes.

C –  ET DEMAIN ?

c1 des leçons de  l’histoire ?

Les perspectives en matière d’eau douce ne sont pas réjouissantes. Avoir accès à l’eau est donc devenu un enjeu économique crucial à l’échelle planétaire qui pourrait devenir, dans le siècle à venir, l’une des premières causes de tensions internationales, d’autant que plus de 40 % de la population mondiale est établie dans les 250 bassins fluviaux transfrontaliers du globe.

Jusqu’à ce jour , l’eau n’a pas été source de conflit majeur : d’où le manque de visibilité pour l’historien. Le partage de l’eau a fait l’objet de traités… Mais à l’avenir, la pénurie n’entrainera-t-elle pas des conflits armés ?

c2 la prise de conscience

L’eau ne pourra plus être considérée comme un élément inépuisable. Le renchérissement de l’eau est inévitable, en raison du coût de son traitement et de sa rareté

c3 les solutions techniques (du farfelu au concret)
  • rechercher de l’eau sur Mars
  • désaliniser l’eau ( coût prohibitif à l’échelle de la planète) 
  • faire appel à la chimie pour combiner l’hydrogène et l’oxygène
  • rechercher (Sahara) des aquifères non encore exploités
  • recycler en boucle et  au maximum l’eau consommée
  • réduire la consommation par personne (choix dans l’alimentation, ….)

En conclusion : à court terme, les occidentaux feraient bien de prendre conscience du gaspillage généralisé de la ressource qui s’annonce rare et de modifier leurs comportements en conséquence.

source : fundacion neotropica

CR L’EAU avril 17 ARS

Nota : les photos viennent illustrer cette conférence ex cathedra

……………………………………

Réf CY-JIV06ag

QUATRE SIECLES DE SCIENCES EXPERIMENTALES par M André RIO

QUATRE SIECLES  DE SCIENCES EXPERIMENTALES

M André RIO
M André RIO

Aucune autre civilisation ne l’avait fait ; les sciences expérimentales en Occident ont transformé les idées sur le monde et sur l’Homme dans le monde.

                                               Le XVIIème siècle

         Au début du siècle, tout est expliqué par la Genèse et la philosophie d’Aristote. Les pères de l’Eglise ont associé les deux conceptions qui se complètent : le monde a été créé en six jours, 4 000 ans avant Jésus-Christ. Au centre, le monde terrestre immobile mais imparfait à cause du péché et en perpétuel changement. Au delà , le monde céleste, celui de Dieu, parfait et immuable, où les astres sont répartis sur sept sphères de cristal en rotation, la dernière étant celle des étoiles fixes. Pour expliquer le mouvement des planètes les plus proches, Ptolémée doit supposer qu’elles se déplacent simultanément sur des épicycloïdes. Aristote considère également que la matière est faite de quatre éléments, la terre, l’eau, l’air et le feu et que la Nature a horreur du vide. L’apport chrétien concerne la morale : le Décalogue, le péché originel et la Rédemption, les châtiments et les récompenses : l’âme immortelle et la résurrection des corps, le Ciel au delà de la septième sphère, le Purgatoire, les Limbes, et l’Enfer au centre de la Terre.

L’astronomie. Trois noms, trois personnages vont tout remettre en question ; Copernic, Kepler et Galilée : il est beaucoup plus simple de considérer que toutes les planètes, dont la Terre, tournent autour du Soleil, et que c’est lui qui est le centre du monde. De plus, la lunette astronomique révèle des faits en contradiction totale avec Aristote : des montagnes sur la Lune, des taches sur le Soleil, les phases de Vénus et les satellites de Jupiter. Les dimensions de la Terre, estimées par Eratosthène, sont déterminées au moyen d’une méthode nouvelle, la triangulation, par Snell. D’autre découvertes se succèdent : la rotation du soleil sur lui-même (1630), les anneaux de Saturne (Huygens, 1655), les calottes polaires de Mars (1666) . En 1680, on mesure la parallaxe du Soleil, ce qui permet d’apprécier sa distance, et on réalise que c’est une étoile parmi les autres. En 1687, Newton publie la loi de l’attraction universelle qui explique à la fois la chute des corps, le mouvement des astres et la pression atmosphérique.

            Les mathématiques. Au XVIème siècle, on connaissait déjà l’algèbre et la trigonométrie. Au XVIIème, Napier (Neper) invente les logarithmes d’où découle la règle à calcul. Après Viète, Descartes crée la géométrie analytique, Pascal et Fermat le calcul des probabilités, Kepler introduit la notion de grandeur infinitésimale et enfin Newton et Leibniz apportent le calcul intégral, un des outils les plus puissants des mathématiques.

            La physique. Au début du siècle, Galilée fait des observations sur les oscillations du pendule et sur la chute des corps qui contredisent les idées d’Aristote, de même que les expériences sur le vide et la pression atmosphérique. Le baromètre de Torricelli montre que la pression diminue avec l’altitude. Les premières mesures sont faites au Puy de Dôme par Perrier sur les indications de Pascal. Cette pression est due au poids de l’air qui surmonte la Terre. Elle est illustrée par l’expérience des hémisphères de Magdeburg et la construction de pompes à vide. La compression des gaz est étudiée par Mariotte, et la vitesse du son dans l’air est mesurée par Mersenne en 1635. Enfin deux expériences riches d’avenir : le magnétisme de la Terre est assimilable à celui d’un aimant, et la réalisation par Otto von Guericke de la première machine électrostatique.

            La lumière et l’optique. Contrairement à Aristote qui pensait que la vision part de l’œil et se réfléchit sur les objets, l’expérience montre que c’est la lumière d’une source qui les éclaire et qu’ils les renvoient dans l’œil, mais la controverse sur la nature de la lumière commence et durera jusqu’au XXème siècle. Onde selon Huygens et Descartes ou corpuscule pour Newton, les lois de la réflexion et de la réfraction sont établies par Snell et Descartes.

            Aristote, encore lui, croyait que la lumière blanche est pure, contrairement aux lumières colorées. Newton, par des jeux de prismes, démontra au contraire que la lumière blanche est un mélange de lumières colorées, les couleurs de l’arc en ciel, du rouge au violet. Pour des raisons mystiques, il considérait qu’il existe sept couleurs. En réalité, le spectre de la lumière blanche du Soleil est continu. Un autre phénomène, la diffraction de la lumière, semblait indiquer, contrairement à l’opinion de Newton, que la lumière était un phénomène vibratoire. Enfin, Römer montra en 1676, grâce à l’observation des satellites de Jupiter, que la lumière a une vitesse très grande mais non infinie.

La   chimie. C’est encore une science empirique mal dégagée de l’alchimie, et pour laquelle on ne possède encore aucune interprétation cohérente. On sait que l’air est indispensable à la combustion et à la respiration ; c’est , avec la terre, l’eau et le feu, l’un des quatre éléments d’Aristote. On sait aussi dès 1631 que les métaux, en s’altérant à l’air, gagnent du poids. En 1640, on soupçonne qu’il existe d’autres gaz que l’air. En 1663, Brandt obtient le phosphore, et en 1697 Stahl imagine la théorie du phlogistique qui va aiguiller la chimie sur une fausse piste pendant près d’un siècle.

            La vie. Aristote, qui n’a manqué aucune occasion de se tromper par excès d’assurance, pensait que le cœur est le siège des émotions et de la pensée, et le cerveau un simple radiateur pour éliminer l’excès de chaleur. Les médecins du début du siècle croyaient avec Galien que le sang a sa source dans le cœur ou le foie et se répand ensuite dans tout le corps sans aucun retour. On pouvait leur objecter qu’il devait alors être produit et consommé constamment en grande quantité . En 1628, Harvey montra qu’en réalité le sang circule en permanence dans tout le corps et revient au cœur par les veines dont les valvules empêchent tout retour en arrière. Douze ans après la mort de Harvey on explique la différence de couleur entre le sang artériel et le sang veineux par le passage au contact de l’air dans les poumons.

            L’emploi du microscope par Leeuwenhoek (1632-1723) ouvre la voie à la structure submillimétrique du vivant. On sait déjà faire des microscopes à deux lentilles, l’objectif et l’oculaire, mais leurs performances sont encore médiocres à cause des aberrations chromatiques, et on préfère utiliser une seule lentille à fort grossissement. On découvre ainsi la cellule vivante et son noyau, les globules rouges et les spermatozoïdes.

 

Le XVIIème siècle est le premier siècle scientifique. Ses acquis peuvent nous paraître encore modestes en comparaison des suivants, mais dans tous les domaines il a amorcé les découvertes à venir, en substituant aux mythes et à l’autorité des Anciens la méthode expérimentale qui seule permet de trancher entre des théories conçues arbitrairement et la réalité des faits. Quelle portée ont eu ces résultats sur les contemporains ? Le siècle s’intéressait beaucoup plus aux lettres, aux arts, aux évènements historiques et aux disputes religieuses qu’à des sciences qui n’avaient pas encore de répercussions sur l’existence, mais qui marquaient une ouverture d’esprit : Pascal, s’adressant au Pape, reconnaît son autorité en matière de foi, mais non de faits, car il n’a pas le pouvoir d’empêcher la terre de tourner, et lui avec elle.

Dans les conversations de salon, il arrive aussi qu’on discute de sciences ; Descartes est à la mode, et si Molière met en scène des Femmes Savantes qui papotent sur les atomes et sur le vide, c’est qu’il y avait aussi des gens plus sérieux qui s’y intéressaient.

                                   Le XVIIIème siècle.

         L’astronomie . En 1706, Halley établit que les comètes décrivent des orbites elliptiques très allongées autour du Soleil, et reviennent donc périodiquement au voisinage de la Terre. En 1718, il observe le mouvement propre des étoiles, qui n’occupent donc pas des positions rigoureusement fixes les unes auprès des autres.

            Newton avait prédit que, du fait de sa rotation, la Terre devait être légèrement aplatie aux pôles. Cet avis étant contesté, l’Académie des Sciences en France décide d’envoyer deux expéditions , l’une en Laponie, au plus près du pole nord, dirigée par Maupertuis, l’autre au Pérou, alors colonie espagnole, sous la direction de Godin, Bouguer et La Condamine. La comparaison de la longueur des arcs de méridiens de ces sites et en Europe devait permettre de trancher. Les mesures étaient réalisées par triangulation. L’expédition de Maupertuis atteint son but rapidement ; il n’en est pas de même en Equateur qui pendant plusieurs années rencontre d’énormes difficultés. Finalement, tous les résultats concordent et justifient les prévisions de Newton.

En 1773, on parvint à mesurer la distance des planètes, et Herschel découvre Uranus en 1783. L’existence des aérolithes, des pierres tombées du ciel, est confirmée en 1794, et en 1796 Laplace avance sa théorie de formation du système solaire à partir d’un nuage de gaz et de poussières en rotation, qui a été largement confirmée par la suite.

La physique .La mesure des températures devient une pratique courante avec le thermomètre à mercure. Deux échelles thermométriques sont proposées : celle de Fahrenheit en 1715, et celle de Celsius en 1742. A partir de 1783, la théorie des réseaux cristallins explique les propriétés des cristaux, mais les résultats les plus marquants au cours du siècle concernent l’électricité statique, prélude aux découvertes du siècle suivant. On connaissait depuis l’antiquité l’électricité statique : un bâton d’ambre jaune ( elektron) frotté attire de petits débris, mais ce n’était qu’une curiosité sans conséquence. Au XVIIIème siècle, on commence à s’interroger, et on constate qu’il existe deux sortes d’électricité : l’électricité vitreuse (+) par frottement du verre et l’électricité résineuse (-) avec l’ambre ; de même signe, les charges se repoussent ; de signe contraire, elles s’attirent. On constate aussi que des matériaux dits isolants comme le verre conservent les charges, alors que des conducteurs comme les métaux leur permettent de s’écouler. Parmi les premiers instruments utilisés, on peut citer l’électroscope à feuilles d’or qui détecte les charges et la bouteille de Leyde, ancêtre des condensateurs, qui permet de les stocker.

            Franklin montre, non sans prendre de gros risques, que la foudre est un phénomène électrique résultant de la décharge des nuages entre eux ou vers la terre. Il invente le paratonnerre qui canalise ces charges et protège les édifices. Enfin, Coulomb, au moyen du pendule de torsion, fait des mesures et démontre qu’attraction et répulsion entre charges suivent des lois analogues à celles de l’attraction universelle de Newton : les forces électriques sont inversement proportionnelles au carré des distances. Son nom sera donné à l’unité de charge électrique, mais il faudra attendre le début du XIXème siècle pour savoir produire un courant électrique continu et en exploiter les applications, et celui du XXème pour en connaître le responsable, l’électron.

La chimie. Dans la première moitié du siècle, on découvre des substances nouvelles : l’acide borique, le bleu de Prusse, l’acide formique, l’alumine, la magnésie, et des métaux : le cobalt, le nickel et le platine, mais la chimie reste une pratique empirique, d’autant qu’elle s’appuie sur deux notions aberrantes, les quatre éléments d’Aristote et le phlogistique. Dans la seconde moitié, d’autres composants vont jouer un rôle décisif, les gaz, ou gas, du grec caos, mot inventé au siècle précédent. Dès cette époque, on connaissait le gaz carbonique sous le nom d’air fixe, et on avait observé que contrairement à l’air ordinaire il n’entretient pas le respiration et la combustion et qu’il est absorbé par la chaux, d’où son nom, Identifié plus précisément en 1755, il peut être obtenu par action d’un acide sur le calcaire ou par combustion du charbon. Peu après d’autres gaz sont découverts : l’hydrogène par Cavendish en 1766, appelé air inflammable,  l’azote par Rutherford en 1772 nommé air phlogistiqué et l’oxygène, air vital ou déphlogistiqué par Priestley en 1774. En 1784, Cavendish montre que la combustion de l’hydrogène donne de l’eau, mais tente de l’expliquer par l’intervention du phlogistique, ce qui n’aboutit qu’à une interprétation confuse . C’est l’intervention de Lavoisier qui permet enfin de clarifier la situation . En 1777, il montre que l’air est un mélange d’oxygène et d’azote, que l’oxygène s’unit aux métaux pour former des oxydes, et en 1787 que l’eau n’est pas un élément mais une combinaison d’oxygène et d’hydrogène. Les véritables éléments sont donc l’oxygène, l’azote et l’hydrogène, ainsi que le carbone et les métaux. Dans les dernières années du siècle, on découvre de nouveaux métaux dont le titane, et le chrome.

            Le système métrique. Le besoin s’en faisait sentir depuis longtemps, mais      l’Ancien Régime  s’était heurté à une telle inertie qu’il n’était pas parvenu à unifier les poids et mesures. En 1790 ; Talleyrand fait adopter par la Constituante l’unité fondamentale, le mètre, et en 1795 la Convention crée le système métrique . Le mètre est défini comme la dix millionième partie du quart du méridien terrestre. Ne se satisfaisant pas des résultats obtenus au début du siècle par Maupertuis en Laponie, Bouguer, Godin et la Condamine au Pérou, on charge Delambre et Méchain  de nouvelles mesures du nord de la France à l’Espagne. En 1840, le système devient seul légal et obligatoire.

            La vie. Dès le XVIIème siècle,  grâce au microscope, on connaissait la cellule vivante et les êtres unicellulaires. En 1737, Swammerdam étudie les métamorphoses des insectes. En 1752, Réaumur montre le rôle du suc gastrique dans la digestion des protéines. En 1777, Spallanzani réalise la fécondation artificielle des œufs de grenouille, et en 1779 on reconnaît la synthèse chlorophyllienne, le dégagement d’oxygène par les plantes et son rôle dans la respiration. A ces découvertes s’ajoutent la nature électrique de l’influx nerveux et le rôle du cerveau dans la conscience. En 1796, Jenner découvre la vaccination et on comprend l’effet de l’hyperglycémie dans le diabète. Il faut aussi citer deux grands noms : Buffon et son Histoire Naturelle, et Linné, fondateur de la nomenclature moderne.

            Si le siècle précédent avait  malheureusement imaginé le phlogistique, source de confusion et de retard dans le progrès, celui-ci avec Hahnemann invente l’homéopathie dont l’absurdité n’a toujours pas découragé les partisans . Le phlogistique n’intéressait que des chimistes et n’a pas survécu à Lavoisier ; L’homéopathie qui touche à la santé, séduit encore un public trop crédule.

Dans un siècle où les sciences ne concernent encore qu’un petit nombre d’universitaires et d’amateurs et n’ont pas encore d’applications pratiques notables, tout se prépare pour une épopée qui va commencer dans les premières années du siècle suivant. Si les sciences de la vie sont encore seulement descriptives et empiriques, la physique et la chimie sont maintenant établies sur des bases solides. Plus important encore, le Siècle des Lumières rompt avec les traditions de respect aveugle des Anciens, éveille l’esprit critique et l’espoir du progrès des connaissances.

                                        Le XIXème siècle

La physique

            Les gaz et la thermodynamique. Les gaz sont un état de la matière qui intéresse autant physiciens et chimistes. Leur étude est à l’origine de la création d’une science entièrement nouvelle : la thermodynamique, abstraite, ayant pour langage les mathématiques, mais créée aussi pour interpréter le fonctionnement des machines à vapeur. Les gaz sont compressibles et dilatables ; pression et volume dépendent de la température :

                                               P V = n R T

P : pression ; V : volume ; : nombre de molécules ; R : constante des                      gaz parfaits (R vaut environ 8 joules); T : température absolue en degrés K                       (0° K = – 273° C).

Une molécule-gramme ou mole d’un gaz, quel qu’il soit, occupe un volume de 22,4 litres sous 1 bar et à 0°C. Elle renferme en réalité N = 6,02. 1023 molécules élémentaires.

Les gaz sont solubles dans les liquides ; la solubilité dépend de leur nature, de celle du solvant, de la pression et de la température. Ils sont liquéfiables et solidifiables. On a d’abord liquéfié les plus faciles : gaz sulfureux, gaz carbonique, ammoniac. D’autres, considérés un temps comme gaz permanents ont finalement été liquéfiés, l’oxygène en 1883, l’hydrogène en 1892.

Il existe pour chaque gaz une température et une pression critiques au delà desquelles il n’y a plus de frontière entre gaz et liquide. On a alors un fluide de densité proche de celle d’un liquide, mais qui occupe tout le volume disponible comme un gaz.

Au cours du siècle une grandeur fondamentale s’est imposée, l’énergie, d’abord mécanique, travail nécessaire pour soulever une masse, mais aussi énergie électrique,  thermique et chimique. Toutes ces énergies peuvent se transformer les unes dans les autres, mais au total on ne peut ni en créer ni en détruire. On peut ainsi transformer de l’énergie mécanique en énergie électrique et réciproquement. Seule la chaleur ne peut être transformée  intégralement en une autre forme d’énergie ; une partie reste obligatoirement à l’état de chaleur, c’est une forme d’énergie dégradée. Les machines à vapeur, les centrales thermiques, rejettent à l’extérieur une partie de la chaleur produite. On a rendu compte de cette particularité au moyen d’une notion nouvelle, l’entropie :

S = Q / T

S : entropie ; Q : chaleur ; T : température absolue en °K.

Contrairement à l’énergie, l’entropie peut être créée mais ne peut être détruite. On en crée en particulier quand on transforme une autre énergie en chaleur, et on ne peut s’en débarrasser qu’en la cédant à l’extérieur. On peut aussi la considérer comme une mesure du désordre. Un gaz est un milieu désordonné où les molécules s’agitent en tous sens et avec des vitesses variables croissant avec la température. L’énergie d’un gaz est de l’énergie cinétique liée à la vitesse moyenne des molécules :

1 / 2 m v2 = 3 / 2. R / N. T

m : masse des molécules ; v: leur vitesse moyenne ; R : constante des gaz parfaits ; N : nombre d’Avogadro (  6,02 .1023 ) ; T : température absolue.

La chaleur n’est finalement que l’énergie d’agitation des molécules. Dans un liquide elles peuvent encore se déplacer  . Dans un solide, où elles sont liées, elles peuvent seulement vibrer. A 0°K, toute agitation cesse.

Une substance dissoute dans un solvant se comporte exactement comme un gaz et exerce une pression, la pression osmotique, qu’on peut observer en séparant le solvant pur et la solution par une membrane semi-perméable qui laisse passer le solvant mais pas le corps dissous. Une dénivellation correspondant à cette pression apparaît. Inversement, en exerçant une pression sur la solution, on force le solvant à passer tout en arrêtant la matière dissoute. C’est l’osmose inverse, qui permet en particulier de dessaler l’eau de mer.

 

La lumière.  Après Newton, le XVIIIème siècle n’avait pas apporté de découvertes fondamentales en optique. On savait que la lumière blanche était un mélange de lumières colorées du rouge au violet. On découvre par la suite qu’au delà du spectre visible il existe d’autres rayonnements invisibles mais que des instruments peuvent déceler : l’infra rouge et l’ultra violet, puis plus tard les rayons X en 1895.

            La nature de la lumière avait été un sujet de discussions : était-elle constituée d’ondes ou de particules ? Comme elle donne lieu au phénomène d’interférences, la question paraît tranchée : c’est une onde, c’est à dire un phénomène vibratoire qui se propage à grande vitesse. Une première approximation de sa vitesse est obtenue en 1849. Cette vibration se fait-elle parallèlement à sa propagation ou perpendiculairement ? La découverte de la polarisation, qui lui impose de vibrer dans une seule direction, ne s’explique que si la vibration est perpendiculaire à la propagation. En 1815, Biot montre que certaines substances organiques comme les sucres possèdent un pouvoir rotatoire et en  font tourner le sens.

Il restait à déterminer la nature de cette vibration . Maxwell en 1865 établit que c’est un phénomène électromagnétique : un champ électrique et un champ magnétique s’entretiennent mutuellement, perpendiculaires entre eux et à la direction de la propagation ; c’est au premier que notre œil est sensible.

Le spectre de la lumière émise par les atomes excités est constitué d’une série de raies spécifiques de chaque élément. C’est un moyen précieux  pour déceler leur présence, et les astronomes l’utilisent pour établir la composition chimique des corps célestes. Un autre phénomène, le rayonnement dit du corps noir, est de nature différente : un corps chaud émet un rayonnement dont le spectre continu présente un maximum lié à sa température. Pour expliquer le phénomène, Planck doit admettre que la lumière est émise par quantités discontinues les quanta, en contradiction apparente avec les conceptions qui avaient prévalu jusque là.

La lumière réservait une autre surprise aux physiciens : en 1887, Michelson et Morley tentent de mettre en évidence le mouvement de la Terre autour du Soleil. La lumière qui se propage dans la même direction que la Terre aurait du voir sa vitesse augmentée de celle de la Terre, par comparaison avec celle qui se dirige perpendiculairement, mais il n’en est rien .Ces deux surprises sont à l’origine d’une double révolution de la physique au début du XXème siècle .

Electricité et magnétisme ; radioactivité. Dès 1800, la pile de Volta fournit un courant électrique continu, bien différent de l’électricité statique, et dont les propriétés sont établies dans les années suivantes :

E = I . R

                        E : tension en volts ; I : intensité en ampères ; R :  résistance en ohms.

L’énergie électrique est transformée en chaleur W , exprimée en joules :

W = R I 2 t      t : temps en secondes

En 1820, Oersted observe qu’un courant électrique crée un champ magnétique qui dévie l’aiguille d’une boussole ce qui montre pour la première fois qu’électricité et magnétisme sont associés. L’interprétation est donnée par Ampère : si un courant électrique crée un champ magnétique, toute variation du champ magnétique crée un courant électrique dans un circuit conducteur ; c’est l’induction. De multiples applications en découlent : dynamo à courant continu, courant alternatif, moteur électrique, transformateurs, électroaimants, circuits oscillants. Une autre application du courant électrique, l ‘électrolyse, permet d’isoler des éléments encore inconnus comme le sodium. Elle est interprétée en 1833 par Faraday, puis plus tard par la théorie des ions : un électrolyte comme le chlorure de sodium se dissocie en solution en ions Na+ et Cl.

D’autres sources de courant électrique sont découvertes : l’effet thermoélectrique, la cellule photo voltaïque, la piézo électricité, créant de l’énergie électrique à partir respectivement de chaleur, de lumière et de pression mécanique.

En 1865, Maxwell établit sa théorie de l’électromagnétisme qui englobe la lumière dans les phénomènes électromagnétiques, et dès 1874 on prévoit que l’électricité est constituée de particules, les électrons, à la suite de la découverte des rayons cathodiques qui se propagent entre deux électrodes d’une cellule sous vide. En 1897, Thomson mesure le rapport  e \ m  entre la charge et la masse de l’électron. Entre temps, Hertz, s’inspirant de la théorie de Maxwell, montre qu’il existe des rayonnements électromagnétiques de longueur d’onde très supérieure à celle de la lumière, les ondes hertziennes à l’origine des télécommunications.

En 1896, Becquerel découvre un phénomène tout à fait inattendu : la radioactivité. En 1998 : Pierre et Marie Curie découvrent le polonium et le radium, et en 1899, on mesure la période des radioéléments.

 

L’astronomie.

            Les lois du mouvement des corps célestes sont connues depuis Newton, et les méthodes de calcul se perfectionnent. De nouvelles techniques apparaissent : la spectroscopie dès 1802 ; l’analyse spectrale en 1859, qui permet de connaître la composition des sources de lumière ; l’effet Doppler en 1868 permet de mesurer leur vitesse ; l’interférométrie, une technique d’avenir, en 1868 également , par Fizeau, dont la validité sera confirmée en 1889 par Michelson, mais qui ne se développera qu’un siècle plus tard. Les télescopes enfin se perfectionnent constamment.

En 1804, on constate, mais sans en avoir encore l’explication, que le spectre continu du Soleil comporte aussi de nombreuses raies noires. En 1840, on découvre la chromosphère, dont le spectre est établi en 1870. On observe la périodicité des taches solaires, et on comprend que le Soleil est une masse gazeuse. En 1868, on y détecte l’hélium encore inconnu sur terre.

La découverte la plus célèbre du siècle est celle de Neptune par Le Verrier, calculée à partir de l’observation des anomalies de l’orbite d’Uranus. En 1875, on découvre les satellites de Mars, mais aussi ses canaux dont l’existence ne sera démentie que bien plus tard. En 1873, Darwin suppose que la Lune serait d’origine terrestre, hypothèse qui sera reprise plus d’un siècle plus tard.

En 1838, Bessel commence à mesurer la distance des étoiles les plus proches par la méthode des parallaxes ; plus tard, on établit leur composition par spectroscopie. On observe des galaxies spirales, les nuages de Magellan , sans soupçonner encore qu’ils sont au delà de la Voie Lactée.

La chimie.

                        Les éléments. A la disparition de Lavoisier, on connaît une vingtaine d’éléments authentiques et quelques cas douteux qui seront résolus rapidement. L’électrolyse en particulier permet d’isoler les métaux alcalins et alcalino-terreux : lithium, sodium, potassium, calcium dès 1807. Suivent le bore(1809), l’iode( 1811), le silicium(1822), le brome(1826), l’aluminium(1827), le magnésium(1829), le fluor enfin en 1886, ainsi que de nombreux  métaux. En 1868, quand Mendéléiev propose sa classification, on en connaît une soixantaine, et on a constaté que quelques uns constituent des familles aux propriétés voisines. La classification est d’abord contestée, mais s’impose et s’explique par la suite. Les places encore manquantes sont remplies par la découvertes de nouveaux éléments, en particulier les gaz rares, et à la fin du siècle le tableau est presque complet.

            Les lois de la chimie.

Lavoisier a donné la bonne direction, mais après lui, tout reste à faire. Comment les éléments s’unissent-ils ? Dès 1806, on établit qu’ils se combinent toujours selon des proportions définies en masses, et aussi en volumes pour les gaz. Dalton en déduit en 1807 qu’ils doivent être constitués de particules, les atomes, qui s’assemblent en molécules. En 1811, Avogadro admet qu’un volume donné de gaz renferme le même nombre de molécules, quelle que soit leur masse. En effet, par exemple, un volume d’hydrogène s’unit à un même volume de chlore pour donner le même volume total d’acide chlorhydrique gazeux, tandis qu’un volume d’azote s’unit à trois volumes d’hydrogène pour donner deux volumes d’ammoniac, cette dernière réaction exigeant un catalyseur, notion apparue en1835. Il faudra attendre 1865 pour avoie une première valeur du nombre d’Avogadro : combien d’atomes dans un gramme d’hydrogène.

Une notion essentielle apparaît en 1853 : la valence, c’est le nombre de liaisons que peut établir un atome. Il est lié à sa place dans la classification périodique.

En 1887, Arrhénius propose l’idée qu’un électrolyte, un sel comme le chlorure de sodium est dissocié en ions Na+ et Cl en solution dans l’eau, idée qui choque d’abord, sachant que le sodium métallique réagit violemment sur l’eau, mais à l’état d’ion il est inerte.

 

La chimie organique

Elle est ainsi appelée à l’origine parce qu’on croit que les substances extraites de la matière vivante ne peuvent être formées que par les êtres vivants. Cependant, en 1828 Wohler obtient de façon imprévue de l’urée à partir de substances minérales. Cette chimie est en réalité celle du carbone, le seul élément capable de se lier à lui même pour former de longues chaînes, linéaires, ramifiées ou cycliques sur lesquelles se fixent d’autres éléments en particulier l’hydrogène, l’oxygène et l’azote. Dès 1823 ; Chevreul avait montré que les corps gras étaient formés de telles chaînes d’acides stéarique, palmitique ou oléiques combinés à la glycérine ou glycérol.

                               En 1830, Liebig effectue l’analyse des substances organiques en déterminant les proportions des éléments qui les constituent. On constate bientôt qu’il existe des molécules qui, ayant la même composition, diffèrent nettement par leurs propriétés, c’est l’isomérie, qui a pour cause la forme de ces molécules. Il existe plusieurs sortes d’isoméries dont l’une, étudiée en 1860 par Pasteur avec l’acide tartrique, l’isomérie optique. Il existe trois formes de cet acide, deux ayant des pouvoirs rotatoires opposés, la troisième un pouvoir nul. Les deux premières sont symétriques l’une de l’autre comme une main droite et une gauche, la troisième symétrique par elle même comme une chaise ou une cuillère. Ces notions, généralisées en 1874 par Lebel, montrent l’importance de l’arrangement géométrique des atomes dans la molécule. L’atome de carbone est tétravalent, c’est à dire qu’il doit se lier à quatre autres atomes, l’hydrogène monovalent, l’oxygène le plus souvent divalent et l’azote tri ou pentavalent.

Fixés sur le squelette carboné, les autres atomes apportent des propriétés et des fonctions nouvelles : l’oxygène les fonctions alcool, aldéhyde, cétone, acide, ester, éther; l’azote les fonctions amine, amide, nitrile. En 1865,  Kékulé montre que le benzène(ou benzine) est une molécule hexagonale plane qui possède des propriétés spécifiques qu’on retrouve également dans le naphtalène(ou naphtaline) . Ces propriétés sont la base d’une industrie naissante, celle des colorants. On utilisait beaucoup deux colorants extraits de plantes, la garance et l’indigotier . En 1856, un colorant artificiel, la mauvéine, avait été obtenu par hasard, mais le colorant de la garance, l’alizarine, est synthétisé en 1868 et l’indigo en 1880. De nombreuses molécules voisines sont obtenues ensuite, mais pour diriger leur synthèse, il faut connaître exactement la disposition des atomes dans ces molécules. Or, une querelle qui a commencé au début du siècle et qui va durer une centaine d’années oppose les atomistes aux équivalentistes ; ces derniers considèrent la théorie atomique comme une fiction métaphysique et ne veulent tenir compte que de la composition globale des produits. Le résultat est que si l’industrie chimique prospère en Allemagne, elle reste en retard en France où les équivalentistes font la loi.

Berthelot, farouche ennemi des atomes, avait cependant le premier synthétisé des molécules simples, l’alcool, l’acide acétique et l’acétylène, mais la synthèse de molécules plus compliquées ne pouvait se faire sans tenir compte de leur architecture, et donc des atomes qui les constituent.

 

Géologie et paléontologie.

            Dès le début du siècle on réalise que la Terre n’a pas été créée telle qu’elle est aujourd’hui, qu’elle a une histoire qui ne se limite pas au Déluge, que cette histoire est inscrite dans les couches géologiques et qu’elle peut être déchiffrée. Les couches d’origine sédimentaires ont été déposées, enfouies, souvent plissées et charriées, puis érodées quand elles réapparaissent en surface. Elles alternent avec des roches éruptives, basalte et granite d’origine plus profonde. Dès 1814, Smith établit le principe de la chronologie géologique, et en 1840 Agassiz reconnaît l’existence de périodes glaciaires.

Les couches sédimentaires renferment aussi des fossiles. En 1821, Cuvier crée la paléontologie, Brongniart en 1828 étudie des végétaux fossiles et en 1879, Renault décrit la flore fossile de la houille . On trouve aussi les premiers hommes fossiles ; l’Homme de Neandertal est découvert en 1856, et se pose la question de son origine. Dès 1809, Lamarck propose sa théorie du transformisme, et Darwin en 1859 celle de la sélection naturelle. En 1891, Huxley met en évidence la parenté de l’Homme et des grands singes.

Le XIXème siècle a ainsi bouleversé les idées sur le Monde, la vie et l’Homme, et sur leur origine., en dépit des protestations violentes des esprits traditionalistes.

La vie.

            La connaissance de la cellule se précise. On y distingue le noyau et le cytoplasme. En 1882, on observe les chromosomes, et leur séparation au cours de la méiose, quand la cellule se divise pour donner deux cellules nouvelles. En 1886, on constate que des mutations peuvent se produire, et en 1897 Ramon y Cajal décrit les neurones dans le cerveau.

Claude Bernard fonde la physiologie expérimentale et révèle en 1851 la fonction glycogénique du foie, c’est à dire la synthèse du glucose chez un chien nourri exclusivement de protéines.

En 1855, Boussingault montre que les végétaux se nourrissent uniquement de matières minérales, sels divers et gaz carboniques, qu’ils produisent de la matière organique grâce à la synthèse chlorophyllienne, dont la source d’énergie est la lumière, et qui libère de l’oxygène.

A partir de 1862, Pasteur étudie les fermentations et montre qu’elles sont dues à des microorganismes. A cette occasion il prouve qu’il n’y a pas de générations spontanées : un milieu fermentescible exempt de germes reste inaltéré. Ces résultats l ‘amènent ensuite à l’étude des maladies infectieuses et à la découverte des vaccins, celui de la rage en particulier en 1885.

 

Dans tous les domaines de la science, un siècle novateur et riche de découvertes prépare le suivant qui portera les connaissances encore bien au delà, ce qui permettra des réalisations concrètes encore inimaginées.

 

              Le XXème siècle.

         Les connaissances se sont considérablement enrichies au cours du siècle qui s’achève. Les siècles précédents, le XIXème en particulier, avaient préparé la voie, et le XXème a poursuivi , en perfectionnant les instruments et les techniques, en développant les savoirs déjà acquis, mais il a surtout vu apparaître des idées et des faits complètement imprévus qui ont bouleversé les opinions sur le monde physique et sur la vie.

Comment ces changements sont ils perçus et compris par les scientifiques eux mêmes et par tous ceux, plus ou moins cultivés, dont les préoccupations scientifiques ne sont pas le métier?

L’héritage des siècles précédents.

On peut situer l’origine de la méthode expérimentale au début du XVIIème siècle avec Kepler et Galilée. Elle s’est peu à peu précisée au cours du XVIIIème qui a commencé à se débarrasser des mythes et des dogmes pour ne retenir que les faits observables, mais c’est au XIXème que la pratique des sciences est devenue une profession, avec une exigence de rigueur qu’on ne trouvait pas toujours précédemment.

L’astronomie, pratiquée depuis des millénaires, a consacré la mécanique de Newton avec la découverte de Neptune, calculée par Le Verrier avant d’être observée à l’endroit prévu. Limitée longtemps à l’observation et à la prévision du mouvement des astres, elle a commencé à s’intéresser à leur nature, ce qu’Auguste Comte avait présomptueusement jugé impossible; l’analyse de la lumière émise par le soleil et les étoiles a montré qu’ils sont composés des mêmes éléments que la Terre.

Cependant, à la fin du XIXème siècle, on ignorait toujours la source d’énergie des étoiles, ainsi que leur âge. On avait reconnu que la Voie Lactée était un immense ensemble d’étoiles dont le soleil faisait partie, mais on n’imaginait rien au delà, et on considérait l’Univers comme immuable et éternel. Dans le système solaire, on connaissait la plupart des planètes et quelques uns de leurs satellites, mais on ne savait à peu près rien de leur nature et de celle des comètes, et on avait découvert avec surprise que des météorites pouvaient tomber du ciel.

La Terre elle même n’était connue que superficiellement. La géologie consistait principalement à reconnaître et à classer les différentes roches qui la constituent et à dresser des cartes de leur répartition, mais les phénomènes d’origine interne: séismes, volcanisme, formation des reliefs, origine des plissements, étaient mal compris, et on ne disposait pas de méthodes de datation absolues.

La plupart des physiciens de leur côté pensaient que leur science était pratiquement achevée: mécanique, thermodynamique, acoustique, optique, électricité et magnétisme, tout s’interprétait mathématiquement de façon très satisfaisante. Maxwell avait même réussi à unifier l’optique, l’électricité et le magnétisme en une synthèse cohérente confirmée par les résultats de Hertz qui découvrait les ondes radio, conséquence de la théorie électromagnétique du rayonnement. Les rayons X, découverts en 1895, rentraient également dans ce cadre.

Seuls quelques faits isolés restaient inexpliqués: le rayonnement du corps noir, le spectre discontinu de la lumière émise par les éléments, l’effet photoélectrique, la radioactivité, le résultat négatif de l’expérience de Michelson. Ils semblaient devoir être compris sous peu, et ils l’ont été en effet, mais au prix d’un bouleversement et d’un renouvellement complet de la physique.

La chimie aussi a beaucoup progressé au cours du XIXème siècle. A la fin du XVIIIème, Lavoisier avait transformé une pratique empirique en une science cohérente: la variété illimitée des substances matérielles est constituée par combinaison d’un nombre limité d’éléments indestructibles: hydrogène, carbone, azote, oxygène, soufre, métaux…Les 4 éléments des philosophes ne sont pas des éléments, mais des mélanges ou des combinaisons. La chimie minérale concerne les combinaisons de ces éléments.

On l’a distinguée au départ de la chimie organique, celle de la matière vivante, composée des mêmes éléments, mais on s’est rendu compte assez tôt qu’elle diffère en fait non par son origine biologique, mais par les propriétés du carbone qui permet d’obtenir une variété illimitée de combinaisons impossibles avec les autres éléments.

Dès le début du siècle, on avait envisagé que les éléments pouvaient être constitués d’atomes, particules insécables, indestructibles, capables de  se lier les uns aux autres, car les combinaisons se font selon des proportions définies. Au cours du siècle, on avait analysé de nombreuses substances d’origine biologique, et on en avait synthétisé aussi qu’on ne trouve pas dans la nature, mais l’idée d’atomes était farouchement combattue par des physiciens et des chimistes illustres comme Berthelot, qui les considéraient comme des élucubrations métaphysiques non scientifiques.

Cependant, d’autres chimistes comme Kekulé, Lebel, Vant Hoff, commençaient à imaginer que les combinaisons d’atomes, les molécules, constituaient des structures géométriques précises . Seules manquaient encore des méthodes d’investigation indiscutables. Mendéléiev de son côté proposait sa classification périodique des éléments basée sur le fait qu’on peut les grouper en familles dont les propriétés sont proches, et dont les bases théoriques devaient apparaître plus tard.

Les sciences de la vie ne se limitaient plus à la description et à la classification des espèces. Pasteur avait montré le rôle des microorganismes dans les fermentations et les maladies, et la physiologie avec Claude Bernard, expliquait le fonctionnement des différents organes des pluricellulaires, mais les mécanismes de la cellule vivante restaient totalement inconnus.

La génétique, esquissée par Mendel puis par de Vries, interprétait la transmission de certains caractères de génération en génération et admettait l’existence de gènes sans en connaître la nature. L’évolution des espèces, esquissée par Lamarck et précisée par Darwin permettait de concevoir une filiation de tous les êtres vivants depuis les plus primitifs jusqu’aux espèces actuelles les plus évolués. Elle s’appuyait à la fois sur la comparaison des espèces présentes et sur leur confrontation avec les fossiles de la paléontologie.

Si la sélection naturelle expliquait le tri entre des espèces plus ou moins bien adaptées à leur milieu, et ne pouvait plus considérer l’Homme comme une création à part, elle ne donnait pas la cause des mutations aléatoires qui font passer d’une espèce à l’autre. Pasteur avait démontré, non sans peine, qu’il n’existait pas de générations spontanées, et l’origine de la vie restait inexplicable.

Toutes les connaissances acquises au XIXème siècle et encore souvent mal consolidées n’allaient pas sans contestations et sans l’opposition farouche des partisans des croyances traditionnelles: l’existence des atomes et surtout l’origine animale de l’Homme étaient jugées scandaleuses. D’autres croyances anciennes comme l’astrologie étaient au contraire complètement discréditées, et les progrès de la physique dans son ensemble ne provoquaient pas de rejet mais n’étaient pas toujours bien compris: par abus de langage, on parlait de magnétisme animal, notion équivoque sans base expérimentale mais encore en usage, qui n’a rien à voir avec le magnétisme des physiciens, ni avec la sensibilité de certains animaux au champ magnétisme terrestre.

Comment le XIXème siècle finissant voyait le siècle à venir.

            Le bilan des connaissances acquises, considérable, était vu avec beaucoup d’optimisme. La confiance dans les sciences , la foi dans le progrès, pouvaient même être excessifs avec les délires du scientisme présenté comme la religion de l’avenir. On prévoyait évidemment que le progrès allait se poursuivre: progrès des connaissances, des techniques et des applications. L’œuvre de Jules Verne montre ce qu’on en attendait: exploration des pôles, du centre de la Terre, des continents encore mal connus, véhicules mécaniques, sous-marins, machines volantes, voyage dans la Lune, applications de l’électricité. Les sciences de la vie avaient beaucoup moins excité l’imagination de l’auteur, qui a pourtant consacré des pages à la description d’espèces marines. S’il a cru pressentir, à tort, l’homme invisible, il n’a pas prévu que le vivant pourrait être l’objet de manipulations génétiques.

En conclusion, le XIXème siècle finissant n’a prévu que l’extrapolation des connaissances du moment et ne pouvait imaginer les bouleversements pourtant déjà amorcés. . Siècle de paix relative en Europe après les guerres de Napoléon, et malgré celle, brève de 1970, et l’exacerbation des nationalismes, les pays avancés avaient bonne conscience après l’abolition de l’esclavage et considéraient le colonialisme comme une œuvre charitable apportant aux peuples sauvages les bienfaits de la civilisation et du progrès.

 

Le XXème siècle; première partie (1900-1939).

Les premiers bouleversements ont concerné la physique. Dans les dernières années du XIXème siècle, Michelson avait tenté de mettre en évidence le mouvement de la Terre autour du Soleil en comparant la vitesse de la lumière dans le sens de son déplacement et dans la direction perpendiculaire. Si la vitesse de la Terre s’était ajoutée à celle de la lumière, une différence serait apparue entre les deux, mais il n’en fût rien, et il fallut en conclure que, contrairement à celle des  objets matériels, la vitesse de la lumière est indépendante de celles de la source et de l’observateur. Ce résultat était contraire à la mécanique de Newton, mais implicitement contenu dans la théorie électromagnétique de Maxwell. Lorentz et Poincaré en avaient approché l’interprétation, mais c’est Einstein qui en a tiré toutes les conséquences dans la théorie de la Relativité restreinte: le temps et l’espace apparaissent différents pour des observateurs qui se déplacent à vitesse constante les uns par rapport aux autres, et la masse aussi est une forme d’énergie (E = m C2 ). La Relativité générale étend la théorie aux mouvements accélérés et à la gravité: les masses déforment l’espace et courbent les rayons lumineux.

Une série d’autres faits allait donner naissance à la physique quantique, et d’abord le rayonnement dit du corps noir: tout objet, incandescent ou non, émet un spectre continu de rayonnement électromagnétique dépendant de sa température. S’il est suffisamment chaud, il émet de la lumière visible; au dessous il émet de l’infrarouge, mais la physique classique ne pouvait expliquer la répartition des longueurs d’onde émises. Planck dût admettre pour l’interpréter que les échanges entre la matière et le rayonnement se font par quantités discontinues, des paquets d’énergie, les quanta. Une confirmation plus frappante concerne l’émission et l’absorption de la lumière par les atomes: chaque élément émet une série de raies discontinues de longueurs d’ondes spécifiques, et non un spectre continu. L’explication en a été donnée par Bohr: les électrons d’un atome ne peuvent se trouver qu’à des niveaux d’énergie discontinus caractéristiques de l’élément. Si l’électron reçoit une quantité convenable d’énergie, il saute à un niveau supérieur. Il restitue ensuite cette énergie en émettant un photon d’énergie correspondant à la différence des deux niveaux.

Einstein a interprété également l’effet photoélectrique: certains métaux émettent des électrons lorsqu’ils absorbent de la lumière, mais il existe un seuil au dessous duquel rien n’est émis, quelle que soit l’intensité de la lumière: les photons de lumière doivent avoir une énergie minimale suffisante, donc une longueur d’onde suffisamment petite, pour arracher un électron au métal. :

E = h n

ou  E est l’énergie, h la constante de Planck et n la fréquence de la lumière, c’est à dire le nombre d’oscillations par seconde.

Les développements de la physique quantique ont expliqué le comportement intime de la matière et des rayonnements, mais aussi bouleversé les idées  traditionnelles. Ils ont interprété la structure et  les propriétés des atomes, formés d’un nuage d’électrons autour d’un noyau beaucoup plus petit mais très dense constitué lui même de protons et de neutrons, mais toutes ces particules ne peuvent être considérés comme de petites billes solides. Ainsi que les photons, elles se comportent comme des ondes non localisées quand elles se déplacent, mais comme des paquets d’énergie localisés quand elles interagissent.

La lumière visible elle même ne représente qu’une zone étroite du spectre électromagnétique, allant des ultraviolets aux rayons X et g vers les petites longueurs d’onde, et de l’infrarouge aux ondes radio vers les grandes longueurs d’onde.

La radioactivité, découverte par Becquerel en 1897, étudiée par les Curie, est due à l’instabilité de certains noyaux atomiques comme l’uranium ou le radium, qui se manifeste par l’expulsion de particules et de rayonnement. En 1939, on a commencé à entrevoir la possibilité de provoquer une décomposition explosive de ces noyaux, libérant une énergie énorme, très supérieure à celle des explosifs chimiques.

La chimie a profité des progrès de la physique. Dès le début du siècle, celle-ci a, par diverses méthodes indépendantes, mis en évidence l’existence des atomes par la détermination du nombre d’Avogadro: combien y a-t-il d’atomes dans un gramme d’hydrogène? Toutes les mesures convergent vers la même valeur:

 

N = 6,02 . 1023

 

La notion d’atome devient la clef de la chimie, et la classification de Mendéléiev s’explique par leur structure électronique, liée elle même à la constitution des noyaux, et les atomes s’associent en molécules ou en cristaux selon des structures géométriques définies. Les réactions chimiques consistent à casser ou créer des liaisons entre eux. Ces structures et ces réactions rendent compte des propriétés de toutes les substances, naturelles ou synthétiques.

Si les atomes et les molécules sont électriquement neutres, il peut se faire des cassures donnant des fragments positifs ou négatifs, les ions, dont les propriétés sont complètement différentes. Ainsi, le sel ordinaire ou chlorure de sodium dissous dans l’eau est constitué d’ions chlore négatifs et d’ions sodium positifs qui cohabitent paisiblement, alors que le chlore et le sodium sont des éléments très réactifs qui agissent très violemment l’un sur l’autre.

Un peu plus tard, Staudinger a montré qu’il peut exister des molécules géantes formées de centaines de milliers d’atomes, les polymères, comme la cellulose , les protéines et les polymères, constituants des  matières plastiques, des fibres textiles et des élastomères synthétiques actuels.

En astronomie, la découverte essentielle est due à Hubble qui montre qu’au delà de notre galaxie, la Voie Lactée, existent des milliards d’autres galaxies, et que l’ensemble de l’univers n’est pas immuable mais en expansion, toutes les galaxies s’éloignant les unes des autres d’autant plus vite qu’elles sont plus éloignées.

La connaissance de la Terre s’approfondit: on découvre sa structure interne, son noyau, et Wegener imagine la dérive des continents sans en connaître encore le mécanisme, idée qui sera vivement combattue à l’époque par la plupart des géologues.

Le bilan scientifique du demi-siècle s’accompagne d’un développement important des techniques: la production et la distribution de l’électricité, d’abord utilisée surtout pour l’éclairage. Les transports sont révolutionnés par l’apparition des moteurs à combustion interne, les débuts de l’électrification des chemins de fer. L’aviation, les sous-marins, la navigation à vapeur s’imposent. Les télécommunications se développent: le téléphone, la radio, détrônent progressivement le télégraphe. La matière première principale de l’industrie et de l’énergie reste le charbon, mais le pétrole commence à prendre une place importante avec le développement de l’automobile.

L’attitude du public face aux sciences et aux techniques reste la confiance dans le progrès, bien que l’amélioration du confort reste limitée et les progrès de la médecine encore modestes après les travaux de Pasteur. Si l’ensemble du public s’intéresse au développement des techniques qui se mettent à sa portée, seule une petite minorité est consciente de l’importance des acquis des sciences fondamentales.

La cassure de la guerre de 1939-1945.

La guerre oblige à développer dans l’urgence des techniques d’applications militaires et ne favorise qu’indirectement le progrès des connaissances. On voit apparaître avec le Radar des sources d’ondes radio centimétriques et leurs détecteurs, ainsi que des appareils de transmission  sans fil. A la mélinite de la guerre de 1914-1918 succèdent le TNT et d’autres explosifs mieux adaptés. Les premiers avions à réaction apparaissent. Un textile nouveau, le Nylon, utilisé pour les parachutes est la première fibre synthétique créée par l’industrie. Pour les soins aux blessés, la pénicilline permet enfin que les combattants meurent moins de maladies que du fait des armes.

Enfin, la fission de l’uranium et du plutonium, tout juste découverte, et mise au point avec d’énormes moyens, aboutit à la bombe atomique qui voit la fin des hostilités.

La guerre terminée, les Etats-Unis, qui ont attiré une part importante de la compétence européenne, sont florissants. Leur industrie a fait un effort considérable et s’apprête à se reconvertir pour la paix, tandis que l’Europe est complètement ruinée.

Partout on se préoccupe de reconstruire, de retrouver la prospérité, et tous aspirent à un confort jusque là peu répandu. L’industrie rénovée va y parvenir: électroménager, sanitaire, chauffage, transports, matériaux nouveaux vont y contribuer, et l’agriculture va devoir se moderniser pour mettre fin à la pénurie.

Cette frénésie de croissance ne va pas sans un début de réticence envers les sciences: les moyens de destruction accrus font pressentir que les nouvelles techniques peuvent être plus dangereuses que profitables. Plus tard, les soucis de l’environnement vont aggraver cette tendance, mais une autre cause de désaffection se précise: les connaissances, les techniques deviennent de plus en plus touffues, plus compliquées, leur compréhension plus difficile malgré la généralisation d’un enseignement souvent trop scolaire et abstrait. Ce qu’on ne comprend pas inquiète.

La seconde moitié du XXème siècle.

            Ces cinquante années ont apporté beaucoup plus de connaissances nouvelles et imprévues que tous les siècles qui les ont précédées, grâce à des chercheurs de plus en plus nombreux, des moyens de plus en plus importants et des techniques de plus en plus puissantes.

L’astronomie ne se contente plus d’observations en lumière visible: tout le spectre électromagnétique, des rayons X et g à l’infrarouge et aux ondes radio, toutes les particules venant de l’espace: électrons, rayons cosmiques, neutrinos, sont détectés, souvent grâce à des engins hors de l’atmosphère terrestre: satellites et sondes spatiales.

A terre,  la lumière visible est captée par des télescopes de plus en plus puissants, de plus en plus nombreux. Des détecteurs de lumière extrêmement sensibles, des techniques de correction de la turbulence atmosphérique, et plus récemment des associations de télescopes couplés permettent d’améliorer considérablement les performances. La radioastronomie, à terre également, utilise des radiotélescopes de grandes dimensions.

Les résultats justifient ces énormes déploiements de moyens. L’univers est scruté jusqu’à ses extrêmes limites, soit plus de dix milliards d’années lumière. On découvre qu’il est peuplé de centaines de milliards de galaxies groupées en amas et en superamas séparés par d’immenses bulles vides. Il arrive que des galaxies fusionnent, se déforment. Certaines parmi les plus lointaines possèdent en leur centre un quasar, beaucoup plus lumineux à lui seul que toute une galaxie, et siège d’évènements cataclysmiques.

Les centaines de milliards d’étoiles qui constituent chaque galaxie ont des masses et des durées de vie très variables. Toutes ont pour source d’énergie principale la fusion de l’hydrogène en hélium. Les plus petites ont la durée de vie la plus longue, car elles ménagent leur combustible. Des étoiles moyennes comme le Soleil peuvent fonctionner environ dix milliards d’années, et finissent leur vie en géante rouge, puis en naine blanche. Les plus grosses ont une vie beaucoup plus brève qui se termine de façon beaucoup plus brutale: les supernovae. Elles produisent tous les éléments plus lourds que l’hélium et finissent, selon leur masse, en étoile à neutrons ou pulsars, très petits et très denses, ou en trous noirs dont rien, pas même la lumière, ne peut s’échapper.

L’exploration du système solaire, commencée avec les débarquements sur la Lune, a été poursuivie au moyen de sondes qui ont permis d’examiner de près les planètes et leurs satellites en passant à proximité ou en se satellisant autour de Mercure, Vénus, Mars et Jupiter. La surface des planètes solides est maintenant bien connue, et l’extrême diversité de ces astres est remarquable. Les uns sont brûlants, la plupart glacés. Seuls les plus gros possèdent une atmosphère, mais toujours différente de celle de la Terre. Jupiter, Saturne, Uranus et Neptune sont essentiellement des boules de gaz autour d’un noyau dense.

Le soleil lui même est constitué principalement d’hydrogène, et sa température varie de 6000°environ en surface à plus de 10 millions de degrés en son centre où se produit la fusion de l’hydrogène en hélium avec émission de neutrinos qu’on a pu observer sur terre.

On commence aussi à détecter des planètes autour des étoiles les plus proches.

Toutes les données recueillies renseignent sur les évènements qui se passent ou se sont passés dans l’univers, avec un décalage lié à la vitesse de la lumière. : il a une histoire, et la théorie du Big-Bang, confirmée par une série d’indices, en fait remonter l’origine à environ 15 milliards d’années. Il serait né d’une explosion gigantesque dont on retrouve encore les traces, et qui se poursuit toujours par son expansion. On n’a pas encore tranché: cette expansion sera-t-elle indéfinie ou suivie d’une période de contraction, le Big-Crunch.

La connaissance de la Terre ne se limite plus à sa surface. On sait que sous les continents et les océans elle est constitué d’un manteau de silicates chaud et visqueux, d’un noyau liquide métallique riche en fer, avec au centre une graine de fer cristallisé.

Les grands phénomènes géologiques ont pour origine la chaleur dégagée par les éléments  radioactifs du manteau et du noyau. Par convexion, il se produit des remontées des masses les plus chaudes. Les continents , flottant sur le manteau, sont entraînés dans des mouvements variés qui provoquent des cassures et des collisions. La dérive des continents est à l’origine des reliefs, des fossés, des séismes et du volcanisme.

La Terre comme tout le système solaire, s’est formée il y a environ 4,5 milliards d’années à partir de gaz et de poussières analogues aux météorites. On connaît assez bien son histoire des dernières centaines de millions d’années grâce à l’étude des diverses formations géologiques, et on commence à l’esquisser pour les périodes plus anciennes.

 

La physique quantique domine au XXème siècle, comme la physique classique au XIXème.Après avoir interprété la structure électronique des atomes, elle s’intéresse aux propriétés du noyau: la radioactivité, la fission, la fusion. Des accélérateurs de particules de plus en plus grands mettent en évidence des particules de plus en plus nombreuses et leurs interactions, puis une mise en ordre s’impose. La plupart des particules exotiques obtenues, dont la durée de vie est très brève, sont elles mêmes des assemblages de particules plus élémentaires regroupées en deux familles: les leptons et les quarks, et les antiparticules correspondantes. Seules trois particules stables constituent la matière ordinaire: les électrons et les quarks u et d.

A la gravité et à l’interaction électromagnétique s’ajoutent deux interactions fondamentales à courte portée: l’interaction forte unit les quarks en protons et en neutrons, et ces derniers entre eux dans le noyau des atomes. L’interaction faible intervient dans la radioactivité. Les interactions sont elles mêmes assurées par d’autres types de particules: le graviton encore hypothétique, le photon, les bosons W et Z° et les gluons. La chromodynamique quantique interprète ces interactions, et des tentatives de synthèse s’efforcent d’unifier interactions et particules en un modèle unique.

Une question est restée longtemps sans réponse : quand deux particules ont interagi, elles forment un tout indissociable, quelle que soit leur distance. On dit qu’elles sont corrélées. Si elles ont par exemple des spins opposés, rien ne permet d’attribuer un signe à chacune tant qu’elles n’ont pas interagi avec un dispositif de mesure ou tout autre obstacle, mais dès que l’une a été observée et caractérisée, le spin de l’autre prend, et à ce moment seulement, une valeur définie. Einstein ne voulait pas l’admettre et pensait que les jeux étaient faits dés la séparation des particules. Bell démontra qu’il était possible de trancher, et Alain Aspect réalisa l’expérience et prouva, bien après la mort d’Einstein, qu’il avait eu tort.

La théorie quantique participe aussi à la physique des solides avec les semi-conducteurs, la supraconductivité, ainsi que les lasers. Les applications ont bouleversé toutes les techniques, avec le développement de l’énergie nucléaire, de l’électronique, des télécommunications, l’ horlogerie à quartz, les calculatrices, les systèmes de positionnement (GPS) et par dessus tout l’informatique.

Après les microscopes électroniques, les microscopes à pointe permettent d’observer et de manipuler individuellement les atomes.

La chimie aussi a profité des progrès de la physique quantique: les liaisons, les réactions chimiques s’interprètent par des mécanismes électroniques et radicalaires, ce qui permet de mieux les prévoir  et mieux les maîtriser. Les méthodes physiques d’analyse: spectroscopie infrarouge, spectroscopie de masse, spectroscopie des rayons X, résonance magnétique nucléaire, donnent la structure détaillée des molécules et des cristaux. Associées aux méthodes fines de séparation: chromatographie en phase liquide ou gazeuse, elles permettent d’isoler et d’identifier des traces infimes de substances.

L’industrie chimique et pétrochimique fournit en quantité des produits de plus en plus nombreux et variés: matières plastiques, produits pharmaceutiques, détergents, fibres synthétiques…

La biologie s’éclaire enfin par la découverte des mécanismes fondamentaux de la vie. Crick et Watson établissent la structure en double hélice de l’acide désoxyribonucléique (ADN), constituant essentiel des chromosomes de la cellule, supports de l’hérédité. Leur rôle dans la synthèse des protéines, par l’intermédiaire de l’acide ribonucléique, est élucidé par Lwoff, Monod et Jacob. La structure et le rôle des enzymes, catalyseurs des réactions biologiques, se précise. Le code génétique, qui traduit les acides nucléiques en protéines, est déchiffré. Les mécanismes physico-chimiques très compliqués de la vie se dévoilent peu à peu, même ceux du cerveau, immense réseau de neurones dans lequel l’influx nerveux circule sous forme de potentiel électrique relayé dans les synapses par des neurotransmetteurs chimiques.

Grâce à des techniques nouvelles utilisant des enzymes, on apprend à couper, souder, remanier les brins d’ADN,les recopier et les multiplier, à modifier le patrimoine génétique des cellules. La médecine dispose de médicaments nouveaux plus spécifiques et plus efficaces, d’antibiotiques, et de techniques d’exploration de plus en plus puissantes: scanner, imagerie par résonance magnétique (IRM), échographie, et caméra à positons pour l’exploration du cerveau en activité.

On peut imaginer aussi comment la vie a pu apparaître à partir de molécules organiques formées spontanément, comme les acides aminés, constituants des protéines, et comment elle s’est développée et diversifiée. En 1953, Miller montre qu’à partir d’un mélange de méthane, d’ammoniac et de vapeur d’eau soumis à des décharges électriques, il se forme des acides aminés, constituants des protéines. Des variantes de son expérience produisent aussi des constituants des acides nucléiques. Comment a pu apparaître la vie, jeu entre les acides nucléiques, ADN et ARN et les protéines ? Si l’ADN, rigide et stable, n’a qu’une fonction unique, transmettre le message génétique, l’ARN(acide ribonucléique), plus souple et polyvalent, capable de s’associer aux acides aminés, pourrait avoir joué le rôle primordial. La comparaison des ADN de toutes les espèces vivantes montre que la vie a une origine unique. Après avoir longtemps subsisté sous une forme analogue aux bactéries actuelles, elle s’est diversifiée en végétaux et animaux dont la paléontologie permet de retracer les étapes.

Tant de résultats ont été possibles grâce aux moyens considérables mis en œuvre. Jamais il n’y avait eu autant de chercheurs, de techniciens, disposant de moyens aussi importants, dans les universités, les centres de recherche, les organismes privés et publics. Tantôt regroupés en très grosses équipes, en physique fondamentale autour des accélérateurs de particules, dans les centres d’études spatiales pour les fusées, les satellites et les sondes spatiales; tantôt plus dispersés dans l’informatique, la biologie moléculaire, le génie génétique, tous les participants ont travaillé en combinant coopération et compétition.

            Le bilan des idées.

Il a des aspects à la fois positifs et négatifs. Malgré le développement de l’éducation, et même dans les pays qui se prétendent les plus évolués, la grande majorité n’a conscience des progrès réalisés que par les moyens techniques mis à sa disposition, et ignore délibérément tout des connaissances sous-jacentes. S’il est évidemment impossible, et d’ailleurs sans intérêt, que chacun connaisse  tous les détails des techniques, affaire des spécialistes, il est regrettable que des gens qui se considèrent comme cultivés n’aient pas toujours une vue éclairée des connaissances actuelles.

Jamais on n’avait eu une vision aussi approfondie du monde, de la vie et des mécanismes de la pensée consciente, mais les croyances les plus naïves et archaïques n’en ont pas moins autant de succès: astrologie, magie, médecines imaginaires prospèrent, ainsi que les sectes aux doctrines délirantes qui exploitent la crédulité de leurs adhérents.

Les Etats-Unis en sont un exemple caricatural: pays techniquement le plus avancé et le plus puissant, c’est aussi la patrie des créationnistes et des opinions les plus rétrogrades.

Dans tous les pays les plus évolués aussi, des associations plus ou moins fanatiques refusent sans discernement, au nom de la Nature, des techniques dont elles ne veulent voir que les inconvénients, au besoin inventés, et proposent en échange des solutions utopiques.

Dans les pays moins évolués, dits en voie de développement, le contraste est encore plus net. L’évolution des connaissances s’est faite si vite que la plupart n’ont pas eu le temps de les assimiler.

C’est pourtant une véritable révolution des idées qu’ont entraîné les acquis des sciences expérimentales. Le rationalisme intransigeant du XIXème siècle a reculé: avec la Relativité, les notions de temps, d’espace, ne sont plus absolus. Avec les quanta, le sens du réel devient flou. Les objets quantiques, à la fois ondes et particules, ne peuvent être rigoureusement localisés, et leurs caractéristiques peuvent rester indéterminées tant qu’ils n’ont pas interagi.

Cependant, loin d’être en contradiction avec la physique classique, la physique quantique apparaît au contraire comme la cause profonde, microscopique, des phénomènes qui nous sont plus familiers. Rien n’est changé dans la vie courante, mais la leçon à en tirer est que le bon sens commun n’a plus cours au delà.

Des questions plus fondamentales restent sans réponses: pourquoi le monde est-il tel qu’il est et pas autrement? Les constantes fondamentales qui caractérisent les particules élémentaires et leurs interactions, et dont dépendent toutes les propriétés de la matière et du rayonnement pourraient elles être différentes ou non de ce qu’elles sont, et pourquoi? Si elles étaient différentes, nous ne serions pas là pour le constater, mais pourrait-il exister autre chose?

La théorie du Big-Bang, qui s’appuie sur une série de résultats concordants, reste une hypothèse cohérente mais indémontrable. Est-ce un évènement unique, ou une péripétie dans un univers beaucoup plus grand?

Le déterminisme rigoureux de la physique classique s’est trouvé tempéré par la physique quantique, mais l’une et l’autre ne se sont consacrées pendant longtemps qu’à des phénomènes qu’elles pouvaient décrire mathématiquement de façon exacte. Il existe cependant dans les mathématiques des suites d’expressions qu’on ne peut calculer que de proche en proche, et qui évoluent de façon imprévisible à long terme. . On peut seulement préciser que leur évolution reste contenue dans des limites, les”attracteurs étranges”. C’est ainsi que s’est développée une théorie du chaos, et, en fait, la plupart des phénomènes réels , comme la turbulence, la météorologie, ne peuvent être traités que de façon statistique.

Au XIXème siècle, la vie et la pensée consciente étaient certainement les phénomènes les plus incompréhensibles. On en ignorait totalement les mécanismes fondamentaux. Actuellement, si on ne sait pas encore de façon précise comment la vie est apparue, la question est circonscrite: elle n’a pu émerger qu’à partir de matières pré biotiques banales qui se forment spontanément et qu’on retrouve jusque dans les météorites. Dans un milieu ouvert recevant de l’énergie de l’extérieur, la lumière solaire, et où ils ne risquent pas de rester totalement figés ou d’être entièrement détruits, et c’est le cas en présence d’eau liquide, leur structure évolue inexorablement vers une complication croissante qu’une sélection spontanée amène à des formes de plus en plus organisées.

L’apparition et l’évolution de la vie, résultat d’un jeu entre les acides nucléiques et les protéines, a une origine unique, mais existe-t-il ailleurs d’autres possibilités amenant à l’existence d’êtres organisés autonomes?

La pensée consciente a paru longtemps un phénomène tout à fait immatériel. Toute la philosophie traditionnelle, qui ne nous a rien appris et a accumulé erreurs et non-sens, a toujours manifesté le plus grand mépris pour les choses matérielles, et a substitué à la réalité un monde de mots qu’elle manœuvre à sa fantaisie, faisant un emploi abusif de la logique. La pensée logique, qui ne s’applique en toute rigueur qu’aux mathématiques, n’a qu’un pouvoir très limité dans les choses concrètes qui ne sont jamais parfaitement définies et connues exactement, et convient encore plus mal dans les idées abstraites encore beaucoup plus équivoques.

Les connaissances actuelles sur le cerveau et son fonctionnement, bien qu’encore très incomplètes, sont une approche bien différente et autrement efficace et précise qui relègue celle des philosophes au rang de rêveries simplistes et stériles. Après les domaines de l’infiniment grand et de l’infiniment petit, l’organisation du cerveau est celui de l’extrême complexité, et il inspire déjà les futures machines de l’informatique qui elles aussi,  mais avec d’autres moyens, ont pour objet le traitement de l’information. Une convergence s’esquisse entre ces deux  disciplines.

Qu’en sera-t-il du XXIème siècle?

Il serait bien présomptueux de faire des pronostics précis. On peut prévoir sans trop de risques que des techniques de plus en plus efficaces vont se développer, que la physique va continuer à s’intéresser aux conditions extrêmes de température, de pression, d’énergie, que l’exploration de l’univers va se poursuivre, que la théorie du Big-Bang va être soumise à de nouvelles épreuves. Les possibilités de la biologie moléculaire, du génie génétique, paraissent illimitées, la connaissance du cerveau, le développement de l’informatique également.

Y aura-t-il aussi des percées actuellement insoupçonnées? Si l’on en juge par l’histoire des siècles précédents, ce n’est pas invraisemblable. On peut aussi s’inquiéter: les ressources de la Terre seront-elles menacées, la pollution, l’effet de serre, la violence seront-ils maîtrisés?

Enfin, la cassure va-t-elle s’aggraver entre les connaissances d’une petite minorité et une opinion publique dépassée?