UNE VIE de Stéphane Brizé le lundi 12 décembre à 14 h 30

 

le lundi 12 décembre à la Salamandre à 14 h 30

 

une-vieUNE VIE

de Stéphane Brizé (France – 2016 – 1h59) 
Avec Judith Chemla, Swann Arlaud…

Normandie, 1819. A peine sortie du couvent où elle a fait ses études, Jeanne Le Perthuis des Vauds, jeune femme trop protégée et encore pleine des rêves de l’enfance, se marie avec Julien de Lamare. Très vite, il se révèle pingre, brutal et volage. Les illusions de Jeanne commencent alors peu à peu à s’envoler. 

  La bande annonce : https://youtu.be/OmgF-OtiGbw

BRETAGNE connectée par Gwenegan BUI

gwenegan-bui
Gwenegan BUI – Conseiller Régional – Membre de la Commission Champsaur

BRETAGNE connectée

par Gwenegan BUI

La Bretagne s’est engagée dans un plan de développement du « très haut débit » sur une quinzaine d’années mobilisant d’importantes ressources financières. Pourquoi ce plan ?

1) Une demande croissante

(la notion de très haut débit désigne aujourd’hui un débit supérieur à 30 Mégabits par seconde ; cette frontière va rapidement évoluer vers le seuil de 100 Mbit/s, et probablement beaucoup plus d’ici 2030)

78 % des Bretons de 15 ans et plus sont considérés comme internautes : ils se connectent à Internet au moins une fois par mois. Parmi eux, 81 % se connectent quotidiennement.

Close-up of fiber optic cables
Close-up of fiber optic cables

a) innovation technologique et évolution des équipements : accélération

S’il a fallu 80 ans pour que 50% de la population française soit équipée d’automobiles, 70 ans pour le déploiement de la téléphonie filaire sur l’ensemble du territoire, 50 ans pour l’électricité, il n’a fallu que 20 ans pour que l’usage d’Internet se généralise.

b) l’équipement des ménages en Bretagne

                                  2012        2014
-téléphonie mobile  86%        92%
-ordinateurs            80%       83%
-usage internet       79%        83%

c) segmentation de l’utilisation d’Internet

c1 pour les ménages
-communication ( mail, skype…)
-information (drive,….)
-démarche administratives
-achats, ventes
c2 pour les entreprises
      évolution                                           2008     2015
-Site Web                                                  53%       78% ( communication )
-traçabilité produits                                57%       74% (logistique)
-Certificat électronique                          37% env 50% (sécurisation des transactions)
La marge de progression est encore importante au niveau des entreprises

d) évolution prévisible des équipements des ménages

En moyenne , en 2015 un ménage possède 6 écrans connectés , soit 2 à 3 téléviseurs, 1 smartphone, 1 tablette, 1 console de jeux ; en 2008 ce nombre passera à 9 écrans ; en 2022 12 écrans connectés .
Car la domotique va se généraliser , le prix d’équipement pour un pavillon étant déjà descendu à 2500 € contre 10 000€ il y a 5 ans.

Cette évolution aura un impact :
-sur l’emploi existant (ex mail / poste , drive/Grande Distribution…)
-sur le quotidien des citoyens dans des domaines divers (sécurisation des sites, contrôle énergétique des habitations, santé, éducation)
-dans l’industrie ( contrôle de la production, automobile connectée, visioconférence,….fibre_interieur)

Cette demande en forte croissance nécessite une augmentation des débits sur les réseaux ( débit descendant mais aussi débit ascendant)

2) le Très Haut Débit en Bretagne (THDB)

a) Inventaire des technologies existantes

– le satellite ( onde faible et partage des informations)
– Wi Max dans les années 2000 par onde téléphonique (signal dégradé)
– ADSL cable cuivre ( limitation à 250Mega)
– fibre optique (sans limitation en flux ascendant et descendant)

Si le temps de chargement d’un site prend 20 sec. par ADSL, il se réduit à 0.2sec par fibre optique.

schemab) équipements à réaliser en Bretagne pour la fibre optique

-connexions entre centres répartiteurs et centres sous-répartiteurs
-connexions entre centres sous-répartiteurs et usagers

c) le plan France du très haut débit

Le plan France très haut débit (THD) qui entend apporter le très haut débit à l’ensemble de la population française d’ici 2022, dont 80% en technologie FTTH (fibre à domicile) comprend la couverture des zones denses et moyennement denses (soit 57% des foyers) par les opérateurs  ; les collectivités se chargent, à partir de réseaux d’initiative publique (RIP), de couvrir les 43% restant. Le budget pour créer la future infrastructure de communications électroniques a été estimé à 20 milliards d’euros dont 6 à 7 seront supportés par les opérateurs et plus de 13 par les collectivités appelées à recevoir environ 3 milliards d’aides.

d)aménagement du territoire breton : initiative privée & initiative publique

En Bretagne, les opérateurs privés se sont engagés à déployer des réseaux de fibre optique jusqu’à l’abonné (FttH) dans certaines villes et agglomérations l’initiative privée concerne 10% du territoire et 40% de la population : les territoires autour de Brest, Concarneau, Douarnenez, Fougères, Guingamp, Lannion, Lorient, Morlaix, Quimper, Rennes, Saint Brieuc, Saint-Malo, Vannes et Vitré.
Quid des 90% du territoire breton restant et de 60% de la population restante ?

e)la démarche publique bretonne

La Région a créé un syndicat mixte MEGALIS associant toutes les collectivités locales. Celles-ci regroupent toutes les tendances politiques afin qu’en cas d’alternance le projet soit mené à son terme.
canvase1 2 projets :
-couverture à 80% : coût 950 Millions €
-couverture à 100 % : coût 2,1 Milliards €
La couverture à 100% du territoire breton a été retenu.
e2 les raisons du choix
– L’économie de la Bretagne repose sur 3 fondamentaux :
.l’agro-alimentaire
.l’industrie automobile
.les TIC (Technologies de l’information et de la communication )
Ces 3 secteurs sont confrontés à une concurrence internationale exacerbée ,en provenance du monde asiatique pour les 2 dernières.
Le Japon par exemple a décidé de passer à la fibre optique à 100%, considérant que ce passage est un avantage compétitif de rupture.
Ne pas investir dans la fibre optique en Bretagne équivaudrait à terme à sortir la région des circuits commerciaux.

– le choix du 100% s’explique aussi la volonté de ne pas accélérer la désertification des zones non desservies (délocalisation régionale des entreprises par ex.)

La Bretagne est la seule région en Europe à avoir fait ce choix de 100%( l’Europe curieusement n’ayant pas cru devoir adopter une politique globale en ce domaine.)

f) le financement retenu

f1 le coût moyen  par prise installée
Ce coût est estimé à 2000 €;
Ce coût varie en fonction de la zone : de 800€ à 4000 €
f2 un financement forfaitisé au niveau breton
. 445 € à charge de l’EPCI local ( établissement public de coopération intercommunale)
. 1555 € par MEGALIS

INITIATIVE PUBLIQUE
INITIATIVE PUBLIQUE

g) axes de la politique de déploiement

  • géographique
    . priorité aux villes moyennes bretonnes (Carhaix, Loudéac, Redon, Lamballe,…) « fibrée » au même rythme que les villes équipées par le secteur privé ( horizon 2018)
    . une prise installée en milieu urbain = 1 prise installée en secteur rural
    . « boostage » des zones très mal desservies comme Guimaëc (inconvénient : elles attendront la fibre optique…)
  • dans le temps
    La Phase 1 prévoit
    ,entre 2014 et 2016 le déploiement de la fibre optique jusqu’à l’abonné pour environ 70 000 locaux (foyers, entreprises et services publics) situés dans 4 villes moyennes (Auray, Carhaix-Plouguer, Lamballe et Redon et l’équivalent en nombre de lignes dans 28 zones rurales –
    ,entre 2014 et 2018 le déploiement de la fibre optique pour environ 240 000 locaux (foyers, entreprises et services publics) situés dans 13 villes moyennes (Auray, Carhaix-Plouguer, Châteaulin, Dinan, Dinard, Lamballe, Landerneau, Loudéac, Paimpol, Ploërmel, Pontivy, Quimperlé et Redon ) et l’équivalent en nombre de lignes en zone rurale

Phase 2 : 2019/2023     400 000 prises
Phase 3 : 2024-2030     627 000 prises
Ce phasage était nécessaire pour les raisons suivantes :
– phase d’apprentissage pour les entreprises qui installent la fibre avant la montée en puissance
– déficit de personnel qualifié
– obtention des financements
– un recensement ajusté des besoins en tenant compte du développement futur ( projet de constructions, etc)
– des difficultés imprévues ( élagage pour les réseaux aériens, passage enterré dans les propriétés privées)

-la complexité des réseaux sur le territoire

h) décision d’équipement

Cette décision de déploiement  appartient à le l’EPCI local (c-à-d l’intercommunalité)

i) équipement de la zone de Morlaix

. Morlaix est en cours d’équipement avec boostage en zones périphériques
. Lanmeur équipement en raison de l’Hôpital
. la zone côtière léonarde pas de demande hors boostage
. zone landivisienne : en demande d’équipement

j) coût pour l’usager

. proposition commerciale particulier : 49,99€/mois
. pour entreprise : 400€/mois (tarif aménagé)

k) opportunité d’emploi

Ce chantier va s’étaler sur 15 ans : les entreprises de génie civil comme Vinci sont à la recherche de personnel local qualifié ( formations existantes de 6 mois)

En conclusion

Au delà des difficultés techniques et technologiques, au-delà de la gestion de l’impatience de certains usagers en attente de desserte , la prolifération des appareils (interconnectés en temps réel) d’évaluation et d’auto-contrôle des individus et de leurs activités conduit insidieusement mais inexorablement aux portes d’une société « orwellienne » . Véritable défi que devra affronter la société de demain, non la société d’aujourd’hui..

= = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = =

Nota : la zone de Langolvas en sous-équipement actuellement devrait bientôt voir arriver la fibre… : une entreprise a quitté la zone récemment en raison de l’insuffisance de réseau (NDR)

 

Réf :CY-JXI27

cr-bretagne-connectee-gwenegan-bui2016

« Sacré bonhomme » de Marcel Mescam

Sacré bonhomme

de Marcel Mescam

Mars 2016

Les machines farfelues ou Illustre inconnu. Tels sont les thèmes proposés par l’atelier d’écriture. Je ne peux pas dire que cela me satisfait, comme souvent, ça ne m’inspire pas immédiatement. Quel choix vais-je faire ? Je ne vais tout de même pas chercher un autre sujet dans la liste des autres propositions, « un peu de réflexion Marcel, tu as tout ton temps pour rendre ta copie ». Cependant la page blanche me désespère, et mes nuits sont perturbées par la recherche d’idées. Je sais que cela peut durer plusieurs jours, jusqu’à ce que la lumière se fasse.

Enfin, c’est tout à fait par hasard, à la lecture d’un article dans le magazine Notre Temps, que je découvre ce qui peut m’intéresser. – Ça y est, je tiens mon fil conducteur ! –  Je vais donc relater brièvement la vie de Ray Tomlinson, qui, jusqu’à ce jour, était pour moi, un illustre inconnu. J’ignorais son existence, et il vient de mourir le 5 mars 2016 à l’âge de 74 ans.

Cet américain nous laisse en héritage un nouveau mode de communication devenu universel. Il est l’inventeur de l’e-mail. C’est lui qui a écrit le premier message électronique en 1971. Il a révolutionné le monde dans la façon de communiquer. Il avait tout simplement conçu le programme permettant d’envoyer un message d’un ordinateur à un autre, alors qu’il travaillait sur Arpanet, le réseau réservé aux chercheurs et aux militaires qui allait plus tard donner naissance à Internet. C’est lui aussi qui avait eu l’idée d’utiliser le caractère @– l’arobase– pour séparer l’identité de la personne du réseau auquel elle se rattache.

Je découvre avec plaisir ce sacré bonhomme qui disait : « Ne croyez pas tout ce que vous lisez sur le web. Rappelez-vous, il y a des humains derrière ces pages, et les humains font des fautes ». – Prévenait-il –.

Et il expliquait : « Le premier e-mail a été envoyé entre deux machines qui se trouvaient l’une à côté de l’autre, connectées via Arpanet. Je me suis envoyé un certain nombre de messages de test d’une machine à l’autre. Le premier était tout à fait oubliable, et je l’ai oublié ». – Moi Je n’oublie pas qu’il était chercheur, et que ces derniers ne notent pas toujours tout -.

Il poursuit : « Très probablement c’était un truc comme QWERTYUIOP ou quelque chose comme ça ». En référence à la première rangée de lettres du clavier en langue anglaise. « Une fois que j’ai été satisfait du fonctionnement du programme, je me suis adressé aux autres développeurs pour leur expliquer comment envoyer un message sur le réseau ».

Et il soulignait : « Le premier usage de l’e-mail a été d’annoncer sa propre existence ».

Je ne connaissais pas cet homme, maintenant disparu, mais pour moi il ne sera plus un illustre inconnu.

photo

les lectures de novembre – début décembre 2016 Atelier Lecture

Atelier Lecture I  : « La petite fille de Monsieur Linh » pour le 22 novembre 2016 à 14H15   (Annette Manant)

C’est un vieil homme debout à l’arrière d’un bateau. Il serre dans ses bras une valise légère et un nouveau-né, plus léger encore que la valise. Le vieil homme se nomme Monsieur Linh. Il est seul désormais à savoir qu’il s’appelle ainsi.Debout à la poupe du bateau, il voit s’éloigner son pays,celui de ses ancêtres et de ses morts, tandis que dans ses bras l’enfant dort. Le pays s’éloigne, devient infiniment petit, et Monsieur Linh le regarde disparaître à l’horizon, pendant des heures, malgré le vent qui souffle et le chahute comme une marionnettela-petite-filel-lingh

 

ripeurAtelier Lecture II : « Ripeur » de Jeff Sourdin pour le 02 Décembre 2016 au Poulfanc à 14h15

C’est à l’arrière d’un camion-poubelle et sur la base d’une expérience personnelle que Jeff Sourdin, originaire de Fougères en Ille et Vilaine, a choisi de développer la fiction de son premier roman. à travers un métier qui s’est imposé à lui, le jeune héros de  » Ripeur  » nous livre sa vision du monde, de l’amour et du temps qui passe. à l’aube de ses vingt-huit ans et d’une décision qui va bouleverser son quotidien, il nous entraîne dans une réflexion sur le sens de la vie et de la destinée de chacun. Emprunt d’authenticité et de poésie,  » Ripeur  » rassemble des personnages simples évoluant au coe

 

2nd groupe qui se réunit les premiers vendredi du mois,de 14h15 à16h. Prochaine séance,le ven.2 décembre,au local.Contact: 02 98 63 76 16,ou christine.poully@laposte.net   

PROGRAMME du 1er Trimestre 2016-2017 (d’Octobre à Décembre)

PROGRAMME du 1er Trimestre 2016-2017 (d’Octobre à Décembre)

Conférences et Sorties

A – le 06 Octobre -Visite guidée par Béatrice Riou, directrice adjointe du Musée de Morlaix de l’exposition Edouard Pignon , «les Baigneurs». Repas facultatif sur Morlaix.
Rdv : 10h00 Musée de Morlaix.

1 – le 06 Octobre à Langolvas à 13h40 : «L’Afrique, enjeu de rivalités de puissances» par Alain Collas

B- le 13 Octobre
Matin : Abbaye de Daoulas, visite guidée de l’expo «la sorcellerie», du jardin rénové. Repas à La Roche Maurice-
Après-midi : visite guidée à la FHEL de l’exposition Marc Chagall. Contact : Mireille Quillévéré et Christine Briet

Départ : Pouliet =  08h30 puis Districenter =  08h45

2 – le 03 Novembre à Langolvas: «le Jazz» : 2nde période de 1945 à 1965 par Guillaume Kosmicki, musicologue

le 03 Novembre rue Poulfanc de 10h30 à 11h45 : inscriptions au repas de l’A.G. Du 17Novembre 2016

3 – Le 10 Novembre à Langolvas : «Les 2 Bretagne : Est et Ouest» par Jo Le Bihan, Institut de Locarn

.le 17 Novembre 2016 : Assemblée Générale de l’UTL du Pays de Morlaix à la CCI. Accueil à 9h30 – A.G. à 10h15 suivie d’un repas à l’Albatros
4 – le 24 Novembre à Langolvas : « La Bretagne : un territoire connecté» par Guénégan Bui, Conseiller régional.

.Le 24 novembre rue Poulfanc : inscriptions pour la journée du 8 décembre 2016.Contact : Christine Briet
3 possibilités: Ne participer que le matin , que l’après-midi ,ou participer toute la journée.Le repas de midi est en option. Programme :

-le matin: visite de l’expo portraits et figures au musée de Morlaix

-l’après midi,visite de la chapelle de Lambader et de Ste Anne à Plouvorn.

5 – le 1er Décembre à Langolvas : «Les guerres balkaniques : prélude à la Grande Guerre» par Jean Pierre Rivenc, professeur d’histoire à l’IUFM Quimper

C – le 08 Décembre :SORTIE

-10 h Musée de Morlaix : visite guidée de l’exposition « Portraits et figures» –

-12h00 repas facultatif au restaurant St Melaine –

-13h30 au Viaduc départ pour Plouvorn : visite guidée de la Chapelle Sainte Anne et de la Chapelle de Lambader. Contact : Christine Briet

6- le 15 Décembre à Langolvas : «les origines des noms de lieux en Bretagne «   par Michel Priziac, président de l’Association des Ecrivains bretons.

Ateliers

  • Aimons la Musique Ensemble : le lundi à 14h15 , une fois par mois Contact : Annette Manant : 02 96 38 60 58
  • Breton : le lundi à 17h00 toutes les semaines Contact : Hervé Rivoallon herve.rivoallon@wanadoo.fr
  • Lecture les mardis 04 Octobre, 22 Novembre, 15 décembre à 14h15
  • Histoire de la Musique le mercredi à 14h30 Atelier animé par Guillaume Kosmicki, musicologue – 909 et 30 Novembre , 11 janvier, 1er février et 1er Mars ; Contact:Eliane Guivarch guivarch.e@wanadoo.fr
  • Ecriture : les mardis des semaines impaires de 09h30 à 12h00 Contact : Marcel Mescam araokatao@gmail.com
  • Philo : le mardi 1 fois par mois : 3 ateliers animés par Yves-Marie Le Lay Contact Ninon Le Fers ninon.lefers@orange,fr
    a) 14h15 – 15h45 les 11 octobre, 08 novembre, 06 décembre (Ninon)
    b) 16h00 – 17h30 les 11 octobre, 08 novembre, 06 décembre
    c) 14h15 – 15h45  le 25 octobre , les 15 novembre et 13 décembre
  • Culture Scientifique

inscription pour la journée du 8 décembre 2016.
3 possibilités: Ne participer que le matin , que l’après-midi ,ou participer toute la journée.Le repas de midi est en option. »

De la Bretagne Est/Ouest : de sa vocation… touristique et…improbablement maritime par Joseph Le Bihan

L’Institut de Locarn

est un centre de prospective économique,fondé par Joseph Le Bihan, situé en plein centre  de la Bretagne intérieure, à Locarn (22).

Joseph Le Bihan

Expert en prospective économique,spécialiste des dynamiques territoriales dans le contexte de mondialisation, Jo Le Bihan publie, en 1993, « Genèse de l’Europe unifiée dans le nouveau monde du XXIe siècle ».

la-france-den-haut4ème de couverture :

« La bourgeoisie triomphante du XIXe siècle a disparu. Ses petits-enfants se fondent désormais dans le décor d’anciens quartiers populaires, célèbrent la mixité sociale et le respect de l’Autre. Finis les Rougon-Macquart, bienvenue chez les hipsters..

Bénéficiaire des bienfaits de la mondialisation, cette nouvelle bourgeoisie en oublie jusqu’à l’existence d’une France d’en bas, boutée hors des nouvelles citadelles que sont devenues les métropoles.

Pendant ce temps, dans la France périphérique, les classes populaires coupent les ponts avec la classe politique, les syndicats et les medias. Leurs nouvelles solidarités, leur souverainisme n’intéressent personne. Le grand marronnage des classes populaires, comme avant elles celui des esclaves qui fuyaient les plantations, a commencé. On croyait la lutte des classes enterrée, voici son grand retour…. »

Christophe Guilly est géographe. Il est l’auteur de deux essais très remarqués Fractures françaises et la France périphérique

 

carte-de-bretagne-gallo-romaine-traditionnelle

bretagne9f

carte-de-bretagne-de-la-langue-bretonne-l

territoires-fragiles

carte_bretagne

La route maritime du Nord
La route maritime du Nord

 

ports-siberiens

le Jazz ; des origines au be-bop (de 1890 à 1945)

Petite histoire illustrée du JAZZ -Des origines au be-bop (1890 – 1945)guillaume-kosmicki

par Guillaume Kosmicki, musicologue.

150 ans nous séparent des balbutiements du jazz, premier genre musical qui nous est parvenu dans son intégralité par le biais des enregistrements (inventions d’Edison et de Berliner). Le jazz est le mouvement musical majeur  du XXème siècle : il est un métissage réussi entre les différents types de musique (musiques africaines / musiques occidentales). Il influencera d’autres courants musicaux : rock, disco…
Le terme Jazz viendrait de Jass , terme argotique américain.
Il évoluera dans le temps : folk music ,   pop music, puis art music

1 – TRAITS CARACTERISTIQUES DU JAZZ

a) un son très particulier dès ses origines
Une utilisation d’instruments très sonores, comme la trompette, le trombone à coulisse, le piano, la batterie(nouveauté)
b)  Hot-intonation : il s’agit des “dirty tones” (notes sales), chargées d’émotion, employées aussi bien par la voix que les instruments, avec glissés, vibrato, soupirs, silences, bruissements, etc. les instruments imitant la voix chantée.
c) utilisation de blue notes
adaptation des gammes africaines ( sur la 3ème,5ème et 7 ème)
d) rythme décalé
accentuation sur le 2nd et 4ème temps/ jeu sur le contre-temps – syncopé
e) improvisation omniprésente
f) polyphonie
g) Principe du “call-and-response” : alternance, suivant le modèle africain, d’appels d’un chanteur et de réponses  du chœur, qui se chevauchent souvent (parfois avec des textes différents), réponse du piano, du trombone, etc.

2)- LES RACINES DU JAZZ

-BasinStreetDowntheLineNew Orleans (et plus particulièrement son quartier de Storyville)a été le berceau de cette musique : carrefour de toutes les musiques de l’époque
21 -l’influence afro-américaine
a) Work Song
Ces chants qui cadencent le travail dans les champs de coton sont une reprise des chants importés d’Afrique

b)Negro Spiritual/ Gospel
esclavage usLes esclaves ont été christianisés et ont puisé dans l’Ancien Testament certains thèmes comme l’exode : utilisation du « call and response)
En sera issu au XXème siècle le Gospel plus « arrangé »

c) le Blues
ce genre musical, expression de la tristesse est également pratiqué dans les champs de coton. Au départ il se joue sans instrument Il nourrira le jazz.
En 1870, quelques années après la Civil War, quand les noirs affranchis pourront se permettre d’acheter quelques instruments de musique, le banjo et la guitare viendront enrichir cette musique d’une grande liberté d’interprétation : la Blue grass sur un phrasé A, A’, B *

En sortira le Blues plus urbain avec sa grille caractéristiques: la Twelve Bars qui sera souvent reprise dans le Jazz

22- Contacts musicaux entre noirs et blancs
a)Minstrel shows
Ces spectacles organisés par les blancs entrainent sur le long terme une émulation entre musiciens blancs et noirs qui feront évoluer leur musique .
b) les orchestres fanfares de l’armée ou des cérémonies religieuses
Ces marching bands enchainent des musiques funèbres et des musiques gaies

  réf victor military band
c) le Ragtime, considéré comme l’ancêtre du jazz par certains
Un musique jouée sur un piano dans un salon ou par un orchestre .
Particularité :au piano la main gauche donne le rythme ( basse régulière);la main droite est toute à la fantaisie pour la mélodie en contre-temps
Ex : scott joplin

3 – le JAZZ (traditionnal Jazz)

a) période New Orleans ( 1890 – 1925)

Le Jazz apparaît donc à La Nouvelle-Orléans avec les formations orchestrales des « brass bands », mélange de marches militaires revisitées par les noirs américains et les créoles, qui privilégie l’expression collective.
Le premier enregistrement de jazz est réalisé par l’Original Dixieland Jass Band,en mars 1917,naissance officielle du jazz.

Louis Armstrong
Louis Armstrong

L’apparition des phonographes permet la diffusion de cette nouvelle musique, avant la généralisation du phonographe, de nombreux morceaux ayant à l’époque déjà été enregistrés au piano mécanique
Très rapidement Kid Ory, Sidney Bechet et surtout Louis Armstrong s’imposent comme les grands solistes des formations Nouvelle-Orléans caractérisées par l’improvisation collective sur le schéma instrumental trompette, trombone, clarinette.

 

 

b)période Chicago / le swing

-Chicago (1925/1930)
En 1917, après la fermeture du quartier de Storyville à la Nouvelle-Orléans, beaucoup de musiciens pour gagner leur vie gagnent Chicago, où Noirs et Blancs jouent ensemble. Le style Chicago, marqué par la “hot-intonation” est illustré par des virtuoses comme King Oliver, Louis Armstrong, Jelly Roll Morton.
Formations les plus célèbres : King Oliver’s Creole jazz Band, avec L. Armtrong (1923) ; L. Armstrong and his Hot Five (1925) et Hot Seven (1927) ; Jelly Roll Morton’s red Hot peppers (1926).

Le Jazz est la bande-son de ces années de prohibition

Réf :  king oliver’s band

-Swing (1930-40)
La petite formation de soliste se développe en “big band” à New York qui devient la capitale du Swing. L’ancienne section mélodique est subdivisée : le pupitre des cuivres , le saxo en famille instrumentale avec la clarinette , les deux groupes ayant un chef de pupitre (lead, pour les solos).
C’est l’ère des big bands de Duke Ellington, Count Basie, Glenn Miller, Benny Goodman, avec un répertoire marqué par les compositions de George Gershwin, Cole Porter, Richard Rodgers etc. et les chansons de variété de Tin Pan Alley, qui forment l’ossature des standards de jazz.
Au milieu des années 1930, la popularité du swing et des big bands était à son sommet, transformant en stars des musiciens tels que Glenn Miller ou Duke Ellington
Les grands solistes de cette époque sont entre autres Coleman Hawkins, Art Tatum,

 

c)l’ère du Be Bop (1940 – 1945)

Au début des années 1940, les afro-américains veulent se réapproprier le jazz en donnant naissance au Be-Bop. Tempos ultras rapides, petites formations, virtuosité époustouflante, innovations harmoniques et rythmiques : la rupture est brutale et emmenée par Charlie Parker, Dizzy Gillespie, Thelonious Monk. Phase d’intellectualisation du jazz
L’histoire du Jazz ne s’arrête pas dans les années 50 : elle se poursuit jusqu’à nos jours en donnant naissance au fil des années à d’autres courants tels que le cool jazz ou free jazz…

………………………………………………………………………………………

Réf : CY-J2015

Petite histoire illustrée du jazz (1945-2010)

guillaume-kosmickiPetite histoire illustrée du jazz  par Guillaume Kosmicki
De 1945 à nos jours

 

Cette histoire du Jazz reste centrée sur les USA , pays qui a vu la naissance de cette musique mais qui en perd l’exclusivité à partir des années 60.
1941-1942 sont des années charnières dans l’histoire du jazz : les noirs américains   se réapproprient leur musique en la transformant en « art music », c-à-d en musique savante .

a) l’ère du Be Bop (1940 – 1945)

Au début des années 1940, les afro-américains donnent ainsi naissance au Be-Bop. Tempos ultras rapides, petites formations, virtuosité époustouflante, innovations harmoniques et rythmiques : la rupture est brutale et emmenée epistrophy-jpegpar Charlie Parker, Dizzy Gillespie, Thelonious Monk, Charles Mingus. Phase d’intellectualisation du jazz. Base : New York
Morceau d’illustration  : Epistrophy de Thelonius Monk

b) le Cool Jazz

En 1949, Miles Davis, jeune trompettiste qui s’est frotté aux plus grands jazzmen ,innove en travaillant la sonorité et non plus la virtuosité.
Les différents titres regroupés plus tard sur un album « Birth of the cool » illustre ce nouveau courant : legato ou birth-of-the-coolune liaison des notes successives en un seul mouvement continu.
Autre référence : Chet Baker
Morceau choisi  : Take five
Ce courant appelé également West Coast ou White Jazz, car repris par des blancs de Californie est vite délaissé par les musiciens noirs.

c) Le Hard Bop

charles-mingusCe courant se différencie du Be Bop par moins d’accords, de cassures de rythmes. Cette musique qui reste complexe se replonge dans les racines du jazz, dans le rythm’ n’blues, le gospel , le negro-spiritual et la technique call-response.
Elle accompagne la période des grands mouvements pacifiques contre la ségrégation ( boycott des transports)
Morceau d’illustration : Wednesday night prayer meeting de Charles Mingus

d) Modal Jazz

ascensur-pourlechafaudMiles Davis innove une nouvelle fois : simplification à l’extrême de la grille harmonique : 3,2 voire 1 seul accord. La ligne mélodique seule donne le son du jazz.
Le morceau « Julien dans l’ascenseur » ne contient qu’un seul accord, la mélodie donnant la couleur de l’ensemble.
Morceau d’illustration :
So what par Miles Davis

e) Free Jazz – années 60 – (New Thing)

L’expérimentation la plus extrême : liberté totale, abolition des thèmes, des chorus. La performance (improvisation) devient plus importante que le morceau .Le free jazz se voulait être aussi une libération culturelle profonde pour la population noire américaine dont certains membres s’étaient radicalisés ( Black Panthers)
Ornette Coleman intitule un disque de 1960 Free Jazz: A Collective Improvisation, où un double quartet _archie-shepp_the-magic-of-ju-juimprovise simultanément , Coleman faisant la liaison entre eux.
Quelques grands noms :-Ornette Coleman ( disque:This is Our Music en 1960)- John Coltrane-Archie Shepp-Sun Ra

Morceau : The magic of Ju-ju par Archie Shepp

f) « Controlled freeedon » Jazz

Moins radical , ce type de jazz conserve thème et chorus mais à la limite de la dissolution
Artistes : Miles Davis ,

g) Jazz Fusion ( à partir des années 80)

getz-gilberto_Le brassage urbain, la mondialisation vont faire évoluer une nouvelle fois le jazz qui va emprunter à toutes les musiques : rock, funk rap, classique, abolissant toutes les frontières.
Morceaux d’illustration :
The girl from Ipanema Gilberto Gil / Stan Getz
Honky Tonk par Miles Davis
Sextant ou Chameleon d’Herbie Hancock

………………………

a) De nos jours, 3 tendances se dégagent :
courant historique ( be-bop, new orleans) ou neo bop
représentant : Wynton Marsalis Autumn leaves
un courant populaire
new-conception-of-jazz_rfusion avec le rap, la techno : New Conception of Jazz
un courant expérimental
à la recherche de nouvelles sonorités ,de nouveaux rythmes .Steve Coleman est l’un de ses représentants

. La grande figure du Jazz de ce demi-siècle : Miles Davis par son coté novateur de ses débuts à la fin de sa carrière(cool jazz, modal jazz, jazz fusion).

…………………………………………………………………………..

Réf CYJXI01miles_davis_

 

LUMIERE ET COULEURS ; COLORANTS ET TEINTURE. par M André RIO

 

LUMIERE ET COULEURS ; COLORANTS ET TEINTURE.

par M André RIO

Première partie: Lumière et couleurs.

Qu’est-ce que la lumière?

Comment nous voyons les couleurs.

Comment créer de la lumière.

Comment obtenir des couleurs à partir de lumière blanche.

Méthodes physiques.

Les substances colorées.

Deuxième partie: Colorants et teinture.

Colorants naturels et synthétiques.

Deux colorants célèbres: l’Alizarine et l’Indigo.

Les autres colorants.

Les techniques de teinture.

Lumière et couleurs, qu’est-ce que la lumière?

La lumière est émise par des sources: soleil, flammes, lampes, phénomènes physiques, chimiques et biologiques(les vers luisants et le plancton).Renvoyée par les objets qu’elle frappe, elle est perçue par l’œil. Elle est indispensable à la vision. Elle se propage en ligne droite à la vitesse d’environ 300 000 km par seconde, mais elle peut être déviée par réfraction ou par réflexion au moyen de lentilles ou de miroirs.

Propagation de la lumière11-tableau

Quelle est sa nature, est elle formée de particules ou est-ce une onde comme les ondulations à la surface de l’eau ou comme le son? Les phénomènes d’interférence, qui recombinent deux faisceaux issus d’une même source, montrent qu’elle se propage comme une onde et permettent de mesurer sa longueur d’onde qui est comprise entre 0,4 µm(micromètre) pour le violet et 0,7 µm pour le rouge. La lumière blanche est en effet un mélange des différentes couleurs de l’arc en ciel qui sont déviées inégalement par un prisme.22-propagation-lumiere

Interférence et dispersion de la lumière

Cependant, la lumière apparaît aussi comme formée de particules, les photons, quand elle est émise ou absorbée par la matière. Emetteurs et capteurs sont les atomes et les molécules. Les électrons des atomes sont répartis sur des niveaux distincts. L’émission ou l’absorption de photons correspondent à des sauts d’un niveau à un autre. Dans les molécules, les liaisons entre les atomes sont analogues à des ressorts qui peuvent aussi capter ou émettre des photons en modifiant leur niveau d’énergie, comme une corde sonore émet un son ou entre en résonance avec un son produit par une source voisine qui vibre à la même fréquence.33-atome-molecule

Absorption et émission de lumière

Quelle est la nature de l’onde lumineuse? Maxwell a montré au siècle dernier que la lumière est une onde électromagnétique, mais elle ne représente qu’une très petite partie du spectre électromagnétique, avec l’infrarouge et les ondes hertziennes(ondes radio)vers les plus grandes longueurs d’onde, l’ultraviolet, les rayons X et gamma vers les plus petites.44-longueur-d-ondes

Le spectre électromagnétique

.Toute matière émet une large gamme de rayonnement électromagnétique dont le maximum d’intensité correspond à une longueur d’onde d’autant plus petite que sa température est plus élevée. Ainsi, la surface du soleil, à la température de 6000°, émet principalement de la lumière visible55-rayonnement-du-corps-noir

Rayonnement du corps noir

Comment nous voyons les couleurs.

La rétine de l’oeil renferme deux sortes de cellules sensibles à la lumière: les bâtonnets qui donnent la vision en noir et blanc et sont essentiels à la vision nocturne, et les cônes dont une sorte est sensible au bleu, autour de la longueur d’onde de 0,420 µm, une autre au vert(0,535 µm),et une troisième au rouge(0,565 µm) .L’insuffisance de certains cônes provoque une vision déficiente des couleurs correspondantes comme le daltonisme.66-daltonisme

Absorption des couleurs par les cônes de la rétine

La vision des couleurs est subjective. Ce qui nous parait blanc est un mélange de couleurs, et des combinaisons de longueurs d’onde différentes peuvent donner une même sensation: un mélange de bleu et de jaune nous parait vert comme une lumière authentiquement verte.77-vert

Deux façons de voir du vert88-voir-du-vert

Comment créer de la lumière?

Les atomes et les molécules peuvent être à la fois émetteurs ou récepteurs de lumière. Pour qu’ils soient émetteurs, il faut les exciter en leur fournissant de l’énergie. On peut l’apporter sous forme de chaleur. On a vu plus haut que les corps émettent des longueurs d’onde d’autant plus petites(des photons d’autant plus énergétiques)que leur température est plus élevée, et que la surface du soleil émet principalement de la lumière visible. de lumière: les flammes des bougies, des lampes à huile ou à pétrole et les filaments des lampes à incandescence. Le grand inconvénient de ces sources est qu’elles émettent aussi beaucoup de chaleur sous forme d’infrarouge, ce qui représente un gros gaspillage d’énergie, mais on peut exciter les atomes et les molécules par d’autres moyens plus sélectifs, par exemple les décharges électriques dans les tubes fluorescents, les impacts d’électrons sur les écrans de télévision ou dans les aurores boréales. C’est ce qu’on appelle de la lumière froide. L’émission stimulée dans les lasers produit de son coté un rayonnement monochromatique, c’est à dire une longueur d’onde unique.

Certaines réactions chimiques produisent également de la lumière; c’est le cas de la luminescence du phosphore exposé à l’air provoquée par son oxydation et de l’émission de lumière de certains organismes vivants qui utilisent une substance appelée luciférine.

Comment obtenir des couleurs à partir de lumière blanche.

La plupart des objets paraissent colorés quand ils sont éclairés en lumière blanche, parce qu’ils absorbent inégalement les différentes couleurs. Différent phénomènes peuvent en être la cause:

L’iridescence se produit quand une couche mince transparente recouvre une surface de nature différente. Les rayons lumineux réfléchis par les deux surfaces interfèrent, et le décalage entre eux élimine certaines couleurs. C’est ce qui se produit avec une très fine couche d’huile sur l’eau, sur les ailes des papillons, les plumes d’oiseaux, es cristaux liquides et sur certaines algues dans l’eau.

La fluorescence est due à l’absorption d’une partie des couleurs par une substance en solution comme la fluorescéine, la chlorophylle, ou à des cristaux, t à sa réémission avec une longueur d’onde, donc une couleur, différente. Dans deux directions différentes, on peut observer deux couleurs, ’une due à la lumière non absorbée, ’autre à la lumière absorbée et réémise. Les rayons ultraviolets peuvent être réémis sous forme de lumière visible colorée99-irisdescence

                                                                     Iridescence et fluorescence

La phosphorescence est une fluorescence retardée: la substance préalablement éclairée réémet une couleur différente avec un retard plus ou moins long. Il faut noter que la luminescence du phosphore n’est pas une phosphorescence.

Les substances colorées. Une substance paraît colorée si elle absorbe une partie de la lumière blanche. Les molécules sont analogues aux instruments de musiques accordés pour absorber et émettre des sons définis. Ces substances ne renvoient donc que les couleurs qu’elles n’ont pas absorbé: si par exemple elles absorbent le rouge, elles paraîtront vertes. Les substances qui paraissent blanches renvoient intégralement toutes les couleurs.

Il existe quelques molécules colorées simples comme le peroxyde d’azote(NO2), l’ozone (O3),l’iode, qui selon le solvant paraît rose ou brun. Il existe aussi beaucoup de pigments minéraux colorés: des sels et oxydes de fer, cuivre, chrome; le vermillon, le bleu de Prusse, les ocres, les émaux. Ils sont utilisés dans les peintures, les céramiques, les matières plastiques.

Les composés organiques sont le plus souvent incolores. Ils n’absorbent pas la lumière visible, mais l’infrarouge. Ceux qui sont colorés renferment généralement des doubles liaisons qui déplacent leurs bandes d’absorption vers les longueurs d’onde de la lumière visible.

Spectre infrarouge de l’acétanilide1010-spectre-infra

 Colorants et teinture.

Un colorant organique doit être coloré, mais aussi pouvoir se fixer solidement sur les fibres que l’on désire teindre, résister au lavage, à la lumière et si possible à des produits nettoyants comme l’eau de Javel(colorants grand teint). Jusqu’au XIXème siècle, on ne connaissait que des colorants “naturels”extraits de végétaux ou d’animaux comme l’indigo de l’indigotier, l’alizarine de la garance ou la pourpre du murex. Les recettes de teinture étaient empiriques et compliquées.

Les premiers colorants “artificiels”ont été obtenus par hasard comme la mauvéine de Perkins en 1856 et la fuchsine de Verguin en 1859.En 1869, l’alizarine devient le premier pigment naturel à être reproduit synthétiquement quand les chimistes allemands Graebe et Lieberman  , employés chez BASF  , trouvèrent un moyen de l’obtenir à partir de l’anthracène,ruinant la culture de la garance.

La synthèse industrielle de l’indigo, plus laborieuse, a été réussie par Baeyer en 1900.Des modifications de ces deux molécules ont permis d’obtenir une foule d’autres colorants aux teintes et aux propriétés tinctoriales variées, auxquels sont venues s’ajouter d’autres familles de colorants de nature complètement différentes.

Les procédés empiriques de teinture ont été remplacés par des techniques plus rationnelles et plus simples utilisant des colorants teignant la laine, la soie et le coton sans traitements préalables. Nylon);polyesters,(Tergal;Terylene; Dacron);acryliques,(Orlon;Crylor) ont exigé de nouveaux colorants ou de nouvelles techniques.

Synthèse des colorants.

La synthèse des colorants a été la première application industrielle de la chimie organique. Jusqu’en 1914,elle a été une exclusivité allemande. Les grandes sociétés chimiques ont souvent été à l’origine des fabricants de colorants(Baeyer; Rhône Poulenc; BASF; IG Farben; CIBA),et elles se sont ensuite diversifiées dans d’autres domaines: pharmacie, parfums, matières plastiques, textiles synthétiques, etc.

La matière première a longtemps été le goudron de houille, résidu des cokeries et des usines à gaz, avant qu’il soit remplacé au moins en partie par des produits pétroliers. Ces goudrons sont des mélanges de nombreuses substances, mais, contrairement à ce qu’on croit parfois, les colorants ne préexistent pas dans les goudrons, pas plus qu’aucun autre produit de synthèse. On en extrait un petit nombre de substances définies et incolores :le benzène(benzine) le toluène, le naphtalène(la naphtaline),l’anthracène, le phénol, molécules assez simples qui vont servir de squelettes pour synthétiser des milliers de colorants.(fig.10)

Deux colorants célèbres: L’alizarine et l’indigo.

Ces colorants extraits de plantes étaient connus dès l’Antiquité. L’alizarine, colorant pour mordant, exige un traitement préalable des fibres, le mordançage, au moyen de sels métalliques. Connue aussi sous le nom de rouge turc, elle donnait sa couleur aux pantalons de l’armée française. isolée pure en 1826,sa constitution avait été établie en 1868 et sa synthèse réalisée en 1870.Il en existe actuellement de très nombreux dérivés .

L’indigo a été introduit en Europe au XVIème siècle. Il était extrait de l’indigotier, plante tropicale originaire des Indes, de la Chine et du Japon. C’est ce qu’on appelle un colorant de cuve: on le dissout dans un bain sous une forme soluble et incolore, on en imprègne les fibres ou les étoffes qu’on expose ensuite à l’air. Par oxydation, l s’insolubilise, se fixe, et retrouve sa couleur bleue. C’est le colorant des “Blue Jeans”.

La détermination de sa constitution, réalisée par Baeyer entre 1841 et 1870,a été laborieuse car les moyens de l’époque étaient rudimentaires(celle du camphre avait demandé une cinquantaine d’années)De nombreuses tentatives de synthèse industrielles n’ont abouti qu’en 1900. Ensuite, comme pour l’alizarine, de très nombreux dérivés ont été synthétisés1111-alizarine

Les colorants azoïques.

Obtenus dès 1875,ils sont purement synthétiques, et ce sont actuellement les plus importants et les plus nombreux. Appelés aussi colorants à la glace, ils se forment par mélange de deux réactifs incolores en solution refroidie vers 0°.Insolubles, ils se séparent immédiatement du liquide. La réaction mise en jeu s’appelle copulation. Pour les fixer sur une fibre, on l’imprègne d’un des réactifs et on la plonge dans l’autre, mais il existe aussi des colorants azoïques solubles utilisables tels quels.(fig.12).

Colorants divers.

Il existe bien d’autres familles de colorants. Les plus utilisés sont les noirs et les bleus, certains très anciens comme le noir d’aniline(1862),les colorants au soufre(cachou de Laval,1873)et des colorants plus spécialisés comme les cyanines utilisées pour la photographie en couleurs, les phtalocyanines, très stables, les dérivés du triphénylméthane, etc.

Les techniques de teinture.

On a déjà cité les colorants pour mordant comme l’alizarine, les colorants de cuve comme l’indigo et les azoïques insolubles, mais on utilise surtout des colorants solubles capables de se fixer directement sur les fibres au moyen d’un bain de teinture: ce sont les colorants directs, d’utilisation beaucoup plus simple. Pour que le colorant se fixe, il faut qu’il puisse établir des liaisons suffisamment solides avec la structure moléculaire des fibres. La laine, constituée d’acides aminés, renferme des groupements d’atomes capables de fixer aussi bien des colorants acides ou basiques. Elle se teint facilement et peut même épuiser les bains de teinture. Il en est de même de la soie, de composition analogue.

Le coton, composé de cellulose, est plus difficile à teindre. Il ne fixe pas tous les colorants et n’épuise généralement pas les bains. La rayonne viscose, également constituée de cellulose est analogue au coton, tandis que la rayonne acétate(constituée d’acétate de cellulose)exige des colorants spéciaux solubles dans les solvants organiques.

Parmi les fibres synthétiques, les polyamides peuvent se teindre avec des colorants acides, mais les polyesters et les acryliques exigent des colorants spéciaux, à moins qu’on les modifie en introduisant dans leur structure des groupes d’atomes capables de se lies à des colorants classiques.

La teinture par les colorants directs se fait généralement à chaud. Elle doit être progressive pour obtenir une fixation régulière du colorant, l’unisson. Dans ce but, on ajoute au bain de teinture divers adjuvants et des mouillants. Parmi les procédés modernes, on peut citer la teinture sous pression qui permet d’opérer au dessus de 100° et la teinture dans des solvants organiques qui utilise des colorants insolubles dans l’eau.

En résumé, la teinture est un art compliqué et ses techniques sont très nombreuses. Elle permet aussi d’imprimer des dessins colorés en utilisant successivement et localement plusieurs colorants.

La photographie en couleurs est aussi utilisatrice de colorants organiques, mais son mécanisme fondamental repose toujours sur l’utilisation de sels d’argent, avec emploi de filtres sélectifs(trichromie).

Conclusions.

Les atomes et les molécules sont les instruments qui produisent et absorbent la lumière et toutes ses couleurs. La couleur est la sensation par laquelle notre œil et notre cerveau traduisent les différentes longueurs d’onde de la lumière visible. Pour créer ces couleurs, la teinture, longtemps empirique, est devenue une application pratique de la chimie, établie sur des bases théoriques solides et précises.

Le son du silence

Le son du silence

de H.J. Lim

le-son-du-silenceUne enfance, une adolescence et l’orée de l’âge adulte résumées en un seul mot : le piano.

Elle ne pense, ne vit que pour son art. Douleurs, difficultés pour arriver au bonheur…En fin, un bonheur d’artiste. Elle arrive toujours à force de volonté, de courage. Elle refuse la facilité, le bien-être , antinomiques avec son art. Sa mère l’aide, la soutient indéfectiblement, même lorsque la distance s’interpose entre elles.

Beau livre. Merci à celle qui me l’a fait découvrir.

REPARER LES VIVANTS lundi 14 Novembre 2016 à 14h30

Novembre 2016 : le 14 à 14h30

REPARER LES VIVANTS

de Katell Quillévéré (France – 2016 – 1h43) 
reparer-les-vivantsAvec Anne Dorval, Emmanuelle Seigner…
Tout commence au petit jour dans une mer déchaînée avec trois jeunes surfeurs. Quelques heures plus tard, sur le chemin du retour, c’est l’accident. Désormais suspendue aux machines dans un hôpital du Havre, la vie de Simon n’est plus qu’un leurre. Au même moment, à Paris, une femme attend la greffe providentielle qui pourra prolonger sa vie…

À travers un don d’organe et une transplantation cardiaque, c’est tout un questionnement métaphysique qui opère et qui, porté par des images justes, nous installe, ébranlés, à la frontière du trivial et du sacré. Bande à part

La bande annonce : https://youtu.be/QIzlgbyg1-s

Pourquoi j’ai mangé mon père

Pourquoi j’ai mangé mon père

de Roy Lewis

pourquoi-jai-lange-mon-pere_Pendant le pléistocène(- 1 millions d’années avant J-C), Edouard, le père, le génial inventeur qui entre autres donne le feu à la famille : autoritaire et social
L’oncle Vania  est contre le progrès : il se réfugie toujours dans les arbres et est très remonté contre son frère Edouard.
Ernest, le fils est le narrateur. Il a 4 frères : Alexandre, Tobie, Oswald et le petit dernier William.
Les femmes : Mathilde, la mère, les filles , les tantes et Griselda, l’épouse d’Ernest.
Le livre joue sur l’anachronisme entre l’époque décrite et le langage à la précision scientifique du XXème siècle, ce qui provoque une sensation d’ambiance pleine d’humour.
La lutte de l’homme pour sa survie. Il vit de chasse mais les animaux aussi et l’homme ne sort toujours pas gagnant.
Les merveilleuses découvertes d’Edouard, les progrès qu’elles permettent ne sont pas toujours sans danger, mais il n’en a cure.Les fils sont plus circonspects. Allusion transparente à la puissance nucléaire, au « feu atomique  » qui a détruit Hiroshima, comme le précise Vercors dans sa préface.
Si le livre est drôle, il est néanmoins très documenté sur l’homme et ses origines. La postface  le présente comme un récit à trois dimensions :
– celle d’un roman d’aventures quasi picaresque
– celle d’un exposé documentaire
– celle d’une parabole en forme de fable allégorique.

Sa lecture est un vrai bonheur que vous avez peut-être déjà vécu(traduction française en 1990)

Je suis fatigué

Je suis fatigué

de Dany Laferrière (membre de l’Académie française)

je-suis-fatigueCe livre m’a été donné par mon libraire qui fait parie du réseau »Initiales »

Dany Laferrière déclarait, au grand dam de ses lecteurs, qu’il était fatigué et arrêtait du coup d’écrire des romans,
Sa vie par thèmes. Il est haïtien et s’est trouvé obligé de fuir après l’assassinat de son meilleur ami par les « tontons macoutes » de Papa Doc Duvalier, puis de son fils.
Port-au-prince, Montréal (New York), Miami. Ses galères, ses réussites. Dany en liberté, Dany en gloire.

J’ai aimé. Bien écrit. Plein d’humour. Une sorte d’autobiographie.

La petite fille de Monsieur Linh de Philippe Claudel 22 XI 2016

la-petite-filel-linghC’est un vieil homme debout à l’arrière d’un bateau. Il serre dans ses bras une valise légère et un nouveau-né, plus léger encore que la valise. Le vieil homme se nomme Monsieur Linh. Il est seul désormais à savoir qu’il s’appelle ainsi.Debout à la poupe du bateau, il voit s’éloigner son pays,celui de ses ancêtres et de ses morts, tandis que dans ses bras l’enfant dort. Le pays s’éloigne, devient infiniment petit, et Monsieur Linh le regarde disparaître à l’horizon, pendant des heures, malgré le vent qui souffle et le chahute comme une marionnette.

STRUCTURE DE LA MATIERE par M RIO André

rio rioSTRUCTURE DE LA MATIERE

Qu’est ce que la matière ? Il a fallu plus de deux millénaires pour avoir un début de réponse.

Le temps des philosophes.

Pendant très longtemps, seuls les philosophes se sont interrogés sur la nature de la matière. N’ayant d’autres connaissances que les données directement apparentes, ils n’imaginaient pas de moyens plus efficaces que la cogitation, méthode infaillible pour s’égarer.

Fluide ou solide, la matière a des aspects très divers, mais sous ces apparences existe-t-il des constituants fondamentaux, des éléments. Ces éléments sont- ils homogènes ou formés d’entités indivisibles, les atomes ?

Si telle était l’opinion des grecs Démocrite et Epicure, elle était rejetée par Aristote, dont les idées vont s’imposer à l’Occident jusqu’au XVIIIème siècle. Pour Aristote, il n’existe que quatre éléments : la terre, l’eau, l’air et le feu, auxquels il associe quatre qualités : le chaud et le froid, le sec et l’humide. Tout minéral, végétal ou animal doit par nature être chaud ou froid, sec ou humide, indépendamment de nos idées actuelles de température et de degré hygrométrique. Ainsi, le diamant est froid et sec, même s’il est plongé dans l’eau bouillante.

L’alchimie.

Des doutes sont apparus au Moyen Age avec le développement de l’alchimie, science empirique interprétant des opérations concrètes par toute une symbolique spiritualiste, mais préparant l’avènement de la chimie. Les alchimistes sont bien obligés de constater que si la terre est un élément, elle est constituée en réalité de nombreuses substances bien définies et bien différentes les unes des autres, des minéraux qu’on appelle alors des terres : la chaux, l’alumine, la silice, ou encore des substances cristallines comme le sel de mer, l’alun et le salpêtre, et aussi les métaux, qu’on rêve de transmuter sans évidemment y parvenir.

Au XVIIème siècle on parle encore d’atomes, mais, Aristote s’imposant toujours, c’est pour nier leur existence par des considérations métaphysiques. Descartes, qui, heureusement pour lui a d’autres mérites par ailleurs, ne croit ni aux atomes ni au vide, car la matière envahit obligatoirement tout espace disponible. Il soupçonne cependant que sous la variété de la matière il doit y avoir une unité cachée. Son disciple Spinoza, mal inspiré, ne retient de Descartes que le pire, et prétend démontrer par un raisonnement simpliste qu’il n’existe point d’atomes.

Le grand Newton lui même s’est égaré dans l’alchimie, y consacrant vainement beaucoup de temps, en tentant d’expliquer l’affinité des corps par l’attraction universelle. Les temps n’étaient pas encore mûrs pour commencer à y voir clair. C’est seulement au XVIIIème siècle que la chimie émerge de l’alchimie ; débarrassée de la métaphysique, elle devient strictement expérimentale.

Les éléments selon Lavoisier.

a-image-lavoisier

Le phlogistique.

Le charbon , le soufre et quelques métaux sont connus depuis longtemps. En 1669, Brandt découvre le phosphore. Au XVIIIème siècle, on se rend compte qu’il existe d’autres gaz que l’air. Le gaz carbonique a été identifié par Van Heltmont en 1648. L’hydrogène est découvert par Cavendish en 1766, l’azote par Rutherford en 1772, L’oxygène en 1773 par Priestley et Scheele, l’ammoniac par Priestley en 1774 et le chlore par Scheele la même année. Toutes ces substances sont-elles des éléments ou des dérivés de l’air, seul élément gazeux selon Aristote ?

Pour expliquer les combustions, Stahl avait imaginé en 1697 une nouvelle théorie avec un nouvel élément, le phlogistique. Un métal est la combinaison d’une terre avec le phlogistique. Quand il s’altère à l’air, c’est qu’il perd son phlogistique. De même, selon Cavendish, l’hydrogène (l’air inflammable) est une combinaison d’eau et de phlogistique ; en brûlant, il libère l’eau qui est un élément. L’azote est appelé air phlogistiqué, l’oxygène air déphlogistiqué. L’air contient-il donc du phlogistique ? Selon cette théorie, respectueuse d’Aristote, les vrais éléments sont l’air, l’eau et le phlogistique.

La théorie a un grave défaut : la perte de phlogistique s’accompagne d’une augmentation de la masse . Le phlogistique a-t-il une masse négative ? Pour sortir de ces incohérences et en finir avec Aristote, il fallait une révolution ; ce fût celle de Lavoisier.

Lavoisier contre Aristote.

Lavoisier montre d’abord que l’air est un mélange de deux éléments, l’oxygène et l’azote, puis que l’eau est une combinaison d’oxygène et d’hydrogène. Dans un mélange, chaque constituant garde son identité, et les proportions peuvent varier. Une combinaison est une substance nouvelle dont les propriétés sont complètement différentes de celles des constituants et dont les proportions sont rigoureusement définies. Il établit aussi que le gaz carbonique résultat de la combustion du charbon ou de la respiration est une combinaison de carbone et d’oxygène. ( le charbon est du carbone impur) . Il montre que les véritables éléments sont soit des métaux, soit des gaz, hydrogène, oxygène et azote, ou des solides  non métalliques : carbone, soufre, phosphore.

Lavoisier a établi aussi l’ébauche d’une nomenclature rationnelle : L’acide sulfurique, l’acide nitrique, les sulfates et les nitrates remplacent les appellations des alchimistes, vitriol, eau forte, sels divers. Cependant, sa fin tragique laisse son œuvre inachevée. Il n’a pas su que des terres, la chaux, l’alumine, la silice, sont les oxydes d’éléments encore inconnus, que le chlore est aussi un élément, et que la chaleur et la lumière (le feu d’Aristote ) n’en sont pas.

On reparle des atomes.

Dès les premières années du XIXème siècle les découvertes se succèdent. Grâce à la pile de Volta (1800) , l’électrolyse permet à Davy en 1808 de libérer de nouveaux métaux : sodium, potassium, calcium. Gay-Lussac et Thénard obtiennent le bore en 1809, Courtois découvre l’iode en 1811, Balard le brome en 1821, Berzelius le silicium en 1822, Wöhler l’aluminium en 1827 et Bussy le magnésium en 1829.

On doit aussi à Berzelius la notation moderne des éléments et de leurs combinaisons par des symboles et des formules. Dès cette époque, on distingue la

chimie minérale de la chimie organique, qui est en fait celle du carbone, beaucoup plus riche que celle de tous les autres éléments. C’est aussi l’époque ou les lois fondamentales de la chimie apparaissent : lois des proportions définies et des proportions multiples. Quand des éléments s’unissent pour former des composés, c’est toujours dans les mêmes proportions. Ainsi, 2 grammes d’hydrogène s’unissent à 16 grammes d’oxygène pour donner 18 grammes d’eau ; 3 grammes d’hydrogène à 14 grammes d’azote pour 17 grammes d’ammoniac. Gay-Lussac montre de plus en 1805 que quand les substances en jeu sont des gaz et qu’on détermine leurs volumes dans des conditions standard, on constate que 2 volumes d’hydrogène s’unissent à 1 volume d’oxygène pour donner de l’eau, et 3 volumes d’hydrogène à 1 volume d’azote pour 2 volumes d’ammoniac. Tous ces résultats suggèrent à Dalton en 1807 que les éléments sont formés d’objets définis, les atomes, qui s’unissent dans des rapports simples pour former des composés, des molécules, et en 1811, Avogadro propose l’hypothèse que toutes les molécules gazeuses occupent le même volume, quelle que soit leur masse. Il faut savoir aussi que les éléments gazeux ,à l’exception des gaz inertes comme l’hélium, existent normalement sous forme de molécules diatomiques :H; N2

En 1847, Berzelius définit les masses atomiques des éléments en tenant compte des proportions selon lesquelles ils s’unissent. Comme on ne connaît pas encore la masse réelle des atomes, on en définit un multiple arbitraire, l’atome-gramme, soit 1 gramme pour l’hydrogène, 12 pour le carbone, 14 pour l’azote, 16 pour l’oxygène et ainsi de suite jusqu’aux plus lourds. On remarque qu’avec une bonne approximation ces masses sont souvent des multiples de celle de l’hydrogène, ce qui laisse supposer une unité fondamentale de la matière qui sera confirmée plus tard.

Dès la première moitié du siècle, de nombreuses données indiquent donc déjà que la matière doit être faite de particules extrêmement petites capables de s’unir, et qu’il pourrait y avoir entre elles une unité fondamentale, mais l’existence des atomes reste encore une hypothèse contestée.

La classification périodique.

On ne pouvait manquer de constater que certains éléments possèdent des propriétés voisines et forment des familles comme les métaux alcalins, lithium, sodium et potassium , ou les halogènes : chlore, brome, iode. De diverses tentatives, c’est celle de Mendeleïev qui s’est imposée à partir de 1869. Les éléments y sont disposés horizontalement par masses atomiques croissantes et verticalement selon leurs ressemblances. A l’époque, on ne connaissait qu’une soixantaine d’éléments et la classification ne comportait que sept colonnes, car on ignorait encore l’existence des gaz inertes, hélium, néon, argon…et un certain nombre d’emplacements restaient vides. Il fallait aussi forcer un peu la classification pour y introduire ce qu’on appelle les éléments de transition comme le fer, ainsi que les terres rares, les lanthanides, mais à mesure qu’on découvrait de nouveaux éléments, ils venaient se placer dans les espaces libres et possédaient effectivement des propriétés conformes aux prévisions. Par la suite, toutes les anomalies apparentes vont s’expliquer grâce à une nouvelle physique, celle des quanta.

N, le nombre d’Avogadro.

Combien y a t-il d’atomes dans un gramme d’hydrogène ? C’est seulement au début du XXème siècle qu’on a connu la réponse, confirmant définitivement l’existence des atomes. Pour y parvenir, il a fallu utiliser des méthodes qui font

b-classification-franceintervenir des grandeurs liées aux caractéristiques des atomes ou des molécules : l’épaisseur d’un film monomoléculaire d’huile sur l’eau ou d’une bulle de savon, la charge électrique de l’électron, l’intensité de la lumière diffusée par les molécules d’un gaz (le bleu du ciel), la diffraction des rayons X, dont la longueur d’onde est de l’ordre de la dimension des atomes, la radioactivité, et le mouvement brownien. Ce dernier, dont la théorie est due à Einstein et la réalisation à J. Perrin a joué un rôle décisif . Il s’agit du mouvement désordonné de particules microscopiques dispersées dans un liquide, qui se comportent comme les molécules d’un gaz qui se déplacent à grande vitesse et s’entrechoquent continuellement. Toutes ces méthodes délicates et quelques autres ont abouti à des résultats convergents :

N = 6,02 10 23

Soit près d’un million de milliards de milliards d’atomes d’hydrogène, dans un volume de 11,2 litres dans les conditions standard, à 0° et à la pression atmosphérique.

La structure des atomes.

Contrairement à leur définition initiale, les atomes ne sont pas insécables, ce que vont révéler diverses expériences. Un filament métallique chauffé placé dans un champ électrique émet des particules négatives, les électrons, qui en sont un des constituants. Un élément radioactif comme le radium se dissocie spontanément en émettant : un rayonnement alpha constitué d’hélions, des noyaux d’hélium positifs ; un rayonnement bêta formé d’électrons et un rayonnement gamma sans charge ni masse, de même nature que les ondes radio, la lumière ou les rayons X , et qui n’est pas un constituant de l’atome mais une forme d’évacuation de l’énergie dégagée par la fission. Une expérience décisive due à Rutherford en 1910 a consisté à diriger un faisceau d’hélions sur une feuille d’or très fine. Si les atomes du métal avaient été formés d une masse homogène, la feuille aurait constitué un obstacle infranchissable. En réalité, presque tous les hélions la traversent sans être perturbés ; seuls quelques uns , 1 sur 2000 environ, sont fortement déviés. Un atome, électriquement neutre, est donc constitué d’un noyau positif extrêmement dense, 1000 fois plus petit que le nuage d’électrons qui l’entoure . Le noyau lui même est constitué de protons positifs en nombre égal à celui des électrons, et de neutrons en nombre variable indispensables pour compenser la répulsion électrique entre protons.

Fallait-il considérer l’atome comme un système solaire en miniature, où les électrons sont retenus par la charge positive du noyau et peuvent se placer à n’importe quelle distance ? S’il en était ainsi, les électrons perdraient de l’énergie sous forme de rayonnement et finiraient par tomber sur le noyau comme un satellite freiné par l’atmosphère, mais il n’en est rien, la structure de l’atome obéit à la physique quantique, et les échanges d’énergie se font par quantités discontinues. Les électrons ne peuvent se trouver que sur des orbites ou des niveaux d’énergie définis. Ils peuvent sauter d’un niveau à l’autre mais ne peuvent se placer nulle part ailleurs. La physique quantique définit une série de niveaux principaux qui se subdivisent en divers niveaux secondaires dont chacun ne peut porter qu’un seul électron. Cette répartition explique la classification périodique des éléments :

premier niveau :                                  2 électrons, 2 éléments .

deuxième et troisième :                      8 électrons, 8 éléments.

quatrième et cinquième :                 18 électrons, 18 éléments dont 10 éléments de transition.

sixième et septième : 32 électrons,32 éléments, dont 10 éléments de transition et 14 lanthanides ou actinides.

Un apport d ‘énergie permet à un électron périphérique de sauter sur un niveau supérieur inoccupé. Il retombe en restituant cette énergie sous forme de lumière, un photon. Chaque élément présente ainsi un spectre formé de raies caractéristiques correspondant chacune à un saut spécifique.

La plupart des éléments possèdent une couche extérieure d’électrons incomplète. Pour la compléter, ils s’associent entre eux en mettant en commun les électrons disponibles, ce qui crée entre eux des liaisons. Ainsi, la molécule d’hydrogène peut être symbolisée par H : H, puisque le premier niveau ne comporte que 2 électrons. Pour obtenir des couches complètes d’électrons, un autre mécanisme peut intervenir, l’ionisation : l’atome de chlore comporte 7 électrons périphériques, le sodium un seul., sur des couches qui peuvent porter 8 électrons. Le chlorure de sodium solide est un empilement d’atomes ionisés, Cl et Na+, qui se dissocie en solution. L’électron abandonné par le sodium complète à 8 la couche du chlore.

Interprétée par la physique quantique, la structure des atomes a donc permis d’expliquer les raies lumineuses qu’ils émettent, la classification périodique, l’association des atomes en molécules et l’unité fondamentale de la matière.

Les particules élémentaires et les interactions.

Trois particules suffisent pour constituer toute la matière : l’électron, découvert en 1897 par J.J. Thomson, et dont la charge électrique a été mesurée par Millikan en 1911 ; le proton, identifié par Rutherford en 1910 ; et le neutron découvert par Chadwick en 1932. Il y a aussi le photon, quantum de lumière, reconnu par Einstein en 1905, qui participe aux échanges d’énergie avec la matière.

Dès la première moitié du siècle, la recherche des rayons cosmiques, puis, quelques années plus tard, les accélérateurs de particules, en révèlent bien d’autres : l’antiélectron ou positon, l’antiproton négatif, des mésons, des neutrinos, prévus longtemps avant d’être détectés, puis une cascade de particules lourdes et instables, au total près d’une centaine, dont on ne comprend pas la raison d’être. C’est en 1960 que Gell-Mann et Zweig proposent une interprétation : la plupart de ces particules, y compris proton et neutron, ne sont pas élémentaires, mais constituées de quelques particules fondamentales les quarks. Comme Mendeleïev avait classé les éléments, on classe ces particules, et là encore des particules d’abord pressenties, puis découvertes, y trouvent leur place. Vers la fin du siècle, le classement est achevé. Il comporte deux sortes de particules, les leptons, dont l’électron, et les quarks, qui se répartissent en trois familles de masses croissantes, et on établit qu’il n’en existe pas d’autres. A chaque particule correspond également une antiparticule de même masse et de charge électrique opposée.

Quelles caractéristiques peut-on attribuer à une particule élémentaire constituant la matière? Elle possède une masse, et une charge électrique qui peut être nulle ou égale à celle de l’électron, ou fractionnaire pour les quarks : 1/3 ou 2/3, positive ou négative. Peut-on leur attribuer une dimension, un volume, une forme ? c’est le cas pour les particules composites comme le proton, non pour les particules réellement élémentaires, les leptons et les quarks. Un électron par exemple n’est pas une petite bille. Quand il se déplace, il se comporte comme une onde lumineuse, peut créer des interférences, et on ne peut lui attribuer une trajectoire définie. On ne peut le localiser que quand il a interagi avec un écran , exactement comme un photon.

Les constituants ultimes de la matière ont des caractéristiques et des propriétés très éloignées de nos intuitions. Ce sont cependant eux qui sont le soubassement de notre environnement familier. Ce qui est remarquable aussi c’est qu’un si petit nombre de particules aboutisse à l’extraordinaire variété de l’univers, grâce à leur possibilité de s’associer en atomes et en molécules.

Il existe quatre interactions fondamentales dont trois concernent directement le comportement des particules. L’interaction électromagnétique, transmise par le photon, particule sans masse ni charge, lie les électrons aux noyaux dans les atomes et les atomes entre eux . L’interaction forte unit les quarks dans les associations qu’ils forment, comme les protons et les neutrons, et ces derniers entre eux dans les noyaux. Elle est assurée par 8 particules sans masse, les gluons, auxquels on attribue des charges dites de couleur. L’interaction faible est incapable de créer des liaisons, mais elle intervient dans la dissociation du neutron en proton et dans la radioactivité. Trois particules y contribuent/ W+, W et Z°, qui avaient été prévus avant qu’on les obtiennent effectivement , et dont les masses avaient été estimées avec une bonne approximation.c-constituants-elementaires

La quatrième interaction, la gravité, n’intervient pratiquement pas dans les propriétés des particules élémentaires. Son quantum d’énergie, le graviton, reste hypothétique, et son statut entre la relativité générale et la physique quantique est encore incertain. Ce qui est remarquable, c’est que le moindre dérèglement dans l’intensité des interactions aboutirait à un univers complètement chaotique où aucun atome ne pourrait subsister. Le notre est-il dû à un concours de circonstances exceptionnel ?

Les liaisons et les états de la matière.

Toutes les liaisons entre les atomes sont assurées par leurs électrons périphériques. Les plus fortes contribuent à la stabilité des molécules, ce sont les liaisons covalentes, mises en commun d’électrons, comme dans la molécule d’hydrogène ou les composés du carbone ; la liaison ionique des sels comme le chlorure de sodium, et la troisième, la liaison semi-ionique, où au lieu d’une mise en commun de deux électrons, un seul des atomes en apporte deux. On trouve ces liaisons entre le soufre ou le phosphore et l’oxygène dans les sulfates et les phosphates. Toutes ces liaisons sont durables et contribuent à la stabilité de l’état solide, qui dépend aussi de la masse des molécules et de la température. Cet état est ordonné dans les cristaux, désordonné dans le verre et certaines matières plastiques. Dans les métaux, la cohérence est due à la mise en commun d’électrons libres qui assurent également la conductibilité électrique.

Il existe aussi d’autres liaisons beaucoup plus faibles : la liaison hydrogène, liaison éphémère entre l’atome d’hydrogène d’une molécule et un atome d’oxygène ou d’azote d’une autre, qui se fait et se défait constamment. C’est cette liaison qui fait que l’eau est liquide au dessus de 0°, contrairement à l’hydrogène sulfuré de constitution analogue qui est gazeux. Au dessous de 0°, cette liaison devient stable et l’eau gèle.

Une autre liaison faible, la liaison polaire, est due à ce que dans une molécule d’acétone par exemple, où il existe une double liaison entre un atome de carbone et un atome d’oxygène, le nuage d’électrons qui assure cette liaison est attiré plus fortement du côté de l’atome d’oxygène. La dissymétrie qui en résulte crée une attraction entre les molécules : l’acétone est liquide alors qu’un composé proche, le propane, est gazeux.

Une dernière attraction, plus faible, est due à ce qu’on appelle la force de Van der Waals : quand deux molécules se rapprochent, elles modifient légèrement la répartition des électrons qui assurent leur cohésion, faisant apparaître des charges de signes opposés qui provoquent une faible attraction entre des molécules d’hydrocarbures par exemple, insensibles aux liaisons hydrogène et polaire.

Toutes ces liaisons contribuent aussi à la solubilité ou à la miscibilité des solides et des liquides. Si huile et eau ne se mélangent pas, c’est qu’il n’existe pas d’attraction suffisante entre leurs molécules, alors que les molécules d’eau ou d’huile se lient facilement entre elles. Les émulsionnants, capables de se lier à la fois aux unes et aux autres, permettent de les mélanger intimement comme dans la mayonnaise.

Les limites de la physique quantique.

Si la physique quantique a expliqué un grand nombre de phénomènes, elle laisse des questions fondamentales sans réponse. Comme toute théorie, elle a ses limites qui s’expriment par exemple par les limites de Planck . Il s’agit de grandeurs qui s’expriment à partir de quatre constantes fondamentales exprimées ici en unités internationales :

G : constante de la gravité = 6,172.10-11

C : vitesse de la lumière = 3. 108

h : constante de Planck = 6,61. 10-34

K : constante de Boltzmann = 1,38. 10-23

Ces limites ont les valeurs suivantes :

Masse de Planck : 2.10-5 grammes

Longueur : 1,5. 10-33 centimètre

Temps : 10-43 seconde

Température : 1032 °K

Densité : 1093 grammes par millilitre

Energie : 1019 GeV, soit 1,8. 1014 joules ou 500 Kw.h.

Il s’agit de valeurs extrêmes qui bornent les prévisions de la théorie, sans qu’on puisse affirmer qu’il s’agit de ses propres limites ou d’un obstacle physique réel, La masse est le minimum nécessaire pour qu’une particule puisse s’effondrer sous son propre poids , sachant que toute particule est associée à une onde qui ne peut être confinée dans une volume de dimension inférieure à la longueur de Planck. Le temps de Planck est la période de vibration de cette onde, la densité celle de la masse concentrée dans le volume correspondant à la longueur d’onde ; l’énergie, celle de la masse de Planck selon la relativité (E = m C2) , et la température le niveau d’agitation provoqué par cette énergie. Ce sont donc les conditions les plus extrêmes que puisse décrire la physique quantique, mais qu’en est-il au delà ? On peut remarquer les valeurs énormes de la densité et de la température, et infimes de celles de la longueur et du temps.

On considère l’espace vide comme renfermant une énergie virtuelle capable de se matérialiser constamment en particules fugitives qui disparaissent aussitôt. Des théories encore non confirmées essaient d’aller plus loin : l’hypothétique boson de Higgs expliquerait la masse des particules et la théorie des cordes les assimile à des segments linéaires capables de vibrer de différentes façons correspondant aux diverses particules et tente de concilier quanta, gravité et relativité générale. La supersymétrie envisage de nouvelles particules encore non observées correspondant à celles connues par un changement de spin. Enfin l’astronomie a apporté des faits nouveaux dont les trous noirs, la matière noire et l’énergie sombre.

Les trous noirs. Pour chaque astre, on peut calculer une vitesse de libération, vitesse minimale pour qu’un objet à sa surface puisse échapper complètement à son attraction. Pour la Terre par exemple, cette vitesse est de 11 km par seconde, et pour un astre suffisamment massif et suffisamment condensé cette vitesse peut atteindre celle de la lumière : rien même la lumière ne peut lui échapper. L’astronomie a pu montrer que de tels astres existent effectivement. C’est le sort d’étoiles massives en fin de vie, mais il en existe de bien plus massifs au centre des galaxies qui peuvent atteindre des millions de masses solaires. Ils ne se manifestent que par l’attraction qu’ils exercent sur leur environnement.

La matière noire. L’observation du mouvement des étoiles dans les galaxies et des galaxies entre elles ne peut s’expliquer que par la présence d’une matière pesante qui enveloppe les galaxies mais n’interagit pas autrement avec la matière ordinaire et n’émet aucun rayonnement observable

L’énergie sombre, au contraire semble répartie uniformément dans l’espace et expliquerait que l’expansion de l’univers, que l’on pensait se ralentir peu à peu, s’accélère au contraire depuis quatre milliards d’années.

Au total, la matière ordinaire ne représenterait que 4% environ de l’énergie totale de l’univers et la matière noire un tiers, le reste étant constitué par l’énergie sombre dont la nature, comme celle de la matière noire, reste inconnue malgré diverses hypothèses à confirmer. L’évolution des connaissances se fait par sauts. Chaque fois qu’un phénomène est expliqué, c’est pour révéler de nouveaux inconnus dont l’ultime, au delà du Big-Bang, est peut-être l’origine de l’énergie qui constitue l’univers.

En conclusion, la physique quantique explique en grande partie les propriétés de la matière. Elle montre que les échanges d’énergie entre rayonnement et matière se font par quantités discontinues, les quanta ; que les particules élémentaires se comportent comme des ondes quand elles se déplacent et comme des objets ponctuels quand elles interagissent. Elle explique la structure et les propriétés des atomes et des liaisons qu’ils établissent entre eux pour former des molécules.

En contradiction avec notre intuition, mais confirmée par l’expérience, elle interprète le comportement des particules corrélées qui agissent comme un objet unique quelle que soit la distance qui les sépare.

Malgré ses succès remarquables elle a ses limites qui semblent indiquer que la nature profonde de l’espace et du temps réclament une nouvelle approche.