Actu Atelier Aimons la musique ensemble Janvier 2017

Le 09 janvier 2017, nous étions réunis pour écouter l’une d’entre nous nous parler des femmes compositrices. Elle a déploré la rareté des documents sur le sujet, le peu de disques qui leur ont été consacrés, l’oubli dans lequel stagnaient leurs œuvres.

Prochaine séance : le 20 février consacrée au CHANT GREGORIEN

Séances suivantes : le 20 mars et le 10 avril

Actu Atelier Lecture n°1 janvier 2017

Le 24 janvier 2017, l’Atelier Lecture n°1 s’est intéressé à « La mort à Venise » de Thomas Mann. La discussion fut très dens , s’accordant à penser ce livre riche, si riche que nous n’avons pass été en mesure d’en faire le tour.

Nous avons la chance d’avoir parmi nous une germanophile parlant et lisant l’allemand qui possède une version bilingue du livre. Nous avons eu l’occasion de comparer différentes traductions plus ou moins proche de l’original et de ses nuances poétiques.

Pour le 21 février, nous avons choisi de lire les « Insatiables » de Gila Lustiger, un autre roman allemand, tout récent sorti en septembre 2016.S’inspirant de faits réel, il est dédié au journalisme d’investigation.

Albert EINSTEIN par Pierre Berlivet

Albert EINSTEIN

2017 CR Enstein Albert par P Berlivet

par Pierre BERLIVET

«La logique vous mènera d’un point A à un point B, l‘imagination vous mènera absolument partout.»
«Seules deux choses sont infinies. L’univers et la stupidité de l’homme. Et encore, je ne suis pas certain de l’infinité de l’univers».
« Placez votre main sur un poêle une minute et ça vous semble durer une heure. Asseyez-vous auprès d’une jolie fille une heure et ça vous semble durer une minute. C’est ça, la relativité. » Albert Einstein

1) Formation

Albert Einstein nait le 14 mars 1879 à Ulm, dans une famille juive non pratiquante.
Einstein présente un parcours scolaire atypique. Très tôt, le jeune homme s’insurge du pouvoir arbitraire exercé par les enseignants, et est dépeint par ces derniers comme un mauvais élément, très étourdi.

Il commence sa scolarité à Munich et en est renvoyé à l’âge de 15 ans pour indiscipline, malgré d’excellents résultats en mathématiques. Après un passage en Italie, la famille s’installe en Suisse.

En 1896, après avoir été une première fois recalé, il intègre l’École polytechnique fédérale de Zurich (sans avoir de bac) où il se lie d’amitié avec le mathématicien Marcel Grossmann, qui l’aidera plus tard en géométrie non euclidienne. Il y rencontre aussi Mileva Maric, sa première épouse. Il obtient de justesse son diplôme en 1900.

Au cours de cette période, il approfondit ses connaissances en autodidacte. Cette période de 1900 à 1902 est marquée par la précarité de sa situation. En 1901, il publie son premier article scientifique dans les Annalen der Physik dédié à ses recherches sur la capillarité, article qui le fait remarquer de Max Planck qui dirigeait le comité de lecture de ces annales.
En juin 1902, le père de son ami Grossman lui trouve un emploi au Bureau fédéral de la propriété intellectuelle à Berne, en tant qu’expert technique : travail qui lui permet de poursuivre ses activités de recherches scientifiques.
En 1903, il fonde l’Académie Olympia, cercle de discussion avec Conrad Habicht et Maurice Solovine, qui traduira plus tard ses œuvres en français.
En 1906, il passe son doctorat.

2) 1905 –  l’infiniment petit – théorie de la relativité restreinte

En 1905, il publie 4 articles, à quelques semaines d’intervalles, dans les Annales de Physique, articles qui vont révolutionner cette science :

2 postulats :

  1. Les lois de la physique ont la même forme dans tous les référentiels galiléens  
  2. La vitesse c (env 300 000 km/sec)de la lumière dans le vide a la même valeur dans tous les référentiels galiléens
  • l’effet photoélectrique  désigne en premier lieu l’émission d’électrons par un matériau soumis à l’action de la lumière.Il propose une explication, en utilisant le concept de particule de lumière, appelé aujourd’hui photon, et celle du quantum d’énergie :ce phénomène est provoqué par l’absorption de photons, les quanta de lumière, lors de l’interaction du matériau avec la lumière.
     Cet article lui vaudra le Nobel en 1921.
  • le mouvement brownien.
    ce mouvement serait du aux molécules qui tireraient leur énergie cinétique de la chaleur. Cet article fournit une preuve théorique, vérifiée expérimentalement par Jean Perrin en 1912, de l’existence des atomes et des molécules.
  • l’électrodynamique des corps en mouvement
    Il s’attaque au postulat d’un espace et d’un temps absolus, à l’existence de l’éther, milieu interstellaire inerte qui devait soutenir la lumière comme l’eau ou l’air soutiennent les ondes sonores dans leurs déplacements.
    Einstein utilise des horloges, parfaitement synchronisées au début de l’expérience de pensée, pour comparer la dilatation du temps que subit un corps qui se déplace plus rapidement qu’un autre(ou la dilatation de l’espace entre un corps immobile et un corps en mouvement à très grande vitesse : schéma différence entre verticale et diagonale)

Deux conclusions : l’éther n’existe pas, et le temps et l’espace sont relatifs.

  • L’inertie d’un corps dépend-elle de son contenu en énergie ?
    Sa conclusion : la formule d’équivalence masse-énergie, E=mc2.
    En plus de l’énergie potentielle (chute des corps ex) et de l’énergie cinétique, il existe une énergie interne (au repos). Une faible perte de masse (uranium) permet de libérer une quantité très importante d’énergie. En découlera un vaste champ d’études et d’applications : physique nucléaire, mécanique céleste, et armes et centrales nucléaires,

3) 1915 – l’infiniment grand – la théorie de la relativité générale .

Les «équations du champ» sont la clé de voûte de cette théorie de la gravitation.
La relativité générale ajoute à la relativité restreinte que la présence de matière pouvait déformer localement l’espace-temps lui-même, de telle manière que des trajectoires dites géodésiques à travers l’espace-temps ont des propriétés de courbure dans l’espace et le temps.

Plus simplement,toute masse courbe l’espace autour d’elle, en formant des géodésiques. Plus la masse est grande, plus elle déforme l’espace, comme sur le schéma.

C’est de cette manière que les étoiles attirent les planètes autour d’elles, et que les planètes attirent des lunes.

Quand la masse est concentrée dans une région de l’espace suffisamment compacte, la relativité générale prédit la formation d’un trou noir – une région de l’espace dont l’attraction gravitationnelle est si forte que même la lumière ne peut s’en échapper.
Pour vérifier la relativité générale, une mesure de la déviation des rayons lumineux aux alentours d’une masse lors d’une éclipse solaire est envisagée. Prévue en 1915, Arthur Eddington réalise en 1919 cette mesure et annonce que les résultats sont conformes à la théorie d’Einstein.

4) Années de reconnaissance à partir de 1910

En 1909, Albert Einstein est reconnu par ses pairs, en particulier Planck et Nernst, qui souhaitent l’inviter à l’université de Berlin. Les offres d’emplois se multiplient. En 1911, il est invité au premier Congrès Solvay, en Belgique, qui rassemble les scientifiques les plus connus, rencontrant entre autres Marie Curie, Max Planck et Paul Langevin.

Son ancien condisciple Marcel Grossmann l’aide dans ses travaux en lui apportant ses connaissances en géométrie différentielle : ils publient un article sur les tenseurs de Ricci et de Riemann-Christoffel en 1913.
En 1913, Albert est nommé à l’Académie des sciences de Prusse.
En 1914 toujours, il devient membre de l’Académie royale des sciences et des lettres de Berlin.
En octobre 1914, Einstein publie un article sur la géométrie différentielle, et en juin 1915, il donne des conférences à l’université Göttingen.

La théorie de la relativité générale publiée donc en 1915, Einstein recommence à travailler sur la physique des quanta et introduit en 1916 la notion d’émission stimulée qui lui permet de retrouver la loi de Planck à partir d’hypothèses purement quantiques sur la façon dont les quanta de lumière (photons) sont absorbés et émis par les atomes.
En 1916 toujours, Einstein montre qu’il convient d’associer une quantité de mouvement au quantum de lumière ; hypothèse qui sera validée par l’expérience en 1923 grâce aux travaux d’Arthur Compton. La démonstration que la lumière est formée de particules associées à des ondes donne naissance à la physique quantique dont le principe probabiliste sera contesté par Einstein(controverse Einstein – Bohr :au  «Dieu ne joue pas aux dés.” de l’un réponse de l’autre «Qui êtes-vous, Einstein, pour dire à Dieu ce qu’il doit faire ?”
Autre polémique : des travaux d’Einstein l’abbé Lemaître démontre que l’univers est en constante expansion. En raisonnant à rebours, l’univers serait donc parti d’un atome primitif : naissance de la théorie dite du «big bang». La Pape Pie XII saisit l’occasion de reparler de Genèse, de Bible et de «FiatLux» …
En 1921, il est nommé au Nobel de Physique

En 1925, il est lauréat de la médaille Copley,

5) Einstein, l’homme

À la fin de l’année 1902, naît le premier des enfants d’Albert Einstein, Lieser dont existence a longtemps été ignorée. Albert et Mileva se marient en 1903. En 1904, le couple donne naissance à Hans-Albert, puis en 1910 naît Eduard Einstein.

En 1914, il déménage en Allemagne et habite à Berlin de nombreuses années et d’emploi qu’il consacre tout entier à ses travaux de recherche. Mileva et Albert se séparent, et ce dernier fréquente une cousine berlinoise, Elsa.
À l’ouverture du conflit de la Première Guerre mondiale, il déclare ses opinions pacifistes. Albert Einstein fait construire une maison à Caputh, près du lac de Havelsee : l’endroit est calme et lui permet de faire fréquemment de la voile et du violon.
Durant l’entre-deux-guerres, il se rend en Palestine pour participer à la création de l’Université Hébraïque de Jérusalem.
Dès les années 1920 il subit en Allemagne des attaques visant ses origines juives et ses opinions pacifistes. En 1928 il est nommé président de la Ligue des Droits de l’homme.
Peu après l’arrivée d’Hitler au pouvoir, au début de 1933, il apprend que sa maison de Caputh a été pillée par les nazis, et il décide de. s’installer aux États-Unis, où il travaille à l’Université de Princeton. Ses recherches visent à élaborer une théorie unifiant la gravitation et l’électromagnétisme, mais sans succès,
Le 2 août 1939, sous la pression de Leó Szilárd, physicien venu d’Allemagne, il rédige une lettre à Roosevelt, qui contribue à enclencher le projet Manhattan (projet de bombe A) auquel il ne participera pas. Comment aurait-il pu participer lui le pacifiste, l’anti-militariste, allemand de naissance, apatride (1896), suisse (1901) puis de double nationalité helvético-américaine (1940) ?

Approché pour être Président d’Israël, il déclinera la proposition.
Piètre mari, père inattentif, ce génie s’éteint le 18 avril 1955 d’une rupture d’anévrisme.

«Je ne peux pas imaginer un Dieu qui récompense et punit l’objet de sa création. Je ne peux pas me figurer un Dieu qui réglerait sa volonté sur l’expérience de la mienne. Je ne veux pas et je ne peux pas concevoir un être qui survivrait à la mort de son corps. Si de pareilles idées se développent en un esprit, je le juge faible, craintif et stupidement égoïste»

………………………………………………………………………………………………………………….

ref : CY-J2017OI26

Les OEM (Ondes Electromagnétiques) et leurs APPLICATIONS CRn°5 Roger MEVEL

Atelier Sciences – Roger MEVEL
CR de la Séance n°5 du 18/01/2017

Atelier Sciences du 18-01-2017

Les OEM (Ondes Electromagnétiques) et leurs APPLICATIONS

1 –  Les 4 premières séances

Une onde électromagnétique comporte à la fois un champ électrique et un champ magnétique oscillant à la même fréquence. Ces deux champs, perpendiculaires l’un par rapport à l’autre se propagent dans un milieu selon une direction orthogonale (figure ci-dessous).
La propagation de ces ondes s’effectue à une vitesse qui dépend du milieu considéré. Dans le vide, la vitesse de propagation est égale à 3.108 m/s. 1

Une onde électromagnétique est caractérisée par plusieurs grandeurs physiques : La période (T) : elle représente le temps nécessaire pour que l’onde effectue un cycle. L’unité est la seconde. La fréquence (f) : inverse de la période, elle traduit le nombre de cycles par unité de temps.
Elle s’exprime en Hertz (Hz) – un Hz équivaut à une oscillation par seconde – La longueur d’onde (λ) : elle exprime le caractère oscillatoire périodique de l’onde dans l’espace.
C’est la longueur parcourue par l’onde pendant une période T dans l’espace (figure ci-dessus) donc la distance séparant deux crêtes successives.
Nous avons donc la relation suivante : λ = c T ou encore λ= c/f car f = 1/T Les échanges d’énergie portée par le rayonnement électromagnétique ne se font pas de manière continue, mais de façon discrète, sous forme de paquets d’énergie, véhiculés par des corpuscules élémentaires immatériels, les photons. La relation suivante exprime la quantité d’énergie (E) associée à un photon en 2 fonction de la fréquence de l’onde : E = h f ou h est la constante de Planck (6,625.10-34 J.s).

Les ondes radio AM (Amplitude Modulation) et FM (Frequency Modulation)
1 -Les grandes ondes (GO) ou ondes longues (OL), Long Waves (LW en anglais) (30 kHz à 300 kHz[ ) se propagent par onde de sol et sont utilisées par les stations de radio en modulation d’amplitude, pour des communications à moyenne distance (500 à 1 000 km). Un seul émetteur LW couvre à peu près tout le territoire national.
2 – Les petites ondes (PO) ou ondes moyennes (OM), Medium Waves (MW en anglais) (300 à 3 000 kHz) se propagent également par onde de sol.
3 – Les ondes courtes (OC) ou Shortwave (SW en anglais) (3 MHz et 30 MHz) se propagent par réflexions successives entre le sol et l’ionosphère avec donc une portée de plusieurs milliers de kilomètres (domaine entre autres des radioamateurs).
4 – Les très hautes fréquences (very high frequency/VHF) est la partie du spectre radioélectrique s’étendant de 30 MHz à 300 MHz. Ces ondes se propagent en vue directe (en ligne droite). La radio FM (pour Frequency modulation) correspond à la bande 87,5 – 108 MHz souvent appelée « bande FM » .
5 – La modulation sert à transmettre le signal utile S(t) (le son ici) fourni par le microphone à l’aide d’un autre signal P(t) (porteuse) d’une fréquence nettement plus élevée qui est l’Onde ElectroMagnétique. A la réception il suffit alors de démoduler le signal pour avoir accès à l’information d’origine que l’on applique à un haut-parleur.
La modulation d’amplitude : AM Dans ce type de modulation le signal source fait varier l’amplitude de la porteuse. La modulation d’amplitude est très sensible aux perturbations électromagnétiques qui peuvent modifier l’amplitude de la porteuse et donc du signal source lors de la démodulation.
La modulation de fréquences : FM En modulation de fréquences le signal source fait varier la fréquence de la porteuse La modulation de fréquences est peu sensible aux perturbations électromagnétiques. Le signal démodulé est donc identique à celui de la source.

Global Positioning System (GPS)
Le GPS (Global Positioning System) est un système de géolocalisation fonctionnant au niveau mondial et reposant sur l’exploitation de signaux radio émis par des satellites dédiés. Le système GPS permet de se situer où qu’on soit dans le monde depuis 1995.

Composition
1 – Segment spatial La constellation est organisée autour de 24 satellites. Disposés sur six plans orbitaux (4 satellites par plan) ayant une inclinaison d’environ 55° sur l’équateur . Ils suivent une orbite quasi-circulaire de rayon 26 600 km environ (soit une altitude de 20 200 km) qu’ils parcourent en 11 h 58 min 2 s, soit un demi-jour sidéral.

Comparaison entre jour sidéral et jour solaire :
la planète positionnée en 1 met un jour sidéral (23 H 56’ 4’’) pour arriver en 2 et un jour solaire (24 H) pour arriver en 3
.
2 – Segment de contrôle
C’est la partie qui permet de piloter et de surveiller le système. Il est composé de cinq stations au sol. Leur rôle est de mettre à jour les informations transmises par les satellites (éphémérides, paramètres d’horloge) et contrôler leur bon fonctionnement.

3 – Segment utilisateur Le nombre maximum d’utilisateurs GPS est illimité. En 2014, le nombre total de récepteur GPS est estimé à 3,6 milliards. Les smartphones avec GPS intégré sont les plus nombreux avec 3,08 milliards, suivi par les 260 millions d’assistants de navigation pour des applications routières. Le nombre restant d’appareils est réparti entre des applications variées : autres transports (aviation, ferroviaire, maritime), topographie, agriculture, infrastructure critique.
Principe de fonctionnement
1 – Calcul de la position

Le positionnement GPS fonctionne grâce à un moyen que vous connaissez sûrement : la triangulation (qui consiste à utiliser uniquement les distances pour localiser un objet). Toutes les millisecondes, les satellites émettent des signaux codés sous forme d’onde radio.
Le récepteur calcule le temps mis par l’onde émise par le satellite pour lui parvenir. La vitesse de propagation du signal étant connue, le récepteur détermine une sphère sur laquelle est nécessairement sa position. (distance = temps x vitesse). Avec un deuxième satellite, l’intersection des deux sphères forment un cercle. Puis avec un troisième satellite, deux points. On élimine l’un des deux points car il ne se trouve pas sur Terre mais à une position absurde (à l’extérieur de la constellation des satellites GPS ou dans les profondeurs de la Terre, par exemple). Trois satellites suffiraient donc pour connaître notre position sur le globe.
Cependant, pour la synchronisation de l’horloge du boîtier GPS, il faut la précision d’une horloge atomique. Votre boîtier GPS et votre téléphone n’en ont évidemment pas. Ils vont donc utiliser l’horodatage produite par une horloge atomique à bord d’un quatrième satellite.
Pour pouvoir utiliser le GPS, il faut donc un minimum de quatre satellites : trois pour la position, et un supplémentaire pour la synchronisation.
2 – L’horloge du satellite
La nécessité des horloges atomiques vient du fait qu’on cherche à avoir une précision très importante sur la position : de l’ordre de quelques mètres sur la surface de la Terre. Il faut donc une très grande précision dans les informations transmises à votre boîtier GPS. Pour donner une idée : une différence d’une microseconde (1 µs) correspond à une erreur de 300 mètres sur la position !

3 – Synchronisation de l’horloge du récepteur
La base de temps des récepteurs GPS provient d’oscillateurs à quartz qui ne sont pas assez précis pour être utilisables pour le positionnement. Le récepteur est donc synchronisé sur le temps des horloges atomiques des satellites.

2 – C-R séance du 18/01/2017

1 – GPS et théorie de la relativité

Le GPS est l’application concrète la plus courante, dont le fonctionnement est lié avec la théorie de la relativité. Si ses effets n’étaient pas pris en compte, la navigation par GPS serait entachée d’erreurs trop importantes. Deux effets principaux de la relativité sont à considérer :

* la dilatation du temps issue de la relativité restreinte (1905) affirme que le temps s’écoule plus lentement pour un objet se déplaçant à grande vitesse (14.000 km/h ici). L’horloge du satellite retarde donc par rapport aux horloges au sol de 7 μs par jour
* la relativité générale (1915) stipule que le temps s’écoule plus rapidement pour un objet subissant un champ de gravité plus faible. L’horloge du satellite avance donc par rapport aux horloges au sol de 45 μs par jour
L’horloge d’un satellite GPS vue du sol×× avance donc de 45-7 = 38 μs par jour ce qui conduirait sans correction à une erreur de 38×300 = 11.400 m ou 11,4 km !
Historiquement, en 1977, lors de la première mise en orbite d’une horloge atomique au Césium dans le premier satellite GPS, les effets de la relativité avaient été calculés, mais certains doutaient de la véracité des effets relativistes. Après vingt jours en orbite, l’horloge atomique en orbite a été mesurée dérivant de l’ordre de 764µs par rapport au sol, ce qui était proche du calcul théorique de l’époque donnant 771 µs (environ 20×38). Par la suite, le synthétiseur a été activé de manière permanente.

2 – Les sources d’erreurs


Les mesures de la distance entre récepteur et satellites sont entachées d’erreurs de3 types :

* les erreurs dues aux satellites (trajectoire, horloge)

* les erreurs dues au récepteur (horloge, bruit électronique, chemins multiples, variation du centre ce phase de l’antenne)

* les erreurs engendrées par la transmission du signal (ionosphère, troposphère).
Un certain nombre de ces erreurs peuvent être compensées ou modélisées afin de les corriger, ceci dépend du type de récepteur et du mode de mesure. * les erreurs dues aux satellites (trajectoire, horloge) sont corrigées à partir des stations au sol. * les erreurs engendrées par la transmission du signal (ionosphère, troposphère). L’ionosphère modifie la vitesse de propagation du signal. La plupart des récepteurs intègrent un algorithme de correction, mais en période de forte activité solaire, cette correction n’est plus assez précise. Pour corriger plus finement cet effet, certains récepteurs bi-fréquences utilisent le fait que les deux fréquences L1(1,5 G )et L2 (1,2 G ) du signal GPS ne sont pas affectées de la même façon et recalculent ainsi la perturbation réelle. Rappel : v = c/n avec n indice de réfraction et n augmente avec la fréquence n = 1 + Constante× La présence d’humidité et les modifications de pression de la troposphère modifient l’indice de réfraction n et donc la vitesse de propagation du signal radio. Les récepteurs courants intègrent un modèle de correction.

3 – Inconvénient du GPS

Enfin, pour terminer, ajoutons que le système GPS est américain et est géré par le département de la défense des USA. L’usage de ce système par tous les autres pays que les États-Unis est souvent considéré comme une dépendance qui ne plaît pas toujours (pour des raisons géopolitiques). Ainsi, différents états prévoient leur propre système de positionnement par satellite :
La Russie a son système Glonass ;
L’Europe met actuellement en place les satellites du système Galileo.
La Chine a son système Beidu
L’Inde et le Japon ont également en projet leur système régional.

Le système Glonass devient opérationnel en 1996 mais la crise financière et économique qui frappe la Russie à la fin des années 1990 ne lui permet plus de maintenir un nombre de satellites suffisant. Le service complet n’est restauré qu’au cours des années 2010.

 

4 – Le système européen de navigation par satellite Galileo entre en service

Les satellites sont placés en orbite terrestre moyenne à une altitude de 23 222 km, également répartis sur 3 plans orbitaux inclinés à 56° du plan équatorial. Chaque orbite circulaire comprend 8 satellites actifs plus deux satellites de secours, pour un total de trente satellites (24 actifs et 6 de secours).

Avec 18 satellites en orbite sur les 26 que comptera la constellation à partir de 2018, Galileo est aujourd’hui capable de fournir ses premiers services, appelés « services initiaux », avec un engagement de la Commission européenne sur la fiabilité et la disponibilité du signal et l’assurance que les satellites et l’infrastructure sol de Galileo sont opérationnels.
A partir du jeudi 15 décembre 2016, Galileo offre gratuitement les services suivants :

* Navigation plus précise pour les citoyens avec l’OS (Open Service), pour les utilisateurs déjà équipés d’une puce Galileo sur leur smartphone ou à bord de leur véhicule,

* Appui aux opérations d’urgence, avec le service SAR (Search & Rescue) le temps de localisation d’un appel de détresse étant maintenant ramené à moins de 10 minutes, (les balises de détresse Cospas-Sarsat (à 406 MHz, bien connues des navigateurs marins et aériens, ainsi que des explorateurs)).

* Meilleure synchronisation pour les infrastructures critiques, pour permettre une meilleure gestion des transactions financières, des télécommunications et des réseaux de distribution d’énergie,

* Sûreté accrue pour les pouvoirs publics avec le PRS (Public Regulated Service) et de nouveaux outils, plus précis et sûrs, pour la protection civile, les services d’aide humanitaire, ou encore les douanes ou les forces de police. GALILEO sera en pleine capacité opérationnelle à partir de 2020. L’investissement est conséquent, avec 13 milliards d’euros de fonds publics engagés par Bruxelles. Malgré les six ans de retard sur le calendrier initial, les Européens sont convaincus que les avancées technologiques feront la différence. La précision est meilleure, dix fois supérieure à celle du GPS : moins d’un mètre contre dix mètres.
Pourquoi Galileo sera plus précis que le système GPS américain :

* les horloges atomiques européennes embarquées dans les satellites sont plus récentes, donc plus précises, que les américaines

* Les signaux de Galileo sont aussi censés mieux résister aux perturbations dues à leur passage dans l’ionosphère. La constellation utilise pour cela deux fréquences distinctes pour chacun des cinq niveaux de services prévus quand le GPS n’en a qu’une.

* Le phénomène est encore atténué par l’orbite de 23222 kilomètres choisie, plus élevée que celle des GPS (20200km) et Glonass (19100km) et qui réduit ainsi la vitesse de rotation des satellites par rapport à celle de ses rivaux. En la 3ème loi de KEPLER dit que × a = constante

Les objets connectés sont aussi de plus en plus nombreux à passer par les satellites pour communiquer, comme le capteur proposé aux personnes âgées et qui envoie un SOS en cas de chute, le collier qui surveille la santé de votre chat, la balise qui permet de retrouver vos clés ou localiser vos enfants à tout moment… Quelque 10% du PIB européen dépend aujourd’hui des systèmes de positionnement par satellites, et d’ici 2030 ce pourcentage pourrait grimper à environ 30%, selon le Cnes, l’agence spatiale française.
avec en particulier, le développement de la voiture autonome et des objets connectés. De plus, beaucoup d’applications à venir sont encore inconnues, l’imagination dans ce domaine étant sans limite.

5 – Le différentiel pour améliorer la qualité

1 – Le GPS différentiel      (en anglais Differential Global Positioning System : DGPS)

est une amélioration du GPS. Il utilise un réseau de stations fixes de référence qui transmet l’écart entre les positions indiquées par les satellites et leurs positions réelles connues. En fait le récepteur reçoit la différence entre les pseudo-distances mesurées par les satellites et les véritables pseudo-distances et peut ainsi corriger ses mesures
Il existe 3 systèmes de différentiels au monde mais heureusement tous compatibles. Le WASS couvre les Etats-Unis, l’EGNOS couvre l’Europe centrale et le MTSAT (ou MSAS) est au-dessus du japon. Sur nos GPS, cela se traduit par un paramétrage dans le menu, que l’on active ou non (au choix). Les GPS derniers nés ont tous cette option.

Opérationnel depuis 2011 EGNOS améliore la précision et la fiabilité du positionnement GPS dans toute l’Europe.
* EGNOS est l’acronyme de European Geostationary Navigation Overlay Service, c’est-à-dire “ Service Européen de Navigation par Recouvrement Géostationnaire
Fonctionnement :
1 Le véhicule est équipé d’une antenne GPS qui reçoit les signaux des satellites
2 Le service EGNOS dispose de récepteurs GPS au sol recevant les mêmes signaux que le véhicule
3 Les récepteurs calculent l’erreur de position et envoient l’information au satellite géostationnaire
4 Le satellite géostationnaire renvoie la correction au récepteur embarqué du véhicule
Le signal GPS n’offre qu’une précision officielle garantie de 10 mètres en zone dégagée quand EGNOS affiche une précision moyenne d’un mètre
Pour réaliser cette prouesse, EGNOS s’appuie sur 40 stations européennes au sol, qui captent les signaux de toute la constellation GPS. Elles transmettent ensuite ces données à 4 centres de contrôles européens qui en affinent la précision. Ces données améliorées sont ensuite envoyées aux récepteurs des utilisateurs d’EGNOS, tels les pilotes d’avion, via une constellation de 3 satellites géostationnaires européens. En particulier, le système simplifie et sécurise les phases d’approches des avions équipés. Un progrès de taille quand on sait qu’aujourd’hui, les pilotes doivent effectuer des manœuvres délicates pour capter les signaux radios. A terme, EGNOS devrait même permettre d’effectuer des atterrissages entièrement automatiques. Et une fois couplé au futur système global de géolocalisation européen Galileo, qui va compléter le système GPS, EGNOS devrait atteindre une précision de l’ordre de 10 cm. De quoi permettre de nouvelles applications, comme la signalisation des trains ou le guidage efficace et rapide des secours en montagne ou dans un immeuble en flamme…

2 – La Cinématique temps réel (Real Time Kinematic, en anglais ou RTK)

Les systèmes satellitaires existants (GPS Américain, GLONASS Russe, BEIDOU Chinois ou Galileo européen) peuvent être complétés par des systèmes dits d’augmentation de performance qui délivrent en temps réel des corrections permettant d’accroître la précision ainsi que des informations garantissant l’intégrité de ces corrections. Le principe de ces systèmes est qu’une ou plusieurs stations au sol mesurent en permanence l’erreur et transmettent un signal de correction aux utilisateurs via liaison GSM (opérateur de téléphonie classiques : ORANGE, BOUYGUES, SFR…) par l’accès à des réseaux spécifiques (TERIA, ORPHEON, SATINFO).
Ce système plus communément appelé RTK permet d’obtenir une précision de l’ordre du centimètre dans les conditions optimales d’utilisation. La société Geodata Diffusion a été créée en 2006 afin d’étudier, dimensionner, puis piloter le déploiement national du réseau Orphéon. Orphéon est un système d’augmentation de précision permettant aux utilisateurs de se positionner avec une précision centimétrique en temps réel, en utilisant un seul capteur. L’enjeu est énorme puisque sans être exhaustive, la liste suivante reprend les principales catégories professionnelles directement utilisatrices des services :

• Les géomètres (établissement de plans à grande échelle pour l’aménagement et l’urbanisme, la gestion du patrimoine foncier etc.)

• Les gestionnaires de réseaux (localisation des réseaux d’eaux, d’assainissement, de gaz, d’électricité, de télécoms etc.)

• Les entreprises de travaux publics (implantation de projets, plans de recollement, surveillance des ouvrages d’art, guidage d’engins)

• Les collectivités locales via leur département SIG (obtention d’une vision précise et exhaustive de la géométrie d’un territoire et de son mode d’occupation permettant de déboucher sur des études multicritères par croisement de données)

• Les instituts de cartographie (entretien de réseaux géodésiques, création et mise à jour de bases de données spatialisées, notamment dans le cadre des référentiels grandes échelles) • Les services cadastraux pour la bonne gestion du patrimoine foncier (délimitation parcellaire servant de base à l’imposition)

• Les gestionnaires de flottes de véhicules demandeurs d’un service de localisation de meilleure qualité, notamment en terme de disponibilité (transporteurs privés et publics pour localiser leurs mobiles, services de secours (police, pompiers, ambulances, sécurité civile) pour se diriger sur les lieux d’intervention, etc.)

• * Et enfin l’agriculture de précision afin de prendre en compte l’hétérogénéité de chaque parcelle dans les interventions culturales en modulant la gestion des intrants (semences, eau d’irrigation, engrais, fongicides, herbicides, insecticides en fonction des caractéristiques des sols, de la topographie, des attaques parasitaires, de la présence des mauvaises herbes) afin d’optimiser les résultats agronomiques tout en limitant leur impact environnemental.

La relativité du temps dans le Système GPS
Albert Einstein
Le GPS est un système de positionnement très précis qui n’a pu voir le jour seulement grâce aux avancées technologiques telles les satellites ou les horloges atomiques mais aussi grâce aux découvertes scientifiques sur les ondes électromagnétiques (Maxwell dans les années 1880) et sur la relativité du temps (Einstein en 1905 et 1915).

Le temps n’est donc pas une valeur absolue. Tout d’abord Maxwell prouve que la lumière est une onde électromagnétique se déplaçant à la vitesse absolue (vitesse de la lumière c = 3 ms-1). De par ses équations il énonce le postulat que la vitesse de la lumière dans le vide, est égale à c quel que soit le mouvement qui anime le référentiel. De ce fait la relativité bouleverse quelque peu nos conceptions :
Le temps n’est pas absolu, il peut se dilater (le temps passe moins vite) = relativité restreinte
Les dimensions de l’espace ne sont pas constantes, elles peuvent être déformées.
De ce fait le temps n’étant pas absolu et l’espace pouvant se dilater notre univers n’est pas en 3 dimensions mais en 4 avec : x, y, z, t = relativité générale
Relativité restreinte 1905 (liée à la vitesse)
Pour NEWTON (le père de la mécanique classique) le temps était absolu alors que pour EINSTEIN il est RELATIF. Lorsque 2 horloges H1 et H2 parfaitement identiques et parfaites sont synchronisées à un instant To, si l’une H1 reste par exemple au repos au sol et que l’autre H2 prend une vitesse V par rapport à H1, alors les 2 horloges ne mesurent plus les mêmes durées T1 ou T2 pour un même phénomène. Posons ΔT = T1-T2
On peut facilement calculer la dilatation du temps : ΔT/T = ½
Comme la vitesse des satellites servant au GPS est de v = 3870 m/s (14.000 km/h) et c = 300.000.000m/s ΔT =0.00000000008 Ainsi au bout de 24h, les horloges terrestres et satellitaires ne sont plus synchronisées. L’horloge H2 du satellite est en retard de 0,00000000008 × 24 × 3.600 = 0,000006,9 s soit 6,9 µs sur l’horloge H1 au sol. Relativité générale 1915 (liée à la gravitation) La relativité générale est une théorie physique développée par Albert Einstein entre 1905 et 1915. Au terme de 10 ans d’efforts, Einstein parvient à formuler une théorie relativiste de la gravitation. Il doit pour cela abandonner l’idée que deux masses s’attirent sous l’effet d’une force de gravitation (Newton). Il suppose que l’attraction résulte de la courbure de l’espace-temps.
La théorie de la relativité générale a été confirmée par des observations astronomiques dès 1919 (arthur Addington lors de l’éclipse totale de soleil), assurant la célébrité à Albert Einstein. Si elle est indispensable pour calculer la trajectoire des fusées et des satellites, elle n’a trouvé d’application grand-public que récemment avec le GPS.
En développant ses idées sur les conséquences du principe d’équivalence, Einstein aboutit à une nouvelle vision de la gravitation qui devait remplacer celle d’Isaac Newton : la relativité générale. L’aspect le plus important de cette théorie est la disparition du concept de force de gravitation.
Pour Einstein, le mouvement d’un corps n’est pas déterminé par des forces, mais par la configuration de l’espace-temps. Par exemple, d’après Newton la Terre tourne autour du Soleil car celui-ci exerce une force gravitationnelle sur notre planète. Pour Einstein, c’est une perturbation de l’espace-temps introduite par la masse du Soleil qui est à l’origine du mouvement de la Terre.
Pour mieux comprendre cette idée, faisons appel à une analogie à deux dimensions. L’espace, en relativité générale, peut être comparé à une sorte de tissu élastique. La présence d’une étoile peut être simulée en posant une pierre sur ce tissu. Celle-ci s’enfonce dans le tissu, le déforme et y crée une dépression.
Que se passe-t-il lorsqu’un corps plus petit passe à proximité de l’étoile ? Faisons rouler une bille sur le tissu : la trajectoire est d’abord une simple ligne droite, mais lorsque la bille passe à proximité de la pierre, elle pénètre légèrement dans la dépression. Elle est alors déviée de sa ligne droite et sa trajectoire se courbe. Sur ce tissu élastique, le mouvement de la bille n’est pas dicté par une force mais par la forme de l’espace ou plus précisément, par la courbure de celui-ci.
La relativité générale abandonne la notion de force et la remplace par le concept de courbure de l’espace-temps. Les corps célestes adoptent des trajectoires aussi droites que possibles, mais ils doivent se soumettre à la configuration de l’espace-temps. Loin de toute distribution de matière, la courbure de l’espace-temps est nulle et toutes les trajectoires sont des lignes droites. Près d’un corps massif comme le Soleil, l’espace-temps est déformé et les corps se déplacent sur des lignes courbes. Pour être complète, la théorie de la relativité générale doit également donner un moyen de calculer la courbure de l’espace-temps créée par une distribution de masse. Elle le fait par l’intermédiaire d’un système très complexe de formules mathématiques, les équations d’Einstein, qui relient courbure de l’espace-temps et distribution de masse. Ce système est si complexe qu’il n’a été résolu que dans quelques cas de figure très simples, par exemple autour d’une étoile isolée. La vision du monde d’Albert Einstein est donc très différente de celle proposée par Isaac Newton. Néanmoins, la plupart du temps les deux théories donnent des résultats pratiquement identiques. Les divergences n’apparaissent que dans des conditions extrêmes, soit pour des corps se déplaçant à une vitesse proche de celle de la lumière, soit pour des corps qui engendrent des champs de gravité très puissants. Ce qui n’est pas le cas sur Terre dans la vie de tous les jours. C’est pourquoi les automobilistes et les piétons vieillissent au même rythme, ainsi que les habitants du rez-de-chaussée et du dernier étage d’un immeuble
Ondes gravitationnelles

Lorsqu’ Albert Einstein a publié la forme finale de sa théorie de la relativité générale en 1916, il était déjà conscient que les équations qui y décrivaient le champ de gravitation comme une manifestation de la courbure de l’espace et du temps devaient contenir comme solutions des analogues des ondes électromagnétiques. Le tissu de l’espace-temps devait donc pouvoir se déformer et être le lieu de la propagation d’ondes gravitationnelles. En 1918, Einstein montra finalement que, de même que des charges accélérées émettent de la lumière, il était possible pour certaines configurations de matière en mouvement, d’émettre de l’énergie sous forme d’ondes gravitationnelles. La présence de ces solutions dans les équations d’Einstein n’a été admise d’un point de vue théorique qu’à partir de la fin des années 1950 environ et s’est posée alors la question de leur détection.

Découverte des ondes gravitationnelles : une révolution pour l’astronomie

C’est un événement extraordinaire, qui n’arrive jamais, ou presque Un document historique : les ondes gravitationnelles, émises par la fusion de deux trous noirs (il y a 1,3 milliard d’années lumières), enregistrés ensemble le 14/09/2015 par les deux interféromètres de l’observatoire américain Ligo, situés à 3000 kilomètres l’un de l’autre.
Cette observation ouvre un champ nouveau d’observation de l’univers à grande échelle, d’autant que les ondes gravitationnelles ne sont pas arrêtées par la matière. En revanche elle laisse encore ouverte la question de l’existence du graviton.
Se rappeler qu’à une onde est associée une corpuscule (André RIO nous l’a souvent dit et redit = dualité onde-particule) ( Ce concept fait partie des fondements de la mécanique quantique) : le photon pour l’onde électromagnétique et donc le graviton pour l’onde gravitationnelle

 

 

 

 

LE PARADOXE DU MIROIR PLAN par M RIO André

LE PARADOXE DU MIROIR PLAN

118-1897_img 

Le miroir plan donne d’un objet une image inversée. On pense habituellement que, si un observateur se trouve devant un miroir, l’image de sa main droite est une main gauche. Comment se fait-il que le miroir n’inverse pas de la même façon le haut et le bas ?

La réponse n’est pas immédiate. La première pensée qui vient à l’esprit est celle d’un observateur debout devant un miroir vertical. L’image aussi est debout. Si maintenant le miroir est horizontal, au dessus ou au dessous de l’observateur debout, l’image a bien les pieds en haut et la tête en bas, mais sa main gauche est toujours l’image de la main droite de l’observateur. En modifiant seulement la position du miroir, a-t-on ajouté un élément de dissymétrie ?

Pour simplifier, ne tenons pas compte de la notion de verticale, et imaginons l’observateur et le miroir seuls dans l’espace, sans aucun repère extérieur, ce qui ne modifie évidemment pas la nature des images. On considère seulement la position de l’axe tête- pieds de l’observateur par rapport au miroir : l’axe peut être parallèle ou perpendiculaire au miroir ; les positions intermédiaires n’ont pas d’intérêt particulier.

Dans tous les cas, le miroir donne de l’observateur une image symétrique, non superposable, donc inversée, ceci parce que l’observateur est un objet à trois dimensions. S’il était plan, il serait superposable à son image

Il est commode de définir les trois dimensions par trois axes : tête- pieds, face- dos, main droite- main gauche. Pourquoi le miroir semble-t-il n’inverser que  l’axe main droite- main gauche quand l’axe tête- pieds est parallèle au miroir ? Cet axe joue-t-il un rôle particulier ?

En réalité, on donne intuitivement la priorité à l’axe tête- pieds, en considérant que tête et pieds sont les deux extrémités les plus dissymétriques. L’axe face- dos est aussi nettement dissymétrique, tandis que l’axe main droite- main gauche est apparemment symétrique, puisque le corps de l’observateur est approximativement symétrique par rapport au plan perpendiculaire à cet axe et passant par le centre du corps.

Si l’on imagine de superposer l’observateur et son image, on commence instinctivement par faire coïncider les axes tête- pieds puis face- dos, ce qui entraîne obligatoirement que les axes main droite- main gauche s’orientent en sens opposés. Ils ne le seraient plus si l’on acceptait d’inverser l’un des deux autres. Alors on pourrait faire coïncider chaque main de l’observateur avec celle de son image.

Il est vrai que si la tête et les pieds d’une part, la face et le dos d’autre part son complètement différents, une main droite et une main gauche, et plus généralement un côté droit et un côté gauche sont approximativement  symétriques l’un de l’autre, mais non superposables.

 

S’il n’avait aucune symétrie, par exemple si sa main gauche était remplacée par une pince ou un crochet, on verrait la situation autrement, parce qu’en face de cette pince ou de ce crochet on en aurait l’image, inversée bien entendu, et il n’y aurait pas plus de symétrie entre sa droite et sa gauche qu’entre sa tête et ses pieds.

En fait, c’est une symétrie d’ensemble que provoque le miroir, inversion qui s’étend à tous les moindres détails non symétriques. En toute rigueur, on ne peut pas dire que si l’observateur lève la main droite l’image lève la main gauche, mais la main qui se trouve à sa gauche. S’il avait étiqueté sa main «  main droite » , on verrait à sa gauche une main toujours étiquetée « main droite », l’écriture elle même étant inversée,.

Le miroir n’intervertit donc pas la droite et la gauche ; il donne une image d’ensemble inversée. De la main droite, il donne l’image inversée d’une main droite et non l’image d’une main gauche. Il se trouve seulement que, le corps de l’observateur étant à peu près symétrique, l’image de sa main droite et sa main gauche son à peu près superposables.

L’électrification des campagnes bretonnes par Jérôme Lucas

Jérôme LUCAS – auteur

L’électrification des campagnes bretonnes

Conférence animée  par Jérôme Lucas, « passeur de mémoire »

La collecte de témoignages auprès d’une centaine de personnes âgées se souvenant des débuts de l’électricité dans les campagnes bretonnes et les recherches effectuées dans les archives départementales, permettent de découvrir le défi relevé en Bretagne de 1920 à 1960 et de comprendre le changement radical du quotidien des habitants suite à l’électrification de leur maison, de leur village qui fut l’un des bouleversements majeurs de leur vie.

1 Un défi à relever

Les départements de l’Ouest, et plus particulièrement ceux de la Bretagne, furent les plus difficiles à électrifier. Les raisons en sont nombreuses : une population très dispersée et répartie sur toute la commune, de petites exploitations qui pratiquent la polyculture et l’élevage, des bâtiments agricoles et des fermes de taille modeste, un grand nombre d’exploitations affermées et morcelées, un obstacle physique sérieux à l’établissement des lignes de distribution dû aux nombreux talus plantés d’arbres et de haies et surtout une absence presque totale de grandes centrales hydroélectriques ou thermiques, absence de grands besoins industriels.

2 Comment vivait-on sans électricité dans le monde rural ?

Sans grande évolution depuis le Moyen Âge, l’habitation est constituée d’une pièce, chauffée par la cheminée, éclairée par une lampe à pétrole ou au carbure, dépourvue de point d’eau. L’eau était extraite d’un puits, le linge lavé au lavoir, la toilette corporelle a minima. La force des bras était l’unique source d’énergie pour baratter, pour hacher le jonc…La garde des troupeaux était confiée aux enfants ou aux anciens.
Les informations demandaient un passage par le bourg ou le bistrot (pas de journaux dans les campagnes)

3 Les balbutiements de l’électrification en Bretagne

En 1881 s’est tenue à Paris la première exposition internationale de l’électricité. Parmi les nouveautés le téléphone mais surtout les premières génératrices électriques alimentant les premiers moteurs comme celui du premier tramway ayant circulé à Paris ou encore les premières lampes à incandescence, en particulier celles de Thomas Edison.
Vers 1860, l’éclairage public dans les villes françaises était assuré par le gaz. L’arrivée de l’éclairage électrique à la fin du siècle a d’abord été vécu comme une rude concurrence par les compagnies délivrant le gaz d’éclairage. Les plus performantes n’ont pas tardé à s’adapter en devenant fournisseurs d’électricité, les autres freinant l’ arrivée de la nouvelle source d’énergie avant de péricliter.
 

(En 1893 la compagnie Lebon, créée en 1847 procède à un essai d’éclairage électrique en Espagne. Essai concluant et la compagnie propose l’électricité là où elle exploite le gaz. A Morlaix,où elle distribue le gaz depuis 1857 elle fournira l’électricité à partir de 1902. La distribution électrique en courant continu est alimentée par des moteurs à gaz et une batterie d’accumulateurs. Le courant alternatif suivra en 1924.)

4 Construction des 1ères usines électriques fin 19e

En 1887, la ville de Chateaulin sera la première cité finistérienne (la troisième en France) à s’éclairer aux ampoules électriques en utilisant une force jusque-là perdue, la chute d’eau de l’écluse de Coatigrac’h,

Les villes de St Brieuc, de Lorient(1894), de Brest (la centrale de Poullic Al Lor. De la Compagnie d’électricité de Brest et extensions) suivront ainsi que d’ autres grandes villes bretonnes.
Pour cause de contrats de 50 ans avec l’usine à gaz, le centre de Landerneau ne sera desservi en électricité qu’en 1925 et les quartiers périphériques attendront 1945.
A partir de gaz pauvre, les usines fournissent soit un courant continu soit un courant alternatif.

 Des « ingénieurs » bricoleurs créent leurs petites centrales
Dans les villes de taille plus modeste , voire dans des bourgades, des initiatives menées par des bricoleurs ingénieux mettent en place des générateurs alimentant sommairement l’éclairage public et/ou quelques habitations (Ex Le Faouet, St Aignan, Plouguenast)

5 Le plan d’électrification des années 1920

Le programme de l’électrification rurale de la France a été réalisé en grande partie entre 1920 et 1938.
La Première Guerre mondiale a élargi les domaines d’application de l’énergie électrique en ouvrant les yeux à un grand nombre de paysans, notamment aux plus jeunes : prisonniers de guerre en Allemagne, sur le front dans l’Est de la France, ils ont entrevu le progrès apporté par la « fée mystérieuse »
Ils seront d’un appui précieux pour les politiques comme Yves Le Troquer, Ministre des Travaux Publics, trégorrois d’origine qui voudront moderniser les campagnes bretonnes afin de freiner l’exode rural.
La période 1919-1939 constitue les années charnières où l’État et les collectivités publiques jouent pleinement leur rôle de propagandiste et de financier et voudront utiliser au mieux l’énergie de la péninsule : l’eau.

Intervention de l’Etat : étude gratuite des projets par l’intermédiaire du Service du Génie Rural , subventions et avances à taux réduits.
L’électrification passera par les syndicats intercommunaux à l’échelle du canton qui se regrouperont à partir de 1937 en syndicats départementaux pour pouvoir discuter à pied d’égalité avec les industriels du secteur.

6 À la recherche de nouvelles productions électriques (Guerlédan…)

Les côtes bretonnes sont électrifiées grâce à de petites centrales thermiques mais pas le pays du Centre-Bretagne Pour permettre le développement de la zone intérieure
L’aménagement hydroélectrique de Guerlédan se construit entre 1923 et 1930. Il a d’abord fait l’objet d’une concession accordée à la Société Générale d’Entreprises en 1923, qui a été rapidement transférée à sa filiale : la.UHEA .
L’aménagement hydroélectrique de Guerlédan est situé sur le fleuve du Blavet, à la frontière des départements du Morbihan et des Côtes d’Armor.(le projet initial prévoyait la construction d’une échelle d’écluses(ascenseur à péniches) en parallèle au barrage afin de maintenir le trafic fluvial sur le canal de Nantes à Brest. )

7 Première phase d’électrification des années 1930

Parallèlement à l’aménagement de Guerlédan, l’UHEA (Union Hydroélectrique Armoricaine) , constituée en 1923 avec le concours financier de l’Etat, des départements des Côtes d’Armor et du Morbihan et de la ville de Lorient, se préoccupe de l’absorption de l’énergie produite : elle construit un maillage de lignes de 45 000 Volts permettant l’interconnexion des réseaux
Entre 1920 et 1940, les petites entreprises disparaissent ou sont absorbées par les 2 compagnies qui à la veille de la 2nde WW dominent le marché de la distribution d’électricité en Bretagne : la Compagnie Lebon et l’E.I. (Energie Industrielle). EN 1940, 80% de la population du Morbihan a accès à l’électricité.

8 Implantations des lignes

 La ligne droite est privilégiée dans la mesure du possible.

9 Les résistances, la peur de l’électricité

l’électrification rurale se heurte à une forte résistance des populations rurales qui demeurent traditionalistes. Cette résistance (crainte du feu, perturbation des animaux, coût de l’électricité et de son installation) s’atténue progressivement les bienfaits que pourrait apporter l’électrification sur leur vie de tous les jours : éclairage et force motrice l’emportent finalement..
Certaines communes refusent toutefois son installation dans les années 20, n’y voyant pas d’intérêt.

10 L’électricité sous l’Occupation allemande

L’occupation allemande fera regretter ces refus : la pénurie de charbon, de pétrole pendant cette période se traduira par un appel au système D : branchement sauvage sur lignes existantes, etc.
Les réseaux électriques bretons souffriront également de pénuries(priorité à l’armée allemande), pannes, sabotages et bombardement par les forces alliées.

11 Dernière phase d’électrification 1950- 1960

En 1919, sur les 38 014 communes que compte la France métropolitaine, 7 500 seulement sont raccordées à l’électricité, soit environ 20 %, celles-ci comprenant d’ailleurs toutes les villes.
Au 1er janvier 1941, 36 899 communes, soit 97 % de la population, sont desservies
En Bretagne toutefois, près de la moitié des logements ruraux n’ont pas encore accès à l’électricité.

Afficher l'image d'origine

 

ampoule centenaire

De 1948 au milieu des années 1960 (1964 pour la Bretagne)s’achève, avec Électricité de France (EDF) créée en 1946, l’œuvre entreprise sous le signe de l’équité territoriale par la péréquation des prix et tarifs.
Les syndicats d’électrification en Bretagne se démènent pour réaliser les programmes prévus ; parfois même des extensions hors programmes sont réalisées.
Des électriciens « formés sur le tas » assurent les installations chez l’habitant.
Des entreprises s’implantent dans la région pour construire des poteaux et ceci à proximité des gares, pour poser ces mêmes poteaux. Les communes sont subdivisées en quartier d’environ 30 foyers pour être doté d’un poste de transformation.

12 Le soulagement, l’émerveillement des habitants

Le monde rural entre de plain pied dans la modernité : l’égalité entre citoyens(citadins/ruraux) est retrouvée.
L’électricité permet un autre regard sur son environnement,son propre habitat qui sort de la pénombre, une ouverture sur le monde ( le poste : la TSF) (,avec toutefois la crainte du montant de la facture…)

13 Les évolutions permises grâce à l’électricité

. les appareils pour les tâches ménagères (fer à repasser, machine à laver…)
. les moteurs pour les opérations de battage, …
. l’eau courante…
. le gardiennage des troupeaux

L’électrification, avec les grands aménagements d’après guerre ( réseau routier, téléphonie…) participera à la modernisation à marche forcée de l’agriculture, tout en faisant disparaître il est vrai quelques anciens métiers ( ex : fabricants de bougie). Comment imaginer le présent sans l’électricité ? Impensable. Economiser l’énergie comme faisaient les 1ers utilisateurs ? Peut-être judicieux ?

  • – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – –

Réf : CY-J2017OI12

Goal « qui perd » (Keeper) de Marcel Mescam

GOAL « qui perd » (keeper)

 

de Marcel Mescam

Novembre 2009

Les dimanches sont des jours bénis pour le football, c’est la fête. On joue à « l’extérieur » ou  à « domicile ». De ces années d’enfance les souvenirs affluent, des noms ressuscitent ! Il y a là : Jopic, Nadine, Laisse-tout, P’tit tank, Jean bibi, Chouï, Tante Fine… et autres vedettes  locales.

Quand on part en déplacement, l’équipe réserve jouant à 13 heures trente, il faut prendre le car à midi et demi, voire à midi. Ce qui oblige les joueurs et accompagnateurs à se mettre à table très tôt. Cela ne fait pas toujours le bonheur des cuisinières. L’équipe première ne joue qu’à quinze heures, aussi quelques particuliers partent-ils plus tard en voiture.

Le départ du car est au bourg, avec des arrêts à  Créachcaouet et Kerdanet ou Kerjeanne, selon la direction à suivre. Jean-Pierre H est le chauffeur attitré. Son béret basque rivé sur la tête, la cigarette roulée à la bouche, emmitouflé dans sa canadienne marron au col de fourrure noire, il retrousse son pantalon de velours côtelé, s’asseoit sur le siège et ôte ses galoches pour conduire.

Un grand vroum ! Et le Berliet jaune s’élance.

C’est la joie des retrouvailles d’un mélange intergénérationnel où la gent masculine est majoritaire. À l’aller règne un certain calme, le trac d’une défaite éventuelle s’installe ; on entonne seulement une chanson pour se donner le moral afin de remporter la victoire.

Au retour, en cas de victoire, il y a de l’ambiance. Les refrains s’enchaînent – « Qui c’est les plus forts »… « On les a vus chez Barbereau boire du Pernod avec des seaux, non, non, non, non, Carantec n’est pas mort, non, non, non, non, car il gueule encore, car… ». C’est la liesse. Le béret de Jean-Pierre passe de main en main, ce jour-là il a un bon pourboire.

En cas de défaite plane un silence de mort, et le trajet semble interminable.

Pour les rencontres à domicile, pas besoin de car, tout le monde se retrouve au Meneyer dans la minuscule maison mise gracieusement à disposition de l’Étoile Sportive Carantécoise par Gaby, le bossu, qui officie souvent comme arbitre de touche.

Sa petite taille provoque inévitablement quelques moqueries « Gaby, lève ton drapeau, on le voit pas ! ». L’étage est affecté aux visiteurs, le rez-de-chaussée en terre battue aux accueillants. Ici, l’espace est très restreint, chacun se débrouille pour se changer, on s’amuse, on échange vivement.

Les tenues sont fournies et entretenues par l’association. Elles sont utilisées par l’équipe réserve et première ! Les chaussures sont personnelles ; sur des barrettes de cuir sont fixés six crampons à pointes qu’il faut changer régulièrement afin de ne pas blesser l’adversaire. On entretient le cuir à la graisse de phoque.

Et le ballon ! En cuir, lui aussi, entretenu de la même façon, il se ferme par un lacet. Par temps pluvieux il n’y a pas que le terrain qui est lourd, le ballon également. Il faut bien le frapper du front, sinon vous avez l’impression que votre tête se désolidarise du cou.

Les pièces embaument le Dolpic, utilisé en massage, pour l’échauffement des muscles et, éviter les crampes. Les joueurs prêts, ils rejoignent l’aire de jeu toute proche, pas toujours en parfait état, mais jamais parsemée de trous de taupe à Carantec, comme c’est parfois le cas sur certains terrains.

En cas de derby, c’est-à-dire la rencontre de deux équipes de communes voisines, c’est l’effervescence, il y a concours de pronostics. L’enjeu est important pour les parieurs. Les chauvins stimulent leurs poulains, les encouragent, inquiets du résultat final.

À la mi-temps les sportifs reviennent aux vestiaires et reçoivent des rondelles de citron et une orange. L’entraîneur prodigue ses conseils. Puis c’est la reprise.

Si on mène, tout va bien, dans le cas contraire ça se gâte : la galerie des supporters et supportrices ne se prive pas d’invectiver les joueurs, et beaucoup de noms d’oiseaux fusent.

Après le coup de sifflet final, les équipes rejoignent les vestiaires, penauds ou joyeux, selon le résultat. En cas de victoire c’est la fête, dans le cas contraire c’est l’abattement. Les joueurs se changent rapidement, certains n’iront même pas boire le vin chaud offert, l’hiver, dans un café de la commune, où sont affichés au tableau, les résultats des autres rencontres du groupe.

Les moments forts et les plus distrayants ont lieu le lundi de Pâques. Tout le monde attend cette journée avec impatience. Il y a deux rencontres importantes de football. La première, à ne manquer sous aucun prétexte. C’est celle qui oppose les vétérans à une sélection d’autres joueurs. La seconde, est le match des mariés contre les célibataires.

Quand je dis vétérans, je précise que plusieurs, ont largement dépassé l’âge de jouer en seniors de 40 ans.

Il y a nos vedettes locales. Deux lascars qui patientent toute l’année, pour recueillir ce jour leurs instants de gloire. Il faut voir le cinéma qu’ils font, chacun dans sa spécialité ! Ces êtres si frêles, au passé et au présent, de personnes qui n’ont pas « une tête à sucer de la glace », paradent autour du stade en levant les bras, tels le boxeur après sa victoire. Leurs maillots sont trop larges et, des bretelles retiennent leurs shorts immenses. Ils exhibent leurs mollets de coq de leurs gambettes de héron pleines de varices, pour le plus grand bonheur du public. Une énorme casquette à carreaux, à visière, repose sur la tête de notre goal volant ; ses gants sont trois fois trop grands.

Les ovations fusent, le public en redemande. Hourra ! Les deux cabotins prennent le temps de discuter avec leurs fans, parfois même de boire un coup.

Après le tour de piste des artistes, la partie de rigolade se poursuit, avec la complicité de l ‘arbitre. En toute logique les vétérans sont moins véloces que leurs adversaires, ils n’ont aucune chance de gagner. Mais le jeu consiste, pour les chouchous du public, à pousser leurs adversaires à commettre une faute dans leurs seize mètres. Ils obtiennent alors réparation.

Ssss ! L’arbitre désigne le point de pénalty.

Là, interviennent nos deux experts, les spécialistes du tir au but. Jean J, pour son coup de pied magistral, et Jean B, dans la cage, pour son aptitude à se saisir du ballon.

Quand le spécialiste du « péno » se met en place, c’est du délire. Le rideau du théâtre peut s’ouvrir. Le paroxysme est atteint si son shoot ne propulse le ballon qu’à deux ou trois mètres, ou bien s’il frappe à côté de la balle. C’est granguignolesque.

Si le préposé aux plongeons spectaculaires encaisse un but, il va se plaindre auprès de l’arbitre pour lui signifier qu’il a été gêné par le soleil, ou quelque autre excuse. Alors, bien souvent le pénalty est tiré une deuxième fois, voire trois. Et là ! Le goal volant, d’un écart de côté, se saisit du ballon que l’adversaire a pris soin de diriger dans ses bras. C’est à pisser de rire. Les deux compères se retrouvent pour recueillir les bravos, et sont portés en triomphe. C’est la promesse d’une belle troisième mi-temps.

Les OEM (Ondes Electromagnétiques) et leurs APPLICATIONS (CR 4)

Atelier Sciences – Roger MEVEL (06 07 86 84 63)

CR de la Séance n°4 du 4/12/2017 

Les OEM (Ondes Electromagnétiques) et leurs APPLICATIONS

1 – Ce qu’il faut (ou faudrait…) retenir des 3 séances de 2016

Une onde électromagnétique comporte à la fois un champ électrique et un champ magnétique oscillant à la même fréquence. Ces deux champs, perpendiculaires l’un par rapport à l’autre se propagent dans un milieu selon une direction orthogonale (figure ci-dessous).
La propagation de ces ondes s’effectue à une vitesse qui dépend du milieu considéré. Dans le vide, la vitesse de propagation est égale à 3.10
8 m/s. 1

Une onde électromagnétique est caractérisée par plusieurs grandeurs physiques : La période (T) : elle représente le temps nécessaire pour que l’onde effectue un cycle. L’unité est la seconde. La fréquence (f) : inverse de la période, elle traduit le nombre de cycles par unité de temps.
Elle s’exprime en Hertz (Hz) – un Hz équivaut à une oscillation par seconde –
La longueur d’onde (λ) : elle exprime le caractère oscillatoire périodique de l’onde dans l’espace.
C’est la longueur parcourue par l’onde pendant une période T dans l’espace (figure ci-dessus) donc la distance séparant deux crêtes successives.
Nous avons donc la relation suivante : λ = c T ou encore
λ= c/f car f = 1/T Par conséquent, plus la longueur d’onde est petite, plus la fréquence est élevée, et réciproquement. Les échanges d’énergie portée par le rayonnement électromagnétique ne se font pas de manière continue,2

mais de façon discrète, sous forme de paquets d’énergie, véhiculés par des corpuscules élémentaires immatériels, les photons. La relation suivante exprime la quantité d’énergie (E) associée à un photon en fonction de la fréquence de l’onde : E = h f ou h est la constante de Planck (6,625.10-34 J.s).
Ainsi, les rayonnements électromagnétiques de courte longueur d’onde ou de fréquence élevée véhiculent davantage d’énergie que les rayonnements de grande longueur d’onde (basse fréquence).

Le spectre électromagnétique représente la répartition des ondes électromagnétiques en fonction de leur longueur d’onde, de leur fréquence ou bien encore de leur énergie (figure ci-dessous).

En partant des ondes les plus énergétiques, on distingue successivement :

  • Les rayons gamma (ɤ) : ils sont dus aux radiations émises par les éléments radioactifs.
    Très énergétiques, ils traversent facilement la matière et sont très dangereux pour les cellules vivantes.
    Leurs longueurs d’onde s’étendent d’un centième de milliardième (10
    -14 m ou 0,01pm) à un milliardième (10-12 m ou 1 pm) de millimètre.
  • Les rayons X : rayonnements très énergétiques traversant plus ou moins facilement les corps matériels et un peu moins nocifs que les rayons gamma, ils sont utilisés notamment en médecine pour les radiographies, dans l’industrie (contrôle des bagages dans le transport aérien), et dans la recherche pour l’étude de la matière (rayonnement synchrotron).
    Les rayons X ont des longueurs d’onde comprises entre un milliardième (10
    -12 m ou 1 pm) et un cent millième (10-8 m ou 10 nm) de millimètre.
  • Les ultraviolets : rayonnements qui restent assez énergétiques, ils sont nocifs pour la peau. Heureusement pour nous, une grande part des ultraviolets est stoppée par l’ozone atmosphérique qui sert de bouclier protecteur des cellules.
    Leurs longueurs d’onde s’échelonnent d’un cent millième (10
    -8 m ou 10 nm) à quatre dixièmes de millième (4.10-7 m ou 0,4 µm) de millimètre.
  • Le domaine visible : correspond à la partie très étroite du spectre électromagnétique perceptible par notre œil. C’est dans le domaine visible que le rayonnement solaire atteint son maximum (0,5 μm) et c’est également dans cette portion du spectre que l’on peut distinguer les 7 couleurs de l’arc en ciel (violet-indigo-bleu-vert-jaune-orange-rouge). Il s’étend de quatre dixièmes de millième (4.10-7 m ou 0,4 µm) –  lumière violette  – à huit dixièmes de millième (8.10-7 m ou 0,8 µm) de millimètre –  lumière rouge.
  • L’infrarouge : rayonnement émis par tous les corps dont la température est supérieure au zéro absolu (-273°C).
    En télédétection, on utilise certaines bandes spectrales de l’infrarouge pour mesurer la température des surfaces terrestres et océaniques, ainsi que celle des nuages.
    La gamme des infrarouges couvre les longueurs d’onde allant de huit dixièmes de millième de millimètre (8.10
    -7 m ou 0,8 µm) à un millimètre (10-3 m ou 1 mm).
  • Les ondes radar ou hyperfréquences : Cette région du spectre est utilisée pour mesurer le rayonnement émis par la surface terrestre et s’apparente dans ce cas à la télédétection dans l’infrarouge thermique, mais également par les capteurs actifs comme les systèmes radar.
    Un capteur radar émet son propre rayonnement électromagnétique et en analysant le signal rétrodiffusé, il permet de localiser et d’identifier les objets, et de calculer leur vitesse de déplacement s’ils sont en mouvement. Et ceci, quelle que soit la couverture nuageuse, de jour comme de nuit.
    Le domaine des hyperfréquences s’étend des longueurs d’onde de l’ordre du centimètre jusqu’au mètre.
  • Les ondes radio : Ce domaine de longueurs d’onde est le plus vaste du spectre électromagnétique et concerne les ondes qui ont les plus basses fréquences. Il s’étend des longueurs d’onde de quelques cm à plusieurs km.
    Relativement faciles à émettre et à recevoir, les ondes radio sont utilisées pour la transmission de l’information (radio, télévision et téléphone). La bande FM des postes de radio correspond à des longueurs d’onde de l’ordre du mètre. Celles utilisées pour les téléphones cellulaires sont de l’ordre de 10 cm environ.

Les ondes radio AM (Amplitude Modulation) et FM (Frequency Modulation)

Les grandes ondes (GO) ou ondes longues (OL), Long Waves (LW en anglais) (30 kHz à 300 kHz –longueur d’onde de 10 km à 1 km[ ) se propagent par onde de sol et sont utilisées par les stations de radio en modulation d’amplitude, pour des communications à moyenne distance (500 à 1 000 km). Un seul émetteur LW couvre à peu près tout le territoire national.

Les petites ondes (PO) ou ondes moyennes (OM), Medium Waves (MW en anglais) (300 à 3 000 kHzlongueur d’onde de 1 km à 100 m) ) se propagent également par onde de sol.

Notons que pour ce qui est de la « radio » la disparition de la modulation d’amplitude, programmée pour 2016 et 2017, devrait permettre à Radio France de réaliser 13 millions d’euros d’économies. Elle signe la fin d’une époque. Finie, la réception de France Inter en ondes longues (LO), sur la fréquence 162 kHz. Terminée, la captation de France Bleu et France Info en ondes moyennes (OM, entre 525 kHz et 1605 kHz). Cependant de nombreuses autres applications subsistent (radiolocalisation – balises de détresse …)

Les ondes courtes (OC) ou Shortwave (SW en anglais) (MHz et 30 MHz – longueur d’onde de 100 m à 10 m) se propagent par réflexions successives entre le sol ou la mer et l’ionosphère avec donc une portée de plusieurs milliers de kilomètres (domaine entre autres des radioamateurs).

La bande des très hautes fréquences (very high frequency/VHF) est la partie du spectre radioélectrique s’étendant de 30 MHz à 300 MHz, soit de 10 à 1 m de longueur d’onde. Ces ondes se propagent en vue directe. La radio FM est un procédé de radiodiffusion de programmes radiophoniques en modulation de fréquence (ou FM pour Frequency modulation) dans la gamme des très hautes fréquences (VHF). Dans la plupart des pays, c’est plus précisément la bande 87,5 – 108 MHz souvent appelée « bande FM » dans le grand public.

2 – C-R séance du 4/01/2017

La modulation sert à transmettre le signal utile S(t) (le son ici) fourni par le microphone à l’aide d’un autre signal P(t) (porteuse) d’une fréquence nettement plus élevée. Il est évident que tous les postes émetteurs de radio utilisent une plage de fréquences audibles pour nous faire entendre leurs programmes. Donc si tous les émetteurs envoyaient directement ces fréquences, nous n’aurions que du bruit à la réception. En attribuant à chacun une porteuse différente, à la réception nous choisissons le programme voulu en sélectionnant sa porteuse (elle peut être définie par sa fréquence ou parfois par sa longueur d’onde). Il suffit alors de démoduler le signal pour avoir accès à l’information d’origine que l’on applique à un haut-parleur. La modulation est également utilisée pour des liaisons numériques (ordinateurs, fax). On parle alors de modem (modulateur – démodulateur). 

La modulation d’amplitude : AM Dans ce type de modulation le signal source fait varier l’amplitude de la porteuse. On dit aussi que la source est l’enveloppe de la porteuse. Cette modulation est utilisée en radio AM. La modulation d’amplitude est très sensible aux perturbations électromagnétiques qui peuvent modifier l’amplitude de la porteuse et donc du signal source lors de la démodulation.

Modulation de fréquences : FM

  En modulation de fréquences le signal source fait varier la fréquence de la porteuse.

La modulation de fréquences est peu sensible aux perturbations électromagnétiques, car ces dernières provoquent des variations d’amplitude du signal mais pas de sa fréquence. Le signal démodulé est donc identique à celui de la source.

 

Spectre des fréquences à transmettre (cas de la parole)

 

Global Positioning System (GPS)

Le Global Positioning System (GPS) (en français Géo-positionnement par satellite) est un système de géolocalisation fonctionnant au niveau mondial et reposant sur l’exploitation de signaux radio émis par des satellites dédiés. Le système GPS permet de se situer où qu’on soit dans le monde.

Histoire

À l’origine, le GPS était un projet de recherche de l’armée américaine. Il a été lancé dans les années 1960 à la demande du président Richard Nixon. Le premier satellite est lancé en 1978 par une fusée Delta IV. En 1995, le déploiement des 24 satellites opérationnels (plus 4 en réserve) est achevé. Le système devient alors fonctionnel avec une précision limitée à une centaine de mètres pour un usage civil En 2000, le président Bill Clinton autorise une diffusion non restreinte des signaux GPS, permettant une précision d’une dizaine de mètres

Composition []

Segment spatial La constellation est organisée autour de 24 satellites principaux qui assurent la disponibilité mondiale du GPS, ce qui suppose d’avoir au moins quatre satellites visibles du sol partout dans le monde. Il y a toujours plus de satellites en orbite afin de maintenir ces 24 emplacements complets même en cas de panne. Les satellites évoluent sur six plans orbitaux ayant une inclinaison d’environ 55° sur l’équateur. Ils suivent une orbite quasi-circulaire de rayon 26 600 km environ (soit une altitude de 7 20 200 km) qu’ils parcourent en 11 h 58 min 2 s, soit un demi-jour sidéral. Ainsi, les satellites, vus du sol, reprennent la même position dans le ciel au bout d’un jour sidéral.

Un jour sidéral est la durée que met une planète pour faire un tour sur elle-même, indépendamment de sa révolution autour du Soleil. Le jour sidéral terrestre dure un petit peu plus de 23 h 56 min 4 s. C’est en raison de la révolution de la Terre autour du Soleil en même temps qu’elle tourne sur elle-même que le jour solaire dure quelques minutes de plus, soit 24 heures en moyenne (exactement puisque c’est ainsi qu’était définie l’heure avant les horloges atomiques).

Comparaison entre jour sidéral et jour solaire :
la planète positionnée en 1 met un jour sidéral pour arriver en 2 et un jour solaire pour arriver en 3

Les satellites sont la plupart du temps entourés d’une 9 couverture dorée, très visible. Cette couverture est nommée Multi-Layer Insolation (MLI), en Français isolation multicouches. Elle est composée de nombreux matériaux légers mais fortement réflecteurs, l’objectif étant de limiter les échanges radiatifs avec l’extérieur.

Un satellite, lorsqu’il est exposé au Soleil, peut avoir un côté à +150°C et un autre à -150°C

Segment de contrôle

C’est la partie qui permet de piloter et de surveiller le système. Il est composé de cinq stations au sol. Leur rôle est de mettre à jour les informations transmises par les satellites (éphémérides, paramètres d’horloge) et contrôler leur bon fonctionnement.

 

 

Segment utilisateur Le segment utilisateur regroupe l’ensemble des récepteurs GPS militaires et civils qui reçoivent et exploitent les signaux des satellites GPS pour calculer des données de position, de vitesse ou de temps. Comme les utilisateurs ne font que recevoir (ils n’émettent pas vers les satellites), le système ne peut être saturé et le nombre maximum d’utilisateurs GPS est illimité. En 2014, le nombre total de récepteur GPS est estimé à 3,6 milliards. Les smartphones avec GPS intégré sont les plus nombreux avec 3,08 milliards, suivi par les 260 millions d’assistants de navigation pour des applications routières. Le nombre restant d’appareils est réparti entre des applications variées : autres transports (aviation, ferroviaire, maritime), topographie, agriculture, infrastructure critique.

Principe de fonctionnement

Calcul de la position Le positionnement GPS fonctionne grâce à un moyen que vous connaissez sûrement : la triangulation (qui consiste à utiliser uniquement les distances pour localiser un objet ). Toutes les millisecondes, les satellites émettent des signaux codés sous forme d’onde radio émises sur deux fréquences différentes (1,6 et 1,2 GHz) qui se propagent à la vitesse de la lumière.

Le récepteur calcule le temps mis par l’onde émise par le satellite pour lui parvenir. La vitesse de propagation du signal étant connue, le récepteur détermine une sphère sur laquelle est nécessairement sa position. ( distance = temps x vitesse).

Avec un deuxième satellite, l’intersection des deux sphères forment un cercle.

 

Puis avec un troisième satellite, deux points.

 

 

 

 

 

 

 

 

 

En théorie il nous faut donc un quatrième satellite pour savoiroù on se trouve. En pratique on élimine l’un des deux points car il ne se trouve pas sur Terre mais à une position absurde (à l’extérieur de la constellation des satellites GPS ou dans les profondeurs de la Terre, par exemple). Trois satellites suffiraient donc pour connaître notre position sur le globe.

Cependant, pour la synchronisation de l’horloge du boîtier GPS, il faut la précision d’une horloge atomique. Votre boîtier GPS et votre téléphone n’en ont évidemment pas. Ils vont donc utiliser l’horodatage produite par une horloge atomique à bord d’un quatrième satellite.
Pour pouvoir utiliser le GPS, il faut donc un minium de quatre satellites : trois pour la position, et un supplémentaire pour la synchronisation.

L’horloge du satellite

La nécessité des horloges atomiques vient du fait qu’on cherche à avoir une précision très importante sur la position : de l’ordre de quelques mètres sur la surface de la Terre. Il faut donc une très grande précision dans les informations transmises à votre boîtier GPS. Pour donner une idée : une différence d’une microseconde (1 µs) correspond à une erreur de 300 mètres sur la position !

Le principe de l’horloge atomique repose sur un principe quantique15 fondamental : un atome ne peut exister que sous différents niveaux d’énergie bien quantifiés dépendant de la nature de cet atome. Lorsqu’il est « illuminé » par un faisceau de photons à la bonne énergie, l’atome peut chasser un électron d’une couche interne ; afin de conserver l’énergie, l’atome réagit en émettant un photon correspondant exactement à la différence d’énergie entre ces couches.

Le principe d’une horloge atomique devient donc « simple » : il suffit de compter la fréquence émise par un atome bien particulier comme elle est constante, elle devient une base de temps.

 Le Segment de Contrôle (dont la station principale est la Schriever Air Force Base dans le Colorado) établit le temps GPS à partir d’un ensemble d’horloges atomiques gérées par l’US Naval Observatory. Chaque satellite embarque une horloge atomique de précision, mais qui présente une dérive à long terme non négligeable. Pour éviter une désynchronisation du temps GPS entre les différents satellites, les paramètres de correction des horloges sont maintenus par le Segment de Contrôle et transmis dans le message de navigation de chaque satellite.

Synchronisation de l’horloge du récepteur

La base de temps des récepteurs GPS provient d’oscillateurs à quartz, qui peuvent aller d’un simple composant électronique fournissant du 10 MHz pour un appareil de type GPS pour l’automobile, à des oscillateurs plus performants compensant la dérive en température (OCXO ou TCXO). Mais, dans tous les cas, ces oscillateurs ne sont pas assez précis pour être utilisables pour le positionnement. Le récepteur est donc synchronisé sur le temps des horloges atomiques des satellites.

Stabilité de différents types d’horloge et d’oscillateur

Source de référence

Dérive par jour
(ordre de grandeur)

Montre à quartz 1 seconde
Oscillateur à quartz
contrôlé en température
(
TCXO)
10 millisecondes
Oscillateur à quartz
thermostaté (
OCXO)
0.1 milliseconde
Horloge atomique
d’un satellite GPS
10 nanosecondes
Horloge atomique
PHARAO
10 picosecondes

 

Jusqu’en 1956 la seconde était une fraction du jour solaire (1/86400) puis de 1956 à 1967 la seconde a été définie comme une fraction de l’année tropique (365,2422 jours solaires, intervalle de temps pour que le soleil retourne à la même position). Mais ce n’était pas assez précis, aussi à partir de 1967, la seconde a été définie à partir d’horloges atomiques

 

 

C’est à partir de 1967 que la seconde va être définie comme la durée de 9.129.631.770 périodes de la radiation correspondant à la transition de deux niveaux hyperfins de l’état fondamental du Cs 133.

Cinéma le 16 janvier. UNE SEMAINE ET UN JOUR de Asaph Polonsky

 

  le 16 janvier. à la Salamandre

UNE SEMAINE ET UN JOUR 
de Asaph Polonsky (Israel – 2016 – 1h38) 

Avec Shai Avivi….

À la fin du Shiv’ah – les 7 jours de deuil dans la tradition juive – l’existence doit reprendre son cours. Tandis que Vicky, sa femme, se réfugie dans les obligations du quotidien, Eyal, lui, décide de lâcher prise… Avec un ami de son fils défunt, il partage un moment de liberté salvateur et poétique, pour mieux renouer avec les vivants…

 

Mêlant l’émotion et le saugrenu, une oraison funèbre aussi désopilante que moralement peu correcte, où l’humour apparaît bien comme l’impolitesse du désespoir. Le Dauphiné libéré

La bande annonce : https://youtu.be/VIQXlchr2uU

Aimons la musique ensemble Décembre 2016

Séance du 05 Décembre 2016
L’une d’entre nous, au cours d’un voyage en Arménie s’était beaucoup intéressée à la musique propre à ce pays. Elle nous a fait partager ses souvenirs assortis de documents dont des CD de musique religieuse et de musique folklorique.

Prochaine séance lundi 09 Janvier à 14 h00 au local rue Poulfanc ou sera présentée la 2nde partie « les femmes musiciennes au cours des siècles »

les lectures d’Annette de Décembre 2016

Soudain j’ai entendu la voix de l’eau

 

de Hawakami Hironi
Ce livre aborde un sujet rare, du moins au cours de mes lectures. L’amour entre frère et sœur. Il est ici en dehors de toute diabolisation. J’aurais envie d’écrire : il coule de source, il est assumé.
Ils le vivent dans une sorte d’accomplissement, avec intensité, constance, bonheur. Le regard des autres ne semble pas les affecter profondément, même s’ils ont conscience de le subir.
L’attentat au gaz sarin a beaucoup marqué les personnages, bien qu’ils n’en aient pas été victimes directement.
Importance de la mère, du temps qui s’écoule. Nous passons constamment du présent à l’évocation des souvenirs.
Amour synonyme de profondeur et de secrets, d’incertitudes.
Discrétion, subtilité, beauté me semblent des mots clefs pour définir ce livre.

Atelier écriture : dates de réunion

les dates de réunion

Groupe 1  ( Marcel Mescam)

 1 er trimestre   = le  27 septembre. le 11 octobre, les 08 et  22 novembre.et les  6 et 20 décembre 2016.

2nd trimestre =  les 3  ;  17  et  31 janvier2017, les 14 et 28 février, les  14 et 28 mars.

 3 ème trimestre  = 11 et 25 avril ; 9 et 23 mai ; 6 et 20 juin 2017.

Groupe 2

la 1ère séance du second atelier d’écriture lundi 9 Janvier  à 14 h30 avec comme animateur Dominique Le Gall.

Les QUANTA par M RIO André

COMMENT  LES  QUANTA ONT REVOLUTIONNE  LA PHYSIQUE

 

M André RIO
M André RIO

 

Au début du vingtième siècle, la physique croyait avoir tout compris : les lois de Newton expliquaient le mouvement des astres, l’électromagnétisme rendait compte de tous les phénomènes électriques, magnétiques et optiques, la thermodynamique les transformations entre la chaleur et les autres formes d’énergie. Les physiciens pouvaient se reposer, leur mission accomplie, à l’exception de quelques faits gênants qui ne devaient pas tarder à être résolus. Ils l’ont été en effet, mais au prix d’une révolution.

Si tout s’était interprété jusque là par le bon sens et la pensée logique, à partir de notions conformes à notre intuition, il a fallu tout remettre en question. La première difficulté qui est  apparue concerne ce qu’on appelle le rayonnement du corps noir. Imaginez un four fermé à l’exception d’une petite ouverture qui permet d’observer l’intérieur. Au départ, le four est froid, et il y fait noir, comme dans un four évidemment. Cependant, si on l’examine avec un dispositif sensible à l’infra rouge, on constate que ses parois rayonnent : comme la lumière et les ondes radio, l’infra rouge est un rayonnement électromagnétique, et le rayonnement observé est formé d’un spectre continu de longueurs d’onde réparties de façon statistique autour d’un maximum.

On commence maintenant à chauffer progressivement le four. On constate que le maximum s’élève et se déplace vers les longueurs d’onde plus courtes. Un peu plus tard, le four commence à rougir : la lumière visible commence à apparaître et va s’intensifier à mesure que la température s’élève. Le maximum est de plus en plus aigu et sa longueur d’onde diminue. La couleur passe du rouge au jaune puis au blanc si l’on chauffe suffisamment; l’éclat est de plus en plus intense et il y a de moins en moins d’infra rouge ; l’ultra violet commence à apparaître.

Cela se passait à la fin du dix neuvième siècle ; restait à l’expliquer selon la seule physique connue à l’époque. Les vibrations électromagnétiques qui provoquent l’émission lumineuse proviennent des atomes et des molécules qui constituent la paroi du four. On peut essayer de les interpréter par une image : considérons un auditorium rempli de musiciens avec leurs instruments, puisque le son est aussi un phénomène vibratoire, mais il n’est pas électromagnétique.

Au début, la salle est froide. On commence par entendre des notes très graves qui sont jouées pianissimo. Peu à peu, la température s’élève, des notes de plus en plus aiguës se font entendre. L’orchestre joue moderato, forte, fortissimo, jusqu’à ce que les exécutants et leurs  instruments n’en puissent plus. Etait-ce la bonne interprétation ? Quand les physiciens  ont tenté d’interpréter mathématiquement les caractéristiques du rayonnement à partir de ce qu’on savait de l’électromagnétisme, ce fut un échec total, jusqu’à ce que Planck utilise ce qu’il considérait comme un artifice mathématique : au lieu de considérer que chaque source, atome ou molécule, émet en continu son rayonnement propre, il postule qu’elle émet de façon discontinue par paquets, les quanta, qui sont à leur tour absorbés par d’autres sources réglées sur la même longueur d’onde. Au  lieu du concert d’un orchestre, on a une partie de ping-pong, et l’équation ainsi calculée par Planck décrit exactement ce qu’on observe, mais on ne soupçonne pas encore la portée de ce résultat.

En 1905, Einstein publie entre autres un article interprétant un autre phénomène inexpliqué : l’effet photoélectrique. Un circuit conducteur comporte une cellule sous vide munie de deux électrodes dont l’une constituée d’un métal alcalin comme le sodium. Si on éclaire cette électrode, un courant s’établit dans le circuit, mais, quelle que soit l’intensité de l’éclairage, il existe un seuil : il faut une lumière d’une longueur d’onde inférieure à une valeur caractéristique du métal : là où une lumière rouge, aussi intense soit-elle ne donnera rien, une lumière bleue, de longueur d’onde plus courte, créera un courant.

On savait déjà que les électrons permettent le passage d’un courant dans le vide, à condition qu’ils soient suffisamment accélérés, mais comment la lumière pouvait-elle intervenir ? L’explication proposée par Einstein allait à l’encontre de ce qu’on pensait de la lumière, rayonnement électromagnétique. Einstein imagina qu’elle pouvait aussi se comporter comme un flux de particules, les photons, dont l’énergie est inversement  proportionnelle à leur  longueur d’onde. Si cette énergie est insuffisante pour arracher les électrons au métal, il n’y a pas de courant.

Le rapprochement avec le rayonnement du corps noir s’impose : dans les deux cas, la lumière apparaît comme formée de particules, en contradiction avec son aspect d’onde pourtant solidement établi. Une particule doit suivre une trajectoire précise, alors qu’une onde s’étale et se dilue ; un caillou qu’on lance ne se comporte pas comme des vagues sur l’eau. La lumière paraît être tantôt l’un tantôt l’autre : émise et absorbée comme une particule, elle se propage comme une onde.

Le comportement des atomes comme sources de lumière était aussi en contradiction avec l’électromagnétisme. On avait établi qu’ils sont formés d’un noyau massif chargé d’électricité positive et d’un certain nombre d’électrons dont les charges négatives équilibrent celles du noyau. On se représentait l’atome comme une planète avec ses satellites, l’interaction électrique remplaçant l’attraction de la pesanteur. Cependant, un électron tournant autour du noyau est l’équivalent d’un courant électrique. Or un courant circulaire émet un rayonnement électromagnétique, perd de l’énergie, et l’électron devrait tomber rapidement sur le noyau, comme un satellite freiné par l’atmosphère, mais il n’en est rien.

Pour qu’un atome émette un rayonnement, il faut l’exciter par la chaleur, la lumière ou une étincelle électrique, c’est à dire lui fournir de l’énergie. La lumière qu’il émet, examinée avec un spectromètre, est constituée d’un certain nombre de raies spécifiques qui peuvent servir à l’identifier. Il peut aussi absorber les mêmes longueurs d’onde émises par une source plus chaude, le soleil ou une étoile par exemple. Les raies lumineuses sont alors remplacées par des raies noires. Que se passe-t-il ?

Nous sommes maintenant dans les années vingt du vingtième siècle, et une nouvelle physique commence à s’ébaucher avec Bohr, animateur de l’Ecole de Copenhague. La lumière émise ou absorbée par un atome a été la clé qui a permis de comprendre sa structure. Au repos, les différents électrons qui le constituent se situent chacun à un niveau d’énergie constant qu’on peut se représenter comme une orbite fixe, les plus internes étant les plus stables. L’absorption d’un photon, l’effet d’un choc ou une excitation électrique provoque le saut d’un électron externe sur une orbite supérieure inoccupée. Il restitue spontanément l’énergie ainsi acquise sous forme d’un nouveau photon identique à celui qui aurait pu provoquer l’excitation, en retombant à son niveau initial.

Chaque type d’atome se caractérise donc par un spectre spécifique qui permet de l’identifier ; c’est ainsi que la lumière des étoiles nous renseigne sur leur composition.

Le noyau d’un atome, dans lequel presque toute la masse est concentrée, est environ 10 000 fois plus petit que le nuage d’électrons qui l’entoure. L’atome est donc surtout fait de vide, mais ses électrons constituent une barrière presque infranchissable pour tout autre atome ou toute particule chargée électriquement. On voit déjà que l’idée intuitive que nous avons de la matière est complètement dépassé pour l’atome. On peut encore lui attribuer une dimension , ainsi qu’au noyau, qui sont des composites de particules élémentaires , mais pour ces dernières, cela n’a plus de sens, et l’électron n’est pas une petite bille, comme la suite va le confirmer.

La lumière se comporte tantôt comme une onde, tantôt comme une particule, le photon qui, contrairement à l’électron, n’a pas de masse. Louis de Broglie a considéré que toute particule élémentaire, l’électron par exemple, doit aussi se propager comme une onde. L’expérience a rapidement confirmé son hypothèse : un faisceau d’électrons est diffracté par un cristal comme un faisceau de   rayons X de même longueur d’onde, et un électron se caractérise lui même par une longueur d’onde inversement proportionnelle à sa masse et à sa vitesse, cette vitesse dépendant du dispositif utilisé pour l’accélérer, alors que celle des rayons X, qui sont des ondes électromagnétiques est celle de la lumière, vitesse qu’une particule de masse non nulle ne peut atteindre.

La façon la plus simple d’observer les propriétés ondulatoires de la lumière est d’interposer devant une lampe un écran percé de deux fentes très rapprochés et de projeter la lumière qui a traversé le premier écran sur un second placé à une certaine distance. On peut s’attendre à voir deux taches de lumière, et c’est ce qu’on observe effectivement si les deux ouvertures ne sont pas assez proches. Si on les rapproche suffisamment, on observe cette fois au lieu de deux taches une série de bandes alternativement claires et sombres. Que se passe-t-il ? Les ondes provenant des deux fentes peuvent s’additionner si elles sont en phase, ou s’annuler si elles sont en opposition, et le phénomène se reproduit périodiquement d’un bord à l’autre de l’écran. On a une figure d’interférence, et c’est un moyen classique de démontrer que la lumière est une onde.

Le physicien américain Feynman a analysé le même phénomène produit par des électrons et en a montré le caractère paradoxal : chaque électron  passe-t-il par une seule fente et se comporte-t-il comme un projectile ou comme une onde ? Si on envoie un faisceau formé d’un grand nombre d’électrons, on observe bien une figure d’interférence, mais si on envoie les électrons un à un, chacun laisse une trace unique sur l’écran. Cependant, si on envoie successivement un nombre suffisant d’électrons, la trace des différents impacts dessine peu à peu une figure d’interférence sur l’écran. Chaque électron est-il passé à la fois par les deux fentes et a-t-il interféré avec lui même ?

On peut essayer de détecter par quel trou est passé chaque électron. Il faut pour le déceler l’éclairer au passage, ce qui le perturbe : on n’observe plus d’interférences mais deux impacts correspondant aux deux fentes. Cette fois, chaque électron se comporte comme une particule et non plus comme une onde. Le fait d’observer son passage a modifié son comportement ; on a réduit sa fonction d’onde, il s’est en quelque sorte matérialisé. Ces résultats qui choquent notre intuition montrent tout au moins que le bon sens ordinaire ne vaut plus rien dans le monde quantique. Il en est d’encore plus étonnants, mais il ne faudrait pas en conclure que ce monde est incohérent ; il obéit à des règles très précises qui n’ont jamais été mises en défaut mais qui ne sont pas conformes à notre expérience courante.

Quand une particule se comporte comme une onde, si on connaît sa vitesse, on ne peut plus lui attribuer une position précise, c’est le principe d’indétermination d’Heisenberg, et si deux particules interagissent à un certain moment puis se séparent, elles continuent à former un tout indissociable, quelle que soit la distance qui les sépare. Supposant qu’elles avaient au départ une certaine caractéristique, positive pour l’une, négative pour l’autre, il est impossible de prévoir laquelle a emporté l’un ou l’autre caractère ; en fait, chacune possède à la fois à l’état latent les deux possibilité . Si l’une est détectée, elle doit à ce moment révéler son signe que rien ne permettait de prévoir : c’est un pur hasard, mais instantanément l’autre acquiert le signe opposé, si éloignée qu’elle soit.

Ce paradoxe, cette indétermination fondamentale, Einstein ne pouvait l’admettre : Dieu ne joue pas aux dés. Il voulait que dès le départ les jeux soient faits et que chaque particule soit affectée d’un signe défini. Il a disparu des années avant qu’on démontre de façon certaine qu’il s’était trompé, mais avant de dire comment on l’a établi, l’histoire des poissons quantiques va nous en donner une image plus concrète, sinon plus intuitive.

Vous vous êtes procuré un poisson quantique, vous le tenez, il est là bien vivant. Vous le plongez dans un bassin plein d’eau ; il disparaît immédiatement. S’il était rouge, toute l’eau est devenue légèrement rose. Vous plongez dans le bassin une ligne avec un hameçon et un appât. Au bout d’un moment, il mord, reparaît  tout frétillant et l’eau s’est décolorée. Vous le libérez ; il replonge et disparaît de nouveau. Entre chaque apparition, il est partout et nulle part à la fois.

Vous avez maintenant  un couple de poissons, un mâle et une femelle. L’un est bleu, l’autre jaune. Plongés dans le bassin, ils disparaissent aussitôt. L’eau devient verte. Si l’un mord à l’appât il redevient visible et révèle son sexe et sa couleur, et l’autre apparaît aussi immédiatement. Vous pouvez faire mieux en partageant l’eau du bassin dans deux autres récipients que vous pouvez éloigner autant que vous voulez. Si dans l’un des deux un des poissons mord, cette fois encore l’autre apparaît immédiatement, quelle que soit la distance qui les sépare, mais rien ne permettait de savoir, tant qu’il n’avait pas mordu, où étaient le mâle et la femelle : en fait, ils étaient potentiellement dans les deux bassins à la fois, comme le montrait la couleur de l’eau.

Si nous revenons aux vrais objets quantiques, la conclusion qu’il faut en tirer, c’est qu’une particule n’a pas d’individualité propre tant qu’elle ne se manifeste pas, et qu’avant qu’elle se révèle elle est imprévisible.

Pendant plusieurs années, le paradoxe d’Einstein, appelé paradoxe EPR, ne pouvait être tranché, jusqu’à ce que le physicien Bell démontre théoriquement qu’une expérimentation était possible. Alain Aspect s’en est inspiré pour réaliser un dispositif dans lequel des photons corrélés sont émis dans des directions opposées ; Il a montré de façon indiscutable que toute perturbation de l’un se répercute instantanément sur l’autre quelle que soit la distance  qui les sépare, alors même qu’aucun signal du premier ne peut atteindre l’autre, même à la vitesse de la lumière, mais qu’ils forment un tout indissociable.

Comment donc se représenter une particule quantique ? Ce n’est certainement pas un objet au sens où nous l’entendons intuitivement. Il n’a ni forme ni dimension ; il n’est pas fait d’une matière quelconque puisque justement à ce niveau la notion de matière n’a plus de sens puisqu’elle suppose des atomes et des molécules. Par contre, elle possède des caractères parfaitement définis et mesurables avec une grande précision : elle peut avoir une masse, une charge électrique, un moment magnétique, un spin (propriété analogue à un sens de rotation) , une longueur d’onde liée à son énergie. Elle se déplace camouflée, mais quand elle interagit, le point d’impact est parfaitement défini.

Comment représenter mathématiquement son parcours ? Faute de notion plus concrète, Schrödinger la décrit par ce qu’on appelle sa fonction d’onde, expression abstraite liée à la probabilité de sa présence en un point. Cette fonction permet en particulier d’interpréter les orbites des électrons dans un atome et leur répartition par niveaux d’énergie distincts. L’équation de Schrödinger ne représente que l’aspect ondulatoire des particules, c‘est à dire leur comportement tant qu’elles ne se manifestent pas. Quand  se produit l’événement appelé réduction de la fonction d’onde, c’est alors que la particule apparaît en un point précis et révèle ses caractéristiques qui étaient jusque là à l’état latent.

Quand il s’agit d’un ensemble de particules corrélées, un objet quantique, la réduction se fait en un temps d’autant plus bref que le nombre de particules corrélées est plus grand. C’est l’exemple célèbre du chat de Schrödinger : un événement aléatoire, la désintégration d’un atome radioactif par exemple, peut déclencher un dispositif de mise à mort du chat, mais il reste un instant dans un  état indéterminé, à la fois mort et vivant. Un chat réel étant constitué d’un nombre énorme de particules, cet état ne durerait qu’un instant extrêmement court, mais un objet formé d’un très petit nombre de particules pourrait s’y maintenir pendant un temps mesurable.

La physique quantique concerne principalement des objets très petits : atomes et particules élémentaires, mais à très basse température, près du zéro absolu, quand l’agitation thermique est presque nulle, elle peut se manifester à un niveau macroscopique ; c’est le cas de l’hyper fluidité de l’hélium liquide, dont la viscosité devient nulle, et de la supraconductivité de métaux dont la résistance disparaît également.

En chimie, le comportement des molécules est aussi lié aux caractéristiques des nuages d’électrons qui assurent les liaisons entre les atomes et qui commandent leur réactivité.

Des objets monstrueux, les trous noirs, sont aussi concernés par la physique quantique. Les lois de Newton montrent que pour qu’un projectile puisse échapper définitivement à l’attraction d’un astre depuis sa surface, il faut lui communiquer une vitesse suffisante appelée vitesse de libération, qui dépend de la masse et du rayon de l’astre, mais reste la même pour n’importe quel projectile. Sur la Terre, cette vitesse est d’environ 11 km par seconde. Elle est plus faible sur la Lune ou sur Mars, plus grande sur le Soleil ou sur Jupiter.

La Relativité Restreinte nous apprend par ailleurs qu’un objet matériel ne peut atteindre la vitesse de la lumière, qui constitue une limite infranchissable. De plus, la Relativité Générale considère que l’attraction universelle équivaut à une déformation de l’espace et que même la lumière y est soumise. Il en résulte que si un astre est à la fois suffisamment lourd et suffisamment condensé, rien ne peut s’en échapper, même la lumière ; ces conditions supposent une densité énorme.

Même au centre de la Terre, la densité est inférieure à celle des métaux les plus lourds ; au centre du Soleil, elle est déjà très nettement supérieure car la pression est telle que la barrière que constituent les électrons des atomes est déjà largement franchie et qu’ils s’interpénètrent. Dans une naine blanche, destinée d’étoiles comme le Soleil en fin de vie, elle est encore beaucoup plus élevée, et dans les étoiles à neutrons, dont la masse est de 4 à 8 fois celle du Soleil, les neutrons occupent tout l’espace, la densité est de l’ordre de celle d’un noyau atomique, et un tel astre n’a qu’un rayon de quelques kilomètres.

Les plus grosses étoiles en fin de vie implosent et une nouvelle barrière est franchie ; elles atteignent cette fois et dépassent la densité limite et deviennent des trous noirs . Il n’y a pas de limite supérieure à la masse d’un trou noir. On en a détecté au centre des galaxies qui atteignent des millions de fois celle du Soleil, mais il existe une limite inférieure. La relativité n’a pas grand chose à nous dire sur les objets quantiques, sauf si leur vitesse approche celle de la lumière. La physique quantique au contraire fixe une limite à leur taille qui ne peut être inférieure à celle de la longueur d’onde qui leur est associée, et qui dépend elle même de leur masse et de leur vitesse. A leur vitesse maximale, celle de la lumière, correspond une dimension minimale appelée longueur de Planck, qui est extrêmement petite, beaucoup plus petite que celle d’un neutron ou d’un proton, et à cette longueur correspond la masse minimale d’un trou noir qui, si elle est petite, deux centièmes de milligramme, est énorme en comparaison de celle d’un atome.

On s’est demandé si  un trou noir aussi petit pouvait exister réellement. Il aurait été extrêmement dangereux, car il se serait nourri de toute matière passant à sa portée, et aurait pu engloutir une  planète ou une étoile en la traversant.

Stephen Hawkins a démontré que, conséquence du principe d’incertitude de Heisenberg, un trou noir peut s’évaporer, et d’autant plus vite qu’il est petit. Il lui faut avoir une masse très importante pour que sa durée de vie soit appréciable. Quant à ceux qu’ont détecté les astronomes, ils peuvent subsister extrêmement longtemps.

Les objets quantiques ayant un comportement fantomatique, on peut se demander comment ils peuvent constituer la matière qui nous est familière et dont nous sommes faits. C’est qu’ils exercent des interactions qui les lient solidement entre eux : l’interaction forte unit les quarks en protons et en neutrons ; elle lie également protons et neutrons entre eux dans le noyau des atomes et, à l’exception de ceux qui sont radioactifs, ces noyaux sont extrêmement stables. L’interaction électromagnétique, pour sa part, lie les électrons aux noyaux dans les atomes, et les atomes entre eux dans les molécules.

Le caractère surprenant des objets quantiques est donc la cause profonde des propriétés de la matière telle que nous l’observons quotidiennement, mais ces particules si déroutantes, que sont elles réellement, et la question a-t-elle un sens ?  car il est évident qu’elles sont tout à fait étrangères à notre expérience concrète et que nous ne pouvons les aborder que de façon abstraite à partir des données de l’expérimentation.

Leur existence semble liée aux propriétés de l’espace, qui à notre niveau paraît homogène, et vide s’il ne contient aucune matière. A une dimension extrêmement petite, celle de Planck, il semble au contraire finement structuré et peuplé d’une faune filiforme. Imaginez une toile d’araignée géante, mais à trois dimensions et remplissant tout l’espace. A chaque nœud de la toile, on a de plus un certain nombre de petits ressorts capables de vibrer. Un insecte pris dans la toile émet un signal qui se propage de nœud en nœud, excite aussi certains ressorts et alerte les araignées. Les petits ressorts les informent aussi sur la nature de la proie, mouche ou papillon. Les vibrations se propagent à la vitesse maximale, tandis que les araignée sont ralenties par leur masse.

Transposons maintenant cette image au monde quantique : les différents modes de vibration des petits ressorts sont les caractéristiques des particules : masse, charge électrique, moment magnétique, spin…La vitesse de propagation des vibrations est celle de la lumière, que les particules massives ne peuvent pas atteindre ; quant aux particules corrélées, imaginons qu’elles se séparent tout en maintenant un fil tendu entre elles qui leur permet de communiquer instantanément. Quand l’une interagit, le fil casse, et chacune retrouve une identité distincte.

Cette image est une représentation très libre des tentatives actuelles connues sous  le nom de théorie des cordes. Comme son modèle, elle est peut-être complètement fausse, et ce n’est au mieux qu’une approche très grossière pour nous donner le plaisir de tromper notre ignorance. Les progrès de la physique se font par bonds ; le dernier est encore plein d’incertitudes faute de données expérimentales. Les prochaines années nous permettront peut-être d’y voir plus clair en attendant que de nouvelles énigmes apparaissent.

Notre monde paraît en effet organisé avec une grande précision. Le moindre  changement de ses réglages le rendrait invivable, la matière complètement instable ou totalement inerte. Est- il le résultat d’une espèce de sélection naturelle ? Peut-il en exister d’autres complètements différents ? L’énergie, sans laquelle rien n’est possible, peut-elle se créer, se détruire, contrairement à tout ce que nous avons appris jusqu’ici ? Les théories trop abstraites ne sont elles pas des mythes comme ceux dont beaucoup se contentent, et qui ne donnent qu’une illusion d’explication ? La physique ne sera certainement pas achevée avant bien longtemps, et encore faudrait-il en avoir les moyens.