COMPRENDRE LA PHYSIQUE par M RIO André

COMPRENDRE LA PHYSIQUE

rio rio1.La Physique, science de la mesure.

2.La Mécanique de Newton, les grandeurs fondamentales et leurs unités.

3.La Chaleur et ses effets sur la matière .La Thermodynamique.

4.Les vibrations et les ondes .L’Acoustique et l’Optique.

5.L’Electricité et le Magnétisme.

6.Le bilan de la Physique classique.

7.La Relativité, bouquet final de la Physique classique.

8.La Physique quantique.

9.Philosophie de la Physique.

1.La Physique, science de la mesure.

Pour décrire les phénomènes qu’elle étudie, la physique utilise des notions, tantôt concrètes, c’est à dire directement accessibles à nos sens :longueur, masse, tantôt très abstraites : potentiel, entropie, nombres quantiques, mais qui peuvent s’exprimer par des nombres, être mesurables. Elle établit des relations entre ces grandeurs, pour mettre sous forme mathématique les phénomènes concernés.

Beaucoup de personnes considérées comme cultivées manifestent une grande aversion pour les mathématiques, et par conséquent pour la physique .Est-ce une entreprise impossible de leur montrer, sans aucun calcul, que la physique peut être comprise par tous, au moins dans ses principes, qu’on peut s’y intéresser, et qu’elle pose des questions philosophiques fondamentales et passionnantes ? C’est le défi que nous tentons de leur lancer.(Les formules données à titre d’exemples ne sont pas indispensables à la compréhension du texte).

A ceux qui sont curieux de trouver des explications au monde qui nous entoure, la Chimie, la Biologie, et avant tout la Physique apportent des réponses précises et sûres et des moyens d’action efficaces que les anciens penseurs ont recherchés en vain dans leurs cogitations, et que, de nos jours encore, des esprits fumeux, empruntant sans discernement le vocabulaire scientifique, prétendent indûment posséder.

Contrairement à eux, les physiciens ne prétendent pas tout expliquer tout de suite, et si leur science continue de progresser, c’est qu’ils auront toujours des progrès à faire, sans jamais sans doute en trouver les limites.

On distingue deux étapes dans l’histoire de la physique ;la première ,dite classique, remonte à Galilée(1564-1642) qui le premier, ne se contentant plus de discours, expérimente,fait des mesures sur la chute des corps et tente d’en dégager des lois.

Descartes(1596-1650),grand mathématicien, physicien et philosophe célèbre, contribue à la fondation de l’optique, mais s’égare en tentant prématurément d’expliquer les phénomènes de la vie .Newton, père de l’attraction universelle et du calcul intégral, s’intéresse aussi à l’optique .S’ils ont tous deux contribué de façon essentielle aux débuts de la physique, ils sont encore tout imprégnés de dogmatisme, et la méthode expérimentale ne se développera de façon rigoureuse qu’à la fin du XVIIIème siècle .Seule une partie de leur œuvre a survécu :la métaphysique de Descartes, l’alchimie de Newton n’ont plus qu’un intérêt historique.

La méthode expérimentale.

Ni dogme ni idéologie, la méthode expérimentale n’est rien de plus qu’une méthode de travail efficace, mais elle a rendu caducs les modes de pensée qui l’ont précédés.

Elle consiste à confronter en permanence les faits observés et les théories par lesquelles on tente de les expliquer .Elle exige avant tout une ascèse intellectuelle stricte, excluant la soumission à toute idée préconçue :seuls les faits s’imposent, et ils doivent être décrits de façon précise et reproductible .En physique, ils se décrivent au moyen de grandeurs mesurables bien définies .Il faut ensuite interpréter ces faits par des théories cohérentes et vérifiables .Une théorie est d’autant plus crédible qu’elle permet de prévoir plus de résultats, mais elle ne doit jamais être considérée comme absolue et définitive.

Qu’y a-t-il dans la physique classique ?

Elle concerne:

La matière, ses mouvements, ses changements, le déplacement des objets soumis à des forces, les vibrations, les changements d’état, solide, liquide et gaz.

La chaleur, ses différentes actions sur la matière, sa transformation en mouvement dans les machines à vapeur et les moteurs thermiques.

L’électricité : les charges statiques, les courants électriques et l’électronique.

Le magnétisme : le champ magnétique terrestre, les aimants, les électroaimants, l’induction électromagnétique et les moteurs électriques.

Les rayonnements : la lumière, les ondes radio.

L’énergie, notion fondamentale de la physique, est la monnaie commune à tous ces domaines, qui permet les transformations du mouvement en chaleur, en électricité, et toutes autres formes, sans qu’il y ait ni perte ni gain dans le bilan global : la quantité d’énergie reste constante.

2.La mécaniques de Newton, les grandeurs fondamentales de la Physique et leurs unités.

Pour décrire les phénomènes étudiés, il faut définir un certain nombre de grandeurs, et d’abord trois grandeurs fondamentales dont nous avons une notion intuitive. Les unités du système international(SI) et leurs multiples sont indiqués entre parenthèses.

La longueur(l) (le mètre).

La masse(m) (le kilogramme).

Le temps(t) (la seconde).

On sait mesurer ces grandeurs avec une extrême précision, et elles servent à définir toutes les autres par des relations simples :

La vitesse (v = l/t) (le mètre par seconde).

L’accélération(=v/t) (le mètre/seconde par seconde).

La force (F =m) (le newton) qui peut mettre une masse en mouvement ou provoquer une déformation. Le newton est la force exercée par la pesanteur à la surface de la Terre sur une masse d’environ 100 grammes.

L’énergie (E = f. l) (le joule et son multiple le Kwh=3,6.106 joules). L’énergie est l’effort à dépenser pour déplacer une masse ou l’accélérer.

La puissance(P=E/t) (le watt)est l’énergie dépensée ou fournie par seconde.

La pression (p = F /s) (le pascal=1 newton par m² et le bar=105pascals), force par unité de surface.

Au moyen de ces grandeurs, on peut interpréter mathématiquement un grand nombre de phénomènes grâce à deux notions fondamentales :

L’inertie : une masse qui n’est soumise à aucune force reste immobile ou garde une vitesse constante.

L’attraction universelle : deux masses s’attirent selon la loi de Newton :

F = G m 1m2/d²

G: constante de l’attraction universelle=6,672.10-11(SI).

d: distance des deux masses.

On peut ainsi calculer avec une grande précision la chute des corps, les mouvements des astres, des satellites artificiels et des sondes interplanétaires.

1-image

La masse, quantité de matière, se compte en kilogrammes 2-image-ane

La force se compte en newtons 3-image

Le poids, force due à la pesanteur, se compte en newtons

3.La chaleurs et ses effets sur la matière. La thermodynamique.

Le chaud et le froid n’ont pas toujours été compris comme ils le sont actuellement. Au XVIéme siècle encore, les minéraux et les végétaux étaient considérés comme chauds ou froids par nature (exemple : le diamant est froid). L’invention du thermomètre a permis une détermination chiffrée objective de la température, mais la notion de chaleur est restée ambiguë plus longtemps encore , jusqu’au XIXème siècle. Elle était considérée comme un fluide, une matière subtile qui pénétrait les corps.

La température peut être comparée au niveau de l’eau dans une retenue, la chaleur à la quantité d’eau en amont du barrage. Si la température, qui s’exprime en degrés, est une échelle qui permet de déterminer le niveau d’échauffement des objets, la chaleur est une quantité, comptée en calories, qui dépend de la masse de ces objets

La chaleur est une forme d’énergie.

Toutes les autres formes d’énergie peuvent être transformées entièrement en chaleur : énergie mécanique(les freins s’échauffent), électrique(les radiateurs électriques), chimique(les combustions), nucléaire(la radioactivité et les centrales nucléaires).

On peut donc aussi bien mesurer la chaleur en calories et en joules :

1 calorie = 4,18 joules

Ou en kilowatts.heure : 1 Kwh = 1000 x 3600/4,18 = 8,6.105 calories.

La chaleur est une forme dégradée d’énergie.

La transformation inverse ne peut jamais être complète : on ne peut pas transformer intégralement la chaleur en une autre forme d’énergie. C’est pourquoi les centrales thermiques ou nucléaires, les moteurs à combustion et les machines à vapeur ont un rendement limité : ils doivent fonctionner entre une source chaude qui fournit la chaleur(température T1) et une source froide (l’extérieur) qui en absorbe une partie(température T2), avec un rendement maximum théorique jamais atteint :

rendement (r) = (T1-T2)/T1

T est la température comptée au-dessus du zéro absolu(-273°C), à laquelle un corps ne renferme plus aucune chaleur.

Ce caractère de la chaleur a fait introduire une autre notion : l’entropie (S).

S = Quantité de chaleur/Température absolue = Q/T

4-machine-a-vapeur

Dans un système isolé de l’extérieur, l’entropie ne peut qu’augmenter, par exemple quand on transforme une autre forme d’énergie en chaleur, et elle ne peut jamais diminuer : on peut créer de l’entropie, mais non la détruire, alors que la quantité totale d’énergie reste constante. Quand on mélange deux substances différentes, on crée aussi de l’entropie, car l’opération inverse ne peut se faire spontanément et exige un apport d’énergie

Les effets de la chaleur.

La dilatation. Tous les corps se dilatent en s’échauffant ; c’est cette propriété qui est utilisée dans les thermomètres. Les gaz se dilatent beaucoup plus que les solides et les liquides, selon la formule :

p.v = R.T

p:pression ; v:volume ; R:constante des gaz parfaits = 8,3 (SI) ; T :température absolue.

Les changements d’état. La fusion exige un apport de chaleur(chaleur de fusion), qui est restituée à l’extérieur dans le phénomène inverse, la solidification. Il en est de même de la vaporisation d’un liquide, de la sublimation d’un solide.

Qu’est-ce que la chaleur ?

Tout ce qui précède n’apprend rien sur la nature de la chaleur. C’est à la fin du XIXème siècle qu’on a compris que la chaleur n’est rien d’autre que l’agitation désordonnée de la matière. Cette agitation est d’autant plus intense que la température est plus élevée.

Dans le cas le plus simple, celui des gaz, les molécules qui les constituent sont animées de vitesses désordonnées et s’entrechoquent continuellement. On peut définir une vitesse moyenne directement liée à la température :

1/2 m.v² = 3/2 R/N.T

m:masse d’une molécule ; v:vitesse moyenne des molécules ; R:constante des gaz parfaits ; N :nombre d’Avogadro = 6,02.1023 ; T: température absolue.

Dans les liquides, les molécules s’agitent également, se lient et se séparent constamment sous l’effet de liaisons faibles .Dans les solides, les liaisons sont permanentes, et l’agitation se traduit principalement par des vibrations .Une élévation de la température favorise la rupture des liaisons, entrainant la fusion des solides et la vaporisation des liquides.

4. Les vibrations et les ondes .L’acoustique et l’optique.

Les vibrations interviennent dans presque tous les domaines de la physique, chaque fois qu’un système oscille de part et d’autre de sa position d’équilibre .Il peut s’agir d’un ressort, d’une lame métallique, d’une corde ou d’un pendule, mais aussi de la pression de l’air, d’un courant électrique, d’un atome ou d’une grandeur abstraite :champ électromagnétique ou fonction d’onde.

Le cas le plus simple, celui d’une vibration sinusoïdale, s’exprime par la formule:

a = am sin 2 t

a:amplitude ; am:amplitude maximum ; fréquence ou nombre d’oscillations par seconde ; t:temps, et se caractérise donc par son amplitude et sa fréquence.

Une onde est une vibration qui se propage .C’est le cas des vagues sur l’eau, des sons, de la lumière et des ondes radio .Deux autres grandeurs caractérisent une onde :sa vitesse et sa longueur d’onde, c’est à dire la distance entre deux vagues ou deux maxima successifs.

Certaines ondes ont besoin d’un support matériel :le son se propage dans l’air ou dans un milieu solide ou liquide .D’autres peuvent se propager dans le vide, comme la lumière et les ondes radio.

L’acoustique.

Un son est provoqué par exemple par la vibration d’un instrument de musique à vent ou à corde, qui se propage dans l’air à environ 300 mètres par seconde, et qui peut être détecté par l’oreille ou par un microphone. Les ondes audibles ont des fréquences comprises environ entre 50(son grave)et quelques milliers(sons aigus).Au delà se situent les ultrasons .Un son pur correspond à une fréquence unique, mais il est généralement accompagné d’harmoniques qui en sont des multiples :Le premier harmonique a une fréquence double de celle du son principal .Ce sont les harmoniques qui donnent leur tonalité particulière aux instruments ;la fréquence du son est directement liée à la longueur de la corde ou du tuyau de l’instrument.

L’optique.

Comme dans le cas de la chaleur, on a étudié les propriétés de la lumière bien avant d’en connaître la nature.

Propriétés géométriques de la lumière.

1.La lumière se propage en ligne droite dans un milieu homogène.

2.La lumière se réfléchit sur un miroir selon un angle égal à l’angle d’incidence.

3.La lumière est déviée quand elle passe d’un milieu à un autre :elle se réfracte selon la loi de Descartes:

sin i = n sin r

i :angle d’incidence ; r :angle de réfraction ; n :indice de réfraction.(n = 1 dans le vide et pratiquement aussi dans l’air).

Les applications de ces propriétés sont nombreuses :utilisations de miroirs, de prismes, de lentilles convergentes ou divergentes, éléments des instruments d’optique :loupes,lunettes, jumelles, télescopes, microscopes.

Propriétés physiques de la lumière .Newton a montré que la lumière blanche est un mélange correspondant aux différentes couleurs ,du violet au rouge .Un prisme, qui les dévie différemment, permet de les séparer en un spectre analogue à un arc en ciel dans lequel le violet est le plus dévié .La lumière est une onde qui se propage dans le vide à la vitesse de 300 000 km par seconde .Aux différentes couleurs correspondent des longueurs d’onde comprises entre 0,4 µm(micromètre)pour le violet et 0,8 µm pour le rouge.

La lumière, phénomène vibratoire, peut donner lieu aussi à des interférences :quand on réunit deux faisceaux lumineux, il peut y avoir soit addition soit soustraction des vibrations, ce qui donne sur un écran une alternance de zones claires et sombres.

Contrairement aux sons, dont les vibrations se font parallèlement à la direction de propagation, les vibrations de la lumière lui sont perpendiculaires, comme les rayons d’une roue par rapport à son axe Dans la lumière ordinaire, les vibrations se font dans toutes les directions, mais on peut lui imposer une direction unique, comme si l’on gardait un seul rayon à la roue .La lumière est alors polarisée ;c’est le cas de la lumière des lasers.

Nature de la lumière.

On a montré au siècle dernier que la lumière est une onde électromagnétique .Au delà du rouge, le spectre électromagnétique comporte également l’infrarouge et les ondes radio aux longueurs d’onde plus grandes, et au delà du violet l’ultra-violet, les rayons X et les rayons aux plus courtes longueurs d’onde.

5. L’électricité et le magnétisme.

Electricité statique et courant électrique.

En frottant une substance isolante, on constate qu’elle peut ensuite attirer de petits débris :papier, poussière, mais on peut aussi observer des répulsions .Ces phénomènes s’expliquent par l’existence de charges électriques de deux sortes, positives et négatives .Les charges de même signe se repoussent, celles de signes contraires s’attirent, selon une loi analogue à celle de l’attraction universelle

f = q q’/d2x9.109 (en unités SI)

f :force d’attraction ou de répulsion(newton);q,q’ :charges électriques(coulomb);d :distance des charges(mètre).

Ces charges se déplacent dans des substances conductrices comme les métaux :ce sont des courants électriques.

Comme on fait circuler de l’eau entre deux niveaux différents, on crée un courant électrique au moyen d’une différence de potentiel, avec des piles ou des batteries ;Ce courant est défini par son intensité, nombre de charges passant par seconde, comme le débit d’une rivière, mais il est freiné par la résistance du conducteur:

I = E/R

I :intensité(ampère ou coulomb par seconde);E :différence de potentiel(volt);R :résistance(ohm).

Ce freinage dégage de la chaleur:

Q = RI2t

Q :chaleur(joule);t :temps(seconde).

L’énergie électrique est ainsi transformée en chaleur.

L’électrolyse.

Une autre propriété du courant électrique est de dissocier les composes ionisables, acides bases et sels .Au passage du courant dans une solution d’électrolyte, entre deux électrodes(anode positive et cathode négative)les ions positifs(H+,métaux)vont vers la cathode, et les ions négatifs(chlorure, sulfate, hydroxy)à l’anode .Cette propriété a de nombreuses applications :fabrication du chlore, de la soude, de l’hydrogène, de l’aluminium ;galvanoplastie.

Le magnétisme.

Le champ magnétique terrestre oriente les aiguilles aimantées, car la Terre se comporte comme un aimant. Tout aimant comporte deux pôles opposés, nord et sud .Ici encore, les pôles de même nom se repoussent et les pôles opposés s’attirent, selon une loi analogue:

f = m m’ / d2x107

m,m’ :masse magnétique(rien de commun avec les masses comptées en Kg);d :distance des masses, mais les masses magnétiques ne peuvent être isolées :si on coupe un aimant en deux, on obtient deux aimants plus petits ayant chacun un pôle nord et un pôle sud.

L’électromagnétisme.

Electricité et magnétisme sont deux aspects complémentaires de l’interaction électromagnétique :un courant électrique crée un champ magnétique qui dévie une aiguille aimantée(expérience d’Oerstedt),et une variation de champ magnétique dans un circuit électrique crée un courant .Un courant alternatif crée un autre courant dans un circuit voisin Les applications de ces propriétés sont très importantes:

Electro-aimants.

Dynamos produisant du courant continu.

Alternateurs produisant du courant alternatif.

Transformateurs abaissant ou élevant la différence de potentiel des courants alternatifs.

Moteurs électriques.

Les ondes électromagnétiques.

Toute variation du champ électrique fait varier le champ magnétique et réciproquement. L’oscillation simultanée de l’un et l’autre se propage dans l’espace :c’est une onde électromagnétique .Telles sont les ondes de la radio, de la télévision, mais aussi celles de plus courte longueur d’onde :infra-rouge ;lumière visible ;ultraviolet, rayons X et.

L’électron et l’électronique.

Les charges électriques négatives sont constituées de particules élémentaires, les électrons, qui se déplacent dans les métaux, mais aussi dans le vide des tubes(diodes, triodes)des récepteurs de télévision, des tubes à rayons X, et dans les semi conducteurs, éléments essentiels des applications de l’électronique .Les ions positifs ou négatifs, beaucoup plus lourds, sont peu mobiles, car formés d’atomes ayant acquis ou perdu des électrons, et se déplacent beaucoup plus lentement dans les électrolytes et dans le vide.

6. Le bilan de la physique classique.

A la fin du XIXème siècle, la physique avait expliqué tous les phénomènes de son domaine connus à l’époque, c’est à dire les avait traduits en équations et pouvait, au moins théoriquement, en calculer tous les effets .Elle avait amorcé une unification de ses différentes parties: optique, électricité et magnétisme avaient acquis une base commune :l’électromagnétisme de Maxwell confirmé expérimentalement par Hertz.

En réaction contre la métaphysique, considérée comme une spéculation stérile, elle s’était longtemps interdit de chercher des explications sous jacentes aux phénomènes directement accessibles, refusait les atomes et les molécules que les chimistes acceptaient de plus en plus.

Quelques percées allaient cependant dans ce sens :la théorie cinétique des gaz de Boltzmann considérait la chaleur comme l’énergie d’agitation des molécules, et les décharges électriques dans les tubes à vide mettaient en évidence l’existence de particules électrisées, les électrons et les ions.

Quelques faits restaient totalement inexplicables:

L’expérience de Michelson et Morley ne parvenait pas à mettre en évidence le mouvement relatif de la Terre par rapport à la lumière.

Les spectres des éléments sont formés de raies distinctes et non d’un fond continu.

Le rayonnement dit du corps noir, échange équilibré entre la lumière et la matière, que Plank n’avait pu interpréter qu’en admettant que cet échange se fait par quantités discontinues (quantas).S’agissait-il d’un simple artifice de calcul ou de la manifestation d’une réalité cachée?

L’effet photoélectrique :le seuil d’extraction d’un électron de la matière par la lumière dépend de sa longueur d’onde et non de son intensité.

La radioactivité :émission continue de rayonnements par l’uranium, source d’une énergie qui semblait inépuisable.

Considérées d’abord comme des anomalies curieuses mais anecdotiques, tous ces faits allaient entraîner une révolution et obliger à prendre en compte la structure intime de la matière et à revoir les notions fondamentales d’espace, de temps et de réalité physique.

7. La Relativité, bouquet final de la Physique classique.

Si l’on observe qu’un objet se déplace, c’est par rapport à un repère considéré comme fixe .On a longtemps pensé que la Terre était immobile, puis on a compris qu’elle tourne sur elle même et autour du soleil .Le soleil n’est pas fixe par rapport aux étoiles, ni les étoiles, ni les galaxies entre elles .Il n’y a pas de référence absolue, pas de mouvement absolu.

La composition des vitesses.

Quand un voyageur se déplace à l’intérieur d’un train ou d’un avion, son mouvement s’ajoute à celui du véhicule qui le transporte .Un projectile lancé d’un véhicule qui se déplace combine également sa vitesse propre à celle du véhicule.

Il s’agit chaque fois d’objets pesants, donc inertes, qu’il faut accélérer pour les mettre en mouvement, mais qu’en est-il de la lumière, onde sans masse ?On avait pensé que la lumière avait besoin d’un support, l’éther, qui aurait été la référence de son déplacement, mais dont les propriétés supposées étaient contradictoires .L’expérience de Michelson et Morley a montré qu’en fait la vitesse de la lumière était indépendante des mouvements de la source et de l’observateur :la lumière n’a besoin d’aucun support pour se propager, et les conséquences en paraissaient paradoxales .Pressenties par FitzGerald, Lorentz et H.Poincaré,elles ont été explicitées par Einstein.

La relativité restreinte.

Lorsque deux observateurs se déplacent l’un par rapport à l’autre à vitesse constante, les mesures que chacun peut faire sur son propre véhicule et sur celui de l’autre, en échangeant avec l’autre des signaux lumineux ne donnent pas les mêmes résultats :les longueurs, le temps et même les masses paraissent différents.

L’une des conséquences en est le paradoxe de Langevin :deux jumeaux dont l’un reste sur terre, tandis que l’autre se déplace à grande vitesse, puis revient, n’ont plus le même âge au retour.5-image-deplacmenet-dans-le-temps

Une autre conséquence de la théorie d’Einstein est que la masse est elle même une forme d’énergie:

E = m C2 C :vitesse de la lumière

Toutes ces déductions de la théorie ont été confirmées par les faits.

La relativité générale.

Einstein a été frappé par l’idée qu’un champ de gravité comme celui de la Terre a des effets identiques à ceux d’une accélération.

Une masse m peut être définie de deux façons: elle attire toute autre masse selon la loi de Newton

f = G M m / d2 c’est la masse gravifique.

Elle oppose son inertie à une force qui l’accélère:

f = m c’est la masse inerte.

L’expérience montre que ces deux masses sont équivalentes

Un objet loin de toute masse importante, qui ne subit aucune force, a une vitesse constante ou nulle .Il en est de même s’il est en chute libre à l’intérieur d’un véhicule prés de la Terre ou en orbite autour d’elle :c’est l’apesanteur .S’il est soumis à une accélération au moyen d’un moteur, il subit le même effet que s’il est immobile sur la Terre :il est attiré vers le bas ou dans la direction opposée à son accélération.

Les conséquences en sont surprenantes, mais ne sont perceptibles que pour de très grandes vitesses, proches de celle de la lumière.

Dans un véhicule animé d’une forte accélération, la somme des trois angles d’un triangle parait supérieure à 180°,et les cotés du triangle paraissent courbes .Le rapport entre la circonférence et le diamètre d’un cercle parait différent de . La lumière elle même semble suivre une trajectoire courbe.

Sur un disque en rotation très rapide au contraire, pour des observateurs situés sur le disque, la somme des angles d’un triangle parait inférieure à 180°,et le rapport de la circonférence au diamètre parait supérieur à .

Ces conséquences ont également été confirmées .On a vérifié que la lumière provenant d’une étoile est déviée au voisinage du soleil, conformément à la théorie.

La relativité générale donne une interprétation géométrique de la gravité :les masses déforment l’espace à leur voisinage.

Malgré ses aspects paradoxaux, la Relativité reste dans le cadre de la Physique classique :elle n’utilise que des grandeurs macroscopiques :longueur,masse, temps, vitesse, accélération ,et ne donne pas la cause profonde des phénomènes .Einstein recherchait avant tout une interprétation globale et harmonieuse du monde.

8.La physique quantique.

Pour interpréter ce que la physique classique ne pouvait pas expliquer, il a fallu créer une physique nouvelle.

Le rayonnement du corps noir.

La première formulation est due à Planck(1858-1947). Elle concerne le rayonnement dit du corps noir :la matière émet et absorbe continuellement de la lumière, ou tout autre rayonnement électromagnétique .On constate expérimentalement que l’énergie rayonnée présente un maximum qui dépend de la température :à température ambiante, il s’agit d’infra-rouge, à 1000°de lumière visible .Pour interpréter ce résultat, Planck dut admettre que les échanges d’énergie se font par quantités discontinues, les quanta, l’énergie d’un quantum étant:

E = h                                h :constante de Planck = 6,61 10-34(SI);     ,fréquence du rayonnement.

L’émission lumineuse des atomes.

La lumière émise par un atome excité se présente sous forme d’une série de raies caractéristiques de l’élément, et non d’un spectre continu perte d’un quantum d’énergie.

L’effet photoélectrique.

Certaines substances, en particulier les métaux alcalins, exposés à la lumière, libèrent des électrons et se comportent comme une pile produisant un courant, mais cet effet n’est possible qu’à partir d’une longueur d’onde suffisamment petite(ou d’une fréquence suffisamment grande):il existe un seuil indépendant de l’intensité de la lumière .Einstein(1879-1955)a considéré que la lumière est formée de particules, les photons, dont l’énergie dépend de la fréquence, selon la théorie de Plank .Cette interprétation allait à l’encontre de tous les résultats de l’optique classique qui considérait la lumière comme une onde.

La radioactivité.

Découverte par Becquerel(1852-1908) et étudiée par Pierre et Marie Curie, elle consiste en une émission de particules et de rayonnements par certains éléments comme l’uranium. Elle s’explique par la décomposition spontanée du noyau des atomes, formés eux mêmes de protons et de neutrons.

Les bases de la physique quantique.

Tous ces résultats sont liés à la nature intime de la matière et du rayonnement :la lumière se propage comme une onde, ce qui se manifeste par les effets d’interférences et de diffraction, mais elle interagit avec la matière comme une particule .La matière est composée d’atomes, constitués eux mêmes d’un noyau massif entouré d’un nuage d’électrons ;le noyau est lui même formé de protons et de neutrons.

Louis de Broglie(1892-1987) a généralisé aux particules matérielles la nature double des photons :à toute particule est associée une onde de longueur d’onde 

λ = h/mv         m :masse de la particule ;     v :sa vitesse ;  h:constante de Planck.

Cette hypothèse a été confirmée expérimentalement peu après par Davisson et Germer: comme la lumière, les électrons peuvent se diffracter et créer des interférences .Le microscope électronique, où les électrons remplacent la lumière, en est une application.

Schroedinger (1887-1961) a donné l’expression la plus générale de la physique quantique dans son équation qui permet de calculer la répartition des électrons dans un système, atome ou molécule .Cette équation s’établit à partir de deux données :la particule se déplace comme une onde ;la longueur d’onde est donnée par la formule de L .de Broglie.

Particules et nombres quantiques.

Une particule peut être caractérisée par des nombres quantiques, entiers ou fractionnaires, qui définissent son état dans un système donné .Par exemple, les électrons dans un atome sont caractérisés par quatre nombres qui précisent leur situation dans l’atome .Le principe de Pauli interdit que deux électrons dans un atome possèdent les quatre mêmes nombres quantiques, ce qui permet d’interpréter leur répartition aux différents niveaux .L’un de ces nombres quantiques est le spin qui, pour les électrons, les protons et les neutrons ne peut prendre que les valeurs +1/2 et-1/2.

D’autres particules peuvent avoir des spins de valeur 0,1ou 2.Le spin peut être interprété de façon imagée comme le sens de rotation de la particule sur elle même.

Les conséquences.

Développées par Bohr(1885-1962)et quelques autres physiciens, elles heurtent le sens commun, mais ont toujours été confirmées par l’expérience .En voici trois exemples:

Le principe d’incertitude(Heisenberg,1901-1976):on ne peut définir rigoureusement à la fois la position et la vitesse d’une particule, non par manque de précision de la théorie, mais à cause de sa nature ondulatoire.

Le chat de Schroedinger :Un chat est enfermé dans un dispositif de mise à mort qui peut être déclenché par une seule particule, mais une particule quantique peut être dans un état hybride entre deux possibilités(spin positif ou négatif par exemple),dont une seule serait efficace .Il en résulterait que l’arrivée de la particule mettrait le chat dans un état hybride également, à la fois mort et vivant. 66-image-du-chat

Ce paradoxe a été explicité tout récemment :on a montré que dans un système formé d’un très petit nombre de particules l’état hybride est effectivement observable, mais que quand le nombre de particules devient plus grand la durée de cet état devient vite pratiquement nulle.

Le paradoxe EPR (Einstein, Podolsky et Rosen). Une autre conséquence de l’équation de Schroedinger est que quand deux particules ont interagi, elles sont décrites par une même fonction d’onde :elles forment un tout indissociable quelle que soit leur distance .On dit qu’elles sont corrélées .Si elles ont par exemple des spins opposés, rien ne permet d’attribuer un signe à chacune tant qu’elles n’ont par interagi avec un dispositif de mesure ou tout autre obstacle ;mais dès que l’une a été observée et caractérisée, le spin de l’autre prend, et à ce moment seulement, une valeur définie .Cette conséquence choquait Einstein qui ne pouvait admettre qu’une particule n’ait pas dès le départ des propriétés définies .L’expérience d’Aspect a montré définitivement que l’interprétation d’Einstein n’était pas valable .Ce résultat a mis fin aux théories dites “à variable cachée”qui supposaient que la physique quantique était incomplète et que ses incertitudes pouvaient s’expliquer par l’existence d’un monde subquantique rigoureusement déterministe. 7-image-poisson-quantique

Les poissons quantiques, images des particules élémentaires, sont solubles dans l’eau tant qu’ils n’interagissent pas .Dès qu’ils interagissent, ils reparaissent en un endroit précis, mais le sexe de chacun est rigoureusement imprévisible .

La radioactivité, phénomène probabiliste.

On peut déterminer sur un échantillon d’un élément radioactif sa durée de demi vie :c’est le temps au bout duquel la moitié des atomes se sont désintégrés.

Exemples:

– Uranium U238 4,5                 109ans

– Plutonium Pu239                  24 000 ans

– Cobalt Co60                            5,9 ans

– Radon Rn222                         3,85 jours

mais il est impossible de prévoir à quel moment un atome isolé va se désintégrer :les données ci dessus sont des moyennes statistiques :la radioactivité est aussi un phénomène quantique.

Les effets quantiques macroscopiques.

Si la plupart des effets de la physique quantique sont à l’échelle des atomes et des particules, quelques uns concernent des quantités de matière beaucoup plus importantes.

La superfluidité, la supraconductivité, s’observent à très basse température, quand les effets quantiques ne sont pas masqués par l’agitation thermique, mais le fonctionnement des lasers et celui des semi-conducteurs sont aussi des phénomènes quantiques.

Les particules et leurs interactions.

Trois particules constituent la matière ordinaire, c’est à dire les atomes:

Particules      masse(en grammes)  masse(en GeV)     charge électrique

– électron     0,9 10-27                      0,511                              -1

– proton      1,6 10-24                       938,3                              +1

– neutron                                           939,6                               0

La masse étant une forme d’énergie peut être exprimée en Giga électronvolt (GeV);l’unité de charge électrique est celle de l’électron qui vaut 1,6 10-19 coulomb(unité SI).

Ces particules sont sensibles à quatre sortes d’interactions:

La gravité, interaction entre les masses selon la loi de l’attraction universelle .Cette interaction n’est appréciable que pour de très grandes masses et insignifiante entre deux particules (masse gravifique).Par contre, la masse inerte des particules intervient si elles sont soumises à une accélération .La relativité a donné une interprétation géométrique de la gravité qui parait actuellement étrangère à la physique quantique.

L’interaction électromagnétique agit uniquement sur les particules portant une charge électrique .Responsable des phénomènes électriques et magnétiques, de la structure électronique des atomes, son agent d’interaction est le photon qui n’a ni masse ni charge électrique.

L’interaction forte est nécessaire à la stabilité des noyaux atomiques formés de protons et de neutrons .Elle est donc plus puissante que l’interaction électromagnétique(les protons positifs se repoussent) et agit aussi sur les neutrons .Elle n’a aucun effet sur les électrons et les photons .Les gluons sont les intermédiaires de cette interaction.

L’interaction faible a été décelée dans la radioactivité ,où un neutron, instable s’il est isolé ou en excès dans un noyau, se dissocie:

n p+ + e +e

Le neutron étant insensible à l’interaction électromagnétique et l’électron à l’interaction forte, c’est l’interaction faible qui est responsable de ce mécanisme .Le bilan énergétique de la réaction a obligé à admettre l’existence d’une quatrième particule, le neutrino e(neutrino électronique),sans charge, de masse nulle ou très faible, et qui n’a été détecté que beaucoup plus tard, car il interagit très peu avec la matière. Les intermédiaires de l’interaction faibles, appelés bosons W+, W et Z0,prévus par la théorie, ont également été détectés récemment.

Le foisonnement des particules et la remise en ordre.

Quelques particules exotiques avaient été détectées dans le rayonnement cosmique provenant de l’espace, mais les accélérateurs géants de particules(électrons ou protons)permettant de créer des chocs très violents ont engendré une centaine de particules nouvelles, négatif.

On a constaté aussi que des particules comme le proton et le neutron ont une structure interne et ne sont donc pas vraiment élémentaires comme l’électron.

La clarification est venue avec Gell-Mann(né en 1929) qui a montré que la diversité des particules s’explique par l’existence d’un petit nombre d’éléments ,les quarks, qui peuvent s’associer par deux ou trois pour former un grand nombre de combinaisons liées par l’interaction forte

Leptons                                           Quarks

e       e                                                 u    d

                                                       s     c

                                                       t     b

Les leptons e, et portent les mêmes charges électriques(+1et-1) et ne diffèrent que par leurs masses .Les neutrinos n’ont pas de charge et une masse très faible ou nulle .Les quarks portent des charges fractionnaires(1/3 ou 2/3),ont une masse et de plus une charge dite de couleur, responsable de l’interaction forte .A ces particules, constituants de la matière, il faut ajouter celles qui assurent les différentes interactions:

Interaction                                          Particules

gravifique                                               graviton(hypothétique)

électromagnétique                                photon

faible                                                      bosons W et Z

forte                                                      gluons

Parmi les associations de quarks, on trouve: le proton (uud),le neutron (udd),et les pions:

                                                                                 u d)        ; (ud)                ;(d d)

Les autres quarks (s,c,t,b) participent à la structure d’autres particules très nombreuses et très instables, auxquelles les physiciens ont attribué des saveurs exotiques :étrangeté, charme, beauté, vérité, et des couleurs bleu, jaune, rouge et leurs anti couleurs, sans aucun rapport avec le sens habituel de ces mots.

La chromodynamique quantique.

On ne peut pas observer des quarks isolés, fortement unis à l’intérieur des baryons (proton, neutron).La force qui les lie, l’interaction forte, serait due à une propriété analogue à la charge électrique, et qu’on appelle charge de couleur .Comme en peinture, il existe trois couleurs fondamentales :rouge, jaune et bleu et les anticouleurs correspondantes, vert, violet et orangé. Chaque quark porte une couleur, et la neutralité est obtenue par association des trois couleurs:

u rouge + u jaune + d bleu p incolore

ou d’une couleur et de son anticouleur:

u rouge + dantirouge + incolore

Seules les particules incolores portent des charges électriques entières et peuvent être isolées:

u(+2/3) + u(+2/3) + d(-1/3) p(charge +1)

u(+2/3) + d(-1/3) + d(-1/3) n(charge 0)

et si l’on tente d’arracher un quark à un baryon, l’énergie mise en jeu crée une paire quark-antiquark.

Les particules d’interaction, les gluons, au nombre de huit, sans masse, sont porteurs chacun d’une couleur et d’une anti-couleur L’interaction forte qui lie les baryons entre eux dans le noyau des atomes,n’est qu’un effet secondaire, à courte portée, de cette force de couleur.

9.La philosophie de la physique.

L’évolution de la physique.

Partie de faits isolés, de disciplines distinctes, comme la mécanique, l’optique, l’électricité, et utilisant rigoureusement la méthode expérimentale, la physique s’est efforcée de s’unifier Elle y est remarquablement parvenue avec Maxwell, par la synthèse de l’électromagnétisme et de l’optique. L’unification consiste à rassembler une grande variété de connaissances dans différents domaines et à les interpréter par des théories plus générales et plus simples dans leur principe, .

Cette tendance s’est encore affirmée dans la physique moderne qui a réduit la variété de la matière à quelques particules élémentaires, et tous les phénomènes à quatre sortes d’interactions, peut-être seulement une ou deux dans une synthèse future.

Les quelques particules encore considérées comme fondamentales ont visiblement quelque chose de commun comme le montre le rapport de leurs charges électriques, et tous les phénomènes ont une monnaie d’échange commune, l’énergie :même la masse est une forme d’énergie .On peut créer des particules massives avec de l’énergie de rayonnement, et les théories actuelles considèrent que dans l’espace même vide se créent et s’annihilent constamment des paires électron-positron. Le vide est-il finement structuré, et tous les phénomènes ne sont-ils que la manifestation de cette structure?

Les questions qui se posent encore nous entraînent de plus en plus loin, mais jusqu’où?

La logique de la physique.

Pour la physique classique, la réalité tangible était un absolu .Elle était rigoureusement déterministe, objective;ses théories prétendaient décrire exactement les faits, et elle n’admettait pas que des systèmes séparés puissent interagir sans un intermédiaire décelable :onde ou objet matériel.

La physique quantique a dû renoncer à cette rigueur absolue :certains phénomènes sont imprévisibles, non par manque d’information, mais par nature, et l’expérience d’Aspect a confirmé que deux particules corrélées, même très éloignées, restent solidaires sans qu’on puisse définir un intermédiaire qui les relierait.

La physique quantique n’en est pas moins valable et très efficace :toutes ses prévisions ont été confirmées avec une grande précision .Si elle n’est pas rigoureusement déterministe, elle justifie le déterminisme de la physique classique qui concerne des objets macroscopiques.

Qu’est-ce que le réel?

Pour les philosophes traditionnels, la réalité est faite de mots qu’ils appellent pompeusement idées, essences…

Pour la physique classique, le monde est fait d’objets et d’actions sur ces objets.

La physique quantique a conduit à des analyses plus subtiles qui reviennent à considérer le réel comme l’ensemble des évènements observables et vérifiables, tels qu’ils nous apparaissent.

Aucune autre science ne pose des questions aussi fondamentales :la vie, malgré sa complexité, se ramène à des phénomènes physico-chimiques à notre portée, alors que les notions de temps, d’espace, d’énergie, de la nature intime des interactions et des particules dépassent encore largement nos connaissances et nos facultés de compréhension.

Si les métaphysiciens traditionnels sont totalement désarmés devant ces problèmes, il en est qui s’y attaquent avec compétence :ce sont les physiciens théoriciens qui font aussi à leur façon de la métaphysique en bâtissant des théories souvent audacieuses. Beaucoup de ces théories ne survivront pas, mais celles qui passent avec succès l’épreuve de l’expérimentation permettent à la physique de faire de nouveaux progrès.

Programme de l’Atelier Connaissance Scientifique 2016/2017 (suite) Roger MEVEL

  • Atelier Connaissance scientifique

Programme : les sujets d’actualités
* la Station Spatiale Internationale ISS à bord de laquelle se trouve Thomas PESQUET car les OEM sont indispensables pour effectuer les liaisons sol-satellite.(L’ISS se déplace à 28.000 km/h et, éclairée par le soleil, elle brille bien plus que les étoiles)
A ce sujet,  observez  l’ISS  car c’est un beau spectacle qui dure de 3 à 5 minutes selon les jours en allant sur le site suivant :         www.heavens-above.com puis sur ISS
* L’effet de serre  . En effet ce sont les rayons du soleil (des OEM) qui chauffent la terre.
Comme tout corps chaud la terre émet alors des rayons infrarouges (encore des OEM) qui bloqués par les gaz à effet de serre (la vapeur d’eau – le gaz carbonique – le méthane) maintiennent une température moyenne de 15°C
et donc permettent la VIE. Sans cet effet de serre cette température serait de -18°C !
* les séances de janvier  vont   coller à l’actualité : GALILEO – LINKY..

La prochaine date pour l’Atelier Sciences  =  MERCREDI O4 JANVIER

Sorties du 2nd trimestre 2016-2017

SORTIES

D19 Janvier 2017 : Visites guidées : la Ville de Landerneau avec Marielle Lebœuf-Proust – Expo « Hans Hartung  et les peintres lyriques » à la FHEL – Expo Lumière Galerie Rohan

E –16 Mars Sortie Pontaven. Visites guidées – fabrique de biscuits Penven – La Chapelle de Tremalo avec Bernard Rio – Repas – La ville de Pont-Aven – musée expo temporaire « l’influence des grands maîtres sur les peintres bretons Départs:Pouliet 0 7h45 Géant 8h00 (Prix/pers : 51 €.)

F – 02 avril au Roudour avec l’orchestre symphonique de Bretagne et Omar Sosa – Contact : Jean Luc Kerdilès

DATES d’INSCRIPTION

 D – O5 Janvier 2017 rue Poulfanc : inscription de 10h à 12h pour la sortie Landerneau du 19 Janvier

E – 02 Mars au Poulfanc
– inscriptions de 10h à 12h pour la sortie Pont-Aven du 16 mars contact C.Briet et F.Jouannigot

F – 02 Mars au Poulfanc
– réservation pour la soirée du 02 avril au Roudour avec l’orchestre symphonique de Bretagne et Omar Sosa – Contact : Jean Luc Kerdilès

Onde électromagnétique CR3 par Roger Mevel

Atelier Sciences –

Roger MEVEL (06 07 86 84 63)

CR Atelier Sciences du 14-12-2016

Onde électromagnétique

1 – Synthèse de la séance n°1 du 16/11/2016

Les ondes mécaniques ne peuvent se propager que dans de la matière (ceci en la mettant en mouvement): * de l’air pour le son * le sol pour les tremblements de terre * de l’eau pour les vagues Les sons audibles par l’oreille humaine sont compris entre 20 Hz et 20.000 Hz. Dans l’air le son se propage à 340 m/s.

Les ondes électromagnétiques n’interagissent pas mécaniquement avec leur environnement. C’est pourquoi elles se déplacent dans le vide (là ou il n’y a pas de matière). Une onde électromagnétique est la propagation d’un signal grâce à un champ électrique et un champ magnétique qui vibrent ensemble. Les champs électrique E et magnétique H sont perpendiculaires entre eux et perpendiculaires à la direction de propagation.

Caractéristiques d’une onde électromagnétique : * La période qui est la durée séparant deux motifs élémentaires qui se reproduisent au cours du temps. * La fréquence qui est le nombre de motifs élémentaires identiques par seconde

La période T (unité : seconde ; symbole : s) et la fréquence f (unité : hertz ; symbole : Hz) sont liés par la relation f = 1/T.

* La longueur d’onde qui représente la distance parcourue par l’onde pendant la durée d’une période T. La longueur d’onde est notée à l’aide de la lettre grecque lambda (λ).

λ = c x T avec :λ en mètre (m) – c en mètre par seconde (m/s)= 300.000.000 m/s – T en seconde (s) λ = c / f avec : λ en mètre (m) – c en mètre par seconde (m/s)= 300.000.000 m/s – f en hertz (Hz)

Dans le cas des ondes électromagnétiques, on remplace souvent le chiffre de la fréquence par celui de la longueur d’onde.

 

2 – Synthèse de la séance n°2 du 02/12/2016

Caractéristiques d’une onde électromagnétique (suite) :

*la vitesse de propagation dans l’air v=c= 300.000 km/s (vitesse de la lumière). Dans un milieu d’indice de réfraction n on a v=c/n (cas du verre n=1.5 donc v=300.000/1.5=200.000 km/s dans les fibres optiques).

*La polarisation décrit la direction du champ électrique. Cas de la télévision terrestre la polarisation est rectiligne horizontale (l’antenne râteau est donc horizontale).

*La réflexion est totale sur une surface métallique. Le courant i généré ne circule qu’en surface du métal, c’est l’effet de peau. Ce courant alternatif se répartit sur une épaisseur e qui varie en 1/ ( e=66/ pour le cuivre).

*L’absorption de l’atmosphère est faible en l’absence de vapeur d’eau. Par contre elle devient forte en présence d’eau… ce qui fait que nous, les humains, absorbons fortement les ondes électromagnétiques.

*L’énergie véhiculée augmente avec la fréquence. E=h f, h étant la constante de Planck. Au-delà de la lumière visible les ondes sont dangereuses : Ultraviolet, rayons X, rayons Gamma.

Absorption du rayonnement par l’atmosphère terrestre (0 à 50.000km)

*L’atmosphère de la Terre est transparente pour la lumière visible, et certaines ondes radio ; elle est opaque pour tous les autres rayonnements.

*La troposphère (0 à 10 km) contient 80 à 90 % de la masse totale de l’air et la quasi-totalité de la vapeur d’eau (effet de serre).

*La stratosphère (10 à 50 km) abrite la couche d’ozone ( O3 ) qui intercepte plus de 97 % des rayons ultraviolets du Soleil.

Diverses « formes » d’ondes électromagnétiques 

SATELLITES ARTIFICIELS DE LA TERRE

Un satellite artificiel de la Terre tourne d’autant moins vite qu’il est loin de la Terre pour respecter la 3ème loi de Kepler qui dit que a3/T2 est une constante (égale à ) pour les objets tournant autour d’un même corps, où a est le demi-grand axe de l’orbite et T la période de révolution.

Ainsi la Station Spatiale Internationale (ou ISS) perchée à 350 km d’altitude tourne autour de notre planète en environ 1 H 30’ et ceci à 28.000 km/h ! Consulter le site «www. heavens-above.com » pour connaitre l’horaire de passage  (puis sélectionner ISS)

2 – C-R séance du 14/12/2016

L’effet de serre et le changement climatique La Terre reçoit son énergie du soleil : une partie du rayonnement solaire absorbé par la Terre est réémis vers l’espace sous forme de rayonnement infrarouge. Les gaz à effet de serre (GES), présents dans l’atmosphère, ont la propriété d’intercepter une partie de ce rayonnement infrarouge et de le réémettre, notamment en direction de la Terre. Ce phénomène naturel, appelé effet de serre, modifie le bilan radiatif de la Terre et permet d’obtenir à la surface de celle-ci une température moyenne de 15°C, alors que sans lui la température serait de -18°C.

Le phénomène naturel de l’effet de serre : schéma explicatif

On l’appelle « effet de serre » car le fonctionnement de ce phénomène est comparable à ce qui se passe dans une serre en verre, utilisée pour faciliter la culture de certaines plantes. Les parois transparentes d’une serre laissent passer les rayons du soleil. Le verre ralentit la sortie de la chaleur. Cela fait augmenter la température à l’intérieur de la serre. On peut remplacer la serre par l’atmosphère et le verre par les gaz à effet de serre GES contenus dans l’atmosphère (principalement la vapeur d’eau mais aussi le dioxyde de carbone (CO2), le méthane (CH4),…). Une augmentation des concentrations de GES dans l’atmosphère accroît leur opacité aux rayons infrarouges : une plus grande partie de ce rayonnement est interceptée, modifiant ainsi l’équilibre : ce forçage radiatif est responsable du renforcement de l’effet de serre, qui se traduit par des changements climatiques.
Les activités anthropiques ( relatives à l’activité humaine), qui conduisent à l’émission de GES en fortes quantités depuis 1750, sont responsables de cette augmentation des concentrations de GES.

Les principaux gaz à effet de serre : La vapeur d’eau est le principal gaz à effet de serre (65% de l’effet de serre naturel), mais les activités anthropiques n’ont pas d’impact direct sur les concentrations en vapeur d’eau (ce qui explique que la vapeur d’eau n’est pas citée dans les émissions anthropiques).

Le dioxyde de carbone (ou gaz carbonique, CO2) est un gaz plutôt rare dans l’atmosphère : moins de 1% ! Mais ce gaz est beaucoup plus efficace que la vapeur d’eau, pour ce qui est de l’effet de serre : il est le deuxième gaz le plus important de l’effet de serre. Le problème, c’est que l’industrie produit beaucoup de dioxyde de carbone : en polluant l’atmosphère, l’homme est donc en train d’augmenter l’effet de serre naturel.

Le méthane (CH4) est aussi appelé gaz naturel. On s’en sert pour se chauffer, pour faire la cuisine… Il est produit naturellement, notamment dans les marais. C’est un gaz plutôt rare, mais plus efficace encore que le dioxyde de carbone. L’homme augmente aussi le taux de méthane dans l’atmosphère, notamment en cultivant du riz dans les rizières : une rizière est une sorte de marécage aménagé pour l’agriculture ; elle produit beaucoup de méthane. Comme le riz est l’une des céréales les plus cultivées sur Terre, l’impact sur l’effet de serre est important. Les toundras sont des sortes de marécages gelés, au niveau du cercle polaire. Quand la température de la Terre augmente, les toundras dégèlent, et se remettent à produire du méthane, ce qui augmente encore l’effet de serre, et la température : c’est un cercle vicieux ! L’océan contient aussi une grande quantité de méthane, dissout. Quand la température augmente, le gaz s’échappe, et participe à l’effet de serre et à l’augmentation de la température. Le méthane est un gaz important dans l’effet de serre, et son importance augmente avec l’augmentation de la température

Scénarios d’évolution de la température moyenne de la surface terrestre.

 

 

 

 

 

 

 

 

 

 

Les ondes radio : Ce domaine de longueurs d’onde est le plus vaste du spectre électromagnétique et concerne les ondes qui ont les plus basses fréquences. Il s’étend des longueurs d’onde de quelques cm à plusieurs km Relativement faciles à émettre et à recevoir, les ondes radio sont utilisées pour la transmission de l’information (radio, télévision). La bande FM des postes de radio correspond à des longueurs d’onde de l’ordre du mètre.

Ondes kilométriques (LW pour ondes longues) : Elles se propagent principalement à très basse altitude, par onde de sol. Leur grande longueur d’onde permet le contournement des obstacles. Les ondes de fréquence très basse pénètrent un peu sous la surface du sol ou de la mer, ce qui permet de communiquer avec des sous-marins en plongée. Applications courantes : radiodiffusion sur Grandes Ondes (France-Inter, RTL…), diffusion des signaux horaires (horloges radio-pilotées). La puissance de ces émetteurs est énorme : souvent plusieurs mégawatts pour obtenir une portée pouvant aller jusqu’à 1 000 km.

 

 

L’émetteur d’Allouis (inauguré en octobre 1939)est un émetteur de radiodiffusion situé dans la commune d’Allouis, dans le département du Cher(près de Bourges) qui diffuse les programmes de France Inter en grandes ondes (1 852 mètres, 162 kHz). Le centre GO d’Allouis utilise deux antennes pylônes de 350m ((λ/5) de haut.

 

 

 

 

Les récepteurs : Le rôle de toute antenne de réception est de convertir une onde électromagnétique en tension. Une antenne cadre magnétique est un enroulement de fil de cuivre autour d’un cadre (cadre à air) ou autour de ferrites (cadre ferrite). Une antenne cadre est sensible au champ magnétique et non au champ électrique (d’où son nom de cadre magnétique)
Les paramètres influant sur la sensibilité de l’antenne sont le nombre de tours du bobinage, la section de chaque spire. Dans le cas d’une antenne ferrite, la perméabilité du matériau permet d’accroitre la tension.

Ondes hectométriques (ondes moyennes) : Les stations de radiodiffusion sur la bande des Petites Ondes (entre 600 et 1 500 kHz) ont des puissances pouvant aller jusqu’à plusieurs centaines de kilowatts. Elles utilisent encore l’onde de sol pour couvrir une zone ne dépassant guère une région française.

 

Ondes décamétriques (ondes courtes) : On appelle propagation ionosphérique (ou liaison lointaine par réflexion ionosphérique) la propriété des ondes électromagnétiques de parcourir des distances plus grandes que la simple ligne de vue par réflexion sur l’ionosphère. Les conditions de la propagation ionosphérique dépendent de plusieurs facteurs tels le cycle solaire, l’heure et les saisons. Puisqu’elle n’est pas limitée par la courbure de la Terre, cette propagation peut être utilisée notamment pour communiquer au-delà de l’horizon, sur des distances intercontinentales. Ce phénomène touche surtout les ondes courtes, soit les ondes à hautes fréquences. De ce fait, les ondes d’une station lointaine de radiodiffusion AM peuvent être perçues aussi clairement que si la station était rapprochée. Cela peut également se produire avec les stations de télévision à basses fréquences, lors de conditions particulières. 1901 : Marconi (1874 – 1937) physicien, inventeur et homme d’affaires italien, établit une liaison transatlantique par radio. 1931 : Sydney Chapman (1888 – 1970) astronome et géophysicien britannique, élabore sa théorie de formation des couches de l’ionosphère par l’action du rayonnement UV solaire. L’ionosphère est une région de la haute atmosphère (de 60 à 800 km d’altitude) où l’air neutre est ionisé par les rayons cosmiques et les photons solaires (UV).

Ondes métriques (Bande FM) : TAB 10Les ondes métriques correspondent à des fréquences comprises entre 30 et 300 MHz incluant la bande de radiodiffusion FM, les transmissions VHF des avions… On les appelle aussi ondes ultra-courtes (OUC). Elles se propagent principalement en ligne droite

 

 

Europe 1
102,7 MHz – MORLAIX rue Jean-Monnet
ZA de Langolvas

Altitude au sommet des antennes : 126m (puissance :1 kW)

RTL

91,4 MHz – MORLAIX Tour de la Boissière
lieudit Saint-Fiacre 29600 Plourin-lès-Morlaix

La polarisation des émetteurs FM est verticale, à la différence de la TV qui elle est horizontale. Votre antenne devra être disposée verticale (antenne télescopique de votre récepteur)

ORIGINE DES NOMS DE LIEUX en Bretagne

Origine des noms de lieux en Bretagne

par Michel Priziac, président de l’Association des Ecrivains bretons.

Pour se repérer sur un territoire, plusieurs possibilités s’offrent à nous : les noms de lieux, les coordonnées ( longitude-latitude) , les coordonnes Lambert ou dans une ville US un n°et un nom de rue.
Le 1er besoin de localisation géographique s’est fait ressentir il y a 100 000 ans pour repérer les lieux de sépulture.
Ceux-ci ont évolué dans le mégalithique vers des allées couvertes, des dolmen , des menhir et des
CAiRn.

A) Généralités

CAR qui  désigne un rocher, une roche ou un caillou est le plus ancien nom connu en toponymie
Depuis l’homme préhistorique, il représente un abri sous roche, un élément avec des cailloux ou un bâtiment en pierre ou même une ville fortifiée, qu’il s’écrive CAR ou KAR ou KER : CARhaix.
Ce nom remonte au pré-indo-européen : le Caire par ex.
En 1962, sur Morlaix campagne, il a été recensé 70 KER pour 238 hameaux ou lieux-dits répertoriés.
Ker , à l’heure actuelle désigne soit une maison, soit un hameau, soit un village ou même une ville

ONNA ( eau au sens large) ex : Saône et Rhone
L’association KAR et ONNA ont donné la Garonne mais aussi Charonne et Chalonne
En raison des variantes entre langues, ONNA peut devenir Ognon par exemple en Vendée, l’équivalent du Douron(bzh) de Bretagne.

Les noms des lieux dont donnés par les habitants locaux en fonction de leur spécificité : il est très difficile de les débaptiser :
Pontivy est devenu sous les 2 Empires Napoléon Ville mais est très vite redevenu Pontivy après 1870.
En raison de l’importance économique de la Compagnie des Indes, l’Orient (Lorient) a par contre remplacé Le Faouet Blavet

Les particularités et les différences de la langue bretonne en fonction des évêchés où elle est parlée explique les différences dans la toponymie
Le Kaer du Trégor devient Kear dans le Leon, Dour en KLT devient Dor en vannetais

DOUR (bzh) vient d’un ancien mot gaulois DOR désignant de l’eau, essentielle à la vie( boire , abreuver les animaux, arrosage des prés)
Dordogne (DOR / OGNE) prend sa source aux Monts d’OR

KROAS HENT (bzh) a été francisé en croissant alors qu’en breton il signifie carrefour

LUCH (vieux bzh avant 1150) qui désigne un étang , devient Loch , et parfois Louche ou Lalouche

BREST viendrait de BRE colline et ST fortifiée
le St pouvant évoluer en HT puis en Hat donnant Bréhat

HENVIC Hen = vieux et Vic = bourg le Hen venant de Sen comme senior

B) Noms en lien avec les reliefs

a) MENEZ (bzh) = Montagne. La Bretagne est connue, surtout de ses habitants, pour ses Montagnes qui culminent à quand même quelques 300 mètres.
b) RUN(bzh) colline de forme arrondie
se déclinant en Reun ou Ru ( à ne pas confondre avec le même terme en français qui désigne un petit cours d’eau)
c) ROZ (bzh) : flanc de colline ex : Roz Avel
d) TRAON (bzh) : vallée
Traon Riou : vallée des rois
e) VAU a donné Val Ex : Laval ou Vauvert
f) GWAZH(bzh) cours d’eau ex Goasveur = grande rivière
g) POUL (bzh) : mare
Pempol : Pen Poul = bout de la mare ou encore fond de la baie
h) TRAON (bzh) = vallée

C) Noms en fonction de la nature des sols

ROC’H (bzh) : la Roche ex : roc’hell
Au Moyen Âge, Roc’h désigne l’éperon rocheux, position défensive pour les chevaliers
Roc’h glaz (bzh) peut devenir rochallaz (ou rocher vert)

D) noms en fonction  de la végétation

Les forêts ont donné des noms de lieux :
– chataigneraie kistinn →kistinnec→ kistinnic
– cerisaie kerez (bzh)→ kerezec→ kerizac
– hêtre fagot ( g ne se prononçant pas en bzh)→ faou avec ses déclinaisons

E) noms en fonction  des habitants et des activités humaines

a) KER(bzh) : maison de
Kervelles peut venir de Kerbellec ou Kermellec ( maison de prêtre ou de St Mellec)
Kerampuz  peut faire référence à un puits ou à du buis
b)LO’Ch a donné Locmaria, Locquénolé ,lieux où les saints étaient honorés
c) la Madeleine ( la sainte des lépreux) fait référence aux léproseries, de même que corderie
d) PLOU correspond aux paroisses primitives
e) LAN fait penser à un ermitage primitif mais aussi à la lande bretonne
f) TRE : lieu habité sans connotation religieuse qui évoluera vers Trève, découpage d’une paroisse
g) SAINT… :  ces lieux font référence à une église, à un oratoire, qui ont existé ou peut-être existent
encore de nos jours
En conclusion , la toponymie, étude de l’origine et de l’étymologie des noms de lieux, fait appel à l’ethnologie, à la linguistique, à l’évolution des langues, à la géographie et à l’histoire , à une bonne connaissance du terrain et des archives et à beaucoup de prudence dans l’interprétation.

………………………………………………………………

Réf : CY-J2016XII15

CR Origine des noms de lieux en Bretagne

PARADOXE ET IMPERATIFS DE L’ENERGIE par M RIO André

PARADOXE ET IMPERATIFS DE L’ENERGIE

M André RIO
M André RIO

 

L’énergie a quelque chose de paradoxal. C’est à la fois une notion physique abstraite et une préoccupation concrète de tous les temps. Mot emprunté au langage courant, donc subjectif (l’énergie du désespoir), elle se mesure sans états d’âme en mégajoules ou en kilowatts. heure.

L’énergie se définit d’abord en mécanique : c’est la dépense nécessaire pour effectuer un travail : soulever un poids, actionner une machine, ce qui exige une source d’énergie, effort musculaire, chute d’eau, ressort . La notion se généralise avec les autres agents physiques : l’énergie électrique fait tourner les moteurs, fournit de la lumière, et les appareils sont réversibles : si on leur fournit de l’énergie mécanique, ils la transforment en électricité et réciproquement. La lumière aussi peut se transformer en électricité dans les panneaux solaires. Dans les piles et les batteries, c’est l’énergie chimique qui intervient. La théorie de la Relativité considère que la masse, c’est à dire la matière, est aussi une forme d’énergie.

La chaleur aussi est une source d’énergie ; c’est elle qui fait tourner les machines à vapeur, les moteurs des voitures, des bateaux, des avions, les centrales électriques, et qui propulse les avion à réaction et les fusées.

Quel est le bilan de toutes ces transformations ? Dès les premiers temps des machines à vapeur, on s’est rendu compte qu’on ne pouvait pas transformer intégralement la chaleur en énergie mécanique : une partie reste à l’état de chaleur, c’est celle qu’on évacue dans les radiateurs des moteurs et dans les centrales thermiques. De plus, toutes les autres transformations créent plus ou moins de chaleur : les freins, les fils électriques s’échauffent, les réactions chimiques dégagent de la chaleur ; tous les mouvements non entretenus ralentissent et finissent par cesser sous l’effet des frottements. Inexorablement, toutes les formes d’énergie finissent par se transformer en chaleur et les températures par s’uniformiser, la chaleur passant des corps plus chauds aux plus froids.

Cependant, dans toutes les transformations possibles, réversibles ou non, la quantité totale d’énergie reste constante. Dans un système isolé, on ne peut ni en créer ni en détruire, même si elle se dégrade sous forme de chaleur. On ne peut que la faire passer d’une forme à une autre.

Qu’est finalement l’énergie ? On sait la définir et la mesurer sous toutes ses formes, mais qu’ont elles de commun ? Ce n’est pas une substance, un fluide qui imprégnerait la matière et qu’on pourrait isoler à l’état pur. C’est plutôt une monnaie de compte, une abstraction que nous ne pouvons nous représenter concrètement, mais qui s’impose inexorablement dans toutes nos activités. Sans énergie, on ne peut rien faire ; avec de l’énergie, tout est possible.

D’où vient l’énergie dont nous disposons ? L’univers entier peut être considéré comme un système isolé d’énergie constante, et le système solaire lui même reçoit relativement peu de l’extérieur. Le Soleil et les éléments radioactifs sont presque les seules sources appréciables d’énergie. C’est le rayonnement solaire qui a permis la vie et l’accumulation de combustibles fossiles et qui est à l’origine des phénomènes atmosphériques ; l’énergie des marées est empruntée au mouvement de la Terre, de la Lune et du Soleil.

La vie va à l’encontre de la tendance générale à l’uniformisation. Elle crée des êtres hautement structurés qui fabriquent des molécules extrêmement improbables dans un milieu inerte, comme les acides nucléiques et les protéines, mais ce n’est possible que localement, dans des circonstances exceptionnellement favorables, à condition de recevoir de l’extérieur un flux permanent d’énergie qui ne fait que différer l’échéance finale de la dégradation.

Nous avons un besoin vital d énergie, et d’abord de nourriture, mais il nous en faut bien davantage encore pour nous chauffer, nous éclairer, nous déplacer, faire fonctionner nos industries et répondre à toutes nos activités.

On n’a longtemps disposé que de l’énergie animale : bœufs et chevaux tirent les charrues ; les piétons vont à pied, et de moulins à vent ou à eau pour les installations fixes. L’énergie animale ne  fonctionne pas comme une machine thermique : elle transforme directement l’énergie chimique des aliments, d’origine essentiellement végétale, en énergie mécanique et ne crée qu’accessoirement de la chaleur. Son rendement serait meilleur, mais les organismes vivants se fatiguent et exigent de longues périodes de repos ;

Pour les sources d’énergie qu’on ne peut exploiter qu’avec des dispositifs artificiels, on distingue habituellement celles qui sont renouvelables et qui ont pour origine immédiate le Soleil ( à l’exception de l’énergie géothermique) , et les sources fossiles. Les combustibles fossiles sont de l’énergie d’origine solaire stockée au cours des temps géologiques. Quant aux éléments radioactifs, ils sont plus anciens que le système solaire.

La nécessité pressante de disposer de plus en plus d’énergie se heurte à de nombreuses difficultés techniques que viennent encore compliquer de graves conséquences sur l’environnement, des risques de conflits d’intérêts ou d’idéologies et des oppositions fanatiques et obscurantistes.

Les réserves de charbon sont encore très importantes, mais il présente des inconvénients dont l’un des principaux est d’être solide. Son extraction est pénible et dangereuse, sa manutention malaisée, sa transformation en combustibles gazeux ou liquides ou en matières de base pour l’industrie chimique laborieuse. Ses impuretés, comme le soufre, sont une source importante de pollution.

Il n’est pas étonnant qu’on lui ait préféré le pétrole d’emploi beaucoup plus commode et qui  permet un accès beaucoup plus facile à des matières essentielles à l’industrie comme l’éthylène et le propylène. Ses ressources ne sont malheureusement pas inépuisables, pas plus que celles du gaz naturel, et sa répartition géographique n’est pas de nature à assurer une exploitation paisible. Il faudra apprendre à s’en passer, ou tout au moins à en limiter fortement l’utilisation et à le considérer comme une source de matières premières plutôt que comme un combustible.

L’emploi massif  des combustibles fossiles, qui conduit à leur raréfaction, a pour résultat l’émission d’énormes quantités de gaz carbonique dans l’atmosphère, dont on commence à pressentir les conséquences hasardeuses sur le climat.

Que peut-on espérer des énergies renouvelables ? On s’en est longtemps contenté, mais elles ne suffisent plus et elles ont pour principal inconvénient d’être diluées et irrégulières. Il faut des milliers d’éoliennes pour produire autant qu’une centrale thermique ou un réacteur nucléaire, et le vent est très capricieux. La plupart des chutes d’eau utilisables sont déjà utilisées depuis longtemps, tout au moins dans les pays les plus industrialisés. Les panneaux solaires ont un rendement dérisoire, et les combustibles d’origine agricoles, les biocarburants, nécessitent des surfaces énormes, tout en consommant eux aussi de l’énergie pour leur production.

Aucune de ces sources d’énergie n’est à négliger. Elles sont un appoint appréciable mais sont loin de pouvoir satisfaire les besoins actuels. Il faut évidemment éviter les gaspillages, mais on ne fait pas tourner une machine avec des économies d’énergie ; il lui faut une source réelle.

Reste l’énergie nucléaire dont on dit tant de mal et qui soulève tant de passions que beaucoup de politiques n’osent pas en parler par crainte de déplaire. Elle a à la fois de grands avantages et de graves inconvénients. C’est une énergie très concentrée. Pour une même masse de matière, on peut en tirer environ mille fois plus d’énergie que d’un combustible classique, et sans rejeter de gaz carbonique dans l’atmosphère. La surrégénération , qu’on a hâtivement abandonnée en France pour des raisons électorales, permettrait d’en tirer encore cinquante à cent fois plus. Les réserves d’uranium ne sont pas inépuisables, mais elles sont suffisantes pour assurer un long usage, surtout avec les surrégénérateurs. On a proposé aussi l’emploi du thorium.

Le nucléaire a ses dangers qui peuvent être très graves comme on l’a vu à Tchernobyl et au Japon. C’est une technique très sophistiquée qui exige une grande rigueur. Ses opposants insistent beaucoup sur les risques dus aux déchets, mais ce n’est qu’un problème technique, donc maîtrisable, quoi qu’ils en disent. Le plus inquiétant est sa diffusion parmi des irresponsables qui, par incompétence et surtout par malveillance, pourraient provoquer des catastrophes. Il est donc vital qu’il soit étroitement encadré. L’autre version du nucléaire, la fusion, apparaît encore comme un objectif lointain et incertain.

Il ne suffit pas de savoir produire de l’énergie ; Il faut aussi pouvoir l’utiliser selon les différents besoins. Tant qu’il s’agit d’installations fixes, l’électricité peut répondre à la plupart des demandes. Il n’en est pas de même pour les transports, à l’exception des chemins de fer qui peuvent être alimentés en permanence. Pour tous les autres moyens de transport, il faut ou disposer d’une source mobile ou stocker une quantité d’énergie suffisante. Le pétrole répond jusqu’ici assez bien à la première condition, quoiqu’il exige de se ravitailler assez souvent, mais comment le remplacer ? Le nucléaire ne convient que pour de très gros engins : porte-avions, brise- glace, sous –marin. Son emploi reste très limité : aucun avion n’a volé, aucun cargo ou pétrolier n’a navigué, aucune fusée n’a décollé grâce à l’uranium, malgré la grande autonomie qu’il permettrait.

On a construit depuis longtemps des véhicules électriques. La disponibilité du pétrole en a beaucoup limité l’utilisation car, ne pouvant produire leur électricité, ils doivent la stocker, ce qui limite leur autonomie, et, faute de motivation, on n’a pas encore fait assez de progrès pour l’augmenter sensiblement : les batteries sont lourdes, encombrantes, les recharger prend beaucoup de temps et leur capacité est insuffisante, d’autant qu’elle est liée à la quantité d’ions métalliques qu’elle contient, et il peut paraître paradoxal qu’on ait surtout utilisé le plomb, très lourd, alors que le plus léger des métaux, le lithium, n’est pas encore parvenu à le détrôner. On peut espérer des progrès sensibles, mais il n’est pas certain que les batteries soient la meilleure solution.

Peut-on remplacer le pétrole par un autre combustible non polluant et ne dégageant pas de gaz carbonique ? Il n’en existe pratiquement qu’un, c’est l’hydrogène, dont la combustion ne donne que de l’eau et qu’on peut utiliser aussi dans les piles à combustibles où il fournit directement de l’électricité. Il a un autre avantage : c’est l’élément le plus léger, mais deux inconvénients majeurs : si c’est le constituant principal des planètes géantes comme Jupiter, il n’existe pas à l’état libre sur la Terre. Il faut le produire et le stocker.

Disposant d’énergie, on peut le produire par décomposition de l’eau, mais c’est un gaz très léger qu’on doit enfermer sous forte pression dans des récipients lourds et encombrants. Liquide à très basse température, il ne peut être gardé sous pression dans cet état car sa température critique est trop basse. A la pression atmosphérique, on ne peut le conserver liquide qu’un temps limité dans des récipients isolés d’où il s’évapore peu à peu. Sous forme d’hydrures métalliques ou sur des supports poreux, on peut augmenter sa capacité de stockage sous pression, mais au détriment du poids ; bref, on ne connaît pas actuellement de solution satisfaisante.

Au XVIIème siècle, on n’aurait pas imaginé ce que la machine à vapeur allait apporter au XIXème. Le XVIIIème n’a pas davantage prévu l’utilisation généralisée de l’électricité au XXème, et le XIXème l’apparition de l’énergie nucléaire. Le XXème ne nous a pas laissé espérer une source d’énergie plus conforme à nos désirs pour le XXI ème et au delà, sauf peut être la fusion, malgré l’explosion des connaissances et des techniques de plus en plus performantes. L’avenir sera-t-il un progrès ou une régression ? Le principal obstacle ne sera peut-être pas technique, mais l’obstruction des préjugés et des fanatismes dont nous avons des exemples tous les jours.

Onde électromagnétique par Roger MEVEL (CR 1 & 2)

 

Onde électromagnétique

 

par Roger MEVEL (06 07 86 84 63)

 

1 – Synthèse de la séance n°1 du 16/11/2016

Les ondes mécaniques ne peuvent se propager que dans de la matière (ceci en la mettant en mouvement): * de l’air pour le son * le sol pour les tremblements de terre * de l’eau pour les vagues Les sons audibles par l’oreille humaine sont compris entre 20 Hz et 20.000 Hz. Dans l’air le son se propage à 340 m/s.

Les ondes électromagnétiques n’interagissent pas mécaniquement avec leur environnement. C’est pourquoi elles se déplacent dans le vide (là ou il n’y a pas de matière). Une onde électromagnétique est la propagation d’un signal grâce à un champ électrique et un champ magnétique qui vibrent ensemble. Les champs électrique E tab-1et magnétique H sont perpendiculaires entre eux et perpendiculaires à la direction de propagation.

 

Caractéristiques d’une onde électromagnétique :

* La période qui est la durée séparant deux motifs élémentaires qui se reproduisent au cours du temps. * La fréquence qui est le nombre de motifs élémentaires identiques par seconde

La période T (unité : seconde ; symbole : s) et la fréquence f (unité : hertz ; symbole : Hz) sont liés par la relation f = 1/T.

* La longueur d’onde qui représente la distance parcourue par l’onde pendant la durée d’une période T. La longueur d’onde est notée à l’aide de la lettre grecque lambda (λ).

λ = c x T avec :λ en mètre (m) – c en mètre par seconde (m/s)= 300.000.000 m/s – T en seconde (s) λ = c / f avec : λ en mètre (m) – c en mètre par seconde (m/s)= 300.000.000 m/s – f en hertz (Hz)

Dans le cas des ondes électromagnétiques, on remplace souvent le chiffre de la fréquence par celui de la longueur d’onde.

 

2 – Suite de l’exposé sur les ondes électromagnétiques (02/12/2016)

* La vitesse de propagation

Les ondes électromagnétiques se propagent dans le vide à la vitesse : = 3. 108 m. s-1 (vitesse de la lumière dans le vide notée c pour « célérité ») soit 300.000 km/s. On prend la même valeur pour la propagation dans l’air.

Dans un milieu autre que le vide la vitesse est divisée par n, l’indice de réfraction du milieu (n = 1,00029 donc quasiment 1 pour l’air). L’indice de réfraction du verre est n = 1,5 Dans les fibres optiques (utilisées en téléphonie), les ondes électromagnétiques se propagent donc à la vitesse de c/1,5 = 200.000 km/s.

L’indice de réfraction d’un milieu dépend de la longueur d’onde. L’indice est légèrement plus faible pour les longueurs d’onde élevée (donc il augmente avec la fréquence).

tab2* La polarisation

La polarisation décrit la direction du « vecteur » du champ électrique. Si le champ E reste parallèle à une direction fixe particulière (verticale ou horizontale) on dit que la polarisation est rectiligne. Il peut également se faire que, dans certaines conditions, son extrémité décrive un cercle on dit que la polarisation est circulaire.

C’est vers 1924 que l’ingénieur japonais Shintaro UDA de l’université Tohoru de Sendai (Japon), conçut l’antenne directive qui allait immortaliser le nom de son professeur de l’époque : Hidetsugu YAGI.
Cette antenne fut largement utilisée pendant la Seconde Guerre mondiale pour les radars. Grace au développement de
la télévision dans les années 1950 elle reste encore de nos jours l’antenne la plus utilisée. Elle se compose d’un dipôle alimenté comme il se doit en son centre c’est l’élément rayonnant ou radiateur. Ici la polarisation est horizontale. Un mauvais choix de la polarisation de l’antenne de réception (verticale pour nous) peut se solder par un affaiblissement très grand (pouvant dépasser 20 décibels).

tab-3* Réflexion et réfraction

Lois de Descartes :

i=r

sin i = n sin t

tab4Réflexion quasi-totale

Toute onde électromagnétique peut être réfléchie totalement ou en partie, c’est d’ailleurs grâce à cela que vous pouvez voir les autres et les objets qui vous entourent. Les immeubles, montagnes, avions, obstacles de toutes natures peuvent se comporter en réflecteurs d’ondes électromagnétiques.

La réflexion métallique se produit à l’interface entre un milieu quelconque et un métal. Elle est produite par l’excitation des électrons réémettant une onde réfléchie. Les électrons sont excités sur une épaisseur caractéristique appelée épaisseur de peau caractérisant la pénétration de l’onde électromagnétique dans le milieu métallique. Notez qu’aux yeux d’une onde radio, une grille dense de métal agit de la même façon qu’une surface solide, tant et aussi longtemps que la distance entre les barreaux est petite en comparaison à la longueur d’onde (inférieure à λ/10). C’est ainsi que pour le four à microondes à 2,4 GHz (λ= 1.25 cm), une grille de métal (sur la porte) avec une maille d’un centimètre agira de la même façon qu’une plaque de métal.

Nous devons également ajouter que la réflexion a un impact sur la polarisation de l’onde : si une onde incidente en polarisation rectiligne donne une onde réfléchie en polarisation rectiligne, une onde en polarisation circulaire droite donnera une onde réfléchie en polarisation circulaire gauche.

tab-5Effet de peau

L’effet de peau ou effet pelliculaire est un phénomène électromagnétique qui fait que, à fréquence élevée, le courant a tendance à ne circuler qu’en surface des conducteurs. Ce phénomène d’origine électromagnétique existe pour tous les conducteurs parcourus par des courants alternatifs. Il provoque la décroissance de la densité de courant à mesure que l’on s’éloigne de la périphérie du conducteur Cet effet peut être utilisé pour alléger le poids des lignes de transmission à haute fréquence en utilisant des conducteurs tubulaires, ou même des tuyaux, sans perte de courant. Il sert aussi dans le blindage tab-6électromagnétique des câbles coaxiaux en les entourant d’un mince étui métallique qui garde les courants induits par les hautes fréquences ambiantes sur l’extérieur du câble.

 

Ce phénomène est d’autant plus prononcé que la fréquence est grande (plus précisément, un courant alternatif de fréquence f se répartit sur une épaisseur qui varie en

1/

 

 

Pour un conducteur en cuivre, on a e = 66/ ce quidonne les valeurs ci-dessous d’épaisseur de peau.

50 Hz 9,38 mm
60 Hz 8,57 mm
10 kHz 0,66 mm
100 kHz 0,21 mm
1 MHz 66 µm
10 MHz 21 µm

500 MHz 3 µm

L’eau de mer est un diélectrique qui a une épaisseur de peau de 8 m à 1 KHz soit 80 m à 10 Hz. Les fréquences dites ELF, Extremely Low Frequency en anglais, qui font partie de la bande de radiofréquences comprise entre 3 et 30 Hz (longueur d’onde de 100 000 à 10 000 km !) peuvent pénétrer l’eau de mer très profondément, c’est d’ailleurs ces fréquences qui sont utilisées dans certaines transmissions à destination des sous-marins militaires

tab-7Réfraction

Même si le nom ne vous dit rien, c’est un phénomène que vous avez observé une multitude de fois dans de nombreuses circonstances. Prenons le cas le plus courant, la pêche à la ligne ! Il vous est arrivé d’observer un pêcheur à la ligne et de suivre son bouchon des yeux attentivement. Vous n’êtes pas sans voir remarqué que la partie émergée du bouchon était bien droite tandis que la partie immergée semblait inclinée d’un angle a. Cette illusion d’optique est une facétie de la réfraction

* Absorption

Dès lors que l’on quitte le vide, l’atténuation croît par absorption. L’onde électromagnétique qui voyage rencontre des électrons qu’elle va exciter. Ceux-ci vont réémettre à leur tour du rayonnement mais ce processus ne s’effectue pas sans perte.

Plus la fréquence augmente et naturellement plus ce phénomène est accentué, plus particulièrement dans la troposphère. On arrive dans certains cas à une absorption totale par la vapeur d’eau pour des fréquences de l’ordre de la dizaine de GHz.

Les plastiques et matériaux similaires n’absorbent généralement pas beaucoup d’énergie de radio, mais ceci varie dépendamment de la fréquence et du type de matériel. Pour terminer, parlons de nous-mêmes : les humains. Nous (ainsi que les autres animaux) sommes surtout constitués d’eau. Nous pouvons être décrits comme des grands sacs d’eau, avec une absorption également forte.

* Energie

La lumière désigne un rayonnement électromagnétique visible par l’œil humain. Les ondes radio, les rayons X et γ sont également des rayonnements électromagnétiques. Du fait de la dualité onde-corpuscule, les rayonnements électromagnétiques peuvent se modéliser de deux manières complémentaires :

  • onde électromagnétique : le rayonnement est la propagation d’une variation des champs électrique et magnétique 
  • photon : la mécanique quantique associe aux modes normaux de la radiation électromagnétique monochromatique un corpuscule de masse nulle et de spin 1 nommé photon dont l’énergie est :

E = h ν
– E : l’énergie de l’onde électromagnétique
– ν : la fréquence de l’onde
– h : la constante de Planck (6,625.10
-34 J.s)

Ainsi, les rayonnements électromagnétiques de courte longueur d’onde ou de fréquence élevée véhiculent davantage d’énergie que les rayonnements de grande longueur d’onde (basse fréquence).

 

 Max Planck (18581947) était un physicien allemand. Il fut lauréat du prix Nobel de physique de 1918 pour ses travaux en théorie des quanta. Max Planck fut l’un des fondateurs de la mécanique quantique.

1 – La mécanique classique ou mécanique newtonienne est une théorie physique qui décrit le mouvement des objets macroscopiques lorsque leur vitesse est faible par rapport à celle de la lumière Isaac Newton (1643 – 1727) 2 – La physique quantique est une des théories des plus solides actuellement : elle explique beaucoup de phénomènes que la physique classique n’explique pas, et un grand nombre d’expériences confirment tout ce qu’on attend d’elle. Il reste cependant des choses qui ne sont pas expliquées par la physique quantique : la force de gravité par exemple, cette force bien connue qui nous “colle” les pieds au sol. Les physiciens quantiques cherchent à expliquer les phénomènes qui les entourent grâce à des outils quantiques. Notamment grâce au modèle standard ! Autrement dit, les physiciens quantiques cherchent à tout expliquer en utilisant les particules élémentaires de la matière : électrons, bosons, gluons, neutrons, etc. Mais il y a un problème avec la gravité : aucune de ces particules élémentaires ne permet de l’expliquer ! Il faudrait découvrir une nouvelle particule, que l’on appelle aujourd’hui hypothétiquement le graviton. 3 – En face de la physique quantique, on a la célèbre relativité générale d’Eintein : elle explique la mécanique de l’univers à grande échelle, et présente la gravitation comme une déformation de l’espace-temps. Elle a été créée pour expliquer les effets de la gravitation que n’expliquait pas la physique tab-8classique. Tab 8 tab 9

tab-9

Absorption du rayonnement par l’atmosphère terrestre Lorsque le rayonnement traverse l’atmosphère, il est en partie ou totalement absorbé par les molécules qui la composent. Le rayonnement cède alors de l’énergie à l’atmosphère. L’atmosphère terrestre est l’enveloppe gazeuse entourant la Terre que l’on appelle air. L’air sec se compose de 78% de diazote, 21 % de dioxygène, 0,9 % d’argon, 0,04 % de dioxyde de carbone et des traces d’autres gaz. L’atmosphère protège la vie sur Terre en absorbant le rayonnement solaire ultraviolet, en réchauffant la surface par la rétention de chaleur (effet de serre) et en réduisant les écarts de température entre le jour et la nuit.

Il n’y a pas de frontière définie entre l’atmosphère et l’espace. Elle devient de plus en plus ténue et s’évanouit peu à peu dans l’espace. L’altitude de 120 km marque la limite où les effets atmosphériques deviennent notables durant la rentrée atmosphérique.

. L’atmosphère est divisée en plusieurs couches d’importance variable : leurs limites ont été fixées selon les discontinuités dans les variations de la température, en fonction de l’altitude. De bas en haut : – la troposphère : la température décroît avec l’altitude jusqu’à atteindre -50°C; l’épaisseur de cette couche varie entre 13 et 16 km à l’équateur, mais entre 7 et 8 km aux pôles. Elle contient 80 à 90 % de la masse totale de l’air et la quasi-totalité de la vapeur d’eau. C’est la couche où se produisent les phénomènes météorologiques (nuages, pluies, etc.) et les mouvements atmosphériques horizontaux et verticaux (convection thermique, vents) ;

– la stratosphère : la température croît avec l’altitude jusqu’à 0 °C (de 8-15 km d’altitude à 50 km d’altitude) ; elle abrite une bonne partie de la couche d’ozone ; L’ozone ou trioxygène, est une substance de formule chimique O3. L’ozone est naturellement présent dans l’atmosphère terrestre, formant dans la stratosphère une couche d’ozone entre 13 et 40 km d’altitude qui intercepte plus de 97 % des rayons ultraviolets du Soleil, mais est un polluant dans les basses couches de l’atmosphère (la troposphère) où il agresse le système respiratoire des animaux et peut brûler les végétaux les plus sensibles

– la mésosphère : la température décroît avec l’altitude (de 50 km d’altitude à 80 km d’altitude) jusqu’à −80 °C ;

– la thermosphère : la température croît avec l’altitude (de 80 km d’altitude à 350-800 km d’altitude) ;

– l’exosphère : de 350-800 km d’altitude à 50 000 km d’altitude.

– Ionosphère : Partie de l’atmosphère où les molécules sont ionisées par le rayonnement ultraviolet solaire. L’ionosphère terrestre est comprise entre environ 80 et 500 km d’altitude.

tab-10PRESSION ATMOSPHÉRIQUE ET ALTITUDE

L’atmosphère normale (symbole atm) est une unité de pression, qui n’appartient pas au Système international (SI). Elle a été définie comme étant égale à 101 325 Pa ou 1000 hPa. La pression atmosphérique diminue avec l’altitude.

 

 

 

 

 

* altitude – pression – température

 

 altitude (m)

 pression (Pa)

 température (°C)

 0  101 300  15
 500  95 500  11,8
 1000  90 000  8,5
 1500  84 500  5,3
 2000  79 400  2
 3000  70 000  -4,5
 4000  61 700  -11
 6000  47 100  -24
 10 000  26 500  -50

Ce tableau indique, par exemple, qu’à 1000 mètres d’altitude, donc en moyenne montagne, la température de l’air est plus basse de 6,5 degrés, et la pression plus basse d’environ 10 % par rapport à celle au niveau de la mer. La proportion de différents gaz reste la même. Ça signifie qu’il y moins d’oxygène en altitude. C’est la raison pour laquelle les alpinistes utilisent des bouteilles d’air comprimé pour pouvoir gravir des montagnes très hautes, comme l’Everest.

 

 

 

 

Diverses « formes » d’ondes électromagnétiques

Le spectre électromagnétique a été découpé en plusieurs morceaux, et chacun d’entre eux correspond à un type tab-11d’onde particulier

 

 

 

Préfixes du Système international d’unités et noms des nombres correspondants

1000m

10n

Préfixe
français

Symbole

Depuis
[note 1]

Nombre décimal

Désignation
[note 2]

10008 1024 yotta Y 1991 1 000 000 000 000 000 000 000 000 Quadrillion
10007 1021 zetta Z 1991 1 000 000 000 000 000 000 000 Trilliard
10006 1018 exa E 1975 1 000 000 000 000 000 000 Trillion
10005 1015 péta P 1975 1 000 000 000 000 000 Billiard
10004 1012 téra T 1960 1 000 000 000 000 Billion
10003 109 giga G 1960 1 000 000 000 Milliard
10002 106 méga M 1960 1 000 000 Million
10001 103 kilo k 1795 1 000 Millier
10002/3 102 hecto h 1795 100 Centaine
10001/3 101 déca da 1795 10 Dizaine
10000 100 (aucun) 1 Unité
1000−1/3 10−1 déci d 1795 0,1 Dixième
1000−2/3 10−2 centi c 1795 0,01 Centième
1000−1 10−3 milli m 1795 0,001 Millième
1000−2 10−6 micro µ 1960
[note 3]
0,000 001 Millionième
1000−3 10−9 nano n 1960 0,000 000 001 Milliardième
1000−4 10−12 pico p 1960 0,000 000 000 001 Billionième
1000−5 10−15 femto f 1964 0,000 000 000 000 001 Billiardième
1000−6 10−18 atto a 1964 0,000 000 000 000 000 001 Trillionième
1000−7 10−21 zepto z 1991 0,000 000 000 000 000 000 001 Trilliardième

 

 

Lois de Kepler

Johannes Kepler (1571 – 1630) est un astronome célèbre pour avoir étudié l’hypothèse héliocentrique de Nicolas Copernic, affirmant que la Terre tourne autour du Soleil et surtout pour avoir découvert que les planètes ne tournent pas autour du Soleil en suivant des trajectoires circulaires parfaites mais des trajectoires elliptiques.

Nicolas Copernic (1473 – 1543) est un chanoine, médecin et astronome polonais. Il est célèbre pour avoir développé et défendu la théorie de l’héliocentrisme selon laquelle le Soleil se trouve au centre de l’Univers et la Terre tourne autour de lui contre la croyance répandue que cette dernière était centrale et immobile. Les conséquences de cette théorie dans le changement profond des points de vue scientifique, philosophique et religieux qu’elle impose sont baptisées révolution copernicienne.

 

tab-121ère loi : Loi dite des orbites

A partir du mouvement de Mars, Kepler comprend que les orbites des planètes ne sont pas circulaires. « L’orbite de chaque planète est une ellipse dont un des foyers est occupé par le Soleil ». Le mouvement des planètes est déterminé par les interactions gravitationnelles Attraction gravitationnelle : Force élémentaire d’attraction des corps proportionnelle à leurs masses qui décroît avec le carré de la distance.

2ème loi : Loi dite des aires tab 13

tab-13Les planètes se déplacent d’autant plus rapidement qu’elles sont près du Soleil. « Le rayon de l’orbite d’une planète balaie des aires égales en des temps égaux ».

Pendant le même intervalle de temps (dt), le rayon d’une planète balaie la même surface : loin du Soleil (en bleu) le mouvement est lent ; plus près (en vert), il est plus rapide.

3ème loi : Loi dite des périodes

« Le carré des périodes de révolution des planètes est proportionnel au cube des demi grands axes de leurs orbites ». Soit T la période de révolution, a le demi grand axe de l’orbite et k le rapport de proportionnalité. La troisième loi de Kepler stipule que

Bien que Kepler ait découvert ces lois empiriquement, nous savons maintenant comment les démontrer.

Newton en faisant le lien avec la mécanique classique en déduisit la formule suivante :

a3/T2 = GM/4π 2 = 1,00965×1013

SATELLITES ARTIFICIELS DE LA TERRE

tab-14En partant du centre : la ligne pointillée rouge représente l’orbite de la station orbitale internationale (340 km), le cyan (bleu-vert) représente les orbites basses, le jaune représente les orbites moyennes et la ligne noire pointillée représente les orbites géosynchrones (36.000 km). Les pointillés verts représentent les orbites des satellites GPS (20.000 km).

Un satellite artificiel de la Terre tourne d’autant moins vite qu’il est loin de la Terre pour respecter la 3ème loi de Kepler qui dit que a3/T2 est une constante pour les objets tournant autour d’un même corps, où a est le demi-grand axe de l’orbite et T la période de révolution.

* En supposant les orbites circulaires, un satellite situé à 300 km d’altitude (orbite basse) aura une période de révolution de T :

a = 300 km + 6378 km = 6,678×106 m; donc a3 = 297,81×1018 m3

Appliquons la formule a3/T2 = GM/4π 2 = 1,00965.1013

donc T2 = a3/1,00965×1013 =  297,81×1018/1,00965×1013 = 29496358 secondes, soit T = 5431,055 secondes, c’est-à-dire, environ une heure et demie.

* Calculons la distance a au centre de la Terre à laquelle doit se trouver un satellite artificiel pour être géostationnaire.

T doit être égal à 23 heures 56 minutes 4 secondes, soit 86164 secondes ; on a T2 = 7424234896 s2 donc a3 = T2x1,00965×1013 = 74,95878763×1021 (voir ci-dessus) et ainsi a = 4,21639 x 107 mètres soit 42 163 km. En retranchant le rayon terrestre, on obtient l’altitude d’un satellite géostationnaire : environ 36 000 kilomètres.

* On peut faire le même calcul avec des satellites plus éloignés et on verra que la durée de révolution augmente et atteint 28 jours pour un corps situé à 300 000 kilomètres de la Terre : c’est la Lune !

   

Combien y a-t-il de satellites au-dessus de nos têtes ?

tab-15Actuellement, 2 630 satellites actifs sont en orbite autour de la Terre. La plupart d’origine russe (soviétique) et américaine. A ces engins s’ajoutent environ 7 000 objets, coiffes et réservoirs de fusées ou autres morceaux résultant de lancements de satellites ou de sondes d’exploration. Soit près de 2 500 t de métal. On dénombre aussi une centaine de milliers de débris de 1 à 10 cm provenant de la désintégration d’anciens satellites. Enfin, on estime à plusieurs dizaines de millions les débris de moins d’un centimètre. Ces déchets, mus d’une grande vitesse, menacent les satellites actifs. Ils sont donc surveillés par le North American Air Defense Command et le Cnes (Centre national d’études spatiales français) via des télescopes spécialisés et des radars.

 

 

 

 

 

 

Stevenson et Sylvain Tesson

L’étrange cas du Docteur Jekyll et de Mr Hyde de Stevenson

 

jekyllTrès court : 86 pages

Je ne l’avais pas encore lu; petit voyage dans le fantastique.

Le départ : un cauchemar de Stevenson.

Et le cauchemar revisité nous tient en haleine durant 86 pages. Construction, écriture parfaites sont bien sûr de mise. Il m’est difficile d’en dire plus sans le déflorer.

Si ces pages manquent à votre culture, réparez-vite cette erreur : il ne vous an coûtera que quelques heure et vous comprendrez son succès.

 

 

Sur les chemins noirs de Sylvain Tesson

 

sur-les-chemins-noirsRécit à la 1ère personne. L’auteur nous fait participer à son voyage à travers la France. Le but de son périple : convalescence du corps après une chute de 8 mètres. Voyage pédestre. Pour lui, ce n’est pas le 1er, mais après avoir parcouru le monde, il parcours la France. Voyage tranquille mais pas sans douleurs.

Livre à lire quand se manifeste le besoin de se reposer de fatigues physiques ou psychologiques. On y prend un tel plaisir tant l’écriture est admirable. Extrait : « C’étaient les pleines vendanges, la terre suait sa folie. Les vignes rendraient bientôt en gaieté ce qu’elles avaient raflé en lumièreIl demeurait des chemins noirs (qui permettent d’éviter le goudron). De quoi se plaindre. »

Atelier Aimons la musique ensemble au 1er Décembre 2016

Groupe de 8 personnes :  possibilité de rejoindre ce groupe

Les 2 premières séances ont été consacrées aux ragas indiens, bien sûr entrecoupés de disques.

Si pour la prochaine séance, l’intervenante n’a pas encore dévoilé le sujet, nous avons déjà prévu :

  • le 09 janvier : les femmes compositrices au cours de l’Histoire
  • le 20 février : les chants grégoriens au Moyen Âge

A bientôt donc…

La petite fille de Monsieur Linh de Philippe Claudel

la-petite-filel-lingh« C’est un vieil homme debout à l’arrière d’un bateau. Il serre dans ses bras une valise légère et un nouveau-né plus léger encore que la valise. » Ainsi débute le livre.

Ce sera un long poème.

Sur un immigré.

Ses peines, des bribes de sa vie passée et son émigration. Sa nouvelle vie, ses inconnus, ses misères.

Et pourtant, on s’occupe de lui, y compris avec bienveillance mais…c’est un immigré.

On lui donne un lit, à manger, mais il est seul. On l’installe dans un palais mais c’est une prison. Il se trouve un ami aussi solitaire que lui. Il ne comprennent pas leurs langues respectives mais se comprennent. Un seul mot : bonjour.

Tant d’amitié, si profonde au fil du temps. Beauté. Sensibilité. Amitié.

Tout cela dans un regard, un don un geste… Tout cela dans le ressenti, dans l’inexprimable puisqu’il ne peut y avoir de mots. Des situations, des gestes; des expressions du corps, du visage, des yeux.

Ce livre a fait l’unanimité , ce qui est rare. Il a suscité une discussion nourrie et approfondie.

Les guerres balkaniques : prélude à la Grande Guerre par J-P Rivenc

jp-rivencLes guerres balkaniques : prélude à la Grande Guerre

par Jean- Pierre Rivenc, professeur d’histoire à l’IUFM Quimper

En octobre 1912, Ouest Eclair titre à propos de la guerre dans les Balkans : « l’Europe sera-t-elle entraînée dans le conflit ?  La réponse viendra 2 ans plus tard. « Répétition générale » par bien des aspects de la 1ère Guerre mondiale, les guerres balkaniques furent également la matrice des conflits ultérieurs.

1 Les forces en présence et les enjeux du conflit

a) La péninsule des Balkans : délimitation géographique

1815_europeau Sud-Est de l’Europe, doit son nom au massif montagneux qui la traverse. Elle est délimitée par l’Adriatique, la mer Égée, la mer Noire et au nord, le Danube et son affluent, la Save.

b) les «puissances» en Europe

L’Angleterre, la France, la Prusse (puis l’Empire Allemand), l’Autriche et la Russie dominent le continent européen.

c) l’Empire Ottoman

qui s’est construit entre 1300 et 1700  , a laissé une grande autonomie aux peuples sous son contrôle.(auto-administration).
carte-ottomanL’Empire — surnommé «La grande Porte» mais aussi «l’homme malade de l’Europe» par l’empereur russe Nicolas Ier,en raison de sa faiblesse financière ( absence de vrai budget, irrégularité des rentrées fiscales), entre en phase de décomposition au XIX ème siècle et devient la proie des grandes puissances.

d) les prétentions de 3 puissances sur la zone
  • l’Angleterre a pour impératif de contrôler la route des Indes, donc de la Méditerranée
  • la Russie veut accéder à la Mer Méditerranée en prenant appui sur les populations orthodoxes et sur le panslavisme
  • l’Autriche -Hongrie veut contrôler la basse vallée du Danube pour accéder aux Détroits (chemin de fer)
e) les étapes du démembrement de l’Empire Ottoman en Europe et la montée des nationalismes

La Serbie
Une première révolte des Serbes dirigée par Georges Petrović, surnommé Karageorges a lieu entre 1804 et 1813. . Echec.
Une seconde révolte a lieu en 1815, sous la conduite de Miloš Obrenović,  aboutit à l’autonomie de la Serbie. Miloch Obrenovitch est élu Prince de Serbie en 1818, et reconnu Prince héréditaire par l’Assemblée Nationale Serbe en 1827.
En 1878, le Congrès de Berlin accorde son indépendance à la Serbie et, en 1882, le prince Milan IV Obrenović devient roi de Serbie.
La Grèce
La guerre d’indépendance grecque(1821-1829) se déroule dans le Péloponnèse et autour d’Athènes. I avec des combats en Épire. La victoire finale est  obtenue grâce au soutien des grandes puissances, France, Royaume-Uni et Russie, les futures« Puissances Protectrices » du jeune royaume grec . Afin de ménager encore l’Empire ottoman, la Conférence de Londres de 1830 fixe le territoire du nouvel État. : le Péloponnèse, une partie de la Roumélie, quelques îles proches du continent comme Égine ou Hydra et une partie des Cyclades.
-L’Insurrection de la Bosnie-Herzégovine en 1875–1878
Une révolte paysanne aboutit au final à une guerre serbo-turque de 1876-1878 qui s’étend à d’autres régions des Balkans (Insurrection bulgare d’avril 1876, Guerre russo-turque de 1877-1878)
Le traité de San  Stefano, qui met fin au conflit russo-turc, (indépendance complète de la Roumanie et de la Serbie, création d’une Grande Bulgarie, autour de Sofia) est remis en cause par les autres puissances européennes et Bismarck réunit en 1878 une conférence à Berlin qui redessine la carte des Balkans : les chancelleries s’accordant, pour mettre à la tête des états de la zone, des roi issus de la noblesse européenne de 2nd rang.
un regain de tensions au début du 20ème siécle
a) la constitution des grandes alliances
b) les rivalités entre les états nouvellement créés (enjeux territoriaux)
c) l’arrivée au pouvoir des «Jeunes Turcs» dans l’Empire Ottoman
d) l’annexion par l’Autriche en 1908 de la Bosnie-Herzégovine, rompant le statu quo avec les Russes
e) intervention militaire de l’Italie contre l’Empire Ottoman : la Libye annexée en 1903

2 les Guerres Balkaniques

Destiné à se protéger à la fois de l’Empire ottoman comme de l’Empire austro-hongrois, les états balkaniques crée une ligue balkanique, alliance en vue de dépecer les restes de l’empire ottoman en Europe.
balkan-vavant-guerres_balkaniques_-_situation_avant_1912Ces nouveaux états ont été équipés militairement par les industries militaires de l’Europe (Schneider, Krupp,…)

A)les Guerres

1ère Guerre
 Les coalisés attaquent en octobre 1912 à l’initiative du Monténégro. Ils sont partout vainqueurs à la surprise générale. Les Serbes entrent en Macédoine, les Grecs à Salonique, les Bulgares en Thrace ou ils ne sont arrêtes qu’à 30 kilomètres de Constantinople.
Une conférence à Londres, réunie dès la fin de l’hiver 1913, aboutit notamment à la création de l’État d’Albanie mais ne règle pas le sort d’une large bande occupée conjointement par les armées alliées.800px-guerres_balkaniques_-_situation_apres_la_premiere_guerre
2nde Guerre
 Tant et si bien que, les armées bulgares toujours sur le pied de guerre attaquent la Serbie (28-29 juin 1913) ex-alliée, au sujet de la Macédoine. Mais les ambitions bulgares inquiétant les autres États  se heurtent à l’armée serbe, mais aussi aux armées de la Grèce, du Monténégro, de la Roumanie et même de la Turquie qui en profite pour récupérer Andrinople. La Bulgarie demande l’armistice et se tient une conférence à Bucarest:

le Traité de Bucarest, 10 août 1913

– La Serbie accroit son territoire d’un tiers vers le sud et partage avec le Monténégro le Sandjak de Novi-Bazar.
– La Bulgarie n’annexe que l’Est de la Macédoine et une partie de la Thrace, .
– La Grèce annexe Salonique et la Thrace occidentale
– La Roumanie annexe la Dobroudja méridionale
– L’Albanie indépendante créée par la Conférence de Londres, sous protectorat commun de l’Autriche-Hongrie et de l’Italie.

guerres_balkaniques_apres_traite_de_bucarest – La Turquie perd tous ses territoires européens, sauf la Thrace orientale avec Andrinople et Constantinople et les Détroits.les-balkans-de-duroselle

B) la préfiguration de la 1ère Guerre Mondiale

b1 évolution de l’Art militaire
– la mitrailleuse, arme de l’avenir pour contenir les charges de cavalerie ou d’infanterie
– guerre de tranchées (barbelés)
– 1er pas de l’aviation (observation, bombardement)
– importance de l’artillerie : feu roulant pour permettre l’offensive des troupes
b2 les conséquences sur les populations
– mobilisation très importante des populations (équivalent à la Grande Guerre) près de 10% de la population
– les hommes à la guerre, les femmes au travail
– des pertes massives en combattants : près de 15 % des effectifs
– une fuite massive des populations (estimation 110 000 «slaves», 100 000 grecs, 220 000 «ottomans ) , des atrocités commises par tous les belligérants
– une épuration ethnique

.
Le 28 juin 1914, de Sarajevo, capitale de la Bosnie-Herzégovine partira l’onde de choc qui déclenchera par le jeu des alliances la 1ère Guerre Mondiale.
Progressivement, ces états vont entrer dans le conflit mondial et près de la moitie du territoire balkanique sera le théâtre d’opérations militaires jusqu’en 1918 : soit 6 années de guerre pour les populations du Nord des Balkans.

.1910_peoples………………………………………………………………………………………………………………………………………..

Réf : CY-J2016XII02

les-guerres-balkaniques

2 – Du Volcan à l’Atoll : origine des îles de Polynésie française

sylvain-blaisDu volcan à l’atoll :   origine des îles de Polynésie française

triangle-polypar Sylvain Blais, enseignant-chercheur en géologie e.r.

La Polynésie française, située à plus de 17 000 km de l’Hexagone s’étend sur une  surface équivalente à celle de l’Europe. Elle rassemble 118 îles . Elle compte environ 266 000 habitants.Le climat y est tropical, océanique, chaud et humide.

 

 

 

 

plaque-tectoniqueL’explication de l’origine des îles de Polynésie française prend en considération les notions de tectonique des plaques et le concept de point chaud (source de magma fixe dans le manteau terrestre).

La dérive des plaques tectoniques entraînant la lithosphère au-dessus des sources profondes fait que le point chaud crée des alignements volcaniques à la surface terrestre, comme noyau_terreStre.Jl’archipel des îles Hawaii, l’archipel des Marquises, des îles de la Société.

 

1-  Naissance d’une île océanique

L’édification d’une île océanique nécessite l’émission de plusieurs milliers de km3 de laves. Son développement en milieu sous marin, puis aérien, doit se faire rapidement car, dans un schéma simple de point chaud et compte tenu de la vitesse élevée de dérive de la plaque pacifique (11 cm/an), elle ne dispose que de 2 millions d’années environ pour s’édifier et émerger avant de quitter définitivement la zone 220px-Lava_fountain_domed’alimentation magmatique.

 

 

 

 

 

2 – Du volcan à l’atoll

Pendant le déplacement lié au glissement des plaques, l’édifice volcanique a tendance à s’enfoncer, phénomène dû à la flexure de la croûte océanique sous le poids de l’île.
volcan hawaiVers la fin de l’activité volcanique, des organismes constructeurs (coraux et algues calcifiées) prolifèrent autour du volcan émergé et édifient un récif corallien. Pour proliférer, les constructeurs coralliens doivent se maintenir au voisinage du niveau de la mer et avoir des conditions de salinité et de températures particulières.
Ces formations coralliennes vont peu à peu ceinturer l’édifice volcanique qui continue de s’enfoncer, pour former un atoll qui représente le stade ultime des îles océaniques.
L’archipel de la Société sert d’exemple à cette démonstration car, partant de Méhétia (point chaud), en passant successivement par Tahiti, Moorea, Huahiné, Raiatea, Tahaa, Bora-Bora et Maupiti, cette évolution depuis le point chaud jusqu’à l’atoll est démonstrative.
L’archipel des Australes, plus au Sud, est un peu plus compliqué car l’île de Rurutu, au cours de ce voyage initié à partir du point chaud Mac Donald, est surélevée car passée au dessus d’un carte polynésie française_ppoint chaud supplémentaire.

3- Points chauds polynésiens et islandais

Après avoir montré des photos de l’éruption du Burdarbunga islandais démarrée en août 2014, l’intervenant fait  une comparaison entre « le point chaud » islandais et  les 6  » points chauds » polynésiens  .

Particularité des Iles Marquises : elles possède 2 alignements quasiment parallèles

bora-bora_polynésie 555

1 – Le cerveau humain

LE CERVEAU ET LA CONSCIENCE

riobravoArticle de M RIO

1 -Le cerveau, organe de la pensée consciente.
2 -Aspect général du cerveau.
3 -Structure microscopique du cerveau.
4 -L’influx nerveux ; les neurotransmetteurs
5 -Les techniques d’exploration du cerveau.
6 -Le cerveau en action.
7 -Le cerveau et la conscience.
8 – Le cerveau et l’évolution.
cerveauLe cerveau et la pensée consciente.
Il est reconnu depuis longtemps que le cerveau est le siège de la pensée consciente, en dépit d’Aristote qui le considérait comme un simple radiateur et situait la pensée dans le cœur. Pendant très longtemps, son rôle et son fonctionnement sont restés incompréhensibles. On ne connaissait que des machines mécaniques capables tout au plus d’animer des automates, et un organe matériel ne pouvait être au mieux que le relais d’une faculté supérieure et immatérielle, l’esprit.
Malheureusement, l’esprit ainsi conçu ne se laisse ni observer ni disséquer et ne peut être l’objet d’une investigation concrète ; il n’en reste qu’un mythe ou un terme abstrait, alors que le cerveau se prête parfaitement à une étude expérimentale. Les techniques actuelles révèlent le fonctionnement intime et les extraordinaires possibilités de la matière vivante à réaliser les fonctions les plus subtiles d’où émerge la pensée consciente.
(suite…)

L’atome en pièces détachées par M RIO André

M André RIO
M André RIO

                               L’atome en pièces détachées

 

Chaque atome est constitué d’un noyau, formé lui même de protons positifs et de neutrons et entouré d’un nuage d’électrons de charge opposée en nombre égal à celui des protons. L’atome est neutre. Il existe une analogie entre l’atome et une planète avec son satellite. Dans un cas, c’est la gravité qui maintient l’ensemble, dans l’autre la charge électrique.

 

Planète et satellite                    Atome d’hydrogène ( 1 proton ; 1 électron )

 

Force centrifuge : f = G M m    / r2                               f = ε e2/ r2

Force centripète           f = 1 /2 m v2                            f = 1 / 2 m v2

G : constante de la gravité  M : masse de la planète  m : masse du satellite

e : charge de l’électron  : , m, sa masse     ε  constante de l’attraction électrique

dans les deux cas, la vitesse v  est liée au rayon  r de l’orbite.

Il faut remarquer que e est très grand et G très petit. Une autre différence fondamentale apparaît, car l’électron est soumis aux lois de la physique quantique. Sauf au moment où il interagit avec la matière il n’est pas bien localisé ; ce n’est pas une petite bille mais une onde diffuse dont la longueur d’onde est liée à son orbite, comme une corde vibrante dont la longueur d’onde dépend de sa longueur. L’équation de Schrödinger permet de définir les différentes possibilités. ( voir page 3 ). Il existe donc un nombre limité d’orbites, selon le nombre d’électrons, qui constituent des couches successives qui sz dédoublent en sous-couches à mesure qu’on a des atomes de plus en plus lourds. La longueur d’onde de l’électron sur son orbite est

l = h / m v       où h est la constante de Planck, clé de la physique quantique, m la masse et v la vitesse de l’électron. De plus, l’électron étant un fermion, il ne peut en exister qu’un seul sur chaque couche ou sous-couche (les bosons au contraire peuvent s’entasser sans contrainte) . Finalement, c’est l’équation de Schrödinger qui permet de déterminer toutes les couches et sous- couches possibles. La lettre psi est la fonction d’onde qui représente la situation de l’électron.

Les conséquences.

            Aux différentes couches et sous-couches correspondent 4 nombres quantiques :

n : fondamental de valeurs entières successives : 1, 2, 3, …

l : secondaire (orbites elliptiques)  0, 1, 2, 3 : …

m : magnétique : valeurs positives, nulle ou négatives –1 ; 0 , + 1…

s : spin  + 1/ 2 ou – 1 / 2

A chaque combinaison de ces quatre nombres correspond une orbite et un niveau d’énergie. La classification périodique des éléments est la conséquence de cette structure ; les éléments sont classés par masses croissantes : un élément possède un proton et un électron de plus que celui qui le précède, et aussi un nombre variable de neutrons, La dernière couche peut comporter de 1 à 8 électrons, mais à partir de n = 4, une nouvelle couche à 8 électrons commence à se remplir, alors que la couche 3 est encore incomplète et se remplit ensuite avec les éléments dits de transition. La cinquième couche comporte de plus 14 électrons correspondant aux lanthanides ou terres rares.            La couche la plus externe comportant 8 électrons au plus (électrons de valence, ces électrons sont mis en commun entre deux atomes, ce qui crée entre eux une liaison chimique, 2 électrons pour une liaison simple 4 pour une liaison double et 6 pour une liaison triple. La valence est le nombre de liaisons que peut contracter un atome. Ainsi le sodium, qui ne possède qu’un électron sur sa couche externe, ne peut se lier qu’une fois, tandis que le chlore, qui en possède 7, peut se lier 1,3,5 ou 7 fois.

Emission et absorption de lumière.

Un atome excité par un choc électrique, un photon ou une température élevée absorbe de l’énergie qui fait passer un électron périphérique de son niveau normal à une couche supérieure libre. Il retombe à son niveau initial en libérant cette énergie sous forme de lumière, un photon dont la fréquence (ou la longueur d’onde) correspond à cette énergie.

E = h n

Le spectre caractéristique d’un élément correspond à une série de sauts possibles. Il peut servir à identifier l’élément et ses différents niveaux d’énergie.

Exemple, la raie double du sodium à 588,99 et 589,59 nanomètres qui donne une lumière jaune.

Les constantes qui assurent l’existence de la matière.

            G : constante de la gravité = 6,672 . 10-11 SI (système international)

C : vitesse de la lumière.

K :constante de Boltzmann = 1,38 ; 10 –23                         K = R/N

                R ; constante des gaz parfaits = 8,04 joules

N : nombre d’Avogadro (nombre d’atomes dans un gramme d’hydrogène)                 = 6,02 ; 10 23 

                h : constante de Planck = 6,61 . 10 –23

Masse de l’électron : 0,9. 10 –30 kg  ou  0,511. 10-3 Gev (giga electronvolt )

Charge de l’électron : 1,6 10 –19 coulomb

e : constante de l’attraction électrique = 9 ;109

Masse du proton : 1,6, 10-27  kg    ou 938 Gev

Masse du neutron : 0,940 Gev.

Toutes ces constantes, et quelques autres, sont telles qu’il existe de la matière stable composée d’atomes stables. Est-ce un hasard ou le résultat d’une sélection ?