atelier Connaissance Scientifique 2017/2018 pré-programme

Programme proposé

par Jospeh LE BER:

 

                La radioactivité :

 

  • Qu’est-ce ? L’atome, les  isotopes radioactifs
  • A quoi ça sert,  recherche, les diagnostics en médecine, les traitements médicaux, industrie, énergie..
  • Les effets biologiques des rayonnements ionisants
  • Les normes, la règlementation
  • La détection et les mesures
  • Les sources d’exposition du public
  • La protection
  • Les utilisations publiques et industrielles
  • La sureté
  • La production d’énergie
  • Les effluents
  • Les déchets radioactifs
  • Les accidents
  • Les démantèlements, déconstructions

atelier sciences 2016/2017 animé par Roger MEVEL

Programme de novembre 2016 à juin 2017

Par Roger MEVEL

  – Généralités sur les OEM
  – La RADIO AM et FM
  – Le GPS
  – La TNT
  – Le TELEPHONE PORTABLE
  – Le FOUR MICRO-ONDE
  – Les RAYONS INFRAROUGES
  –  l’ISS 
autres sujets à traiter   :
  – Les PANNEAUX SOLAIRES
  – Les SOURCES LUMINEUSES
  – La FIBRE OPTIQUE
  – Le LASER
  – Le RADAR

UTL 7 – LES INFRAROUGESUTL 5 –

UTL 6 – FOUR MICRO-ONDE

UTL 3 – TNT

UTL 5 – TELEPHONE PORTABLE

La télévision par Roger Mevel CR du 18/01/2017

Atelier Sciences – Roger MEVEL

CR de la Séance n°6 du 18/01/201

GPS

Précision de positionnement

 

GPS (américain)

1995

GALILEO (européen)

2017

 

GPS de base

gratuit

10 mètres

1 mètre

 

+EGNOS pour European Geostationary Navigation Overlay Service

gratuit

1 mètre

10 centimètres

GPS différentiel

Opérationnel depuis 2011

+RTK pour Real Time Kinematic

payant

1 centimètre

1 centimètre

GPS différentiel

Opérationnel depuis 2006

Aujourd’hui (2016) quelque 10% du PIB européen dépend des systèmes de positionnement par satellites, et d’ici 2030 ce pourcentage pourrait grimper à environ 30%, selon le CNES, l’agence spatiale française, avec en particulier, le développement de la voiture autonome et des objets connectés. Il existe en effet des centaines d’applications civiles qui affectent pratiquement tous les aspects de la vie moderne : Routes et autoroutes – Rail – Marine – Agriculture (Une navigation de précision sur le terrain réduit les applications redondantes et les zones oubliées et permet de travailler quand la visibilité est mauvaise, à cause de la pluie, de la poussière, du brouillard ou de l’obscurité) – Arpentage et cartographie – Aviation – ……..

Cependant n’oublions pas que les systèmes de navigation satellitaires ont été développés d’abord pour le besoin militaire. Ils permettent en effet une précision inégalée dans le guidage des missiles au but, augmentant leur efficacité et réduisant les risques de dégâts collatéraux. Ces systèmes permettent également aux forces terrestres de se positionner avec précision, réduisant les incertitudes tactiques, aux marines et aux forces aériennes de naviguer avec précision, indépendamment de tout support au sol.

Relativité du temps – Albert Einstein

1 – La relativité restreinte (1905) concerne la dilatation du temps due à la vitesse et dit que le temps s’écoule plus lentement pour un objet se déplaçant à grande vitesse. Ainsi l’horloge placée à bord du satellite GPS qui se déplace à 14.000km/h retarde de 7µs par jour par rapport à une horloge identique sur terre donc au repos.

2 – La relativité générale (1915) concerne la gravitation fonction de l’altitude et dit que le temps s’écoule plus rapidement pour un objet soumis à un champ de gravité plus faible (donc en altitude). Ainsi l’horloge placée à bord du satellite GPS qui se déplace sur une orbite quasi-circulaire de rayon 26.600 km (soit une altitude de 20.200 km) avance de 45 µs par jour par rapport à une horloge identique sur terre donc au repos.

Il en résulte que les horloges des satellites GPS avancent de 38 (45-7) µs par jour par rapport aux horloges de même nature (horloges atomiques) au sol. Comme une microseconde correspond à 300 mètres (l’onde électromagnétique se déplace à la vitesse de la lumière soit à 300.000 km/s) on voit que sans la prise en compte de la relativité le GPS n’aurait jamais vu le jour…. D’une façon concrète un synthétiseur embarqué permet de corriger l’horloge du satellite pour qu’elle soit en permanence à la même heure que les horloges au sol.

TELEVISION

 

La télévision hertzienne correspond, au sens propre, à la diffusion par l’intermédiaire d’ondes électromagnétiques. Elle regroupe la « télévision terrestre » (TNT) ainsi que la télévision satellite (TNS). Aujourd’hui toutes les deux sont numériques.

1 – L’intérêt de passer dans le monde numérique

Le monde qui nous entoure nous est perçu de manière analogique. Nos cinq sens nous donnent une approche analogique du monde, ils nous permettent de percevoir une très large palette de sensations. Les signaux analogiques sont de type continu, ils se présentent comme des variations de grandeurs physiques pouvant prendre n’importe quelle valeur de façon continue entre deux intervalles de temps.

Avantages du numérique

Le signal numérisé se résume en une suite de nombres, représentés en binaire par des 1 et 0, ou encore des niveaux de tensions correspondant respectivement à des niveaux hauts et des niveaux bas. Sous cette forme, le signal devient beaucoup plus robuste aux petites perturbations.

 

 

 

Signal numérique à transmettre (en rouge) et signal numérique bruité reçu (en noir)

Un signal numérique peut être copié et transmis sans pertes car au lieu de transporter un signal dont l’amplitude doit varier fidèlement à l’original on transporte un signal formé de seulement deux amplitudes (par exemple 0=0volt et 1=2volts). Ainsi lorsqu’un parasite perturbe un signal analogique, en numérique ce parasite n’aura aucun effet : par exemple un parasite qui ajoute 0.2v de perturbation va détériorer un signal analogique alors que ce même parasite sur un signal numérique n’aura pas d’effet car 0v+/-0.2v sera toujours considéré comme =  » 0 « .

Cependant, il est important de noter que l’analogique constituera toujours les points d’entrée (microphone, capteurs) et les points de sortie (haut-parleur, capteurs…) notamment dans le domaine de l’audio. Il faut bien garder à l’esprit que le numérique ne sert (dans le cas d’un signal audio ou vidéo) qu’au transport et au stockage des données.

 

 

 

 

2 – Conversion analogique-numérique

Un convertisseur analogique-numérique ou CAN transforme une grandeur analogique (tension d’entrée Ue) en une valeur numérique (nombre binaire N en sortie).

Le symbole d’un convertisseur analogique-numérique ou C.A.N. est représenté ci-contre :

  • le  représente la grandeur analogique en entrée
  • le # représente le mot binaire de sortie codé sur n bits (8 ici car il y a 8 sorties)

 

La conversion analogique numérique peut être décomposée en étapes successives :

1/ On dispose du signal analogique original : c’est la variation de l’amplitude en fonction du temps.

2/ L’échantillonnage consiste à prélever des échantillons du son à intervalles de temps réguliers. Le nombre de prélèvements en une seconde est appelé fréquence d’échantillonnage. Plus la fréquence d’échantillonnage est élevée, mieux le signal sera décrit et donc restitué, mais plus le fichier sera volumineux.

 

3/ On code ensuite les valeurs échantillonnées du signal selon une échelle donnée : c’est la quantification. Chaque échantillon est comparé à différents seuils : à chaque seuil correspond un code différent ; sur l’exemple suivant on a 16 niveaux possibles, codés sur 4 bits de 0000 à 1111

 

3 – Conversion d’un nombre décimal en un nombre binaire

Nous utilisons le système décimal (base 10) dans nos activités quotidiennes. Ce système est basé sur une logique à dix symboles, de 0 à 9, avec une unité supérieure (dizaine, centaine, etc.) à chaque fois que dix unités sont comptabilisées. C’est un système positionnel, c’est-à-dire que l’endroit où se trouve le symbole définit sa valeur. Ainsi, le 2 de 523 n’a pas la même valeur que le 2 de 132. En fait 523 est l’abréviation de 5·100+2·10+3. En informatique on utilise le système binaire (base 2). Deux symboles suffisent : 0 et 1. Cette unité élémentaire ne pouvant prendre que les valeurs 0 et 1 s’appelle un bit (de l’anglais binary digit). Une suite de huit bits s’appelle un octet.

La conversion d’un nombre décimal en nombre binaire consiste en des divisions successives par 2. La méthode débute par la division du nombre par 2, le reste est reporté comme le bit du poids le plus faible (bit de rang 0). Le quotient de cette division est, lui aussi, divisé par 2. Le deuxième reste représente alors le bit de rang 1. Cette procédure est reprise de la même manière jusqu’à ce que le quotient obtenu soit 0 avec un reste de 1.

Exemple  de  la conversion du nombre décimal 97 en nombre binaire.

 

 

4 – La définition d’un écran

 

La définition d’un écran est : « la quantité de pixels composant l’écran ». La définition d’un écran c’est donc le produit du nombre de pixels qui le compose en longueur (axe horizontal) par celui de sa hauteur (axe vertical). Définition = (nombre de pixel en Longueur) x (nombre de pixel en Hauteur). Rmq : Il est de rigueur de n’indiquer pour la définition que l’expression du produit et non son résultat.

En observant à la loupe la surface d’un écran plat on s’aperçoit que celui-ci est composé de plusieurs milliers de pixels. Chaque pixel est lui-même composé de trois sous-pixels Rouge, Vert et Bleu.

La couleur d’un pixel est interprétée par notre cerveau qui fait la synthèse additive des trois couleurs primaires Rouge, Vert et Bleu.

Les pixels utilisent ainsi des propriétés d’additivité des couleurs qui permettent, à partir de trois couleurs, de générer un arc-en-ciel de couleurs du rouge au violet.

En superposant du rouge et du vert, on obtient du jaune. En superposant du rouge et du bleu, on voit du magenta. Et en superposant du vert et du bleu, on obtient du cyan. La superposition des trois couleurs donne du blanc. En ajustant l’intensité de chaque couleur, on peut générer aussi d’autres couleurs comme du gris, du marron, du violet…

5 -Le standard PAL

Le Phase Alternating Line (PAL : « alternance de phase suivant les lignes ») est un standard historique vidéo couleurs avec 25 images par seconde. Mis au point en Allemagne par Walter Bruch (1908-1990), PAL est exploité depuis les années 1960 principalement en Europe, dans certains pays d’Amérique du Sud, en Australie et dans certains pays d’Afrique. Depuis 1995, la totalité des téléviseurs couleurs commercialisés dans les pays exploitant le SÉCAM intègrent obligatoirement des circuits compatibles PAL (par la prise Péritélévision). Le standard PAL est une évolution du standard NTSC (le tout premier standard (américain) couleurs breveté en 1953) et reprend plusieurs brevets issus du standard SECAM (SEquentiel-Couleur-A-Mémoire) lequel en corrigeait les principaux défauts.

Les OEM (Ondes Electromagnétiques) et leurs APPLICATIONS CRn°5 Roger MEVEL

Atelier Sciences – Roger MEVEL
CR de la Séance n°5 du 18/01/2017

Atelier Sciences du 18-01-2017

Les OEM (Ondes Electromagnétiques) et leurs APPLICATIONS

1 –  Les 4 premières séances

Une onde électromagnétique comporte à la fois un champ électrique et un champ magnétique oscillant à la même fréquence. Ces deux champs, perpendiculaires l’un par rapport à l’autre se propagent dans un milieu selon une direction orthogonale (figure ci-dessous).
La propagation de ces ondes s’effectue à une vitesse qui dépend du milieu considéré. Dans le vide, la vitesse de propagation est égale à 3.108 m/s. 1

Une onde électromagnétique est caractérisée par plusieurs grandeurs physiques : La période (T) : elle représente le temps nécessaire pour que l’onde effectue un cycle. L’unité est la seconde. La fréquence (f) : inverse de la période, elle traduit le nombre de cycles par unité de temps.
Elle s’exprime en Hertz (Hz) – un Hz équivaut à une oscillation par seconde – La longueur d’onde (λ) : elle exprime le caractère oscillatoire périodique de l’onde dans l’espace.
C’est la longueur parcourue par l’onde pendant une période T dans l’espace (figure ci-dessus) donc la distance séparant deux crêtes successives.
Nous avons donc la relation suivante : λ = c T ou encore λ= c/f car f = 1/T Les échanges d’énergie portée par le rayonnement électromagnétique ne se font pas de manière continue, mais de façon discrète, sous forme de paquets d’énergie, véhiculés par des corpuscules élémentaires immatériels, les photons. La relation suivante exprime la quantité d’énergie (E) associée à un photon en 2 fonction de la fréquence de l’onde : E = h f ou h est la constante de Planck (6,625.10-34 J.s).

Les ondes radio AM (Amplitude Modulation) et FM (Frequency Modulation)
1 -Les grandes ondes (GO) ou ondes longues (OL), Long Waves (LW en anglais) (30 kHz à 300 kHz[ ) se propagent par onde de sol et sont utilisées par les stations de radio en modulation d’amplitude, pour des communications à moyenne distance (500 à 1 000 km). Un seul émetteur LW couvre à peu près tout le territoire national.
2 – Les petites ondes (PO) ou ondes moyennes (OM), Medium Waves (MW en anglais) (300 à 3 000 kHz) se propagent également par onde de sol.
3 – Les ondes courtes (OC) ou Shortwave (SW en anglais) (3 MHz et 30 MHz) se propagent par réflexions successives entre le sol et l’ionosphère avec donc une portée de plusieurs milliers de kilomètres (domaine entre autres des radioamateurs).
4 – Les très hautes fréquences (very high frequency/VHF) est la partie du spectre radioélectrique s’étendant de 30 MHz à 300 MHz. Ces ondes se propagent en vue directe (en ligne droite). La radio FM (pour Frequency modulation) correspond à la bande 87,5 – 108 MHz souvent appelée « bande FM » .
5 – La modulation sert à transmettre le signal utile S(t) (le son ici) fourni par le microphone à l’aide d’un autre signal P(t) (porteuse) d’une fréquence nettement plus élevée qui est l’Onde ElectroMagnétique. A la réception il suffit alors de démoduler le signal pour avoir accès à l’information d’origine que l’on applique à un haut-parleur.
La modulation d’amplitude : AM Dans ce type de modulation le signal source fait varier l’amplitude de la porteuse. La modulation d’amplitude est très sensible aux perturbations électromagnétiques qui peuvent modifier l’amplitude de la porteuse et donc du signal source lors de la démodulation.
La modulation de fréquences : FM En modulation de fréquences le signal source fait varier la fréquence de la porteuse La modulation de fréquences est peu sensible aux perturbations électromagnétiques. Le signal démodulé est donc identique à celui de la source.

Global Positioning System (GPS)
Le GPS (Global Positioning System) est un système de géolocalisation fonctionnant au niveau mondial et reposant sur l’exploitation de signaux radio émis par des satellites dédiés. Le système GPS permet de se situer où qu’on soit dans le monde depuis 1995.

Composition
1 – Segment spatial La constellation est organisée autour de 24 satellites. Disposés sur six plans orbitaux (4 satellites par plan) ayant une inclinaison d’environ 55° sur l’équateur . Ils suivent une orbite quasi-circulaire de rayon 26 600 km environ (soit une altitude de 20 200 km) qu’ils parcourent en 11 h 58 min 2 s, soit un demi-jour sidéral.

Comparaison entre jour sidéral et jour solaire :
la planète positionnée en 1 met un jour sidéral (23 H 56’ 4’’) pour arriver en 2 et un jour solaire (24 H) pour arriver en 3
.
2 – Segment de contrôle
C’est la partie qui permet de piloter et de surveiller le système. Il est composé de cinq stations au sol. Leur rôle est de mettre à jour les informations transmises par les satellites (éphémérides, paramètres d’horloge) et contrôler leur bon fonctionnement.

3 – Segment utilisateur Le nombre maximum d’utilisateurs GPS est illimité. En 2014, le nombre total de récepteur GPS est estimé à 3,6 milliards. Les smartphones avec GPS intégré sont les plus nombreux avec 3,08 milliards, suivi par les 260 millions d’assistants de navigation pour des applications routières. Le nombre restant d’appareils est réparti entre des applications variées : autres transports (aviation, ferroviaire, maritime), topographie, agriculture, infrastructure critique.
Principe de fonctionnement
1 – Calcul de la position

Le positionnement GPS fonctionne grâce à un moyen que vous connaissez sûrement : la triangulation (qui consiste à utiliser uniquement les distances pour localiser un objet). Toutes les millisecondes, les satellites émettent des signaux codés sous forme d’onde radio.
Le récepteur calcule le temps mis par l’onde émise par le satellite pour lui parvenir. La vitesse de propagation du signal étant connue, le récepteur détermine une sphère sur laquelle est nécessairement sa position. (distance = temps x vitesse). Avec un deuxième satellite, l’intersection des deux sphères forment un cercle. Puis avec un troisième satellite, deux points. On élimine l’un des deux points car il ne se trouve pas sur Terre mais à une position absurde (à l’extérieur de la constellation des satellites GPS ou dans les profondeurs de la Terre, par exemple). Trois satellites suffiraient donc pour connaître notre position sur le globe.
Cependant, pour la synchronisation de l’horloge du boîtier GPS, il faut la précision d’une horloge atomique. Votre boîtier GPS et votre téléphone n’en ont évidemment pas. Ils vont donc utiliser l’horodatage produite par une horloge atomique à bord d’un quatrième satellite.
Pour pouvoir utiliser le GPS, il faut donc un minimum de quatre satellites : trois pour la position, et un supplémentaire pour la synchronisation.
2 – L’horloge du satellite
La nécessité des horloges atomiques vient du fait qu’on cherche à avoir une précision très importante sur la position : de l’ordre de quelques mètres sur la surface de la Terre. Il faut donc une très grande précision dans les informations transmises à votre boîtier GPS. Pour donner une idée : une différence d’une microseconde (1 µs) correspond à une erreur de 300 mètres sur la position !

3 – Synchronisation de l’horloge du récepteur
La base de temps des récepteurs GPS provient d’oscillateurs à quartz qui ne sont pas assez précis pour être utilisables pour le positionnement. Le récepteur est donc synchronisé sur le temps des horloges atomiques des satellites.

2 – C-R séance du 18/01/2017

1 – GPS et théorie de la relativité

Le GPS est l’application concrète la plus courante, dont le fonctionnement est lié avec la théorie de la relativité. Si ses effets n’étaient pas pris en compte, la navigation par GPS serait entachée d’erreurs trop importantes. Deux effets principaux de la relativité sont à considérer :

* la dilatation du temps issue de la relativité restreinte (1905) affirme que le temps s’écoule plus lentement pour un objet se déplaçant à grande vitesse (14.000 km/h ici). L’horloge du satellite retarde donc par rapport aux horloges au sol de 7 μs par jour
* la relativité générale (1915) stipule que le temps s’écoule plus rapidement pour un objet subissant un champ de gravité plus faible. L’horloge du satellite avance donc par rapport aux horloges au sol de 45 μs par jour
L’horloge d’un satellite GPS vue du sol×× avance donc de 45-7 = 38 μs par jour ce qui conduirait sans correction à une erreur de 38×300 = 11.400 m ou 11,4 km !
Historiquement, en 1977, lors de la première mise en orbite d’une horloge atomique au Césium dans le premier satellite GPS, les effets de la relativité avaient été calculés, mais certains doutaient de la véracité des effets relativistes. Après vingt jours en orbite, l’horloge atomique en orbite a été mesurée dérivant de l’ordre de 764µs par rapport au sol, ce qui était proche du calcul théorique de l’époque donnant 771 µs (environ 20×38). Par la suite, le synthétiseur a été activé de manière permanente.

2 – Les sources d’erreurs


Les mesures de la distance entre récepteur et satellites sont entachées d’erreurs de3 types :

* les erreurs dues aux satellites (trajectoire, horloge)

* les erreurs dues au récepteur (horloge, bruit électronique, chemins multiples, variation du centre ce phase de l’antenne)

* les erreurs engendrées par la transmission du signal (ionosphère, troposphère).
Un certain nombre de ces erreurs peuvent être compensées ou modélisées afin de les corriger, ceci dépend du type de récepteur et du mode de mesure. * les erreurs dues aux satellites (trajectoire, horloge) sont corrigées à partir des stations au sol. * les erreurs engendrées par la transmission du signal (ionosphère, troposphère). L’ionosphère modifie la vitesse de propagation du signal. La plupart des récepteurs intègrent un algorithme de correction, mais en période de forte activité solaire, cette correction n’est plus assez précise. Pour corriger plus finement cet effet, certains récepteurs bi-fréquences utilisent le fait que les deux fréquences L1(1,5 G )et L2 (1,2 G ) du signal GPS ne sont pas affectées de la même façon et recalculent ainsi la perturbation réelle. Rappel : v = c/n avec n indice de réfraction et n augmente avec la fréquence n = 1 + Constante× La présence d’humidité et les modifications de pression de la troposphère modifient l’indice de réfraction n et donc la vitesse de propagation du signal radio. Les récepteurs courants intègrent un modèle de correction.

3 – Inconvénient du GPS

Enfin, pour terminer, ajoutons que le système GPS est américain et est géré par le département de la défense des USA. L’usage de ce système par tous les autres pays que les États-Unis est souvent considéré comme une dépendance qui ne plaît pas toujours (pour des raisons géopolitiques). Ainsi, différents états prévoient leur propre système de positionnement par satellite :
La Russie a son système Glonass ;
L’Europe met actuellement en place les satellites du système Galileo.
La Chine a son système Beidu
L’Inde et le Japon ont également en projet leur système régional.

Le système Glonass devient opérationnel en 1996 mais la crise financière et économique qui frappe la Russie à la fin des années 1990 ne lui permet plus de maintenir un nombre de satellites suffisant. Le service complet n’est restauré qu’au cours des années 2010.

 

4 – Le système européen de navigation par satellite Galileo entre en service

Les satellites sont placés en orbite terrestre moyenne à une altitude de 23 222 km, également répartis sur 3 plans orbitaux inclinés à 56° du plan équatorial. Chaque orbite circulaire comprend 8 satellites actifs plus deux satellites de secours, pour un total de trente satellites (24 actifs et 6 de secours).

Avec 18 satellites en orbite sur les 26 que comptera la constellation à partir de 2018, Galileo est aujourd’hui capable de fournir ses premiers services, appelés « services initiaux », avec un engagement de la Commission européenne sur la fiabilité et la disponibilité du signal et l’assurance que les satellites et l’infrastructure sol de Galileo sont opérationnels.
A partir du jeudi 15 décembre 2016, Galileo offre gratuitement les services suivants :

* Navigation plus précise pour les citoyens avec l’OS (Open Service), pour les utilisateurs déjà équipés d’une puce Galileo sur leur smartphone ou à bord de leur véhicule,

* Appui aux opérations d’urgence, avec le service SAR (Search & Rescue) le temps de localisation d’un appel de détresse étant maintenant ramené à moins de 10 minutes, (les balises de détresse Cospas-Sarsat (à 406 MHz, bien connues des navigateurs marins et aériens, ainsi que des explorateurs)).

* Meilleure synchronisation pour les infrastructures critiques, pour permettre une meilleure gestion des transactions financières, des télécommunications et des réseaux de distribution d’énergie,

* Sûreté accrue pour les pouvoirs publics avec le PRS (Public Regulated Service) et de nouveaux outils, plus précis et sûrs, pour la protection civile, les services d’aide humanitaire, ou encore les douanes ou les forces de police. GALILEO sera en pleine capacité opérationnelle à partir de 2020. L’investissement est conséquent, avec 13 milliards d’euros de fonds publics engagés par Bruxelles. Malgré les six ans de retard sur le calendrier initial, les Européens sont convaincus que les avancées technologiques feront la différence. La précision est meilleure, dix fois supérieure à celle du GPS : moins d’un mètre contre dix mètres.
Pourquoi Galileo sera plus précis que le système GPS américain :

* les horloges atomiques européennes embarquées dans les satellites sont plus récentes, donc plus précises, que les américaines

* Les signaux de Galileo sont aussi censés mieux résister aux perturbations dues à leur passage dans l’ionosphère. La constellation utilise pour cela deux fréquences distinctes pour chacun des cinq niveaux de services prévus quand le GPS n’en a qu’une.

* Le phénomène est encore atténué par l’orbite de 23222 kilomètres choisie, plus élevée que celle des GPS (20200km) et Glonass (19100km) et qui réduit ainsi la vitesse de rotation des satellites par rapport à celle de ses rivaux. En la 3ème loi de KEPLER dit que × a = constante

Les objets connectés sont aussi de plus en plus nombreux à passer par les satellites pour communiquer, comme le capteur proposé aux personnes âgées et qui envoie un SOS en cas de chute, le collier qui surveille la santé de votre chat, la balise qui permet de retrouver vos clés ou localiser vos enfants à tout moment… Quelque 10% du PIB européen dépend aujourd’hui des systèmes de positionnement par satellites, et d’ici 2030 ce pourcentage pourrait grimper à environ 30%, selon le Cnes, l’agence spatiale française.
avec en particulier, le développement de la voiture autonome et des objets connectés. De plus, beaucoup d’applications à venir sont encore inconnues, l’imagination dans ce domaine étant sans limite.

5 – Le différentiel pour améliorer la qualité

1 – Le GPS différentiel      (en anglais Differential Global Positioning System : DGPS)

est une amélioration du GPS. Il utilise un réseau de stations fixes de référence qui transmet l’écart entre les positions indiquées par les satellites et leurs positions réelles connues. En fait le récepteur reçoit la différence entre les pseudo-distances mesurées par les satellites et les véritables pseudo-distances et peut ainsi corriger ses mesures
Il existe 3 systèmes de différentiels au monde mais heureusement tous compatibles. Le WASS couvre les Etats-Unis, l’EGNOS couvre l’Europe centrale et le MTSAT (ou MSAS) est au-dessus du japon. Sur nos GPS, cela se traduit par un paramétrage dans le menu, que l’on active ou non (au choix). Les GPS derniers nés ont tous cette option.

Opérationnel depuis 2011 EGNOS améliore la précision et la fiabilité du positionnement GPS dans toute l’Europe.
* EGNOS est l’acronyme de European Geostationary Navigation Overlay Service, c’est-à-dire “ Service Européen de Navigation par Recouvrement Géostationnaire
Fonctionnement :
1 Le véhicule est équipé d’une antenne GPS qui reçoit les signaux des satellites
2 Le service EGNOS dispose de récepteurs GPS au sol recevant les mêmes signaux que le véhicule
3 Les récepteurs calculent l’erreur de position et envoient l’information au satellite géostationnaire
4 Le satellite géostationnaire renvoie la correction au récepteur embarqué du véhicule
Le signal GPS n’offre qu’une précision officielle garantie de 10 mètres en zone dégagée quand EGNOS affiche une précision moyenne d’un mètre
Pour réaliser cette prouesse, EGNOS s’appuie sur 40 stations européennes au sol, qui captent les signaux de toute la constellation GPS. Elles transmettent ensuite ces données à 4 centres de contrôles européens qui en affinent la précision. Ces données améliorées sont ensuite envoyées aux récepteurs des utilisateurs d’EGNOS, tels les pilotes d’avion, via une constellation de 3 satellites géostationnaires européens. En particulier, le système simplifie et sécurise les phases d’approches des avions équipés. Un progrès de taille quand on sait qu’aujourd’hui, les pilotes doivent effectuer des manœuvres délicates pour capter les signaux radios. A terme, EGNOS devrait même permettre d’effectuer des atterrissages entièrement automatiques. Et une fois couplé au futur système global de géolocalisation européen Galileo, qui va compléter le système GPS, EGNOS devrait atteindre une précision de l’ordre de 10 cm. De quoi permettre de nouvelles applications, comme la signalisation des trains ou le guidage efficace et rapide des secours en montagne ou dans un immeuble en flamme…

2 – La Cinématique temps réel (Real Time Kinematic, en anglais ou RTK)

Les systèmes satellitaires existants (GPS Américain, GLONASS Russe, BEIDOU Chinois ou Galileo européen) peuvent être complétés par des systèmes dits d’augmentation de performance qui délivrent en temps réel des corrections permettant d’accroître la précision ainsi que des informations garantissant l’intégrité de ces corrections. Le principe de ces systèmes est qu’une ou plusieurs stations au sol mesurent en permanence l’erreur et transmettent un signal de correction aux utilisateurs via liaison GSM (opérateur de téléphonie classiques : ORANGE, BOUYGUES, SFR…) par l’accès à des réseaux spécifiques (TERIA, ORPHEON, SATINFO).
Ce système plus communément appelé RTK permet d’obtenir une précision de l’ordre du centimètre dans les conditions optimales d’utilisation. La société Geodata Diffusion a été créée en 2006 afin d’étudier, dimensionner, puis piloter le déploiement national du réseau Orphéon. Orphéon est un système d’augmentation de précision permettant aux utilisateurs de se positionner avec une précision centimétrique en temps réel, en utilisant un seul capteur. L’enjeu est énorme puisque sans être exhaustive, la liste suivante reprend les principales catégories professionnelles directement utilisatrices des services :

• Les géomètres (établissement de plans à grande échelle pour l’aménagement et l’urbanisme, la gestion du patrimoine foncier etc.)

• Les gestionnaires de réseaux (localisation des réseaux d’eaux, d’assainissement, de gaz, d’électricité, de télécoms etc.)

• Les entreprises de travaux publics (implantation de projets, plans de recollement, surveillance des ouvrages d’art, guidage d’engins)

• Les collectivités locales via leur département SIG (obtention d’une vision précise et exhaustive de la géométrie d’un territoire et de son mode d’occupation permettant de déboucher sur des études multicritères par croisement de données)

• Les instituts de cartographie (entretien de réseaux géodésiques, création et mise à jour de bases de données spatialisées, notamment dans le cadre des référentiels grandes échelles) • Les services cadastraux pour la bonne gestion du patrimoine foncier (délimitation parcellaire servant de base à l’imposition)

• Les gestionnaires de flottes de véhicules demandeurs d’un service de localisation de meilleure qualité, notamment en terme de disponibilité (transporteurs privés et publics pour localiser leurs mobiles, services de secours (police, pompiers, ambulances, sécurité civile) pour se diriger sur les lieux d’intervention, etc.)

• * Et enfin l’agriculture de précision afin de prendre en compte l’hétérogénéité de chaque parcelle dans les interventions culturales en modulant la gestion des intrants (semences, eau d’irrigation, engrais, fongicides, herbicides, insecticides en fonction des caractéristiques des sols, de la topographie, des attaques parasitaires, de la présence des mauvaises herbes) afin d’optimiser les résultats agronomiques tout en limitant leur impact environnemental.

La relativité du temps dans le Système GPS
Albert Einstein
Le GPS est un système de positionnement très précis qui n’a pu voir le jour seulement grâce aux avancées technologiques telles les satellites ou les horloges atomiques mais aussi grâce aux découvertes scientifiques sur les ondes électromagnétiques (Maxwell dans les années 1880) et sur la relativité du temps (Einstein en 1905 et 1915).

Le temps n’est donc pas une valeur absolue. Tout d’abord Maxwell prouve que la lumière est une onde électromagnétique se déplaçant à la vitesse absolue (vitesse de la lumière c = 3 ms-1). De par ses équations il énonce le postulat que la vitesse de la lumière dans le vide, est égale à c quel que soit le mouvement qui anime le référentiel. De ce fait la relativité bouleverse quelque peu nos conceptions :
Le temps n’est pas absolu, il peut se dilater (le temps passe moins vite) = relativité restreinte
Les dimensions de l’espace ne sont pas constantes, elles peuvent être déformées.
De ce fait le temps n’étant pas absolu et l’espace pouvant se dilater notre univers n’est pas en 3 dimensions mais en 4 avec : x, y, z, t = relativité générale
Relativité restreinte 1905 (liée à la vitesse)
Pour NEWTON (le père de la mécanique classique) le temps était absolu alors que pour EINSTEIN il est RELATIF. Lorsque 2 horloges H1 et H2 parfaitement identiques et parfaites sont synchronisées à un instant To, si l’une H1 reste par exemple au repos au sol et que l’autre H2 prend une vitesse V par rapport à H1, alors les 2 horloges ne mesurent plus les mêmes durées T1 ou T2 pour un même phénomène. Posons ΔT = T1-T2
On peut facilement calculer la dilatation du temps : ΔT/T = ½
Comme la vitesse des satellites servant au GPS est de v = 3870 m/s (14.000 km/h) et c = 300.000.000m/s ΔT =0.00000000008 Ainsi au bout de 24h, les horloges terrestres et satellitaires ne sont plus synchronisées. L’horloge H2 du satellite est en retard de 0,00000000008 × 24 × 3.600 = 0,000006,9 s soit 6,9 µs sur l’horloge H1 au sol. Relativité générale 1915 (liée à la gravitation) La relativité générale est une théorie physique développée par Albert Einstein entre 1905 et 1915. Au terme de 10 ans d’efforts, Einstein parvient à formuler une théorie relativiste de la gravitation. Il doit pour cela abandonner l’idée que deux masses s’attirent sous l’effet d’une force de gravitation (Newton). Il suppose que l’attraction résulte de la courbure de l’espace-temps.
La théorie de la relativité générale a été confirmée par des observations astronomiques dès 1919 (arthur Addington lors de l’éclipse totale de soleil), assurant la célébrité à Albert Einstein. Si elle est indispensable pour calculer la trajectoire des fusées et des satellites, elle n’a trouvé d’application grand-public que récemment avec le GPS.
En développant ses idées sur les conséquences du principe d’équivalence, Einstein aboutit à une nouvelle vision de la gravitation qui devait remplacer celle d’Isaac Newton : la relativité générale. L’aspect le plus important de cette théorie est la disparition du concept de force de gravitation.
Pour Einstein, le mouvement d’un corps n’est pas déterminé par des forces, mais par la configuration de l’espace-temps. Par exemple, d’après Newton la Terre tourne autour du Soleil car celui-ci exerce une force gravitationnelle sur notre planète. Pour Einstein, c’est une perturbation de l’espace-temps introduite par la masse du Soleil qui est à l’origine du mouvement de la Terre.
Pour mieux comprendre cette idée, faisons appel à une analogie à deux dimensions. L’espace, en relativité générale, peut être comparé à une sorte de tissu élastique. La présence d’une étoile peut être simulée en posant une pierre sur ce tissu. Celle-ci s’enfonce dans le tissu, le déforme et y crée une dépression.
Que se passe-t-il lorsqu’un corps plus petit passe à proximité de l’étoile ? Faisons rouler une bille sur le tissu : la trajectoire est d’abord une simple ligne droite, mais lorsque la bille passe à proximité de la pierre, elle pénètre légèrement dans la dépression. Elle est alors déviée de sa ligne droite et sa trajectoire se courbe. Sur ce tissu élastique, le mouvement de la bille n’est pas dicté par une force mais par la forme de l’espace ou plus précisément, par la courbure de celui-ci.
La relativité générale abandonne la notion de force et la remplace par le concept de courbure de l’espace-temps. Les corps célestes adoptent des trajectoires aussi droites que possibles, mais ils doivent se soumettre à la configuration de l’espace-temps. Loin de toute distribution de matière, la courbure de l’espace-temps est nulle et toutes les trajectoires sont des lignes droites. Près d’un corps massif comme le Soleil, l’espace-temps est déformé et les corps se déplacent sur des lignes courbes. Pour être complète, la théorie de la relativité générale doit également donner un moyen de calculer la courbure de l’espace-temps créée par une distribution de masse. Elle le fait par l’intermédiaire d’un système très complexe de formules mathématiques, les équations d’Einstein, qui relient courbure de l’espace-temps et distribution de masse. Ce système est si complexe qu’il n’a été résolu que dans quelques cas de figure très simples, par exemple autour d’une étoile isolée. La vision du monde d’Albert Einstein est donc très différente de celle proposée par Isaac Newton. Néanmoins, la plupart du temps les deux théories donnent des résultats pratiquement identiques. Les divergences n’apparaissent que dans des conditions extrêmes, soit pour des corps se déplaçant à une vitesse proche de celle de la lumière, soit pour des corps qui engendrent des champs de gravité très puissants. Ce qui n’est pas le cas sur Terre dans la vie de tous les jours. C’est pourquoi les automobilistes et les piétons vieillissent au même rythme, ainsi que les habitants du rez-de-chaussée et du dernier étage d’un immeuble
Ondes gravitationnelles

Lorsqu’ Albert Einstein a publié la forme finale de sa théorie de la relativité générale en 1916, il était déjà conscient que les équations qui y décrivaient le champ de gravitation comme une manifestation de la courbure de l’espace et du temps devaient contenir comme solutions des analogues des ondes électromagnétiques. Le tissu de l’espace-temps devait donc pouvoir se déformer et être le lieu de la propagation d’ondes gravitationnelles. En 1918, Einstein montra finalement que, de même que des charges accélérées émettent de la lumière, il était possible pour certaines configurations de matière en mouvement, d’émettre de l’énergie sous forme d’ondes gravitationnelles. La présence de ces solutions dans les équations d’Einstein n’a été admise d’un point de vue théorique qu’à partir de la fin des années 1950 environ et s’est posée alors la question de leur détection.

Découverte des ondes gravitationnelles : une révolution pour l’astronomie

C’est un événement extraordinaire, qui n’arrive jamais, ou presque Un document historique : les ondes gravitationnelles, émises par la fusion de deux trous noirs (il y a 1,3 milliard d’années lumières), enregistrés ensemble le 14/09/2015 par les deux interféromètres de l’observatoire américain Ligo, situés à 3000 kilomètres l’un de l’autre.
Cette observation ouvre un champ nouveau d’observation de l’univers à grande échelle, d’autant que les ondes gravitationnelles ne sont pas arrêtées par la matière. En revanche elle laisse encore ouverte la question de l’existence du graviton.
Se rappeler qu’à une onde est associée une corpuscule (André RIO nous l’a souvent dit et redit = dualité onde-particule) ( Ce concept fait partie des fondements de la mécanique quantique) : le photon pour l’onde électromagnétique et donc le graviton pour l’onde gravitationnelle

 

 

 

 

Les OEM (Ondes Electromagnétiques) et leurs APPLICATIONS (CR 4)

Atelier Sciences – Roger MEVEL (06 07 86 84 63)

CR de la Séance n°4 du 4/12/2017 

Les OEM (Ondes Electromagnétiques) et leurs APPLICATIONS

1 – Ce qu’il faut (ou faudrait…) retenir des 3 séances de 2016

Une onde électromagnétique comporte à la fois un champ électrique et un champ magnétique oscillant à la même fréquence. Ces deux champs, perpendiculaires l’un par rapport à l’autre se propagent dans un milieu selon une direction orthogonale (figure ci-dessous).
La propagation de ces ondes s’effectue à une vitesse qui dépend du milieu considéré. Dans le vide, la vitesse de propagation est égale à 3.10
8 m/s. 1

Une onde électromagnétique est caractérisée par plusieurs grandeurs physiques : La période (T) : elle représente le temps nécessaire pour que l’onde effectue un cycle. L’unité est la seconde. La fréquence (f) : inverse de la période, elle traduit le nombre de cycles par unité de temps.
Elle s’exprime en Hertz (Hz) – un Hz équivaut à une oscillation par seconde –
La longueur d’onde (λ) : elle exprime le caractère oscillatoire périodique de l’onde dans l’espace.
C’est la longueur parcourue par l’onde pendant une période T dans l’espace (figure ci-dessus) donc la distance séparant deux crêtes successives.
Nous avons donc la relation suivante : λ = c T ou encore
λ= c/f car f = 1/T Par conséquent, plus la longueur d’onde est petite, plus la fréquence est élevée, et réciproquement. Les échanges d’énergie portée par le rayonnement électromagnétique ne se font pas de manière continue,2

mais de façon discrète, sous forme de paquets d’énergie, véhiculés par des corpuscules élémentaires immatériels, les photons. La relation suivante exprime la quantité d’énergie (E) associée à un photon en fonction de la fréquence de l’onde : E = h f ou h est la constante de Planck (6,625.10-34 J.s).
Ainsi, les rayonnements électromagnétiques de courte longueur d’onde ou de fréquence élevée véhiculent davantage d’énergie que les rayonnements de grande longueur d’onde (basse fréquence).

Le spectre électromagnétique représente la répartition des ondes électromagnétiques en fonction de leur longueur d’onde, de leur fréquence ou bien encore de leur énergie (figure ci-dessous).

En partant des ondes les plus énergétiques, on distingue successivement :

  • Les rayons gamma (ɤ) : ils sont dus aux radiations émises par les éléments radioactifs.
    Très énergétiques, ils traversent facilement la matière et sont très dangereux pour les cellules vivantes.
    Leurs longueurs d’onde s’étendent d’un centième de milliardième (10
    -14 m ou 0,01pm) à un milliardième (10-12 m ou 1 pm) de millimètre.
  • Les rayons X : rayonnements très énergétiques traversant plus ou moins facilement les corps matériels et un peu moins nocifs que les rayons gamma, ils sont utilisés notamment en médecine pour les radiographies, dans l’industrie (contrôle des bagages dans le transport aérien), et dans la recherche pour l’étude de la matière (rayonnement synchrotron).
    Les rayons X ont des longueurs d’onde comprises entre un milliardième (10
    -12 m ou 1 pm) et un cent millième (10-8 m ou 10 nm) de millimètre.
  • Les ultraviolets : rayonnements qui restent assez énergétiques, ils sont nocifs pour la peau. Heureusement pour nous, une grande part des ultraviolets est stoppée par l’ozone atmosphérique qui sert de bouclier protecteur des cellules.
    Leurs longueurs d’onde s’échelonnent d’un cent millième (10
    -8 m ou 10 nm) à quatre dixièmes de millième (4.10-7 m ou 0,4 µm) de millimètre.
  • Le domaine visible : correspond à la partie très étroite du spectre électromagnétique perceptible par notre œil. C’est dans le domaine visible que le rayonnement solaire atteint son maximum (0,5 μm) et c’est également dans cette portion du spectre que l’on peut distinguer les 7 couleurs de l’arc en ciel (violet-indigo-bleu-vert-jaune-orange-rouge). Il s’étend de quatre dixièmes de millième (4.10-7 m ou 0,4 µm) –  lumière violette  – à huit dixièmes de millième (8.10-7 m ou 0,8 µm) de millimètre –  lumière rouge.
  • L’infrarouge : rayonnement émis par tous les corps dont la température est supérieure au zéro absolu (-273°C).
    En télédétection, on utilise certaines bandes spectrales de l’infrarouge pour mesurer la température des surfaces terrestres et océaniques, ainsi que celle des nuages.
    La gamme des infrarouges couvre les longueurs d’onde allant de huit dixièmes de millième de millimètre (8.10
    -7 m ou 0,8 µm) à un millimètre (10-3 m ou 1 mm).
  • Les ondes radar ou hyperfréquences : Cette région du spectre est utilisée pour mesurer le rayonnement émis par la surface terrestre et s’apparente dans ce cas à la télédétection dans l’infrarouge thermique, mais également par les capteurs actifs comme les systèmes radar.
    Un capteur radar émet son propre rayonnement électromagnétique et en analysant le signal rétrodiffusé, il permet de localiser et d’identifier les objets, et de calculer leur vitesse de déplacement s’ils sont en mouvement. Et ceci, quelle que soit la couverture nuageuse, de jour comme de nuit.
    Le domaine des hyperfréquences s’étend des longueurs d’onde de l’ordre du centimètre jusqu’au mètre.
  • Les ondes radio : Ce domaine de longueurs d’onde est le plus vaste du spectre électromagnétique et concerne les ondes qui ont les plus basses fréquences. Il s’étend des longueurs d’onde de quelques cm à plusieurs km.
    Relativement faciles à émettre et à recevoir, les ondes radio sont utilisées pour la transmission de l’information (radio, télévision et téléphone). La bande FM des postes de radio correspond à des longueurs d’onde de l’ordre du mètre. Celles utilisées pour les téléphones cellulaires sont de l’ordre de 10 cm environ.

Les ondes radio AM (Amplitude Modulation) et FM (Frequency Modulation)

Les grandes ondes (GO) ou ondes longues (OL), Long Waves (LW en anglais) (30 kHz à 300 kHz –longueur d’onde de 10 km à 1 km[ ) se propagent par onde de sol et sont utilisées par les stations de radio en modulation d’amplitude, pour des communications à moyenne distance (500 à 1 000 km). Un seul émetteur LW couvre à peu près tout le territoire national.

Les petites ondes (PO) ou ondes moyennes (OM), Medium Waves (MW en anglais) (300 à 3 000 kHzlongueur d’onde de 1 km à 100 m) ) se propagent également par onde de sol.

Notons que pour ce qui est de la « radio » la disparition de la modulation d’amplitude, programmée pour 2016 et 2017, devrait permettre à Radio France de réaliser 13 millions d’euros d’économies. Elle signe la fin d’une époque. Finie, la réception de France Inter en ondes longues (LO), sur la fréquence 162 kHz. Terminée, la captation de France Bleu et France Info en ondes moyennes (OM, entre 525 kHz et 1605 kHz). Cependant de nombreuses autres applications subsistent (radiolocalisation – balises de détresse …)

Les ondes courtes (OC) ou Shortwave (SW en anglais) (MHz et 30 MHz – longueur d’onde de 100 m à 10 m) se propagent par réflexions successives entre le sol ou la mer et l’ionosphère avec donc une portée de plusieurs milliers de kilomètres (domaine entre autres des radioamateurs).

La bande des très hautes fréquences (very high frequency/VHF) est la partie du spectre radioélectrique s’étendant de 30 MHz à 300 MHz, soit de 10 à 1 m de longueur d’onde. Ces ondes se propagent en vue directe. La radio FM est un procédé de radiodiffusion de programmes radiophoniques en modulation de fréquence (ou FM pour Frequency modulation) dans la gamme des très hautes fréquences (VHF). Dans la plupart des pays, c’est plus précisément la bande 87,5 – 108 MHz souvent appelée « bande FM » dans le grand public.

2 – C-R séance du 4/01/2017

La modulation sert à transmettre le signal utile S(t) (le son ici) fourni par le microphone à l’aide d’un autre signal P(t) (porteuse) d’une fréquence nettement plus élevée. Il est évident que tous les postes émetteurs de radio utilisent une plage de fréquences audibles pour nous faire entendre leurs programmes. Donc si tous les émetteurs envoyaient directement ces fréquences, nous n’aurions que du bruit à la réception. En attribuant à chacun une porteuse différente, à la réception nous choisissons le programme voulu en sélectionnant sa porteuse (elle peut être définie par sa fréquence ou parfois par sa longueur d’onde). Il suffit alors de démoduler le signal pour avoir accès à l’information d’origine que l’on applique à un haut-parleur. La modulation est également utilisée pour des liaisons numériques (ordinateurs, fax). On parle alors de modem (modulateur – démodulateur). 

La modulation d’amplitude : AM Dans ce type de modulation le signal source fait varier l’amplitude de la porteuse. On dit aussi que la source est l’enveloppe de la porteuse. Cette modulation est utilisée en radio AM. La modulation d’amplitude est très sensible aux perturbations électromagnétiques qui peuvent modifier l’amplitude de la porteuse et donc du signal source lors de la démodulation.

Modulation de fréquences : FM

  En modulation de fréquences le signal source fait varier la fréquence de la porteuse.

La modulation de fréquences est peu sensible aux perturbations électromagnétiques, car ces dernières provoquent des variations d’amplitude du signal mais pas de sa fréquence. Le signal démodulé est donc identique à celui de la source.

 

Spectre des fréquences à transmettre (cas de la parole)

 

Global Positioning System (GPS)

Le Global Positioning System (GPS) (en français Géo-positionnement par satellite) est un système de géolocalisation fonctionnant au niveau mondial et reposant sur l’exploitation de signaux radio émis par des satellites dédiés. Le système GPS permet de se situer où qu’on soit dans le monde.

Histoire

À l’origine, le GPS était un projet de recherche de l’armée américaine. Il a été lancé dans les années 1960 à la demande du président Richard Nixon. Le premier satellite est lancé en 1978 par une fusée Delta IV. En 1995, le déploiement des 24 satellites opérationnels (plus 4 en réserve) est achevé. Le système devient alors fonctionnel avec une précision limitée à une centaine de mètres pour un usage civil En 2000, le président Bill Clinton autorise une diffusion non restreinte des signaux GPS, permettant une précision d’une dizaine de mètres

Composition []

Segment spatial La constellation est organisée autour de 24 satellites principaux qui assurent la disponibilité mondiale du GPS, ce qui suppose d’avoir au moins quatre satellites visibles du sol partout dans le monde. Il y a toujours plus de satellites en orbite afin de maintenir ces 24 emplacements complets même en cas de panne. Les satellites évoluent sur six plans orbitaux ayant une inclinaison d’environ 55° sur l’équateur. Ils suivent une orbite quasi-circulaire de rayon 26 600 km environ (soit une altitude de 7 20 200 km) qu’ils parcourent en 11 h 58 min 2 s, soit un demi-jour sidéral. Ainsi, les satellites, vus du sol, reprennent la même position dans le ciel au bout d’un jour sidéral.

Un jour sidéral est la durée que met une planète pour faire un tour sur elle-même, indépendamment de sa révolution autour du Soleil. Le jour sidéral terrestre dure un petit peu plus de 23 h 56 min 4 s. C’est en raison de la révolution de la Terre autour du Soleil en même temps qu’elle tourne sur elle-même que le jour solaire dure quelques minutes de plus, soit 24 heures en moyenne (exactement puisque c’est ainsi qu’était définie l’heure avant les horloges atomiques).

Comparaison entre jour sidéral et jour solaire :
la planète positionnée en 1 met un jour sidéral pour arriver en 2 et un jour solaire pour arriver en 3

Les satellites sont la plupart du temps entourés d’une 9 couverture dorée, très visible. Cette couverture est nommée Multi-Layer Insolation (MLI), en Français isolation multicouches. Elle est composée de nombreux matériaux légers mais fortement réflecteurs, l’objectif étant de limiter les échanges radiatifs avec l’extérieur.

Un satellite, lorsqu’il est exposé au Soleil, peut avoir un côté à +150°C et un autre à -150°C

Segment de contrôle

C’est la partie qui permet de piloter et de surveiller le système. Il est composé de cinq stations au sol. Leur rôle est de mettre à jour les informations transmises par les satellites (éphémérides, paramètres d’horloge) et contrôler leur bon fonctionnement.

 

 

Segment utilisateur Le segment utilisateur regroupe l’ensemble des récepteurs GPS militaires et civils qui reçoivent et exploitent les signaux des satellites GPS pour calculer des données de position, de vitesse ou de temps. Comme les utilisateurs ne font que recevoir (ils n’émettent pas vers les satellites), le système ne peut être saturé et le nombre maximum d’utilisateurs GPS est illimité. En 2014, le nombre total de récepteur GPS est estimé à 3,6 milliards. Les smartphones avec GPS intégré sont les plus nombreux avec 3,08 milliards, suivi par les 260 millions d’assistants de navigation pour des applications routières. Le nombre restant d’appareils est réparti entre des applications variées : autres transports (aviation, ferroviaire, maritime), topographie, agriculture, infrastructure critique.

Principe de fonctionnement

Calcul de la position Le positionnement GPS fonctionne grâce à un moyen que vous connaissez sûrement : la triangulation (qui consiste à utiliser uniquement les distances pour localiser un objet ). Toutes les millisecondes, les satellites émettent des signaux codés sous forme d’onde radio émises sur deux fréquences différentes (1,6 et 1,2 GHz) qui se propagent à la vitesse de la lumière.

Le récepteur calcule le temps mis par l’onde émise par le satellite pour lui parvenir. La vitesse de propagation du signal étant connue, le récepteur détermine une sphère sur laquelle est nécessairement sa position. ( distance = temps x vitesse).

Avec un deuxième satellite, l’intersection des deux sphères forment un cercle.

 

Puis avec un troisième satellite, deux points.

 

 

 

 

 

 

 

 

 

En théorie il nous faut donc un quatrième satellite pour savoiroù on se trouve. En pratique on élimine l’un des deux points car il ne se trouve pas sur Terre mais à une position absurde (à l’extérieur de la constellation des satellites GPS ou dans les profondeurs de la Terre, par exemple). Trois satellites suffiraient donc pour connaître notre position sur le globe.

Cependant, pour la synchronisation de l’horloge du boîtier GPS, il faut la précision d’une horloge atomique. Votre boîtier GPS et votre téléphone n’en ont évidemment pas. Ils vont donc utiliser l’horodatage produite par une horloge atomique à bord d’un quatrième satellite.
Pour pouvoir utiliser le GPS, il faut donc un minium de quatre satellites : trois pour la position, et un supplémentaire pour la synchronisation.

L’horloge du satellite

La nécessité des horloges atomiques vient du fait qu’on cherche à avoir une précision très importante sur la position : de l’ordre de quelques mètres sur la surface de la Terre. Il faut donc une très grande précision dans les informations transmises à votre boîtier GPS. Pour donner une idée : une différence d’une microseconde (1 µs) correspond à une erreur de 300 mètres sur la position !

Le principe de l’horloge atomique repose sur un principe quantique15 fondamental : un atome ne peut exister que sous différents niveaux d’énergie bien quantifiés dépendant de la nature de cet atome. Lorsqu’il est « illuminé » par un faisceau de photons à la bonne énergie, l’atome peut chasser un électron d’une couche interne ; afin de conserver l’énergie, l’atome réagit en émettant un photon correspondant exactement à la différence d’énergie entre ces couches.

Le principe d’une horloge atomique devient donc « simple » : il suffit de compter la fréquence émise par un atome bien particulier comme elle est constante, elle devient une base de temps.

 Le Segment de Contrôle (dont la station principale est la Schriever Air Force Base dans le Colorado) établit le temps GPS à partir d’un ensemble d’horloges atomiques gérées par l’US Naval Observatory. Chaque satellite embarque une horloge atomique de précision, mais qui présente une dérive à long terme non négligeable. Pour éviter une désynchronisation du temps GPS entre les différents satellites, les paramètres de correction des horloges sont maintenus par le Segment de Contrôle et transmis dans le message de navigation de chaque satellite.

Synchronisation de l’horloge du récepteur

La base de temps des récepteurs GPS provient d’oscillateurs à quartz, qui peuvent aller d’un simple composant électronique fournissant du 10 MHz pour un appareil de type GPS pour l’automobile, à des oscillateurs plus performants compensant la dérive en température (OCXO ou TCXO). Mais, dans tous les cas, ces oscillateurs ne sont pas assez précis pour être utilisables pour le positionnement. Le récepteur est donc synchronisé sur le temps des horloges atomiques des satellites.

Stabilité de différents types d’horloge et d’oscillateur

Source de référence

Dérive par jour
(ordre de grandeur)

Montre à quartz 1 seconde
Oscillateur à quartz
contrôlé en température
(
TCXO)
10 millisecondes
Oscillateur à quartz
thermostaté (
OCXO)
0.1 milliseconde
Horloge atomique
d’un satellite GPS
10 nanosecondes
Horloge atomique
PHARAO
10 picosecondes

 

Jusqu’en 1956 la seconde était une fraction du jour solaire (1/86400) puis de 1956 à 1967 la seconde a été définie comme une fraction de l’année tropique (365,2422 jours solaires, intervalle de temps pour que le soleil retourne à la même position). Mais ce n’était pas assez précis, aussi à partir de 1967, la seconde a été définie à partir d’horloges atomiques

 

 

C’est à partir de 1967 que la seconde va être définie comme la durée de 9.129.631.770 périodes de la radiation correspondant à la transition de deux niveaux hyperfins de l’état fondamental du Cs 133.

Programme de l’Atelier Connaissance Scientifique 2016/2017 (suite) Roger MEVEL

  • Atelier Connaissance scientifique

Programme : les sujets d’actualités
* la Station Spatiale Internationale ISS à bord de laquelle se trouve Thomas PESQUET car les OEM sont indispensables pour effectuer les liaisons sol-satellite.(L’ISS se déplace à 28.000 km/h et, éclairée par le soleil, elle brille bien plus que les étoiles)
A ce sujet,  observez  l’ISS  car c’est un beau spectacle qui dure de 3 à 5 minutes selon les jours en allant sur le site suivant :         www.heavens-above.com puis sur ISS
* L’effet de serre  . En effet ce sont les rayons du soleil (des OEM) qui chauffent la terre.
Comme tout corps chaud la terre émet alors des rayons infrarouges (encore des OEM) qui bloqués par les gaz à effet de serre (la vapeur d’eau – le gaz carbonique – le méthane) maintiennent une température moyenne de 15°C
et donc permettent la VIE. Sans cet effet de serre cette température serait de -18°C !
* les séances de janvier  vont   coller à l’actualité : GALILEO – LINKY..

La prochaine date pour l’Atelier Sciences  =  MERCREDI O4 JANVIER

Onde électromagnétique CR3 par Roger Mevel

Atelier Sciences –

Roger MEVEL (06 07 86 84 63)

CR Atelier Sciences du 14-12-2016

Onde électromagnétique

1 – Synthèse de la séance n°1 du 16/11/2016

Les ondes mécaniques ne peuvent se propager que dans de la matière (ceci en la mettant en mouvement): * de l’air pour le son * le sol pour les tremblements de terre * de l’eau pour les vagues Les sons audibles par l’oreille humaine sont compris entre 20 Hz et 20.000 Hz. Dans l’air le son se propage à 340 m/s.

Les ondes électromagnétiques n’interagissent pas mécaniquement avec leur environnement. C’est pourquoi elles se déplacent dans le vide (là ou il n’y a pas de matière). Une onde électromagnétique est la propagation d’un signal grâce à un champ électrique et un champ magnétique qui vibrent ensemble. Les champs électrique E et magnétique H sont perpendiculaires entre eux et perpendiculaires à la direction de propagation.

Caractéristiques d’une onde électromagnétique : * La période qui est la durée séparant deux motifs élémentaires qui se reproduisent au cours du temps. * La fréquence qui est le nombre de motifs élémentaires identiques par seconde

La période T (unité : seconde ; symbole : s) et la fréquence f (unité : hertz ; symbole : Hz) sont liés par la relation f = 1/T.

* La longueur d’onde qui représente la distance parcourue par l’onde pendant la durée d’une période T. La longueur d’onde est notée à l’aide de la lettre grecque lambda (λ).

λ = c x T avec :λ en mètre (m) – c en mètre par seconde (m/s)= 300.000.000 m/s – T en seconde (s) λ = c / f avec : λ en mètre (m) – c en mètre par seconde (m/s)= 300.000.000 m/s – f en hertz (Hz)

Dans le cas des ondes électromagnétiques, on remplace souvent le chiffre de la fréquence par celui de la longueur d’onde.

 

2 – Synthèse de la séance n°2 du 02/12/2016

Caractéristiques d’une onde électromagnétique (suite) :

*la vitesse de propagation dans l’air v=c= 300.000 km/s (vitesse de la lumière). Dans un milieu d’indice de réfraction n on a v=c/n (cas du verre n=1.5 donc v=300.000/1.5=200.000 km/s dans les fibres optiques).

*La polarisation décrit la direction du champ électrique. Cas de la télévision terrestre la polarisation est rectiligne horizontale (l’antenne râteau est donc horizontale).

*La réflexion est totale sur une surface métallique. Le courant i généré ne circule qu’en surface du métal, c’est l’effet de peau. Ce courant alternatif se répartit sur une épaisseur e qui varie en 1/ ( e=66/ pour le cuivre).

*L’absorption de l’atmosphère est faible en l’absence de vapeur d’eau. Par contre elle devient forte en présence d’eau… ce qui fait que nous, les humains, absorbons fortement les ondes électromagnétiques.

*L’énergie véhiculée augmente avec la fréquence. E=h f, h étant la constante de Planck. Au-delà de la lumière visible les ondes sont dangereuses : Ultraviolet, rayons X, rayons Gamma.

Absorption du rayonnement par l’atmosphère terrestre (0 à 50.000km)

*L’atmosphère de la Terre est transparente pour la lumière visible, et certaines ondes radio ; elle est opaque pour tous les autres rayonnements.

*La troposphère (0 à 10 km) contient 80 à 90 % de la masse totale de l’air et la quasi-totalité de la vapeur d’eau (effet de serre).

*La stratosphère (10 à 50 km) abrite la couche d’ozone ( O3 ) qui intercepte plus de 97 % des rayons ultraviolets du Soleil.

Diverses « formes » d’ondes électromagnétiques 

SATELLITES ARTIFICIELS DE LA TERRE

Un satellite artificiel de la Terre tourne d’autant moins vite qu’il est loin de la Terre pour respecter la 3ème loi de Kepler qui dit que a3/T2 est une constante (égale à ) pour les objets tournant autour d’un même corps, où a est le demi-grand axe de l’orbite et T la période de révolution.

Ainsi la Station Spatiale Internationale (ou ISS) perchée à 350 km d’altitude tourne autour de notre planète en environ 1 H 30’ et ceci à 28.000 km/h ! Consulter le site «www. heavens-above.com » pour connaitre l’horaire de passage  (puis sélectionner ISS)

2 – C-R séance du 14/12/2016

L’effet de serre et le changement climatique La Terre reçoit son énergie du soleil : une partie du rayonnement solaire absorbé par la Terre est réémis vers l’espace sous forme de rayonnement infrarouge. Les gaz à effet de serre (GES), présents dans l’atmosphère, ont la propriété d’intercepter une partie de ce rayonnement infrarouge et de le réémettre, notamment en direction de la Terre. Ce phénomène naturel, appelé effet de serre, modifie le bilan radiatif de la Terre et permet d’obtenir à la surface de celle-ci une température moyenne de 15°C, alors que sans lui la température serait de -18°C.

Le phénomène naturel de l’effet de serre : schéma explicatif

On l’appelle « effet de serre » car le fonctionnement de ce phénomène est comparable à ce qui se passe dans une serre en verre, utilisée pour faciliter la culture de certaines plantes. Les parois transparentes d’une serre laissent passer les rayons du soleil. Le verre ralentit la sortie de la chaleur. Cela fait augmenter la température à l’intérieur de la serre. On peut remplacer la serre par l’atmosphère et le verre par les gaz à effet de serre GES contenus dans l’atmosphère (principalement la vapeur d’eau mais aussi le dioxyde de carbone (CO2), le méthane (CH4),…). Une augmentation des concentrations de GES dans l’atmosphère accroît leur opacité aux rayons infrarouges : une plus grande partie de ce rayonnement est interceptée, modifiant ainsi l’équilibre : ce forçage radiatif est responsable du renforcement de l’effet de serre, qui se traduit par des changements climatiques.
Les activités anthropiques ( relatives à l’activité humaine), qui conduisent à l’émission de GES en fortes quantités depuis 1750, sont responsables de cette augmentation des concentrations de GES.

Les principaux gaz à effet de serre : La vapeur d’eau est le principal gaz à effet de serre (65% de l’effet de serre naturel), mais les activités anthropiques n’ont pas d’impact direct sur les concentrations en vapeur d’eau (ce qui explique que la vapeur d’eau n’est pas citée dans les émissions anthropiques).

Le dioxyde de carbone (ou gaz carbonique, CO2) est un gaz plutôt rare dans l’atmosphère : moins de 1% ! Mais ce gaz est beaucoup plus efficace que la vapeur d’eau, pour ce qui est de l’effet de serre : il est le deuxième gaz le plus important de l’effet de serre. Le problème, c’est que l’industrie produit beaucoup de dioxyde de carbone : en polluant l’atmosphère, l’homme est donc en train d’augmenter l’effet de serre naturel.

Le méthane (CH4) est aussi appelé gaz naturel. On s’en sert pour se chauffer, pour faire la cuisine… Il est produit naturellement, notamment dans les marais. C’est un gaz plutôt rare, mais plus efficace encore que le dioxyde de carbone. L’homme augmente aussi le taux de méthane dans l’atmosphère, notamment en cultivant du riz dans les rizières : une rizière est une sorte de marécage aménagé pour l’agriculture ; elle produit beaucoup de méthane. Comme le riz est l’une des céréales les plus cultivées sur Terre, l’impact sur l’effet de serre est important. Les toundras sont des sortes de marécages gelés, au niveau du cercle polaire. Quand la température de la Terre augmente, les toundras dégèlent, et se remettent à produire du méthane, ce qui augmente encore l’effet de serre, et la température : c’est un cercle vicieux ! L’océan contient aussi une grande quantité de méthane, dissout. Quand la température augmente, le gaz s’échappe, et participe à l’effet de serre et à l’augmentation de la température. Le méthane est un gaz important dans l’effet de serre, et son importance augmente avec l’augmentation de la température

Scénarios d’évolution de la température moyenne de la surface terrestre.

 

 

 

 

 

 

 

 

 

 

Les ondes radio : Ce domaine de longueurs d’onde est le plus vaste du spectre électromagnétique et concerne les ondes qui ont les plus basses fréquences. Il s’étend des longueurs d’onde de quelques cm à plusieurs km Relativement faciles à émettre et à recevoir, les ondes radio sont utilisées pour la transmission de l’information (radio, télévision). La bande FM des postes de radio correspond à des longueurs d’onde de l’ordre du mètre.

Ondes kilométriques (LW pour ondes longues) : Elles se propagent principalement à très basse altitude, par onde de sol. Leur grande longueur d’onde permet le contournement des obstacles. Les ondes de fréquence très basse pénètrent un peu sous la surface du sol ou de la mer, ce qui permet de communiquer avec des sous-marins en plongée. Applications courantes : radiodiffusion sur Grandes Ondes (France-Inter, RTL…), diffusion des signaux horaires (horloges radio-pilotées). La puissance de ces émetteurs est énorme : souvent plusieurs mégawatts pour obtenir une portée pouvant aller jusqu’à 1 000 km.

 

 

L’émetteur d’Allouis (inauguré en octobre 1939)est un émetteur de radiodiffusion situé dans la commune d’Allouis, dans le département du Cher(près de Bourges) qui diffuse les programmes de France Inter en grandes ondes (1 852 mètres, 162 kHz). Le centre GO d’Allouis utilise deux antennes pylônes de 350m ((λ/5) de haut.

 

 

 

 

Les récepteurs : Le rôle de toute antenne de réception est de convertir une onde électromagnétique en tension. Une antenne cadre magnétique est un enroulement de fil de cuivre autour d’un cadre (cadre à air) ou autour de ferrites (cadre ferrite). Une antenne cadre est sensible au champ magnétique et non au champ électrique (d’où son nom de cadre magnétique)
Les paramètres influant sur la sensibilité de l’antenne sont le nombre de tours du bobinage, la section de chaque spire. Dans le cas d’une antenne ferrite, la perméabilité du matériau permet d’accroitre la tension.

Ondes hectométriques (ondes moyennes) : Les stations de radiodiffusion sur la bande des Petites Ondes (entre 600 et 1 500 kHz) ont des puissances pouvant aller jusqu’à plusieurs centaines de kilowatts. Elles utilisent encore l’onde de sol pour couvrir une zone ne dépassant guère une région française.

 

Ondes décamétriques (ondes courtes) : On appelle propagation ionosphérique (ou liaison lointaine par réflexion ionosphérique) la propriété des ondes électromagnétiques de parcourir des distances plus grandes que la simple ligne de vue par réflexion sur l’ionosphère. Les conditions de la propagation ionosphérique dépendent de plusieurs facteurs tels le cycle solaire, l’heure et les saisons. Puisqu’elle n’est pas limitée par la courbure de la Terre, cette propagation peut être utilisée notamment pour communiquer au-delà de l’horizon, sur des distances intercontinentales. Ce phénomène touche surtout les ondes courtes, soit les ondes à hautes fréquences. De ce fait, les ondes d’une station lointaine de radiodiffusion AM peuvent être perçues aussi clairement que si la station était rapprochée. Cela peut également se produire avec les stations de télévision à basses fréquences, lors de conditions particulières. 1901 : Marconi (1874 – 1937) physicien, inventeur et homme d’affaires italien, établit une liaison transatlantique par radio. 1931 : Sydney Chapman (1888 – 1970) astronome et géophysicien britannique, élabore sa théorie de formation des couches de l’ionosphère par l’action du rayonnement UV solaire. L’ionosphère est une région de la haute atmosphère (de 60 à 800 km d’altitude) où l’air neutre est ionisé par les rayons cosmiques et les photons solaires (UV).

Ondes métriques (Bande FM) : TAB 10Les ondes métriques correspondent à des fréquences comprises entre 30 et 300 MHz incluant la bande de radiodiffusion FM, les transmissions VHF des avions… On les appelle aussi ondes ultra-courtes (OUC). Elles se propagent principalement en ligne droite

 

 

Europe 1
102,7 MHz – MORLAIX rue Jean-Monnet
ZA de Langolvas

Altitude au sommet des antennes : 126m (puissance :1 kW)

RTL

91,4 MHz – MORLAIX Tour de la Boissière
lieudit Saint-Fiacre 29600 Plourin-lès-Morlaix

La polarisation des émetteurs FM est verticale, à la différence de la TV qui elle est horizontale. Votre antenne devra être disposée verticale (antenne télescopique de votre récepteur)

Onde électromagnétique par Roger MEVEL (CR 1 & 2)

 

Onde électromagnétique

 

par Roger MEVEL (06 07 86 84 63)

 

1 – Synthèse de la séance n°1 du 16/11/2016

Les ondes mécaniques ne peuvent se propager que dans de la matière (ceci en la mettant en mouvement): * de l’air pour le son * le sol pour les tremblements de terre * de l’eau pour les vagues Les sons audibles par l’oreille humaine sont compris entre 20 Hz et 20.000 Hz. Dans l’air le son se propage à 340 m/s.

Les ondes électromagnétiques n’interagissent pas mécaniquement avec leur environnement. C’est pourquoi elles se déplacent dans le vide (là ou il n’y a pas de matière). Une onde électromagnétique est la propagation d’un signal grâce à un champ électrique et un champ magnétique qui vibrent ensemble. Les champs électrique E tab-1et magnétique H sont perpendiculaires entre eux et perpendiculaires à la direction de propagation.

 

Caractéristiques d’une onde électromagnétique :

* La période qui est la durée séparant deux motifs élémentaires qui se reproduisent au cours du temps. * La fréquence qui est le nombre de motifs élémentaires identiques par seconde

La période T (unité : seconde ; symbole : s) et la fréquence f (unité : hertz ; symbole : Hz) sont liés par la relation f = 1/T.

* La longueur d’onde qui représente la distance parcourue par l’onde pendant la durée d’une période T. La longueur d’onde est notée à l’aide de la lettre grecque lambda (λ).

λ = c x T avec :λ en mètre (m) – c en mètre par seconde (m/s)= 300.000.000 m/s – T en seconde (s) λ = c / f avec : λ en mètre (m) – c en mètre par seconde (m/s)= 300.000.000 m/s – f en hertz (Hz)

Dans le cas des ondes électromagnétiques, on remplace souvent le chiffre de la fréquence par celui de la longueur d’onde.

 

2 – Suite de l’exposé sur les ondes électromagnétiques (02/12/2016)

* La vitesse de propagation

Les ondes électromagnétiques se propagent dans le vide à la vitesse : = 3. 108 m. s-1 (vitesse de la lumière dans le vide notée c pour « célérité ») soit 300.000 km/s. On prend la même valeur pour la propagation dans l’air.

Dans un milieu autre que le vide la vitesse est divisée par n, l’indice de réfraction du milieu (n = 1,00029 donc quasiment 1 pour l’air). L’indice de réfraction du verre est n = 1,5 Dans les fibres optiques (utilisées en téléphonie), les ondes électromagnétiques se propagent donc à la vitesse de c/1,5 = 200.000 km/s.

L’indice de réfraction d’un milieu dépend de la longueur d’onde. L’indice est légèrement plus faible pour les longueurs d’onde élevée (donc il augmente avec la fréquence).

tab2* La polarisation

La polarisation décrit la direction du « vecteur » du champ électrique. Si le champ E reste parallèle à une direction fixe particulière (verticale ou horizontale) on dit que la polarisation est rectiligne. Il peut également se faire que, dans certaines conditions, son extrémité décrive un cercle on dit que la polarisation est circulaire.

C’est vers 1924 que l’ingénieur japonais Shintaro UDA de l’université Tohoru de Sendai (Japon), conçut l’antenne directive qui allait immortaliser le nom de son professeur de l’époque : Hidetsugu YAGI.
Cette antenne fut largement utilisée pendant la Seconde Guerre mondiale pour les radars. Grace au développement de
la télévision dans les années 1950 elle reste encore de nos jours l’antenne la plus utilisée. Elle se compose d’un dipôle alimenté comme il se doit en son centre c’est l’élément rayonnant ou radiateur. Ici la polarisation est horizontale. Un mauvais choix de la polarisation de l’antenne de réception (verticale pour nous) peut se solder par un affaiblissement très grand (pouvant dépasser 20 décibels).

tab-3* Réflexion et réfraction

Lois de Descartes :

i=r

sin i = n sin t

tab4Réflexion quasi-totale

Toute onde électromagnétique peut être réfléchie totalement ou en partie, c’est d’ailleurs grâce à cela que vous pouvez voir les autres et les objets qui vous entourent. Les immeubles, montagnes, avions, obstacles de toutes natures peuvent se comporter en réflecteurs d’ondes électromagnétiques.

La réflexion métallique se produit à l’interface entre un milieu quelconque et un métal. Elle est produite par l’excitation des électrons réémettant une onde réfléchie. Les électrons sont excités sur une épaisseur caractéristique appelée épaisseur de peau caractérisant la pénétration de l’onde électromagnétique dans le milieu métallique. Notez qu’aux yeux d’une onde radio, une grille dense de métal agit de la même façon qu’une surface solide, tant et aussi longtemps que la distance entre les barreaux est petite en comparaison à la longueur d’onde (inférieure à λ/10). C’est ainsi que pour le four à microondes à 2,4 GHz (λ= 1.25 cm), une grille de métal (sur la porte) avec une maille d’un centimètre agira de la même façon qu’une plaque de métal.

Nous devons également ajouter que la réflexion a un impact sur la polarisation de l’onde : si une onde incidente en polarisation rectiligne donne une onde réfléchie en polarisation rectiligne, une onde en polarisation circulaire droite donnera une onde réfléchie en polarisation circulaire gauche.

tab-5Effet de peau

L’effet de peau ou effet pelliculaire est un phénomène électromagnétique qui fait que, à fréquence élevée, le courant a tendance à ne circuler qu’en surface des conducteurs. Ce phénomène d’origine électromagnétique existe pour tous les conducteurs parcourus par des courants alternatifs. Il provoque la décroissance de la densité de courant à mesure que l’on s’éloigne de la périphérie du conducteur Cet effet peut être utilisé pour alléger le poids des lignes de transmission à haute fréquence en utilisant des conducteurs tubulaires, ou même des tuyaux, sans perte de courant. Il sert aussi dans le blindage tab-6électromagnétique des câbles coaxiaux en les entourant d’un mince étui métallique qui garde les courants induits par les hautes fréquences ambiantes sur l’extérieur du câble.

 

Ce phénomène est d’autant plus prononcé que la fréquence est grande (plus précisément, un courant alternatif de fréquence f se répartit sur une épaisseur qui varie en

1/

 

 

Pour un conducteur en cuivre, on a e = 66/ ce quidonne les valeurs ci-dessous d’épaisseur de peau.

50 Hz 9,38 mm
60 Hz 8,57 mm
10 kHz 0,66 mm
100 kHz 0,21 mm
1 MHz 66 µm
10 MHz 21 µm

500 MHz 3 µm

L’eau de mer est un diélectrique qui a une épaisseur de peau de 8 m à 1 KHz soit 80 m à 10 Hz. Les fréquences dites ELF, Extremely Low Frequency en anglais, qui font partie de la bande de radiofréquences comprise entre 3 et 30 Hz (longueur d’onde de 100 000 à 10 000 km !) peuvent pénétrer l’eau de mer très profondément, c’est d’ailleurs ces fréquences qui sont utilisées dans certaines transmissions à destination des sous-marins militaires

tab-7Réfraction

Même si le nom ne vous dit rien, c’est un phénomène que vous avez observé une multitude de fois dans de nombreuses circonstances. Prenons le cas le plus courant, la pêche à la ligne ! Il vous est arrivé d’observer un pêcheur à la ligne et de suivre son bouchon des yeux attentivement. Vous n’êtes pas sans voir remarqué que la partie émergée du bouchon était bien droite tandis que la partie immergée semblait inclinée d’un angle a. Cette illusion d’optique est une facétie de la réfraction

* Absorption

Dès lors que l’on quitte le vide, l’atténuation croît par absorption. L’onde électromagnétique qui voyage rencontre des électrons qu’elle va exciter. Ceux-ci vont réémettre à leur tour du rayonnement mais ce processus ne s’effectue pas sans perte.

Plus la fréquence augmente et naturellement plus ce phénomène est accentué, plus particulièrement dans la troposphère. On arrive dans certains cas à une absorption totale par la vapeur d’eau pour des fréquences de l’ordre de la dizaine de GHz.

Les plastiques et matériaux similaires n’absorbent généralement pas beaucoup d’énergie de radio, mais ceci varie dépendamment de la fréquence et du type de matériel. Pour terminer, parlons de nous-mêmes : les humains. Nous (ainsi que les autres animaux) sommes surtout constitués d’eau. Nous pouvons être décrits comme des grands sacs d’eau, avec une absorption également forte.

* Energie

La lumière désigne un rayonnement électromagnétique visible par l’œil humain. Les ondes radio, les rayons X et γ sont également des rayonnements électromagnétiques. Du fait de la dualité onde-corpuscule, les rayonnements électromagnétiques peuvent se modéliser de deux manières complémentaires :

  • onde électromagnétique : le rayonnement est la propagation d’une variation des champs électrique et magnétique 
  • photon : la mécanique quantique associe aux modes normaux de la radiation électromagnétique monochromatique un corpuscule de masse nulle et de spin 1 nommé photon dont l’énergie est :

E = h ν
– E : l’énergie de l’onde électromagnétique
– ν : la fréquence de l’onde
– h : la constante de Planck (6,625.10
-34 J.s)

Ainsi, les rayonnements électromagnétiques de courte longueur d’onde ou de fréquence élevée véhiculent davantage d’énergie que les rayonnements de grande longueur d’onde (basse fréquence).

 

 Max Planck (18581947) était un physicien allemand. Il fut lauréat du prix Nobel de physique de 1918 pour ses travaux en théorie des quanta. Max Planck fut l’un des fondateurs de la mécanique quantique.

1 – La mécanique classique ou mécanique newtonienne est une théorie physique qui décrit le mouvement des objets macroscopiques lorsque leur vitesse est faible par rapport à celle de la lumière Isaac Newton (1643 – 1727) 2 – La physique quantique est une des théories des plus solides actuellement : elle explique beaucoup de phénomènes que la physique classique n’explique pas, et un grand nombre d’expériences confirment tout ce qu’on attend d’elle. Il reste cependant des choses qui ne sont pas expliquées par la physique quantique : la force de gravité par exemple, cette force bien connue qui nous “colle” les pieds au sol. Les physiciens quantiques cherchent à expliquer les phénomènes qui les entourent grâce à des outils quantiques. Notamment grâce au modèle standard ! Autrement dit, les physiciens quantiques cherchent à tout expliquer en utilisant les particules élémentaires de la matière : électrons, bosons, gluons, neutrons, etc. Mais il y a un problème avec la gravité : aucune de ces particules élémentaires ne permet de l’expliquer ! Il faudrait découvrir une nouvelle particule, que l’on appelle aujourd’hui hypothétiquement le graviton. 3 – En face de la physique quantique, on a la célèbre relativité générale d’Eintein : elle explique la mécanique de l’univers à grande échelle, et présente la gravitation comme une déformation de l’espace-temps. Elle a été créée pour expliquer les effets de la gravitation que n’expliquait pas la physique tab-8classique. Tab 8 tab 9

tab-9

Absorption du rayonnement par l’atmosphère terrestre Lorsque le rayonnement traverse l’atmosphère, il est en partie ou totalement absorbé par les molécules qui la composent. Le rayonnement cède alors de l’énergie à l’atmosphère. L’atmosphère terrestre est l’enveloppe gazeuse entourant la Terre que l’on appelle air. L’air sec se compose de 78% de diazote, 21 % de dioxygène, 0,9 % d’argon, 0,04 % de dioxyde de carbone et des traces d’autres gaz. L’atmosphère protège la vie sur Terre en absorbant le rayonnement solaire ultraviolet, en réchauffant la surface par la rétention de chaleur (effet de serre) et en réduisant les écarts de température entre le jour et la nuit.

Il n’y a pas de frontière définie entre l’atmosphère et l’espace. Elle devient de plus en plus ténue et s’évanouit peu à peu dans l’espace. L’altitude de 120 km marque la limite où les effets atmosphériques deviennent notables durant la rentrée atmosphérique.

. L’atmosphère est divisée en plusieurs couches d’importance variable : leurs limites ont été fixées selon les discontinuités dans les variations de la température, en fonction de l’altitude. De bas en haut : – la troposphère : la température décroît avec l’altitude jusqu’à atteindre -50°C; l’épaisseur de cette couche varie entre 13 et 16 km à l’équateur, mais entre 7 et 8 km aux pôles. Elle contient 80 à 90 % de la masse totale de l’air et la quasi-totalité de la vapeur d’eau. C’est la couche où se produisent les phénomènes météorologiques (nuages, pluies, etc.) et les mouvements atmosphériques horizontaux et verticaux (convection thermique, vents) ;

– la stratosphère : la température croît avec l’altitude jusqu’à 0 °C (de 8-15 km d’altitude à 50 km d’altitude) ; elle abrite une bonne partie de la couche d’ozone ; L’ozone ou trioxygène, est une substance de formule chimique O3. L’ozone est naturellement présent dans l’atmosphère terrestre, formant dans la stratosphère une couche d’ozone entre 13 et 40 km d’altitude qui intercepte plus de 97 % des rayons ultraviolets du Soleil, mais est un polluant dans les basses couches de l’atmosphère (la troposphère) où il agresse le système respiratoire des animaux et peut brûler les végétaux les plus sensibles

– la mésosphère : la température décroît avec l’altitude (de 50 km d’altitude à 80 km d’altitude) jusqu’à −80 °C ;

– la thermosphère : la température croît avec l’altitude (de 80 km d’altitude à 350-800 km d’altitude) ;

– l’exosphère : de 350-800 km d’altitude à 50 000 km d’altitude.

– Ionosphère : Partie de l’atmosphère où les molécules sont ionisées par le rayonnement ultraviolet solaire. L’ionosphère terrestre est comprise entre environ 80 et 500 km d’altitude.

tab-10PRESSION ATMOSPHÉRIQUE ET ALTITUDE

L’atmosphère normale (symbole atm) est une unité de pression, qui n’appartient pas au Système international (SI). Elle a été définie comme étant égale à 101 325 Pa ou 1000 hPa. La pression atmosphérique diminue avec l’altitude.

 

 

 

 

 

* altitude – pression – température

 

 altitude (m)

 pression (Pa)

 température (°C)

 0  101 300  15
 500  95 500  11,8
 1000  90 000  8,5
 1500  84 500  5,3
 2000  79 400  2
 3000  70 000  -4,5
 4000  61 700  -11
 6000  47 100  -24
 10 000  26 500  -50

Ce tableau indique, par exemple, qu’à 1000 mètres d’altitude, donc en moyenne montagne, la température de l’air est plus basse de 6,5 degrés, et la pression plus basse d’environ 10 % par rapport à celle au niveau de la mer. La proportion de différents gaz reste la même. Ça signifie qu’il y moins d’oxygène en altitude. C’est la raison pour laquelle les alpinistes utilisent des bouteilles d’air comprimé pour pouvoir gravir des montagnes très hautes, comme l’Everest.

 

 

 

 

Diverses « formes » d’ondes électromagnétiques

Le spectre électromagnétique a été découpé en plusieurs morceaux, et chacun d’entre eux correspond à un type tab-11d’onde particulier

 

 

 

Préfixes du Système international d’unités et noms des nombres correspondants

1000m

10n

Préfixe
français

Symbole

Depuis
[note 1]

Nombre décimal

Désignation
[note 2]

10008 1024 yotta Y 1991 1 000 000 000 000 000 000 000 000 Quadrillion
10007 1021 zetta Z 1991 1 000 000 000 000 000 000 000 Trilliard
10006 1018 exa E 1975 1 000 000 000 000 000 000 Trillion
10005 1015 péta P 1975 1 000 000 000 000 000 Billiard
10004 1012 téra T 1960 1 000 000 000 000 Billion
10003 109 giga G 1960 1 000 000 000 Milliard
10002 106 méga M 1960 1 000 000 Million
10001 103 kilo k 1795 1 000 Millier
10002/3 102 hecto h 1795 100 Centaine
10001/3 101 déca da 1795 10 Dizaine
10000 100 (aucun) 1 Unité
1000−1/3 10−1 déci d 1795 0,1 Dixième
1000−2/3 10−2 centi c 1795 0,01 Centième
1000−1 10−3 milli m 1795 0,001 Millième
1000−2 10−6 micro µ 1960
[note 3]
0,000 001 Millionième
1000−3 10−9 nano n 1960 0,000 000 001 Milliardième
1000−4 10−12 pico p 1960 0,000 000 000 001 Billionième
1000−5 10−15 femto f 1964 0,000 000 000 000 001 Billiardième
1000−6 10−18 atto a 1964 0,000 000 000 000 000 001 Trillionième
1000−7 10−21 zepto z 1991 0,000 000 000 000 000 000 001 Trilliardième

 

 

Lois de Kepler

Johannes Kepler (1571 – 1630) est un astronome célèbre pour avoir étudié l’hypothèse héliocentrique de Nicolas Copernic, affirmant que la Terre tourne autour du Soleil et surtout pour avoir découvert que les planètes ne tournent pas autour du Soleil en suivant des trajectoires circulaires parfaites mais des trajectoires elliptiques.

Nicolas Copernic (1473 – 1543) est un chanoine, médecin et astronome polonais. Il est célèbre pour avoir développé et défendu la théorie de l’héliocentrisme selon laquelle le Soleil se trouve au centre de l’Univers et la Terre tourne autour de lui contre la croyance répandue que cette dernière était centrale et immobile. Les conséquences de cette théorie dans le changement profond des points de vue scientifique, philosophique et religieux qu’elle impose sont baptisées révolution copernicienne.

 

tab-121ère loi : Loi dite des orbites

A partir du mouvement de Mars, Kepler comprend que les orbites des planètes ne sont pas circulaires. « L’orbite de chaque planète est une ellipse dont un des foyers est occupé par le Soleil ». Le mouvement des planètes est déterminé par les interactions gravitationnelles Attraction gravitationnelle : Force élémentaire d’attraction des corps proportionnelle à leurs masses qui décroît avec le carré de la distance.

2ème loi : Loi dite des aires tab 13

tab-13Les planètes se déplacent d’autant plus rapidement qu’elles sont près du Soleil. « Le rayon de l’orbite d’une planète balaie des aires égales en des temps égaux ».

Pendant le même intervalle de temps (dt), le rayon d’une planète balaie la même surface : loin du Soleil (en bleu) le mouvement est lent ; plus près (en vert), il est plus rapide.

3ème loi : Loi dite des périodes

« Le carré des périodes de révolution des planètes est proportionnel au cube des demi grands axes de leurs orbites ». Soit T la période de révolution, a le demi grand axe de l’orbite et k le rapport de proportionnalité. La troisième loi de Kepler stipule que

Bien que Kepler ait découvert ces lois empiriquement, nous savons maintenant comment les démontrer.

Newton en faisant le lien avec la mécanique classique en déduisit la formule suivante :

a3/T2 = GM/4π 2 = 1,00965×1013

SATELLITES ARTIFICIELS DE LA TERRE

tab-14En partant du centre : la ligne pointillée rouge représente l’orbite de la station orbitale internationale (340 km), le cyan (bleu-vert) représente les orbites basses, le jaune représente les orbites moyennes et la ligne noire pointillée représente les orbites géosynchrones (36.000 km). Les pointillés verts représentent les orbites des satellites GPS (20.000 km).

Un satellite artificiel de la Terre tourne d’autant moins vite qu’il est loin de la Terre pour respecter la 3ème loi de Kepler qui dit que a3/T2 est une constante pour les objets tournant autour d’un même corps, où a est le demi-grand axe de l’orbite et T la période de révolution.

* En supposant les orbites circulaires, un satellite situé à 300 km d’altitude (orbite basse) aura une période de révolution de T :

a = 300 km + 6378 km = 6,678×106 m; donc a3 = 297,81×1018 m3

Appliquons la formule a3/T2 = GM/4π 2 = 1,00965.1013

donc T2 = a3/1,00965×1013 =  297,81×1018/1,00965×1013 = 29496358 secondes, soit T = 5431,055 secondes, c’est-à-dire, environ une heure et demie.

* Calculons la distance a au centre de la Terre à laquelle doit se trouver un satellite artificiel pour être géostationnaire.

T doit être égal à 23 heures 56 minutes 4 secondes, soit 86164 secondes ; on a T2 = 7424234896 s2 donc a3 = T2x1,00965×1013 = 74,95878763×1021 (voir ci-dessus) et ainsi a = 4,21639 x 107 mètres soit 42 163 km. En retranchant le rayon terrestre, on obtient l’altitude d’un satellite géostationnaire : environ 36 000 kilomètres.

* On peut faire le même calcul avec des satellites plus éloignés et on verra que la durée de révolution augmente et atteint 28 jours pour un corps situé à 300 000 kilomètres de la Terre : c’est la Lune !

   

Combien y a-t-il de satellites au-dessus de nos têtes ?

tab-15Actuellement, 2 630 satellites actifs sont en orbite autour de la Terre. La plupart d’origine russe (soviétique) et américaine. A ces engins s’ajoutent environ 7 000 objets, coiffes et réservoirs de fusées ou autres morceaux résultant de lancements de satellites ou de sondes d’exploration. Soit près de 2 500 t de métal. On dénombre aussi une centaine de milliers de débris de 1 à 10 cm provenant de la désintégration d’anciens satellites. Enfin, on estime à plusieurs dizaines de millions les débris de moins d’un centimètre. Ces déchets, mus d’une grande vitesse, menacent les satellites actifs. Ils sont donc surveillés par le North American Air Defense Command et le Cnes (Centre national d’études spatiales français) via des télescopes spécialisés et des radars.